JP6436077B2 - 画像処理システム、画像処理方法及びプログラム - Google Patents

画像処理システム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6436077B2
JP6436077B2 JP2015519735A JP2015519735A JP6436077B2 JP 6436077 B2 JP6436077 B2 JP 6436077B2 JP 2015519735 A JP2015519735 A JP 2015519735A JP 2015519735 A JP2015519735 A JP 2015519735A JP 6436077 B2 JP6436077 B2 JP 6436077B2
Authority
JP
Japan
Prior art keywords
image
time
background
time width
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015519735A
Other languages
English (en)
Other versions
JPWO2014192441A1 (ja
Inventor
有紀江 海老山
有紀江 海老山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=51988480&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6436077(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2014192441A1 publication Critical patent/JPWO2014192441A1/ja
Application granted granted Critical
Publication of JP6436077B2 publication Critical patent/JP6436077B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明に係るいくつかの態様は、画像処理システム、画像処理方法及びプログラムに関する。
近年、例えばビデオ監視などにおいて、置き去りにされた物体や一定時間以上滞留する人物を特定することが考えられている(例えば、特許文献1参照)。特許文献1では、シーン中の動きを複数の時間スケールで解析し、長期背景モデル及び短期背景モデルを比較する。これにより、シーンの主に静止した背景部分と、動的な前景部分と、或る時間に渡って静止している置き去り物体とにそれぞれ属する画素を区別している。
特許第5058010号公報
しかしながら、特許文献1記載の手法では、処理対象とする時間スケール中に人流が頻繁に発生する等の、映像が随時変化する場合には、好適な背景モデルを生成することができないために、置き去り物体を好適に検出することが困難である。
本発明のいくつかの態様は前述の課題に鑑みてなされたものであり、静止する物体を好適に検出することのできる画像処理システム、画像処理方法及びプログラムを提供することを目的の1つとする。
本発明に係る画像処理システムは、複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定する第1の特定手段と、処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成する画像生成手段と、前記第1の画像と前記第2の画像とを比較した結果、差異のある領域を特定する第2の特定手段とを備える。
本発明に係る画像処理方法は、複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定するステップと、処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成するステップと、前記第1の画像と前記第2の画像とを比較した結果、差異のある領域を特定するステップとを画像処理システムが行う。
本発明に係るプログラムは、複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定する処理と、処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成する処理と、前記第1の画像と前記第2の画像とを比較した結果、差異のある領域を特定する処理とをコンピュータに実行させる。
なお、本発明において、「部」や「手段」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」や「手段」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や「手段」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や「手段」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。
本発明によれば、静止する物体を好適に検出することのできる画像処理システム、画像処理方法及びプログラムを提供することができる。
入力画像の具体例を示す図である。 入力画像に対して特定した背景領域の具体例を示す図である。 背景画像の生成方法の具体例を示す図である。 第1実施形態に係る画像処理システムの概略構成を示す機能ブロック図である。 時間窓に応じた静止物体検出の具体例を説明するための図である。 時間窓に応じた静止物体検出の具体例を説明するための図である。 図1に示す情報処理サーバの処理の流れを示すフローチャートである。 図1に示す情報処理サーバを実装可能なハードウェアの構成を示すブロック図である。 実施例に係る入力画像を示す図である。 第2実施形態に係る監視装置の概略構成を示す機能ブロック図である。
以下に本発明の実施形態を説明する。以下の説明及び参照する図面の記載において、同一又は類似の構成には、それぞれ同一又は類似の符号が付されている。
(1 第1実施形態)
図1乃至図8は、第1実施形態を説明するための図である。以下、これらの図を参照しながら、以下の流れに沿って本実施形態を説明する。まず、「1.1」で本実施形態における静止物体(人物も含む)の検出方法の概要を説明する。その後、「1.2」で本実施形態に係る画像処理システムの機能構成の概要を、「1.3」で時間窓に応じた静止物体抽出の具体例を説明する。「1.4」では処理の流れを、「1.5」では本画像処理システムを実現可能なハードウェア構成の具体例を示す。最後に、「1.6」以降で、本実施形態に係る効果などを説明する。
(1.1 概要)
本実施形態に係る画像処理システムは、例えば監視カメラ等で撮影される画像から、一定期間静止(停止)する物体を検出するためのものである。ここで、本画像処理システムが検出可能な「物体」には、人物や動物を含む各種移動体、人物が放置した放置物等を全て含む。
ここで、例えば長期間(以下、長期時間窓ともいう。)に撮影された多数の撮影画像を平均化等することにより背景画像を作り、この背景画像と、それよりも短い短期間(以下、短期時間窓ともいう。)に撮影された撮影画像を平均化等した背景画像と比較することにより、当該短期間内に、長く映る物体を抽出することも考えられる。このように、一定期間内の撮影画像から平均的な画像(背景画像)を生成すれば、この画像では、例えばすぐにフレームアウトするような移動物体(人物を含む)等の影響を低く抑えることができるため、静止物体を抽出しやすくなる。なお、本実施形態では、複数の画像を元に生成されることにより、移動物体の影響が低く抑えられた画像を背景画像と呼ぶ。
しかしながら、このような手法では、人流が常に発生するような場合には、撮影画像を平均化等したとしても、人流の影響が大きく残ってしまうため、当該人流の背景への溶けこみ具合が長期時間窓の画像と短期時間窓とで変わってしまい、結果として静止物の検出漏れや誤検出が発生しやすくなる。
そこで本実施形態では、撮影画像から、まず移動物体の領域(以下、「前景領域」ともいう。)と、それ以外の静止領域(以下、「背景領域」ともいう。また、「静止領域」とは、全く動きのない場合のみをいうものではなく、例えば、動きが閾値よりも小さい領域も静止領域というものとする。)とを分離した上で、各撮影画像の静止領域を時間方向に平均化等することにより、背景画像を生成する。これにより、人流等が発生していた場合であっても、人流発生領域は前景領域となるため、生成される背景画像へ人流等への影響を抑えることが可能となる。これにより、長期時間窓の背景画像と短期時間窓の背景画像とを比較すれば、好適に静止物体(長時間とどまっている物体)を検出することが可能となる。以下、図1乃至図3を参照しながら、処理の流れの具体例を説明する。
図1は、時刻t−4〜時刻tにそれぞれ撮影された入力画像の具体例を示す図である。ここで、時刻t−4及び時刻t−3の画像においては誰も映っておらず、時刻t−2乃至時刻tの画像では、人物が映っている。また、時刻t−2では人物は移動しているが、時刻t−1及び時刻tでは、人物は停止している。
本実施形態に係る画像処理システムでは、図1に示したような各入力画像に対し、移動領域(前景領域)と静止領域(背景領域)とに分ける。図2は、図1の入力画像のうち、静止領域のみを抽出した場合の画像の例を示す図である。
前述したように、時刻t−2の画像では人物が移動しているので、当該人物を含む領域が移動領域として画像から除かれている。一方、他の画像に関しては、移動領域が存在しないため、換言すると、画像全体が静止領域であるため、入力画像のまま変化していない。
図3に示すように、本実施形態に係る画像処理システムは、このように静止領域のみを抽出した各画像から、複数の時間窓に対して背景画像を生成する。この背景画像は、例えば、現在時刻tから過去一定期間内に撮影された各画像の静止領域に対して、画素値の平均値、中央値、または最頻値を画像内の各画素に対して求めることにより生成することができる。背景画像を短期時間窓と長期時間窓のそれぞれに対して生成すれば、画像処理システムは両者を比較した上で、差異が閾値を超える画素を抽出し、当該画素領域を、静止物体領域として特定する。
なお、図3の例において、長期時間窓に対する背景画像では人物が表示されていないが、これは、背景画像を生成する際に、各画像に対する例えば画素値の最頻値や中央値等を取ることにより、短期間しか表示されていない人物の影響が弱くなるためである。
(1.2 システム概要)
以下、図4を参照しながら、本実施形態に係る画像処理システム1のシステム構成を説明する。図4は、画像処理システム1のシステム構成を示すブロック図である。
画像処理システム1は、画像入力部410と、前景・背景分離部420と、背景画像生成部430と、背景画像記憶部440と、背景画像比較部450と、静止領域判定部460と、出力部470とを含む。
画像入力部410は、図示しない監視カメラなどである撮影装置から入力される映像に含まれるフレーム画像の入力を順次受ける。各フレーム画像は、それぞれ撮影時刻の異なる画像である。若しくは、画像入力部410は、図示しないHDD(Hard Disk Drive)やVCR(Video Cassette Recorder)に記憶された映像データを復号して得られるフレーム画像の入力を受けても良い。
前景・背景分離部420は、例えば背景差分法やオプティカルフロー等を用いて、画像入力部410から入力されてきた入力画像に対して、順次前景領域と背景領域とを分離する。ここで、前景領域は、画像内の動きのある領域であり、背景領域は動きのない(静止している)領域である。ここで、動きの有無の判定は、例えば、動きが閾値を超えているか否かにより判別することができる。動きの有無の判定に用いる閾値は、検出対象である静止物体によって変えてもよい。具体的には、例えば、放置されたスーツケースなどの剛体を検出対象とする場合は、画像内でまったく動きがない領域を背景領域とし、それ以外を前景領域とすれば良い。一方、人物や袋などの非剛体を検出対象とする場合は、多少の揺れや姿勢変動や形状変化による画像内での見えの変化が生じても、変化量が所定の閾値よりも小さい場合は背景領域とし、それ以外を前景領域とすれば良い。つまり、前述の通り、「静止領域」とは、全く動きのない領域のみを指すものではなく、動きの量が閾値よりも小さい領域をいう。また、この閾値は、検出対象に応じて変えることができる。
動きのある前景領域と、静止している背景領域とを分ける際にオプティカルフローを使用する手法では、例えば、マクロブロック単位で、前のフレームと比較した上で、動きのあるブロックを特定する。より具体的には、例えば、処理対象の画像の各マクロブロック(画素の集合)と類似するマクロブロックが、直前に撮影された画像のどこにあるかを調べる(ブロックマッチング)等により特定することができる。
背景差分法を用いる場合には、事前に取得しておいた背景画像と処理対象の画像との差分を比較することにより、移動物体を特定する。
背景画像生成部430は、前景・背景分離部420で抽出した背景領域(静止領域の画像)と、背景画像記憶部440に記憶されている、定められた複数の時間窓内に撮影された画像に係る背景領域とを用いて、背景画像を生成する。この際、背景画像生成部430は、各画像の背景領域に係る各画素位置で得られた時間窓分の画素値の平均値、中央値、または最頻値を算出することにより、背景画像を生成することができる。また、定められた各時間窓の長さに対して、前景・背景分離部420で抽出した背景画素の数が所定の割合よりも小さい場合は、信頼できる背景生成に足る十分な情報が得られなかった領域として、以降の処理から除外するようにしてもよい。
さらに、背景画像生成部430にて、もっとも長い時間窓から背景を生成する(真の背景で構成されていると想定される背景画像を生成する)際に、背景画像記憶部440に背景画像と共に記憶されている静止領域情報(例えばマスク画像など)を用い、静止領域以外の背景領域の画素値の平均値、中央値、または最頻値を算出することにより、背景画像を生成してもよい。なぜならば、駅ホームやバス停、レジや券売機やATMなどの監視映像では同じ位置に一時停留する人物が次々と現れ、前景・背景分離部420で抽出した背景領域をそのまま用いると真の背景画像を生成できない場合があるためである。なお、後述の通り、静止領域情報(例えばマスク画像など)は、静止領域判定部460により作成される。
ここで、背景画像記憶部440は、前景・背景分離部420で逐次抽出される、各入力画像の背景領域に係る画像を所定時間分記憶する。このとき背景画像記憶部440は、静止領域判定部460で生成される、前述の所定時間分の画像に対応する静止領域情報(例えばマスク画像など)を記憶するようにしてもよい。
或いは背景画像記憶部440は、背景画像生成部430での処理に合わせて、当該背景画像生成部430で生成された、各時間窓における背景画像を記憶する。
背景画像比較部450は、背景画像生成部430が各時間窓に対して生成した背景画像同士を比較する。より具体的には、最も長い時間窓から生成した背景画像(真の背景で構成されていると想定される背景画像)と、それよりも短い時間窓から生成した背景画像とを比較することにより、一定時間静止している静止物体を検出することができる。このとき、複数の時間窓の背景で背景画像を生成することにより、静止物体を、静止時間長に応じて分類して検出することもできる。この方法については、後に図5や図6を参照しながら説明する。
背景画像比較部450による背景画像の比較方法としては、例えば、背景画像間の画素値の差の絶対値を用いる方法や、画像上で小さいサイズの矩形領域を走査しながら、矩形領域内の画素値の相関を算出する方法や、矩形領域内の画素値のヒストグラム距離を算出する方法等が考えられる。矩形領域を用いる手法に関しては、例えば、マクロブロックなどの一定のサイズを設定しても良いし、カメラパラメータを用いて、検出対象物体が画像上でどのような大きさで見えるかを考慮した上で、画像上の場所ごとに異なるサイズを設定(例えば、前方が映っている画像領域は矩形領域を大きく、後方が映っている画像領域は矩形領域を小さく)しても良い。
静止領域判定部460は、背景画像比較部450による比較の結果、例えば閾値を超える差異があった画素を特定した上で、このような画素で構成される画素領域を静止領域として判定する。この際、検出対象である物体の大きさや形状等の特徴が既知であれば、その特徴に合致しない画素領域は除外して判定するようにしてもよい。
また、静止領域判定部460は、静止領域判定部460にて静止領域と判定された画素領域が存在した場合は、背景画像記憶部440に記憶されている最新の背景画像に対して、該当する画素領域に静止物体が存在することを表す情報(例えばマスク画像など)を、背景画像記憶部440に記憶させる。
出力部470は、静止領域判定部460で判定された画素領域の情報(静止物体がある領域の情報)を、外部モジュールへと出力する。
(1.3 時間窓に応じた静止物体抽出の具体例)
以下、図5及び図6を参照しながら、時間窓に応じた静止物体抽出の具体例を説明する。
複数の異なる時間窓を用いて背景画像を生成する場合には、短い時間窓から生成された背景画像には、真の背景(移動物体を全くまない背景)と、停止時間の短いものから長いものまでの全ての物体とが含まれる。一方、長い時間窓から生成された背景画像には、真の背景と停止時間が長い物体とが含まれ、最も長い時間窓から生成された背景画像には、真の背景のみが含まれる。つまり、いずれかの時間窓の背景画像に、真の背景、及び停止時間が異なる全ての検出物体(一定期間停止した静止物体)が含まれる。
一方で、固定時間長の長期・短期の2つの時間窓のみを用いた場合には、検出対象の静止時間が異なる場合に、真の背景画像と全ての検出対象を含む画像を生成することが困難である。例えば、15分の長期時間窓と5分の短期時間窓との2つの時間窓を用いて背景画像を生成した場合には、対象の静止時間長が5分前後の場合には良好に検出できるが、静止時間が10分程度を超えるような、静止時間が長い対象については、長期時間窓及び短期時間窓のいずれの背景画像にも対象が映り込むこととなってしまうため、検出が困難である。また、静止時間長が、例えば1分前後と短い場合には、長期時間窓及び短期時間窓のいずれの背景画像にも対象が映らないこととなってしまう。これらのように、長期時間窓及び短期時間窓の間で差がでない場合には、後段の背景画像比較部450で比較したとしても、本来静止物体が存在する領域において差分が得られないため、静止物体として検出することができなくなってしまう。
そこで、本実施形態に係る背景画像生成部430は、抽出する静止物体の静止時間長に応じて時間窓を設定する。
図5に示すように、例えば現在時刻(処理対象とする時刻)の4分前から1名の人物が立ち止まり、1分前から現在時刻に至るまでもう1名の人物が立ち止まっている映像を考える。
ここで、(a)に示すように、現在時刻から遡って10分間の時間窓と現在時刻から遡って5分間の時間窓で背景画像を作ることを考えると、10分間の時間窓で生成した背景画像にはどのような人物も映らず、5分間の時間窓で生成した背景画像には、4分前から立ち止まっている(静止している)人物が映る。しかしながら、1分前から立ち止まっている人物は、いずれの画像にも映らない。これは、例えば各画素の画素値の最頻値を元に背景画像を生成する場合には、少なくとも時間窓内の過半の画像に映っている必要があるためである。
つまり、10分間の時間窓と5分間の時間窓とを用いる場合には、1分前から立ち止まっている静止物体を抽出することはできない。
一方、(b)に示すように、現在時刻から遡って10分間の時間窓と5分間の時間窓と1分間の時間窓との3つで背景画像を作ることを考えると、1分間の時間窓には、1分前から立ち止まっている人物が映ることになる。
つまり、現在時刻から遡って1分間以上立ち止まっている人物(物体)を検出する場合には、1分間の時間窓での背景画像を生成すれば良い。
また、図6に示すように、現在時刻から10分前から1分前まで1名の人物が立ち止まり、6分前から5分前まで1名の人物が立ち止まっている場合を考える。
ここで、現在時刻の10分前に背景画像を生成する場合を考えると、10分間の時間窓や5分間の時間窓で生成した背景画像には、人物は映らないが(両方の背景画像には差がないため、両背景画像を集約しても良い)、1分間の時間窓の背景画像を生成すると1名の人物が映る。これにより、現在時刻の10分前に立ち止まっている人が、10分前の時点において、1分間立ち止まっている人物として検出できることがわかる。
また、現在時刻の5分前に背景画像を生成することを考えると、10分間の時間窓で生成した背景画像には人物は映らないが、5分間の時間窓で生成した背景画像には現在時刻の10分前から立ち止まっている人物が映る。また、1分間の時間窓で生成した背景画像には、現在時刻の10分前から立ち止まっている人物と、6分前から立ち止まっている人物との2名の人物が映る。
これらの比較により、5分前の時点において、5分間立ち止まっている人物と、1分間立ち止まっている人物とを検出することが可能となる。
更に、現在時刻においては、20分間の時間窓で生成した背景画像には誰も映らず、10分間及び5分間の時間窓で生成した背景画像には10分前から1分前まで立ち止まっていた人物が映り、1分間の時間窓で生成した背景画像には誰も映っていない。
つまり、最も長い時間窓である20分間の背景画像と、最も短い時間窓である1分間の時間窓の背景画像との間に差がないことから、現在時刻において、立ち止まっている人物がいないことがわかる。
以上説明したように、背景画像生成部430が複数の時間窓に係る背景画像を生成し、背景画像比較部450が、最も長い時間窓から生成した真の背景と推定される背景画像と、それ以外の異なる時間窓から生成した背景画像とを比較することにより、静止時間が異なる全ての静止物体を検出することができるようになる。特に、複数の時間窓に係る背景画像同士を比較することにより、静止物体を静止時間長に応じて分類することも可能である。例えば、5分以上15分以下の時間窓により生成した背景画像にのみ映る静止物体や、15分以上30分以下の時間窓から生成した背景画像にのみ映る静止物体等に分類して、静止物体を検出することができる。これにより、例えば、静止時間長に応じて、検出された静止物体への動作を変更するといったアプリケーションを開発することが可能となる。
(1.4 処理の流れ)
以下、画像処理システム1の処理の流れを、図4を参照しながら説明する。図4は、本実施形態に係る画像処理システム1の処理の流れを示すフローチャートである。
なお、後述の各処理ステップは、処理内容に矛盾を生じない範囲で、任意に順番を変更して若しくは並列に実行することができ、また、各処理ステップ間に他のステップを追加しても良い。更に、便宜上1つのステップとして記載されているステップは複数のステップに分けて実行することもでき、便宜上複数に分けて記載されているステップを1ステップとして実行することもできる。
まず、画像入力部410は、例えばビデオカメラで撮影された画像や、ビデオカメラで撮影された映像が記録された映像データを順次読みだした上で、当該映像データを復号して得られる画像の入力を受ける(S701)。
前景・背景分離部420は、画像入力部410から入力された画像のうち、静止している背景領域と、移動が生じている前景領域とに分離する(S703)。生成された背景領域の画像は、例えば背景画像記憶部440に記憶される。
背景画像生成部430は、予め設定した時間窓内に撮影された各画像のうちの、前景・背景分離部420により特定された背景領域を使用して、背景画像を生成する(S705)。このとき背景画像生成部430は、抽出する静止物体の静止時間に応じて、複数の時間窓に対して背景画像を生成する。
背景画像比較部450は、背景画像生成部430が生成した、各時間窓の背景画像をそれぞれ比較し(S707)、静止領域判定部460は、その差異が閾値以上である領域を、静止物体の領域として特定する(S709)。出力部470は、このようにして特定された静止物体の領域や静止時間の情報を、例えばアプリケーションや記憶媒体などの外部モジュールに対して出力する(S711)。
(1.5 ハードウェア構成)
以下、図8を参照しながら、上述してきた画像処理システム1をコンピュータにより実現する場合のハードウェア構成の一例を説明する。なお前述の通り、画像処理システム1の機能は、複数の情報処理装置により実現することも可能である。
図8に示すように、画像処理システム1は、プロセッサ801、メモリ803、記憶装置805、入力インタフェース(I/F)807、データI/F809、通信I/F811、及び表示装置813を含む。
プロセッサ801は、メモリ803に記憶されているプログラムを実行することにより画像処理システム1における様々な処理を制御する。例えば、図4で説明した画像入力部410、前景・背景分離部420、背景画像生成部430、背景画像比較部450、静止領域判定部460、及び出力部470に係る処理は、メモリ803に一時記憶された上で主にプロセッサ801上で動作するプログラムとして実現可能である。
メモリ803は、例えばRAM(Random Access Memory)等の記憶媒体である。メモリ803は、プロセッサ801によって実行されるプログラムのプログラムコードや、プログラムの実行時に必要となるデータを一時的に記憶する。例えば、メモリ803の記憶領域には、プログラム実行時に必要となるスタック領域が確保される。
記憶装置805は、例えばハードディスクやフラッシュメモリ等の不揮発性の記憶媒体である。記憶装置805は、オペレーティングシステムや、画像入力部410、前景・背景分離部420、背景画像生成部430、背景画像比較部450、静止領域判定部460、及び出力部470を実現するための各種プログラムや、背景画像記憶部440を含む各種データ等を記憶する。記憶装置805に記憶されているプログラムやデータは、必要に応じてメモリ803にロードされることにより、プロセッサ801から参照される。
入力I/F807は、ユーザからの入力を受け付けるためのデバイスである。入力I/F807の具体例としては、キーボードやマウス、タッチパネル等が挙げられる。入力I/F807は、例えばUSB(Universal Serial Bus)等のインタフェースを介して画像処理システム1に接続されても良い。
データI/F809は、情報処理サーバ100の外部からデータを入力するためのデバイスである。データI/F809の具体例としては、各種記憶媒体に記憶されているデータを読み取るためのドライブ装置等がある。データI/F809は、画像処理システム1の外部に設けられることも考えられる。その場合、データI/F809は、例えばUSB等のインタフェースを介して画像処理システム1へと接続される。
通信I/F811は、画像処理システム1の外部の装置、例えばビデオカメラ等との間で有線又は無線によりデータ通信するためのデバイスである。通信I/F811は画像処理システム1の外部に設けられることも考えられる。その場合、通信I/F811は、例えばUSB等のインタフェースを介して画像処理システム1に接続される。
表示装置813は、各種情報を表示するためのデバイスである。表示装置813の具体例としては、例えば液晶ディスプレイや有機EL(Electro−Luminescence)ディスプレイ等が挙げられる。表示装置813は、画像処理システム1の外部に設けられても良い。その場合、表示装置813は、例えばディスプレイケーブル等を介して画像処理システム1に接続される。
(1.6 本実施形態に係る効果)
以上説明したように、各入力画像に対して、移動領域(前景領域)と静止領域(背景領域)とに分離した上で、時間窓内に撮影された各画像の静止領域を元に、背景画像を生成する。このようにすることで、常に移動が発生しているような領域で、当該移動が背景に溶けこむことで生じる静止物体の検出漏れや誤検出を抑制することができる。
また、本実施形態に係る手法では、任意に設定可能な複数の時間窓を用いて静止物体の検出を行なっている。これにより、様々な静止時間の静止物体を抽出することが可能となると共に、静止物体を静止時間に応じて分類することも可能となる。
つまり、本実施形態に係る画像処理システム1では、好適に静止する物体を検出することができる。
(1.7 実施例)
以下、本実施形態に係る画像処理システム1による処理の具体的な実施例を説明する。ここでは、天候や時間帯により大きく照明が変動する街頭を撮影する監視カメラのシステムに、図4に示した画像処理システム1を適用した場合を想定し、置き去りにされた鞄を抽出する例を説明する。
図9は、本実施例において入力される入力画像を示す図である。図9は、鞄が置き去りにされた様子を説明するための図である。図9は、街頭に設置された監視カメラの撮影画角内に、現在時刻から1分3秒前に鞄を所持する人物が入りこみ、その人物は前進した上で1分1秒前の時点で鞄を置き去りにして、1分前の時点でフレームアウトしている。鞄は、1分1秒前から現在まで鞄が置き去りにされている。
画像入力部410は、街頭に設置された監視カメラから入力される映像に含まれるフレーム画像の入力を順次受ける。本実施例においては、画像入力部410は、図9に示すフレーム画像の入力を受ける。
前景・背景分離部420は、画像入力部410から入力されてきた入力画像に対して、順次前景領域と背景領域とを分離する。図9に示すように、本実施例においては、現在より1分1秒前から鞄が静止しているため、それまでは前景領域であった鞄も背景領域として分離されることになる。
背景画像生成部430は、前景・背景分離部420で抽出した背景領域(静止領域の画像)と、背景画像記憶部440に記憶されている、定められた複数の時間窓内に撮影された画像に係る背景領域とを用いて、背景画像を生成する。
背景画像生成部430は、例えば、30秒間の時間窓と、5分間の時間窓と、10分間の時間窓とのそれぞれで背景画像を生成する。その場合、背景画像生成部430は、前景・背景分離部420で抽出した背景領域と、背景画像記憶部440に記憶されている過去30秒の間で生成された背景領域とを用いて、30秒間の時間窓の背景画像を生成する。同様にして、背景画像生成部430は、前景・背景分離部420で抽出した背景領域と、過去5分の間で生成された背景領域とを用いて、5分間の時間窓の背景画像を生成する。同様にして背景画像生成部430は、10分間の時間窓の背景画像を生成する。
本実施例において、10分間の時間窓の背景画像は、真の背景で構成されていると想定される画像である。天候や時間帯によって明るさ等が大きく異なるため、街頭に設置された監視カメラが撮影する画像は、照明変動の影響を大きく受け、真の背景を映した背景画像も安定することはなく時間毎に異なる。そのため、真の背景画像として固定の背景画像を用いると、滞留物(本実施例においては鞄)の検知に関し、誤検知が多くなってしまう。一方、本実施例の場合は、背景画像を逐次生成するため照明変動の影響を抑えて精度良く滞留物を検知することができる。
背景画像記憶部440は、前景・背景分離部420で逐次抽出される、各入力画像の背景領域に係る画像を所定時間分記憶する。本実施例においては、現在より10分前から1分1秒前までは真の背景のみを映した背景領域が記憶され、1分1秒前から現在までは真の背景に加え鞄が背景領域として記憶される。
背景画像比較部450は、真の背景で構成される10分間及び5分間の時間窓の背景画像と、真の背景に鞄が含まれる30秒間の時間窓の背景画像とを比較する。
静止領域判定部460は、10分間及び5分間の時間窓の背景画像と、30秒間の時間窓の背景画像との比較の結果、差異が閾値を超える領域として鞄が映る領域を静止領域として判定する。なお、仮に真の背景で構成される画像として日中の背景を映した固定背景画像を用いた場合、例えば現在時刻が夕方であるような場合に、照明変動の影響から固定背景画像と現在時刻の画像との差異が大きく誤検知を多発することになる。
出力部470は、鞄が映る画素領域の情報を、外部モジュールへと出力する。
以上、本実施例により説明したように、照明変動の影響を抑えながら精度良く滞留物を検知することができる。その理由は、本実施形態にかかる画像処理システム1では、固定の背景画像を用いるのではなく、逐次、複数の背景領域から複数の異なる時間窓で背景画像を生成した上で、これらの背景画像を比較するからである。本実施形態を監視システムに適用することで、街頭における滞留物(置き去り)の検知だけでなく、たむろ、うろつき、落書き等の検知を行うこともできる。
なお、長期時間窓で生成される背景画像(長期背景モデル)は、予め日向の状態と日陰の状態を時間毎に生成しておく等、複数バリエーションを事前に生成しておき、背景画像記憶部440又は図示しない記憶部に記憶しておいても良い。その場合、本実施形態に係る画像処理システムは、例えば中期窓の背景画像と、短期窓の背景画像は逐次生成し、長期時間窓の背景画像は、記憶部に記憶されているモデルを状況に応じて切り替えて使用するようにしても良い。これにより、本実施形態は、照明変動の他、デジタルサイネージに表示される広告やエレベータのドア等、一部の背景領域に予め定められた変化が生じる場合にも有効に作用する。
(2 第2実施形態)
以下、第2実施形態を、図10を参照しながら説明する。図10は、画像処理システム1000の機能構成を示すブロック図である。図10に示すように、画像処理システム1000は、第1特定部1010と、画像生成部1020と、第2特定部1030とを含む。
第1特定部1010は、複数の時刻にそれぞれ撮影された入力画像に対して、動きのない静止領域をそれぞれ特定する。
画像生成部1020は、処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成する。
第2特定部1030は、第1の画像と第2の画像とを比較した結果、差異のある領域を特定する。
このように実装することで、本実施形態に係る画像処理システム1000によれば、静止する物体を好適に検出することができる。
(3 付記事項)
なお、前述の実施形態の構成は、組み合わせたり或いは一部の構成部分を入れ替えたりしてもよい。また、本発明の構成は前述の実施形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加えてもよい。
なお、前述の各実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。また、本発明のプログラムは、上記の各実施形態で説明した各動作を、コンピュータに実行させるプログラムであれば良い。
(付記1)
複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定する第1の特定手段と、処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成する画像生成手段と、前記第1の画像と前記第2の画像とを比較した結果、差異のある領域を特定する第2の特定手段とを備える画像処理システム。
(付記2)
前記第2の時間幅は、前記第1の時間幅よりも長い時間幅である、付記1記載の画像処理システム。
(付記3)
前記画像生成手段は、前記第1の時間幅及び前記第2の時間幅を含む複数の時間幅のそれぞれに対して、前記第1の画像及び前記第2の画像を含む複数の画像を生成し、前記第2の特定手段は、前記複数の画像をそれぞれ比較する、付記1又は付記2記載の画像処理システム。
(付記4)
前記画像生成手段は、前記処理時刻から前記第1の時間幅及び前記第2の時間幅内に撮影された各入力画像の静止領域に対し、各画素値の最頻値、中央値または平均値のいずれかをそれぞれの画素に対して求めることにより、前記第1の画像及び前記第2の画像を生成する、付記1乃至付記3のいずれか1項記載の画像処理システム。
(付記5)
前記第1の時間幅及び前記第2の時間幅は任意に設定可能である、付記1乃至付記4のいずれか1項記載の画像処理システム。
(付記6)
複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定するステップと、処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成するステップと、前記第1の画像と前記第2の画像とを比較した結果、差異のある領域を特定するステップとを画像処理システムが行う画像処理方法。
(付記7)
前記第2の時間幅は、前記第1の時間幅よりも長い時間幅である、付記6記載の画像処理方法。
(付記8)
前記第1の時間幅及び前記第2の時間幅を含む複数の時間幅のそれぞれに対して、前記第1の画像及び前記第2の画像を含む複数の画像を生成し、前記複数の画像をそれぞれ比較する、付記6又は付記7記載の画像処理方法。
(付記9)
前記画像生成手段は、前記処理時刻から前記第1の時間幅及び前記第2の時間幅内に撮影された各入力画像の静止領域に対し、各画素値の最頻値、中央値または平均値のいずれかをそれぞれの画素に対して求めることにより、前記第1の画像及び前記第2の画像を生成する、付記6乃至付記8のいずれか1項記載の画像処理方法。
(付記10)
前記第1の時間幅及び前記第2の時間幅は任意に設定可能である、付記6乃至付記9のいずれか1項記載の画像処理方法。
(付記11)
複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定する処理と、処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成する処理と、前記第1の画像と前記第2の画像とを比較した結果、差異のある領域を特定する処理とをコンピュータに実行させるプログラム。
(付記12)
前記第2の時間幅は、前記第1の時間幅よりも長い時間幅である、付記11記載のプログラム。
(付記13)
前記第1の時間幅及び前記第2の時間幅を含む複数の時間幅のそれぞれに対して、前記第1の画像及び前記第2の画像を含む複数の画像を生成し、前記複数の画像をそれぞれ比較する、付記11又は付記12記載のプログラム。
(付記14)
前記画像生成手段は、前記処理時刻から前記第1の時間幅及び前記第2の時間幅内に撮影された各入力画像の静止領域に対し、各画素値の最頻値、中央値または平均値のいずれかをそれぞれの画素に対して求めることにより、前記第1の画像及び前記第2の画像を生成する、付記11乃至付記13のいずれか1項記載のプログラム。
(付記15)
前記第1の時間幅及び前記第2の時間幅は任意に設定可能である、付記11乃至付記14のいずれか1項記載のプログラム。
この出願は、2013年5月31日に出願された日本出願特願2013−115544を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1・・・画像処理システム、100・・・情報処理サーバ、410・・・画像入力部、420・・・前景・背景分離部、430・・・背景画像生成部、440・・・背景画像記憶部、450・・・背景画像比較部、460・・・静止領域判定部、470・・・出力部、801・・・プロセッサ、803・・・メモリ、805・・・記憶装置、807・・・入力インタフェース、809・・・データインタフェース、811・・・通信インタフェース、813・・・表示装置、900・・・画像処理システム、910・・・第1特定部、920・・・画像生成部、930・・・第2特定部

Claims (6)

  1. 複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定する第1の特定手段と、
    処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成し、また、前記処理時刻から第3の時間幅内に撮影された各画像の静止領域に基づいて第3の画像を生成する画像生成手段と、
    前記第1の画像と前記第2の画像と前記第3の画像とを比較した結果、差異のある領域を特定する第2の特定手段と
    前記第1の画像、前記第2の画像、および前記第3の画像の比較に基づき、静止時間の長さによって、前記入力画像に含まれる静止物体を分類する分類手段と
    を備える画像処理システム。
  2. 前記画像生成手段は、前記処理時刻から前記第1の時間幅前記第2の時間幅、および前記第3の時間幅内に撮影された各入力画像の静止領域に対し、各画素値の最頻値、中央値または平均値のいずれかをそれぞれの画素に対して求めることにより、前記第1の画像前記第2の画像、および前記第3の画像を生成する、
    請求項1記載の画像処理システム。
  3. 前記第1の時間幅前記第2の時間幅、および前記第3の時間幅は任意に設定可能である、
    請求項1又は請求項2記載の画像処理システム。
  4. 前記画像生成手段は、前記第1の時間幅前記第2の時間幅、および前記第3の時間幅を含む複数の時間幅のそれぞれに対して、前記第1の画像前記第2の画像、および前記第3の画像を含む複数の画像を生成し、
    前記第2の特定手段は、前記複数の画像をそれぞれ比較する、
    請求項1乃至請求項3のいずれか1項記載の画像処理システム。
  5. 複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定するステップと、
    処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成し、また、前記処理時刻から第3の時間幅内に撮影された各画像の静止領域に基づいて第3の画像を生成するステップと、
    前記第1の画像と前記第2の画像と前記第3の画像とを比較した結果、差異のある領域を特定するステップと
    前記第1の画像、前記第2の画像、および前記第3の画像の比較に基づき、静止時間長によって、前記入力画像に含まれる静止物体を分類するステップと
    を画像処理システムが行う画像処理方法。
  6. 複数の時刻にそれぞれ撮影された入力画像に対して、静止領域をそれぞれ特定する処理と、
    処理時刻から第1の時間幅内に撮影された各入力画像の静止領域に基づいて第1の画像を生成すると共に、前記処理時刻から第2の時間幅内に撮影された各画像の静止領域に基づいて第2の画像を生成し、また、前記処理時刻から第3の時間幅内に撮影された各画像の静止領域に基づいて第3の画像を生成する処理と、
    前記第1の画像と前記第2の画像と前記第3の画像とを比較した結果、差異のある領域を特定する処理とをコンピュータに実行させるプログラム。
JP2015519735A 2013-05-31 2014-04-11 画像処理システム、画像処理方法及びプログラム Active JP6436077B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013115544 2013-05-31
JP2013115544 2013-05-31
PCT/JP2014/060493 WO2014192441A1 (ja) 2013-05-31 2014-04-11 画像処理システム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2014192441A1 JPWO2014192441A1 (ja) 2017-02-23
JP6436077B2 true JP6436077B2 (ja) 2018-12-12

Family

ID=51988480

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015519735A Active JP6436077B2 (ja) 2013-05-31 2014-04-11 画像処理システム、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US9953240B2 (ja)
JP (1) JP6436077B2 (ja)
WO (1) WO2014192441A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160371847A1 (en) * 2014-07-24 2016-12-22 Bonanza.com, LLC Background profiles
US9460522B2 (en) 2014-10-29 2016-10-04 Behavioral Recognition Systems, Inc. Incremental update for background model thresholds
JP6389803B2 (ja) * 2015-05-27 2018-09-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
WO2017142736A1 (en) * 2016-02-19 2017-08-24 Carrier Corporation Cloud based active commissioning system for video analytics
CN109792508B (zh) * 2016-09-29 2021-07-13 菲力尔系统公司 使用热成像分析法的故障安全检测
JP6863390B2 (ja) * 2016-12-14 2021-04-21 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP7169752B2 (ja) * 2018-03-22 2022-11-11 キヤノン株式会社 監視装置、監視システム、制御方法、及びプログラム
JP7147507B2 (ja) * 2018-11-22 2022-10-05 コニカミノルタ株式会社 画像処理装置及びプログラム
KR102333418B1 (ko) * 2020-02-20 2021-12-01 한국기술교육대학교 산학협력단 조도 변화시 유기된 물체의 감시 방법
JP7718759B2 (ja) * 2021-09-13 2025-08-05 日本電気株式会社 監視画像生成システム、画像処理装置、画像処理方法、およびプログラム
US12536617B2 (en) * 2022-08-12 2026-01-27 Purdue Research Foundation Fused images backgrounds

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4631806B2 (ja) * 2006-06-05 2011-02-16 日本電気株式会社 物体検出装置、物体検出方法および物体検出プログラム
US7813528B2 (en) * 2007-04-05 2010-10-12 Mitsubishi Electric Research Laboratories, Inc. Method for detecting objects left-behind in a scene
CA2707104C (en) * 2007-11-30 2018-06-19 Searidge Technologies Inc. Airport target tracking system
JP5736831B2 (ja) * 2011-02-22 2015-06-17 大日本印刷株式会社 日照変化領域検出装置および移動物体検出装置
JP5333489B2 (ja) * 2011-03-14 2013-11-06 オムロン株式会社 オブジェクト検知装置、およびオブジェクト検知プログラム
JP2013033317A (ja) * 2011-08-01 2013-02-14 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
US20130128050A1 (en) * 2011-11-22 2013-05-23 Farzin Aghdasi Geographic map based control
US9070020B2 (en) * 2012-08-21 2015-06-30 International Business Machines Corporation Determination of train presence and motion state in railway environments
JP6046948B2 (ja) * 2012-08-22 2016-12-21 キヤノン株式会社 物体検知装置及びその制御方法、プログラム、並びに記憶媒体
US10839227B2 (en) * 2012-08-29 2020-11-17 Conduent Business Services, Llc Queue group leader identification
US9020190B2 (en) * 2013-01-31 2015-04-28 International Business Machines Corporation Attribute-based alert ranking for alert adjudication
US20150310365A1 (en) * 2014-04-25 2015-10-29 Xerox Corporation System and method for video-based detection of goods received event in a vehicular drive-thru

Also Published As

Publication number Publication date
JPWO2014192441A1 (ja) 2017-02-23
US20160125268A1 (en) 2016-05-05
WO2014192441A1 (ja) 2014-12-04
US9953240B2 (en) 2018-04-24

Similar Documents

Publication Publication Date Title
JP6436077B2 (ja) 画像処理システム、画像処理方法及びプログラム
US11483521B2 (en) Information processing system, information processing method, and program
US10776931B2 (en) Image processing system for detecting stationary state of moving object from image, image processing method, and recording medium
US9773322B2 (en) Image processing apparatus and image processing method which learn dictionary
JP6414066B2 (ja) 画像処理システム、画像処理方法及びプログラム
US9305217B2 (en) Object tracking system using robot and object tracking method using a robot
US10970896B2 (en) Image processing apparatus, image processing method, and storage medium
US11521392B2 (en) Image processing apparatus and image processing method for image analysis process
JP6551226B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP6652051B2 (ja) 検出システム、検出方法及びプログラム
US11605224B2 (en) Automated media editing operations in consumer devices
CN109643437B (zh) 图像处理装置、立体照相机装置以及图像处理方法
JP6527183B2 (ja) 放置物検出装置
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
CN107665495B (zh) 对象跟踪方法及对象跟踪装置
JP2014203133A (ja) 画像処理装置、画像処理方法
JP6308612B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
CN117197181A (zh) 移动物体检测方法与电路系统
do Nascimento Araújo Human detection solution for a retail store environment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181029

R150 Certificate of patent or registration of utility model

Ref document number: 6436077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150