JP2016170605A - 姿勢推定装置 - Google Patents

姿勢推定装置 Download PDF

Info

Publication number
JP2016170605A
JP2016170605A JP2015049683A JP2015049683A JP2016170605A JP 2016170605 A JP2016170605 A JP 2016170605A JP 2015049683 A JP2015049683 A JP 2015049683A JP 2015049683 A JP2015049683 A JP 2015049683A JP 2016170605 A JP2016170605 A JP 2016170605A
Authority
JP
Japan
Prior art keywords
candidate
silhouette
posture
person
candidate area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015049683A
Other languages
English (en)
Other versions
JP6166297B2 (ja
Inventor
知行 永橋
Tomoyuki Nagahashi
知行 永橋
裕二 中沢
Yuji Nakazawa
裕二 中沢
黒川 高晴
Takaharu Kurokawa
高晴 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2015049683A priority Critical patent/JP6166297B2/ja
Publication of JP2016170605A publication Critical patent/JP2016170605A/ja
Application granted granted Critical
Publication of JP6166297B2 publication Critical patent/JP6166297B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数人の一体化したシルエットにおける各人物の姿勢を推定する場合、姿勢の候補の組み合わせが多くなりリアルタイムでの推定が困難となる。【解決手段】シルエット抽出手段40は画像から複数の物体が一体化したシルエットを抽出する。候補領域生成手段42は各物体について、シルエットと重複し、且つ互いに異なる姿勢の候補領域を複数生成する。候補領域評価手段43は各物体について候補領域ごとに、当該候補領域外に生成された当該物体以外の候補領域が多いほど高い評価値を算出する。姿勢決定手段44は物体ごとに、評価値が高い候補領域が示す姿勢ほど強く反映された姿勢を当該物体の姿勢に決定する。【選択図】図2

Description

本発明は、監視空間を撮像した画像から監視空間中の物体の姿勢を推定する姿勢推定装置に関する。
監視空間を撮像した画像に写る人物の姿勢を推定する方法には、画像から抽出した人物のシルエット(差分領域など)と、様々な姿勢を模した人物モデルとの形状マッチングを行う方法がある。この方法においては、監視空間に複数の人物が存在すると推定精度が低下する場合がある。すなわち、複数人が画像上で重なり、そのシルエットが一体化すると一人ひとりの詳細形状が得られないため、複数通りの姿勢がマッチしてしまう。そのため、一人ずつのマッチングではその姿勢を一意に決定できないのである。
そこで、従来、人数分の人物モデルを姿勢ごとに組み合わせてマッチングを行い、最もマッチする姿勢の組み合わせを推定していた(特許文献1)。
或いは、ある視点のシルエットが一体化していても別視点のシルエットでは分離していることが期待されるので、監視空間を複数のカメラにより複数視点から撮像して、3次元のマッチングを行って姿勢を推定していた。
特開2012−141686号公報
しかしながら、人物形状モデルを組み合わせてマッチングを行う方法では、シルエットが一体化している人数が増えると、姿勢の組み合わせの数が指数関数的に増加し、リアルタイム処理が困難となる。例えば、3人の人物が一体化して撮像された画像に対し各人物につき100通りの姿勢を試行するならば100万回(100の3乗回)のマッチング処理を実行することになる。さらに、より詳細な姿勢を推定するために多関節の人物形状モデルを用いれば姿勢の組み合わせの数はなお一層増加し、リアルタイム処理の実現は増々困難化していた。
また、複数のカメラを用いる方法では、設置できるカメラの台数がコスト的に限られてしまうため、結局、姿勢の組み合わせの数だけマッチングが必要となりリアルタイム処理が困難となる場合が生じ得る。例えば、ある視点で複数人が分離したシルエットが得られても、その視点で右半身が隠れている人物の姿勢を決定するには、別視点のシルエットが必要である。しかし、別視点のシルエットが一体化していれば、結局、姿勢の組み合わせの数だけマッチングが必要となってしまうのである。
本発明は、上記問題を鑑みてなされたものであり、複数の物体が同時撮像された画像から各物体の姿勢を少ない計算量で推定することのできる姿勢推定装置を提供することを目的とする。
本発明に係る姿勢推定装置は所定の物体を撮影した画像から前記物体の姿勢を推定する装置であって、前記画像から複数の前記物体が一体化したシルエットを抽出するシルエット抽出手段と、前記各物体について、前記シルエットと重複し、且つ互いに異なる姿勢の候補領域を複数生成する候補領域生成手段と、前記各物体について前記候補領域ごとに、当該候補領域外に生成された当該物体以外の前記候補領域が多いほど高い評価値を算出する候補領域評価手段と、前記物体ごとに、前記評価値が高い候補領域が示す姿勢ほど強く反映された姿勢を当該物体の姿勢に決定する姿勢決定手段と、を含む。
本発明の好適な態様の1つは上記姿勢推定装置において、前記シルエット内の位置に対応付けて、前記各物体の前記複数の候補領域に対する当該物体以外の候補領域の重複度合いを算出する重複度算出手段を有し、前記候補領域評価手段は、前記各物体の前記候補領域ごとに、当該候補領域外における当該物体に関する前記重複度合いが高いほど高い評価値を算出する。
上記本発明の姿勢推定装置において、前記重複度算出手段は、算出された前記評価値が高い前記候補領域ほど高く重み付けて前記重複度合いを更新し、前記候補領域評価手段は、更新された前記重複度合いに応じて前記評価値を更新する構成としてもよい。
さらに上記本発明の姿勢推定装置において、前記候補領域評価手段は、前記重複度合いの更新に用いた前記評価値を、更新された前記重複度合いを反映して修正し、更新された前記評価値とする構成としてもよい。
また、上記本発明の姿勢推定装置において、前記候補領域評価手段は、前記各物体の前記候補領域ごとに、前記シルエットからのはみ出し度合いを算出し、当該はみ出し度合いが高いほど前記評価値を低く補正する構成としてもよい。
本発明によれば、少ない計算量で、複数の物体が同時撮像された画像から各物体の姿勢を推定することが可能となる。そのため、監視空間に複数の物体が存在していても、それぞれの物体の姿勢をリアルタイムで推定可能な姿勢推定装置を実現することが容易となる。
本発明の実施形態に係る異常検知システムの概略の構成を示すブロック図である。 本発明の実施形態に係る異常検知システムにおける記憶部及び画像処理部の機能を説明するブロック図である。 シルエットの例を示す模式図である。 図3のシルエットに対応した候補領域の例を示す模式図である。 候補領域画像から各人物の非重複度を算出する様子を示す模式図である。 図5に対応して算出された各人物Hの非重複度fn,pの例を示す模式図である。 第1人物Hの第1候補領域A1,1に対する評価値算出の様子を示す模式的な画像である。 本発明の実施形態に係る異常検知システムの動作の概略の全体フロー図である。 本発明の実施形態における複数人シルエット処理の概略の処理フロー図である。
以下、本発明の姿勢推定装置を含んだ好適な実施形態の一例として、姿勢推定装置により推定した姿勢に基づいて異常シーンを検知して警備センター等へ異常信号を出力する異常検知システム1について説明する。
[異常検知システム1の構成]
図1は異常検知システム1の概略の構成を示すブロック図である。異常検知システム1は、撮像部2、記憶部3、画像処理部4及び出力部5からなる。
撮像部2はいわゆる監視カメラであり、監視空間を臨むように設置され、監視空間を所定の時間間隔で撮影する。撮像部2は画像処理部4と接続され、監視空間を撮影した監視画像を順次、画像処理部4へ出力する。
記憶部3はROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置であり、各種プログラムや各種データを記憶し、画像処理部4との間でこれらの情報を入出力する。記憶部3に記憶される各種データには背景画像、追跡情報及び人物モデルが含まれ、記憶部3は後述する記憶手段30としても機能する。
画像処理部4はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置である。画像処理部4は記憶部3からプログラムを読み出して当該プログラムを実行することで後述するシルエット抽出手段40、シルエット内人数判定手段41、候補領域生成手段42、候補領域評価手段43、姿勢決定手段44、単数人シルエット処理手段45、異常検知手段46などとして機能し、撮像部2から入力された監視画像を処理して監視空間中の人物の姿勢を推定し、推定した姿勢に異常の発生を示す姿勢があれば異常信号を生成して出力部5へ出力する。
出力部5は異常信号等を外部へ出力する通信手段である。出力部5は画像処理部4に接続され、画像処理部4から異常信号が入力されると、当該異常信号を警備センター等へ出力する。
[記憶部3及び画像処理部4の機能]
図2は記憶部3及び画像処理部4の機能を説明するブロック図である。
シルエット抽出手段40は監視画像から当該画像上に人物が現れている領域を示すシルエットを抽出し、抽出結果として、監視画像の各画素と対応する画素の値を人物領域において1、人物領域以外において0に設定したシルエット画像を生成する。抽出されるシルエットには複数の物体が一体化したシルエットが含まれ得る。
具体的には、シルエット抽出手段40は公知の背景差分処理又は背景相関処理により変化領域を抽出する。すなわちシルエット抽出手段40は、監視画像を背景画像と比較して対応する各画素の値の相違度(差、又は1から相関値を減じた値)を算出し、シルエット画像の画素値を当該相違度に応じて定める。本実施形態では、相違度がしきい値を超える画素を変化画素として検出して、シルエット画像の画素値を1とし、相違度がしきい値以下の画素についてシルエット画像の画素値を0とする。さらにシルエット抽出手段40は互いに隣接する変化画素をまとめ、まとめた領域をシルエットとして抽出する。検出のしきい値は事前実験に基づき予め設定される。なお、シルエット抽出手段40は予め定めた1人分の人物基準サイズに満たない大きさの変化領域について画素値を0とし、当該変化領域をシルエットから除外する。
ちなみに、背景画像は監視空間の背景のみが撮像されている画像であり、シルエット抽出処理に先立って生成され、記憶手段30に記憶される。シルエット抽出手段40は記憶手段30から背景画像を読み出して監視画像と比較し、シルエットを抽出する。
なお、抽出結果として各画素の値に、当該画素における相違度を0以上1以下に正規化した連続値を設定したシルエット画像を生成してもよい。
シルエット抽出手段40は撮像部2から新たに入力された監視画像からシルエットを抽出し、抽出されたシルエットはシルエット内人数判定手段41経由で、候補領域生成手段42、候補領域評価手段43、単数人シルエット処理手段45へ出力される。
シルエット内人数判定手段41はシルエット抽出手段40が抽出した各シルエットに含まれる人物数を判定し、複数の人物を含むと判定したシルエットは候補領域生成手段42、候補領域評価手段43に出力し、1人だけを含むと判定したシルエットは単数人シルエット処理手段45に出力する。
具体的には、シルエット内人数判定手段41は下記A1〜A4の方法で人物数を判定する。
(A1)シルエット内人数判定手段41は各シルエットを追跡して当該シルエットの統合を検出し、少なくとも統合後のシルエットの人物数が複数であると判定する。このとき統合されたシルエットの数を統合後のシルエットの人物数と判定することもでき、又は統合されたシルエットに対して判定されていた人物数を合計して統合後のシルエットの人物数とすることもできる。さらにシルエット内人数判定手段41はシルエットの分離をも検出し、分離したシルエットの人物数を減算して分離後のシルエットの人物数を判定することもできる。なおシルエット内人数判定手段41は各シルエットの人物数と併せて当該シルエットに統合や分離が検出されたか否かの別も出力する。
(A2)シルエット内人数判定手段41は各シルエットの大きさをしきい値判定して人物数を判定する。しきい値は1人分の基準サイズに基づき予め定めておく。例えばシルエットの画素数が、基準サイズの0.8倍以上且つ2×0.8倍未満なら1人、基準サイズの2×0.8倍以上且つ3×0.8倍未満なら2人、基準サイズの3×0.8倍以上且つ4×0.8倍未満なら3人、…というように判定する。なお見かけ上の人物サイズは撮像部2と人物の位置関係により変わるため人物サイズ範囲は監視画像上の位置ごとに設定するのがよい。
(A3)シルエット内人数判定手段41は各シルエットにおける監視画像から頭部形状(楕円やΩ形のエッジ)を検出して検出された頭部形状の数を人物数として判定する。
(A4)シルエット内人数判定手段41は各シルエットにおける監視画像から顔特徴(肌色楕円や顔の部位)を検出して検出された顔特徴の数を人物数として判定する。
本実施形態においては(A1)及び(A2)を選択的に用いる。すなわちシルエット内人数判定手段41は、シルエットを追跡して、追跡において新規出現と判定されたシルエットの大きさのしきい値判定により人物数を初期判定し、追跡したシルエットの統合及び分離から変動する人物数を判定する。
なお、シルエット内人数判定手段41はシルエット内における各人物の概略の位置を含めて判定し、候補領域生成手段42及び候補領域評価手段43へ人物数とともに概略の位置を出力してもよい。概略の位置が得られる場合は候補領域生成手段42が生成する候補領域数Mを減らすことができる。
候補領域生成手段42は人物ごとにシルエットに形状が適合する複数の姿勢の候補領域を生成し、候補領域評価手段43に出力する。候補領域生成手段42は注目するシルエットに含まれる人物がN人であれば、当該シルエットに対しN×M個の候補領域を生成し、それぞれ候補領域内の画素値を1、候補領域外の画素値を0に設定したN×M枚の候補領域画像を出力する。各人物に対して生成する候補領域の数Mは予め設定しておく。少なくともMは1より大きい値であり、例えば100個である。
なお、候補領域数Mは人物ごとに異なる値としてもよい。例えば、適合の度合いが高い人物のMは適合の度合いが低い人物よりも少なくするなどとすることができる。
候補領域生成手段42は人物の形状を模した人物モデルを用いて候補領域を生成する。その際、候補領域生成手段42は各人物について、シルエットに含まれる複数の人物のうち当該人物以外の他の人物の形状等は考慮せずに、当該人物の単独形状に基づいてシルエットに適した姿勢の候補領域を複数生成する。
ここで、人物モデルは記憶手段30に予め記憶させておく。例えば、人物モデルは人の頭・胴・左上腕・左前腕・右上腕・右前腕・左上肢・左下肢・右上肢・右下肢の10部位をそれぞれ回転楕円体で表した部位モデルからなる3次元の多関節モデルである。姿勢パラメータは各部位モデルの3次元位置と3次元の回転角であり、姿勢パラメータにより人物の姿勢が表現される。
候補領域生成手段42は記憶手段30から人物モデルを読み出し、人物ごとに、人物モデルの姿勢パラメータを微小変更しては人物モデルを投影した画像とシルエットとの形状マッチングを行って一致度を算出する処理を繰り返し、一致度が上位1位からM位までの姿勢パラメータを決定する。一致度は人物モデルの投影像とシルエットとの重複が多いほど高く、投影像のシルエットからのはみ出しが多いほど低い値となる。候補領域生成手段42は決定したM個の姿勢パラメータが表す姿勢の人物モデルを投影した画像の外形を候補領域とする。
以上のように、候補領域生成手段42は同一シルエットに含まれる複数の物体のそれぞれについて、当該シルエットと一部または全部が重複し、且つ表す姿勢が互いに異なる複数の候補領域を生成する。
図3はシルエットの例を示す模式図であり、3人の人物H〜Hが写る監視画像400からシルエット画像402が生成され、当該シルエット画像402には人物H〜Hが一体化したシルエット404が抽出されている。なお、図3はシルエット404を白抜きの領域で表している。
また、図4は図3のシルエットに対応した候補領域の例を示す模式図であり、人物H(n=1〜3)のそれぞれに対してシルエット404に形状が適合する100個ずつの候補領域An,m(m=1〜100)が生成された例を示している。なお、図4にて人物IDがnに当たり、候補番号がmに当たる。なお、図4は候補領域An,mを白抜きの領域で表している。
候補領域評価手段43は各候補領域の正しさを評価する。具体的には、候補領域が表す姿勢が正しい可能性を表す評価値である候補評価値を算出する。本発明では、評価値算出の対象とする注目人物の注目候補領域について注目候補領域以外の残余領域における他の人物の候補領域の多さに注目する。すなわち候補領域評価手段43は、各物体についてその候補領域ごとに当該候補領域外に生成された当該物体以外の候補領域が多いほど高い評価値を算出する。そのために候補領域評価手段43は、各物体について候補領域ごとに、当該候補領域外において当該物体の複数の候補領域に対する当該物体以外の他の物体の候補領域との重複度合いが高いほど高い候補評価値を算出する。つまり残余領域にて他の人物の候補領域との重複度合いが高いほど、逆に注目候補領域では他の人物の候補領域との重複度合いが低くなり、注目候補領域に注目人物が存在する可能性が高いと期待できることから候補評価値を高くするのである。
本実施形態では重複度合いを、それと相反する関係を有する非重複度を用いて表す。具体的には非重複度は、監視画像の各画素において、注目する人物の複数の候補領域に対する他の人物の候補領域が重複していない度合いを0から1までの範囲で表した値である。重複度合いを監視画像の各画素において注目する人物の候補領域に対する他の人物の候補領域が重複している度合いであるとすると、各画素における重複度合いと非重複度との和は一定値、例えば1であり、重複度合いが0から1まで増加するのに対応して非重複度は1から0まで減少する。非重複度は、その値が大きい画素ほど他の人物の候補領域の重複が少ないため、注目する人物が写っている画素である可能性が高いことを意味する。
候補領域評価手段43は、非重複度を算出する非重複度算出手段430、非重複度を基に候補評価値を算出する評価値算出手段431を少なくとも含み、好適にはさらに候補評価値を改善するために非重複度の算出と候補評価値の算出とを反復させる反復制御手段432を含む。
非重複度算出手段430は人物ごとに非重複度を算出する手段であり、上述したように非重複度と重複度合いとは相補的な関係にあるので実質的に本発明における重複度算出手段に当たる。具体的には、非重複度算出手段430は監視画像の画素ごとに、各人物の候補領域画像の画素値を累積し、シルエットに含まれる複数の人物についての累積値の合計が1になるように、注目する人物についての候補領域画像の画素値の累積値を正規化して当該注目人物についての非重複度を求める。
この非重複度の算出の際、非重複度算出手段430は、各人物の候補領域における画像の画素値に、当該候補領域について1回前の反復により算出した候補評価値を乗じ、候補評価値による重み付けを行う。すなわち、非重複度算出手段430は、算出した候補評価値が高い候補領域ほど高く重み付けて重複度合いを更新し、候補領域評価手段43は更新した重複度合いに応じて候補評価値を算出し直す。
この理由について説明する。候補領域評価手段43が算出する候補評価値は、注目する人物以外の人物の候補領域に基づいて、当該人物の候補領域を評価する値である。そのため、一度の算出では注目する人物の或る候補領域の候補評価値に当該人物自身の他の候補領域に対する評価を反映できない。この点、候補評価値を用いて重複度合いを更新することで各人物の候補領域に対する評価を自身の候補評価値に反映させることができる。これにより正解の候補領域に対する候補評価値が強調され、姿勢推定の精度が向上する。
例えば、非重複度算出手段430は、以上に説明した各人物の非重複度を次式により算出する。
Figure 2016170605
ここで、fn,pは画素pにおける第n人物の非重複度であり、Nは注目するシルエットに含まれる人数、Mは1人の人物に対して生成した候補領域数である。また、pは画素を表し、In,m,pは第n人物の第m候補領域を表す候補領域画像における画素pの画素値である。また、en,mは第n人物の第m候補領域に対して算出された候補評価値である。ただし、式(1)におけるen,mは1回目の反復において算出された候補評価値である。1回目の反復においてはen,m=1/Mに設定される。なお、εは0による割り算を回避するために予め定めた定数である。
図5は候補領域画像421から各人物Hの非重複度fn,pを算出する様子を示す模式図である。図6は図5に対応して算出された各人物Hの非重複度fn,pの例を示す模式図である。図5において、グラフ435は3人の人物H〜Hについての合計300枚の候補領域画像から生成される非重複度fn,pを示している。画素pを画像におけるx座標,y座標の組(x,y)で表すと、図5には例としてp=(50,74)とp=(50,74)における非重複度fn,pのグラフ435が示されている。
図5の画像436は、非重複度fn,p(n=1〜3)を画素値としたものであり、図6(a)〜(c)のグラフはそれぞれ図5の画像436における直線y=74に沿ったf1,p,f2,p,f3,pの例を示している。
注目人物の候補領域しか存在しない画素位置での非重複度は1となり、注目人物以外の候補領域しか存在しない画素位置での非重複度は0となる。また、注目人物と他の人物の候補領域が重なる画素位置での非重複度は0より大きく1未満の値となり、注目人物と他の人物のどちらも存在し得る画素位置として表現される。他人の非重複度が高い位置は他人がいる可能性が高く、他人の非重複度が低い位置は他人がいる可能性が低いことを意味する。この非重複度とシルエットを利用して、注目人物ごとに、シルエット内における注目人物の候補領域と他人の存在可能性との関係を評価することで単独人物単位での姿勢推定が可能となる。
なお、いずれの人物の候補領域も存在しない画素位置での非重複度は1/Nとなり、どの人物も等しく存在し得る画素位置として表現される。
評価値算出手段431は非重複度とシルエットとを基に、候補領域の候補評価値を算出する。候補評価値が高い候補領域ほど当該候補領域が表す姿勢が正しい可能性が高い。具体的には評価値算出手段431は第n人物の第m候補領域の候補評価値en,mを次式により算出する。
Figure 2016170605
ここで、tは反復回数を表すカウンタであり、en,m,tは今回の反復において第n人物の第m候補領域に対して算出する候補評価値、またen,m,t−1は1回目の反復において第n人物の第m候補領域に対して算出された候補評価値である。λはdとdのバランスを調整するパラメータ(正の実数)であり、実験等に基づき予め設定される。式(3),(4)において、Pは画像を構成する画素の集合であり、具体的には監視画像の画素全体であって、式(3),(4)の右辺の和ΣはPに含まれる全ての画素pについての総和を取ることを意味する。また、In,m,pは第n人物の第m候補領域を表す候補領域画像における画素pの画素値であり、zはシルエット内の画素値である。なお、既に述べたようにfn,pは画素pにおける第n人物の非重複度、Mは各人物に対して生成した候補領域数である。
図7は第1人物Hの第1候補領域A1,1に対する評価値算出の様子を示す模式的な画像である。図7において、斜線の領域は人物Hの候補領域A1,1の外で、且つシルエット内である領域であり、黒の塗り潰しの領域は人物Hの候補領域A1,1の内側で、且つシルエット外である領域である。
式(4)に示すdについて説明する。既に述べたように候補領域内の画素値を1とするので、(1−In,m,p)は第n人物の第m候補領域外で1になる。zはシルエット内で1になる(連続値のシルエット画像を用いる場合は0より大きく1以下の値となる)。つまり評価値算出手段431は式(4)により第n人物の第m候補領域外且つシルエット内の領域にて第n人物の非重複度を累積してdを算出する。累積は第n人物の第m候補領域外で行うのであるから第n人物の第m候補領域以外の領域である残余領域についての非重複度を累積することになる。こうして算出するdは、注目する候補領域の外側に他の候補領域との重複が少ないシルエット画素が存在する度合いであるから、注目する候補領域の外側に注目する人物の領域が存在する可能性を表す。換言するとdは注目する候補領域のエラー度合いを表す。そこで、評価値算出手段431は、dが大きいほど候補評価値en,mを低めるために、式(1)に示したようにexp(−λd)に応じた候補評価値en,mを算出する。
すなわち、候補領域評価手段43は、各物体の候補領域ごとに、シルエット内かつ当該候補領域外における当該物体に関する重複度合いが高いほど高い候補評価値を算出する。
このように、注目物体の候補領域を、他の物体について生成した複数の候補領域を用いて評価できる候補評価値を設けたことにより、候補領域の組み合わせを一つ一つマッチングする必要が無くなる。
次に式(3)に示すdについて説明する。式(3)右辺の(1−z)はシルエット外で1になる。つまり評価値算出手段431は式(3)によりシルエット外で第n人物の第m候補領域画像の画素値を累積してdを算出する。こうして算出するdは第n人物について生成された第m候補領域のシルエットからのはみ出し度合いである。そこで、評価値算出手段431は、はみ出し度合いdが大きいほど候補評価値en,mを低めるために、式(1)に示したようにexp(−d)を乗じて候補評価値en,mを算出する。
なお、第n人物の第m候補領域内における第n人物以外についての非重複度を累積して、その累積値とはみ出し度合いとの和をdとすることもできる。
すなわち、候補領域評価手段43は、各物体の候補領域ごとに、シルエットからのはみ出し度合いを算出し、当該はみ出し度合いが高いほど候補評価値を低く補正する。
式(2)の右辺において、1回目の反復において算出した候補評価値en,m,t−1を乗じている。すなわち、候補領域評価手段43は、式(1)にて重複度合いの更新に用いた候補評価値に対し、更新された重複度合いをdを介して反映させる修正を行って、更新された候補評価値を得る。この演算によって、候補評価値の急激な変化や振動を抑制することができ、安定した姿勢推定を行うことができる。
なお、式(5)は人物間で候補評価値の格差が生じないようにするための正規化であり、各人物の各候補評価値を当該人物のM個の候補評価値の合計で除算する。
ここで、一度候補評価値を算出しただけでは注目する人物の候補領域の候補評価値に当該人物の他の候補領域に対する候補評価値がフィードバックされないため、最良の候補領域を選出できない場合がある。これを改善するために非重複度の算出と候補評価値の算出を反復させる。
具体的には、反復制御手段432が次のB1〜B4のいずれかの終了条件を満たすまで当該反復を繰り返す。
(B1)反復回数が予め定めたしきい値Tに達する。
(B2)前回候補評価値と今回候補評価値の差が予め定めたしきい値η以下となる。
(B3)人物ごとに前回候補評価値の最小値と今回候補評価値の最小値の差を求め、求めた差の総和をしきい値ηと比較する。
(B4)反復回数が予め定めたしきい値Tに達する、または前回候補評価値と今回候補評価値の差が予め定めたしきい値η以下となる。
姿勢決定手段44は候補領域評価手段43が算出した候補評価値を参照し、人物ごとに、候補評価値が最も高い候補領域が示す姿勢を当該人物の姿勢に決定し、異常検知手段46に出力する。すなわち、姿勢決定手段44は第n人物について算出されたM個の候補評価値en,mのうちの最大値を与える第m候補領域に関連付けられた姿勢パラメータを当該人物の姿勢に決定して出力する。
単数人シルエット処理手段45はシルエット内の人物数が1人と判定されたときに、当該人物の姿勢を判定する。単数人シルエット処理手段45は人物モデルの姿勢パラメータを微小変動させては人物モデルとシルエットとの形状マッチングを行って、姿勢パラメータごとの一致度を算出する処理を繰り返し、最大の一致度を与える姿勢パラメータを決定して異常検知手段46に出力する。
異常検知手段46は入力された姿勢が予め定めた異常姿勢であるか否かを判定し、異常姿勢であれば所定の異常信号を生成して出力部5に出力する。異常姿勢は例えば倒れている姿勢であり、姿勢パラメータのうち胴、左肢、右肢の角度がほぼ水平であれば異常姿勢と判定することができる。
[異常検知システム1の動作]
以下、異常検知システム1の動作を説明する。図8は異常検知システム1の動作の概略の全体フロー図である。異常検知システム1は監視空間が無人の状態で起動される。例えば、電源投入により各部が初期化され動作を開始する。初期化には起動直後の撮像部2からの監視画像を画像処理部4が背景画像として記憶部3(記憶手段30)に記憶させる処理を含む。
初期化後、撮像部2は監視空間を撮像するたびに監視画像を出力し、画像処理部4はこれを取得する(ステップS1)。以下、最新の監視画像が入力された時刻を現時刻、最新の監視画像を現画像と呼ぶ。
画像処理部4はシルエット抽出手段40として動作し、監視画像を背景差分処理してシルエットを抽出する(ステップS2)。画像処理部4はシルエットが抽出されたか否かを確認し(ステップS3)、抽出されていない場合は処理をステップS1に戻して次の監視画像の入力を待つ。
一方、シルエットが抽出された場合は処理はステップS4へ進み、画像処理部4はシルエット内人数判定手段41として動作する。
まず、シルエット内人数判定手段41は、ステップS2にて抽出された現時刻のシルエットを一時刻前に抽出されたシルエットと対応付ける人物追跡処理を行う。そのためにシルエット内人数判定手段41は、シルエット内における監視画像の色ヒストグラムやテクスチャなどの画像特徴及びシルエットの重心位置、人物IDからなる人物情報を記憶部3に記憶させ、現時刻に抽出されたシルエットにおける現画像の画像特徴及び現時刻に抽出されたシルエットの重心位置を記憶部3に記憶されている人物情報と比較することにより画像特徴が類似し重心位置が移動可能範囲内であるシルエット同士を同一人物による領域であるとして対応付ける。
このときシルエット内人数判定手段41は、画像上で人物同士が重なることを考慮し、重心位置が移動可能範囲内であることを条件に多対1の対応付けを許容する。多対1の対応付けにより複数の人物IDが対応付けられたシルエットに対しては統合を検出したとして人物情報にその旨を表す統合フラグを設定する。
またシルエット内人数判定手段41は、人物同士の重なりが解消されることも考慮し、重心位置が移動可能範囲内であることを条件に1対多の対応付けも許容する。1対多の対応付けを行なったシルエットに対しては分離を検出したとして人物情報にその旨を表す分離フラグを設定する。
尚、移動可能範囲が視野外を含み、類似するシルエットが無い人物情報は消失したとして削除される。また、いずれの人物情報とも類似しないシルエットは新規出現したとしてその画像特徴と重心位置からなる人物情報に新たな人物IDと新規出現フラグを付与して記憶部3に追記される。
シルエット内人数判定手段41は上述の人物追跡処理における対応付けの結果から、ステップS2にて抽出された各シルエットに含まれる人数を判定する(ステップS4)。
画像処理部4はステップS2にて抽出されたシルエットを順次、注目シルエットに設定して(ステップS5)、ステップS6〜S9の処理を行うループ処理を実行する。
シルエット内人数判定手段41は注目シルエットに対してステップS4で判定した人数が複数か単数かを確認し(ステップS6)、複数の場合は注目シルエットのシルエット画像を候補領域生成手段42に出力して処理をステップS7に進める。一方、単数の場合は注目シルエットのシルエット画像を単数人シルエット処理手段45に出力して処理をステップS8に進める。
ステップS7では画像処理部4は注目シルエットに対して複数人シルエット処理を行う。図9は複数人シルエット処理の概略の処理フロー図である。
画像処理部4は候補領域生成手段42として動作し、注目シルエットに対してステップS4で判定されたN人の人物それぞれについてM個ずつの候補領域を生成し、N×M個の候補領域画像を候補領域評価手段43に出力する(ステップS70)。
画像処理部4は候補領域評価手段43の評価値算出手段431として動作し、N×M個の候補領域をそれぞれに対して候補評価値en,mを用意し、各評価値の値を1/Mに初期化する(ステップS71)。また、画像処理部4は候補領域評価手段43の反復制御手段432として動作し、反復回数tを1に初期化する(ステップS72)。そして、画像処理部4は候補領域評価手段43として動作し、非重複度および候補評価値を更新するループ処理(ステップS73〜S76)を実行して各人物の候補領域ごとに候補評価値en,mを定める。
ステップS73では画像処理部4は候補領域評価手段43の非重複度算出手段430として動作し、式(1)に従い、各人物(n=1〜N)について各画素の非重複度fを算出する。その際、t=1のときはステップS71で設定した初期値をt=0のときの候補評価値en,mとみなし、式(1)の右辺の計算に用いる。
ステップS74では画像処理部4は候補領域評価手段43の評価値算出手段431として動作する。評価値算出手段431は、式(2)〜(5)に従い、各人物(n=1〜N)の候補領域ごと(m=1〜M)に、第t反復における候補評価値en,mを算出する。
第t反復における候補評価値en,mの算出が完了すると、反復制御手段432は反復回数tを1だけ増加させ(ステップS75)、反復終了条件を満たしているか確認する(ステップS76)。本実施形態では前回候補評価値en,m,t−1と今回候補評価値en,m,tの差Δeを求めてしきい値ηと比較し、また反復回数tをしきい値Tと比較する。そして、候補評価値の差Δeが閾値η以下、または反復回数tがしきい値Tより大きければ反復終了条件を満たしたとして処理をステップS77に進める。一方、候補評価値の差Δeが閾値ηより大きい、且つ反復回数tがしきい値T以下であれば反復終了条件を満たしていない処理をステップS73に戻す。
ステップS77では画像処理部4は姿勢決定手段44として動作し、人物ごとに、反復終了時点の候補評価値の中から最大値を求め、最大値が算出された候補領域に関連付けられている姿勢パラメータが当該人物の姿勢を表すと決定する。姿勢決定手段44は決定した各人物の姿勢を異常検知手段46に出力し、画像処理部4は処理を図8のステップS9に進める。
一方、ステップS6にて単数人シルエットと判定された場合、画像処理部4は単数人シルエット処理手段45として動作し、注目シルエットに最も適合する姿勢パラメータを求めて、求めた姿勢パラメータを異常検知手段46に出力する(ステップS8)。そして、画像処理部4は処理をステップS9に進める。
画像処理部4は全てのシルエットを処理した否かを確認し(ステップS9)、処理し終えていない場合は処理をステップS5に戻して次のシルエットを処理する。
一方、処理し終えた場合は画像処理部4は処理をステップS10に進め、異常検知手段46として動作する。異常検知手段46は、ステップS7にて姿勢決定手段44から入力された姿勢パラメータおよびステップS8にて単数人シルエット処理手段45から入力された姿勢パラメータのそれぞれが異常姿勢であるか否かを判定し、1つでも異常姿勢と判定されたら(ステップS10)、異常検知手段46は異常信号を生成して出力部5に出力する(ステップS11)。異常信号を入力された出力部5は異常信号を警備センターに転送する。
一方、ステップS10にて、1つも異常姿勢と判定されなければステップS11はスキップされる。
以上の処理を終えると画像処理部4は処理をステップS1に戻して次の監視画像の入力を待つ。
[候補領域生成手段42の変形例]
上記実施形態の候補領域生成手段42はシルエットとの一致度に基づき候補領域を生成する構成であって、一致度が上位M位までの候補領域を生成している。ここで、シルエットとの一致度に基づき候補領域を生成する候補領域生成手段42の他の構成として、以下にマルコフ連鎖モンテカルロ(Markov Chain Monte Carlo:MCMC)法によりサンプリングするものと、一致度最大の姿勢を基準にサンプリングするものとを説明する。
(a1)MCMC法によりサンプリングする構成
乱数により人物モデルの姿勢パラメータを変更しては、人物モデルの投影像とシルエットとの一致度を算出する処理を繰り返し、変更後の一致度が変更前の一致度よりも上昇した場合に変更後の投影像を候補領域とし、および一致度が下降した場合も所定確率にて変更後の投影像を候補領域とする。そしてこの繰り返しを候補領域がM個に達するまで行う。なお、姿勢パラメータの初期値は所定規則に基づいて設定する。
(a2)一致度最大の姿勢を基準にサンプリングする構成
他の部位と比較して面積(体積)の大きな胴について一致度が最大の姿勢パラメータを決定し、胴以外の部位の姿勢パラメータを、決定した胴部を基準としたとり得る範囲内にて一定間隔でM通り設定する。そして、設定したM通りの姿勢パラメータが表す投影像を候補領域とする。または、全部位について一致度が最大の姿勢パラメータを決定し、決定した姿勢パラメータを基準としたとり得る範囲内にて一定間隔で他の部位の姿勢パラメータをM通り設定してもよい。
また、候補領域生成手段42は以下に示す(b1)、(b2)のようにシルエットとの一致度に依らない候補領域を生成する構成とすることもできる。この構成は一致度に基づいて候補領域を生成する構成よりもMを大きく設定する必要があるが、候補領域生成手段42の処理を軽減できる。
(b1)グリッドサンプリングに基づき候補領域を生成する構成
人物モデルの姿勢パラメータを、人物モデルの投影像の一部または全部がシルエットと重複する範囲内にて一定間隔でM通り設定する。そして、設定したM通りの姿勢パラメータが表す投影像を候補領域とする。
(b2)ランダムサンプリングに基づき候補領域を生成する構成
人物モデルの姿勢パラメータを、人物モデルの投影像の一部または全部がシルエットと重複する範囲内の乱数によりM通り設定する。そして、設定したM通りの姿勢パラメータが表す投影像を候補領域とする。
上述のいずれの構成においても候補領域生成手段42は各物体について、シルエットと重複し、且つ表す姿勢が互いに異なる複数の候補領域を生成する。
[候補領域評価手段43の変形例]
上記実施形態の候補領域評価手段43では、式(2)に示すように候補評価値en,m,tを式(3)のdを用いてシルエットからのはみ出し度合いが高いほど低く補正しているが、はみ出し度合いに代えて、又はそれに加えて、注目物体の候補領域内における重複度合いが高い(非重複度が低い)ほど候補評価値en,m,tを低く補正する構成とすることができる。またdを用いた当該補正は省略することもできる。
[姿勢決定手段44の変形例]
上記実施形態の姿勢決定手段44は、各人物の姿勢を候補評価値が最も高い候補領域に決定する。この構成は、人物ごとに、候補評価値が高い候補領域が示す姿勢ほど強く反映された姿勢を当該人物の姿勢に決定する姿勢決定手段の一例に過ぎず、姿勢決定手段44は以下の(c1)〜(c3)に示す他の構成とすることもできる。
(c1)M通りの候補領域を各候補領域の候補評価値で重み付け平均して姿勢を決定する。すなわち、各人物のM通りの候補領域それぞれに対応付けられた姿勢パラメータを当該候補領域の候補評価値で重み付け平均して、重み付け平均した姿勢パラメータが表す姿勢を当該人物の姿勢に決定する。
(c2)M通りの候補領域のうち、候補評価値が予め定めた閾値を超える候補領域を候補評価値で重み付け平均して姿勢を決定する。
(c3)M通りの候補領域のうち、候補評価値が予め定めた順位までの候補領域を候補評価値で重み付け平均して姿勢を決定する。
さて本発明が解決しようとする課題として既に述べたように従来、複数人が一体化したシルエットに対して候補領域の組み合わせの数だけ形状マッチングを行う従来技術では、MのN乗回のマッチングが必要となり、人数に応じて指数関数的に計算量が増加していた。
このような複数人姿勢推定における問題点に対し、本発明では、注目物体の各候補領域を他の物体の複数の候補領域を用いて評価する候補評価値を設け、これによって複数人姿勢推定を個人ごとの単独姿勢推定問題へと帰着させることが可能になった。
帰着させた単独姿勢推定問題の解法は、人物ごとに候補評価値が最大の候補領域を選出するというものであり、選出した候補領域でシルエットをセグメンテーションすることに相当する。
そして、本発明ではさらに、反復制御によって単独人物姿勢推定とセグメンテーションとを交互に最適化することで姿勢推定の精度を向上させる。
以上のように、本発明では、複数人姿勢推定問題を個人ごとの単独姿勢推定問題へと帰着させたことで、従来技術よりも大幅に少ない計算量での複数人姿勢推定を可能とした。例えば、3人の人物が撮像された画像に対し各々100通りの姿勢を試行する単独人物姿勢推定処理とセグメンテーションとからなる一連の処理を5回反復しても(100×3)×5=1500回のマッチングで済むことになる。
1 異常検知システム、2 撮像部、3 記憶部、4 画像処理部、5 出力部、30 記憶手段、40 シルエット抽出手段、41 シルエット内人数判定手段、42 候補領域生成手段、43 候補領域評価手段、44 姿勢決定手段、45 単数人シルエット処理手段、46 異常検知手段、430 非重複度算出手段、431 評価値算出手段、432 反復制御手段。

Claims (5)

  1. 所定の物体を撮影した画像から前記物体の姿勢を推定する姿勢推定装置であって、
    前記画像から複数の前記物体が一体化したシルエットを抽出するシルエット抽出手段と、
    前記各物体について、前記シルエットと重複し、且つ互いに異なる姿勢の候補領域を複数生成する候補領域生成手段と、
    前記各物体について前記候補領域ごとに、当該候補領域外に生成された当該物体以外の前記候補領域が多いほど高い評価値を算出する候補領域評価手段と、
    前記物体ごとに、前記評価値が高い候補領域が示す姿勢ほど強く反映された姿勢を当該物体の姿勢に決定する姿勢決定手段と、
    を含むことを特徴とした姿勢推定装置。
  2. 請求項1に記載の姿勢推定装置において、
    前記シルエット内の位置に対応付けて、前記各物体の前記複数の候補領域に対する当該物体以外の候補領域の重複度合いを算出する重複度算出手段を有し、
    前記候補領域評価手段は、前記各物体の前記候補領域ごとに、当該候補領域外における当該物体に関する前記重複度合いが高いほど高い評価値を算出すること、
    を特徴とする姿勢推定装置。
  3. 請求項2に記載の姿勢推定装置において、
    前記重複度算出手段は、算出された前記評価値が高い前記候補領域ほど高く重み付けて前記重複度合いを更新し、
    前記候補領域評価手段は、更新された前記重複度合いに応じて前記評価値を更新すること、
    を特徴とする姿勢推定装置。
  4. 請求項3に記載の姿勢推定装置において、
    前記候補領域評価手段は、前記重複度合いの更新に用いた前記評価値を、更新された前記重複度合いを反映して修正し、更新された前記評価値とすること、を特徴とする姿勢推定装置。
  5. 請求項1から請求項4のいずれか1つに記載の姿勢推定装置において、
    前記候補領域評価手段は、前記各物体の前記候補領域ごとに、前記シルエットからのはみ出し度合いを算出し、当該はみ出し度合いが高いほど前記評価値を低く補正すること、を特徴とする姿勢推定装置。
JP2015049683A 2015-03-12 2015-03-12 姿勢推定装置 Active JP6166297B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015049683A JP6166297B2 (ja) 2015-03-12 2015-03-12 姿勢推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015049683A JP6166297B2 (ja) 2015-03-12 2015-03-12 姿勢推定装置

Publications (2)

Publication Number Publication Date
JP2016170605A true JP2016170605A (ja) 2016-09-23
JP6166297B2 JP6166297B2 (ja) 2017-07-19

Family

ID=56983852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015049683A Active JP6166297B2 (ja) 2015-03-12 2015-03-12 姿勢推定装置

Country Status (1)

Country Link
JP (1) JP6166297B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3502958A1 (en) * 2017-12-25 2019-06-26 Omron Corporation Object recognition processing apparatus, object recognition processing method, and program
JP2019169069A (ja) * 2018-03-26 2019-10-03 Kddi株式会社 オブジェクト分離装置、方法およびプログラム
WO2019198696A1 (ja) * 2018-04-11 2019-10-17 株式会社アジラ 行動推定装置
WO2021111522A1 (ja) * 2019-12-03 2021-06-10 日本電信電話株式会社 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム
US11048924B1 (en) 2018-05-27 2021-06-29 Asilla, Inc. Action-estimating device
WO2023275940A1 (ja) * 2021-06-28 2023-01-05 株式会社Sportip 姿勢推定装置、姿勢推定システム、姿勢推定方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141686A (ja) * 2010-12-28 2012-07-26 Secom Co Ltd 異常検知装置
JP2012208850A (ja) * 2011-03-30 2012-10-25 Secom Co Ltd 異常検知装置
JP2014093023A (ja) * 2012-11-06 2014-05-19 Canon Inc 物体検出装置、物体検出方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012141686A (ja) * 2010-12-28 2012-07-26 Secom Co Ltd 異常検知装置
JP2012208850A (ja) * 2011-03-30 2012-10-25 Secom Co Ltd 異常検知装置
JP2014093023A (ja) * 2012-11-06 2014-05-19 Canon Inc 物体検出装置、物体検出方法及びプログラム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3502958A1 (en) * 2017-12-25 2019-06-26 Omron Corporation Object recognition processing apparatus, object recognition processing method, and program
CN109961082A (zh) * 2017-12-25 2019-07-02 欧姆龙株式会社 物体识别处理装置、物体识别处理方法以及存储介质
JP2019114103A (ja) * 2017-12-25 2019-07-11 オムロン株式会社 物体認識処理装置、物体認識処理方法及びプログラム
US10803615B2 (en) 2017-12-25 2020-10-13 Omron Corporation Object recognition processing apparatus, object recognition processing method, and program
JP2019169069A (ja) * 2018-03-26 2019-10-03 Kddi株式会社 オブジェクト分離装置、方法およびプログラム
WO2019198696A1 (ja) * 2018-04-11 2019-10-17 株式会社アジラ 行動推定装置
US11482046B2 (en) 2018-04-11 2022-10-25 Asilla, Inc. Action-estimating device
US11048924B1 (en) 2018-05-27 2021-06-29 Asilla, Inc. Action-estimating device
WO2021111522A1 (ja) * 2019-12-03 2021-06-10 日本電信電話株式会社 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム
WO2023275940A1 (ja) * 2021-06-28 2023-01-05 株式会社Sportip 姿勢推定装置、姿勢推定システム、姿勢推定方法

Also Published As

Publication number Publication date
JP6166297B2 (ja) 2017-07-19

Similar Documents

Publication Publication Date Title
JP6166297B2 (ja) 姿勢推定装置
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP6942488B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US9330470B2 (en) Method and system for modeling subjects from a depth map
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
JP5675229B2 (ja) 画像処理装置及び画像処理方法
JP6525635B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
WO2004095373A2 (en) Method and system for determining object pose from images
CN108921062B (zh) 一种联合多步态特征协同字典的步态识别方法
JP5027741B2 (ja) 画像監視装置
CN109740659A (zh) 一种图像匹配方法及装置、电子设备、存储介质
Martínez-González et al. Residual pose: A decoupled approach for depth-based 3D human pose estimation
JP2009211122A (ja) 画像処理装置およびオブジェクト推定プログラム。
Henning et al. Bodyslam++: Fast and tightly-coupled visual-inertial camera and human motion tracking
JP7488674B2 (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP2017097549A (ja) 画像処理装置、方法、及びプログラム
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
Li et al. Unsupervised learning of human perspective context using ME-DT for efficient human detection in surveillance
Noriega et al. Multicues 3D Monocular Upper Body Tracking Using Constrained Belief Propagation.
Rasouli et al. Dynamic posture estimation in a network of depth sensors using sample points
JP3811474B2 (ja) 顔部品位置検出方法及び顔部品位置検出装置
WO2024009532A1 (ja) 行動認識装置、行動認識方法、及び行動認識プログラム
JP2009110426A (ja) テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170525

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170622

R150 Certificate of patent or registration of utility model

Ref document number: 6166297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250