JP6690090B2 - 特徴量比較プログラム、情報処理装置、および特徴量比較方法 - Google Patents

特徴量比較プログラム、情報処理装置、および特徴量比較方法 Download PDF

Info

Publication number
JP6690090B2
JP6690090B2 JP2016094879A JP2016094879A JP6690090B2 JP 6690090 B2 JP6690090 B2 JP 6690090B2 JP 2016094879 A JP2016094879 A JP 2016094879A JP 2016094879 A JP2016094879 A JP 2016094879A JP 6690090 B2 JP6690090 B2 JP 6690090B2
Authority
JP
Japan
Prior art keywords
person
color
color feature
area
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016094879A
Other languages
English (en)
Other versions
JP2017204095A (ja
Inventor
明燮 鄭
明燮 鄭
瀬川 英吾
英吾 瀬川
健太郎 辻
健太郎 辻
松田 裕司
裕司 松田
信浩 宮▲崎▼
信浩 宮▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016094879A priority Critical patent/JP6690090B2/ja
Publication of JP2017204095A publication Critical patent/JP2017204095A/ja
Application granted granted Critical
Publication of JP6690090B2 publication Critical patent/JP6690090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、特徴量比較プログラム、情報処理装置、および特徴量比較方法に関する。
人物の移動情報は、混雑の解消や、商業施設における店舗や人員の最適化よるサービスの向上などに活用されている。監視カメラの映像から人物を検出し、複数のカメラにまたがって移動する人物を対応付けることで、自動的に広範囲の人物の移動を把握できる。
従来、同一人物であるか否かの判定には、人物の服装の色などの特徴が利用されている。
色特徴により正しく人物の対応付けをするためには、異なるカメラにより撮影された画像間において人物領域内の同じ位置が同じ色になることが望ましいが、人物の回転や傾きにより画像上の映り方が変化する。例えば、人物の進行方向の反対方向から人物を撮影した場合、人物の左右の回転(図1)、人物の左右の傾き(図2)、または人物の前後の傾き(図3)により映り方が変化する。映り方が変化すると、各画像の人物領域内の同一座標の画素であっても同一色とならず、人物の照合において誤判定する場合がある。
異なる映り方に対応した人物の照合方法として、隣接する同じ色の画素をクラスタリングしたクラスタを楕円でモデル化し、所定サイズ以上の大きさのクラスタを対象に照合を行う方法が知られている(例えば、非特許文献1参照)。
特開2007−156917号公報 特開2015−8449号公報 特開2010−263552号公報 特開2009−284084号公報
M.Farenzena、外4名、「Person Re-identification by Symmetry-Driven Accumulation of Local Features」、IEEE Conference on Computer Vision and Pattern Recognition (CVPR)、 2010
非特許文献1の方法では、所定のサイズ以上のクラスタが対象となるため、ある部分に対応する所定のサイズ以上のクラスタが片方の画像にしかない場合、同一の部分同士で照合されず、誤判定する恐れがある。
また、画像上で色の境界部分に量子化誤差によって混合色のクラスタが生成される場合があり、小さいクラスタも照合の対象とする場合、判定対象の画像間でクラスタの数が一致せず、誤判定する恐れがある。
本発明は、異なる撮像装置で撮影した複数の画像における人物の一致判定の精度を向上させることを目的とする。
実施の形態に係る特徴量比較プログラムは、コンピュータに、以下の処理を実行させる。
前記コンピュータは、撮像装置で撮像された第1の画像から第1の人物領域を抽出し、抽出した前記人物領域から色特徴量を抽出し、前記人物領域から抽出した前記色特徴量の前記人物領域における位置関係を特定する。
前記コンピュータは、前記人物領域から抽出した色特徴量に、複数の色特徴量と該複数の色特徴量に対応する色の合成色に対応する色特徴量が含まれ、前記合成色に対応する色特徴量と前記複数の色特徴量とが隣接する位置関係を有することを検出すると、前記人物領域内に含まれる前記合成色に対応する色特徴量を除く第1の色特徴量と、他の撮像装置で撮像された第2の画像から抽出された第2の人物領域から抽出された第2の色特徴量とを比較する。
実施の形態によれば、異なる撮像装置で撮影した複数の画像における人物の一致判定の精度を向上させることが出来る。
左右の回転による見え方の変化を示す図である。 左右の傾きによる見え方の変化を示す図である。 前後の傾きによる見え方の変化を示す図である。 同一の部分同士で照合されない例を示す図である。 クラスタの数が一致しない例を示す図である。 実施の形態に係るシステムの構成図である。 特徴量テーブルの例である。 実施の形態に係る人物判定処理のフローチャートである。 人物検出処理の詳細なフローチャートである。 人物の移動方向の算出を説明する図である。 人物の向きの定義を示す図である。 撮影状況の例を示す図である。 撮影画像と人物領域の例を示す図である。 遮蔽面積と遮蔽位置の例を示す図である。 色特徴抽出処理の詳細なフローチャートである。 色構造の作成を示す図である。 合成色の判定と合成色のクラスタの除外を示す図である。 照合処理の詳細なフローチャートである。 判定処理の第1の方式のフローチャートである。 第1の実施例を説明する図である。 第1の実施例を説明する図である。 判定処理の第2の方式のフローチャートである。 第2の実施例を説明する図である。 第3の実施例を説明する図である。 第4の実施例を説明する図である。 人物を円柱にモデル化した図である。 人物をモデル化した円柱の横表面を一定度刻みで分割した領域を示す図である。 人物の映る範囲の例を示す図である。 第5の実施例を説明する図である。 情報処理装置(コンピュータ)の構成図である。
非特許文献1の方法では、所定のサイズ以上のクラスタが対象となるため、照合する画像間において、ある部分に対応する所定サイズ以上のクラスタが両方の画像に存在する場合は対応できる。しかし、ある部分に対応する所定のサイズ以上のクラスタが片方の画像にしかない場合、同一の部分同士で照合されず、誤判定する恐れがある。例えば、図4に示すように、あるカメラで撮影した画像21に対して、隣接する同じ色の画素をクラスタリングしたクラスタを楕円でモデル化した画像22を生成する。そして、楕円でモデル化した画像22において所定サイズ以上のクラスタを示すと画像23となる。画像23において、腕の肌色部分のクラスタの大きさは所定サイズ未満であるため、照合の対象とはならず、腕の肌色部分は削除されている。また、他のカメラで撮影した画像31に対して、隣接する同じ色の画素をクラスタリングしたクラスタを楕円でモデル化し、所定サイズ以上のクラスタを示すと画像33となる。画像33において、腕の肌色部分のクラスタの大きさは所定サイズ以上であるため、照合の対象となる。画像23と画像33とを照合すると、上述のように画像23において腕の肌色部分は照合対象ではないため、画像33の腕の肌色部分と照合されずに、誤判定する恐れがある。
また、画像上で色の境界部分に量子化誤差によって混合色のクラスタが生成される場合があり、小さいクラスタも照合の対象とする場合、照合するクラスタの数が一致しない場合がある。量子化誤差による問題は、低解像度の画像ほど1画素が全体に占める割合が大きいため、影響が大きくなる。例えば、図5に示すように、あるカメラで撮影した画像41に対して、隣接する同じ色の画素をクラスタリングしたクラスタを楕円でモデル化し、所定サイズ以上のクラスタを示すと画像43となる。また、他のカメラで撮影した画像51に対して、隣接する同じ色の画素をクラスタリングしたクラスタを楕円でモデル化し、所定サイズ以上のクラスタを示すと画像53となる。画像51において、赤色のバッグと青色のズボンとの境界に量子化誤差によりピンク色の画素が生成され、画像53においてもピンク色の画素に対応するクラスタがある。一方、画像41において、量子化誤差によるピンク色の画素はなく、画像43においてもピンク色の画素に対応するクラスタはない。画像43と画像53とを照合すると、画像53には量子化誤差により生成されたピンク色の画素に対応するクラスタがあるため、画像43のクラスタの数と画像53のクラスタの数とが一致せず、誤判定する恐れがある。
以下、図面を参照しながら実施の形態について説明する。
図6は、実施の形態に係るシステムの構成図である。
システム101は、カメラ201−i(i=1,2)およびサーバ301を備える。
カメラ201−iは、ネットワークを介してサーバ301と接続している。また、カメラ201−iは、Universal Serial Bus(USB)等によりサーバ301と接続してもよい。カメラ201−iは、撮影範囲を撮影し、撮影した画像(撮影画像)をサーバ301に送信する。カメラ201−1とカメラ201−2は、それぞれ異なる撮影範囲を定期的若しくは常に撮影する。尚、カメラ201−iは動画を撮影し、サーバ301に送信してもよい。その場合、動画の各フレームが撮影画像に相当する。カメラ201−iは、撮像装置の一例である。尚、カメラの数は一例であり、これに限られるものではない。
サーバ301は、画像から人物領域を検出し、人物領域の特徴を抽出し、該特徴に基づいて、人物の一致判定を行う。サーバ301は、情報処理装置の一例である。
サーバ301は、画像入力部311、人物検出部321、色特徴抽出部331、照合部341、記憶部351、および出力部361を備える。
画像入力部311は、カメラ201−iから撮影画像を受信し、撮影画像の解像度を下げた画像を生成する。これは、例えば、街中や商業施設においてカメラ201−iを利用する場合、被撮影者の顔が把握できないようして、プライバシーを保護するためである。画像入力部311は、低解像度化した撮影画像を人物検出部321に出力する。また、画像入力部311は、低解像度化した撮影画像を記憶部351に記憶してもよい。尚、以下で説明する人物検出部321および色特徴抽出部331で用いられる撮影画像は、低解像度化した撮影画像である。
人物検出部321は、人物領域検出部322、人物向き算出部323、および遮蔽面積算出部324を備える。人物検出部321は、人物領域抽出部の一例である。
人物領域検出部322は、撮影画像の人物領域を検出(抽出)する。
人物向き算出部323は、撮影画像の人物の向きを算出する。
遮蔽面積算出部324は、人物領域の重畳部分(遮蔽部分)の面積を算出し、遮蔽部分の面積および位置を記録する。
色特徴抽出部331は、色領域分割部332、合成色判定部333、および色構造作成部334を備える。
色領域分割部332は、人物領域を正規化し、人物領域内の隣接する同じ色(または近い色の画素をクラスタリングしたクラスタを楕円でモデル化する。
合成色判定部333は、クラスタの色が当該クラスタに隣接するクラスタの色の合成色であるか判定する。
色構造作成部334は、人物の色構造に含まれる複数のクラスタから合成色と判定されたクラスタを削除する。
照合部341は、照合範囲選択部342、特徴量照合部343、および判定部344を備える。照合部341は、比較部の一例である。
照合範囲選択部342は、人物領域に遮蔽部分があるか否か判定する。また、照合範囲選択部342は、第1の人物と第2の人物の向きの変化量を算出する。
特徴量照合部343は、各人物の色構造に基づいて、人物の一致度を算出する。
判定部344は、各人物の色構造から算出された一致度に基づいて、同一人物であるか否か判定する。
記憶部351は、サーバ301で使用されるデータを格納する。記憶部351は、特徴量テーブル352−j(j=1〜n:nは1以上の整数)を格納する。特徴量テーブル352−jのそれぞれには、撮影画像に含まれる人物を含む人物領域のそれぞれの特徴が記載される。
出力部361は、判定部344による判定結果を出力する。
図7は、特徴量テーブルの例である。
特徴量テーブル352−1は、項目として、色構造、大きさ、向き、および遮蔽を含み、各項目の特徴量が記載されている。
色構造は、撮影画像の人物領域に含まれる各クラスタの特徴量を示す。色構造の特徴量には、クラスタ番号、座標、色特徴量、および隣接クラスタ番号が対応付けられて記載されている。クラスタ番号は、クラスタに割り当てられた番号である。座標は、クラスタの中心座標である。色特徴量は、クラスタの画素値(色成分)の平均値であり、赤(R)、緑(G)、および青(B)の各成分の平均値である。尚、色特徴量は、RGB色空間以外の色空間の値、例えば、HSVまたはHLSの値に変換した値でもよい。また、平均値以外に中央値または最頻値といった統計的代表値を、色特徴量として用いてもよい。隣接クラスタ番号は、自クラスタと隣接するクラスタのクラスタ番号である。
大きさは、人物領域のサイズ(幅および高さ)を示す。
向きは、人物領域に含まれる人物の向きを示す。
遮蔽は、他の人物領域によって遮蔽されている遮蔽部分の面積と座標を示す。座標は、遮蔽部分の左上角の座標Sp(x,y)と右下角の座標Ep(x’、y’)である。
図8は、実施の形態に係る人物判定処理のフローチャートである。
ステップS501において、画像入力部311は、カメラ201−iのいずれかから撮影画像を受信する。画像入力部311は、撮影画像の解像度を下げた画像を生成し、低解像度化した撮影画像を人物検出部321に出力する。また、画像入力部311は、低解像度化した撮影画像を記憶部351に記憶してもよい。
ステップS511において、人物検出部321は、人物検出処理を行う。尚、人物検出処理の詳細は後述する。
ステップS531において、色特徴抽出部331は、色特徴抽出処理を行う。尚、色特徴抽出処理の詳細は後述する。
ステップS551において、照合部341は、照合処理を行う。尚、照合処理の詳細は後述する。
ステップS581において、出力部361は、照合部341の判定部344による判定結果を出力する。例えば、出力部361は、判定部344による判定結果(例えば、同一人物であるか否か)を表示装置(不図示)に表示する。また、出力部361は、例えば、第1の撮影画像の第1の人物と第2の撮影画像の第2の人物が同一人物であると判定された場合、第1の人物と第2の人物とを対応付ける情報を記憶部351に記憶する。
図9は、人物検出処理の詳細なフローチャートである。
図9は、図8のステップS511に相当する。図10は、人物の移動方向の算出を説明する図であり、図11は、人物の向きの定義を示す図である。実施の形態において、所定の間隔の2つの異なる時刻T1,T2における撮影画像601,611を用いた、人物の向きの算出について説明する。尚、撮影画像601,611は、同一のカメラ201−iにより撮影され、低解像度化された画像であり、同一人物が映っている。また、時刻T1は時刻T2よりも前の時刻である。
ステップS512において、人物領域検出部322は、画像入力部311から低解像度化した撮影画像を受信し、撮影画像に含まれる人物領域を検出する。人物領域を検出する方法は、例えば、非特許文献2(佐藤雄隆、他3名、「Radial Reach Filter(RRF)によるロバストな物体検出」、信学論(D-II)、Vol. J86-D-II No.5、pp 616-624、2003)に記載の移動体の領域を検出する方法や、非特許文献3(山内悠嗣, 他2名、「Boostingに基づく特徴量の共起表現による人検出」、信学論D、 Vol. J92-D, No. 8、pp. 1125-1134、2009)に記載の人の特徴を抽出し、画像から人の特徴を抽出する方法を用いる。人物領域は、撮影画像の人物の輪郭に接する矩形(外接矩形)の領域とする。また、人物領域検出部322は、撮影画像の背景部分を背景差分処理により除去する。図10に示すように、撮影画像601において人物領域602が検出され、撮影画像611において人物領域612が検出される。尚、今回受信した画像が時刻T2における撮影画像611である場合、人物領域検出部322は、以前に受信した時刻T1における撮影画像601を記憶部351に記憶しておき、撮影画像601を記憶部351から読み出して処理を行う。
以下のステップS513〜S516では、人物向き算出部323により、人物の向きを算出する処理を行う。
ステップS513において、人物向き算出部323は、検出した人物領域の中心座標を算出する。人物領域の中心座標は、矩形である人物領域の横(x)方向の2つの辺の中間を結んだ線と縦(y)方向の2つの辺の中間を結んだ線との交点である。図10において、時刻T1の撮影画像601の人物領域602の中心座標はPt1(X1,Y1)であり、時刻T2の撮影画像611の人物領域612の中心座標はPt2(X2,Y2)である。
ステップS514において、人物向き算出部323は、人物の実環境の平面上の座標を算出する。詳細には、人物向き算出部323は、実環境における3次元(x軸、y軸、z軸)の直交座標系を定義し、xy平面上の人物の位置(座標)を算出する。人物向き算出部323は、例えば、非特許文献4(岡部亜梨子、他2名、「AbS手法を用いた店舗内における人物の検出」、電気学会論文誌 C, 電子・情報・システム部門誌 127(4)、 506-512、 2007)に記載のように、人の標準身長を基に、画像から3次元上の人物の位置P(x,y)を算出する。図10において、撮影画像601の人物の実環境におけるxy平面上の座標はp(x1,y1)であり、撮影画像611の人物の実環境におけるxy平面上の座標はp(x2,y2)である。
ステップS515において、人物向き算出部323は、人物の移動方向を算出する。詳細には、人物向き算出部323は、異なる時刻の人物の位置から人物の移動方向を算出する。
例えば、時刻T2における人物の移動方向θは、時刻T1における人物の座標p(x1,y1)と時刻T2における人物の座標p(x2,y2)から、下式(1)により算出される。尚、下式(1)により算出される移動方向は、時刻T1における人物の移動方向θとしてもよい。
θ=arctan((y2−y1)/(x2−x1)) ・・・(1)
実施の形態において、正面を向いて移動する人物を対象として、算出した移動方向θを人物の向きθとする。人物の向きは、図11に示すような、x軸の正方向を0度、y軸の正方向を90度とする直交座標系で定義される。また、人物の向きθは、―180<θ≦180とする。
人物向き算出部323は、人物の向きθを当該人物(人物領域)に対応する特徴量テーブル352−jに記録する。
以下のステップS516〜S518では、遮蔽面積算出部324により、人物領域の重畳部分の検出と記録を行う。図12は、撮影状況の例を示す図であり、図13は、撮影画像と人物領域の例を示す図である。図14は、遮蔽面積と遮蔽位置の例を示す図である。
図12において、カメラ201−1は、人物A,Bの前方上部に設置され、人物A,Bを撮影する。また、人物Bは、人物Aの後方に位置する。図12に示す撮影状況において、図13に示す撮影画像633が得られる。尚、撮影画像631は、画像入力部311により低解像度化された画像である。人物領域検出部322は、撮影画像631に対して人物領域の検出を行うと、人物Aと含む人物領域632と人物Bを含む人物領域633が検出される。また、人物領域632の左上部分と人物領域633の右下部分は重なり合っており、人物領域Bの一部は、人物Aにより遮蔽されている。
ステップS516において、遮蔽面積算出部324は、画像入力部311から受信した撮影画像に含まれる人物領域の座標を算出する。詳細には、矩形である人物領域の左上角と右下角の座標を算出する。尚、人物領域の座標の算出は、ステップS512と同様の方法で行っても良いし、ステップS512の人物領域の検出結果を利用することで、処理を省略してもよい。図14に示すように、人物領域632の左上角の座標はSP(x1,y1)、右下角の座標はEP(x2,y2)である。また、人物領域633の左上角の座標はSP(x’1,y’1)、右下角の座標はEP(x’2,y’2)である。
ステップS517において、遮蔽面積算出部324は、算出した人物領域の座標に基づいて、人物領域と他の人物領域とが重なる重畳部分(遮蔽部分)、すなわち人物領域のうち他の人物領域に覆われている領域があるか否か判定する。遮蔽部分がある場合、遮蔽面積算出部324は、当該遮蔽部分の面積(遮蔽面積)SSを算出する。図14において、人物領域633の遮蔽面積SSは、下式(2)で算出される。
SS=(x’2−x1)×(y’2−y1) ・・・(2)
ステップS518において、遮蔽面積算出部324は、遮蔽部分の面積および遮蔽部分の位置(遮蔽位置)を特徴量テーブル352−jに記録する。遮蔽部分の位置は、例えば、矩形である遮蔽部分の左上角の座標(始点座標)Sp(x,y)および右下角の座標(終点座標)Ep(x’,y’)である。尚、始点座標および終点座標は、遮蔽部分を含む人物領域における相対位置(例えば、人物領域の左上角を原点する座標)とする。図14において、人物領域633の遮蔽部分の始点座標Spは(x1−x’1,y1−y’1)であり、終点座標Epは(x’2−x’1,y’2−y’1)である。遮蔽面積算出部324は、撮影画像631の人物B(人物領域633)に対応する特徴量テーブル352−jに遮蔽部分の面積SS、始点座標Sp、および終点座標Epを記録する。
図15は、色特徴抽出処理の詳細なフローチャートである。
図15は、図8のステップS531に相当する。
以下のステップS532〜S537では、人物の色構造を作成する処理を行う。図16は、色構造の作成を示す図である。
ステップS532において、色領域分割部332は、撮影画像に含まれる人物領域を抽出し、人物領域の大きさを正規化(すなわち、所定の大きさに変更)する。実施の形態において、色構造の作成時には、人物領域は全て同じ大きさに正規化され、座標は人物領域の左上角を原点(0,0)とする同一平面座標系における値とする。
ステップS533において、色領域分割部332は、非特許文献1記載の方法を用いて、人物領域内の隣接する同じ色(または近い色、すなわち画素間の画素値の差分が所定値以内)の画素をクラスタリング(グループ化)したクラスタを楕円でモデル化する。図16において、人物領域641の人物Aをクラスタリングして楕円でモデル化すると、人物モデル642のようになる。
ステップS534において、色構造作成部334は、楕円でモデル化した人物モデルの各クラスタの画素値の平均値(色特徴量)と外接する矩形(外接矩形)の位置を算出する。尚、色特徴量は、赤(R)、緑(G)、および青(B)の各成分の平均値で表される。外接する矩形の位置は、クラスタの中心座標と大きさ(幅および高さ)を算出する。色構造作成部334は、クラスタの中心座標のy軸座標値の昇順にクラスタ番号を各クラスタに割り当てる。尚、y軸座標値が同じクラスタはx軸座標値の昇順にクラスタ番号を割り当てる。図16において、人物モデル642の各クラスタに外接矩形を追加して表すと人物モデル643のようになる。
ステップS535において、色構造作成部334は、各クラスタの外接矩形について、他のクラスタの外接矩形と重なる部分(重畳部分)を算出する。重畳部分は、クラスタの中心座標と大きさに基づいて算出される。
ステップS536において、色構造作成部334は、各クラスタについて隣接するクラスタを算出する。色構造作成部334は、あるクラスタの外接矩形に他のクラスタの外接矩形と重なる部分(重畳部分)があるか否かで、2つのクラスタが隣接しているか否か判定する。例えば、クラスタAの外接矩形とクラスタBの外接矩形とが重なる部分がある場合、クラスタAとクラスタBは隣接していると判定される。このような、クラスタの外接矩形に基づく隣接判定を全てのクラスタの組み合わせに対して行うことで、各クラスタに隣接するクラスタを算出する。図16において、人物モデル642の各クラスタの中心座標を点で示し、隣接するクラスタの中心座標同士を線で結んで表すと、隣接状態644のように表される。隣接状態644に示すように、人物モデル642には8個のクラスタがあり、クラスタには(1)〜(8)のクラスタ番号が割り当てられている。
ステップS537において、色構造作成部334は、人物に対応する特徴量テーブル352−iの色構造の特徴量にクラスタ番号、中心座標、色特徴量、隣接クラスタ番号を記載する。色構造作成部334は、クラスタ番号に、割り当てたクラスタ番号を昇順に記載する。色構造作成部334は、中心座標に、クラスタ番号に対応するクラスタの中心座標を記載する。色構造作成部334は、色特徴量に、クラスタ番号に対応するクラスタの色特徴量を記載する。色構造作成部334は、隣接クラスタ番号に、クラスタ番号に対応するクラスタに隣接するクラスタのクラスタ番号を記載する。図16において、人物領域641の人物Aに対応する特徴量テーブル352−iの色構造の特徴量を記載すると表646に示すようになる。
以下のステップS538〜S540では、合成色の判定と合成色のクラスタの除外を行う。
ステップS538において、合成色判定部333は、各クラスタについて、クラスタの色(色特徴)が隣接するクラスタの色(色特徴)の合成色であるか否か判定する。
合成色のクラスタの色特徴量は、第1の隣接するクラスタの色特徴量と第2の隣接するクラスタの色特徴量との線形和で表されると考えられるので、判定対象のクラスタの特徴量Vは、第1の隣接するクラスタの色特徴量をV、第2の隣接するクラスタの色特徴量をV、混色率αとすると下式(3)で表される。
=αV+(1−α)V ・・・(3)
上式(3)より、混色率αは、下式(4)で算出される。
α=(V−V)/(V−V) ・・・(4)
尚、色特徴量V、V、VがそれぞれRGBの3成分で表される場合、色特徴量V=(VcR,VcG,VcB)、V=(ViR,ViG,ViB)、V=(VoR,VoG,VoB)とすると、上式(4)における色特徴量の差分は下記の様にユークリッド距離で算出される。
−V=((VcR−ViR+(VcG−ViG+(VcB−ViB1/2
−V=((VoR−ViR+(VoG−ViG+(VoB−ViB1/2
合成色判定部333は、混色率αが閾値以上である場合、クラスタの色は合成色であると判定し、混色率αが閾値未満である場合、クラスタの色は合成色でないと判定する。尚、上記の合成色の判定方法は一例であり、これに限られるものではない。
ステップS539において、合成色であると判定されたクラスタがある場合、制御はステップS540に進み、合成色であると判定されたクラスタがない場合、色特徴抽出処理は終了する。
ステップS540において、色構造作成部334は、合成色と判定されたクラスタに対応するエントリを特徴量テーブル352−iの色構造の特徴量から削除する。色構造作成部334は、合成色と判定されたクラスタのエントリの削除に伴い、クラスタ番号をリナンバリングし、それに応じて隣接クラスタ番号も修正する。
図17は、合成色の判定と合成色のクラスタの除外を示す図である。
図17において、人物領域651の人物A’をクラスタリングして楕円でモデル化すると、人物モデル652のようになる。人物モデル652の各クラスタの中心座標を点で示し、隣接するクラスタの中心座標同士を線で結んで表すと、隣接状態653のように表される。色構造作成部334は、ステップS532〜S537の処理により、人物A’に対応する特徴量テーブル352−iの色構造の特徴量を記載する。
隣接状態653に示すように、人物モデル652には10個のクラスタがあり、クラスタには(1)〜(10)のクラスタ番号が割り当てられている。以下、クラスタ番号(m)のクラスタは、クラスタ(m)と表記する場合がある。
ここで、クラスタ(7)が合成色であるか否かを判定する場合を説明する。
クラスタ(7)は、クラスタ(6)および(8)と隣接しているので、クラスタ(7)の色がクラスタ(6)および(8)の色の合成色であるか判定する。
クラスタ(6)、(7)、(8)の色は、それぞれ赤、ピンク、青とする。ピンクは、赤と青で合成可能であるため、クラスタ(7)の色は合成色と判定される。詳細には、合成色判定部333は、クラスタ(6)、(7)、(8)の色特徴をそれぞれV、V、Vとして上式(4)により、混色率αを算出する。ここでは、算出された混色率αは閾値以上であるとする。
隣接状態653から合成色と判定されたクラスタ(7)を削除すると、隣接状態654のように表される。色構造作成部334は、人物A’に対応する特徴量テーブル352−iの色構造の特徴量のクラスタ(7)のエントリを削除する。
クラスタ(7)の削除に伴い、クラスタ(7)の合成色の判定に用いた隣接するクラスタ(6)と(8)と繋げる。すなわち、特徴量テーブル352−iの色構造の特徴量のクラスタ(6)の隣接クラスタ番号(7)が隣接クラスタ番号(8)に変更され、クラスタ(8)の隣接クラスタ番号(7)が隣接クラスタ番号(6)に変更される。そして、クラスタ番号をリナンバリングすると、隣接状態654のクラスタ番号(8)、(9)、(10)は、それぞれクラスタ番号(7)、(8)、(9)となり、隣接状態655のように表される。色構造作成部334は、人物A’に対応する特徴量テーブル352−iの色構造の特徴量のクラスタ番号と隣接クラスタ番号をリナンバリングし、隣接状態655に対応する特徴量テーブル352−iに修正する。
図18は、照合処理の詳細なフローチャートである。
図18は、図8のステップS551に対応する。
以下の説明では、第1の撮影画像の第1の人物領域の人物Aと第2の撮影画像の第2の人物領域の人物A’とが同一人物であるか否かを判定する。第1の撮影画像と第2の撮影画像は、それぞれ異なるカメラ201−iによって撮影された画像である。尚、第1の撮影画像と第2の撮影画像は、同一のカメラ201−iによって撮影された画像でもよい。
記憶部351には、人物Aの特徴を示す特徴量テーブル352−Aと人物A’の特徴を示す特徴量テーブル352−A’とが格納されている。
ステップS552において、照合範囲選択部342は、第1の人物領域または第2の人物領域に遮蔽部分があるか否か判定する。詳細には、照合範囲選択部342は、特徴量テーブル352−A、352−A’を参照し、遮蔽の面積が0より大きい場合、遮蔽部分ありと判定する。
ステップS553において、遮蔽部分がある場合、制御はステップS554に進み、遮蔽部分がない場合、制御はステップS555に進む。
ステップS554において、照合範囲選択部342は、第1の人物領域の遮蔽部分と第2の人物領域に遮蔽部分との合計部分を算出する。照合範囲選択部342は、合計部分に中心座標が含まれるクラスタを検出し、当該クラスタのエントリを特徴量テーブル352−A、352−A’の色構造から除去する。
ステップS555において、照合範囲選択部342は、人物Aと人物A’の向きの変化量を算出する。詳細には、照合範囲選択部342は、特徴量テーブル352−A、352−A’を参照し、特徴量テーブル352−A、352−A’に記載の向きθ、θA’から向きの変化量Δθを算出する。向きの変化量Δθは、人物Aの向きθと人物A’の向きθA’との差の絶対値である。すなわち、変化量Δθ=|θ−θA’|である。尚、θ−θA’が180度より大きいまたは−180度より小さい場合は、θ−θA’を−180度より大きい且つ180度以下の角度には変換し、その絶対値をΔθとする。
ステップS556において、照合範囲選択部342は、人物の向き変化があるか否か判定する。詳細には、照合範囲選択部342は、変化量が閾値より大きいか否か判定する。変化量が閾値より大きい場合(向き変化あり)、制御はステップS557に進み、変化量が閾値以下の場合(向き変化なし)、制御はステップS558に進む。
ステップS557において、照合範囲選択部342は、第1の人物領域と第2の人物領域の共通領域を求め、共通領域に含まれない領域に中心座標があるクラスタを除去する。照合範囲選択部342は、共通領域に含まれない領域に中心座標があるクラスタのエントリを特徴量テーブル352−A、352−A’の色構造から除去する。
ステップS558において、特徴量照合部343および判定部344は、判定処理を行う。尚、判定処理は、後述の第1の方式または第2の方式のいずれかが用いられる。
以下、判定処理の2つの方式と、遮蔽の有無(ステップS553:Yes/No)と向き変化の有無(ステップS556:Yes/No)の組み合わせの実施例1〜5を説明する。
実施例1は、遮蔽無し(ステップS553:No)且つ向き変化無し(ステップS556:No)の場合の判定処理の第1の方式について説明する。
図19は、判定処理の第1の方式のフローチャートである。図19は、図18のステップS558に対応する。図20および図21は、第1の実施例を説明する図である。
上述のように、実施例1では、ステップS553において、遮蔽なしと判定され、ステップS556において、向き変化なしと判定されている。
上述の人物検出処理および色特徴抽出処理により、図20において、人物領域641の人物Aはクラスタリングされ楕円でモデル化されて、人物モデル642が生成されている。また、人物Aに対応する特徴量テーブル352−Aの色構造は、表646のようになる。同様に、人物領域651の人物A’はクラスタリングされ楕円でモデル化されて、人物モデル652が生成されている。また、人物A’に対応する特徴量テーブル352−A’の色構造は、表656のようになる。また、人物領域641,652は、同じ大きさに正規化されているため、人物A,A’の色構造の座標系は同一の座標系となる。
ステップS561において、照合範囲選択部342は、人物Aと人物A’の各クラスタの中心座標間の距離cdを算出する。例えば、図20において、人物Aのクラスタ(1)と人物A’のクラスタ(2)との距離cdは、人物Aのクラスタ(1)の中心座標がP(x1、y1)、人物A’のクラスタ(2)の中心座標がP’(x2、y2)とすると、cd=((x2−x1)+(y2−y1)1/2となる。
照合範囲選択部342は、人物Aのクラスタごとに、人物A’のクラスタのうち最小の距離となるクラスタを求める。照合範囲選択部342は、人物Aのあるクラスタに対する人物A’のクラスタのうち最小の距離となるクラスタには、同一のクラスタ番号を割り当てる。
ステップS562において、照合範囲選択部342は、人物Aのクラスタごとに、人物A’のクラスタのうち最小の距離となるクラスタとの距離(最小距離)が閾値(TH)より大きいか否か判定する。最小距離が閾値(TH)より大きいクラスタがある場合、制御はステップS563に進み、最小距離が閾値(TH)より大きいクラスタがない場合、制御はステップS564に進む。
ステップS563において、照合範囲選択部342は、最小距離が閾値(TH)より大きいクラスタのエントリを特徴量テーブル352−A、352−A’の色構造から削除する。図21において、特徴量テーブル352−Aの色構造を表646に示す。表646において、クラスタ(5)とクラスタ(8)のエントリが削除され、削除されたエントリは灰色で示されている。特徴量テーブル352−A’の色構造を表656に示す。表656において、クラスタ(5)、クラスタ(8)、クラスタ(9)のエントリが削除され、削除されたエントリは灰色で示されている。また、照合範囲選択部342は、残っているエントリの隣接クラスタ番号から削除したクラスタ番号を削除する。例えば、照合範囲選択部342は、表646において、残っているクラスタ番号(1)〜(4)、(6)、(7)のエントリの隣接クラスタ番号から、(5)と(8)を削除する。また、照合範囲選択部342は、表656において、残っているクラスタ番号(1)〜(4)、(6)、(7)のエントリの隣接クラスタ番号から、(5)、(8)、(9)を削除する。
ステップS564において、照合範囲選択部342は、各人物の特徴量テーブルの色構造のクラスタ番号および隣接クラスタ番号を1から連続するように振り直す。
図21において、照合範囲選択部342は、表646に示される人物Aの色構造のクラスタ番号(1)〜(4)、(6)、(7)に対応するエントリのクラスタ番号および隣接クラスタ番号を振りなおす。それにより、クラスタ番号(6)および隣接クラスタ番号(6)は、それぞれクラスタ番号(5)および隣接クラスタ番号(5)となる。また、クラスタ番号(7)および隣接クラスタ番号(7)は、それぞれクラスタ番号(6)および隣接クラスタ番号(6)となる。同様に、表656に示される人物A’の色構造のクラスタ番号(1)〜(4)、(6)、(7)に対応するエントリのクラスタ番号および隣接クラスタ番号を振りなおす。それにより、クラスタ番号(6)および隣接クラスタ番号(6)は、それぞれクラスタ番号(5)および隣接クラスタ番号(5)となる。また、クラスタ番号(7)および隣接クラスタ番号(7)は、それぞれクラスタ番号(6)および隣接クラスタ番号(6)となる。
ステップS565において、照合範囲選択部342は、特徴量テーブルの色構造に基づいて、各人物の照合用テーブルを作成する。照合用テーブルには、クラスタ番号、色等跳梁、および隣接クラスタ番号が対応付けられて記載される。照合範囲選択部342は、ステップS564においてクラスタ番号および隣接クラスタ番号を振り直した特徴量テーブルの色構造のクラスタ番号、色特徴量、および隣接クラスタ番号を抽出し、照合用テーブルを作成する。
図21において、表646に示される人物Aの色構造から人物Aの照合用テーブル647が作成される。同様に、表656に示される人物A’の色構造から人物A’の照合用テーブル657が作成される。
ステップS566において、特徴量照合部343は、照合テーブル647と照合テーブル657の同じクラスタ番号同士で当該クラスタ番号に対応するクラスタの類似度CSを算出する。クラスタiの類似度CSは、照合テーブル647のクラスタ番号iの色特徴量が(R,G,B)、照合テーブル657のクラスタ番号iの色特徴量が(R’,G’,B’)とすると下式(5)により算出される。尚、色特徴量の各成分は0〜255の範囲の値である。
CS=1−(((|R−R’|)/255)+(|G−G’|)/255)+(|B−B’|)/255))/3) ・・・(5)
ステップS567において、特徴量照合部343は、各クラスタiの隣接クラスタの類似度(As)を算出する。類似度(As)は、下式(6)により算出される。
は、照合テーブル646と照合テーブル656のクラスタ番号(i)の隣接クラスタ番号において、一致する隣接クラスタ番号のうちのj番目の隣接クラスタ番号(k)に対応するクラスタkの類似度(CS)であり、上式(5)から算出される。tnは、一致する隣接クラスタ番号の数である。cnは、照合テーブル647のクラスタ番号(i)の隣接クラスタ番号の数である。尚、cnは、照合テーブル657のクラスタ番号(i)の隣接クラスタ番号の数でもよい。
例えば、図21において、照合テーブル647のクラスタ番号(2)の隣接クラスタ番号は(1)、(4)であり、照合テーブル657のクラスタ番号(2)の隣接クラスタ番号は(1)、(4)である。クラスタ番号(2)の一致する隣接クラスタ番号は、(1)、(4)である。よって、一致するクラスタ番号の数tnは2であり、1番目の隣接クラスタ番号は(1)、2番目の隣接クラスタ番号は(4)となる。また、照合テーブル647のクラスタ番号(2)の隣接クラスタ番号の数cnは2となる。上式(6)より、クラスタ2の隣接クラスタの類似度(As)は、As=(1/cn)×(S+S)=(1/2)×(Cs+Cs)となる。
ステップS568において、特徴量照合部343は、各クラスタの類似度(CS)と隣接クラスタの類似度(AS)から人物の一致度(Ps)を算出する。一致度(Ps)は、下式(7)により算出される。
tmは、照合用テーブル647または照合用テーブル657のクラスタ(クラスタ番号)の数である。cmは、人物Aの色構造のクラスタの数、すなわち表646に示す色構造のクラスタ(クラスタ番号)の数である。例えば、図21において、照合用テーブル647のクラスタの数tmは6、表646に示す人物Aの色構造のクラスタの数cmは8である。一致度(Ps)は、各クラスタの類似度(CS)と隣接クラスタの類似度(AS)の積和をcmで除算した値である。
ステップS569において、判定部344は、一致度(Ps)と閾値とを比較する。判定部344は、一致度が閾値以上である場合、人物Aと人物A’とが同一人物であると判定する。判定部344は、一致度が閾値未満である場合、人物Aと人物A’とが同一人物でないと判定する。
実施例2は、遮蔽無し(ステップS553:No)且つ向き変化無し(ステップS556:No)の場合の判定処理の第2の方式について説明する。
図22は、判定処理の第2の方式のフローチャートである。図22は、図18のステップS558に対応する。図23は、第2の実施例を説明する図である。
上述のように、実施例2では、ステップS553において、遮蔽なしと判定され、ステップS556において、向き変化なしと判定されている。
上述の人物検出処理および色特徴抽出処理により、図23において、人物Aはクラスタリングされ楕円でモデル化されて、人物モデル642が生成されている。また、人物Aに対応する特徴量テーブル352−Aの色構造は、表646のようになる。同様に、人物A’はクラスタリングされ楕円でモデル化されて、人物モデル652が生成されている。また、人物A’に対応する特徴量テーブル352−A’の色構造は、表656のようになる。
ステップS571において、照合範囲選択部342は、人物Aと人物A’の各クラスタの中心座標間の距離cdを算出する。照合範囲選択部342は、人物Aのクラスタごとに、人物A’のクラスタのうち最小の距離(cdmin)となるクラスタを求める。ステップS571の処理は、ステップS561の処理と同様である。人物Aのクラスタごとの人物A’のクラスタのうち最小の距離となるクラスタを対応クラスタと称する。
ステップS572において、照合範囲選択部342は、人物Aのクラスタごとの対応クラスタの重みmを算出する。人物Aのクラスタ(i)と人物A’の対応クラスタとの距離がcdminであり、人物Aを含む人物領域を正規化した人物領域の縦と横のそれぞれの大きさが(w、h)とすると、人物Aのクラスタ(i)の対応クラスタの重みmは、m=1−(cdmin/(w+h1/2)により算出される。
ステップS573、S574の処理は、それぞれステップS564、S565の処理と同様であるため、説明は省略する。実施例2では、表646に示される人物Aの色構造から人物Aの照合テーブル648が作成される。また、人物Aの各クラスタに対して、人物A’のクラスタのうち最小の距離となるクラスタとして、クラスタ(8)が算出されなかったとする。すなわち、人物A’のクラスタ(8)は、人物Aのクラスタのいずれとも対応付けられていない。クラスタ番号および隣接クラスタ番号を振り直すときに、表656で示される人物A’の色構造のクラスタ(8)のエントリは削除され、残ったクラスタ番号(1)〜(7)、(9)のエントリの隣接クラスタ番号から(8)は削除される。そして、表656に示される人物A’の色構造のクラスタ番号(1)〜(7)、(9)に対応するエントリのクラスタ番号および隣接クラスタ番号を振り直すと、クラスタ番号(9)は、クラスタ番号(8)となる。そして、人物A’の照合テーブル658が作成される。
ステップS575において、特徴量照合部343は、照合テーブル648と照合テーブル658の同じクラスタ番号同士で当該クラスタ番号に対応するクラスタの類似度CSMを算出する。クラスタiの類似度CSMは、クラスタiの類似度CSとクラスタiの対応クラスタの重みmを用いて、下式(8)により算出される。
CSM=CS×m ・・・(8)
ステップS576において、特徴量照合部343は、各クラスタiの隣接クラスタの類似度(As)を算出する。実施例2において、特徴量照合部343は、上式(6)で示される隣接クラスタの類似度(As)の算出に際して、CSの代わりにCSMを用いて算出する。
ステップS577において、特徴量照合部343は、人物の一致度(Ps)を算出する。一致度(Ps)は、上式(7)において、CSの代わりにCSMを用いて算出する。尚、上述のように隣接クラスタの類似度(As)は、CSの代わりにCSMを用いて算出された値を用いる。
ステップS578の処理は、ステップS569の処理と同様であるため、説明は省略する。
実施例3は、遮蔽有り(ステップS553:Yes)且つ向き変化無し(ステップS556:No)の場合について説明する。ここでは、ステップS552〜S554の処理の例について説明する。
図24は、第3の実施例を説明する図である。
上述の人物検出処理および色特徴抽出処理により、図24において、人物領域641の人物Aはクラスタリングされ楕円でモデル化されて、人物モデル642が生成されている。また、人物Aに対応する特徴量テーブル352−Aの色構造は、表646のようになる。同様に、人物領域661の人物A’はクラスタリングされ楕円でモデル化されて、人物モデル662が生成されている。また、人物A’に対応する特徴量テーブル352−A’の色構造は、表666のようになる。また、人物領域661の右下部分には、人物A’が映っていない遮蔽部分がある。
照合範囲選択部342は、特徴量テーブル352−A、352−A’を参照すると、特徴量テーブル352−A’の遮蔽の面積SS1が40であり、0より大きいため、遮蔽部分ありと判定する(ステップS552,S553:Yes)。
照合範囲選択部342は、人物領域641の遮蔽部分と人物領域661に遮蔽部分との合計部分の座標を算出する。図24において、人物領域661にのみ遮蔽部分があるため、合計部分は、人物領域661の遮蔽部分と同じとなる。照合範囲選択部342は、合計部分に中心座標が含まれる人物A,A’のクラスタを検出する。
照合範囲選択部342は、表646に示される各クラスタの中心の座標に基づいて、合計部分に中心の座標が含まれる人物Aのクラスタを検出する。図24において、合計部分に含まれるクラスタとして、人物Aのクラスタ(7)、(8)が検出されたとする。同様に、照合範囲選択部342は、表666に示される各クラスタの中心の座標に基づいて、合計部分に中心の座標が含まれる人物A’のクラスタを検出する。ここでは、合計部分に含まれる人物A’のクラスタは、検出されなかったとする。
照合範囲選択部342は、合計部分に含まれる人物Aのクラスタ(7)、(8)のエントリを表646で示す色構造から除去する(ステップS554)。また、照合範囲選択部342は、表646において、残ったクラスタ番号(1)〜(6)のエントリの隣接クラスタ番号から(7)、(8)を削除する。
以下、表646で示される人物Aの色構造からクラスタ(7)、(8)を削除した色構造と、表666で示される人物A’の色構造を用いて、ステップS555〜S558の処理が行われる。
第3の実施例において、それぞれの人物領域の遮蔽部分の合計部分に含まれるクラスタを各人物の色構造から削除している。すなわち、2つの人物領域の共通の範囲に含まれるクラスタを選択して照合を行うことで、判定処理において、人物の一致判定の精度が向上する。
実施例4は、遮蔽無し(ステップS553:No)且つ向き変化有り(ステップS556:Yes)の場合について説明する。ここでは、ステップS555〜S557の処理の例について説明する。
実施例4では、第1の撮影画像の第1の人物領域の人物Aと第2の撮影画像の第2の人物領域の人物A’とが同一人物であるか否かを判定する場合について説明する。
図25は、第4の実施例を説明する図である。
上述の人物検出処理および色特徴抽出処理により、図25において、第1の人物領域641の人物Aはクラスタリングされ楕円でモデル化されて、人物モデル642が生成されている。また、人物Aに対応する特徴量テーブル352−Aの色構造は、表646のようになる。同様に、第2の人物領域671の人物A’はクラスタリングされ楕円でモデル化されて、人物モデル672が生成されている。また、人物A’に対応する特徴量テーブル352−A’の色構造は、表676のようになる。
照合範囲選択部342は、人物Aと人物A’の向きの変化量を算出する(ステップS555)。詳細には、照合範囲選択部342は、特徴量テーブル352−A、352−A’を参照し、特徴量テーブル352−A、352−A’に記載の向きθ=45、θA’=90から向きの変化量Δθ=|θ−θA’|を算出する。
照合範囲選択部342は、変化量Δθが閾値より大きいか否か判定する(ステップS556)。実施例4では、変化量Δθが閾値より大きく、向き変化有り(ステップS556:Yes)と判定される。
照合範囲選択部342は、人物領域641と人物領域671の共通領域を算出する(ステップS557)。共通領域は、人物領域641と人物領域671において、重畳する共通の部分領域である。すなわち、人物領域641と人物領域671の両方に映っている部分領域である。
共通領域は、例えば、特許文献5(特開2015−2547号公報)に記載の方法を用いて求める。特許文献5に記載の方法は、人物を図26に示すような円柱にモデル化し、観測した人物領域を分割し、2つの人物領域で重畳して共通する領域を求め、当該領域の特徴量のみを照合対象としている。ここで、特許文献5に記載の共通領域の求め方について簡単に説明する。
図26は、人物を円柱にモデル化した図である。
特許文献5に記載の方法は、人物を図26に示すような円柱にモデル化する。
図27は、人物をモデル化した円柱の横表面を一定度刻みで分割した領域を示す図である。図27の左側は、人物はカメラの光軸に対して90度方向に移動する人物を上から見た図であり、右側は、人物をモデル化した円柱の横表面を一定度刻みで分割した領域を示す。カメラの光軸に対して人物の向きが分かれば、向き毎に人物が映る範囲は特定可能である。カメラが観測可能な領域の角度を140度とすると、人物の映る範囲は110度から250度までの領域であり、110度から250度までの領域は灰色で示されている。
図28は、人物の映る範囲の例を示す図である。
人物の向きが異なってもカメラに映る人物の体領域は重畳する共通の部分領域が観測できる。例えば、人物Aの向きが45度の場合、人物Aの映る範囲は20度から160度までの領域となり、人物領域641には、20度から160度まで範囲が映っている。人物A’の向きが90度の場合、人物A’の映る範囲は65度から205度までの領域となり、人物領域671には、65度から205度まで範囲が映っている。従って、人物領域641と人物領域671の共通領域は、それぞれの人物領域において65度から160度の範囲に対応する領域となる。
照合範囲選択部342は、人物領域641のうち、共通領域以外の部分、すなわち20度から65度の範囲(除去部分)に中心座標が含まれるクラスタを検出し、当該クラスタのエントリを表646で示される色構造から除去する。
照合範囲選択部342は、人物領域671のうち、共通領域以外の部分、すなわち160度から205度の範囲(除去部分)に中心座標が含まれるクラスタを検出し、当該クラスタのエントリを表676で示される色構造から除去する。
図25において、人物A’のクラスタのうち、クラスタ(4)、(7)が除去部分に含まれており、照合範囲選択部342は、表676で示される色構造からクラスタ(4)、(7)のエントリを削除する。また、照合範囲選択部342は、残ったクラスタ番号(1)〜(3)、(5)、(6)、(8)、(9)のエントリの隣接クラスタ番号から(4)、(7)を削除する。
以下、表646で示される人物Aの色構造と、表676で示される人物A’の色構造からクラスタ(4)、(7)のエントリを削除した色構造とを用いて、ステップS558の判定処理が行われる。
第4の実施の形態において、2つの人物領域のそれぞれ人物の共通領域以外のクラスタを削除し、共通領域に含まれるクラスタを用いて、判定処理を行うことで、人物の同一部分同士の照合ができ、人物の一致判定の精度が向上する。
実施例5は、遮蔽有り(ステップS553:Yes)且つ向き変化有り(ステップS556:Yes)の場合について説明する。
図29は、第5の実施例を説明する図である。
上述の人物検出処理および色特徴抽出処理により、図29において、第1の人物領域641の人物Aはクラスタリングされ楕円でモデル化されて、人物モデル642が生成されている。また、人物Aに対応する特徴量テーブル352−Aの色構造は、表646のようになる。同様に、第2の人物領域681の人物A’はクラスタリングされ楕円でモデル化されて、人物モデル682が生成されている。また、人物A’に対応する特徴量テーブル352−A’の色構造は、表686のようになる。
実施例5では、上述の実施例3の遮蔽有り(ステップS553:Yes)の場合の処理と実施例4の向き変化有り(ステップS556:Yes)の場合の両方が行われる。
照合範囲選択部342は、特徴量テーブル352−A、352−A’を参照すると、特徴量テーブル352−A’の遮蔽の面積SS1が40であり、0より大きいため、遮蔽部分ありと判定する(ステップS552,S553:Yes)。
照合範囲選択部342は、人物領域641の遮蔽部分と人物領域661に遮蔽部分との合計部分の座標を算出する。図29において、人物領域681にのみ遮蔽部分があるため、合計部分は、人物領域681の遮蔽部分と同じとなる。照合範囲選択部342は、合計部分に中心座標が含まれる人物A,A’のクラスタを検出する。
照合範囲選択部342は、表646に示される各クラスタの中心の座標に基づいて、合計部分に中心の座標が含まれる人物Aのクラスタを検出する。図29において、合計部分に含まれるクラスタとして、人物Aのクラスタ(7)、(8)が検出されたとする。同様に、照合範囲選択部342は、表686に示される各クラスタの中心の座標に基づいて、合計部分に中心の座標が含まれる人物A’のクラスタを検出する。合計部分に含まれるクラスタとして、人物A’のクラスタ(9)が検出されたとする。
照合範囲選択部342は、合計部分に含まれる人物Aのクラスタ(7)、(8)のエントリを表646で示す色構造から除去し、人物A’のクラスタ(9)のエントリを表686で示す色構造から除去する(ステップS554)。また、照合範囲選択部342は、表646において、残ったクラスタ番号(1)〜(6)のエントリの隣接クラスタ番号から(7)、(8)を削除する。照合範囲選択部342は、表686において、残ったクラスタ番号(1)〜(8)のエントリの隣接クラスタ番号から(9)を削除する。
照合範囲選択部342は、人物Aと人物A’の向きの変化量を算出する(ステップS555)。詳細には、照合範囲選択部342は、特徴量テーブル352−A、352−A’を参照し、特徴量テーブル352−A、352−A’に記載の向きθ=45、θA’=90から向きの変化量Δθ=|θ−θA’|を算出する。
照合範囲選択部342は、変化量Δθが閾値より大きいか否か判定する(ステップS556)。実施例5では、変化量Δθが閾値より大きく、向き変化有り(ステップS556:Yes)と判定される。
照合範囲選択部342は、人物領域641と人物領域671の共通領域を求める(ステップS557)。
照合範囲選択部342は、人物領域641のうち、共通領域以外の部分、すなわち20度から65度の範囲(除去部分)に中心座標が含まれるクラスタを検出し、当該クラスタのエントリを表646で示される色構造から除去する。
照合範囲選択部342は、人物領域681のうち、共通領域以外の部分、すなわち160度から205度の範囲(除去部分)に中心座標が含まれるクラスタを検出し、当該クラスタのエントリを表686で示される色構造から除去する。
図29において、人物A’のクラスタのうち、クラスタ(4)、(7)が除去部分に含まれており、照合範囲選択部342は、表686で示される色構造からクラスタ(4)、(7)のエントリを削除する。また、照合範囲選択部342は、残ったクラスタ番号(1)〜(3)、(5)、(6)、(8)のエントリの隣接クラスタ番号から(4)、(7)を削除する。
以下、表646で示される人物Aの色構造からクラスタ(7)、(8)のエントリが削除された色構造と、表686で示される人物A’の色構造からクラスタ(4)、(7)、(9)のエントリが削除された色構造とを用いて、ステップS558の判定処理が行われる。
第5の実施例において、それぞれの人物領域の遮蔽部分の合計部分に含まれるクラスタを各人物の色構造から削除し、クラスタが除去された色構造を用いて、判定処理を行うことで、人物の同一部分同士の比較ができ、人物の一致判定の精度が向上する。
第5の実施の形態において、2つの人物領域のそれぞれ人物の共通領域以外のクラスタを削除し、共通領域に含まれるクラスタを用いて、判定処理を行うことで、人物の同一部分同士の照合ができ、人物の一致判定の精度が向上する。
実施の形態に係るシステムによれば、照合対象のクラスタの数が一致し、同一の部位のクラスタで照合できるため、人物の一致判定の精度を向上させることが出来る。
図30は、情報処理装置(コンピュータ)の構成図である。
実施の形態のサーバ装置301は、例えば、図30に示すような情報処理装置(コンピュータ)1によって実現可能である。
情報処理装置1は、CPU2、メモリ3、入力装置4、出力装置5、記憶部6、記録媒体駆動部7、及びネットワーク接続装置8を備え、それらはバス9により互いに接続されている。
CPU2は、情報処理装置1全体を制御する中央処理装置である。CPU2は、画像入力部311、人物検出部321、色特徴抽出部331、照合部341、および出力部361として動作する。
メモリ3は、プログラム実行の際に、記憶部6(あるいは可搬記録媒体10)に記憶されているプログラムあるいはデータを一時的に格納するRead Only Memory(ROM)やRandom Access Memory(RAM)等のメモリである。CPU2は、メモリ3を利用してプログラムを実行することにより、上述した各種処理を実行する。
この場合、可搬記録媒体10等から読み出されたプログラムコード自体が実施の形態の機能を実現する。
入力装置4は、ユーザ又はオペレータからの指示や情報の入力、情報処理装置1で用いられるデータの取得等に用いられる。入力装置4は、例えば、キーボード、マウス、タッチパネル、カメラ、またはセンサ等である。
出力装置5は、ユーザ又はオペレータへの問い合わせや処理結果を出力したり、CPU2による制御により動作する装置である。出力装置5は、例えば、ディスプレイ、またはプリンタ等である。
記憶部6は、例えば、磁気ディスク装置、光ディスク装置、テープ装置等である。情報処理装置1は、記憶部6に、上述のプログラムとデータを保存しておき、必要に応じて、それらをメモリ3に読み出して使用する。メモリ3および記憶部6は、記憶部351に対応する。
記録媒体駆動部7は、可搬記録媒体10を駆動し、その記録内容にアクセスする。可搬記録媒体としては、メモリカード、フレキシブルディスク、Compact Disk Read Only Memory(CD−ROM)、光ディスク、光磁気ディスク等、任意のコンピュータ読み取り可能な記録媒体が用いられる。ユーザは、この可搬記録媒体10に上述のプログラムとデータを格納しておき、必要に応じて、それらをメモリ3に読み出して使用する。
ネットワーク接続装置8は、Local Area Network(LAN)やWide Area Network(WAN)等の任意の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インターフェースである。ネットワーク接続装置8は、通信ネットワークを介して接続された装置へデータの送信または通信ネットワークを介して接続された装置からデータを受信する。
以上の実施の形態に関し、さらに以下の付記を開示する。
(付記1)
撮像装置で撮像された画像から第1の人物領域を抽出し、
抽出した前記人物領域から色特徴量を抽出し、
前記人物領域から抽出した前記色特徴量の前記人物領域における位置関係を特定し、
前記人物領域から抽出した色特徴量に、複数の色特徴量と該複数の色特徴量に対応する色の合成色に対応する色特徴量が含まれ、前記合成色に対応する色特徴量と前記複数の色特徴量とが隣接する位置関係を有することを検出すると、前記人物領域内に含まれる前記合成色に対応する色特徴量を除く第1の色特徴量と、他の撮像装置で撮像された画像から抽出された第2の人物領域から抽出された第2の色特徴量とを比較する、
処理をコンピュータに実行させる特徴量比較プログラム。
(付記2)
前記比較する処理は、前記第1の人物領域のうち前記第1の人物領域以外の領域と重畳している領域および第2の人物領域のうち前記第2の人物領域以外の領域と重畳している領域の合計領域を算出し、前記第1の色特徴量から前記合計領域に含まれる色特徴量を除く第3の色特徴と、前記第2の色特徴から前記合計領域に含まれる色特徴量を除く第4の色特徴量とを比較することを特徴とする付記1記載の特徴量比較プログラム。
(付記3)
前記比較する処理は、
前記第1の人物領域の第1の人物の向きおよび前記第2の人物領域の第2の人物の向きに基づいて、前記第1の人物領域と前記第2の人物領域で共通する領域を算出し、
前記第1の色特徴から前記第1の人物領域のうち前記共通する領域以外の領域に含まれる色特徴を除く第5の色特徴量と、前記第2の色特徴から前記第2の人物領域のうち前記共通する領域以外の領域に含まれる色特徴を除く第6の色特徴量とを比較することを特徴とする付記1または2記載の特徴量比較プログラム。
(付記4)
前記比較する処理は、
前記第1の色特徴量に含まれる第1の複数の色特徴量と前記第2の色特徴に含まれる第2の複数の色特徴量との距離を算出し、前記第2の複数の色特徴量から最小の距離となる前記第1の複数の色特徴量のそれぞれに対応する色特徴を求め、
前記第1の色特徴から前記最小の距離が閾値より大きい色特徴を除く第7の色特徴と、前記第2の色特徴から前記最小の距離が閾値より大きい色特徴に対応する色特徴を除く8の色特徴とを比較することを特徴とする付記1乃至3のいずれか1項に記載の特徴量比較プログラム。
(付記5)
撮像装置で撮像された画像から第1の人物領域を抽出する人物領域抽出部と、
抽出した前記人物領域から色特徴量を抽出し、前記人物領域から抽出した前記色特徴量の前記人物領域における位置関係を特定する色特徴抽出部と、
前記人物領域から抽出した色特徴量に、複数の色特徴量と該複数の色特徴量に対応する色の合成色に対応する色特徴量が含まれ、前記合成色に対応する色特徴量と前記複数の色特徴量とが隣接する位置関係を有することを検出すると、前記人物領域内に含まれる前記合成色に対応する色特徴量を除く第1の色特徴量と、他の撮像装置で撮像された画像から抽出された第2の人物領域から抽出された第2の色特徴量とを比較する比較部と、
を備える情報処理装置。
(付記6)
前記比較部は、前記第1の人物領域のうち前記第1の人物領域以外の領域と重畳している領域および第2の人物領域のうち前記第2の人物領域以外の領域と重畳している領域の合計領域を算出し、前記第1の色特徴量から前記合計領域に含まれる色特徴量を除く第3の色特徴と、前記第2の色特徴から前記合計領域に含まれる色特徴量を除く第4の色特徴量とを比較することを特徴とする付記5記載の情報処理装置。
(付記7)
前記比較部は、
前記第1の人物領域の第1の人物の向きおよび前記第2の人物領域の第2の人物の向きに基づいて、前記第1の人物領域と前記第2の人物領域で共通する領域を算出し、
前記第1の色特徴から前記第1の人物領域のうち前記共通する領域以外の領域に含まれる色特徴を除く第5の色特徴量と、前記第2の色特徴から前記第2の人物領域のうち前記共通する領域以外の領域に含まれる色特徴を除く第6の色特徴量とを比較することを特徴とする付記5または6記載の情報処理装置。
(付記8)
前記比較部は、
前記第1の色特徴量に含まれる第1の複数の色特徴量と前記第2の色特徴に含まれる第2の複数の色特徴量との距離を算出し、前記第2の複数の色特徴量から最小の距離となる前記第1の複数の色特徴量のそれぞれに対応する色特徴を求め、
前記第1の色特徴から前記最小の距離が閾値より大きい色特徴を除く第7の色特徴と、前記第2の色特徴から前記最小の距離が閾値より大きい色特徴に対応する色特徴を除く8の色特徴とを比較することを特徴とする付記5乃至8のいずれか1項に記載の情報処理装置。
(付記9)
情報処理装置が実行する特徴量比較方法であって、
撮像装置で撮像された画像から第1の人物領域を抽出し、
抽出した前記人物領域から色特徴量を抽出し、
前記人物領域から抽出した前記色特徴量の前記人物領域における位置関係を特定し、
前記人物領域から抽出した色特徴量に、複数の色特徴量と該複数の色特徴量に対応する色の合成色に対応する色特徴量が含まれ、前記合成色に対応する色特徴量と前記複数の色特徴量とが隣接する位置関係を有することを検出すると、前記人物領域内に含まれる前記合成色に対応する色特徴量を除く第1の色特徴量と、他の撮像装置で撮像された画像から抽出された第2の人物領域から抽出された第2の色特徴量とを比較する、
処理を含む特徴量比較方法。
(付記10)
前記比較する処理は、前記第1の人物領域のうち前記第1の人物領域以外の領域と重畳している領域および第2の人物領域のうち前記第2の人物領域以外の領域と重畳している領域の合計領域を算出し、前記第1の色特徴量から前記合計領域に含まれる色特徴量を除く第3の色特徴と、前記第2の色特徴から前記合計領域に含まれる色特徴量を除く第4の色特徴量とを比較することを特徴とする付記9記載の特徴量比較方法。
(付記11)
前記比較する処理は、
前記第1の人物領域の第1の人物の向きおよび前記第2の人物領域の第2の人物の向きに基づいて、前記第1の人物領域と前記第2の人物領域で共通する領域を算出し、
前記第1の色特徴から前記第1の人物領域のうち前記共通する領域以外の領域に含まれる色特徴を除く第5の色特徴量と、前記第2の色特徴から前記第2の人物領域のうち前記共通する領域以外の領域に含まれる色特徴を除く第6の色特徴量とを比較することを特徴とする付記9または10記載の特徴量比較方法。
(付記12)
前記比較する処理は、
前記第1の色特徴量に含まれる第1の複数の色特徴量と前記第2の色特徴に含まれる第2の複数の色特徴量との距離を算出し、前記第2の複数の色特徴量から最小の距離となる前記第1の複数の色特徴量のそれぞれに対応する色特徴を求め、
前記第1の色特徴から前記最小の距離が閾値より大きい色特徴を除く第7の色特徴と、前記第2の色特徴から前記最小の距離が閾値より大きい色特徴に対応する色特徴を除く8の色特徴とを比較することを特徴とする付記9乃至11のいずれか1項に記載の特徴量比較方法。
101 システム
201 カメラ
301 サーバ
311 画像入力部
321 人物検出部
322 人物領域検出部
323 人物向き算出部
324 遮蔽面積算出部
331 色特徴抽出部
332 色領域分割部
333 合成色判定部
334 色構造作成部
341 照合部
342 照合範囲選択部
343 特徴量照合部
344 判定部
351 記憶部
361 出力部

Claims (6)

  1. 撮像装置で撮像された第1の画像から第1の人物領域を抽出し、
    抽出した前記人物領域から色特徴量を抽出し、
    前記人物領域から抽出した前記色特徴量の前記人物領域における位置関係を特定し、
    前記人物領域から抽出した色特徴量に、複数の色特徴量と該複数の色特徴量に対応する色の合成色に対応する色特徴量が含まれ、前記合成色に対応する色特徴量と前記複数の色特徴量とが隣接する位置関係を有することを検出すると、前記人物領域内に含まれる前記合成色に対応する色特徴量を除く第1の色特徴量と、他の撮像装置で撮像された第2の画像から抽出された第2の人物領域から抽出された第2の色特徴量とを比較する、
    処理をコンピュータに実行させる特徴量比較プログラム。
  2. 前記比較する処理は、前記第1の人物領域のうち前記第1の画像において前記第1の人物領域以外の人物領域と重畳している領域および前記第2の人物領域のうち前記第2の画像において前記第2の人物領域以外の人物領域と重畳している領域の合計領域を算出し、前記第1の色特徴量から前記合計領域に含まれる色特徴量を除く第3の色特徴と、前記第2の色特徴から前記合計領域に含まれる色特徴量を除く第4の色特徴量とを比較することを特徴とする請求項1記載の特徴量比較プログラム。
  3. 前記比較する処理は、
    前記第1の人物領域の第1の人物の向きおよび前記第2の人物領域の第2の人物の向きに基づいて、前記第1の人物領域と前記第2の人物領域で共通する領域を算出し、
    前記第1の色特徴から前記第1の人物領域のうち前記共通する領域以外の領域に含まれる色特徴を除く第5の色特徴量と、前記第2の色特徴から前記第2の人物領域のうち前記共通する領域以外の領域に含まれる色特徴を除く第6の色特徴量とを比較することを特徴とする請求項1または2記載の特徴量比較プログラム。
  4. 前記比較する処理は、
    前記第1の色特徴量に含まれる第1の複数の色特徴量と前記第2の色特徴に含まれる第2の複数の色特徴量との距離を算出し、前記第2の複数の色特徴量から最小の距離となる前記第1の複数の色特徴量のそれぞれに対応する色特徴を求め、
    前記第1の色特徴から前記最小の距離が閾値より大きい色特徴を除く第7の色特徴と、前記第2の色特徴から前記最小の距離が閾値より大きい色特徴に対応する色特徴を除く8の色特徴とを比較することを特徴とする請求項1乃至3のいずれか1項に記載の特徴量比較プログラム。
  5. 撮像装置で撮像された第1の画像から第1の人物領域を抽出する人物領域抽出部と、
    抽出した前記人物領域から色特徴量を抽出し、前記人物領域から抽出した前記色特徴量の前記人物領域における位置関係を特定する色特徴抽出部と、
    前記人物領域から抽出した色特徴量に、複数の色特徴量と該複数の色特徴量に対応する色の合成色に対応する色特徴量が含まれ、前記合成色に対応する色特徴量と前記複数の色特徴量とが隣接する位置関係を有することを検出すると、前記人物領域内に含まれる前記合成色に対応する色特徴量を除く第1の色特徴量と、他の撮像装置で撮像された第2の画像から抽出された第2の人物領域から抽出された第2の色特徴量とを比較する比較部と、
    を備える情報処理装置。
  6. 情報処理装置が実行する特徴量比較方法であって、
    撮像装置で撮像された第1の画像から第1の人物領域を抽出し、
    抽出した前記人物領域から色特徴量を抽出し、
    前記人物領域から抽出した前記色特徴量の前記人物領域における位置関係を特定し、
    前記人物領域から抽出した色特徴量に、複数の色特徴量と該複数の色特徴量に対応する色の合成色に対応する色特徴量が含まれ、前記合成色に対応する色特徴量と前記複数の色特徴量とが隣接する位置関係を有することを検出すると、前記人物領域内に含まれる前記合成色に対応する色特徴量を除く第1の色特徴量と、他の撮像装置で撮像された第2の画像から抽出された第2の人物領域から抽出された第2の色特徴量とを比較する、
    処理を含む特徴量比較方法。
JP2016094879A 2016-05-10 2016-05-10 特徴量比較プログラム、情報処理装置、および特徴量比較方法 Active JP6690090B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016094879A JP6690090B2 (ja) 2016-05-10 2016-05-10 特徴量比較プログラム、情報処理装置、および特徴量比較方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016094879A JP6690090B2 (ja) 2016-05-10 2016-05-10 特徴量比較プログラム、情報処理装置、および特徴量比較方法

Publications (2)

Publication Number Publication Date
JP2017204095A JP2017204095A (ja) 2017-11-16
JP6690090B2 true JP6690090B2 (ja) 2020-04-28

Family

ID=60322896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016094879A Active JP6690090B2 (ja) 2016-05-10 2016-05-10 特徴量比較プログラム、情報処理装置、および特徴量比較方法

Country Status (1)

Country Link
JP (1) JP6690090B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6973175B2 (ja) * 2018-02-27 2021-11-24 富士通株式会社 画像選択プログラム、情報処理装置、システム、および画像選択方法
JP7020263B2 (ja) * 2018-04-17 2022-02-16 富士通株式会社 体向き推定プログラム、体向き推定装置、及び体向き推定方法
JP7336835B2 (ja) * 2018-05-09 2023-09-01 コニカミノルタ株式会社 属性決定装置、属性決定システムおよび属性決定方法
JP7331924B2 (ja) * 2019-05-27 2023-08-23 日本電気株式会社 検索装置、制御方法、及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004072628A (ja) * 2002-08-08 2004-03-04 Univ Waseda 複数カメラを用いた移動体追跡システム及びその方法
JP6187261B2 (ja) * 2012-01-05 2017-08-30 日本電気株式会社 人物特徴量抽出システム、サーバおよび人物特徴量抽出方法
JP5940862B2 (ja) * 2012-03-30 2016-06-29 セコム株式会社 画像処理装置
JP6221390B2 (ja) * 2013-06-18 2017-11-01 富士通株式会社 画像処理装置、プログラム、および画像処理方法
JP2016057908A (ja) * 2014-09-10 2016-04-21 宮田 清蔵 万引き予防システム及びソフトウエア
JP6540445B2 (ja) * 2015-10-09 2019-07-10 富士通株式会社 同一判定プログラム、同一判定装置、および同一判定方法

Also Published As

Publication number Publication date
JP2017204095A (ja) 2017-11-16

Similar Documents

Publication Publication Date Title
US9405974B2 (en) System and method for using apparent size and orientation of an object to improve video-based tracking in regularized environments
JP6690090B2 (ja) 特徴量比較プログラム、情報処理装置、および特徴量比較方法
Mangawati et al. Object Tracking Algorithms for video surveillance applications
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
JP5381569B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法、およびジェスチャ認識プログラム
US11915518B2 (en) Facial authentication device, facial authentication method, and program recording medium
Sun et al. Moving foreground object detection via robust SIFT trajectories
CN106603968B (zh) 信息处理装置及信息处理方法
JP6973175B2 (ja) 画像選択プログラム、情報処理装置、システム、および画像選択方法
KR20110074107A (ko) 카메라를 이용한 오브젝트 검출 방법
CN111382637A (zh) 行人检测跟踪方法、装置、终端设备及介质
US20230394792A1 (en) Information processing device, information processing method, and program recording medium
CN111066023A (zh) 检测系统、检测设备及其方法
JP2010057105A (ja) オブジェクトの3次元追跡方法およびシステム
JP7354767B2 (ja) 物体追跡装置および物体追跡方法
JP7188240B2 (ja) 人検出装置および人検出方法
JPWO2019044038A1 (ja) 撮影対象追跡装置及び撮影対象追跡方法
JP2008035301A (ja) 移動体追跡装置
Lin et al. Face occlusion detection for automated teller machine surveillance
US11544926B2 (en) Image processing apparatus, method of processing image, and storage medium
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6384167B2 (ja) 移動体追跡装置及び移動体追跡方法、並びにコンピュータ・プログラム
Gautam et al. Computer vision based asset surveillance for smart buildings
JP7255173B2 (ja) 人検出装置および人検出方法
JP7215569B2 (ja) オブジェクト特徴量抽出装置、オブジェクト特徴量抽出方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200128

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200225

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20200225

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20200225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R150 Certificate of patent or registration of utility model

Ref document number: 6690090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150