JP6606340B2 - 画像検出装置、画像検出方法およびプログラム - Google Patents

画像検出装置、画像検出方法およびプログラム Download PDF

Info

Publication number
JP6606340B2
JP6606340B2 JP2015074942A JP2015074942A JP6606340B2 JP 6606340 B2 JP6606340 B2 JP 6606340B2 JP 2015074942 A JP2015074942 A JP 2015074942A JP 2015074942 A JP2015074942 A JP 2015074942A JP 6606340 B2 JP6606340 B2 JP 6606340B2
Authority
JP
Japan
Prior art keywords
image
camera
captured
dimensional position
geometric attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015074942A
Other languages
English (en)
Other versions
JP2016194847A (ja
Inventor
寛之 内山
睦凌 郭
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015074942A priority Critical patent/JP6606340B2/ja
Priority to US15/084,381 priority patent/US9877012B2/en
Publication of JP2016194847A publication Critical patent/JP2016194847A/ja
Application granted granted Critical
Publication of JP6606340B2 publication Critical patent/JP6606340B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Description

本発明は画像検出装置、画像検出方法およびプログラムに関する。
監視カメラシステムにおいて、視野が重複した複数のカメラを用いて物体を撮影することで、物体の3次元位置を推定する手法が提案されている。これは、位置が既知のカメラで被写体を撮影することで、カメラ画像上の被写体の位置から、ステレオ視の原理で3次元位置を推定するものである。このとき、誤った3次元位置が虚像として推定されることが問題となる。以下、「実際には被写体が存在しない位置」を「誤った3次元位置」とも記載し、また「かかる3次元位置に被写体が存在すると推定される」ことを「誤った3次元位置が虚像として推定される」とも記載する。
例えば、図2のようにカメラ1が人体B、カメラ2が人体Aと人体Bを捉えている場合を考える。この場合、人体Bの正しい位置のみならず、カメラ1の光学中心C1と人体Bとを結ぶ直線と、カメラ2の光学中心C2と人体Aとを結ぶ直線の交点が虚像Vの位置として推定される。
この問題の解決方法として、特許文献1では、人体の3次元移動軌跡を求め、これらの3次元移動軌跡の断片を連結して、それぞれの人体の完全な移動軌跡を算出している。一定時間の長さの軌跡を連結することで、虚像が排除される。以下、誤った3次元位置に被写体が存在しないことが明らかにされることを「虚像が排除される」とも記載する。
また、虚像はカメラ間の人体の対応付けに曖昧性があるために生じる。そのため、ステレオ視ではカメラ間の物体領域の色やテクスチャ等の画像情報を比較し、これらが同一物体か否かを判定することで、虚像を排除する方法がよく行われる(非特許文献1)。
特開2010−063001号公報
服部寛「車載向けステレオ画像処理技術」自動車技術 63(2), 89−92, 2009−02−01 Paul Viola and Michael Jones「Robust Real−time Object Detection」International Journal of Computer Vision,2001 Zhengyou Zhang「A Flexible New Technique for Camera Calibration」,IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330−1334, 2000 Pierre Moulon, Pascal Monasse, and Renaud Marlet「Adaptive structure from motion with a contrario model estimation」ACCV2012 M.D.Breitenstein et al.,「Robust tracking−by−detection using a detector confidence particle filter」,ICCV2009
特許文献1では、虚像を排除するために多くのフレームを要する。そのため、即応性の要求される状況には対応できない。非特許文献1では、物体を区別するために物体領域の色やテクスチャ等の画像情報を用いるので、画像処理計算量や画像の転送帯域が多く必要になる。また、物体の見た目や色は撮像方向、距離によって異なる場合があるため、そのような場合には異なる方向から撮像した物体を同一物体と識別することは困難である。
本発明は、多くのフレームの照合や画像情報の直接比較に依らず、虚像を排除して物体の3次元位置を得ることを目的とする。
上記目的を達成するために、本発明の画像検出装置は、少なくとも2つのカメラの位置関係を保持するカメラ情報保持手段と、
複数の前記カメラで撮像して得られた各撮像画像に含まれる物体の前記撮像画像上の位置および幾何的属性を取得する物体情報取得手段と、
複数の前記撮像画像に含まれる前記物体の各撮像画像上の位置を対応付け、前記カメラの位置関係と前記物体の各撮像画像上の位置と前記物体の各撮像画像から得られる前記幾何的属性とに基づいて前記物体の3次元位置を推定する3次元位置推定部と、
推定された前記物体の3次元位置に基づいて、当該物体の像を少なくとも1つの前記カメラの前記撮像画像に投影し、該投影された像の前記撮像画像上での幾何的属性と前記物体情報取得手段により取得された幾何的属性との類似度に基づいて、当該推定された前記物体の3次元位置の整合性を判定する判定手段と、
前記3次元位置推定手段により推定された3次元位置から、前記判定手段により整合性が低いと判定された3次元位置を除外して出力する出力手段と
を備える。
本発明によれば、物体の撮像方向、物体とカメラとの距離によらず、異なるカメラ画像から得られる同一物体に関する2つの幾何的属性が、推定された位置に存在する物体から得られたと仮定して比較することにより、同一物体か否かの判別精度の向上が見込める。
実施例1の画像検出装置の機能構成を示す図である。 虚像について説明する図である。 実施例1の画像検出装置のハードウェア構成を示す図である。 実施例の処理の流れを示すフローチャートである。 異なる位置から撮影されたカメラ画像間の物体対応付けについて説明する図である。 3次元位置推定について説明する図である。 物体が実像である場合、物体の大きさから虚像であるか否かの判定を説明する図である。 物体が虚像である場合、物体の大きさから虚像であるか否かの判定を説明する図である。 検出漏れを再検出する方法を説明する図である。 人体領域から像を作成する方法を説明する図である。 表示画面を説明する図である。 人体の方向(人体の向き)あるいは移動方向の抽出を説明する図である。 人体の方向(人体の向き)あるいは移動方向の比較を説明する図である。 他の画像検出装置の機能構成を示す図である。
本発明の実施形態の画像検出装置について説明する。この画像検出装置は、
少なくとも2つのカメラの位置関係を保持するカメラ情報保持手段と、
複数の前記カメラで撮像して得られた各撮像画像に含まれる物体の前記撮像画像上の位置および幾何的属性を取得する物体情報取得手段と、
複数の前記撮像画像に含まれる前記物体の各撮像画像上の位置を対応付け、前記カメラの位置関係と前記物体の各撮像画像上の位置と前記物体の各撮像画像から得られる前記幾何的属性とから前記物体の3次元位置を推定する3次元位置推定手段と、
推定された前記物体の3次元位置に基づいて、当該物体の像を少なくとも1つの前記カメラの前記撮像画像に投影し、該投影された像の前記撮像画像上での幾何的属性と前記物体情報取得手段により取得された幾何的属性との類似度に基づいて、当該推定された前記物体の3次元位置の整合性を判定する判定手段と、
前記3次元位置推定手段により推定された3次元位置から、前記判定手段により整合性が低いと判定された3次元位置を除外して出力する出力手段と
を備える。
カメラ情報保持手段は、例えば、第1のカメラと第2のカメラの位置関係を保持する。
物体情報取得手段は、例えば、第1のカメラで撮像して得られた第1の撮像画像に含まれる物体の第1の撮像画像上の位置と、第2のカメラで撮像して得られた第2の撮像画像に含まれる物体の第2の撮像画像上の位置と、幾何的属性を取得する。第1の撮像画像と第2の撮像画像とはほぼ同時に撮像されたものである。
3次元位置推定手段は、例えば、
第1の撮像画像に含まれる物体の第1の撮像画像上の位置と、
第2の撮像画像に含まれる物体の第2の撮像画像上の位置と、
を対応付け、
第1のカメラと第2のカメラの位置関係と、
対応付けられた物体の
第1の撮像画像上の位置と、
第2の撮像画像上の位置と、
第1の撮像画像から得られる幾何的属性と
第2の撮像画像から得られる幾何的属性と
から対応付けられた物体の3次元位置を推定する。
<実施例1>
以下、本発明の実施例について説明する。
本実施例では、検出対象物体として人体を例に説明するが、他の検出対象物体でも構わない。
図3に、本実施例の画像検出装置のハードウェア構成例を示す。
図3において、撮像素子(撮像手段)301はCCD、CMOS等で構成され、被写体像を光から電気信号に変換し、2個以上存在する。信号処理回路302は撮像素子301から得られた被写体像に関する時系列信号を処理し、デジタル信号に変換する。CPU303は、ROM304に格納されている制御プログラムを実行することにより、本装置全体の制御を行う。
ROM304は、CPU303が実行する制御プログラムや各種パラメータデータを格納する。制御プログラムは、CPU303で実行されることにより、後述するフローチャートに示す各処理を実行するための各種手段として、当該装置を機能させる。RAM305は、画像や各種情報を記憶する。また、RAM305は、CPU303のワークエリアやデータの一時待避領域として機能する。信号処理回路302、CPU303、ROM304、RAM305およびディスプレイ306は、バス307を介して接続されている。
なお、本実施例では、後述するフローチャートの各ステップに対応する処理を、CPU303を用いてソフトウェアで実現することとするが、その処理の一部または全部を電子回路などのハードウェアで実現するようにしても構わない。また、本発明の画像検出装置は、撮像素子301や信号処理回路302を省いて汎用PC(Personal Computer)を用いて実現してもよいし、専用装置として実現するようにしても構わない。また、ネットワークまたは各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ等の処理装置(CPU,プロセッサ)にて実行してもよい。
図1に、本実施例の画像検出装置の機能構成を示す。本実施例の画像検出装置は画像取得部101、物体情報取得部102、カメラ情報保持部103、3次元位置推定部104、検出補完部108、表示部109で構成される。
カメラ情報保持部103はカメラキャリブレーションを行うことにより取得した各カメラの内部パラメータ、位置、姿勢に関する情報を保持する。画像取得部101は各カメラから画像を取得する。
物体情報取得部102は各カメラ画像(撮像画像)から物体を検出し、幾何的属性を抽出する。幾何的属性については後述する。3次元位置推定部104はカメラの位置関係と複数の物体の位置と幾何的属性から3次元位置を推定する。
3次元位置推定部104は、物体対応部105、位置推定部107、整合性判定部106で構成される。
物体対応部105は、カメラ間で同一の物体同士を対応付ける。
位置推定部107は、対応付いた物体の位置とカメラの位置関係から、物体の3次元位置座標を推定する。
整合性判定部106は、カメラの位置関係と複数の物体の位置と幾何的属性から整合性を判定し、3次元位置が虚像か否かを判定する。
検出補完部108は、3次元位置推定部104の結果をもとに、物体情報取得部102で検出に失敗した物体を補完する。
検出補完部108が行う「補完」について説明する。ここで「補完」とは、あるカメラのカメラ画像から検出できた物体の三次元位置を推定し、推定した三次元位置に基づいて、その物体の幾何的属性を、他のカメラのカメラ画像に表示することをいう。
例えば、第1のカメラ、第2のカメラおよび第3のカメラを物体Aの方向に向け、各カメラで物体Aの撮像を同時に試みたとする。そして、物体情報取得部102が、第1のカメラのカメラ画像および第2のカメラのカメラ画像からは物体Aを検出できたとする。
第3のカメラのカメラ画像からは物体Aを検出できる場合とできない場合が想定される。第3のカメラのカメラ画像から物体Aを検出できなかった場合、その理由としては、第3のカメラと物体Aとの間になんらかの障害物が存在した場合などが想定される。
そして、
第1のカメラのカメラ画像上の物体Aの位置および
第2のカメラのカメラ画像上の物体Aの位置
から物体Aの3次元位置を推定し、
推定された3次元位置に物体Aが存在すると仮定して
第1のカメラのカメラ画像または第2のカメラのカメラ画像
から得られた物体Aの幾何的属性を
第3のカメラのカメラ画像に投影する。
このように投影することによって、物体情報取得部102が第3のカメラのカメラ画像から物体Aを検出できなかった(検出に失敗した)場合に物体Aの幾何的属性を、第3のカメラのカメラ画像に補完する。
表示部109は、物体の検出結果や3次元位置をカメラ画像とともにディスプレイに表示する。
図4のフローチャートを用いて本実施例の動作を説明する。
本実施例では、視野が重複した4台のカメラが設置されているものとする。カメラ台数はこれに限らず、2台以上の任意の数でもよい。
まず、ステップS401ではカメラキャリブレーションを行うことにより、各カメラの内部パラメータ、位置、姿勢を推定する。まず、キャリブレーションボードを環境に設置し、非特許文献3の手法により各カメラの内部パラメータを求める。さらに、環境に設置した別のキャリブレーションマーカーによって各カメラの位置、姿勢を推定する。これらの情報は図1のカメラ情報保持部103に保持される。
本実施例では、以上のような方法でキャリブレーションを行った。一方、カメラ画像中のコーナーやSIFT(Scale-Invariant Feature Transform)特徴等の特徴点を抽出し、これらの特徴点群を画像間で対応付けた後、カメラの位置、姿勢、点群の位置を求める手法(非特許文献4)によってカメラの位置、姿勢を推定してもよい。また、カメラの内部パラメータと位置、姿勢を同時に求めてもよい。
ステップS402では各カメラから画像フレームを取得する。本実施例では、カメラ数が4つのため、4枚の画像が取得される。ステップS402の処理は図1の画像取得部101の処理に相当する。
<ステップS403 物体情報取得部102の処理>
ステップS403では、ステップS402で取得された各画像から人体領域を抽出する。この処理の結果、人体領域を示す矩形の代表点座標(x,y)および高さh、幅wを得る。
<ステップS404 物体情報取得部102の処理>
ステップS404では、ステップS403で抽出された人体領域からこの幾何的属性を抽出する。本実施例では、人体領域の大きさ(検出枠の高さhと幅w)を幾何的属性とする。そのため、ステップS403で取得した検出枠の高さhと幅wを幾何的属性として設定する。ステップS403とステップS404の処理は図1の物体情報取得部102の処理に相当する。
<ステップS405 物体対応部105の処理>
ステップS405では、ステップS403で検出された人体を画像間で対応付ける。すなわち、ある画像で検出された人体が、他の画像のどの人体に対応するかを探索する。ステップS405の処理は図1の物体対応部105の処理に相当する。
人体の画像間の対応付けは、人体領域の代表点をエピポーラ幾何によって対応付けることで行う。
図5は、カメラ1によって撮像されたカメラ画像およびカメラ2によって撮像されたカメラ画像の一例を示す。
例えば、カメラ1によって撮像されたカメラ画像1(501)に写っている人体Aの代表点とカメラ1の光学中心(不図示)とを結ぶ直線は、カメラ画像2(502)ではエピポーラ線と呼ばれる直線503で表わされる。エピポーラ線とは、エピポーラ平面とカメラ画像1(カメラ1の画像面)が交わる線およびエピポーラ平面とカメラ画像2(カメラ2の画像面)が交わる線のことである。エピポーラ平面とは、カメラ画像1(501)の人体Aの代表点に対応する3次元空間中の点をP、カメラ1の光学中心をC1、カメラ2の光学中心をC2としたとき、3点P、C1およびC2を通る平面のことである。
カメラの位置、姿勢、内部パラメータから得られるカメラ画像1(501)とカメラ画像2(502)との間の位置関係の情報を含む行列である基礎行列をFとする。さらに、人体Aの2次元座標を表わすベクトルをxとすると、エピポーラ線lは次式で表わされる。
Figure 0006606340
代表点とエピポーラ線との間の距離がしきい値以下となる人体を対応する人体とする。
例えば、図5において、カメラ画像1(501)の人体Aに対応するものは、カメラ画像2(502)上では人体BとCである。カメラ画像2(502)の人体Dの代表点とエピポーラ線503との間の距離はしきい値を超えるため、カメラ像2(502)の人体Dはガメラ画像1(501)の人体Aには対応しないこととなる。ある人体に対応する他のカメラの人体は、1つのカメラにつき1つでなければならない。そのため、それを満たすように対応付く人体の組の組み合わせを求める。図5のカメラ画像1(501)の人体Aに対応付く人体の組として、{A,B}と{A,C}が生成される。
<ステップS406 位置推定部107の処理 3次元位置推定>
ステップS406では、ステップS405で対応付いた人体の組から3次元位置を推定する。ステップS406の処理は図1の位置推定部107の処理に相当する。
まず図6のように、各カメラの光学中心C1、C2、C3と各カメラ画像の人体領域の代表点とを通る3次元空間中の直線を求める。直線はカメラの位置、姿勢、内部パラメータおよび代表点の画像上の座標より求める。次に、各カメラの直線の交点を求め、これを人体の3次元位置とする。直線の推定誤差により、実際にはこれらの直線が1点で交わらない場合がある。この場合には、各直線からの距離の和が最小になる点を交点の代わりとして採用する。
<ステップS407 整合性判定部106の処理 整合性判定>
ステップS407では、カメラの位置、姿勢、内部パラメータとステップS404でそれぞれ求めた幾何的属性から、3次元位置の整合度を算出する。この整合度が大きいほど虚像ではなく実像である度合いが高く、信頼性の高い3次元位置となる。ステップS407の処理は図1の整合性判定部106の処理に相当する。
まず、ステップS406で求めた3次元位置に、事前に定めた人体の平均的な大きさ(幅、高さ)を持つ円柱形の像を作成する。
図7(a)では、作成された円柱形の像701の位置(推定された3次元位置)と人体の実際の位置とが一致するものとして示されている。次に、この円柱形の像を各カメラ画像702,703に投影する。このとき、図7(a)に示すように推定された3次元位置が正しいならば、円柱形の像はカメラから正しい距離に存在するため、図7(b)に示すようにカメラ画像702,703に投影された像(投影像)と検出枠の大きさは類似する。
一方、図8(a)に示すように推定された3次元位置が正しくないならば、カメラから推定された3次元位置までの距離と、カメラから実際の人体802までの距離とは異なる。このため、図8(b)に示すようにカメラ画像803,804に投影された像(投影像)と検出枠の大きさは類似しない。図8では、推定された3次元位置が実際の人体802の位置よりもカメラに近い場所であると推定されたため、カメラ画像803,804に投影された像が検出枠に比べ大きくなっている。
そこで、本実施例では投影された像と検出枠の大きさ(高さh、幅w)の類似度をそのカメラ画像から算出される3次元位置の整合度とする。本実施例では検出枠と投影された像の重なり率を整合度とするが、検出枠の高さと投影された像の高さの違いの比率等の他の指標を整合度としてもよい。
全てのカメラ画像を考慮した3次元物体の整合度Rは次式のように、各カメラ画像から算出された整合度rの最小値とする。
Figure 0006606340
cはカメラ画像の番号とし、rはそれに対応する整合度とする。整合度Rの算出はこの方法に限らず、平均値等の他の方法で算出してもよい。
<整合度の低い対応付けの除外>
ステップS408では、ステップS407の整合度Rを基に、カメラ画像間の物体対応付けのうち整合度の低いものを削除する。具体的には、整合度が事前に定めたしきい値より小さい対応付けを削除の対象とする。
<検出漏れを再検出>
ステップS409では、ステップS406の3次元位置推定結果を利用し、ステップS403で検出漏れが生じた人体について、検出枠の位置、大きさを推定する。ステップS409の処理は図1の検出補完部108の処理に相当する。
まず、ステップS407と同様の手順で求めた3次元位置に作成した円柱形の像902を図9のように任意のカメラ画像904に投影する。
このとき、もし投影された像901の近傍にステップS403で求めた人体領域903が存在するならば、この投影された像901はすでに検出済みであるとして破棄する。
一方、投影された像901の近傍にステップS403で求めた人体領域903が存在しないならば、検出漏れの人体としてこの像を採用する。なお、投影された像とステップS403で求めた人体領域が近傍であるか否かは、領域同士の重複率が事前に定めたしきい値以上か否かで判定する。
ステップS410では、以上の処理で求めた検出結果および3次元位置推定結果を表示機器に表示する。ステップS410の処理は図1の表示部109の処理に相当する。
図11に表示する画面構成例を示す。画面構成例は、1つ以上のカメラ画像1101と3次元マップ1104で構成される。表示部109は画像表示部とマップ表示部を備え、それぞれカメラ画像1101と3次元マップ1104を描画する。
カメラ画像1101には、ステップS403やステップS409で検出された人体領域を示すシンボル(枠)が撮像画像に重畳表示される。カメラが異なっていても同一の人体であるか否かをユーザが容易に識別できるように、異なるカメラの同一の人物の枠は同じ色で着色する。
3次元マップ1104には、人体の3次元位置や大きさを示すシンボル1103とカメラの位置や向きを示すシンボル1102が床面とともに3次元画像として表示される。カメラ画像1101の人体と3次元マップ1104の人体が同一であるか否かをユーザが容易に識別できるように、それぞれを同じ色で着色する。
本実施例では、人物が同一であるかを表現するために着色を用いたが、視認性を高めるために、人物固有の番号や文字、記号等を重畳表示させてもよい。本実施例では、3次元マップ1104として3次元でマップを表わしたが、2次元のマップでも構わない。3次元で表わすことで、人体の床面上の位置の他に高さ方向の位置も分かり、人体位置が頭部を基準にしている場合には身長を取得できる効果がある。2次元の場合には、人体の床面上での位置を視認しやすくする効果がある。
また、3次元マップ1104の視点は固定としてもよいし、ユーザが視点を変更できるような機構を設けてもよい。3次元マップ1104に表示できるものは以上で挙げたものに限らず、床面に家具等の配置を示す見取り図を重畳表示させてもよいし、3次元オブジェクトを重畳してもよい。このようにすることで、人体の周囲物体との位置関係をわかりやすく提示する効果が得られる。
ステップS411では、処理を継続するか否かを判定する。カメラ画像からさらなる画像が取得可能であるならステップS402に戻り、取得不可であるなら処理を終了する。
ステップS407で像を作成するために、ステップS406で求めた3次元位置に人体の平均的な大きさを持つ像を作成したが、他の方法でもよい。
例えば、図10(a)のように、任意のカメラ画像平面1005を選択し、これに平行な平面1001を推定された3次元位置1002を通るように置き、その平面1001に人体領域1003を投影する。そして、平面1001に投影された平面像の高さと幅を取得し、これを高さと直径とする円柱形の像1004をステップS407で作成する円柱形の像の代わりとしてもよい。そして図7の実像701や図8の虚像801と同様に、像1004を各カメラ画像に投影する。図10(a)では像1004をカメラ画像平面1005とカメラ画像平面1006に投影している。投影された像の例を図10(b)に示す。カメラ1に投影された像はカメラ画像平面1005上の人体領域1003により生成された像1004を投影したものであるため、推定された3次元位置が虚像であるか否かにかかわらず検出枠と投影像は一致する。一方、カメラ2に関しては、推定された3次元位置が虚像である場合にはカメラ2に投影された像とカメラ2の検出枠の大きさが一致せず、実像である場合には大きさが一致する。そのため、先に説明したステップ407と同様に、各カメラ画像において投影された像と検出枠の大きさの類似度を算出した後、式2と同様の方法で全てのカメラ画像を考慮した3次元物体の整合度Rを算出する。図10ではカメラを2台しか図示していないが、3台以上ある場合には像1004をそれぞれのカメラ画像に投影して同様に整合度Rの算出を行う。図10では任意のカメラ画像平面1005を選択して整合度Rを算出したが、各カメラ画像平面を選択してそれぞれで整合度の算出を行い、これらの平均をとって整合度Rとしてもよい。このような方法で像を作成することで、人体の平均的な大きさを仮定する必要がなくなり、人体の実際の大きさが平均的な大きさと大きく異なる場合に精度向上が見込める。
ステップS407では、像を作成した後、各カメラ画像に投影した像と検出枠とを比較することで整合度を求めた。一方、複数のカメラ画像に対し先に述べた図10のような像を作成し、3次元空間上でこれらの像を比較することで整合度を求めてもよい。すなわち、手順としてはまず複数のカメラ画像に対し先に述べた方法で図10のような像を作成する。次に、任意のカメラi、jの像同士の重なり率rijを算出する。そして、すべてのカメラを考慮した整合度Rを次式のように算出すればよい。
Figure 0006606340
このようにすることで、3次元空間上で大きさを比較することができ、各カメラの画角や焦点距離等の内部パラメータの違いによらず大きさを比較することができる。全てのカメラを考慮した整合度Rはこの方法に限らず、平均値等の他の方法で算出してもよい。
本実施例では、物体情報取得部で物体の画像上の位置及び幾何的属性を抽出したが、画像検出装置内で行われている処理を複数の装置で分散させ画像処理システムとして実現してもよい。また、一つの機能ブロックとしてまとめらて説明した処理を複数の機能ブロックに分散させてもよい。
例えば、物体抽出を物体情報取得部の外部で行い、物体情報取得部は通信リンクを通じて外部から物体の画像上の位置および幾何的属性を抽出してもよい。
より具体的には、例えば、カメラに撮像画像から物体の画像上の位置および幾何的属性を抽出する物体検出部および送信部を持たせる。あるいは、カメラを接続したPCに撮像画像から物体の画像上の位置および幾何的属性を抽出する物体検出部および送信部を持たせる。
そして、カメラ又はPCが有する送信部と画像検出装置が有する受信部との間に確立されたネットワーク等の通信リンクを通じて情報取得部はこれらのカメラあるいはPCから情報を取得するようにしてもよい。
図14(a)はカメラ1410と画像検出装置1420とが通信リンクを確立する例を示す。カメラ1410は、撮像部1411、物体検出部1412および通信部1413を有する。画像検出装置1420は、前記の各部101および103〜109ならびに通信部1421および物体情報取得部1422を有する。図1の物体情報取得部102はカメラ画像から物体を検出し、幾何的属性を抽出したが、物体情報取得部1422はカメラ画像から物体を検出せず、幾何的属性を抽出しない。
物体検出部1412が物体を検出する。物体情報取得部1422は、通信部1413と通信部1421との間に確立された通信リンクを介して、物体の位置と幾何的属性を取得する。
図14(b)はPC1440と画像検出装置1450とが通信リンクを確立する例を示す。カメラ1430とPC1440は、例えば、USBケーブルなどを用いて有線接続され、その有線接続を介してPC1440はカメラ1430から画像データを受け取るとしてもよく、また図示しない記憶メディアを介して画像データを受け取るとしてもよい。そして、画像検出装置1420の物体情報取得部1422は、PC1440の通信部1442と画像検出装置1420の通信部1421との間に確立された通信リンクを介して、物体の位置と幾何的属性を取得する。
また、PCが物体情報取得部を備え、PCで3次元位置推定を行ってもよいし、カメラが物体情報取得部を備え、カメラに3次元位置推定の機能を持たせてもよい。
位置および幾何的属性のみを通信リンクを通じて伝送することで、画像を伝送する場合に比べて伝送量が削減される効果が見込める。また、物体の画像上の位置および幾何的属性を抽出処理と他の処理を異なるハードウェアで実行することにより、処理を分散する効果が見込め、それぞれのハードウェアの処理負荷が小さくなる効果が見込める。また、カメラが物体情報取得部を備え、カメラに3次元位置推定の機能を持たせることで、3次元位置推定を行うPCを省略できる効果がある。
本実施例のように、カメラの位置関係と複数の物体の位置と幾何的属性(人体の大きさ)を用いて3次元位置推定を行うことで、虚像を排除する効果が見込める。特に、カメラから誤った距離に存在する虚像を効果的に除去する効果が見込める。
カメラの位置、姿勢を用いることにより、物体の撮像方向、距離によらず異なるカメラ間の幾何的属性が正確に比較できるようになり、第1のカメラ画像と第2のカメラ画像に写っている物体が同一物体か否かの判別精度の向上が見込める。人体の大きさの幾何的属性は属性抽出の計算量が少なく、少ない計算量で効率的に虚像を除去する効果が見込める。
また、幾何的属性の記憶に必要な容量は小さく、画像や画像特徴に比べ、少ない記憶容量や伝送量で、効果的に虚像を除去する効果が見込める。
<実施例2>
実施例1では人体領域の大きさを幾何的属性とした。一方、以下の実施例2に示すように、人体の向きを幾何的属性としてもよい。
本実施例と実施例1とは図4のステップS404、ステップS407の処理のみが異なるため、この部分のみを説明する。
・物体属性抽出
ステップS404では、ステップS403で抽出された人体領域からこの幾何的属性を抽出する。実施例1では人体領域の大きさを幾何的属性としたが、本実施例では人体領域から抽出した人体の向きを幾何的属性とする。
具体的には、図12で示すように、人体の向き1202に平行な方向ベクトル1201を推定し、これを幾何的属性とする。方向ベクトルは3次元であり、ノルムが1に正規化されている。
方向ベクトルを抽出するために、あらかじめ学習された人体向き識別器を用いることができる。物体の向きを識別する手法としてパラメトリック固有空間法のような手法が適用可能であるが、他の手法でも構わない。ステップS403で抽出された人体領域に対し、人体向き識別器を適用することで、方向ベクトルを得る。この時点では、方向ベクトルは世界座標系ではなく、カメラ座標系で表現されている。
・整合性判定
ステップS407では、カメラの位置、姿勢、内部パラメータとステップS404でそれぞれ求めた幾何的属性から、3次元位置の整合性を判定する。
まず、あるカメラ画像の方向ベクトルを他のカメラの方向ベクトルと比較することで、2つのカメラ間の整合度rを算出する方法を説明する。方向ベクトルはカメラ座標系で算出したため、方向ベクトル同士を比較するためには、同じ座標系に変換する必要がある。そこで、本実施例では、カメラ座標系で表わされる方向ベクトルを世界座標系に変換する。
カメラの位置、姿勢、内部パラメータが既知のため、カメラ座標系から世界座標系に変換する行列が得られる。この変換行列をカメラ座標系の方向ベクトルに適用することで、世界座標系における方向ベクトルを取得する。
次に、あるカメラの世界座標系の方向ベクトルと他のカメラの世界座標系の方向ベクトルとを比較することで、2つのカメラ間の整合度rを算出する。
例えば図13では、カメラ1のカメラ画像から抽出された方向ベクトル1302とカメラ2のカメラ画像から抽出された方向ベクトル1304とを比較する。なお、図13の方向ベクトル1302は方向ベクトル1301を平行移動しただけであり、方向ベクトル1301と方向ベクトル1302とは同じベクトルを表わす。方向ベクトル1304は方向ベクトル1303を平行移動しただけであり、方向ベクトル1303と方向ベクトル1304とは同じベクトルを表わす。ベクトル間の比較は、コサイン類似度により行う。ベクトルp、q間のコサイン類似度は次式により算出される。
Figure 0006606340
次に全てのカメラを考慮した整合度Rを算出する。任意のカメラi、jで算出した整合度rijから、全てのカメラを考慮した整合度Rは次式で算出される。
Figure 0006606340
全てのカメラを考慮した整合度Rはこの方法に限らず、平均値等の他の方法で算出してもよい。
本実施例では、方向ベクトルはノルムが1に正規化された3次元ベクトルであり、人体の向きの自由度が2であったが、自由度が1でもよい。人体の向きの自由度が1の場合とは、例えば鉛直な直線を軸としたヨー回転のみを考慮した人体の向きである。その場合にはカメラ座標系において鉛直方向の成分が0の方向ベクトルを抽出すればよい。また、人体の向きの自由度は3でもよく、ピッチ、ヨー、ロールの回転を考慮してもよい。この場合には、ベクトルの方向でピッチ角とヨー角を、ベクトルのノルムでロール角を表わしてもよい。
本実施例では、ベクトルを人体の向きを表わす幾何的属性としたが、これに限定されない。例えば、人体の向きを表わす幾何的属性を回転角の組み合わせで表わしてもよいし、四元数(quaternion)で表わしてもよい。
本実施例では、ステップS403の物体検出とステップS404の物体属性抽出を異なる識別器で行ったが、同じ識別器で行っても構わない。すなわち、マルチクラス識別器と呼ばれる複数種類のクラスの識別を行う識別器を用い、人体検出と方向識別を同時に行ってもよい。例えば、非人体(背景)、向き1の人体、向き2の人体、・・・、向きNの人体を識別する識別器を用意する。カメラ画像からスライディングウィンドウにより取得した部分画像に対し、この識別器を適用することで、この部分画像が非人体(背景)、向き1の人体、向き2の人体、・・・、向きNの人体のいずれであるかを判定できる。同じ識別器で物体検出と物体属性抽出を行うことで、異なる識別器で行う場合に比べ、処理量の削減の効果が見込める。
本実施例のように、カメラの位置関係と複数の物体の位置と幾何的属性(人体の向き)を用いて3次元位置推定を行うことで、虚像を排除する効果が見込める。特に、矛盾する人体の向きを持つ人体領域から推定された虚像を効果的に除去する効果が見込める。カメラの位置、姿勢を用いることにより、物体の撮像方向、距離によらず異なるカメラ間の幾何的属性が正確に比較できるようになり、同一物体か否かの判別精度の向上が見込める。幾何的属性の記憶に必要な容量は小さく、画像や画像特徴に比べ、少ない記憶容量や伝送量で、効果的に虚像を除去する効果が見込める。
<実施例3>
実施例1では人体領域の大きさを幾何的属性とした。一方、以下の実施例3に示すように、物体の動きを幾何的属性としてもよい。物体の動きとは、例えば物体領域の移動方向や大きさの変化量、速度や加速度である。
まず、人体の動きの幾何的属性を人体領域の移動方向とした実施例について説明する。本実施例は実施例1とは図4のステップS404、ステップS407の処理が異なるため、この部分のみを説明する。
・物体属性抽出
ステップS404では、ステップS403で抽出された人体領域からこの幾何的属性を抽出する。本実施例では、人体の移動方向を幾何的属性とする。
具体的には、図12で示すように、人体の移動方向1202に平行な移動方向ベクトル1201を推定し、これを幾何的属性とする。移動方向ベクトルは3次元であり、ノルムが1に正規化されている。
移動方向ベクトルを抽出するために、まず映像フレームに対し物体追尾を適用することで、現在の人体領域と過去の同一人物の人体領域とを対応付ける。物体追尾とは、複数フレームにわたって同一物体を追跡する手法であり、例えば非特許文献5に記載の手法が挙げられる。本実施例では、物体追尾によって、現在のフレームにおける人体領域の位置、大きさと、10フレーム前のフレームにおける人体領域の位置、大きさを得る。
次にこれらから、移動方向ベクトルを抽出する。カメラの焦点距離と物体の3次元空間での大きさとが既知の場合、画像上の物体領域の位置と大きさとから物体の3次元位置を推定することができる。物体の3次元空間での大きさは、事前に算出した人体の平均的な高さと幅を用いる。移動方向ベクトルは現在のフレームから抽出した3次元位置から過去のフレームで算出した3次元位置を減算することにより算出する。
・整合性判定
ステップS407では、カメラの位置、姿勢、内部パラメータとステップS404でそれぞれ求めた幾何的属性から、3次元位置の整合性を判定する。処理内容は、実施例2の方向ベクトル同士の比較と同様である。
本実施例では、移動方向ベクトルは3次元空間中で算出したが、カメラ画像の平面上で算出してもよい。すなわち、現在のフレームにおける人体領域の画像上の位置座標から、過去のフレームにおける人体領域の画像上の位置座標を減算したものを移動方向ベクトルとしてもよい。物体の3次元空間での大きさを用いないことにより、大きさが既知ではない場合、あるいは正確に分からない場合にも移動方向を整合性判定に用いることができる。
人体の移動方向の抽出方法は上記方法に依らず、他の方法でもよい。例えば、オプティカルフローから算出してもよい。また、人体方向と移動方向とが同じであると仮定し、実施例2で述べたような人体方向を、移動方向の代わりに用いてもよい。
移動方向と人体方向を併用することによって、被写体の距離が遠く安定して移動方向が抽出できない場合等に、より信頼性の高い方を使い分けることができ、精度向上が見込める。
本実施例のように、カメラの位置関係と複数の物体の位置と幾何的属性(人体の移動方向)を用いて3次元位置推定を行うことで、虚像を排除する効果が見込める。特に、矛盾する移動方向を持つ人体領域から推定された虚像を効果的に除去する効果が見込める。カメラの位置、姿勢を用いることにより、物体の撮像方向、距離によらず異なるカメラ間の幾何的属性が正確に比較できるようになり、同一物体か否かの判別精度の向上が見込める。幾何的属性の記憶に必要な容量は小さく、画像や画像特徴に比べ、少ない記憶容量や伝送量で、効果的に虚像を除去する効果が見込める。
本実施例では幾何的属性として物体の移動方向を用いたが、物体の速度や加速度を幾何的属性としてもよい。例えば、速度や加速度を表すベクトルを幾何的属性としてもよい。物体の速度や加速度の幾何的属性は、移動方向と同様に、本実施例で述べたような物体追尾で求めることがでる。また、本実施例と同様の方法で整合性を判定することができる。物体の速度や加速度を幾何的属性として用いることで、矛盾する速度や加速度を持つ人体領域から推定された虚像を効果的に除去する効果が見込める。
本実施例では幾何的属性として物体の移動方向を用いたが、物体の大きさの変化量を幾何的属性としてもよい。例えば、物体の幅wと高さhの変化量を幾何的属性としてもよい。矛盾する大きさの変化量を持つ人体領域から推定された虚像を効果的に除去する効果が見込める。例えば、本実施例で述べたように物体追尾によって物体の大きさの変化量を得ることができる。このとき、カメラの内部パラメータと物体の大きさが既知ならば、物体の奥行き方向の位置を得ることができる。そして、各カメラから得られる物体の奥行き方向の位置を3次元空間で比較することで、整合性を判定することができる。
実施例1から3では単一の幾何的属性を用いたが、複数の幾何的属性を組み合わせてもよい。複数の幾何的属性を組み合わせることで、より効果的に虚像を除去する効果が見込める。
<その他の実施例>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101 画像取得部
102 物体情報取得部
103 カメラ情報保持部
104 3次元位置推定部
105 物体対応部
106 整合性判定部
107 位置推定部
108 検出補完部
109 表示部


Claims (11)

  1. 少なくとも2つのカメラの位置関係を保持するカメラ情報保持手段と、
    複数の前記カメラで撮像して得られた各撮像画像に含まれる物体の前記撮像画像上の位置および幾何的属性を取得する物体情報取得手段と、
    複数の前記撮像画像に含まれる前記物体の各撮像画像上の位置を対応付け、前記カメラの位置関係と前記物体の各撮像画像上の位置と前記物体の各撮像画像から得られる前記幾何的属性とに基づいて前記物体の3次元位置を推定する3次元位置推定手段と、
    推定された前記物体の3次元位置に基づいて、当該物体の像を少なくとも1つの前記カメラの前記撮像画像に投影し、該投影された像の前記撮像画像上での幾何的属性と前記物体情報取得手段により取得された幾何的属性との類似度に基づいて、当該推定された前記物体の3次元位置の整合性を判定する判定手段と、
    前記3次元位置推定手段により推定された3次元位置から、前記判定手段により整合性が低いと判定された3次元位置を除外して出力する出力手段と
    を備えることを特徴とする画像検出装置。
  2. 前記3次元位置推定手段は、
    第1のカメラの撮像画像に含まれる物体と、
    第2のカメラの撮像画像に含まれる物体と、
    を対応付け、
    前記第1のカメラと前記第2のカメラとの位置関係と、
    対応づけられた前記物体の
    前記第1のカメラの撮像画像上の位置と、
    前記第2のカメラの撮像画像上の位置と、
    から前記物体の3次元位置を推定する
    ことを特徴とする請求項に記載の画像検出装置。
  3. 記判定手段は、前記3次元位置の整合度を求めることを特徴とする請求項に記載の画像検出装置。
  4. 前記幾何的属性が物体の大きさであることを特徴とする請求項1乃至のいずれか1項に記載の画像検出装置。
  5. 前記幾何的属性が物体の向きであることを特徴とする請求項1乃至のいずれか1項に記載の画像検出装置。
  6. 少なくとも2つのカメラと画像検出装置とを備える画像処理システムであって、
    前記カメラは、
    前記カメラで撮像して得られた各撮像画像に含まれる物体の画像上の位置および幾何的属性を画像処理により求める物体検出手段と、
    前記物体検出手段によって求められた前記物体の画像上の前記位置および前記幾何的属性を送信する送信手段と、を備え、
    前記画像検出装置は、
    請求項1からのいずれか1項に記載の画像検出装置であって、
    前記送信手段から送信された前記物体の画像上の前記位置および前記幾何的属性を受信する受信手段をさらに備え、
    前記物体情報取得手段は、前記受信手段が受信した前記物体の画像上の前記位置および前記幾何的属性を取得する
    ことを特徴とする画像処理システム。
  7. 物体検出装置と画像検出装置とを備える画像処理システムであって、
    前記物体検出装置は、
    少なくとも2つのカメラで撮像して得られた各撮像画像に含まれる物体の画像上の位置および幾何的属性を画像処理により求める物体検出手段と、
    前記物体検出手段によって求められた前記物体の画像上の前記位置および前記幾何的属性を送信する送信手段と、を備え、
    前記画像検出装置は、
    請求項1からのいずれか1項に記載の画像検出装置であって、
    前記送信手段から送信された前記物体の画像上の前記位置および前記幾何的属性を受信する受信手段をさらに備え、
    前記物体情報取得手段は、前記受信手段が受信した前記物体の画像上の前記位置および前記幾何的属性を取得する、
    ことを特徴とする画像処理システム。
  8. 第1のカメラ、第2のカメラ、および第3のカメラで物体が撮像され、
    前記第1のカメラの撮像画像上の前記物体の位置と
    前記第2のカメラの撮像画像上の前記物体の位置と
    に基づいて前記物体の3次元位置を推定し、
    推定された前記3次元位置に前記物体が存在すると仮定して、
    前記第1のカメラの撮像画像または前記第2のカメラの撮像画像
    から得られた前記物体の幾何的属性を
    前記第3のカメラの撮像画像に投影することで前記物体情報取得手段の検出漏れを補完する検出補完手段
    をさらに備えることを特徴とする請求項1からのいずれか1項に記載の画像検出装置。
  9. 前記物体情報取得手段で取得され前記物体の画像上の位置と3次元位置推定手段で推定された前記物体の3次元位置を表示する表示手段を備え、
    前記表示手段は
    前記撮像画像に前記物体情報取得手段で取得された画像上の位置を示すシンボルを重畳する画像表示手段と、
    2次元または3次元のマップに前記3次元位置推定手段で推定された前記物体の3次元位置を示すシンボルを重畳させるマップ表示手段と
    をさらに備えることを特徴とする請求項1からのいずれか1項に記載の画像検出装置。
  10. 少なくとも2つのカメラの位置関係を保持するカメラ情報保持工程と、
    複数の前記カメラで撮像して得られた各撮像画像に含まれる物体の前記撮像画像上の位置および幾何的属性を取得する物体情報取得工程と、
    複数の前記撮像画像に含まれる前記物体の各撮像画像上の位置を対応付け、前記カメラの位置関係と前記物体の各撮像画像上の対応付けられた位置に基づいて前記物体の3次元位置を推定する3次元位置推定工程と
    推定された前記物体の3次元位置に基づいて、当該物体の像を少なくとも1つの前記カメラの前記撮像画像に投影し、該投影された像の前記撮像画像上での幾何的属性と前記物体情報取得工程において取得された幾何的属性との類似度に基づいて、当該推定された前記物体の3次元位置の整合性を判定する判定工程と、
    前記3次元位置推定工程で推定された3次元位置から、前記判定工程において整合性が低いと判定された3次元位置を除外して出力する出力工程と
    を有することを特徴とする画像検出方法。
  11. 請求項1乃至のいずれか1項に記載の画像検出装置の各手段としてコンピュータを機能させるためのプログラム。
JP2015074942A 2015-04-01 2015-04-01 画像検出装置、画像検出方法およびプログラム Active JP6606340B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015074942A JP6606340B2 (ja) 2015-04-01 2015-04-01 画像検出装置、画像検出方法およびプログラム
US15/084,381 US9877012B2 (en) 2015-04-01 2016-03-29 Image processing apparatus for estimating three-dimensional position of object and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015074942A JP6606340B2 (ja) 2015-04-01 2015-04-01 画像検出装置、画像検出方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2016194847A JP2016194847A (ja) 2016-11-17
JP6606340B2 true JP6606340B2 (ja) 2019-11-13

Family

ID=57323711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015074942A Active JP6606340B2 (ja) 2015-04-01 2015-04-01 画像検出装置、画像検出方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6606340B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807431A (zh) * 2019-11-06 2020-02-18 上海眼控科技股份有限公司 对象定位方法、装置、电子设备及存储介质
CN111080638B (zh) * 2019-12-27 2023-04-07 成都泓睿科技有限责任公司 一种检测模制瓶瓶底脏污的方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000228766A (ja) * 1999-02-05 2000-08-15 Canon Inc 監視システムおよびその制御方法およびその動作処理プログラムを記憶した記憶媒体
GB2400513B (en) * 2003-03-14 2005-10-05 British Broadcasting Corp Video processing
JP2010063001A (ja) * 2008-09-05 2010-03-18 Mitsubishi Electric Corp 人物追跡装置および人物追跡プログラム
JP6141079B2 (ja) * 2013-04-08 2017-06-07 キヤノン株式会社 画像処理システム、画像処理装置、それらの制御方法、及びプログラム

Also Published As

Publication number Publication date
JP2016194847A (ja) 2016-11-17

Similar Documents

Publication Publication Date Title
JP6700752B2 (ja) 位置検出装置、位置検出方法及びプログラム
US9877012B2 (en) Image processing apparatus for estimating three-dimensional position of object and method therefor
US20200279121A1 (en) Method and system for determining at least one property related to at least part of a real environment
JP5812599B2 (ja) 情報処理方法及びその装置
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
WO2017041731A1 (en) Markerless multi-user multi-object augmented reality on mobile devices
JP4429298B2 (ja) 対象個数検出装置および対象個数検出方法
KR20190034092A (ko) 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
JP6590609B2 (ja) 画像解析装置及び画像解析方法
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7379065B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2018156408A (ja) 画像認識撮像装置
JP2019114103A (ja) 物体認識処理装置、物体認識処理方法及びプログラム
JP2018120283A (ja) 情報処理装置、情報処理方法及びプログラム
JP2014134856A (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
JP2020042575A (ja) 情報処理装置、位置合わせ方法、及びプログラム
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP6163732B2 (ja) 画像処理装置、プログラム、及び方法
JP2007200364A (ja) ステレオキャリブレーション装置とそれを用いたステレオ画像監視装置
JP2011090708A (ja) 対象個数検出装置および対象個数検出方法
US11417063B2 (en) Determining a three-dimensional representation of a scene
KR20160049639A (ko) 부분 선형화 기반의 3차원 영상 정합 방법
WO2017042852A1 (en) Object recognition appratus, object recognition method and storage medium
JP2009205695A (ja) 対象個数検出装置および対象個数検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190422

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191018

R151 Written notification of patent or utility model registration

Ref document number: 6606340

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03