JP6079076B2 - 物体追跡装置及び物体追跡方法 - Google Patents
物体追跡装置及び物体追跡方法 Download PDFInfo
- Publication number
- JP6079076B2 JP6079076B2 JP2012202272A JP2012202272A JP6079076B2 JP 6079076 B2 JP6079076 B2 JP 6079076B2 JP 2012202272 A JP2012202272 A JP 2012202272A JP 2012202272 A JP2012202272 A JP 2012202272A JP 6079076 B2 JP6079076 B2 JP 6079076B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- weight map
- particle
- particles
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
本発明者は、背景技術が有する問題点について鋭意検討した結果、本実施形態に係る物体追跡装置に想到するに至った。そこで、背景技術、具体的には非特許文献1、特許文献1、2が有する問題点について詳細に説明する。
(物体追跡システムの構成)
まず、図1等に基づいて、第1の実施形態に係る物体追跡システム1−1の構成について説明する。物体追跡システム1−1は、カメラ10と、物体追跡装置20−1と、表示装置30とを備える。
カメラ10は、撮影を行うことで撮像画像を生成し、物体追跡装置20−1に出力する。
物体追跡装置20−1は、画像入力部21、画像記録部22、出力制御部23、物体検出部24、物体追跡部25−1、及び追跡情報記録部26を備える。なお、物体追跡装置20−1は、CPU、ROM、RAM、及びハードディスク等のハードウェア構成を有する。ROMには、物体追跡装置20−1に画像入力部21、画像記録部22、出力制御部23、物体検出部24、物体追跡部25−1、及び追跡情報記録部26を実現させるためのプログラムが記録されている。CPUは、ROMに記録されたプログラムを読みだして実行する。したがって、これらのハードウェア構成により、画像入力部21、画像記録部22、出力制御部23、物体検出部24、物体追跡部25−1、及び追跡情報記録部26が実現される。
画像入力部21は、カメラ10から与えられた撮像画像を入力画像として取得し、画像記録部22に記憶する。図3に入力画像の一例として入力画像100を示す。図3に示すように、入力画像にはxy軸が設定されており、各画素はxy座標及び画素値(輝度等)を有する。図3に示す例では、左上端の画素が原点となり、水平方向に伸びる軸がx軸、鉛直方向に伸びる軸がy軸となっている。また、入力画像100には、人物画像101、102が描かれている。
画像記録部22は、入力画像を記憶する。出力制御部23は、画像記録部22から入力画像を取得し、追跡情報記録部26から追跡情報を取得する。ここで、追跡情報は、物体追跡部25−1による追跡結果に関する情報であり、具体的には、追跡対象の現フレームでの位置座標、及び移動ベクトル等である。
物体検出部24は、画像記録部22から入力画像を取得し、入力画像から追跡対象を検出する。追跡対象は、例えば人物、人物の顔、車両等である。検出の方法は特に制限されず、公知の方法が任意に適用可能である。例えば、物体検出部24は、P.Viola and M.Jones, ’’Rapid object Detection using a Boosted Cascade of Simple Features,’’ Proc.of IEEE Conf.CVPR, 1, pp.511−518, 2001.等に記載された検出方法に基づいて、追跡対象を検出する。検出結果は、物体追跡部25−1に出力される。
物体追跡部25−1は、エッジ情報生成部25a、初期重みマップ生成部25b、初期パーティクル生成部25c、サンプリング部25d、観測部25e、追跡情報生成部25f、重みマップ更新部25g、及びパーティクル更新部25hを備える。初期重みマップ生成部25b及び重みマップ更新部25gが重みマップ生成部を構成し、初期パーティクル生成部25c及びパーティクル更新部25hがパーティクル生成部を構成する。また、サンプリング部25d、観測部25e、及び追跡情報生成部25fが追跡対象検出部を構成する。
エッジ情報生成部25aは、画像記録部22から入力画像を取得し、物体検出部24から与えられた検出結果に基づいて、入力画像から追跡対象のエッジ情報を抽出する。具体的には、エッジ情報生成部25aは、追跡対象のエッジ部分の画素毎に画素値の勾配強度及び勾配方向を算出する。すなわち、エッジ情報は、画素の座標と勾配強度及び勾配方向との対応関係を示す。座標(x,y)の画素が有する勾配強度は以下の式(1)で示される。
初期重みマップ生成部25bは、追跡対象の追跡開始時に初期重みマップを生成する。初期重みマップは、重みマップの初期値である。初期重みマップ生成部25bは、具体的には、エッジ情報をそのまま重みマップとする。重みマップは、画素毎に重み情報を有する。この場合、重み情報は勾配強度に一致する。初期重みマップ生成部25bは、エッジ情報に2次元のガウシアンフィルタを作用させることで、物体中央の重みを大きくしてもよい。したがって、重みマップでは、入力画像のエッジ周辺で重みが大きくなる。初期重みマップ生成部25bは、生成した重みマップ(初期重みマップ)を初期パーティクル生成部25c及び重みマップ更新部25gに出力する。
初期パーティクル生成部25cは、初期重みマップと、エッジ情報とに基づいて、複数の局所エッジを有し、かつ局所エッジの配置が互いに異なる複数の初期パーティクルを生成する。初期パーティクルは、パーティクルの初期値である。初期パーティクル生成部25cは、追跡対象の追跡開始時に初期パーティクルを生成する。
サンプリング部25dは、初期パーティクル生成部25cまたはパーティクル更新部25hから与えられたパーティクルに基づいて、以下の処理を行う。まず、サンプリング部25dは、サンプリングを最初に行う(前フレームで初期パーティクルが生成された)場合には、パーティクルの配置位置を入力画像の中心画素とする。サンプリング部25dは、2回目以降のサンプリング時(パーティクル更新部25hからパーティクルが与えられた場合)には、前フレームのパーティクルの配置位置に追跡対象の移動ベクトル(前フレームで算出される)を加えた位置を現フレームのパーティクルの配置位置とする。
観測部25eは、サンプリング情報に基づいて、各パーティクルのエッジ尤度を算出する。具体的には、観測部25eは、上述した式(4)、(5)に基づいて、パーティクルを構成する局所エッジ毎にエッジレット類似度を算出する。このエッジレット類似度は各局所エッジのエッジ尤度となる。なお、この処理では、pはパーティクル代表画素のxy座標(x,y)となり、Kは局所エッジの長さ(すなわち画素数)となり、uiは局所エッジを構成するi番目の画素のxy座標となる。G(ui+p)は、ui+pの画素が有する勾配強度(実効値)となり、Ψ(ui+p)は、ui+pの画素が有する量子化勾配方向となり、Ψi Eは局所エッジを構成するi番目の画素が有する量子化勾配方向となる。そして、観測部25eは、局所エッジのエッジ尤度を合計することで、パーティクルのエッジ尤度を算出する。観測部25eは、各パーティクルのエッジ尤度に関する観測結果情報を追跡情報生成部25f及び重みマップ更新部25gに出力する。
追跡情報生成部25fは、観測結果情報に基づいて、追跡対象の現フレームでの位置を特定する。すなわち、追跡情報生成部25fは、追跡対象を検出する。具体的には、追跡情報生成部25fは、各パーティクルの中心位置座標に各パーティクルのエッジ尤度を重みとして乗じることで重み付き中心位置座標を算出し、重み付き中心位置座標を算術平均する。すなわち、追跡情報生成部25fは、各パーティクルの中心位置座標を加重平均する。追跡情報生成部25fは、これにより得られた座標を追跡対象の現フレームでの位置とする。そして、追跡情報生成部25fは、追跡対象の現フレームでの位置座標から前フレームでの位置座標を減じることで、追跡対象の移動ベクトルを算出する。なお、追跡情報生成部25fは、追跡対象の平均移動量を移動ベクトルとしてもよい。平均移動量は、例えば、追跡対象の現フレームでの位置座標から初期位置(追跡情報生成部25fが最初に特定した追跡対象の位置)座標を減じた値である。もちろん、追跡情報生成部25fは、他の値を移動ベクトルとしてもよい。これにより、前記追跡情報生成部は、エッジ尤度を重みとする加重平均に基づいて、前記追跡対象の位置及び速度(移動ベクトル)を算出する。追跡情報生成部25fは、追跡対象の現フレームでの位置及び移動ベクトルに関する追跡情報を追跡情報記録部26に記憶する。
重みマップ更新部25gは、前フレームの重みマップ(初期重みマップまたは前フレームで更新された重みマップ)を更新する。具体的には、重みマップ更新部25gは、前フレームの重みマップにエッジ情報を加算する。具体的には、重みマップ更新部25gは、エッジ情報中の勾配強度を加算する。さらに、重みマップ更新部25gは、最大尤度となったパーティクルの局所エッジを重みマップに加算する。
パーティクル更新部25hは、更新後の重みマップと、エッジ情報とに基づいて、前フレームのパーティクル(初期パーティクルまたは前フレームで更新されたパーティクル)を更新する。具体的には、パーティクル更新部25hは、初期パーティクル生成部25cと同様の処理を更新後の重みマップと、エッジ情報とに基づいて行うことで、パーティクルを更新する。なお、パーティクル更新部25hは、ランダムサンプリングによる精度低下を抑制するために、前フレームで最大尤度となったパーティクルを更新後のパーティクル(次フレームのパーティクル)に含めても良い。なお、重みマップ更新部25gは、最大尤度のパーティクルのみならず、エッジ尤度が所定値以上となるパーティクルを更新後のパーティクルに含めてもよい。パーティクル更新部25hは、更新後のパーティクルをサンプリング部に出力する。
追跡情報記録部26は、追跡情報を記録する。表示装置30は、出力制御部23による制御により、入力画像及び追跡情報を重畳して表示する。すなわち、表示装置30は、入力画像上に追跡対象の現フレームでの位置座標及び移動ベクトルを表示することができる。
次に、物体追跡システム1−1による処理の手順を図2に示すフローチャートに沿って説明する。なお、以下の処理に並行して、カメラ10は撮像画像を画像入力部21に出力し、画像入力部21は撮像画像を入力画像として画像記録部22に記憶するものとする。
次に、第2の実施形態について説明する。まず、図13に基づいて、第2の実施形態に係る物体追跡システム1−2の構成について説明する。物体追跡システム1−2は、カメラ10と、物体追跡装置20−2と、表示装置30とを備える。物体追跡装置20−2は、物体追跡装置20−1の物体追跡部25−1を物体追跡部25−2に置き換えたものである。
フレーム間差分生成部25iは、前フレーム(現フレームの1フレーム前のフレーム)及び現フレームの入力画像を画像記録部22から取得する。そして、フレーム間差分生成部25iは、画素毎に画素値の差分(前フレームの画素値と現フレームの画素値との差分)を算出し、さらに、差分の絶対値、すなわちフレーム間差分絶対値を算出する。そして、フレーム間差分生成部25iは、画素とフレーム間差分絶対値とが関連付けられたフレーム間差分絶対値マップを生成し、初期重みマップ生成部25jに出力する。
初期重みマップ生成部25jは、エッジ情報と、フレーム間差分絶対値マップとに基づいて、初期重みマップを生成する。具体的には、例えば、初期重みマップ生成部25jは、エッジ情報にフレーム間差分絶対値を乗じた値を重みとすることで、初期重みマップを生成する。初期重みマップ生成部25bは、生成した重みマップ(初期重みマップ)を初期パーティクル生成部25c及び重みマップ更新部25kに出力する。
重みマップ更新部25kは、現フレームのエッジ情報と、前フレームの重みマップと、現フレームのフレーム間差分絶対値マップとに基づいて、前フレームの重みマップを更新する。具体的には、例えば、重みマップ更新部25kは、現フレームのエッジ情報とフレーム間差分絶対値とを乗じた値を前フレームの重みマップに加算する。さらに、重みマップ更新部25kは、最大尤度となったパーティクルの局所エッジを重みマップに加算する。これにより、重みマップ更新部25kは、重みマップを更新する。重みマップ更新部25kは、更新された重みマップをパーティクル更新部25hに出力する。
次に、物体追跡システム1−2による処理の手順を図14に示すフローチャートに沿って説明する。ステップS100、S120、S140、S150〜S170、S190において、物体追跡装置20−2は、図2に示すステップS10、S20、S40、S50〜S70、S90と同様の処理を行う。
次に、第3の実施形態について説明する。まず、図15に基づいて、第3の実施形態に係る物体追跡システム1−3の構成について説明する。物体追跡システム1−3は、カメラ10と、物体追跡装置20−3と、表示装置30とを備える。物体追跡装置20−3は、物体追跡装置20−1の物体追跡部25−1を物体追跡部25−3に置き換えたものである。
オプティカルフロー生成部25mは、前フレーム(現フレームの1フレーム前のフレーム)及び現フレームの入力画像を画像記録部22から取得する。そして、オプティカルフロー生成部25mは、画素毎に移動ベクトルを算出する。そして、オプティカルフロー生成部25mは、画素と移動ベクトルとが移動ベクトルマップを生成し、重みマップ更新部25nに出力する。
重みマップ更新部25nは、現フレームのエッジ情報と、前フレームの重みマップと、現フレームの移動ベクトルマップとに基づいて、前フレームの重みマップを更新する。具体的には、例えば、重みマップ更新部25nは、現フレームの画素のうち、追跡対象の移動ベクトルと同じ移動ベクトルを有する画素のエッジ情報のみ、前フレームの重みマップに加算する。さらに、重みマップ更新部25nは、最大尤度となったパーティクルの局所エッジを重みマップに加算する。これにより、重みマップ更新部25nは、重みマップを更新する。重みマップ更新部25nは、更新された重みマップをパーティクル更新部25hに出力する。ここで、「同じ移動ベクトル」には、移動ベクトルが完全に一致している移動ベクトルの他、類似する(差分が所定値以下)の移動ベクトルも含む概念である。
次に、物体追跡システム1−3による処理の手順を図16に示すフローチャートに沿って説明する。ステップS200、S220〜S270、S290において、物体追跡装置20−3は、図2に示すステップS10〜S70、S90と同様の処理を行う。
20−1〜20−3 物体追跡装置
25−1〜25−3 物体追跡部
25a エッジ情報生成部
25b、25j 初期重みマップ生成部
25c 初期パーティクル生成部
25d サンプリング部
25e 観測部
25f 追跡情報生成部
25g、25k、25n 重みマップ更新部
25h パーティクル更新部
25i フレーム間差分生成部
25m オプティカルフロー生成部
Claims (16)
- 入力画像からエッジ情報を抽出するエッジ情報生成部と、
前記エッジ情報に基づいて、前記エッジ情報の周辺の重みが大きい重みマップを生成する重みマップ生成部と、
前記重みマップに基づいて、複数の局所エッジを有し、かつ前記局所エッジの配置が互いに異なる複数のパーティクルを生成するパーティクル生成部と、
前記パーティクルに基づいて、前記入力画像から追跡対象を検出する追跡対象検出部と、を備えることを特徴とする、物体追跡装置。 - 前記複数のパーティクルのうち、いずれか一のパーティクルが有する局所エッジは、他のパーティクルが有する局所エッジの一部が欠落したものであることを特徴とする、請求項1記載の物体追跡装置。
- 前記追跡対象検出部は、
前記入力画像に前記パーティクルを配置するサンプリング部と、
前記入力画像のエッジ情報と、前記入力画像に配置されたパーティクルとの類似度をエッジ尤度として算出する観測部と、
前記エッジ尤度に基づいて、前記追跡対象を検出する追跡情報生成部と、を備えることを特徴とする、請求項1または2記載の物体追跡装置。 - 前記追跡情報生成部は、エッジ尤度を重みとする加重平均に基づいて、前記追跡対象の位置及び速度を算出することを特徴とする、請求項3記載の物体追跡装置。
- 前記重みマップ生成部は、前記エッジ尤度が所定値以上となるパーティクルを前記重みマップに重畳することで、前記重みマップを更新することを特徴とする、請求項3または4に記載の物体追跡装置。
- 前記パーティクル生成部は、前記エッジ尤度が所定値以上となるパーティクルを次フレームのパーティクルとすることを特徴とする、請求項3〜5のいずれか1項に記載の物体追跡装置。
- 前記重みマップ生成部は、フレーム間で画素値が変化した画素の重みを大きくすることで、前記重みマップを更新することを特徴とする、請求項1〜6のいずれか1項に記載の物体追跡装置。
- 前記重みマップ生成部は、前記追跡対象の移動ベクトルと同じ移動ベクトルを有する画素の重みを大きくすることで、前記重みマップを更新することを特徴とする、請求項1〜6のいずれか1項に記載の物体追跡装置。
- 入力画像からエッジ情報を抽出するステップと、
前記エッジ情報に基づいて、前記エッジ情報の周辺の重みが大きい重みマップを生成するステップと、
前記重みマップに基づいて、複数の局所エッジを有し、かつ前記局所エッジの配置が互いに異なる複数のパーティクルを生成するステップと、
前記パーティクルに基づいて、前記入力画像から追跡対象を検出するステップと、を含むことを特徴とする、物体追跡方法。 - 前記複数のパーティクルのうち、いずれか一のパーティクルが有する局所エッジは、他のパーティクルが有する局所エッジの一部が欠落したものであることを特徴とする、請求項9記載の物体追跡方法。
- 前記入力画像に前記パーティクルを配置するステップと、
前記入力画像のエッジ情報と、前記入力画像に配置されたパーティクルとの類似度をエッジ尤度として算出するステップと、
前記エッジ尤度に基づいて、前記追跡対象を検出するステップと、を含むことを特徴とする、請求項9または10記載の物体追跡方法。 - エッジ尤度を重みとする加重平均に基づいて、前記追跡対象の位置及び速度を算出するステップを含むことを特徴とする、請求項11記載の物体追跡方法。
- 前記エッジ尤度が所定値以上となるパーティクルを前記重みマップに重畳することで、前記重みマップを更新することを特徴とする、請求項11または12に記載の物体追跡方法。
- 前記エッジ尤度が所定値以上となるパーティクルを次フレームのパーティクルとすることを特徴とする、請求項11〜13のいずれか1項に記載の物体追跡方法。
- フレーム間で画素値が変化した画素の重みを大きくすることで、前記重みマップを更新するステップを含むことを特徴とする、請求項9〜14のいずれか1項に記載の物体追跡方法。
- 前記追跡対象の移動ベクトルと同じ移動ベクトルを有する画素の重みを大きくすることで、前記重みマップを更新するステップを含むことを特徴とする、請求項9〜14のいずれか1項に記載の物体追跡方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012202272A JP6079076B2 (ja) | 2012-09-14 | 2012-09-14 | 物体追跡装置及び物体追跡方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012202272A JP6079076B2 (ja) | 2012-09-14 | 2012-09-14 | 物体追跡装置及び物体追跡方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014056535A JP2014056535A (ja) | 2014-03-27 |
JP6079076B2 true JP6079076B2 (ja) | 2017-02-15 |
Family
ID=50613773
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012202272A Active JP6079076B2 (ja) | 2012-09-14 | 2012-09-14 | 物体追跡装置及び物体追跡方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6079076B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109785366A (zh) * | 2019-01-21 | 2019-05-21 | 中国科学技术大学 | 一种针对遮挡的相关滤波目标跟踪方法 |
JP7104322B2 (ja) | 2018-09-04 | 2022-07-21 | 東ソー株式会社 | 樹脂発泡体用組成物 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
BR112016010089B1 (pt) * | 2013-11-13 | 2021-06-08 | Nissan Motor Co. Ltd. | dispositivo de estimação de posição de corpo em movimento e método de estimação de posição de corpo em movimento |
CN115877328B (zh) * | 2023-03-06 | 2023-05-12 | 成都鹰谷米特科技有限公司 | 一种阵列雷达的信号收发方法及阵列雷达 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4692969B2 (ja) * | 2006-06-09 | 2011-06-01 | 株式会社ソニー・コンピュータエンタテインメント | 特徴点探索装置、画像解析装置、および最近傍特徴点検出方法 |
US8331619B2 (en) * | 2008-03-14 | 2012-12-11 | Sony Computer Entertainment Inc. | Image processing apparatus and image processing method |
-
2012
- 2012-09-14 JP JP2012202272A patent/JP6079076B2/ja active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7104322B2 (ja) | 2018-09-04 | 2022-07-21 | 東ソー株式会社 | 樹脂発泡体用組成物 |
CN109785366A (zh) * | 2019-01-21 | 2019-05-21 | 中国科学技术大学 | 一种针对遮挡的相关滤波目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2014056535A (ja) | 2014-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6244407B2 (ja) | 深度測定の品質の向上 | |
JP2007000205A (ja) | 画像処理装置及び画像処理方法並びに画像処理プログラム | |
CN109472820B (zh) | 单目rgb-d相机实时人脸重建方法及装置 | |
US9224245B2 (en) | Mesh animation | |
JP2011039918A (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
JP6079076B2 (ja) | 物体追跡装置及び物体追跡方法 | |
JP4631973B2 (ja) | 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム | |
KR20140134090A (ko) | 이미지 센서와 대상 객체 사이의 상대적인 각도를 이용하는 깊이 영상 처리 장치 및 방법 | |
US9563937B2 (en) | High-resolution image generation apparatus, high-resolution image generation method, and high-resolution image generation program | |
KR20140024206A (ko) | 입술 검출 및 추적을 위한 방법 및 장치 | |
JP6908025B2 (ja) | 画像処理装置と画像処理方法 | |
WO2015198592A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP6232933B2 (ja) | 放射歪み補正装置、道路環境認識装置、放射歪み補正方法およびプログラム | |
JP6991700B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
KR101426864B1 (ko) | 근거리 열상 표적추적을 위한 영역기반 경계향상 방법 | |
KR102171203B1 (ko) | 스테레오 영상의 정합 방법 및 이를 수행하는 장치 | |
JP2010009236A (ja) | 平面領域推定装置及びプログラム | |
WO2020026677A1 (ja) | 検出装置、処理装置、検出方法、及び処理プログラム | |
JP2013069026A (ja) | 被写体の3次元形状を復元する装置、方法およびプログラム | |
JP2008008797A (ja) | カメラ挙動推定装置及びカメラ挙動推定プログラム | |
CN113723432A (zh) | 一种基于深度学习的智能识别、定位追踪的方法及系统 | |
KR20130019485A (ko) | 마커를 기반으로 하는 증강현실 시스템 및 그 객체 증강방법 | |
KR20140067253A (ko) | 영상 처리 장치 및 방법 | |
JP2007272578A (ja) | 画像処理装置および画像処理方法 | |
JP2016142577A (ja) | 画像処理装置、画像処理方法、画像処理システム、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150515 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170102 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6079076 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |