JP2019533232A - パターン検出 - Google Patents

パターン検出 Download PDF

Info

Publication number
JP2019533232A
JP2019533232A JP2019514275A JP2019514275A JP2019533232A JP 2019533232 A JP2019533232 A JP 2019533232A JP 2019514275 A JP2019514275 A JP 2019514275A JP 2019514275 A JP2019514275 A JP 2019514275A JP 2019533232 A JP2019533232 A JP 2019533232A
Authority
JP
Japan
Prior art keywords
region
known pattern
parameter
image
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019514275A
Other languages
English (en)
Other versions
JP6899894B2 (ja
Inventor
アンドレアス エルンスト
アンドレアス エルンスト
ホフマンマティス
マティス ホフマン
イェンス−ウーヴェ ガルバス
イェンス−ウーヴェ ガルバス
トビアス ベルゲン
トビアス ベルゲン
Original Assignee
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ, フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ filed Critical フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ
Publication of JP2019533232A publication Critical patent/JP2019533232A/ja
Application granted granted Critical
Publication of JP6899894B2 publication Critical patent/JP6899894B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本願発明の実施形態は、均質領域を有する既知のパターンを検出する方法に関する。この方法は、既知のパターンの画像、または既知のパターンの少なくとも一部の画像を撮影するステップ、および検出を実行するステップを含む。検出は少なくとも2つのステップを含む。すなわち、画像の第1の領域の初期検出と画像の第2の領域内の既知のパターンの特徴の検出である。第2の領域は第1の領域に隣接して配置されている。初期検出は、パターンの領域の位置、および/または領域の向き、またはその歪など、少なくとも1つの領域パラメータを推定する目的を有する。これから出発して、チェッカーボードのコーナーのような特徴が検出可能である第2の領域が選択され得る。この第2の検出ステップは、第2の領域内の特徴の位置などの少なくとも1つの領域パラメータを取得することを目的としている。【選択図】図1a

Description

本願発明の実施例は、一様な領域を有する既知のパターンを検出するための方法および装置を示す。好ましい実施例は、幾何学的なカメラ較正のためのロバスト(robust)なチェスボード検出を示す。
ほぼすべてのカメラ、特に広い視野角を持つカメラは、これを較正する必要がある。このような広視野角のカメラは、内視鏡によく使用される。
内視鏡手術は、さまざまな疾患に対する一般的な臨床診療である。とりわけ、内視鏡器具を用いた低侵襲手術は、腹部臓器(腹腔鏡検査)、関節(関節鏡検査)、または脳(脳神経外科)に対して実施される。内視鏡検査では、優れた方向性、調整、および外科医の優れた運動技能が要求される。従って、外科医にナビゲーション支援を提供するコンピュータシステムはますます重要になっている。内視鏡を通した視界と手術部位の幾何学的配置とを関連付けるナビゲーションシステムは、較正されたカメラを必要とする。これに関連して、較正は、固有のカメラパラメータを推定するプロセスを示す。歪んだピンホールカメラモデルの固有のパラメータは、焦点距離、主点、そして半径方向と接線方向の歪みパラメータで構成されている。
通常、カメラの較正は、2段階のプロセスからなる。第1に、既知の較正パターンが画像内で検出される。第2に、較正パラメータは、パターン上の点と画像内のそれらの射影との間の対応関係に基づいて推定される。
内視鏡用途のためのカメラ較正はいくつかの課題をもたらす。内視鏡は、通常90°ないし120°の間の典型的な視野角を持つ広角レンズを持っている。従って、歪効果は非常に強い。内視鏡の光学的設定により、光源は光学中心の近くにある。これはしばしば、強い不均質性、まぶしさ、ケラレ効果、および照度の低い領域での高い画像ノイズを引き起こす。臨床環境内では、非技術系スタッフが迅速に較正プロセスを実行できなければならない。その結果、較正方法は、被写体ブレ、フォーカス外れ、および部分的にキャプチャされたパターンの記録を確実に処理しなければならない。
さまざまなパターンが開発されている。それでも、平面チェスボードパターンが最も確立されている。マロンら(Mallon ea al.)(非特許文献8)は、強い遠近法や放射状の歪がある場合、チェスボードパターンが円パターンよりも優れていることを示した。(ARTags (非特許文献6)のような)自己識別ターゲットは、より複雑で、高解像度で低ノイズの画像を必要とする。
以下では、最先端技術によるアプローチについて説明する。エルンストら(Ernst et al.)は、領域ベースのアプローチを用いたロバストカラーチャート検出のための方法を紹介した(特許文献1)(非特許文献5)。バレットら(Baretto et al.)は、内視鏡カメラ較正の要件(非特許文献1)(特許文献2および特許文献3)に準拠するように特に設計され、その後改良された較正方法(非特許文献9、非特許文献10)を紹介した。フュサテルら(Fuersattel et al.)は、照明条件が悪く、低解像度の画像でチェッカーボードパターンを(部分的に隠れている)検出する別のアプローチを提案している(非特許文献7)。
しかしながら、上記の概念のいずれも、強い歪、画像のブレ、ノイズ、および部分的に見えるターゲットを扱うのに十分ロバストではない。したがって、改善されたアプローチに対する必要性がある。
本願発明の目的は、例えばカメラの較正を可能にするために、困難な条件下で平面較正ターゲット、すなわちチェスボードのようなものをロバストに検出するための概念を提供することである。
主題は、独立請求項の主題によって解決される。
本願発明の実施形態は、チェスボードなどの均質な領域を有する既知のパターンを検出するための方法に関する。この方法は、既知のパターンの画像、または既知のパターンの少なくとも一部の画像を撮影するステップ、および検出を実行するステップを含む。検出は少なくとも2つのステップを含む。すなわち、画像の第1の領域の初期検出と画像の第2の領域内の既知のパターンの特徴の検出である。第1の領域(例えばチェスボードの3×3部分)は少なくとも2つの均質な領域を含む。第2の領域(例えば、2×2チェッカーボードモデル)は、第1の領域に隣接して配置されており、これもまた少なくとも2つの均質な領域を含む。初期検出は、パターンの領域の位置、および/または領域の向き、またはその歪など、少なくとも1つの領域パラメータを推定する目的を有する。これから出発して、チェッカーボードのコーナーのような特徴が検出可能である第2の領域が選択され得る。この第2の検出ステップは、第2の領域内の特徴的な機能の位置などの少なくとも1つの領域パラメータを取得する目的を有し、ここで特徴とは、(例えば)特徴が既知のパターンへのマッピングを可能にすることを意味する。
本願発明の実施形態は、較正ターゲット、ここでは均質な領域を有する既知のパターン、を検出するためのプロセスがロバストかつ正確な方法で実行され得るとき、較正プロセスが改善され得るという知識に基づく。本明細書に開示された教示によれば、パターン/チェスボードの検出は二段階戦略に従って行われる。最初の段階では、較正ターゲットの一部の生の推定値、例えばチェスボードの3×3部分がこの部分を検出し、空間内のパターンの生の向きなどの第1のモデルパラメータを取得するために実行される。この第1の推測から始めて、隣接領域内の特徴を検出するために、既に検出された第1の領域に隣接する領域が調査される。最初の部分の最初の推測から始めて、パターンの生の位置がわかるはずであるが、空間内の既知のパターンの正確な(またはより正確な)位置は、特徴の決定によって改良することができる。特徴は、決定が、例えばコーナーの決定であり得るようなコーナーであり得る。このアプローチは信頼性があり、強い歪、画像のブレ、ノイズ、そして部分的に見えるターゲットを処理する。それはロバストであり、カメラ較正、例えば内視鏡カメラのための較正ターゲットの正確な決定を提供する。
更なる実施形態によれば、更なる改良を達成できるように、特徴決定は更なる領域、例えば第1の領域から第2の領域を通る方向に延びる方向の複数の領域、について繰返されてもよい。別の実施形態によれば、追加のモデルパラメータ(第3の領域に対するモデルパラメータ、例えば第3の領域内のコーナーの位置)を得るために、特徴検出を第1または第2の領域に隣接する第3の領域に対して繰返すことができる。追加の特徴が見つからなくなるまで、さらなる領域に対してさらなる反復が実行されてもよい。反復は、第1の領域から第2の領域を通って延びる第1の方向内で、または第1の方向から延びていない第1の領域から延びる別の方向内で実行されてもよい。実施形態によれば、次の特徴決定が行われる領域は、適応カメラモデル(例えば、カメラの歪を記述する)および較正ターゲットのシミュレートモデルに基づいて選択される(ここで、シミュレーションは、以前に決定された特徴および/または較正ターゲットの特徴部分の初期検出に基づいて行われる。)。これは、換言すれば、実施形態によれば、第1、第2、第3のまたは他の領域内の特徴の検出後に、カメラの挙動を記述するカメラ較正パラメータが更新され、第2、第3のまたは他の領域を選択する連続する(任意の)ステップは、更新されたカメラパラメータに基づいて実行される。
実施形態によれば、特徴検出はコーナー検出である。例えば、チェスボードを較正ターゲットとして考えるとき、コーナー検出は、それぞれが2×2フォーマットのチェッカーボードモデルであるテンプレートを使用することによって実現され得る。検出は、テンプレートと、画像の第1、第2、第3のまたは他の領域の画像との間の比較によって行われる。一般的にコーナーは長方形ではないので、テンプレートをコーナーに合わせるために比較中に変形することができる。実施形態によれば、テンプレートと撮影された画像との間の比較は、画像の第1、第2、第3のまたは他の領域内の部分と1つ以上のテンプレートとの間の対応を決定することによって行われる。ここで、チェッカーボードモデルの2つのフィールドの平均ピクセル値の間の強度差を決定されることができ、ここで強度差の最大値は一致を示す。あるいは、チェッカーボードモデルの2つのフィールドの標準偏差を決定することができ、ここで最小値はマッチングを示す。このアプローチは以下の数式で表すことができる。
さらなる実施形態によれば、射影モデルの決定を実行することができる。この射影モデルは、それぞれのモーフ可能モデル、およびそれぞれのモーフ可能モデルの各頂点(第1、第2、第3のまたは他の領域に属する)が画像内に線形に射影されるという仮定に基づいている。
実施形態によれば、最初の検出は、第1の領域の異なる部分/位置/サブ領域に対して計算されなければならない、いわゆる判別基準を使用して実行される。ここで、この計算は、第1の領域を発見するために、画像全体内の異なる(サブ)領域および/または異なるピクセルの分布に対して実行される。第1の領域は、判別基準が最大限満たされたときに発見される。ここで、計算が迅速に行われることができるように、計算がいくつかのピクセル、例えば、領域当たり5ピクセル、または一般に、その領域のすべてのピクセルより少ない限られた数のピクセルについてのみ行われることは有益である。なお、ピクセル数が多いほど、より正確に判定できるため、ピクセル数は、演算性能と演算精度とのトレードオフに基づくことに留意されたい。
別の実施形態は、カメラの較正方法を提供し、ランダム法は、上述のようなパターン検出と、少なくともカメラ較正パラメータ、例えば、レンズ歪の計算とを使用する。内視鏡カメラはしばしば強いレンズ歪を有するので、この較正方法は内視鏡カメラに有利に使用され得る。
別の実施形態は、コンピュータ上で実行しているときに上記の方法ステップのうちの1つを実行することを可能にするコンピュータプログラムを提供する。さらなる実施形態によれば、上記方法の実行を可能にする装置が提供される。
次に、添付の図面を参照しながら本願発明の実施形態を説明する。
図1aは、基本的な実施形態によるカメラを較正するための方法を示す概略フローチャートを示す図である。 図1bは、改善された実施形態によるカメラを較正するための方法の改善されたバージョンを示す別の概略フローチャートを示す図である。 図2aは、実施形態による、カメラを較正し、カメラ較正パラメータを調整するための方法の6つの異なるステップ中の較正ターゲットの7つの画像を示す図である。 図2bは、実施形態による、カメラを較正し、カメラ較正パラメータを調整するための方法の6つの異なるステップ中の較正ターゲットの7つの画像を示す図である。 図2cは、実施形態による、カメラを較正し、カメラ較正パラメータを調整するための方法の6つの異なるステップ中の較正ターゲットの7つの画像を示す図である。 図2dは、実施形態による、カメラを較正し、カメラ較正パラメータを調整するための方法の6つの異なるステップ中の較正ターゲットの7つの画像を示す図である。 図2eは、実施形態による、カメラを較正し、カメラ較正パラメータを調整するための方法の6つの異なるステップ中の較正ターゲットの7つの画像を示す図である。 図2fは、実施形態による、カメラを較正し、カメラ較正パラメータを調整するための方法の6つの異なるステップ中の較正ターゲットの7つの画像を示す図である。 図2gは、実施形態による、カメラを較正し、カメラ較正パラメータを調整するための方法の6つの異なるステップ中の較正ターゲットの7つの画像を示す図である。 図3は、実施形態による初期推定を実行するために使用されるサンプリング点と共にチェッカーボードモデルを示す図である。 図4は、実施形態による特徴検出/コーナー検出に使用される7つの異なる形態のテンプレートのドラマティックな表現を示す図である。 図5aは、実施形態によるモーフテンプレートの最適化前後の2×2チェッカーボードモデルを使用したサブピクセルの正確なコーナ検出の原理を説明するための2つの異なる概略図である。 図5bは、実施形態によるモーフテンプレートの最適化前後の2×2チェッカーボードモデルを使用したサブピクセルの正確なコーナ検出の原理を説明するための2つの異なる概略図である。 図6aは、候補の例を示す2つの異なる図を示す図である。 図6bは、候補の例を示す2つの異なる図を示す図である。 図7は、パターン検出を実行するためのアルゴリズムを示す図である。
以下、本願発明の実施の形態について図面を参照しながら説明する。ここで、同一または類似の機能を有する要素またはステップには、同一の参照番号が付されている。したがって、その説明は入替可能であり相互に適用可能である。
図1aは、均質な領域10aおよび10bを有する既知のパターン10を検出するための基本方法100を示す。既知のパターン10は、例えば、チェスボードまたは例えば、円周で構成されているか、QRコード(登録商標)の配置を持っている他の規則的または不規則的なパターンであってもよい。通常、しかし不必要に、領域10aおよび10bは白黒であり、それによって同じものが高いコントラストを提供する。しかしながら、さらなる実施形態によれば、均質な領域は異なる色を有してもよい。方法100は、3つの基本ステップ110、120、および130を含む。
第1のステップ110において、パターン10全体またはパターン10の一部の写真が撮影される。この写真から始めて、ステップ120および130を使用してパターン検出が行われる。
ステップ120内で、第1の領域12の初期検出が行われる。この初期検出は、例えば試行錯誤の手順を用いて、すなわちパターン10の画像内の異なる領域についていわゆる判別基準を計算すること(パッチサイクル12’参照)によって実行されてもよい。ここで、判別基準を最大限に満たすために、画像内の異なる位置および/または領域12の異なる向きを計算することができる。検出のこの第2のステップ120は、領域の位置など、第1の領域についての少なくとも1つの領域パラメータの生の推定値を得るという目的を有する。
このステップ120に関して、このステップは任意選択であり、初期推定を迅速に実行するために限られた数のピクセルに対する判別基準の計算に基づいて実行されることに留意されたい。この第1の領域パラメータに基づいて、理論的には、この知識をカメラの較正に使用できるように、空間内のパターンの向きを計算することが可能である。しかしながら、実際には、領域パラメータの最初の推測は、一般にカメラ較正パラメータを推定するために、特に既知のパターン、例えばチェスボードのコーナー、の特徴を検出する次のステップ130への入力として、2つの問題に使用される。
第1の領域パラメータ(ステップ120参照)は既知であるので、ステップ130内で決定されるべき特徴の概略位置は既知であるように、既知のパターン10は、事実上空間内に配置することができる。この知識から、特徴が検索される(選択される)第2の領域14が始まる。ここで、第2の領域14は、第1の領域12と隣接している。「ここで」とは、例えば、第2の領域14が第1の領域12に隣接すること、またはそれが近くにあることを意味し、その間に別の領域が配置されてもよい。この選択された第2の領域14に基づいて、既知のパターンの特徴を検出するステップ130が、その特徴の少なくとも1つの領域パラメータ、例えばチェスボードのコーナーの正確な位置、を取得するために実行される。なお、第2の領域14は、第1の領域12と重っていてもよいし、第1の領域12の一部であってもよいことに留意されたい。従って、ステップ130は、(以下に説明するように)領域12内の特徴/コーナーを決定するために実行される。
今、領域に対する少なくとも1つの領域パラメータが分かっているので、パターンを決定することができる。しかしながら、これをより正確に決定するために、さらなる実施形態によれば、第3の領域またはさらなる領域(破線を有する矢印)についてステップ130を繰返すことが可能である。ここで、第3の領域(符号16参照)は、第1の領域12から第2の領域14を通って画像10の縁に至る方向に並んでいてもよい。あるいは、第3の領域は別の領域(例えば、第3の領域16’)に配置されてもよい。通常、ステップ130は、実施形態によれば、追加の特徴が発見できなくなるまで繰返される。各反復について、カメラ較正パラメータは、図1bに関して論じられるように更新され得る。
図1bは、3つのフェーズ、すなわち初期推定フェーズ220、パターン成長フェーズ230、およびオプションのパラメータ最適化フェーズ240からなる方法200を示す。
初期段階220では、いわゆる予備サンプリング戦略221を使用して、チェッカーボードの位置およびサイズに対する初期推定値を発見する。これに関連して、この予備サンプリング戦略を示す図2aおよび図2cが参照される。この予備サンプリング戦略は、第1の領域12を発見するという上記のアプローチに実質的に準拠する(ステップ120参照)。
ステップ222内で最良の一致が選択され、そこからパターン成長段階230が開始される。このパターン成長段階230内で、推測はサブピクセル精度のコーナー位置にリファインされる。このステップは、コーナー231のリファインと呼ばれる。ここで、実施形態によれば、異なる形態のテンプレートを使用する手法が使用される。テンプレートはまた、変形可能なコーナーモデルとも呼ばれる。ここで、テンプレートと第2の領域14内の画像との間の比較は、第2の領域14内の異なる位置で行われ、検出すべきコーナーに同じように適応(歪、シフト)するようにテンプレートを変形するために変形パラメータが変化させられる。比較の結果、1つの変形されたテンプレートが1つの位置で最良の一致を達成する。この位置は、領域パラメータとして選択される。ステップ232を参照されたい。
決定された領域パラメータは、パラメータ最適化のために使用される(240参照)。ここで、ステップ241に示すように、カメラ較正(モデル)パラメータが再推定される。
再推定されたカメラ較正(モデル)パラメータから始めて、パターン成長段階230が継続する。ここで、新しい候補を作成するステップ233、すなわち新しい領域、例えば第3の領域16、を検索するステップ233が実行される。この候補が発見されると、新しい特徴(コーナー)が発見できなくなくなるまで、ステップ231および232が繰返される。この決定は、位相パラメータ最適化240内で、すなわち決定ステップ242を使用して行われる。これは、換言すれば、拡張フェーズが、検出されたコーナーの近くにある新しいチェッカーボードのコーナー/特徴を繰返し検索し、カメラパラメータを更新することを意味する(ステップ241参照)。これは、図2を見ると、図2eおよび2fによって示されている。
新たな特徴/コーナーが発見できなくなった後、方法200は終了する(243参照)。ここでは、図2gに示すように、全ての特徴/コーナー(参照番号X)が検出される。
この方法200および特に段階220、230、および240について、さらに詳細に説明する。
初期推定フェーズ220
方法200は、チェッカーボードのサイズ、姿勢および位置の初期推定値を有する。ここでは、3×3チェッカーボードモデルの画像(図3参照)を定期的にスキャンして、チェッカーボードモデルと画像との高い対応位置を見つける(図2a、2b参照)。その位置で、9つのチェッカーボードのパッチのそれぞれの中の5つの点Pの強度がサンプリングされる。
図3は、領域12を発見するために使用されるランダムサンプリングモデルを示す。参照番号Pでマークされた点はサンプルを示す。モデルは2つのグループ(黒と白)の均質な領域で構成されている点に留意されたい。
位相パターン成長230
最初の推測に基づいて、拡張フェーズでは、新しいチェッカーボードのコーナーを繰返し検出する。検出されたチェッカーボードのコーナーごとに、4つの直接隣接コーナーをコーナー候補と見なし、コーナー検出を実行する。それから、それに応じて初期の推測をリファインする。パターン成長フェーズは主に領域ベースのコーナー検出で構成されているため、この方法はブレやノイズに対して非常にロバストとなる。このプロセスを詳細に説明するために、非常に柔軟なパラメータ化およびその画像空間への射影を可能にするモーフ可能モデルが導入される。
このモーフ可能モデルは、クーツおよびテイラー(Cootes and Taylor)による点分布モデル(pdm)の影響を受ける(非特許文献3)。デフォルトのテンプレートからの各変形テンプレートの偏差は、pdmの変動モードに類似している。しかしながら、モーフ可能モデルは、より単純な誤差曲面を生み出すために人為的により多くの自由度を導入する。また、モデル座標系でのスケーリングと平行移動も考慮されている。
図5に関して、2×2チェッカーボードを使用したサブピクセル精密コーナ検出が示されている。ここで、図5aは最適化前のコーナーモデルを示し、図5bは最適化処理後のコーナーモデルを示す。
歪モデリングに使用される係数の数は、モデルの精度に影響を与える。ツァイ(Tsai)は、産業用マシンビジョンのアプリケーションでは、1つの係数で半径方向歪のみをモデル化するのが適切であると指摘する(非特許文献11)。バレット(Barreto)らは、内視鏡検査用途には、1つより多くの半径方向係数を使用することが有利であり得ることを示している(非特許文献1)。好ましい用途は、強い歪効果を示す内視鏡画像を扱う。従って、他のものと同様に、2つの半径方向係数と2つの接線方向係数が使用される(非特許文献13、非特許文献14)。
図6は、縮退の結果(図6a参照)または高い残差(図6b参照)のために外された候補の2つの例を示す。
このようにして、μrとσrを効率的に近似することができ、高速でロバストなローカルコーナー検出器を実装することができる。サブピクセル精度を達成するためにバイリニアサンプリングが適用される。このステップは推定240を可能にする。
上記の実施形態は、古典的なチェスボードパターンに焦点を当てて論じられてきたが、提案された方法が他の較正ターゲットにも同様に適応され得ることは明らかである。たとえば、コーナーモデルを適切なモデルに置換え、パターン成長のために近傍定義を置換えるだけでよい。
疎領域サンプリングの場合、現在のアプローチでは、領域/面積あたり5つのサンプリング点が、サンプルあたり45のサンプリング点まで使用されることに留意されたい。
その数は確実に減らすことができる。おそらく2つか1つのサンプリングポイントで十分であり、それは手順をスピードアップするであろう。さらに、十字(5パッチ)またはX(5パッチ)などの他のテンプレート形式も有用であり得る。もちろん、結果はより弱くなるかも知れない。これは、候補が見つかるとすぐに近くで検索されることで補われる可能性がある。
実施形態によれば、変形テンプレートは、コーナー検出に使用されるだけでなく、上述の円を検出するためにも使用され得る(パターンが円によって形成される場合)。ここで、テンプレートは、(楕円を形成するように)異なってモーフされた円を含む。そのような円テンプレートは、位置、例えば円の中心を検出することを可能にする。
上記の実施形態では、コーナー検出は、モーフテンプレートを使用する手法に基づいて説明された。しかしながら、アフィン変換に基づくアプローチのような他のコーナー検出技術も可能である。
カメラモデルに関しては、焦点が合っていないカメラモデルがあることに注意すべきである。好ましくは、標準的なブラウン−コンラディモデルが使用される。
もちろん、異なるカメラモデルを接続するのは簡単である。そのためには、上述のようにモデルから画像座標へのマッピングを置き換えることで十分である。
更なる実施形態は、例えば内視鏡用カメラについての較正プロセスを参照する。この手法は、さらなる実施形態によれば、自動マルチカメラ較正に適合させることができる。
マルチカメラ設定の較正では、座標原点が較正画像のシーケンス全体で一定である必要がある。このために、通常、座標原点を定義するためにチェッカーボードフィールドの少なくとも1つにある種のマーカーを配置する。マーカーは、領域ベースのアプローチによって容易にモデル化および検出を行うことができる。代わりに、チェッカーボードフィールドのいくつかは特定の色を持つことができる。特定の/異なる色を有するフィールドは、同様に座標系の原点を局所化することを可能にする。さらに、特定の色を有するマーカーおよび視野は、たとえパターンの一部しか画像によって示されていなくても、検出されたとき、空間内のパターンの近似配向を可能にする。さらに、色付きのフィールドまたはマーカーは、外部較正やマルチカメラ構成の較正に役立つ(これらの較正では通常複数のフレームが使用されるため)。
勾配降下最適化に関して、コーナー検出器残差を最小にするために、レーベンバーグ−マーカート法を使用する代わりに、勾配ベースの手法を適用することもできることに留意されたい。それは、特に数値微分を自動識別によって置換えることによって、より効率的な実装を可能にし得る。
色収差の推定に関しては、適切なモデルと組合せて、色収差を検出するためにアプローチを容易に拡張することができることに留意されたい。このため、チェッカーボード検出を各カラーチャンネルに別々に適用することができる。
いくつかの態様が装置の文脈で説明されてきたが、これらの態様が対応する方法の説明も表すことは明らかであり、ブロックまたはデバイスは方法ステップまたは方法ステップの特徴に対応する。同様に、方法ステップの文脈で説明された態様はまた、対応する装置の対応するブロックまたは項目または特徴の説明を表す。方法ステップのいくつかまたはすべては、例えばマイクロプロセッサ、プログラム可能なコンピュータまたは電子回路のようなハードウェア装置によって(または使用して)実行されてもよい。いくつかの実施形態では、最も重要な方法ステップのうちのいくつかの1つ以上がそのような装置によって実行され得る。
特定の実施要件に応じて、本願発明の実施形態はハードウェアまたはソフトウェアで実施することができる。電子的に読み取り可能な制御信号が記憶されているデジタル記憶媒体、例えばフロッピーディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROMまたはFLASHメモリを使用して実施することができ、それらは、それぞれの方法が実行されるようにプログラム可能なコンピュータシステムと協働する(または協働することができる)。従って、デジタル記憶媒体はコンピュータ可読であり得る。
本願発明によるいくつかの実施形態は、本明細書に記載の方法のうちの1つが実行されるように、プログラム可能なコンピュータシステムと協働することができる電子的に読取可能な制御信号を有するデータキャリアを含む。
一般に、本願発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実装することができ、プログラムコードは、コンピュータプログラム製品がコンピュータ上で動作するときに方法のうちの1つを実行するように動作可能である。プログラムコードは、例えば機械可読キャリアに格納することができる。
他の実施形態は、機械可読キャリアに格納された、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムを含む。
換言すれば、本願発明の方法の一実施形態は、したがって、コンピュータプログラムがコンピュータ上で実行されるときに、本明細書に記載の方法のうちの1つを実行するためのプログラムコードを有するコンピュータプログラムである。
従って、本願発明の方法のさらなる実施形態は、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムを記録したデータ記憶媒体(またはデジタル記憶媒体、またはコンピュータ可読媒体)である。データ記憶媒体、デジタル記憶媒体、または記録された媒体は通常、有形および/または非一時的である。
従って、本願発明の方法のさらなる実施形態は、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムを表すデータストリームまたは一連の信号である。データストリームまたは一連の信号は、例えばインターネットなどのデータ通信接続を介して転送されるように構成されてもよい。
さらなる実施形態は、本明細書に記載の方法のうちの1つを実行するように構成または適合された処理手段、例えばコンピュータ、またはプログラマブルロジックデバイスを含む。
さらなる実施形態は、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムをインストールしたコンピュータを含む。
本願発明によるさらなる実施形態は、本明細書に記載の方法のうちの1つを実行するためのコンピュータプログラムを(例えば、電子的または光学的に)受信機に転送するように構成された装置またはシステムを含む。受信機は、例えば、コンピュータ、モバイル機器、メモリ機器などであり得る。装置またはシステムは、例えば、コンピュータプログラムを受信機に転送するためのファイルサーバを含み得る。
いくつかの実施形態では、プログラマブルロジックデバイス(例えばフィールドプログラマブルゲートアレイ)を使用して、本明細書に記載の方法の機能の一部または全部を実行することができる。いくつかの実施形態では、フィールドプログラマブルゲートアレイは、本明細書に記載の方法のうちの1つを実行するためにマイクロプロセッサと協働し得る。一般に、方法は、任意のハードウェア装置によって実行されることが好ましい。
上述の実施形態は、本願発明の原理を説明するための例示にすぎない。本明細書に記載された構成および詳細の修正および変形は、他の当業者にとって明らかであろうことが理解される。従って、差し迫った特許請求の範囲によってのみ限定され、本明細書の実施形態の説明および説明のために提示された具体的な詳細によっては限定されないことが意図されている。
[1] J. Barreto, J. Roquette, P. Sturm, and F. Fonseca. Automatic camera c alibration applied to medical endoscopy. In BMVC 2009-20th British Machine V ision Conference, pages 1-10, London, United Kingdom, 2009. The British Ma chine Vision Association (BMVA). [2] D. C. Brown. Close-range camera calibration. Photogrammetric Engineering, 37:855-866, 1971. 3] T. F. Cootes and C. J. Taylor. Active shape models - 'smart snakes'. In P roceedings of the British Machine Vision Conference, pages 28.1-28.10. BMV A Press, 1992. doi:10.5244/C.6.28. [4] R. O. Duda, D. G. Stork, and P. E. Hart. Pattern classification and scene analysis. Wiley, New York, USA, 2nd edition, 2001. [5] A. Ernst, A. Papst, T. Ruf, and J.-U. Garbas. Check My Chart: A Robust Co lor Chart Tracker for Colorimetric Camera Calibration. In Proceedings of the 6th International Conference on Computer Vision / Computer Graphics Collabo ration 8 Techniques and Applications, MIRAGE '13, pages 5:1-5:8, New York, NY, USA, 2013. ACM. [6] M. Fiala and C. Shu. Fully automatic camera calibration using self-identi fying calibration targets. 2005. [7] P. Fuersattel, S. Dotenco, S. Placht, M. Balda, A. Maier, and C. Riess. O cpad - occluded checkerboard pattern detector. In Applications of Computer Vision (WACV), 2016 IEEE Winter Conference on, March 2016. [8] J. Mallon and P. F. Whelan. Which pattern? biasing aspects of planar cali bration patterns and detection methods. Pattern recognition letters, 28(8):9 21-930, 2007. [9] A. Malti and J. P. Barreto. Hand-eye and radial distortion calibration for rigid endoscopes. The International Journal of Medical Robotics and Comp uter Assisted Surgery, 9(4):441-454, 2013. [10] R. Melo, J. Barreto, and G. Falcao. A New Solution for Camera Calibration and Real-Time Image Distortion Correction in Medical Endoscopy - Initial Te chnical Evaluation. IEEE Transactions on Biomedical Engineering, 59(3):634- 644, Mar. 2012. [11] R. Tsai. A Versatile Camera Calibration Technique for High-accuracy 3D Ma chine Vision Metrology Using Off-the-shelf TV Cameras and Lenses. In L. Wolf f, S. Shafer, and G. Healey, editors, IEEE Journal of Robotics and Automatio n, pages 221-224. USA, 1987. [12] P. Viola and M. Jones. Rapid object detection using a boosted cascade of simple features. In Proceedings of the IEEE Computer Society Conference on C omputer Vision and Pattern Recognition, volume 1, pages 511-518. IEEE, 200 1. [13] G.-Q. Wei and S. D. Ma. Implicit and explicit camera calibration: theory and experiments. IEEE Transactions on Pattern Analysis and Machine Intellige nce, 16(5):469-480, 1994. [14] Z. Zhang. A flexible new technique for camera calibration. In IEEE Transa ctions on Pattern Analysis and Machine Intelligence, page 22, 2000.
国際公開第2012113732号 国際公開第2013015699号 国際公開第2014054958号

Claims (26)

  1. 均質な領域(10a,10b)を有する既知のパターンを検出するための方法(100,200)であって、前記方法(100,200)は、
    前記既知のパターン(10)の少なくとも一部のイメージを取得するステップ(110)と、
    少なくとも2つの均質な領域(10a,10b)を含む、前記イメージの第1の領域(12)を最初に検出して、前記第1の領域(12)のための少なくとも1つの領域パラメータを評価するステップ(120)と、
    少なくとも2つの均質な領域(10a,10b)を含み前記第1の領域(12)に隣接する、前記イメージの第2の領域(14)内で前記既知のパターン(10)の特徴を検出して、前記第2の領域(14)内の前記特徴の少なくとも1つの領域パラメータを取得するステップ(130)とを含む、方法(100,200)。
  2. 前記方法(100,200)は、前記第1の領域(12)内の前記特徴を検出(130)して、前記第1の領域(12)についての前記少なくとも1つの領域パラメータを検証および/または適合するステップをさらに含む、請求項1に記載の方法(100,200)。
  3. 前記特徴を検出(130)するステップは、前記イメージの第3の領域(16)について繰返し適用され、前記第3の領域(16)は、少なくとも2つの均質な領域(10a,10b)を含み、前記第1および/または第2の領域(14)に隣接して、前記第3の領域(16)内の前記特徴についての少なくとも1つの領域パラメータを取得する、請求項1または2に記載の方法(100,200)。
  4. 前記既知のパターン(10)の特徴を検出する(130)前記ステップは、付加的な特徴が見つからなくなるまで他の領域について繰返し適用される、または、
    前記既知のパターン(10)の特徴を検出する(130)前記ステップは、前記第1の領域(12)から延びて第2の領域(14)および/または第3の領域(16)を通る方向に別の領域について、この方向に追加の特徴が見つからなくなるまで繰返される、請求項3に記載の方法(100,200)。
  5. 前記第1,第2,第3または別の領域内で特徴を検出するステップの後に、前記カメラの前記挙動(behavior)を記述するカメラ較正(caribration)パラメータが更新される、請求項1ないし4のいずれか1項に記載の方法。
  6. 前記更新は、前記第1,第2,第3または別の領域内の特徴についてシミュレートされた領域パラメータに基づいて、および、前記それぞれの特徴の検出された領域パラメータに基づいて実行され、
    前記シミュレートされた領域パラメータは、前記既知のパターン(10)および、前のまたは推定されたカメラ較正パラメータに基づいてシミュレートされ、
    前記更新は、前記更新されたカメラ較正パラメータを前記既知のパターン(10)と組合せると、前記検出された領域パラメータと実質的に適合するシミュレートされた領域パラメータがもたらされるように実行される、請求項5に記載の方法。
  7. 前記方法(100,200)は、前記イメージ内の前記第2,第3または別の領域を選択するステップを含み、
    前記選択は、前記更新されたカメラ較正パラメータに基づいてなされる、請求項5または6に記載の方法。
  8. 前記少なくとも1つの領域パラメータは、検出されるべき前記特徴の位置、前記第1,第2,第3または別の領域の位置、前記既知のパターン(10)の歪および/または前記既知のパターン(10)の向きを含む、請求項1ないし7のいずれか1項に記載の方法(100,200)。
  9. 前記既知のパターン(10)は、平面の既知のパターンである、および/または2つの均質な強度を有する、および/または、前記既知のパターン(10)はチェスボードである、請求項1ないし8のいずれか1項に記載の方法(100,200)。
  10. 前記第1,第2,第3または別の領域で前記特徴を検出する前記ステップは、コーナー検出を含む、請求項1ないし9のいずれか1項に記載の方法(100,200)。
  11. 前記コーナー検出は、各々が2×2の均質な領域(10a,10b)を有する2×2フォーマットのチェッカーボードモデルであるモーフされたテンプレートを使用して実行され、前記テンプレートをモーフして前記少なくとも1つの領域パラメータを決定または検証する間に、モーフされた1つのテンプレートと前記第1,第2,第3または別の領域との比較が実行される、請求項10に記載の方法(100,200)。
  12. 前記比較は、前記イメージの前記第1,第2,第3または別の領域内の部分と、前記1つ以上のテンプレートとの間の対応を決定することにより実行される、請求項11に記載の方法(100,200)。
  13. 前記対応は、前記チェッカーボードモデルの2つのフィールドの平均ピクセル値(μra,μrb)の間の強度差が最大であるとき、および/または前記チェッカーボードモデルの2つのフィールドの標準偏差(σra,σrb)が最小であるときに検出される、請求項12に記載の方法(100,200)。
  14. 前記コーナー検出は、モーフパラメータに応じて前記テンプレートをモーフィングして、前記第1,第2,第3または別の領域のためのモーフィングモデルを取得するサブステップを含む、請求項10ないし15のいずれか1項に記載の方法(100,200)。
  15. 前記方法(100,200)は前記1つ以上の決定された領域パラメータおよび前記第1,第2,第3または別の領域の前記それぞれのモーフ可能なモデルの各頂点が前記イメージに射影されているおよび/または歪であるという仮定に基づいて、射影モデルを決定するこのステップをさらに含む、請求項16ないし18のいずれか1項に記載の方法(100,200)。
  16. 前記第1の領域(12)は、3×3パターン(10)の均質な領域(10a,10b)を含む、請求項1ないし20のいずれか1項に記載の方法(100,200)。
  17. 前記最初に検出するステップは、領域あたりの限られた個数のピクセルについて前記判別基準を計算する前記サブステップを含み、前記ピクセルの個数は前記領域の全ピクセルより少なく、
    前記判別基準の前記計算は、異なる領域および/または前記ピクセルの異なる分布について実行され、前記判定基準が満たされるか最大値を有するときに、前記第1の領域(12)が最初に検出される、請求項1ないし21のいずれか1項に記載の方法(100,200)。
  18. カメラを較正するための方法(100,200)であって、前記方法(100,200)は、請求項1ないし23のいずれか1項に記載の、均質な領域を有する既知のパターン(10)を検出するための前記方法(100,200)と、前記第1の領域(12)のための前記少なくとも1つの領域パラメータ、および/または前記第2の領域(124)内の前記特徴の前記少なくとも1つの領域パラメータに基づいて、前記カメラの前記挙動を記述するカメラ較正パラメータを計算するステップを含む、方法(100,200)。
  19. コンピュータ上で動作するときに、請求項1ないし24のいずれか1項に記載の方法(100,200)を実行するためのプログラムコードを有するコンピュータプログラムが格納された、コンピュータ可読デジタル記憶媒体。
  20. 均質な領域(10a,10b)を有する既知のパターン(10)を検出するための装置であって、前記装置は、
    前記既知のパターン(10)のイメージを受信するための入力インターフェースと、
    少なくとも2つの均質な領域(10a,10b)を含む前記イメージの第1の領域(12)を最初に検出して、前記第1の領域(12)のための少なくとも1つの領域パラメータを推定するための計算ユニットとを含み、
    前記イメージの第2の領域(14)内の前記既知のパターン(10)の特徴を検出するために、前記第2の領域(124)は少なくとも2つの均質な領域(10)を含んで前記第1の領域(12)に隣接して前記第2の領域(14)内の前記特徴の少なくとも1つの領域を取得するための計算ユニットとを含む、装置。
JP2019514275A 2016-09-14 2016-09-14 パターン検出 Active JP6899894B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2016/071724 WO2018050223A1 (en) 2016-09-14 2016-09-14 Pattern detection

Publications (2)

Publication Number Publication Date
JP2019533232A true JP2019533232A (ja) 2019-11-14
JP6899894B2 JP6899894B2 (ja) 2021-07-07

Family

ID=56958906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019514275A Active JP6899894B2 (ja) 2016-09-14 2016-09-14 パターン検出

Country Status (5)

Country Link
US (1) US11030452B2 (ja)
EP (1) EP3513382B1 (ja)
JP (1) JP6899894B2 (ja)
PT (1) PT3513382T (ja)
WO (1) WO2018050223A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3557523B1 (de) * 2018-04-18 2021-07-28 B&R Industrial Automation GmbH Verfahren zur erzeugung eines korrekturmodells einer kamera zur korrektur eines abbildungsfehlers
US10369698B1 (en) * 2019-03-07 2019-08-06 Mujin, Inc. Method and system for performing automatic camera calibration for robot control
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10399227B1 (en) * 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
CN112581512A (zh) * 2019-09-27 2021-03-30 鲁班嫡系机器人(深圳)有限公司 图像匹配、3d成像及姿态识别方法、装置及系统
CN111798422B (zh) * 2020-06-29 2023-10-20 福建汇川物联网技术科技股份有限公司 棋盘格角点识别方法、装置、设备及存储介质
CN112381893B (zh) * 2021-01-13 2021-04-20 中国人民解放军国防科技大学 一种面向环形多相机系统的立体标定板标定方法
CN112907462A (zh) * 2021-01-28 2021-06-04 黑芝麻智能科技(上海)有限公司 超广角摄像器件畸变校正方法、系统及包括其的拍摄装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080101693A1 (en) * 2006-10-26 2008-05-01 Intelligence Frontier Media Laboratory Ltd Video image based tracking system for identifying and tracking encoded color surface
US8818132B2 (en) * 2010-11-29 2014-08-26 Microsoft Corporation Camera calibration with lens distortion from low-rank textures
CN103503025B (zh) 2011-02-25 2016-09-07 弗劳恩霍夫应用研究促进协会 基于对对象的模型进行变换来确定模型参数
WO2013015699A1 (en) 2011-07-25 2013-01-31 Universidade De Coimbra Method and apparatus for automatic camera calibration using one or more images of a checkerboard pattern
JP6065656B2 (ja) 2012-05-22 2017-01-25 株式会社リコー パターン処理装置、パターン処理方法、パターン処理プログラム
US10008007B2 (en) * 2012-09-20 2018-06-26 Brown University Method for generating an array of 3-D points
WO2014054958A2 (en) 2012-10-05 2014-04-10 Universidade De Coimbra Method for aligning and tracking point regions in images with radial distortion that outputs motion model parameters, distortion calibration, and variation in zoom
US9503703B1 (en) * 2012-10-05 2016-11-22 Amazon Technologies, Inc. Approaches for rectifying stereo cameras
DE102015009610A1 (de) * 2015-07-22 2017-01-26 Carl Zeiss Meditec Ag Post-operative Modifikation einer Intraokularlinse
AU2017221222B2 (en) * 2016-02-15 2022-04-21 Pictometry International Corp. Automated system and methodology for feature extraction

Also Published As

Publication number Publication date
WO2018050223A1 (en) 2018-03-22
US11030452B2 (en) 2021-06-08
PT3513382T (pt) 2020-11-20
EP3513382B1 (en) 2020-09-02
EP3513382A1 (en) 2019-07-24
US20190205641A1 (en) 2019-07-04
JP6899894B2 (ja) 2021-07-07

Similar Documents

Publication Publication Date Title
JP6899894B2 (ja) パターン検出
Abdelhamed et al. A high-quality denoising dataset for smartphone cameras
US10462362B2 (en) Feature based high resolution motion estimation from low resolution images captured using an array source
JP5989113B2 (ja) 1つまたは複数のチェッカーボードパターンの画像を用いた自動カメラキャリブレーションの方法および装置
Melo et al. A new solution for camera calibration and real-time image distortion correction in medical endoscopy–initial technical evaluation
Wu et al. Keeping a pan-tilt-zoom camera calibrated
WO2018003503A1 (ja) 画像処理装置および画像処理方法、並びに医療用撮像システム
Lee et al. Automatic distortion correction of endoscopic images captured with wide-angle zoom lens
JP2021168143A (ja) ビジョンシステムで画像内のプローブを効率的に採点するためのシステム及び方法
Furukawa et al. Fully auto-calibrated active-stereo-based 3d endoscopic system using correspondence estimation with graph convolutional network
JP6615486B2 (ja) カメラキャリブレーション装置、方法及びプログラム
CN113793266A (zh) 一种多目机器视觉图像拼接方法、系统及存储介质
TWI579800B (zh) 適用於廣角變焦鏡頭拍攝到之影像的影像處理方法
KR20150105190A (ko) 컬러-코드화된 구조를 사용하는 카메라 캘리브레이션 방법 및 장치
Haase et al. ToF/RGB sensor fusion for 3-D endoscopy
JP2013254242A (ja) 画像認識装置、画像認識方法および画像認識プログラム
Zhang et al. A combined approach to single-camera-based lane detection in driverless navigation
CN116016815A (zh) 视频质控方法、视频质控装置以及计算机可读存储介质
Delmas et al. Stereo camera visual odometry for moving urban environments
JP2018116147A (ja) 地図作成装置、地図作成方法及び地図作成用コンピュータプログラム
Kuhl et al. Monocular 3D scene reconstruction at absolute scales by combination of geometric and real-aperture methods
JP2018049396A (ja) 形状推定方法、形状推定装置および形状推定プログラム
Lourenço et al. Continuous zoom calibration by tracking salient points in endoscopic video
Zhang et al. Image mosaic of bionic compound eye imaging system based on image overlap rate prior
CN116503453B (zh) 图像配准方法、装置、计算机可读存储介质及电子设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190514

A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20190514

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210615

R150 Certificate of patent or registration of utility model

Ref document number: 6899894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150