JP6307553B2 - ナビゲーション調整のためのクロススペクトル特徴相関 - Google Patents

ナビゲーション調整のためのクロススペクトル特徴相関 Download PDF

Info

Publication number
JP6307553B2
JP6307553B2 JP2016107401A JP2016107401A JP6307553B2 JP 6307553 B2 JP6307553 B2 JP 6307553B2 JP 2016107401 A JP2016107401 A JP 2016107401A JP 2016107401 A JP2016107401 A JP 2016107401A JP 6307553 B2 JP6307553 B2 JP 6307553B2
Authority
JP
Japan
Prior art keywords
image
data set
edge
pixel data
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016107401A
Other languages
English (en)
Other versions
JP2016224953A (ja
Inventor
マ ユンチェン
マ ユンチェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northrop Grumman Systems Corp
Original Assignee
Northrop Grumman Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northrop Grumman Systems Corp filed Critical Northrop Grumman Systems Corp
Publication of JP2016224953A publication Critical patent/JP2016224953A/ja
Application granted granted Critical
Publication of JP6307553B2 publication Critical patent/JP6307553B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Description

本開示は、ナビゲーションシステムに関し、特に、異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステムを調整するシステム及び方法に関する。
慣性ナビゲーションシステム(INS:Inertial Navigation System)が、航空機などのビークルを誘導するナビゲーションソリューションを提供するために用いられ、且つナビゲーションソリューションを生成するために慣性測定ユニット(IMU:Inertial Measurement Unit)から入力を受信しても良い。ナビゲーションソリューションは、例えば、ビークル制御用に位置、速度及び姿勢を含む。全地球測位システムもまた、INSにおいてナビゲーションソリューションを補正又は較正するために用いることができる。慣性ナビゲーションシステムは、通常、短期間用の正確なソリューションを提供することができる。例えば、IMUにおけるINS加速度計は、純粋な特定の力として現れる未知のバイアス信号を生成する。これは、2回積分されても良く、位置における誤差を生成する。更に、INSソフトウェアは、この積分を行う場合に、加速度計の角位置の推定値を用いる。典型的には、角位置は、IMUにおけるジャイロセンサからの角速度の積分を通して追跡される。これらはまた、ユニットの位置を生成するために、積分に影響する未知のバイアスを生成することができる。GPSは、INSソリューションをリセットするために利用できるか又はカルマンフィルタ(Kalman Filter)などの数学アルゴリズムの利用によってINSソリューションと混合することができる絶対的なドリフトフリー(drift-free)の位置値を提供する。ユニットの角度方向は、GPSからの一連の位置更新から推測することができる。GPSに対する位置の誤差における変化は、未知の角度誤差を推定するために用いることができる。
INSと共にGPSを用いる利益は、INSが、GPS信号によって較正され得ること、及びINSが、GPSより迅速に位置及び角度更新を提供できることである。ミサイル及び航空機などの高動的ビークル用に、INSは、GPS位置間のギャップを満たす。更に、GPSは、その信号を失う可能性があり、INSは、失われたGPS信号の期間中の位置及び角度を計算し続けることができる。2つのシステムは、相補的であり、一緒に用いられることが多い。INSに対するGPS補正を用いてさえ、INSの位置推定は、やはり時間と共にドリフトする可能性がある。場合によっては、ドリフトは、例えば、10分の期間において100メートルを超える誤差の原因となり得る。
米国特許出願公開第2013/0236054号明細書 米国特許出願公開第2013/0250123号明細書 米国特許出願公開第2013/0153788号明細書
本開示は、異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステムを調整するシステム及び方法に関する。一態様において、システムが、第1の二次元画像の画素データセットを有する第1の画像を生成するセンサを含む。データベースが、第2の二次元画像の画素データセットにおける各画素のナビゲーション位置を示す三次元位置データセットを含む、第2の二次元画像の画素データセットを有する第2の画像を提供する。視覚モジュールが、第1の二次元画像の画素データセットから画像エッジ特徴を抽出し、第2の二次元画像の画素データセットから画像エッジ特徴を抽出するエッジ抽出器を含む。視覚モジュールは、第1及び第2の二次元画像の画素データセットからの抽出されたエッジ特徴の画像エッジ特徴比較に基づいて、第1の二次元画像の画素データセットにおける各画素のナビゲーション位置を決定する特徴相関器を含む。特徴相関器は、画像エッジ特徴比較に基づいて、第2の画像からの三次元位置データセットの一部分を第1の画像における相関特徴の一部分に割り当てる。
別の態様において、方法は、第1の画像の画素データセットを第1の画像エッジ領域に変換することを含む。方法は、第2の画像の画素データセットを第2の画像エッジ領域に変換することを含む。第2の画像の画素データセットにおける各画素は、三次元位置データと関連付けられる。方法は、第1及び第2の画像エッジ領域を第1の平滑な画像領域及び第2の平滑な画像領域に変換するために、第1及び第2の画像エッジ領域をフィルタリングすることを含む。これは、第1及び第2の平滑な画像領域間の方向を決定するために、第1及び第2の平滑な画像領域のそれぞれのためのヒストグラムを計算することを含む。方法は、第2の画像の画素データセットと関連する三次元位置データを抽出するために、第2の画像の画素データセットに対する相関に基づいて、第1の画像の画素データセットにおける画素サブセットのナビゲーション位置を決定するように、第1及び第2の平滑な画像領域の方向性エッジ特徴のヒストグラム間の距離を計算することを含む。
更に別の態様において、非一時的なコンピュータ可読媒体が、センサからの赤外線画像の画素データセットを第1の画像エッジ領域に変換するように構成されたコンピュータ実行可能命令を含む。命令は、データベースからの可視画像の画素データセットを第2の画像エッジ領域に変換する。可視画像の画素データセットにおける各画素は、三次元位置データと関連付けられる。命令は、第1及び第2の画像エッジ領域を第1の平滑な画像領域及び第2の平滑な画像領域に変換するために、第1及び第2の画像エッジ領域をフィルタリングする。命令は、第1及び第2の平滑な画像領域間の方向を決定するために、第1及び第2の平滑な画像領域のそれぞれのためのヒストグラムを計算する。命令は、可視画像の画素データセットと関連する三次元位置データを抽出するために、可視画像の画素データセットに対する相関に基づいて、赤外線画像の画素データセットにおける画素サブセットのナビゲーション位置を決定するように、第1及び第2の平滑な画像領域の方向性エッジ特徴のヒストグラム間の距離を計算する。
異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステムを調整するシステムの例を示す。 異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステムを調整する視覚モジュールの例を示す。 画像間のクロススペクトル特徴相関を用いる視覚モジュールを介して調整可能なナビゲーションシステムの例を示す。 可視画像と赤外線画像との間の相関画像エッジ特徴の例を示す。 グリッドに整列され、且つ捕捉赤外線画像との相関のために検索され得るデータベース画像の例を示す。 異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステムを調整する方法の例を示す。 異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステムを調整する並列処理方法の例を示す。
本開示は、異なるスペクトル内容を有する画像間のクロススペクトル特徴相関(cross spectral feature correlation)を介してナビゲーションシステムを調整するシステム及び方法に関する。一態様において、本明細書で説明されるシステム及び方法は、異なるスペクトル内容(例えば赤外線対可視スペクトル)を有する画像からのクロススペクトル特徴抽出と、1つの画像から三次元(3D:three−dimensional)情報を抽出し、且つ抽出情報を別の画像の相関特徴と関連させる相関(例えば照合)アルゴリズムとを提供する。次に、抽出3D情報は、経時的にドリフトした可能性があるナビゲーションシステムの位置を更新及び補正するために用いることができる。可視画像及び電気光学/赤外線画像を含む本明細書で開示されるような撮像システムは、例えば、移動ビークル(moving vehicle)の下又はまわりの地形の写真を捕捉し、且つGPS信号と無関係にナビゲーション補正を提供するための記憶された撮像データベースと比較することができる。従って、GPSが利用可能でない場合に、撮像又は視覚支援システムは、自由な慣性ナビゲーションドリフトを低減することができる。
1つの具体例において、システムは、二次元(2D:two−dimensional)特徴を有する搭載赤外線(IR:infrared)カメラ画像を基準可視帯域マップと相関させる。搭載IRカメラ画像と可視帯域マップとの間の相関後に、システムは、可視マップからの3D位置を2D IR画像特徴位置に移すことができる。赤外線画像を取得するために電気光学(EO:electrical optical)センサを用いることができる。EOセンサベースのナビゲーション(EO sensor based navigation)において、システムは、3D基準マップと関連する外部2D可視画像データベースが存在すると仮定する。この3D基準マップは、可視カメラ画像データベース(例えば可視画像のUSGSデータベース)上に構築することができる。従って、基準マップは、2D(画像の画素)及び3D(緯度、経度及び高度)情報の両方をその中に埋め込む。
搭載カメラデータ収集システムは、IRカメラとすることができ、IRカメラは、ナビゲーションシステムの視覚ベース部分(vision-based portion)用の画像源である。例えば、曇りの条件下では、赤外線データのみが視覚ベース部分によって検出される。例えば、特に、分散開口システム(DAS:distributed aperture system)センサは、航空機又は地上車両に搭載されて360度から捕捉される赤外線帯域の画像を提供する。3D基準マップデータが、可視帯域において利用可能であるため、本明細書で説明されるシステム及び方法は、例えば、可視及びIR帯域において生成された画像間の特徴のクロススペクトル抽出及び相関を実行する。搭載IRカメラ画像と可視帯域マップとの間の相関後に、2D搭載IRシステムにおける特徴画素位置は、クロススペクトル特徴照合を介して、3Dジオロケーション(例えば緯度、経度及び高度)と関連付けることができる。次に、この3Dジオロケーションデータは、ナビゲーションシステム用のナビゲーションソリューション更新を実行するために用いることができる。
図1は、異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステム110を調整するシステム100の例を示す。システム100は、第1の二次元画像の画素データセットを有する第1の画像IMAGE1を生成する1つ(又は複数)のセンサ120を含む。データベース130が、第2の二次元画像の画素データセットにおける各画素のジオロケーション(geo-location)(例えば緯度、経度及び高度)を示す三次元ジオロケーションデータセットを含む、第2の二次元画像の画素データセットを有する第2の画像IMAGE2を提供する。データベース130は、例えば、航空機又は地上車両に搭載されて存在することができ、且つ/又は通信ネットワークを通じて遠隔からアクセスすることができる。データベース130は、合衆国大陸全体のデータなど大きな面積をカバーすることができる。最初の行動は、データベース130におけるどの領域が、搭載センサのIR画像と比較されるかを発見することである。第2のIMAGE2(候補領域画像)は、ナビゲーションシステム110から一般的な位置座標を知ることにより、画像検索モジュール134を介してデータベース130から抽出することができる。一般座標は、IMAGE1が捕捉された座標の近くに一般に存在する(例えば誤差と共に)IMAGE2を検索するために、画像検索モジュール134(例えば以下の図5を参照)によってk次元(KD:k−dimensional)検索において用いることができる。
視覚モジュール(vision module)140は、第1の二次元画像の画素データセットから画像エッジ情報(image edge information from)を、且つ第2の二次元画像の画素データセットから画像エッジ特徴を抽出するエッジ抽出器150(edge extractor)を含む。視覚モジュール140は、第1及び第2の二次元画像の画素データセットからの抽出されたエッジ特徴の画像エッジ特徴比較に基づいて、第1の二次元画像の画素データセットにおける各画素のナビゲーション位置を決定する特徴相関器160を含む。特徴相関器160は、画像エッジ特徴比較に基づいて、第2の画像IMAGE2からの三次元位置データセットの一部分を第1の画像IMAGE1における相関特徴の一部分に割り当てる。一例において、第1の画像IMAGE1は、赤外線周波数センサ120から捕捉することができ、第2の画像IMAGE2は、可視周波数センサ(図示せず)からデータベース130に記憶することができる。
エッジ抽出器150は、勾配演算(gradient operation)を実行し、所定の閾値を超える勾配の大きさを選択してエッジ点画素位置(edge point pixel position)を識別することによって第1及び第2の画像のエッジ点画素位置を識別する。勾配演算は、例えば、ロバーツ演算子(Roberts operator)、プルウィット演算子(Prewitt operator)、ソーベル演算子(Sobel operator)、及び等方性演算子(Isotropic operator)の少なくとも1つを含む勾配演算子を適用することを含む。フィルタ170が、第1及び第2の画像の画素データセットからの抽出されたエッジ特徴を第1の平滑な画像領域及び第2の平滑な画像領域に変換する。本明細書で用いられているように、平滑な(smooth)という用語は、画像における特徴のぼかし(blurring)を指す。例えば、赤外線画像におけるハイウェイの特徴(highway feature)は、可視画像のハイウェイの特徴とは異なる厚さ(thickness)であり、平滑化は、画像間のより正確な比較を可能にする。
1つの具体例において、フィルタ170は、第1及び第2の画像の画素データセットからの抽出されたエッジ特徴を第1の平滑な画像領域及び第2の平滑な画像領域に変換するガウスフィルタを実行する。方向計算機(orientation calculator)180は、第1の平滑な画像領域及び第2の平滑な画像領域のエッジ特徴間の方向を決定するためにヒストグラムを用いる。本明細書で用いられているように、ヒストグラムという用語は、数値データの分布の表現を指す。それは、連続変数(量的変数)の確率分布の推定値である。ヒストグラムを構成するために、第1のステップは、値の方向性(orientation of value)を「ビニング(bin)」すること、即ち、値の方向全体を一連の小さな間隔に分割し、次に、どれだけ多くの値が各間隔に入るかを数えることである。総数に比例した高さ及びビンサイズ(bin size)と等しい幅を備えた矩形が引かれ、その結果、矩形は互いに整列する。相対度数を表示するヒストグラムもまた正規化されても良い。
特徴相関器(feature correlator)160は、第2の画像の画素データセットの一部分に対する計算された距離に基づいて、第1の画像の画素データセットにおける画素の一部分に対して第1及び第2の平滑な画像領域の方向性エッジ特徴のヒストグラム間の距離を計算する。次に、特徴相関器160は、第2の画像の画素データセットと関連する三次元ジオロケーションデータを抽出するために、第1及び第2の平滑な画像領域の方向性エッジ特徴間の計算された距離をランキングし、且つランキングに基づいて第1の画像の画素データセットにおける画素の一部分のナビゲーション位置を決定する。次に、ナビゲーションシステム110は、ナビゲーションシステムのナビゲーションソリューションを補正するために、相関特徴190において、補正された2D/3D(ジオロケーション)位置を受信する。ワーピングモジュール(warping module、例えば図2を参照)は、エッジ抽出器150が処理を開始する前に、第1の画像の約45度の予想図からトップダウンビューへと第1の画像IMAGE1の角度予想を変更するために用いることができる。
上記のように、本明細書で説明されるシステム及び方法は、例えば、可視画像と、赤外線(IR)画像からの特徴のクロススペクトル照合に基づいて、ドリフトに対してビークル(例えば航空機又は地上車両)のナビゲーションシステム110を調整するように用いることができる。システム110は、所与のシーン(例えば地理的位置の空中写真)のIR画像を捕捉するためのIRセンサ120、及び複数の可視画像(例えば地理的位置のアメリカ地質調査所画像(USGS:United States Geological Survey Images))を記憶するためのデータベース130を利用し、複数の画像の1つは、所与のシーンの可視画像に対応する。データベース130に記憶された複数の可視画像は、各可視画像の各所与の画素を特徴づける二次元(2D)可視画素情報(画像強度データ)及び関連三次元(3D)情報(緯度、経度及び高度データ)を有する。
システム100は、データベース130における複数の可視画像からシーンの可視画像を特定するための画像検索モジュール134を含む。画像検索モジュール134は、視覚モジュール140内に示されているが、視覚モジュールから遠隔に位置することができる。画像検索モジュール134は、可視画像を受信するように構成される視覚モジュール140に可視画像IMAGE2を提供する。視覚モジュール140は、本明細書で説明されるようなクロススペクトル特徴相関に従い、可視画像における目立つ画素(prominent pixel)の三次元情報に基づいて、所与のシーンの可視及びIR画像を利用して、IR画像の特徴の目立つ画素位置の三次元情報を取得する。
一例において、クロススペクトル特徴相関は、エッジ抽出器150を含むシーンの可視及びIR画像におけるエッジ領域特徴照合(目立つ画素の識別方法)及び特徴相関器160を介したスペクトル照合(SM:spectral−matching)方法である。エッジ抽出器150は、共通の勾配演算子(例えばソーベル演算子)に基づいて、可視及びIR画像の勾配画像を生成すること、各勾配画像の各画素の勾配値を所定の閾値と比較して最大値の変化を経験する勾配画像内の画素(目立つ画素)を識別すること、最大値の変化を経験する各勾配画像において識別された画素に基づいて、2値エッジ画像(binary edge images)を生成することを含む。このことは、各2値エッジ画像をぼかす(平滑にする)ようにガウス平滑化フィルタ170を用いて、各2値エッジ画像内に示されたエッジの可視厚さを増加させ、且つ可視及びIR画像の平滑な2値エッジ画像(SBEI:smooth binary edge image)を生成する。
特徴相関器160によって用いられるスペクトル照合(又はスペクトル相関)は、(i)それぞれの画像記述子に従い、各SBEIの各画素用の方向計算機180を介して方向ヒストグラムを計算することを含む。特徴相関器160は、(ii)IR画像のSBEIの各画素の方向ヒストグラム(orientation histogram)と、可視画像のSBEIの候補画素(例えば画素の一部又は全て)との間の距離を計算すること、(iii)複数の画素ペアを生成するために、2つの間の計算された距離に従って、IR画像のSBEIの各画素を所与の候補画素と関連付ける(ペアにする)こと、(iv)計算された距離に基づいて複数の画素ペアをランキングすること、複数の画素ペアの所与の割合(例えば上位20%)を選択すること、及び選択された所与の割合を所定の閾値と比較して最も高い信頼度を示す一致する画素ペア(一致/相関特徴)を識別することを更に含む。
視覚モジュール140は、それぞれの画素がペアにされる可視画像における特徴のそれぞれの画素位置と関連する3D情報に基づいて、IR画像の特徴の画素位置に対応する、一致した画素ペアのそれぞれの画素の3D情報を決定するように構成することができる。視覚モジュール140は、IR画像における特徴の画素位置に対する可視帯域の画素の3Dジオロケーションをドリフト用にナビゲーションシステム110を調整するためのカルマンフィルタ(例えば図3を参照)に送信するように更に構成することができる。
図2は、異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介して、ナビゲーションシステムを調整する視覚モジュール200の例を示す。図示されているように、視覚モジュールは、ナビゲーションソリューション220及びIR画像230(例えば1ヘルツの周波数で捕捉される)からデータを受信するワーピングモジュール210を含む。可視画像がトップダウンビュー画像である場合に、第1の処理行動は、45度の予想角度から取得されたIR画像をトップダウンビューIR画像に変更するために、210においてIR画像をワープすることである。データベース240からの可視画像は、2D画像の画素情報、及び3D緯度、経度及び高度情報の両方を有する。ワーピング210後に、特徴照合(又は相関)が、トップダウンビューIR画像対データベース240からのトップダウン可視カメラ画像間で250において実行される。前述のように、特徴照合方法は、エッジ領域など、特徴照合用にIR及び可視画像を或る共通領域にマップするように適用することができる。図示されているように、次に、250における特徴照合後に、2D/3D位置が、ナビゲーションシステムを補正するように利用される270のカルマンフィルタ(KF:Kalman Filter)へと適用され得る、260の一致した特徴用に生成される。カルマンフィルタ270を利用するナビゲーションシステムが、図3と関連して以下で示され説明される。
図3は、画像間のクロススペクトル特徴相関を用いる視覚モジュール310を介して調整可能なナビゲーションシステム300の例を示す。システム300は、ナビゲーション補正をナビゲーションコントローラ330に発行するカルマンフィルタ320を含む。ナビゲーションコントローラ330は、ビークル制御に利用される位置、速度及び姿勢情報を生成する。コントローラは、カルマンフィルタ320に同様に誤差モデル出力を提供する慣性測定ユニット340から速度及び角度データを受信する。カルマンフィルタ320への入力は、GPSモジュール350からの全地球測位データ及び気圧高度計360からの高度計データを含むことができる。GPS350及び高度計360からのデータは、カルマンフィルタ320における観察マトリックス370を介して処理することができる。図示されているように、補正された2D/3D一致特徴位置データ380は、観察マトリックス390を介してカルマンフィルタ320を調整するために、視覚モジュール310によって生成される。補正された位置データ380が、カルマンフィルタ320に提供されるため、補正された位置情報データは、ナビゲーションコントローラ330に提供され、そのそれぞれのナビゲーションソリューション出力を調整する。
図4は、可視画像410と赤外線(IR)画像420との間の相関画像エッジ特徴の例を示す。画像410は、2D可視画素情報を有する画像データベースから検索され、各画素は、例えば、3D緯度、経度及び高度データと関連付けられる。IR画像420は、搭載IRセンサから捕捉されたワープ図(warped view)を表す。出力図430に示されているように、可視画像410を表す440のぼかしエッジ特徴は、IR画像420を表す450のぼかしエッジ特徴と関連付けられる。例えば、照合ライン460は、440のぼかしエッジ特徴が、450のぼかしエッジ特徴と相関される場合を示す。本明細書で説明されるように、点がその間で相関又は照合されるため、可視画像からの3D位置情報データが抽出されて、例えば、赤外線センサなどのセンサから誘導されるナビゲーションシステムを補正することができる。440及び450における画像間の複数のかかる照合点を同様に決定することができる。
図5は、グリッドに分割される、且つ捕捉赤外線画像との相関のために検索されるデータベース画像500の例を示す。画像データベース500は、画像内の各グリッド位置が中央検索点と関連付けられる検索グリッドと整列させることができる。例えば、510におけるグリッド位置は、所定の寸法(例えば100×100メートル)の可視視域を包含することができる。各グリッド位置は、各グリッドの中心における検索点を割り当てられ、検索点は、ナビゲーションシステムの現在位置に最も近いデータベースにおける画像を発見するために検索される。前述のように、k次元(KD)木(tree)が用いられて可視画像のデータベース500を検索して、前に説明したようにドリフトのために誤差がある現在のナビゲーションシステムソリューションによって決定されるような現在のビークル位置及び位置の共分散に最も近いグリッド又は幾つかのグリッドを特定することができる。グリッド510が特定された後で、520における捕捉赤外線画像は、グリッドの可視画像と比較することができる。510における可視画像グリッド及び赤外線画像が、現在のナビゲーションの座標に基づいて一般的に整列された後で、前述のように、エッジ検出、フィルタリング、ヒストグラム方向及び特徴相関は、520における捕捉2D赤外線画像のより正確な3D位置情報データを決定するために用いることができる。
上記で説明したような前述の構造及び機能的特徴を考慮すれば、例示的な方法が、図6及び図7と関連してより良く理解されよう。説明を単純にするために、方法は、連続的に実行されるように図示され説明されるが、方法が、示された順序によって限定されないことを理解及び認識されたい。何故なら、方法の一部が、本明細書で示され説明されるものと異なる順序で且つ/又は同時に行われ得るからである。かかる方法は、例えば、IC又はプロセッサに構成された様々なコンポーネントによって実行することができる。
図6は、異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステムを調整する方法600の例を示す。610において、方法600は、第1の画像の画素データセットを(例えば図1のエッジ抽出器150を介して)第1の画像エッジ領域に変換することを含む。620において、方法600は、第2の画像の画素データセットを(例えば図1のエッジ抽出器150を介して)第2の画像エッジ領域に変換することを含む。第2の画像の画素データセットにおける各画素は、三次元位置データと関連付けられる。630において、方法600は、第1及び第2の画像エッジ領域をフィルタリングして、第1及び第2の画像エッジ領域を(例えば図1のフィルタ170を介して)第1の平滑な画像領域及び第2の平滑な画像領域に変換することを含む。640において、方法600は、第1及び第2の平滑な画像領域のそれぞれのためのヒストグラムを計算して、(例えば図1の方向計算機180を介して)第1及び第2の平滑な画像領域間の方向を決定することを含む。650において、方法600は、(例えば図1の特徴相関器160を介して)第2の画像の画素データセットと関連する三次元位置データを抽出するために、第2の画像の画素データセットに対する相関に基づいて、第1及び第2の平滑な画像領域の方向性エッジ特徴のヒストグラム間の距離を計算して、第1の画像の画素データセットにおける画素の一部分のナビゲーション位置を決定することを含む。
図示されていないが、方法600はまた、エッジ点画素位置を識別するために、勾配演算を実行すること、所定の閾値を超える勾配の大きさを選択することによって、第1及び第2の画像のエッジ点画素位置を識別することを含むことができる。勾配演算は、例えば、ロバーツ演算子、プルウィット演算子、ソーベル演算子、及び等方性演算子の少なくとも1つを含む勾配演算子を適用することを含むことができる。方法600はまた、ガウスフィルタを実行して、第1及び第2の画像の画素データセットからの抽出されたエッジ特徴を第1の平滑な画像領域及び第2の平滑な画像領域に変換することを含むことができる。方法600は、第2の画像の画素データセットと関連する三次元位置データを抽出するために、第1及び第2の平滑な画像領域の方向性エッジ特徴間の計算された距離をランキングし、且つランキングに基づいて第1の画像の画素データセットにおける画素の一部分のナビゲーション位置を決定することを含むことができる。方法600はまた、ナビゲーションシステムのナビゲーションソリューションを補正するために、ナビゲーション位置を用いてナビゲーションシステムを更新することを含むことができる。
図7は、異なるスペクトル内容を有する画像間のクロススペクトル特徴相関を介してナビゲーションシステムを調整する並列処理方法700の例を示す。710で始まって、方法700は、可視画像処理を含む。710において、方法は、2D可視画像と関連する3D位置情報を有する2D可視画像を取得する。例えば、2D可視画像における各画素は、画素の画素強度データと関連する緯度、経度及び高度データ(例えば画素と関連する別個のメモリ位置における)を有することができる。714において、方法700は、前述のように、可視画像の2Dエッジ画像を抽出することを含む。720において、方法700は、ガウスフィルタを用いて可視画像のぼかし画像を生成することを含む。724において、方法700は、ぼかし可視画像の方向のヒストグラムを計算することを含む。
730で始まる方法700の別の処理経路は、赤外線画像処理を含む。730において、方法は、2D赤外線画像を取得する。734において、方法700は、前述のように、赤外線画像の2Dエッジ画像を抽出することを含む。740において、方法700は、ガウスフィルタを用いて赤外線画像のぼかし画像を生成することを含む。744において、方法700は、ぼかし(又は平滑な)赤外線画像の方向のヒストグラムを計算することを含む。
それぞれ724及び744としてのヒストグラム計算からの出力は、方法700の750において処理される。750において、赤外線画像のぼかし画像エッジ特徴に対するぼかし可視画像の画像エッジ特徴の1つ又は複数間の距離が計算される。距離は、例えば、それぞれの特徴を分離する画素を数えることによって決定することができる。760において、方法700は、750からの計算された距離(例えば上位20の最も近い距離)をランキングすること、エッジ特徴間の上位の一致(又は相関)を選択すること、可視画像からのエッジ特徴が、赤外線画像からのエッジ特徴と一致する(例えばほぼ同じか又は相関する)かどうかを決定するために、距離を所定の閾値と比較することを含む。相関特徴用に、次に、可視画像と関連する3D情報が抽出され、且つ赤外線画像の相関エッジ特徴に割り当てられる。次に、相関3D情報は、ナビゲーションシステムを更新して、そのナビゲーションソリューションを補正するために用いることができる。例えば、その予期した座標から100メートルを超えてドリフトしたソリューションは、本明細書で説明されるクロススペクトル相関を介して、約+/−3メートル内(又は画像データベース精度に依存してより少なく)に補正することができる。
上記で説明したものは、例である。当然のことながら、コンポーネント又は方法論の全ての考えられる組み合わせを説明することは不可能であるが、しかし当業者は、多くの更なる組み合わせ及び置き換えが可能であることを理解されよう。従って、本開示は、添付の特許請求の範囲を含む本出願の範囲内に入る全てのかかる変更形態、補正形態及び変形形態を包含するように意図されている。本明細書で用いられているように、用語「含む」は、含むことを意味するが、しかしそれに限定されず、用語「含んでいる」は、含んでいることを意味するが、しかしそれに限定されない。用語「〜に基づいて」は、少なくとも部分的に基づくことを意味する。更に、本開示又は特許請求の範囲が、「1つの(a)」、「1つの(an)」、「第1の」若しくは「別の」要素、又はそれらの均等物を挙げる場合、それは、1つ又は複数のかかる要素を含むが、2つ以上のかかる要素を要求も排除しないと解釈されるべきである。
100 システム
110 ナビゲーションシステム
120 センサ
130 データベース
134 画像検索モジュール
140 視覚モジュール
150 エッジ抽出器
160 特徴相関器
170 フィルタ
180 方向計算機
200 視覚モジュール
210 ワーピングモジュール
220 ナビゲーションソリューション
230 IR画像
240 データベース
270 カルマンフィルタ
300 ナビゲーションシステム
310 視覚モジュール
320 カルマンフィルタ
330 ナビゲーションコントローラ
340 慣性測定ユニット
350 GPSモジュール
360 気圧高度計
370 観察マトリックス
380 位置データ
390 観察マトリックス
410 可視画像
420 赤外線画像
430 出力図
460 照合ライン
500 画像データベース
510 グリッド位置
520 赤外線画像

Claims (13)

  1. システムであって、
    第1の二次元画像の画素データセットを有する第1の画像を生成するセンサと、
    第2の二次元画像の画素データセットにおける各画素のナビゲーション位置を示す三次元位置データセットを含む前記第2の二次元画像の画素データセットを有する第2の画像を提供するデータベースと、
    視覚モジュールと、を備え
    前記視覚モジュールは、
    前記第1の二次元画像の画素データセットから画像エッジ特徴を抽出し、且つ前記第2の二次元画像の画素データセットから画像エッジ特徴を抽出するエッジ抽出器と、
    前記第1及び第2の二次元画像の画素データセットからの抽出されたエッジ特徴の画像エッジ特徴比較に基づいて、前記第1の二次元画像の画素データセットにおける各画素のナビゲーション位置を決定する特徴相関器と、
    前記第1及び第2の二次元画像の画素データセットからの抽出されたエッジ特徴を第1の平滑な画像領域及び第2の平滑な画像領域に変換するフィルタと、
    ヒストグラムを用いて、前記第1の平滑な画像領域及び前記第2の平滑な画像領域のエッジ特徴間の方向を決定する方向計算機と、を含み、
    前記特徴相関器は、前記画像エッジ特徴比較に基づいて、前記第2の二次元画像からの前記三次元位置データセットの一部分を前記第1の画像における相関特徴の一部分に割り当て、
    前記特徴相関器は、前記第1及び第2の平滑な画像領域の方向性エッジ特徴間の計算された距離をランク付けする、システム。
  2. 前記第1の二次元画像が、赤外線周波数センサから捕捉され、前記第2の二次元画像が、可視周波数センサから前記データベースに記憶される、請求項1に記載のシステム。
  3. 前記エッジ抽出器は、
    勾配演算を実行して、所定の閾値を超える勾配の大きさを選択してエッジ点画素位置を識別することによって前記第1及び第2の二次元画像のエッジ点画素位置を識別する、請求項1に記載のシステム。
  4. 前記勾配演算は、
    ロバーツ演算子、プルウィット演算子、ソーベル演算子、及び等方性演算子の少なくとも1つを含む勾配演算子を適用することを含む、請求項3に記載のシステム。
  5. 前記フィルタが、ガウスフィルタを実行して、前記第1及び第2の二次元画像の画素データセットからの抽出されたエッジ特徴を前記第1の平滑な画像領域及び第2の平滑な画像領域に変換する、請求項に記載のシステム。
  6. 前記特徴相関器は、
    前記第2の二次元画像の画素データセットの一部分への計算された距離に基づいて、前記第1の二次元画像の画素データセットにおける画素の一部分に、前記第1及び第2の平滑な画像領域の方向性エッジ特徴のヒストグラム間の距離を計算する、請求項に記載のシステム。
  7. 前記特徴相関器は
    ランク付けに基づいて、前記第1の二次元画像の画素データセットにおける画素の一部分のナビゲーション位置を決定して、前記第2の二次元画像の画素データセットと関連する前記三次元位置データを抽出する、請求項に記載のシステム。
  8. 方法であって、
    プロセッサが、第1の画像の画素データセットを第1の画像エッジ領域に変換すること、
    前記プロセッサが、第2の画像の画素データセットを第2の画像エッジ領域に変換することであって、前記第2の画像の画素データセットにおける各画素が、三次元位置データと関連付けられる、前記第2の画像エッジ領域に変換すること、
    前記プロセッサによって、前記第1及び第2の画像エッジ領域をフィルタリングして、前記第1及び第2の画像エッジ領域を第1の平滑な画像領域及び第2の平滑な画像領域に変換すること、
    前記プロセッサが、前記第1及び第2の平滑な画像領域のそれぞれのヒストグラムを計算して前記第1及び第2の平滑な画像領域間の方向を決定すること、
    前記プロセッサを介して、前記第1及び第2の平滑な画像領域の方向性エッジ特徴のヒストグラム間の距離を計算して、前記第2の画像の画素データセットに対する相関に基づいて、前記第1の画像の画素データセットにおける画素の一部分のナビゲーション位置を決定し、前記第2の画像の画素データセットと関連する前記三次元位置データを抽出すること、
    前記第1及び第2の平滑な画像領域のエッジ特徴間の距離をランク付けすること、を備える、方法。
  9. 勾配演算を実行して、所定の閾値を超える勾配の大きさを選択してエッジ点画素位置を識別することによって前記第1及び第2の画像のエッジ点画素位置を識別することを更に備える請求項に記載の方法。
  10. 前記勾配演算は、ロバーツ演算子、プルウィット演算子、ソーベル演算子、及び等方性演算子の少なくとも1つを含む勾配演算子を適用することを含む、請求項に記載の方法。
  11. ガウスフィルタを実行して、前記第1及び第2の画像の画素データセットからの抽出されたエッジ特徴を前記第1の平滑な画像領域及び第2の平滑な画像領域に変換することを更に備える請求項10に記載の方法。
  12. コンピュータ実行可能命令を記憶した非一時的なコンピュータ可読媒体であって、前記コンピュータ実行可能命令が、
    センサからの赤外線画像の画素データセットを第1の画像エッジ領域に変換すること、
    データベースからの可視画像の画素データセットを第2の画像エッジ領域に変換することであって、前記可視画像の画素データセットにおける各画素が、三次元位置データと関連付けられる、前記第2の画像エッジ領域に変換すること、
    前記第1及び第2の画像エッジ領域をフィルタリングして、前記第1及び第2の画像エッジ領域を第1の平滑な画像領域及び第2の平滑な画像領域に変換すること、
    前記第1及び第2の平滑な画像領域のそれぞれのヒストグラムを計算して、前記第1及び第2の平滑な画像領域間の方向を決定すること、
    前記可視画像の画素データセットに対する相関に基づいて、前記赤外線画像の画素データセットにおける画素の一部分のナビゲーション位置を決定するように、前記第1及び第2の平滑な画像領域の方向性エッジ特徴のヒストグラム間の距離を計算し、前記可視画像の画素データセットと関連する前記三次元位置データを抽出すること
    前記第1及び第2の平滑な画像領域のエッジ特徴間の距離をランク付けすること、を行うように構成される、非一時的なコンピュータ可読媒体。
  13. 勾配演算を実行して、所定の閾値を超える勾配の大きさを選択してエッジ点画素位置を識別することによって第1及び第2の画像のエッジ点画素位置を識別するコンピュータ実行可能命令を更に備える請求項12に記載の非一時的なコンピュータ可読媒体。
JP2016107401A 2015-05-29 2016-05-30 ナビゲーション調整のためのクロススペクトル特徴相関 Active JP6307553B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/725,964 US9547904B2 (en) 2015-05-29 2015-05-29 Cross spectral feature correlation for navigational adjustment
US14/725,964 2015-05-29

Publications (2)

Publication Number Publication Date
JP2016224953A JP2016224953A (ja) 2016-12-28
JP6307553B2 true JP6307553B2 (ja) 2018-04-04

Family

ID=56008551

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016107401A Active JP6307553B2 (ja) 2015-05-29 2016-05-30 ナビゲーション調整のためのクロススペクトル特徴相関

Country Status (3)

Country Link
US (1) US9547904B2 (ja)
EP (1) EP3106832B1 (ja)
JP (1) JP6307553B2 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106030657B (zh) * 2014-02-19 2019-06-28 皇家飞利浦有限公司 医学4d成像中的运动自适应可视化
US9886040B1 (en) * 2014-09-24 2018-02-06 Rockwell Collins, Inc. System and method for platform alignment, navigation or targeting
EP3413090A4 (en) * 2016-02-06 2019-10-16 Positec Power Tools (Suzhou) Co., Ltd AUTOMATIC OPERATING SYSTEM, AUTOMOTIVE DEVICE AND ITS CONTROL METHOD
DE102016109628A1 (de) * 2016-05-25 2017-11-30 Deutsche Telekom Ag Verfahren zum Bestimmen der Position und/oder Orientierung einer mobilen elektronischen Einrichtung mit Hilfe einer digitalen Wärmebildkamera
WO2019008735A1 (ja) * 2017-07-07 2019-01-10 日本電気株式会社 物品識別装置、物品識別方法、計算装置、システムおよび記録媒体
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
CN107741234B (zh) * 2017-10-11 2021-10-19 深圳勇艺达机器人有限公司 一种基于视觉的离线地图构建及定位方法
CN108344397B (zh) * 2017-12-28 2020-10-23 中国公路工程咨询集团有限公司 基于倾斜摄影技术的自动化建模方法、系统及其辅助装置
CN113228098A (zh) * 2018-12-20 2021-08-06 前视红外系统股份公司 用于气体检测系统和方法的标准和跨度的确定
CN109917791B (zh) * 2019-03-26 2022-12-06 深圳市锐曼智能装备有限公司 移动装置自动探索构建地图的方法
IL265818A (en) * 2019-04-02 2020-10-28 Ception Tech Ltd System and method for determining the position and orientation of an object in space
US11866167B2 (en) * 2019-04-10 2024-01-09 Rhoman Aerospace Corporation Method and algorithm for flight, movement, autonomy, in GPS, communication, degraded, denied, obstructed non optimal environment
CN110188242B (zh) * 2019-05-30 2020-09-04 北京三快在线科技有限公司 无人驾驶设备定位方法、装置、无人驾驶设备和存储介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4464523B2 (ja) * 2000-03-31 2010-05-19 名古屋電機工業株式会社 混雑状況判定装置
JP2008092191A (ja) * 2006-09-29 2008-04-17 Fujifilm Corp 画像処理方法及び装置並びに画像形成方法及び装置
US9324003B2 (en) * 2009-09-14 2016-04-26 Trimble Navigation Limited Location of image capture device and object features in a captured image
JP2011210238A (ja) * 2010-03-10 2011-10-20 Dainippon Printing Co Ltd 広告効果測定装置及びコンピュータプログラム
US8880341B2 (en) * 2010-08-30 2014-11-04 Alpine Electronics, Inc. Method and apparatus for displaying three-dimensional terrain and route guidance
US8639053B2 (en) * 2011-01-18 2014-01-28 Dimension, Inc. Methods and systems for up-scaling a standard definition (SD) video to high definition (HD) quality
US20130027554A1 (en) * 2011-07-31 2013-01-31 Meadow William D Method and Apparatus for Automated Camera Location and Orientation with Image Processing and Alignment to Ground Based Reference Point(s)
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
WO2013126914A1 (en) 2012-02-24 2013-08-29 Ubiquity Broadcasting Corporation Feature detection filter using orientation fields
US8766975B2 (en) * 2012-07-19 2014-07-01 Honeywell International Inc. Method of correlating images with terrain elevation maps for navigation
US9082008B2 (en) 2012-12-03 2015-07-14 Honeywell International Inc. System and methods for feature selection and matching

Also Published As

Publication number Publication date
US20160350927A1 (en) 2016-12-01
US9547904B2 (en) 2017-01-17
EP3106832A2 (en) 2016-12-21
EP3106832A3 (en) 2017-04-19
EP3106832B1 (en) 2020-05-06
JP2016224953A (ja) 2016-12-28

Similar Documents

Publication Publication Date Title
JP6307553B2 (ja) ナビゲーション調整のためのクロススペクトル特徴相関
CN109324337B (zh) 无人飞行器的航线生成及定位方法、装置及无人飞行器
US9082008B2 (en) System and methods for feature selection and matching
US8872851B2 (en) Augmenting image data based on related 3D point cloud data
US8660338B2 (en) Wide baseline feature matching using collobrative navigation and digital terrain elevation data constraints
JP6726932B2 (ja) 走行路メタデータを用いた空中写真/映像におけるコンテキスト・アウェア物体検出
US10627232B2 (en) Method and system for aerial image processing
WO2017080102A1 (zh) 飞行装置、飞行控制系统及方法
US20150199556A1 (en) Method of using image warping for geo-registration feature matching in vision-aided positioning
US20170124745A1 (en) Method and system of stitching aerial data using information from previous aerial images
US9736360B2 (en) Survey data processing device, survey data processing method, and program therefor
US8948446B2 (en) Vision based zero velocity and zero attitude rate update
KR20180015570A (ko) 스테레오 카메라로부터 획득된 이미지 페어를 처리하는 장치 및 방법
US20130093880A1 (en) Height Measurement Apparatus And Method
JP6506031B2 (ja) 測量データ処理装置、測量データ処理方法およびプログラム
US9885569B2 (en) Passive altimeter
US11410329B2 (en) Information processing device, method performed thereby, and non-transitory computer readable medium
Berveglieri et al. Multi-scale matching for the automatic location of control points in large scale aerial images using terrestrial scenes
WO2020076263A2 (en) A system for providing position determination with high accuracy
US20200116482A1 (en) Data thinning device, surveying device, surveying system, and data thinning method
JP2021163154A (ja) 変化点検出装置、制御方法、プログラム及び記憶媒体
CN115797809A (zh) 图像定位方法、装置、设备及存储介质
Artyshenko et al. Integrated visual-aided navigation system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180312

R150 Certificate of patent or registration of utility model

Ref document number: 6307553

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250