JP7391278B2 - レーダ画像から関心領域を自動検出するための学習方法、及び自動検出装置 - Google Patents
レーダ画像から関心領域を自動検出するための学習方法、及び自動検出装置 Download PDFInfo
- Publication number
- JP7391278B2 JP7391278B2 JP2023549976A JP2023549976A JP7391278B2 JP 7391278 B2 JP7391278 B2 JP 7391278B2 JP 2023549976 A JP2023549976 A JP 2023549976A JP 2023549976 A JP2023549976 A JP 2023549976A JP 7391278 B2 JP7391278 B2 JP 7391278B2
- Authority
- JP
- Japan
- Prior art keywords
- procedure
- image
- learning
- interest
- radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 233
- 238000001514 detection method Methods 0.000 title claims description 8
- 230000003287 optical effect Effects 0.000 claims description 54
- 238000012795 verification Methods 0.000 claims description 32
- 238000010801 machine learning Methods 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 description 14
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 3
- 108091093126 WHP Posttrascriptional Response Element Proteins 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 229930002875 chlorophyll Natural products 0.000 description 1
- 235000019804 chlorophyll Nutrition 0.000 description 1
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000003305 oil spill Substances 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
マイクロ波を用いるレーダは、その特性を利用して、昼夜、天候に関係なく、広域を面的に撮影することができる。ただしレーダ画像は、複雑な散乱メカニズム、及びノイズの影響により、地物の判読が難しい。
地物の判読を行う手段として、光学画像を用いることも考えられる。光学画像は、可視域の波長が用いられているため、人が肉眼で見るものと同じ情報が得られ、地物を判読しやすい。ただし光学画像は、良好な天候の時にしか撮影できない。
本開示技術は、さらに先へ進み、レーダ画像から関心領域を自動検出するための学習方法の提供を目的とする。ここで関心領域とは、例えば、海水面上におけるオイル流出、大雨又は地震に起因する土砂崩れ、森林火災、風倒木、浸水、といった災害の箇所などが考えられる。
図1は、実施の形態1に係る、レーダ画像から関心領域を自動検出するための学習方法、の手順を示すフローチャートである。図1に示されるとおり実施の形態1に係る学習方法は、大きく3つの手順に分けられる。3つの手順は、光学衛星画像に係る手順(ST1、ST2、及びST3)と、レーダ衛星画像に係る手順(ST4)と、学習に係る手順(ST5)と、である。
図1に示されるレーダ衛星画像に係る手順は、学習データセットを作成する手順(ST4)を含む。
図1に示される学習に係る手順は、機械学習を行う手順(ST5)を含む。
本開示技術が想定する場面を当てはめれば、レーダ画像が入力画像であり、災害の箇所を災害の種類ごとの色で示したものがマスク画像である。すなわち、レーダ画像を入力したときに、オイル流出、土砂崩れ、森林火災、といった災害の箇所に対して、災害の種類に応じた色のマスキングがされたマスク画像を出力すること、これこそが本開示技術が目指すゴールの一つである。
そこで本開示技術は、レーダ衛星画像と、少なくとも一部が同じ領域を撮影した光学衛星画像と、をペアにし、ペア画像の情報から学習用データセットと検証用データセットとを作り上げていくことを考える。すなわち本開示技術は、学習用データセットを作成する手順において、レーダ衛星画像と同じ領域を撮影した光学衛星画像とのペアを用いる。図1に示された光学衛星画像に係る手順(ST1、ST2、及びST3)とレーダ衛星画像に係る手順(ST4)とは、本開示技術がペア画像を用いることを表している。
一般に、航空写真及び衛星画像は、撮影領域の半分が次の画像と重なるタイミングでシャッターが押される。そして撮影された複数の画像により、全体のデータが作り上げられている。よって、光学衛星画像とレーダ衛星画像とは、厳密なペアである必要はないが、全体として同じ領域がカバーされていればよい。
なお学習用データセットは、以降、単に「学習データセット」と称する。また検証用データセットは、以降、単に「検証データセット」と称する。
本開示技術は、光学画像についてあらかじめセマンティックセグメンテーションを行っておくとよい。光学画像についてのセマンティックセグメンテーションは、例えばFCN(Fully Convolutional Networks)により実現されてよい。FCNは、CNNの一種であるが、領域全体をカバーする1×1の畳込みを行うことを考えて、全結合層を畳込み層に置き換えても同じような結果を得るという性質を有する。FCNは、入力画像のサイズを修正する必要がない、という利点がある。FCNには、入力された光学衛星画像から関心領域を検出するための特徴量を算出する過程、すなわち特徴量を算出する手順(ST1)、が含まれている。
光学画像についてのセマンティックセグメンテーションは、FCNのほか、SegNet、U-Net、PSPNet、DeepLab、等で行ってもよい。
ここでNIRは近赤外域(Landsat8のBand5)の反射率を、REDは赤色光(Landsat8のBand4)の反射率を、それぞれ表す。NDVIは、-1から1の間に正規化された数値で示され、植生が濃い場合、NDVIの値が大きくなる。NDVIが或る閾値以上を示す画素は、植生を観測した画素であると判断してよい。
また、本開示技術は、或る時期の基準となる画像と現在の画像と、2つの時期の画像を比較してもよい。2つの時期の画像を比較し、NDVIの変化量を評価することで、植生に関する変化を検出することもできる。
NDVI及びその他のバンド間演算を活用した方法の詳細は、実施の形態3以降の説明により明らかとなる。
衛星画像の各画素は、地図上の位置、例えば緯度経度と対応付けることができる。特許文献1に例示されたレーダ画像と光学画像とを重ね合わせる技術も、それぞれの画像が地図上の位置という共通の座標系で表すことができるため、実現できるものである。地図は、地球上の一部又は全部である実空間を座標系の情報として表したものと考えてよい。
具体的に対象位置を検出する手順(ST2)は、光学衛星画像について関心領域の画素を特定し、その画素に対応づけられた地図上の位置を求める、というものである。
レーダ衛星画像についての学習データセットの作成手順は、さらに詳細な手順に分解できる。詳細手順その1は、レーダ衛星画像について、ペアとなる光学衛星画像を準備することである。詳細手順その2は、ペアとなる光学衛星画像についてのマスク画像を参照することである。詳細手順その3は、マスク画像における画素と対応づけられた地図上の位置から、マスク情報を地図座標上の情報に変換することである。ここでマスク情報は、画素単位で与えられたラベル情報にほかならない。最後に詳細手順その4は、地図座標上のマスク情報から、レーダ衛星画像についてのマスク画像を作り上げていくことである。レーダ衛星画像とそのマスク画像とが、レーダ衛星画像についての学習データセットとなる。
実施の形態1に係る方法は、学習モデルを得る段階までを示したものである。実施の形態2に係る方法は、実施の形態1に係る方法を含み、学習モデルを検証する手順をさらに備えるものである。
実施の形態2において、実施の形態1と重複する説明は適宜省略される。
検証を行った結果が許容できる範囲の正しさであった場合、学習を終了する。検証を行った結果が許容できる範囲の正しさでなかった場合、学習用のデータを追加し、学習を継続する。
実施の形態1及び実施の形態2に係る方法は、関心領域の種類を限定せず、汎用的な方法であるといえる。
実施の形態3は、関心領域を倒木に限定し、倒木に特化した、レーダ画像から関心領域を自動検出するための学習方法について明らかにする。
実施の形態3において、既出の実施の形態と重複する説明は適宜省略される。
光学衛星画像は、少なくとも赤色光と近赤外光のマルチスペクトルデータを含むものが用いられる。
またレーダ衛星画像は、Lバンドといった植物の枝葉を透過する波長帯のものが用いられる。
マルチスペクトルデータを含む光学衛星画像は、光学衛星に搭載するカメラをマルチスペクトルカメラ、又はハイパースペクトルカメラとすることで準備されてもよい。マルチスペクトルカメラにより得られる画像は、マルチスペクトル画像と称される。マルチスペクトルデータを読み込むことは、マルチスペクトル画像を得ることと同義であると考えてよい。
ここでは、倒木前後のマルチスペクトル画像のそれぞれから、NDVIが算出される。実施の形態3に係る方法は、「倒木が発生した領域は、幹部分の露出及びクロロフィルの吸収の減少からNDVIが低下するであろう」という推測原理に基づく。
実施の形態3に係る方法は、バンド間演算における赤色光の反射率に代えて、短波長赤外光の反射率を利用することも考えられる。バンド間演算に単波長赤外光の反射率を用いるNDWI(Normalized Difference Water Index)の詳細は、実施の形態4の説明により明らかとなる。
ここでは、例えば倒木が発生したと推定される台風の前後の画像データについて、NDVIの差を計算する。
ここでは、第3の手順で求めたNDVIと閾値とを比較し、閾値を超える画素は倒木が発生した関心領域の画素であると判断する。倒木に係るNDVIの閾値は、経験的に求めた値が用いられてよい。図3に示されるNDVIの変化量と閾値とを比較する手順(ST34)のフローチャートブロックにおいて、ΔNDVIはNDVIの変化量を、σVΔは閾値を、それぞれ表す。
実施の形態3は、関心領域を倒木に限定し、倒木に特化した、レーダ画像から関心領域を自動検出するための学習方法であった。
実施の形態4は、関心領域を浸水に限定し、浸水に特化した、レーダ画像から関心領域を自動検出するための学習方法について明らかにする。
実施の形態4において、既出の実施の形態と重複する説明は適宜省略される。
浸水の発生した領域を関心領域とする場合、学習データセットとして、浸水発生前後の光学衛星画像及びレーダ衛星画像が用いられる。浸水発生前後は、例えば大雨の前後、又は台風の前途としてもよい。
光学衛星画像は、少なくとも近赤外光と短波長赤外光のマルチスペクトルデータを含むものが用いられる。
なお一般にレーダ衛星画像は、浸水発生前後の後方散乱係数に変化が生じることが知られている。この性質は、レーダ衛星画像から浸水が発生した関心領域を特定できることを裏付けている。
ここでNIRは近赤外域(Landsat8のBand5)の反射率を、SWIRは短波長赤外域(Landsat8のBand6又はBand7)の反射率を、それぞれ表す。
ここでは、第2の手順で求めたNDWIと閾値との比較が各画素について行われる。浸水発生前のマルチスペクトル画像においてはNDWIが閾値よりも小さいが、浸水発生後のマルチスペクトル画像においてはNDWIが閾値よりも大きい、といった条件が検討される。この条件が当てはまる画素は、もともとは陸域であり、浸水が発生した領域についての画素であると判断される。浸水に係るNDWIの閾値は、経験的に求めた値が用いられてよい。図4に示されるNDWIと閾値とを比較する手順(ST43)のフローチャートブロックにおいて、NDWIpreは浸水発生前のマルチスペクトル画像におけるNDWIを、NDWIpostは浸水発生後のマルチスペクトル画像におけるNDWIを、それぞれ表す。また同フローチャートブロックにおいて、σWpreは浸水発生前のマルチスペクトル画像におけるNDWIの閾値を、σWpostは浸水発生後のマルチスペクトル画像におけるNDWIの閾値を、それぞれ表す。なお、σWpreとσWpostとは、同じ値であってもよい。
レーダ画像から浸水が発生した領域を自動検出する場面において、あらかじめ地図上のどの位置が水域であるかがわかれば、誤検出を減らすことが期待できる。
実施の形態5は、実施の形態4に係る学習方法を基礎とし、積極的に水域情報を用いる学習方法について明らかにする。
実施の形態5において、既出の実施の形態と重複する説明は適宜省略される。
前述のとおり地理空間情報データベースが利用できれば、誤検出を減らすことが期待できる。さらに地理空間情報データベースすることは、学習に必要な衛星画像の枚数を減らすことも期待できる。
実施の形態5に係るNDWIと閾値とを比較する手順(ST54)は、実施の形態4に係るNDWIと閾値とを比較する手順(ST43)と比較して、浸水発生前の状態における陸域又は水域の判断の仕方が異なる。実施の形態5は、浸水発生前のマルチスペクトル画像のNDWIと閾値との比較に代えて、直接、地理空間情報データベースから得た水域情報を利用する。
また地理空間情報データベースを利用できる状況にあれば、本開示技術は積極的にこれを利用し、誤検出を減らし、学習に必要な衛星画像の枚数を減らすこともできる。
実施の形態3から実施の形態5までは、NDVI及びNDWIを用いる方法について明らかにしてきた。
実施の形態6は、さらに別のバンド間演算であるNDSI(Noralized Difference Snow Index)について開示し、多時期の観測データを用いる方法の態様を明らかにする。また実施の形態6では、関心領域を災害が発生した箇所に限定しない。
図6に示されるとおり、実施の形態6に係る方法は、学習モデルを得る手順と、学習モデルを検証する手順と、に分けられる。学習モデルを得る手順は、特徴量を算出する手順(ST61)と、特徴量の変化量を算出する手順(ST62)と、特徴量の変化量と閾値とを比較する手順(ST63)と、教師ラベルを作成する手順(ST64)と、教師ラベルを読み込む手順(ST65)と、学習データセットを作成する手順(ST66)と、機械学習を行う手順(ST67)と、を含む。学習モデルを検証する手順は、検証データセットを作成する手順(ST68)と、検証結果を確認する手順(ST69)と、を含む。
ここでGREENは緑色域(Landsat8のBand3)の反射率を、SWIRは短波長赤外域(Landsat8のBand6又はBand7)の反射率を、それぞれ表す。
本開示技術を適用する光学衛星画像は、多時期の観測データであってよい。多時期の観測データに対してNDSIを算出することによって、積雪があった地域及び時期を特定することができる。
Claims (7)
- 光学衛星画像から関心領域を検出するための特徴量を計算し、
前記特徴量を用いて前記関心領域の地図上の位置を検出し、
レーダ衛星画像について、前記位置に対して教師ラベルを付けたマスク画像を生成し、
前記レーダ衛星画像と前記マスク画像とからなる学習データセットを作成し、
前記学習データセットを用いて機械学習を行うことにより、前記レーダ衛星画像から前記関心領域を検出するための学習モデルを生成する、
学習方法。 - さらに、前記学習データセットとは異なる検証データセットを用いて、前記機械学習を行った前記学習モデルを検証する、
請求項1に記載の学習方法。 - 前記特徴量はNDVIを含み、
前記関心領域は倒木が発生した地域である
請求項1に記載の学習方法。 - 前記特徴量はNDWIを含み、
前記関心領域は浸水が発生した地域である
請求項1に記載の学習方法。 - 地理空間情報データベースを利用して前記教師ラベルを生成する
請求項4に記載の学習方法。 - 前記光学衛星画像は多時期の観測データであり、
前記特徴量はNDSIを含む、
請求項1に記載の学習方法。 - 前記レーダ衛星画像と前記学習モデルを用いて、前記関心領域を自動検出する自動検出装置において、
前記学習モデルが、請求項1から6までのいずれか1項に記載の学習方法により学習された、
自動検出装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/040695 WO2023079669A1 (ja) | 2021-11-05 | 2021-11-05 | レーダ画像から関心領域を自動検出するための学習方法、及び自動検出装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2023079669A1 JPWO2023079669A1 (ja) | 2023-05-11 |
JP7391278B2 true JP7391278B2 (ja) | 2023-12-04 |
Family
ID=86240836
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023549976A Active JP7391278B2 (ja) | 2021-11-05 | 2021-11-05 | レーダ画像から関心領域を自動検出するための学習方法、及び自動検出装置 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7391278B2 (ja) |
WO (1) | WO2023079669A1 (ja) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009047516A (ja) | 2007-08-17 | 2009-03-05 | Pasuko:Kk | 地物情報判読用画像生成方法およびプログラム |
US20160019458A1 (en) | 2014-07-16 | 2016-01-21 | Deep Learning Analytics, LLC | Systems and methods for recognizing objects in radar imagery |
WO2017179171A1 (ja) | 2016-04-14 | 2017-10-19 | 三菱電機株式会社 | 画像処理装置及び画像処理方法 |
WO2020022110A1 (ja) | 2018-07-27 | 2020-01-30 | パナソニック株式会社 | レーダデータ処理装置、物体判別装置、レーダデータ処理方法、および物体判別方法 |
US20200065624A1 (en) | 2018-08-23 | 2020-02-27 | Palantir Technologies Inc. | Machine learning assistant for image analysis |
WO2020116194A1 (ja) | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
CN111311022A (zh) | 2020-03-12 | 2020-06-19 | 深圳前海微众银行股份有限公司 | 发电量预测方法、装置、设备及计算机可读存储介质 |
US20200364830A1 (en) | 2019-05-16 | 2020-11-19 | Here Global B.V. | Method, apparatus, and system for task driven approaches to super resolution |
CN112434745A (zh) | 2020-11-27 | 2021-03-02 | 西安电子科技大学 | 基于多源认知融合的遮挡目标检测识别方法 |
-
2021
- 2021-11-05 WO PCT/JP2021/040695 patent/WO2023079669A1/ja active Application Filing
- 2021-11-05 JP JP2023549976A patent/JP7391278B2/ja active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009047516A (ja) | 2007-08-17 | 2009-03-05 | Pasuko:Kk | 地物情報判読用画像生成方法およびプログラム |
US20160019458A1 (en) | 2014-07-16 | 2016-01-21 | Deep Learning Analytics, LLC | Systems and methods for recognizing objects in radar imagery |
WO2017179171A1 (ja) | 2016-04-14 | 2017-10-19 | 三菱電機株式会社 | 画像処理装置及び画像処理方法 |
WO2020022110A1 (ja) | 2018-07-27 | 2020-01-30 | パナソニック株式会社 | レーダデータ処理装置、物体判別装置、レーダデータ処理方法、および物体判別方法 |
US20200065624A1 (en) | 2018-08-23 | 2020-02-27 | Palantir Technologies Inc. | Machine learning assistant for image analysis |
WO2020116194A1 (ja) | 2018-12-07 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 情報処理装置、情報処理方法、プログラム、移動体制御装置、及び、移動体 |
US20200364830A1 (en) | 2019-05-16 | 2020-11-19 | Here Global B.V. | Method, apparatus, and system for task driven approaches to super resolution |
CN111311022A (zh) | 2020-03-12 | 2020-06-19 | 深圳前海微众银行股份有限公司 | 发电量预测方法、装置、设备及计算机可读存储介质 |
CN112434745A (zh) | 2020-11-27 | 2021-03-02 | 西安电子科技大学 | 基于多源认知融合的遮挡目标检测识别方法 |
Non-Patent Citations (1)
Title |
---|
鳥屋 剛毅 ほか,敵対的生成ネットワークを用いたSAR衛星画像と光学衛星画像の対応点探索法,電子情報通信学会技術研究報告,日本,2020年01月16日,第119巻, 第386号,第7-12頁,ISSN:0913-5685 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2023079669A1 (ja) | 2023-05-11 |
WO2023079669A1 (ja) | 2023-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ghorbanzadeh et al. | Landslide4sense: Reference benchmark data and deep learning models for landslide detection | |
Mallinis et al. | Comparing ten classification methods for burned area mapping in a Mediterranean environment using Landsat TM satellite data | |
US20230298196A1 (en) | Geospatial object geometry extraction from imagery | |
Singh et al. | Identification of flooded area from satellite images using Hybrid Kohonen Fuzzy C-Means sigma classifier | |
TR201807718T4 (tr) | Bir alandaki bir arazi türünün sınıflandırılmasına yönelik yöntem ve sistem. | |
CN116468730B (zh) | 基于YOLOv5算法的航拍绝缘子图像缺陷检测方法 | |
CN110569797A (zh) | 地球静止轨道卫星影像山火检测方法、系统及其存储介质 | |
Huang et al. | Landslide monitoring using change detection in multitemporal optical imagery | |
CN114399734A (zh) | 一种基于视觉信息的森林火灾预警方法 | |
CN115205709A (zh) | 一种基于卫星遥感的森林火点识别方法 | |
Farasin et al. | Supervised Burned Areas Delineation by Means of Sentinel-2 Imagery and Convolutional Neural Networks. | |
JP7391278B2 (ja) | レーダ画像から関心領域を自動検出するための学習方法、及び自動検出装置 | |
Iannone et al. | Proba-V cloud detection Round Robin: Validation results and recommendations | |
CN111931648A (zh) | 一种基于Himawari8波段数据的山火实时监测方法 | |
Sah et al. | Semi-automated cloud/shadow removal and land cover change detection using satellite imagery | |
CN116504014A (zh) | 一种基于多维感知的森林火灾监测方法及系统 | |
Rajan et al. | Forest fire detection using machine learning | |
Won et al. | An experiment on image restoration applying the cycle generative adversarial network to partial occlusion Kompsat-3A image | |
CN114550016A (zh) | 一种基于上下文信息感知的无人机定位方法及系统 | |
Shubhasree et al. | Uav image analysis of flooded area using convolutional neural networks | |
Kouchi et al. | Damage detection based on object-based segmentation and classification from high-resolution satellite images for the 2003 Boumerdes, Algeria earthquake | |
Azimi et al. | Automatic object segmentation to support crisis management of large-scale events | |
Ramirez et al. | Mapping vegetation, water bodies and urban areas in PeruSAT-1 satellite imagery | |
Ranjani et al. | Forest Fire Detection using Convolutional Neural Networks (CNN) | |
Singh et al. | Convolutional Neural Networks for Early Detection of Forest Fires |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230818 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231002 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231121 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7391278 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |