JP7475745B1 - バイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出方法 - Google Patents
バイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出方法 Download PDFInfo
- Publication number
- JP7475745B1 JP7475745B1 JP2023131096A JP2023131096A JP7475745B1 JP 7475745 B1 JP7475745 B1 JP 7475745B1 JP 2023131096 A JP2023131096 A JP 2023131096A JP 2023131096 A JP2023131096 A JP 2023131096A JP 7475745 B1 JP7475745 B1 JP 7475745B1
- Authority
- JP
- Japan
- Prior art keywords
- smoke
- flame
- detection
- target
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 234
- 239000000779 smoke Substances 0.000 claims abstract description 187
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000012549 training Methods 0.000 claims abstract description 28
- 239000010410 layer Substances 0.000 claims description 126
- 230000006870 function Effects 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 25
- 230000002787 reinforcement Effects 0.000 claims description 21
- 230000004927 fusion Effects 0.000 claims description 19
- 238000005457 optimization Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 14
- 230000004048 modification Effects 0.000 claims description 14
- 238000012986 modification Methods 0.000 claims description 14
- 238000012937 correction Methods 0.000 claims description 10
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 230000008713 feedback mechanism Effects 0.000 claims description 6
- 230000015654 memory Effects 0.000 claims description 6
- 230000000873 masking effect Effects 0.000 claims description 4
- 239000011229 interlayer Substances 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 238000003379 elimination reaction Methods 0.000 claims 1
- 239000011159 matrix material Substances 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Fire Alarms (AREA)
Abstract
Description
無人航空機によってターゲット領域の画像を空撮して取得し、且つ取得したターゲット領域の画像に対して、煙タブ及び火炎タブをそれぞれ付し、煙トレーニングセット及び火炎トレーニングセットを構築するステップ1と、
ステップ1における煙トレーニングセット及び火炎トレーニングセットを利用して、ターゲット領域の画像における煙及び火炎という2つのターゲットの特徴に対して、バイナリ検出ネットワークの構築及びトレーニングを行い、ここで、前記バイナリ検出ネットワークは、それぞれ改善されたFCOSネットワークを基準とする煙検出分岐及び火炎検出分岐を含むステップ2と、
トレーニングされたバイナリ検出ネットワークを用いて、無人航空機によってリアルタイムで空撮して取得されたターゲット領域の動画の現フレームを検出し、煙検出分岐及び火炎検出分岐の検出結果を融合して出力するステップ3と、
ターゲット領域の動画が終了するまで、ステップ3を繰り返し、ターゲット領域の動画の次フレームを検出するステップ4と、を含む。
FPNレイヤの回帰ベクトルセットΨ=[Ψ1,Ψ2,…Ψi,…ΨN]を構築し、Nは、タブカテゴリの総数であり、Ψiは、1つの7タプルであり、前の5つの位置はFPNレイヤのデフォルト回帰範囲であり、6番目の位置はタブカテゴリであり、7番目の位置は範囲修正フラグビットであるステップ2.1と、
現フレームにおける1つの画素サイズがk×kである所定ターゲットに対して、デフォルト回帰スケールの範囲に基づいて、そのデフォルトレイヤPl’を決定するステップ2.2と、
異なるFPNレイヤの損失値に対して、最小値の判断を行い、判断の式は次の通りであり、
現フレームの検出結果において煙検出分岐及び火炎検出分岐にいずれもターゲットが検出されていない場合、無煙無火の状況であり、協調強化フィードバックを選択し、
現フレームの検出結果において煙検出分岐にターゲットが検出されており、一方、火炎検出分岐にターゲットが検出されていない場合、有煙無火の状況であり、協調最適化フィードバックを選択し、
煙検出分岐にターゲットが検出されておらず、一方、火炎検出分岐にターゲットが検出されている場合、有火無煙の状況であり、協調強化フィードバックを選択し、
煙検出分岐及び火炎検出分岐にいずれもターゲットが検出されている場合、煙検出分岐に検出された最小ターゲット煙面積を
1)現フレームIt-1(x,y)の検出結果における煙及び火炎の検出情報に基づいて、カルマンフィルタ方法を用いて、次フレームIt(x,y)における煙及び火炎のターゲット領域を予測し、それぞれ煙ターゲット領域セット
2)第1の画素の判別関数を構築し、Asm及びAfirにおける煙及び火炎のターゲット領域内の第1の画素の判別関数値が0である画素ドットを除去し、新しい煙ターゲット領域セット
3)フレーム間差分法を用いて、It(x,y)におけるA’sm及びA’fir以外の煙及び火炎のターゲットを位置決め、具体的に次の通りであり、
S31:It(x,y)及びIt-1(x,y)においてA’smが含まれない画像
S32:フレーム差領域Dsm(x,y)及びDfir(x,y)を取得し、
S34:It(x,y)において
4)It-1(x,y)は有煙無火の状況である場合、It(x,y)検出を行う時に、
さらに、現フレームIt-1(x,y)の検出結果における煙及び火炎の検出情報に基づいて、速度に基づいて修正されたカルマンフィルタ方法に基づいて、次フレームIt(x,y)における煙及び火炎のターゲット領域を予測し、ここで、カルマンフィルタの速度の修正の計算プロセスは次の通りであり、
(1)It-1(x,y)は無煙無火の状況である場合、It(x,y)検出を行う時に、バイナリ検出ネットワークにおける煙検出分岐及び火炎検出分岐におけるFPNの各レイヤ特徴重みωlに対して、アダプティブ調整を行い、調整された重みは、
(2)It-1(x,y)は有火無煙の状況である場合、It(x,y)検出を行う時に、バイナリ検出ネットワークにおける火炎検出分岐のFPNのレイヤ特徴重みωlに対して、アダプティブ調整を行い、具体的なステップは次の通りであり、
先ず、It-1(x,y)に検出された複数の火炎ターゲットの識別確率に対してソーティングを行い、識別確率が最も小さい火炎ターゲットをSfirとし、対応する識別確率をPfirとし、
次に、現在の煙ターゲットのスケール回帰範囲に基づいて、Sfirに対してFPNレイヤスケール位置決めを行い、FPNレイヤに位置決められたものを
その後、識別確率Pfir及び設定したターゲットの所望確率PEを利用して、バイナリ検出ネットワークにおける火炎検出分岐のFPNの各レイヤの特徴重みに対して修正を行い、修正後の重みは次の通りであり、
煙検出分岐におけるωlの修正の面でみれば、先ず、識別確率が最も小さい煙ターゲットSsm、対応する確率Psmを取得し、対応するFPNレイヤ
煙検出分岐と同じな調整ステップに基づき、火炎検出分岐におけるGx,y,l及びω’lを調整し、
(4)It-1(x,y)は煙が小さく火炎が大きい場合、It(x,y)検出を行う時に、バイナリ検出ネットワークにおける煙検出分岐のレイヤ融合重みωlに対して、有火無煙の状況である場合に火炎検出分岐におけるωlに対する修正方式によって調整を行い、一方、火炎検出分岐におけるωlに対して、煙が大きく火炎が小さい場合に火炎検出分岐におけるωl に対する修正方式によって調整を行う。
ステップ1:FCOSネットワークが煙ターゲット及び火炎ターゲットを検出する効果は良くないため、本発明は、煙及び火炎のターゲット特徴に基づいて、FCOSモデルの基幹ネットワーク、回帰分岐及びトレーニングポリシーを改善する。
(1)現在のレイヤにおける回帰ターゲットl*、t*、r*、b*を計算する。
(2)max(l*、t*、r*、b*)>l又はmax(l*、t*、r*、b*)<mF-1を満たすか否かを判断する。
(3)満たす場合、この境界枠に対して回帰の予測を行わない。
改善されたFCOSネットワークの全体構成図は図3に示されており、FCOSネットワークの改善は具体的に次の通りである。
がレイヤPl’-1又はPl’+1の損失値に一致する場合、このターゲットがFPNの様々なレイヤのスケール回帰に弱く関連すると考えられ、対応するターゲットのカテゴリのレイヤの回帰ベクトルΨiの7番目の位置を0に設定し、且つスケール制限の範囲を修正し、修正は次の通りである。
γt = (xtc, ytc, wt, ht, vtx, vty, vtw, vth)T
式では、xtc、ytcは、第t時刻のターゲットの検出枠の中心座標を示し、wtは、検出枠の幅を示し、htは、検出枠の高さを示し、vtx、vty、vtw、vthは、それぞれの速度の変化値を示す。
森林のシーンにおいて、煙及び火炎の色特徴は比較的に際立って、煙は一般的に白色、灰色及び黒色で現れ、一方、火炎は一般的に赤茶色、オレンジ色で現れる。従って、本発明は、煙及び火炎の色スペース特徴に基づいて、火炎及び煙ターゲットに対する第1の画素の判別関数を提出し、具体的な計算は次の通りである。
ステップ三:フレーム間差分法を用いて、A’sm又はA’fir
領域からずれる一部の煙又は火炎ターゲットを位置決め、具体的は次の通りである。
その後、識別確率Pfir及びターゲットの所望確率PEを利用して、重みを修正し、関連計算は次の通りである。
Claims (9)
- バイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出方法であって、
無人航空機によってターゲット領域の画像を空撮して取得し、且つ取得したターゲット領域の画像に対して、煙タブ及び火炎タブをそれぞれ付し、煙トレーニングセット及び火炎トレーニングセットを構築するステップ1と、
ステップ1における煙トレーニングセット及び火炎トレーニングセットを利用して、ターゲット領域の画像における煙及び火炎という2のターゲットの特徴に対して、バイナリ検出ネットワークの構築及びトレーニングを行い、ここで、前記バイナリ検出ネットワークは、それぞれ改善されたFCOSネットワークを基準とする煙検出分岐及び火炎検出分岐を含むステップ2と、
トレーニングされたバイナリ検出ネットワークを用いて、無人航空機によってリアルタイムで空撮して取得されたターゲット領域の動画の現フレームを検出し、煙検出分岐及び火炎検出分岐の検出結果を融合してから出力するステップ3と、
ターゲット領域の動画が終了するまで、ステップ3を繰り返し、ターゲット領域の動画の次フレームを検出するステップ4とを含み、
前記ステップ2において改善されたFCOSネットワークを基準とし、ここで、改善されたFCOSネットワークの構築プロセスは、基幹ネットワークResNetのC3とC4との間、及びC4とC5との間に、それぞれ1つのCBAMのアテンションモジュールを追加し、回帰分岐において、変形可能なコンボリューションで、元のコンボリューションカーネルを置き換えることである、ことを特徴とするバイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出方法。 - 前記改善されたFCOSネットワークは、トレーニングを行う時に、FPNレイヤの回帰のアダプティブトレーニング決定方法を採用しており、具体的なプロセスは、
FPNレイヤの回帰ベクトルセットΨ=[Ψ1,Ψ2,…Ψi,…,ΨN]を構築し、Nは、タブカテゴリの総数であり、Ψiは、1つの7タプルであり、前の5つの位置はFPNレイヤのデフォルト回帰範囲であり、6番目の位置はタブカテゴリであり、7番目の位置は範囲修正フラグビットであるステップ2.1と、
現フレームにおける1つの画素サイズがk×kである所定ターゲットに対して、デフォルト回帰スケールの範囲に基づいて、そのデフォルトレイヤPl’を決定するステップ2.2と、
異なるFPNレイヤの損失値に対して、最小値の判断を行い、判断の式は次の通りであり、
2.4と、
- 前記ステップ3における融合は、具体的に、煙検出分岐及び火炎検出分岐の検出結果における位置枠情報及び識別されたターゲット確率は、いずれも現フレームの対応する位置にタブ付けされる、ことを特徴とする請求項1に記載のバイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出方法。
- 前記ステップ4においてターゲット領域の動画の次フレームを検出する前に、現フレームの検出結果を先行知識として、協調最適化フィードバック及び協調強化フィードバックという2つのフィードバックメカニズムの選択を行い、選択の根拠は次の通りであり、
現フレームの検出結果において煙検出分岐及び火炎検出分岐にいずれもターゲットが検出されていない場合、無煙無火の状況であり、協調強化フィードバックを選択し、
現フレームの検出結果において煙検出分岐にターゲットが検出されており、一方、火炎検出分岐にターゲットが検出されていない場合、有煙無火の状況であり、協調最適化フィードバックを選択し、
煙検出分岐にターゲットが検出されておらず、一方、火炎検出分岐にターゲットが検出されている場合、有火無煙の状況であり、協調強化フィードバックを選択し、
煙検出分岐及び火炎検出分岐にいずれもターゲットが検出されている場合、煙検出分岐に検出された最小ターゲット煙面積を
- 前記協調最適化フィードバックの具体的なプロセスは次の通りであり、
1)現フレームIt-1(x,y)の検出結果における煙及び火炎の検出情報に基づいて、カルマンフィルタ方法を用いて、次フレームIt(x,y)における煙及び火炎のターゲット領域を予測し、それぞれ煙ターゲット領域セット
2)第1の画素の判別関数を構築し、Asm及びAfirにおける煙及び火炎のターゲット領域内の第1の画素の判別関数値が0である画素ドットを除去し、新しい煙ターゲット領域セット
3)フレーム間差分法を用いて、It(x,y)におけるA’sm及びA’fir以外の煙及び火炎のターゲットを位置決め、具体的に次の通りであり、
S31:It(x,y)及びIt-1(x,y)においてA’smが含まれない画像
S32:フレーム差領域Dsm(x,y)及びDfir(x,y)を取得し、
S34:It(x,y)において
4)It-1(x,y)は有煙無火の状況である場合、It(x,y)検出を行う時に、
It-1(x,y)は煙が大きく火炎が小さい場合、It(x,y)検出を行う時に、
It-1(x,y)は煙及び火炎がほぼ同じである場合、It(x,y)検出を行う時に、
- 前記協調強化フィードバックの具体的なプロセスは次の通りであり、
(1)It-1(x,y)は無煙無火の状況である場合、It(x,y)検出を行う時に、バイナリ検出ネットワークにおける煙検出分岐及び火炎検出分岐におけるFPNの各レイヤ特徴重みωlに対して、アダプティブ調整を行い、調整された重みは、
ここで、
(2)It-1(x,y)は有火無煙の状況である場合、It(x,y)検出を行う時に、バイナリ検出ネットワークにおける火炎検出分岐のFPNの各レイヤ特徴重みωlに対して、アダプティブ調整を行い、具体的なステップは次の通りであり、
先ず、It-1(x,y)に検出された複数の火炎ターゲットの識別確率に対してソーティングを行い、識別確率が最も小さい火炎ターゲットをSfirとし、対応する識別確率をPfirとし、
次に、現在の煙ターゲットのスケール回帰範囲に基づいて、Sfirに対してFPNレイヤスケール位置決めを行い、FPNレイヤに位置決められたものを
その後、識別確率Pfir及び設定したターゲットの所望確率PEを利用して、バイナリ検出ネットワークにおける火炎検出分岐のFPNの各レイヤ特徴重みに対して修正を行い、修正後の重みは次の通りであり、
煙検出分岐におけるGx,y,lの修正の面でみれば、協調フィードバック強化によって得られた
煙検出分岐におけるωlの修正の面でみれば、先ず、識別確率が最も小さい煙ターゲットSsm、対応する確率Psmを取得し、対応するFPNレイヤ
(4)It-1(x,y)は煙が小さく火炎が大きい場合、It(x,y)検出を行う時に、バイナリ検出ネットワークにおける煙検出分岐のレイヤ融合重みωlに対して、無火有煙の状況である場合に火炎検出分岐におけるωlに対する修正方式によって調整を行い、一方、火炎検出分岐におけるωlに対して、煙が大きく火炎が小さい場合に火炎検出分岐におけるωlに対する修正方式によって調整を行う、ことを特徴とする請求項4に記載のバイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出方法。 - 現フレームIt-1(x,y)の検出結果における煙及び火炎の検出情報に基づいて、速度に基づいて修正されたカルマンフィルタ方法に基づいて、次フレームIt(x,y)における煙及び火炎のターゲット領域を予測し、ここで、カルマンフィルタの速度の修正の計算プロセスは次の通りであり、
- 1つ又は複数のプログラムが記憶されるコンピュータ可読記憶媒体であって、
前記1つ又は複数のプログラムはコマンドを含み、前記コマンドがコンピューティング機器により実行される時、前記コンピューティング機器に請求項1から7のいずれか1項に記載の方法を実行させる、ことを特徴とするコンピュータ可読記憶媒体。 - 1つ又は複数のプロセッサ、1つ又は複数のメモリ、及び1つ又は複数のプログラムを含み、ここで、1つ又は複数のプログラムは、前記1つ又は複数のメモリに記憶されており、前記1つ又は複数のプロセッサによって実行されるように配置され、前記1つ又は複数のプログラムは、請求項1から7のいずれか1項に記載の方法を実行するためのコマンドを含む、ことを特徴とするバイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出機器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310483913.2 | 2023-04-27 | ||
CN202310483913.2A CN116503763A (zh) | 2023-04-27 | 2023-04-27 | 基于二元协同反馈的无人机巡航森林火灾检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP7475745B1 true JP7475745B1 (ja) | 2024-04-30 |
Family
ID=87326196
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023131096A Active JP7475745B1 (ja) | 2023-04-27 | 2023-08-10 | バイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7475745B1 (ja) |
CN (1) | CN116503763A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117671602B (zh) * | 2024-01-31 | 2024-04-05 | 吉林省中农阳光数据有限公司 | 基于图像识别的农田森林烟雾防火检测方法和设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11295131B1 (en) | 2021-06-15 | 2022-04-05 | Knoetik Solutions, Inc. | Smoke and fire recognition, fire forecasting, and monitoring |
CN114677629A (zh) | 2022-03-30 | 2022-06-28 | 山东中科先进技术有限公司 | 一种基于yolov5网络的烟火检测预警方法及系统 |
CN114842185A (zh) | 2022-03-21 | 2022-08-02 | 昭通亮风台信息科技有限公司 | 用于火灾的目标识别方法、装置、设备及介质 |
-
2023
- 2023-04-27 CN CN202310483913.2A patent/CN116503763A/zh active Pending
- 2023-08-10 JP JP2023131096A patent/JP7475745B1/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11295131B1 (en) | 2021-06-15 | 2022-04-05 | Knoetik Solutions, Inc. | Smoke and fire recognition, fire forecasting, and monitoring |
CN114842185A (zh) | 2022-03-21 | 2022-08-02 | 昭通亮风台信息科技有限公司 | 用于火灾的目标识别方法、装置、设备及介质 |
CN114677629A (zh) | 2022-03-30 | 2022-06-28 | 山东中科先进技术有限公司 | 一种基于yolov5网络的烟火检测预警方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN116503763A (zh) | 2023-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Human memory update strategy: a multi-layer template update mechanism for remote visual monitoring | |
CN112949508B (zh) | 模型训练方法、行人检测方法、电子设备及可读存储介质 | |
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
CN107145867A (zh) | 基于多任务深度学习的人脸及人脸遮挡物检测方法 | |
Li et al. | All-day object tracking for unmanned aerial vehicle | |
Foedisch et al. | Adaptive real-time road detection using neural networks | |
JP7475745B1 (ja) | バイナリ協調フィードバックに基づく無人航空機のスマートクルーズ検出方法 | |
CN111783551A (zh) | 基于贝叶斯卷积神经网络的对抗样本防御方法 | |
CN114821374B (zh) | 一种知识与数据协同驱动的无人机航拍目标检测方法 | |
CN113312973B (zh) | 一种手势识别关键点特征提取方法及系统 | |
CN113689464B (zh) | 一种基于孪生网络的自适应多层响应融合的目标跟踪方法 | |
CN112818783B (zh) | 一种基于交通标志目标检测器改进的对抗样本生成方法 | |
CN113191204B (zh) | 一种多尺度遮挡行人检测方法及系统 | |
CN113743426A (zh) | 一种训练方法、装置、设备以及计算机可读存储介质 | |
CN115797736A (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
CN115147745A (zh) | 一种基于城市无人机图像的小目标检测方法 | |
CN112990102B (zh) | 一种改进的Centernet复杂环境目标检测方法 | |
CN115565130A (zh) | 一种无人值守系统及其基于光流的监控方法 | |
CN114168940A (zh) | 针对车辆目标检测模型的对抗补丁攻击方法 | |
CN106447691A (zh) | 基于加权多示例学习的加权极限学习机视频目标跟踪方法 | |
CN115481215A (zh) | 一种基于时态合作者知识图谱的合作者预测方法和预测系统 | |
Duan | [Retracted] Deep Learning‐Based Multitarget Motion Shadow Rejection and Accurate Tracking for Sports Video | |
CN106650814B (zh) | 一种基于车载单目视觉室外道路自适应分类器生成方法 | |
JP2019023801A (ja) | 画像認識装置、画像認識方法、及び画像認識プログラム | |
CN115630361A (zh) | 一种基于注意力蒸馏的联邦学习后门防御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230810 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230810 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20231012 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231114 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240409 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240410 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7475745 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |