JP6921095B2 - 航空画像を収集及び分析するための方法 - Google Patents

航空画像を収集及び分析するための方法 Download PDF

Info

Publication number
JP6921095B2
JP6921095B2 JP2018543475A JP2018543475A JP6921095B2 JP 6921095 B2 JP6921095 B2 JP 6921095B2 JP 2018543475 A JP2018543475 A JP 2018543475A JP 2018543475 A JP2018543475 A JP 2018543475A JP 6921095 B2 JP6921095 B2 JP 6921095B2
Authority
JP
Japan
Prior art keywords
image
images
blob
analysis
blobs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018543475A
Other languages
English (en)
Other versions
JP2018534714A (ja
Inventor
ドゥヴィール,イラ
バツ,ニッツアン ラヴィノヴィッツ
バツ,ニッツアン ラヴィノヴィッツ
Original Assignee
エーグロウイング リミテッド
エーグロウイング リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エーグロウイング リミテッド, エーグロウイング リミテッド filed Critical エーグロウイング リミテッド
Publication of JP2018534714A publication Critical patent/JP2018534714A/ja
Application granted granted Critical
Publication of JP6921095B2 publication Critical patent/JP6921095B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/18Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals
    • H04W4/185Information format or content conversion, e.g. adaptation by the network of the transmitted or received information for the purpose of wireless delivery to users or terminals by embedding added-value information into content, e.g. geo-tagging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Investigating, Analyzing Materials By Fluorescence Or Luminescence (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Catching Or Destruction (AREA)

Description

関連出願
本出願は、2015年11月8日に出願された米国特許仮出願第62/252,513号の利益を主張するものである。
本発明は、一般に、画像収集及び分析に関し、特に、航空画像の収集及び分析に関する。
航空リモートセンシングが過去10年間で急速に発展しつつある。リモートセンシングは、様々な目的で、中でも農業及び他の環境の監視目的で用いられている。ドローン、ホバークラフト、及び多くの他のタイプのUAVなどの軽量航空機の急速な発展により、超軽量及び軽量の有人航空機の手頃なコストに加えて、画像収集を含むリモートセンシングが発展しており、小規模組織及び農業従事者でも入手可能になっている。
航空機は、遠隔的に制御及び管理することができる。都市又は畑の上を飛んでいるときに、リモートセンシングの目的で画像を取り込むことができる。自動操縦装置を搭載した有人航空機と同様に、無人航空機の飛行ミッションは、ミッションの目的に応じて特定のルートを予め計画することができ、また、必要であればリアルタイムで変更することができる。
他の目的のための多くのリモートセンシングツールと同様の、農業リモートセンシング測定のための主な媒体であるNDVI(正規化差植生指数)ソフトウェア及びツールは、組織及び農業従事者が環境及び畑/作物の状態を監視するのを支援する。NDVI植生指数(正規化差植生指数)の測度は、典型的には必ずしもそうである必要はないが宇宙プラットフォーム又は航空機からの、リモートセンシング測定値を分析し、観察対象が生きている緑の植生を含むか否かを評価するのに用いることができる。NDVI及び他のマルチスペクトル及びハイパースペクトル分析ツールは、適正に用いられ、適切な画像収集機器に基づくときには、例えば、海中のクラゲの群れ及びイワシの群の存在、浅い地中の軍事的地雷、地上の金属物体の存在、植生のストレス及び活力、乾燥/湿潤領域、森林の健康及び病気、害虫及び家畜の存在などを示すことができる。NDVI分析及び同様のツールの結果的に得られる出力は、単純なグラフィカルインジケータ(例えば、ビットマップ画像)として提示することができる。
しかしながら、NDVI及びすべての他のツールの分析は、普通はオフラインで(ドローン/飛行機/衛星による収集の後に)行われ、様々な色で画像の異なる領域を提示する結果的に得られる画像又は画像の組(正射写真)が、著しい遅延後に農業従事者/ユーザに提示される。加えて、一般人/農業従事者は、普通は専門家ではなく、ビットマップに何が提示されているかを十分に理解するのに必要な分析を行うことはできないため、一般人/農業従事者にとって、これらのツールの出力画像は大した価値はない。さらに、分析結果に基づくほとんどの場合に、ユーザは、表示されたイレギュラリティの正体を突き止めるためにより近くで見るべく畑に出向く。画像を分析し、レポートを農業従事者に送信するサービスが存在するが、普通は、これらのレポートは、医師がX線写真を分析するのと類似した方法で画像を調べる人間の専門家によって作成され、このような分析は、画像の収集の1日又は数日後に送信され、前述のように、多くの場合に、さらなるより詳細な探究を必要とする。
リモートセンシングの典型的な農業による使用は、このような需要の良い例として役立つことができる。農業従事者が、彼の作物におけるコナジラミ又はアブラムシの存在を適時に検出するべく調査をすることを望み、コナジラミとアブラムシとの両方のサイズがほんの1mm〜2mmであり得る場合、それらを探して作物を隅から隅までスクリーニングすることはできないことは明らかである。しかしながら、畑の特定の領域にいくつかの識別されない害虫又は病気がついている可能性があることを示す、より低解像度の画像(視覚画像、ハイパースペクトル画像、又はマルチスペクトル画像)での明らかな変化が存在することがある。残念なことに、最良の衛星画像(GeoEye−1など)は、1ピクセル/40cmであり、これはこのような害虫の早期検出に十分であるにはほど遠い。例えば、地面よりも3メートル上から25mmレンズで撮る航空ドローンイメージングは、1.6×2.4m(3.84平方メートル)の長方形領域をカバーすることができる。10メガピクセルのカメラを用いると、これは26ピクセル/cmを意味する。このような詳細画像は、コナジラミの識別を可能にし得るが、このような解像度での数百エーカーの画像の取得は、過大なリソースを必要とすることになり、プロセスを実用的ではないものにするであろう。
したがって、より良好なリモートセンシングを可能にするだけでなく、多くの場合に遅延したアドバイスは役に立たない可能性があり、遅い分析のダメージは不可逆的であり得るので、エンドユーザ(組織/農業従事者)に即時に又は短時間で分析結果及びアドバイスを提供することを可能にする、自動分析のためのインテリジェントな方法及び決定支援システムが必要とされている。
未知の形状のオブジェクトの収集された画像を分析し、オブジェクトを識別するべくそれらをデータベースにある形状と比較するための既知の画像処理コンピュータプログラムが存在する。ディープニューラルネットワーク手法に基づく画像分類方法は、この目的のために最も一般的に用いられる方法の1つである。
コンピュータ画像分析では、デジタル画像における周囲領域に比べて輝度又は色などの特性が異なる領域を検出するためのブロブ検出方法が知られている。平たく言えば、ブロブは、いくつかの特性が一定又はほぼ一定の画像の領域であり、ブロブにおけるすべての点は、ある意味互いに類似していると考えることができる。ブロブパーティショニング方法論では、各デジタル画像は、グレーレベルの輝度、つまり256レベルの輝度からなる。画像における各ピクセルは、これらのレベルのうちの1つと関連付けられる。ブロブパーティショニング手法は、同じ輝度の隣接するピクセルをグループ化し、それらをディスプレイ上で個別のオブジェクト又はブロブとして表す。つまり、各ブロブのサイズは、含まれるピクセルの数によって定められる。
本発明によれば、好ましくはリアルタイム又はほぼリアルタイムでのマルチスペクトル画像データの収集及び分析を可能にする自動分析のための方法及び決定支援システムが提供される。特に、方法は、最初の画像収集と、最初の画像におけるイレギュラリティを調べるために選択された基準に従って、第2の画像収集及び数十ピクセル/ブロブをグループ化する小規模のブロブパーティショニングに進むかどうかを判断するべく、最初の分析のための数百から最高数千ピクセル/ブロブの大きさの大規模ブロブパーティショニングとを含む。
本発明によれば、マルチスペクトル画像を収集及び分析するための方法であって、予め選択された解像度で予め定義された調査パラメータに従って事前マルチスペクトル航空画像を取り込むことと、取り込まれた画像の大規模ブロブパーティショニングを用いて現場で又は畑内の場所で事前分析をリアルタイム又はほぼリアルタイムで自動的に行うことと、予め定義された調査パラメータ内のイレギュラリティを検出し、これに対応する出力を提供することと、事前分析の出力から、第2段階の予め選択された解像度よりも高い解像度での画像収集及び分析を行うかどうかを判断することを含む、方法が提供される。
本発明の実施形態によれば、方法は、検出されたイレギュラリティにGPSデータを関連付けることと、関連付けられたGPSデータを用いて予め選択された解像度よりも高い解像度で検出されたイレギュラリティのうちの少なくとも1つのさらなる画像を取り込むようにリアルタイム又はほぼリアルタイムで画像収集デバイスを誘導することと、取り込まれた画像の小規模ブロブパーティショニングを用いる分析をリアルタイム又はほぼリアルタイムで行うことをさらに含む。
本発明によれば、マルチスペクトル画像を収集及び分析するためのシステムであって、少なくとも1つのマルチスペクトル画像取り込みデバイスと、画像取り込みデバイスに結合されるプロセッサと、プロセッサは、予め定義された調査パラメータに従ってブロブパーティショニングにより取り込まれた画像を自動的に分析し、前記予め定義された調査パラメータ内に入る各画像上のイレギュラリティに対応する出力を提供するべく、ブロブパーティショニングモジュールを含む画像処理モジュールを動作させ、ブロブパーティショニングモジュールは、大規模ブロブパーティショニングと小規模ブロブパーティショニングとの両方を実施することができ、イレギュラリティの地理的場所の表示を提供するように適合及び構成された地理的場所インジケータと、を含み、プロセッサが、出力に応答してイレギュラリティの画像を取り込むべくマルチスペクトル画像取り込みデバイスのうちの1つを表示された地理的場所へ誘導するかどうかを自動的に判断するように構成される、システムがさらに提供される。
本発明によれば、予め定義されたオブジェクトパラメータに従って高解像度マルチスペクトル画像を分析することと、予め定義されたオブジェクトパラメータ内のパラメータが見つかるときに、ブロブを識別するべくこのようなパラメータを含む画像上でブロブパーティショニングを行うことと、予め定義されたオブジェクトパラメータを有するオブジェクトを識別するべくこれらのブロブに限られるオブジェクトを予め定義された参照パラメータと比較することとを含む、分析及びオブジェクト識別のための方法も提供される。
本発明は、図面と併せて行われる以下の詳細な説明からさらに理解及び認識されるであろう。
本発明の一実施形態に係る畑の可視画像及びNIR画像を得るべく適切なフィルタを用いる大農園の上を飛んでいるUAVからの画像ショットの対を示す図である。 可視画像上に重ね合わされた選択されたNDVI値と関連付けられる図1aのピクセルを示す図である。 このピクセルの組から導出された図1bからの34個の最大ブロブの組を示す図である。 所与の大農園の可視画像及びNIR画像の対を示す図である。 図2aの画像から導出された選択された範囲のNDVI値と関連付けられるピクセルを示す図である。 図2bからの最高密度値を有する多角形と関連付けられる点の組を示す図である。 本発明の一実施形態に係る検出が宣言される方法を例示する図である。 本発明の一実施形態に係る検出が宣言される方法を例示する図である。 その色が白色に「近い」距離に限られる小さいブロブの抽出から結果的に得られる検出されたSMS害虫の組を示す図である。 その色が白色に「近い」距離に限られる小さいブロブの抽出から結果的に得られる検出されたSMS害虫の組を示す図である。 SMS害虫の存在のフラグをたてる高い相関を例示する図である。 SMS害虫の存在のフラグをたてる高い相関を例示する図である。 相関測度が予め設計された閾値を超えるときに害虫検出のフラグをたてることを例示する図である。 相関測度が予め設計された閾値を超えるときに害虫検出のフラグをたてることを例示する図である。 相関測度が予め設計された閾値を超えるときに害虫検出のフラグをたてることを例示する図である。 オリジナルのCMS害虫を例示する図である。 オリジナルの害虫の最大の3つのブロブのピクセルの投影から結果的に得られるバイナリ画像を例示する図である。 処理後の害虫の結果的に得られる境界を例示する図である。 ブロブパーティションCMSベースの検出方法を例示する図である。 ブロブパーティションCMSベースの検出方法を例示する図である。 ミカンハモグリガの典型的な潜孔を示す図である。 図9aの画像の境界を示す図である。 図9aの画像の計算されたコーナー点を示す図である。 枯れと関連付けられる植物の色を強くするための色操作の使用を例示する図である。 本発明の実施形態に従って構築され、動作可能な、システムのブロック図である。
本発明は、より良好なリモートセンシングを提供し、且つエンドユーザ(組織/農業従事者)に強化された画像収集、分析結果、及びアドバイスを提供することになる、画像収集及び分析のための発明的な方法及び決定支援システムを提供する。特に、方法は、マルチスペクトル画像の1段階又は2段階の収集及び分析を可能にし、少なくとも第1段階の広い領域にわたる低解像度での分析がリアルタイム又はほぼリアルタイムで行われる。この分析の結果から、第2段階のより小さい領域上の高解像度のマルチスペクトル画像の収集及び分析に進むか否かの判断がなされる。分析は、その場所で、すなわち、各画像又はフレームの収集時に地理的表示を後付けして行うことができ、又は分析は、より広い領域のジオタグ付きの正射写真に対して行うことができる。本発明の目的上、各収集された画像のほぼリアルタイムでの分析、特に、その場所での(畑での)分析は、収集セッション後に数秒を超えないこと(5秒以下)を意味し、数10ヘクタール以上の畑をカバーするジオタグ付きの正射写真の作成及び分析に関しては、ほぼリアルタイムとは、収集後数分(15分以下)を意味する。プロセッサを搭載していることにより、マルチスペクトル画像を取り込む航空機は、リアルタイムでの個々の取り込まれたフレームの分析及び関心ある領域の識別を可能にする。現在の発明によれば、取り込まれた画像が無線ネットワーク経由で地上の処理プラットフォーム(例えば、コンピュータ)に伝送される場合にも、このようなほぼリアルタイム又はリアルタイムでの分析を行うことが可能である。
本発明によれば、イレギュラリティ又は関心領域を識別するために、大規模のブロブパーティショニングを用いて低解像度画像の分析が行われる。第2段階の分析は、例えば害虫の検出及び識別のために、高解像度画像の収集結果を分析するときに小規模のブロブパーティショニングを使用する。特に、本発明は、可視範囲内の画像だけでなくマルチスペクトルデータの収集及び分析を使用する。本発明の一部の実施形態によれば、第2段階の収集及び分析を行うかどうかについての判断は自動的になされる。
このような自動決定支援システムは、収集プロセスの管理を支援しながら、収集された画像を分析することになり、事前に取り込まれた画像の最初の分析に基づいて、選択された地理的領域のより詳細な画像の収集を可能にし、したがって、より広い領域にわたって収集することが実際的ではない解像度での調査される領域内の関心ある点の検査を可能にする。他のタスクのなかで、強化された画像収集は、特定の所望の範囲のNDVI値又は他の測度などの、調査の依頼人により前もって定義される特定の必要とされる特性を有する領域を正確に線引きすることに関係する。
本発明は、さらなる効率的な視覚及びハイパースペクトル又はマルチスペクトル自動航空画像収集及び分析のための方法を提供することにより、所望のNDVI又は他の植生指数に基づく値又は任意の他の選択されたパラメータと関連付けられる領域を自動的に線引きするための効率的なソリューションを提供する。これは、その関連付けられた値が必要とされるNDVI又は他のパラメータ範囲に限られるブロブの正確な検出を分析中に可能にするのに十分な解像度での「低解像度収集」と称する画像の収集により達成される。これは、典型的には、何らかの種類の(例えば、最適なNDVI値よりも平均して15%〜20%低いNDVI値で顕在化される場合の)ストレス状態にある植生を示すブロブを自動的に探索することにより行われる。ストレスは、乾燥、活力、害虫、及び病気などの植生状態及び健康に関する様々な問題を示すこともできる。
画像収集デバイスは、広いスペクトルバンドにわたるマルチスペクトル画像を収集するように構成することができることが分かるであろう。代替的に又は加えて、画像収集デバイスは、調査で捜されているオブジェクトに応じて選択される複数の予め選択されたバンド又は色チャンネルにおける画像を収集するように構成することができる。いずれの場合にも、マルチスペクトル画像の分析は、調査で捜されているオブジェクトに応じて選択される収集された色チャンネルを用いて行われることになる。
好ましくは、低解像度収集デバイスは、好ましくはNADIRジンバルを用いる、低歪みカメラを用いる。これは、垂直ビューを固定することを可能にし、したがって、カメラの角度に起因する歪みを最小にする。代替的に、他の適切な低解像度収集デバイスを用いることができる。好ましくは、画像収集デバイスは、自動デジタル校正装置を搭載し、したがって、色チャンネルの複雑な位置合わせの必要なしに、個々に取り込まれた画像の処理を可能にし、画像のモーフィング及び歪み補正などの前処理の必要性を回避する。適切な画像取り込み装置の例は、2015年11月26日に提出された出願人の係属中の米国特許出願USSN62/260,272で説明される。
現在の発明は、その独特な画像収集及びファイルタイプにより、収集された画像の速い、さらにはリアルタイムでの分析を可能にする。マルチスペクトル画像収集は、好ましくは、ファイルタイプ(JPEG、RAW、TIFF、又は任意の他のイメージファイルフォーマットなど)を用いて行われるべきであり、一方、マルチスペクトルチャンネル(青色、緑色、赤色、レッドエッジ、NIR、これらのすべて又はいくつか)は、複数のチャンネル画像としてサイドバイサイド(side by side)で保存される。これは、別々の領域へ分割される単一のセンサを用いる(上記引用の画像取り込みの特許出願で説明される場合の)複数のレンズの使用を通じて最も効率よく行うことができるが、本発明はこれらの例に限定されない。このようなカメラ(複数のレンズと単一のセンサを有する)を用いて、異なるRGB(赤色・緑色・青色)チャンネル及びNIR(近赤外)チャンネルを別々に保存することができる。したがって、例えば、赤色チャンネルをセンサの左側で取り込むことができ、一方、近赤外チャンネルをセンサの右側で取り込むことができる。また、異なる範囲の緑色及び青色をセンサの異なる領域上で取り込むことができ、一方、すべてのチャンネルが、その後、単一のファイルに保存される。このような取り込みプロセスは、単一のセンサと共に2つのレンズを用いて最高6つの示差的なチャンネルの簡単な分割を可能にする。どの側が、赤色、緑色、及び青色のシェードの最高3つのチャンネルを最適に含んでもよい。このようなファイル構造は、簡単且つ迅速なチャンネル分離を可能にする。異なる赤色タイプ(650nm又は710nm)が850nmチャンネルとサイドバイサイドに保存され、同じ様態で異なる狭い青色チャンネル及び緑色チャンネルを有することができるので、チャンネルをRGBに分割することと、画像を2つに分けること(2つのレンズが用いられる場合)は、すべての異なるチャンネルを生み出すことになる。このようなファイルフォーマットは、JPG、BMP、PNG、TIFFなどの任意の標準RGBフォーマットファイルとすることができ、一方、これらのファイルは、3つのバンド又は3つのバンドとガンマチャンネルに制限される。現在用いられている重要な植生指数は、関心あるブロブを正確に検出するのに2つよりも多いバンドを用いるので(赤色バンド、青色バンド、及びNIRバンドを使用する、ARVI(Atmospherically Resistance Vegetation Index)など)、このようなサイドバイサイドの分離は、関心あるブロブの正しい識別のために極めて重要である。
本発明は、デジタル画像における周囲領域に比べて輝度又は色などの特性が異なる領域を検出するのにブロブ検出方法を用いる。このような領域又はイレギュラリティは、さらなる調査を必要とする問題が起こりうる領域を示す。調査される領域内の予め定義されたパラメータと関連付けられるブロブの検出は、画像収集ミッションの第2のステップである高解像度ステップをガイドする。このようなガイダンスは、これらのブロブにGPSデータを関連付け、ほぼリアルタイム、リアルタイム、又は処理後のいずれかで関心ある点(イレギュラリティ)のさらなる非常に詳細な(より高解像度の)画像をとるべくUAV/ドローン/ホバークラフト/超軽量機などに搭載された画像取り込みデバイスを誘導することにより達成することができる。このような詳細な画像の収集は、同じ航空機及び取り込みデバイスにより、又は別の取り込みデバイスを用いる同じ航空機により、又はより高解像度の取り込みデバイスを有する別の航空機により、又は取り込みデバイスを有する地上車両により行うことができる。
非常に詳細な画像(VIS画像、ハイパースペクトル画像、又はマルチスペクトル画像)が収集されると、収集された画像を分析し、即時に又は短期間に又は長期間に、農業従事者がどのような措置を講じる必要があるかを決めるのを支援することが可能である。この第2段階の分析はまた、ブロブパーティショニング、典型的には小規模ブロブパーティショニングを用いて行われる。
言い換えれば、現在の発明は、リモートセンシング装置を用いる全自動決定支援システムをもたらすために、最初に低解像度画像、次に高解像度画像の自動分析を適用する。低解像度画像は、高い高度及び/又は低解像度カメラ及び/又は短い焦点距離の航空画像の収集の結果であり得る。より低い解像度は、処理するべきより少ないデータを提供するため、低解像度走査は、はるかにより速く、より効率的である。低高度収集、及び/又は高解像度カメラ、及び/又は長焦点距離(ズーム)、又はさらには地上からの画像の収集を通じて、高解像度の詳細画像を収集することができる。
本発明によれば、画像取り込みデバイスを効率よく使用し、リアルタイム又はほぼリアルタイムで可能な環境/畑の速い実用的な走査を行いながら、高解像度画像において関心あるブロブ上に「焦点を合わせ」、必要とされる調査に応じてそれらの性質をできる限り正確に識別するために、画像収集プロセスの各ステップに関して異なる方法が用いられる。農業に向けて、例えば、現在の発明は、害虫、病気、及び植生活性度、及び作物の他の態様を識別するべく自動体系学を実施する。
特定の調査の目的に応じて、関心あるブロブが前もって定義されることを明らかにすることは重要である。例えば、地雷が見つけ出されるべき場合、適切な分析(NDVI又は任意の他の植生指数に基づくメトリック又は予め選択されたパラメータを用いる)後のそれらのグラフィック表現を表すピクセルは、関心ピクセルとして定義されることになる。例えば、コットンキャノピーが見つけ出されるべき場合、白いコットンボールを表すピクセルが関心ピクセル及びブロブとして定義されることになる。
現在の発明に係る1つの可能な実施形態の第1のステップは、やや低解像度のマルチスペクトル画像の航空収集を含む。このような低解像度は、1ピクセル/100平方センチメートル(10cm×10cm)、又はさらには1ピクセル/平方メートル、又は必要とされる調査のためのリモートセンシングに適切であることが年月をかけて分かってきた衛星により取り込まれる解像度と類似した任意の他の解像度とすることもできる。言い換えれば、例えば、農業調査がコットンキャノピーに焦点を当てる場合、画像収集は、焦点距離50mmのカメラを用いて数百メートルの高度から行うことができることが既に知られている(種々のUS DOA公報に記載されている)。このような場合、4スペクトルバンド(赤色、緑色、青色、及び近赤外)のマルチスペクトルカメラは、NDVI提示に必要とされる画像を収集できることが知られている。
現在の発明に係るこの農業リモートセンシング例の第2のステップは、NDVI(及び/又はこれに基づくツールのうちの1つ)に従う分析を含む。分析の結果として得られる値は、1つの色の綿で覆われた領域と別の色の綿で覆われていない領域とを提示する画像として提示することができる。同じ原理は、乾燥した又は不健全な植生又は雑草が1つの色に「ペイント」されることになり、健全な植生が別の色に「ペイント」されて現れることになる、ほとんどの農業調査にあてはまる。これらの着色されたピクセルは、分析の結果をユーザフレンドリーな様態で単に表しているだけであり、自動分析は、これらのピクセルに付加される値を用いる。
現在の発明に係る第3のステップは、画像分析中に予め定義されたパラメータ、例えば、NDVI値(又は任意の他の農業植生指数メトリック)と関連付けられるピクセルをブロブへ自動集約することを含む。このようなブロブの作成は、必要とされる調査に依存する一様量子化動作を伴う。いくつかの調査(コナジラミの検出など)では、非常に少ないピクセルを無視することはできず、小さいブロブでさえも有意であり、一方、他の調査(ツナ群の検出など)では、大きいブロブだけが重要である。NDVIは実際には合成画像である、すなわち、各ピクセルは、任意のこのようなブロブ作成の前に、赤色チャンネル及びNIRチャンネルからとられた計算値を有するため、NDVIマップは、収集された画像の重要な特徴を最適に保つ連続するブロブの作成を可能にする進歩したノイズ除去動作を受けてよい。
この事前分析は、例えば、イレギュラリティが観察される場合、且つそれらの程度又はサイズが予め選択された閾値を超える場合に、システムプロセッサによって、第2段階の画像収集及び分析が必要とされるかどうかを判断するのに用いられる。必要とされない場合、調査が終了し、この情報が調査の依頼人に送信される。他方では、第2段階が正当と判断される場合、プロセッサは、後述するように自動的に進むか、又は調査の依頼人に通知し、手動命令を待つ。代替的に、第2の収集ステップに進むかどうかを判定するために、ブロブパーティショニング後の画像の分析を手動で(人間により視覚的に)達成することができる。
自動収集及び分析の場合、第4のステップは、調査の焦点が当てられるイレギュラリティ(害虫がはびこっている畑、漏水など)を表示しているブロブへのGPSデータの付加を含む。GPSデータは、様々な方法で画像に付加することができる。いくつかのカメラは、それらと一体化された組み込みGPSセンサを有する。他の場合には、カメラは、(オペレーティングスマートフォン又はカメラに取り付けられたオートパイロット/処理プラットフォームからのGPSデータを付加することができる、SonyのQX1のレンズのようなカメラ及びOlympus Air A01カメラと同様に)オペレーティングスマートフォンにより無線で作動される。より良好な精度に起因する現在の発明に係る好ましいソリューションは、普通は航空機の頂部上に位置決めされ、オートパイロットに又は直接カメラに(カメラにより支持される場合)接続される、航空機のGPSセンサからのGPSデータを付加することである。画像の取り込み時間とGPSデータの取り込み時間との同期は、航空機が速く移動することができるので重要である。各フレームは、これと関連付けられるGPSデータを有することができ、又はより広い領域の正射写真にジオタグをつけることができることが分かるであろう。
別の最も正確な方法は、収集された画像の正射写真を作成し、これを正確なマップにあてはめることによる。このようなマッチングは、遅く、やや重い計算を必要とするが、画像を収集しながら、レンズの歪み、衛星信号の欠如、及び航空機の角度に起因するバイアス及び偏差を克服する。
現在の発明に係る第5のステップは、関心あるブロブによって表される領域の非常に詳細な画像の収集の自動準備を含む。好ましくはマルチスペクトル又はハイパースペクトルカメラである画像収集デバイス(例えば、エアボーン又はグラウンドボーンカメラ)は、これらのブロブの地理的場所へ、これらの場所の詳細画像を取り込むべく送り届られる。非常に詳細な画像を収集するためのいくつかの可能な方法は、作物よりも数フィート/メートル上方を飛ぶ又は最も近い可能な距離から画像を収集するべく地上ロボット及び/又は人間を送り届ける、低高度ホバークラフト又はヘリコプターを用いることである。別の方法は、より長いズームの焦点距離を有するカメラを用いることである。しかしながら、この方法は、ハイパースペクトル又はマルチスペクトルの非常に詳細な画像が必要とされる場合、かなりコストが高くつき、非能率的である。このような関心あるブロブの綿密調査は、例えば、前述のように10メガピクセルでの0.8m×1.2mの矩形の画像の収集を意味することもあるので、GPSデータの精度は重要である。
いくつかの調査(ツナ群の検出など)では、単一の画像でのブロブのGPSデータは十分ではない場合があり、ブロブのGPSデータ変化のさらなる分析により、いくつかの連続する画像に基づいて軌道が予測される必要があることに留意されたい。処理及び収集時間と共に計算されるこのような分析は、システムが、静的ではない必要とされる関心あるブロブを追跡し、このようなブロブの詳細画像をそれらの予測される場所で収集することを可能にするであろう。
現在の発明に係る第6のステップは、調査結果の自動体系学及び識別を含む。体系学又は体系生物学は、本発明の目的上、とりわけ、生物の分類、それらの識別のためのキー、及びそれらの分布のデータを説明及び提供することを含む。このステップはやや複雑なステップであり、それ自体がいくつかのサブステップを含む。任意の様態で取り込まれた高解像度画像を分析するために、前述の自動画像収集方法及びシステムによってだけでなく、後述するオブジェクトの自動体系学及び識別を使用できることが分かるであろう。
第1に、収集された画像が調査タイプに従って分析される。例えば、緑色の葉の上の緑色アブラムシを識別することは、収集された画像が視覚スペクトルのみの場合、コナジラミを識別することよりもさらに難しい。しかしながら、緑色アブラムシは近赤外スペクトルをクロロフィルが反射するのと同じようには反射しないので、緑色の葉の上の緑色アブラムシのNIR画像の追加は、アブラムシの緑色の擬態を除去する。
第2に、疑わしいオブジェクト(アブラムシ、緑色アブラムシ、蠕虫、バッタなど)の存在が見つかると、典型的には各フラグメントの質量中心を中心とした、数ピクセルの長さの矩形正方形を描くことにより、このようなオブジェクトを含んでいる画像のフラグメントが抽出される。好ましくは、各フラグメントは、より良好な分類及び識別を可能にするために、最小限の背景「ノイズ」を伴う単一のオブジェクトを含む。疑わしいオブジェクトは、好ましくは、調査のタイプに従って参照害虫データベースを含むリモートサーバを用いることにより最初に分類される。例えば農業調査の害虫/病気を分類するためのより好ましい方法は、場所、作物の種類、及びその特定のタイプの作物に該当する可能性のある害虫/病気のバンクへの参照を含むことになる。しかしながら、収集プラットフォームにおいて自動体系学を行うことも可能である。この場合、収集プラットフォームは、これをプラットフォームの処理メモリに存在する参照害虫画像の小さいデータセットと比較することにより害虫を識別することができる内部プログラムを搭載することになる。第7のステップは、疑わしい(それらが前のステップで分類された場合には分類された)オブジェクトの識別を含む。
このステップでのオブジェクトを識別するための基礎にあるアイデアは、収集された画像の、限られたサイズのサブ画像への適正なパーティショニングは、収集された詳細な画像に疑わしいオブジェクトが存在するならば、高い確率で、確実に、それらは限られたサイズのサブ画像内で見つかる可能性が高いということと関連付けられる。
限られたサイズのサブ画像のサイズは、調査タイプに従って設定され、画像サイズを調査の焦点が当てられるオブジェクトを表すと思われるブロブの画像サイズにマッチさせる。ブロブを含むこのような限られたサイズのサブ画像の組が準備されると、このサブ画像の組内のオブジェクトを識別するプロセスは、これらのサブ画像の組を識別のためにリモートサーバに送信することによって、又は地域識別コードをアクティブ化することによりスポット上のオブジェクトを識別することによって達成することができる。
種々の画像パーティショニング方法及び対応する検出方法がこの発明で詳述される。一般に、単純な構造を有するオブジェクトと複雑な構造を有するオブジェクトとの2つのタイプのオブジェクトが探索される。いくつかの特定の画像パーティションに基づく方法は、各タイプに合わせられる。
現在の発明に係る第8のステップは、分析の結果を受取人(調査を依頼した人又はサービスプロバイダ)に送信することを含む。結果は、調査結果の可能な識別を含み、それらはまた、例えば、(調査に応じて)害虫を駆除する又は火を消す又は古い地雷の周りに垣を巡らし、警告の掲示をするために講じられる必要がある措置に関するアドバイスを含んでよい。結果は、例えば、処理プラットフォームがセルラー接続(例えば、3G又はLTE)を搭載するスマートフォンであるときに、クラウド(インターネット)から又はさらには航空機から画像の小さいフラグメントと共に送信することができる。現在の発明のいくつかの可能な実施形態では、画像のフラクション、場所、及びユーザへのアドバイスは、マルチメディアメッセージングサービス(MMS)を通じて、又はMessenger、WhatsApp、Skypeなどのインスタントメッセージングサービス(IM)を通じて送信される。
例示的な農業調査のステップのうちのいくつかの詳細な説明
特定のNDVI(及び同様のメトリクス)値と関連付けられる領域の識別
好ましいプロセスは以下のステップを含むことになる:
1.効率的な範囲(好ましくは数十メートル〜数百メートル及びさらにそれ以上の高度)からの視覚及び/又はハイパースペクトル又はマルチスペクトル画像を取り込むステップ。
2.所望の調査(例えば、乾燥、植生活性度、害虫、病気など)に従って画像を分析するステップ。
3.大規模ブロブパーティショニングによってより詳細な検査を要求する、画像における関心ある領域を定義するステップ。
4.関心ある領域に正確なGPSデータを付加するステップ。
5.画像取り込みデバイスを有する同じ航空機又は別の航空機をこれらの関心ある領域へ自動的に誘導し、これを調査タイプに従って詳細な(より高解像度の)画像をとるべく誘導するステップ。典型的には、高解像度収集を行うべくプラットフォームを誘導するための基準は、最適なNDVI値よりも10%又は20%低いNDVI値と関連付けられるブロブの存在、すなわち、「植生ストレス」の表示であろう。
ここでの全体的な目的は、航空機から、比較的低解像度の画像から、特定のNDVI(又はいくつかの他のツール)値と関連付けられる関心ある領域を自動的に検出することである。このような関心ある領域は、典型的には、植生のストレス/活力、湿った領域、水で覆われた領域、成熟した作物、植生活性度などを示してよい。NDVI(又は他の植生指数に基づく)マップは実際には合成画像であるため、これは、極めて大量のノイズを伴う。したがって、前処理ノイズ除去動作が行われてよい。この発明では、好ましくは、NDVI画像のキー特徴を保つ、進歩したノイズ除去アルゴリズムが使用される。(例えば、「Total Variation Filter」,Chambolle 2004参照)。代替的に、任意の他の適切なノイズ除去アルゴリズムを使用することができる。
このような領域の自動検出は、好ましくはピクセルの構成可能な数及び密度に基づいて必要とされる調査(例えば、NDVI又はEVI又は任意の同様のメトリック)のために正常値からの偏差を示すブロブピクセルへ「集約」することにより実行することができる。
NDVIメトリックを用いるプロセスの1つの可能な実施形態は以下の通りである:
計算のための入力は、マルチスペクトルエアボーンカメラによって収集される場合の−1から1の範囲のNDVI値のマトリクスである。式NDVI=(NIR−VIS_RED)/(NIR+VIS_RED)を用いて、NDVI値を生成するのにNIRバンド及びVIS_REDバンドが用いられる。このようなNIRバンド及びVIS_REDバンドは、20nm〜70nmの狭いバンドとすることもでき、バンドの中心は650nm及び850nmである。
本発明の1つのこのような可能な実施形態では、NDVIマップに進歩したノイズ除去動作を適用した後で、或る範囲の必要とされるNDVI値を有するブロブが探索される。必要とされるNDVI値と関連付けられるピクセルが、以下の3つのステップ手順を通じてブロブを定義するべく「集約される」:
ステップ1.関心ある領域が、既知の範囲のNDVI値又は他の予め定義されたパラメータ値と関連付けられると仮定すると、アルゴリズムは、該当する範囲のNDVI値と関連付けられる該当するピクセルが1に設定され、残りのピクセルが0に設定される、NDVI画像のバイナリマップを構築する。
ステップ2.ステップ1から導出されたバイナリマップと関連付けられるすべての可能なブロブ(クラスタ)の組が、例えば、クラスタラベリングアルゴリズム又は別の適切なアルゴリズムを用いて構築される。このアルゴリズムは、「Hoshen Kopelman」クラスタラベリングアルゴリズム(1975)に基づいている。基本的に、この発明で用いられるHoshen Kopelmanアルゴリズムは、バイナリマップをラスタ走査し、ワンパスで、走査プロセスに沿ってすべてのブロブを見つけ出し、それらにランニング指数を割り当てる。
隣接するピクセルのしらみつぶし探索のための様々な方法などのブロブの構築のための他の技術も使用することができるが、それらは計算負荷を招く。
ステップ3.ブロブの所与のグループをイレギュラリティ又は「必要とされるNDVI値に属する関心ある領域」として定義するための決定基準は、以下のように定義される:
1.所与の単一ブロブに属するピクセルの数が所与の閾値パラメータを超える場合。
2.すべて所与の半径(上記のブロブの組の重心からの)に限られるブロブの組に属するピクセルの数が所与の閾値を超える。
図1a、図1b、及び図1cは、手順がどのように働くかを例示する。図1aは、畑の可視画像及びNIR画像を得るべく適切なフィルタを用いる大農園の上を飛んでいるUAVからの画像ショットの対を示す。図1bは、可視画像上に重ね合わされた−0.3〜−0.1の範囲(赤色に着色される)(関心ある予め定義された範囲)のNDVI値と関連付けられるピクセルを示す。これらのピクセルは、畑における湿った領域をマークする。図1cは、前述のアルゴリズムを用いて自動的に計算されたこのピクセルの組から導出された34個の最大ブロブの組を示す(各ブロブは、ランダムに着色され、200を超えるいくつかのピクセルを含む)。
この発明の別の実施形態では、予め選択されたNDVI値と関連付けられる領域の検出は、以下の手順により実行される。
必要とされるNDVI値と関連付けられるピクセルのバイナリマップは、等しい面積を有する多角形へパーティショニングされ、各多角形の密度が計算される。次いで、大きい密度を有する多角形が、必要とされるNDVI値と関連付けられる領域の中心を表すために選出される。
図2a、図2b、及び図2cは、この手順がどのように働くかを示す。図2aは、所与の大農園の可視画像及びNIR画像の対を示す。図2bは、図2aの画像から導出された0.75〜0.9の範囲(関心ある予め定義された範囲)のNDVI値と関連付けられるピクセルを示す。図2cは、最高密度値を有する多角形(実際にはサイズ4x4のブロック)と関連付けられる点の組(白色でマークされる)を示す。左の画像の赤色点は、そのNDVI値が0.75から0.9までの間の範囲であるすべてのピクセルの組を描画する。
前述の方法は、図11に概略的に例示されるマルチスペクトル画像を収集及び分析するためのシステム10により実施することができる。システム10は、少なくとも1つのマルチスペクトル画像取り込みデバイス12と、画像取り込みデバイス12に結合されるプロセッサ14を含む。好ましくは、プロセッサは、データ及び命令を交換するためにユーザ20と双方向通信する。プロセッサは、予め定義された調査パラメータに従ってブロブパーティショニングにより取り込まれた画像を自動的に分析し、予め定義された調査パラメータ内に入る各画像上のイレギュラリティに対応する出力を提供するべく、ブロブパーティショニングモジュール18を含む画像処理モジュール16を動作させる。前述のように、この出力は、プロセッサ14が用いることができ、又はユーザ20に提供することができる。ブロブパーティショニングモジュール18は、大規模ブロブパーティショニングと小規模ブロブパーティショニングとの両方を実施することができる。システムは、イレギュラリティの地理的場所の表示を提供するように適合及び構成された地理的場所インジケータ22をさらに含む。地理的場所インジケータ22は、この実施形態では別個のユニットとして例示されるが、本発明の他の実施形態によれば、これは画像取り込みデバイス12の一部とすることができる。プロセッサはさらに、出力に応答してイレギュラリティの画像を取り込むべくマルチスペクトル画像取り込みデバイスのうちの1つを表示された地理的場所へ誘導するかどうかを自動的に判断するように構成される。
本発明はまた、マルチスペクトル画像におけるオブジェクトを識別するための方法に関する。方法は、予め定義されたオブジェクトパラメータに従って高解像度マルチスペクトル画像を分析することと、予め定義されたオブジェクトパラメータ内のパラメータが見つかるときに、ブロブを識別するべくこのようなパラメータを含む画像上でブロブパーティショニングを行うことを含む。これらのブロブに限られるオブジェクトが、予め定義されたオブジェクトパラメータを有するオブジェクトを識別するべく予め定義された参照パラメータと比較される。一部の実施形態によれば、オブジェクトは、比較する前に分類される。この方法のいくつかの限定ではない使用例は、以下の通りである。
単純な形態のオブジェクトの自動識別
識別のために選択されるいくつかのオブジェクトは、典型的には小さい染みの形状の、非常に単純な形態(形状及び構造)(以下、「SMS」、すなわち、単純な形態学的構造(Simple Morphology Structure)を有するという特性をもつ。SMSオブジェクトを検出するための1つの有用な手法は、非常に小さいブロブの組(1〜15ピクセル)を計算し、各小さいブロブの周りの小さい画像を抽出し、この画像における選択されたオブジェクトを探索することを伴う。典型的には、このような探索は、小さいブロブと参照パターンとの間の内部パターンマッチングプログラムをアクティブ化することを含むことになる。
SMSオブジェクトを検出する1つの重要な実装は、小さい害虫の検出への適用である。害虫のSMS画像は、典型的に「小さい染み」の形状を呈し、その境界は、楕円形状により近似することができる。
感染した領域内のSMS害虫のコンピュータ化された識別は、以下の観察上の仮定に基づいている:
a.SMSの画像は、幾何学的に有意であり、楕円状の形状をもち、普通は、SMS害虫のその周囲に対する色のコントラストは非常にシャープである。
b.感染していない植物との比較における高濃度の「染み」、すなわちSMS害虫を含む感染した植物の視覚形態学。したがって、感染した植物は、適切な画像処理ツールでの「染みの濃度」の比較により、感染していない植物から区別することもできる。
現在の発明は、前述の観察上の仮定を効果的なアルゴリズムに変換することに基づくSMS害虫の自動検出のための方法を採用する。
これらの観察の1つのアルゴリズムの実施形態では、収集された画像(可視画像又はNIR画像又はNDVI画像、又はCMYK(シアン、マゼンタ、イエロー、及びブラック)のような任意の種類のチャンネル分離における)は、最初にグレーレベル画像に変換され、次いで、グレーレベルのブロブベースのパーティショニングを受ける。画質に応じて、効果的なブロブパーティショニングは、典型的には、一様量子化動作を伴うことになる。グレーレベルの32値は、普通はほとんどの用途に十分である。グレーレベル値のそれぞれのバイナリマップは、前述のHoshen−Kopelmanクラスタラベリングアルゴリズムに従属し、最終的に、すべてのグレーレベル値からなるすべての可能なブロブの組が作成され、記憶される。
この計算されたブロブの組から、ピクセルの小さい閾値数よりも小さいサイズを有する(典型的には、限定はされないが10ピクセルよりも小さいサイズを有する)小さいブロブだけが抽出される。
画像は、いくつかの等しいサイズのサブ画像にパーティショニングされる。各サブ画像において、前述の方法によって作成された小さいブロブの数がカウントされる。サブ画像の所与のパーセンテージの小さいブロブの数が予め定義された校正された閾値を超える場合に、SMS害虫の存在の検出が宣言される。このような閾値設定は、農薬散布ポリシーにマッチするように設定することができる。
この発明の別のアルゴリズムの実施形態では、画像は、グレーレベル画像に変換され、前述したのと同じ方法を用いてグレーレベルのブロブパーティショニングを受ける。パーティショニングされたブロブの組から、非常に小さいサイズを有する(典型的には、限定はされないが10ピクセル未満のサイズを有する)ブロブが選択され、それらの重心が登録される。
各登録された重心の周りのすべてのサブ画像(典型的には、限定はされないが50ピクセル未満に設定された半径長さを有する)が抽出され、相関演算子又は予めプログラムされたディープニューラルネットワーク分類器関数を用いて、メモリに存在する、典型的には楕円形の形状を有するSMS害虫の参照画像と比較される。相関が予め設定された閾値を超える及び/又は分類成功のフラグが立てられる場合に、検出が宣言される。図3a及び図3bは、この方法がどのように働くかを実証する。2つのグレーレベル画像は、感染した綿畑を描画する。図3aの画像上に重ね合わされた赤色点の組は、前述の方法により計算される場合のそのピクセルの数が50未満であるすべての小さいブロブの重心を示す。この例では、グレーレベル画像は32レベルに低減されている。これらの点のそれぞれの周りの16x16ピクセルサイズの小さい画像が抽出され、相関演算子を用いて参照画像に対してマッチングがなされる。図3bの画像上に重ね合わされた赤色点の組は、相関演算子が見つかるすべてのサブ画像を示す。
分析の別のアルゴリズムの実施形態では、小さいブロブの選択は、照会されるSMS害虫を典型的に特徴付ける基準色に近い距離内にある色を有するブロブの組に限られる。現在の発明では、2つの所与のRGB色間の距離は、以下のように定義される:
X1={R1,G1,B1}及びX2={R2,G2,B2}の場合、
距離[X1,X2]=Max{Abs[R1−R2],Abs[G1−G2],Abs[B1−B2]}。
図4a及び図4bは、この手順が働く方法を示す。図4aは、SMS害虫の組(白色)を含む葉を示す。図4bは、上記で定義された意味においてその色が白色に「近い」距離に限られる小さいブロブ(この例では、40未満の色度)を抽出することから得られる検出されたSMS害虫の組(図4aの画像上に重ね合わされた紫色点で表示される)を示す。害虫をディスプレイに表示するために選択された色は、それ自体には意味はなく、表示は、任意の選択された色とすることができることが分かるであろう。
分析の別のアルゴリズムの実施形態では、SMS害虫の検出は、以下の方法を用いて実行される。可視画像の収集されたグレーレベル画像は、行方向及び列方向をインターレースする演算子を形成することにより、いくつかの、例えば4つの非常に類似した重ならない画像にパーティショニングされ、結果的に、そのユニオンがオリジナルの画像に正確にわたる4つのサブ画像を形成する。本明細書では、オリジナルのグレーレベル画像は、Xとしてマークされ、X1、X2、X3、及びX4は、インターレースする演算子の適用に起因して結果的に得られるサブ画像であると仮定される。
画像A(「Xの加速画像」(acceleration image of X)をA=(X1+X4−2X3)として定義することは、結果的に、コントラストを強調させる画像Aを生じることになる。Aから最高輝度値を有する予め選択された数のピクセルの組を抽出することは、SMS害虫を含むことの非常に高い確率を有するピクセルの組をもたらすということである。高い計算値のピクセルの組の周りの小さいサブ画像が抽出され、それらの内容がメモリに存在するSMS害虫の参照画像と比較される。高い相関は、SMS害虫の存在のフラグを立てることになる。図5a及び図5bは、このアイデアを例示する。図5aは、SMS害虫を含む感染した葉を示し、図5bは、図5a上に重ね合わされた赤色点の組を示す。赤色点は、そのために相関器がそれらの対応する抽出された小さいサブ画像をSMS害虫を含むとして識別した、前述の方法によって作成された点である。
上記のアルゴリズムのアイデアの別の実施形態では、SMS害虫の検出は、以下の方法を用いて実行される。グレーレベルの可視画像又はNIR画像は、エッジ検出演算子を受ける。結果的に得られるエッジ検出された画像から、その強度値が所与の閾値を超えるピクセルの組が選択される。
これらのピクセルの周りの小さいサブ画像が抽出され、それらの内容が相関方法を用いて既知の参照画像に対して比較される。相関測度が予め設計された閾値を超える場合に、害虫検出のフラグが立てられる。図6a、図6b、及び図6cは、このアイデアを実証する。図6aは、SMS害虫を含む葉(白色に着色される)を示し、図6bは、図6aのエッジ検出の適用を示し、図6cは、説明した方法に従って図6bから該当する点を抽出した結果である、図6a上に重ね合わされた点の組(黄色)を示す。
上記のアルゴリズムのアイデアの別の実施形態では、SMS害虫の検出は、以下の方法を用いて実行される。グレーレベルの可視画像又はNIR画像は、バイナリ閾値演算を受ける。閾値レベルは、以下のように計算される:非常に高い閾値(ダークフレーム)で始まり、白色点(閾値演算から結果的に得られる)の数が所与のレベルを超える場合に所望の閾値が宣言されるように閾値レベルが徐々に減少される。
結果的に得られる画像から、その強度値が上記の所望の閾値を超えるピクセルの組が選択される。これらのピクセルの周りの小さいサブ画像が抽出され、それらの内容が相関方法を用いて既知の参照画像に対して比較される。相関測度が予め設計された閾値を超える場合に、害虫検出のフラグが立てられる。
複雑な形態のオブジェクトの自動識別
その識別が必要とされるいくつかのオブジェクトは、複雑な構造(以下、CMS)を有するという特性をもつ。CMSオブジェクトを検出するための一般的手法は、特定の要求されるオブジェクトの形態に応じて、画像を中くらいのサイズを有するブロブにパーティショニングすることを伴う。収集された画像にCMSオブジェクトが存在する場合、典型的にはこれらのやや小さい画像(普通はほんの数十ピクセルに限られる)を、好ましくは、限定はされないがディープニューラルネットワーク手法を用いて識別のためにリモートサーバに伝送することにより、それらはこのような中くらいのサイズのブロブの周囲のいくつかの画像において見つかる可能性が非常に高いということである。別の識別のオプションは、オブジェクトを識別することができる内部コード(後述するものなど)をアクティブ化することである。
ここでいくつかのCMS害虫の識別方法を説明する。
CMS害虫の例は、ハエ、バッタ、昆虫などである。これらの害虫の構造の観察は、その検出が普通は洗練されたマッチングコードを要求する、非常に複雑な形態を示す。
害虫CMS検出方法の一実施形態では、収集された画像(随意的に可視画像及び/又はNIR画像及び/又はNDVI画像及び/又は他の植生指数に基づく画像)は、最初に、グレーレベル変換及びヒストグラム平坦化を受ける。画像は、次いで、前述のHoshen Kopelmanクラスタラベリング手法を用いるブロブパーティショニングを受ける。
中くらいから高い数のピクセルを有するブロブが選択され、所与のレベル(典型的には、限定はされないが32ピクセル)よりも小さい半径を有するこれらのブロブの重心の周囲のサブ画像が抽出される。
選択されたサブ画像のそれぞれは、好ましくは4つのグレーレベル値を用いる、さらなるブロブパーティショニングを受ける。代替的に、異なる数の強度値を使用することができる。計算されたブロブは、それらのピクセルサイズに関してアレンジされる。選択された数の、例えば、最初の3つの大きいブロブが抽出され、それらの関連するピクセルを備えるバイナリ画像が作成される。害虫が上記の抽出されたサブ画像に「取り込まれる」場合、形態の境界を線引きする目的で、大きいブロブを備えるバイナリマップに対して、バイナリダイレート演算子とバイナリエロード演算子との2つの形態学的バイナリ演算子が適用される。最後に、ダイレートされた画像とエロードされた画像との差分が計算され、結果的に害虫形態の境界をおおよそ取り込む画像が得られる。
図7a、図7b、及び図7cは、アルゴリズムがどのように働くかを実証する。図7aの各画像は、オリジナルのCMS害虫を示す。図7bの各画像は、図7aの対応する画像の最大の3つのブロブのピクセルの投影から結果的に得られるバイナリ画像を示す。そして図7cの各画像は、バイナリエロード演算子及びバイナリダイレート演算子の適用後の図7aの対応する害虫の結果的に得られる境界を示す。図7cの結果的に得られる画像は、次いで、ディープニューラルネットワーク又は予測器及び分類器などの他のマシンビジョン方法を用いる相関手順及び/又は分類手順を用いて類似のタイプの画像、例えば、CMS害虫境界と比較される。
ブロブパーティションCMSベースの検出方法の別の実施形態では、グレーレベルの可視画像又はNIR画像又はNDVI又は他の植生指数に基づく画像は、ブロブパーティショニング(好ましくは、限定はされないが4つの強度レベル)を受け、例えば50〜300ピクセル数の範囲の選択されたピクセルサイズを有するブロブが抽出される。このような各ブロブの周囲の画像が抽出され、ディープニューラルネットワーク手法又は予測器及び分類器などの他のマシンビジョン方法を用いるCMS害虫の適正なカテゴリへの分類のためにリモートサーバに送信され、害虫の分類のためのトレーニングセットとして用いられた害虫画像の大きいデータセットに対して比較される。図8a及び図8bは、この概念を例示する。図8aは、CMSアブラムシがついた葉を描画し、図8bは、そのサイズが100から200ピクセルまでの間の範囲であるブロブの組を示す。害虫と抽出されたブロブとのマッチは顕著である。
オブジェクトの自動間接識別
或る場合には、特に、自動害虫識別の場合に、害虫の存在は、その周囲に対するその独特の影響により検出することができる。言い換えれば、収集された画像に実際の害虫を取り込むことは難しい又は不可能であり得るが、害虫の存在を植物の状態から推測することができる。多くのこのような状況の中から、2つのこのようなケースが、限定ではない単なる例として以下に提示される。
「ミカンハモグリガ(Citrus Leafminer)」として知られている害虫は、1つの良い例として役立つことができる。この害虫に帰する「曲がりくねる」潜孔の存在は、普通は、葉の表面に見られる。したがって、このような潜孔の検出は、この害虫の存在を顕在化する。本発明は、この害虫を識別するべく2つのアルゴリズム方法を提示する:
A.前のセクションで説明したように、比較的大きい数(典型的に100から700までの間)のピクセルを有するブロブの周りの画像が抽出され、この画像の内容が、ミカンハモグリガを含んでいる種々の参照画像と比較される、複雑な形態構造の自動識別のための方法を用いること。
B.特定の潜葉性昆虫に合わせた検出アルゴリズムは、以下のように説明される:比較的大きい数のピクセルを有するブロブの画像が抽出される。これらの画像に存在する、可能性のあるオブジェクトの境界が計算される。任意のこのような画像に対して、イメージコーナーフィルタが適用され、計算されたコーナー座標の数がカウントされる。コーナー座標の数が所与の閾値を超える場合に、ミカンハモグリガの検出が宣言される。
図9a、図9b、及び図9cは、このアイデアを実証する。図9aは、ミカンハモグリガの典型的な潜孔(黄色の丸で囲まれる)を示し、図9bは、その境界を示し、図9cは、コーナーフィルタの適用から得られる結果的なコーナー点を示す(下の図)。明らかに、潜孔の存在を示す比較的大きい数のこのような点が存在する。
オブジェクトのその背景に対する外観は、異なるスペクトルバンドで見たときに異なることが分かるであろう。本発明の実施形態によれば、この事実は、関心ある種々のオブジェクトの分離及び識別を改善するのに用いることができる。例えば、高解像度マルチスペクトル画像は、捜されるオブジェクトの外観を強化する及び画像の残りのオブジェクトから分離するべく最初に色操作を受けてよい。これらの操作は、オリジナルのマルチスペクトル視覚バンドのうちの一部と、CMYK(シアン、マゼンタ、イエロー、キー(ブラック))色空間及び/又はHLS(Hue Lightness Saturation)色空間及び/又は任意の他の1つ又は複数の色空間からの一部のチャンネルとを組み合わせることを含むことができる。RGB色空間、CMYK色空間、HSL色空間、及びもしかすると他の色空間からの個々のバンド間の種々の組み合わせのこの発明でのマルチスペクトルの狭いバンドの使用は、探索されるオブジェクトのその周囲背景からの分離を改善することができる。
病気又は他のオブジェクトの外観の示差性が種々の色チャンネル及びマトリクスにおいて検査された後で、この外観を強調する算術計算が選出される。このようなバンドの組み合わせは、画像差分(Image Difference)、加える<差し引く(Add<Subtract)、最も明るい/最も暗いピクセル(Lightest/Darkest pixels)、画像調整などの種々の画像処理ツールを用いて実現することができる。組み合わせは、異なるマトリクスにおけるオブジェクトの外観に応じて、2つ又はそれ以上のチャンネル/マトリクス間とすることができる。これは、RGB色空間だけを用いることよりも、背景色からのはるかにより良好なオブジェクト分離を与える。探索されるオブジェクトのさらなる分離は、一般に、マルチスペクトルの特定の650nm赤色スペクトルバンドも組み込むことによって達成することができる。この場合、明白な白色は、オブジェクトの検出を示す。様々な色の組み合わせのクロス検出を行うことは検出を改善し得る。前述のように様々な色の組み合わせを予め選択し、特定の種類の害虫に合わせることができ、したがって、害虫の検出の機会を増加させる。
本発明のこれらの実施形態に係る自動間接害虫識別の別の重要な例は、枯れ現象に関連して本明細書で提示される。枯れは、病原体による感染に対応して植物に影響を及ぼす症状を指す。これは典型的には茶色の枯れ葉と関連付けられる。本発明によれば、枯れに関する自動探索は、収集された高解像度マルチスペクトル画像を用いて実行される。収集された画像は、枯れの外観を強化する及び画像の他のオブジェクトから分離するために、前述のように最初に色操作を受ける。RGB色空間、CMYK色空間、HSL色空間、及びもしかすると他の色空間からの個々の狭いバンド間の種々の組み合わせの使用は、枯れた感染した葉のそれらの周囲背景からの実質的な分離を可能にする。これは、典型的には、葉の緑色部分又は土の茶色である。
色操作の成功は、典型的には、普通は2つ(又はそれ以上)の明白な主調色を有する枯れ部分を非常に明瞭に呈する。便宜上、これらは主要色及び二次色と呼ばれる。これらの色値は、行われる特定の色操作に依存する。図10は、この例を示す。ここでは、色操作は、RGBチャンネル及び画像のCMYK色と関連付けられるマゼンタチャンネルで構成される視覚画像間の画像の差分をとることからなる。中央の葉は、茶色及び紫色の2つの色を明瞭に示す。自動枯れ検出アルゴリズムは、最初に主要色と関連付けられるすべてのピクセルを抽出し、この組に対してブロブパーティショニングを適用する。それらのすぐ近くに二次色に関連するピクセルをもつブロブは、枯れと関連付けられるとして宣言される。
この色操作の原理は枯れに関連して上記で例示されているが、これは、異なるタイプの害虫又は病気を探索するか又はまったく異なるオブジェクトを監視するかのいずれにせよ、多くの異なる用途に使用することができることが理解されるであろう。重要なステップは、マルチスペクトル画像を取り込み、ブロブパーティショニング後に、画像の様々な色空間への分割を行い、捜されるオブジェクトを画像の残りから際立たせるべく選択された色チャンネルをクロスすることである。
本発明は、上記で農業調査に関して例示されているが、さらなる調査、例えば、魚群又は地雷又は地上の他の表面イレギュラリティの探索のために局所的なイレギュラリティを検出するべく陸上の又は海中の領域を走査する必要がある多くの他の状況にも適用可能であることが理解されるであろう。
本発明は、限られた数の実施形態に関して説明されているが、本発明の多くの変形、修正、及び他の適用がなされ得ることが理解されるであろう。本発明は、上記で単なる例として説明されているものに限定されないことがさらに分かるであろう。むしろ、本発明は、以下の請求項によってのみ制限される。
参考文献
J.Hoshen and R.Kopelman(1976),”Percolation and Cluster Distribution”,Phys.Rev.B.1(14):3438−3445
http://jpe.oxfordjournals.org/content/1/1/9.full
「Remote sensing imagery in vegetation mapping: a review」
リモートセンシング及びスペクトルバンドに関するアメリカ合衆国農務省へのリファレンス
www.mdpi.com%2F2072−4292%2F6%2F6%2F5257%2Fpdf&usg=AFQjCNErQYE2iPKfPKwtJYLnXLB0jWN5KA&sig2=9bMbgRXFMNgmqMIrr2TWqA
「An Airborne Multi− spectral Imaging System Based on Two Consumer−Grade Cameras for Agricultural Remote Sensing」
「体系生物学(以下簡単に体系学と呼ぶ)は、(a)生物の学名を提供する、(b)それらを説明する、(c)それらのコレクションを保存する、(d)生物の分類、それらの識別のためのキー、及びそれらの分布のデータを提供する、(e)それらの進化の歴史を調べる、及び(f)それらの環境適応を考える。”***
*** Wikipedia−体系学
US DOAによって説明されるようなUAV画像は、上述のシナリオでの50mmのレンズを使用する一方で、前述のシナリオよりも12.5倍低い解像度である、せいぜい1ピクセル/0.1m(10cm)しか使用せず、結果的に、DOA研究の最高解像度と比較して50倍の解像度で3メートルの高度から100ピクセル以上/平方センチメートル!をもたらすことになる。
この種の解像度での畑のセンシングは、害虫の種類の識別と、さらにはアブラムシとハエとの遠隔区別も可能にする。
Chambolle,A.(2004),”An algorithm for total variation minimization and applications”,Journal of Mathematical Imaging and Vision,20:89−97.

Claims (8)

  1. マルチスペクトル画像収集及び分析ための方法であって、前記方法が、
    予め選択された解像度で予め定義された調査パラメータに従ってマルチスペクトル航空画像を取り込むことと、
    取り込まれた画像の大規模ブロブパーティショニングを用いて事前分析をリアルタイム又はほぼリアルタイムで自動的に行うことと、
    前記予め定義された調査パラメータに従って前記分析した画像データにおけるイレギュラリティを検出し、これに対応する出力を提供することと、
    前記検出されたイレギュラリティにGPSデータを関連付けることと、
    前記出力から、第2段階の前記予め選択された解像度よりも高い解像度での画像収集及び小規模ブロブパーティショニングを用いる分析を行うかどうかを判断することと、
    前記関連付けられたGPSデータを用いて前記予め選択された解像度よりも高い解像度で前記検出されたイレギュラリティのうちの少なくとも1つのさらなるマルチスペクトル画像を取り込むように画像収集デバイスを誘導することと、
    前記さらなるマルチスペクトル画像の小規模ブロブパーティショニングを用いる分析をリアルタイム又はほぼリアルタイムで行うことと、
    を含む、方法。
  2. 前記判断するステップが自動的に行われる、請求項に記載の方法。
  3. 前記誘導するステップが前記画像収集デバイスを自動的に誘導することを含む、請求項に記載の方法。
  4. 前記判断するステップが、
    予め定義された範囲のパラメータ値と関連付けられるピクセルが1に設定され、残りのピクセルが0に設定される、画像のバイナリマップを構築することと、
    前記バイナリマップをラスタ走査し、走査プロセスに沿ってブロブを見つけ出し、それらにランニング指数を割り当てることにより、前記バイナリマップと関連付けられるすべての可能なブロブの組を構築することと、
    a.所与の単一ブロブに属するいくつかのピクセルが予め定義された閾値パラメータ超えるとき、又は
    b.すべて所与の半径(ブロブの組の重心からの)に限られるブロブの組に属するいくつかのピクセルが予め定義された閾値を超えるとき、
    にブロブのグループをイレギュラリティとして定義することと、
    を含む、請求項に記載の方法。
  5. 前記検出されたイレギュラリティのうちの少なくとも1つの形態を既知のオブジェクトの形態と比較することをさらに含む、請求項に記載の方法。
  6. 前記マルチスペクトル航空画像が、可視画像及びNIR画像を含む群から選択される少なくとも2つの画像を含む、請求項1〜5のいずれか一項に記載の方法。
  7. マルチスペクトル画像収集及び分析ためのシステムであって、前記システムが、
    少なくとも1つのマルチスペクトル画像取り込みデバイスと、
    前記画像取り込みデバイスに結合されるプロセッサであって
    前記プロセッサは、予め定義された調査パラメータに従ってブロブパーティショニングにより取り込まれた画像を自動的に分析し、前記予め定義された調査パラメータ内に入る各画像上のイレギュラリティに対応する出力を提供するべく、ブロブパーティショニングモジュールを含む画像処理モジュールを動作させ、
    前記ブロブパーティショニングモジュールは、大規模ブロブパーティショニングと小規模ブロブパーティショニングとの両方を実施することができる、プロセッサと
    前記イレギュラリティの地理的場所の表示を提供するように適合及び構成された地理的場所インジケータと、
    を備え、
    前記プロセッサが、前記出力に応答して前記イレギュラリティの画像を取り込むべく前記少なくとも1つのマルチスペクトル画像取り込みデバイスのうちの1つを前記表示された地理的場所へ誘導するかどうかを自動的に判断するように構成される、システム。
  8. 前記プロセッサが、データ及び命令を交換するためにユーザと双方向通信する、請求項7に記載のシステム。
JP2018543475A 2015-11-08 2016-11-08 航空画像を収集及び分析するための方法 Active JP6921095B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562252513P 2015-11-08 2015-11-08
US62/252,513 2015-11-08
PCT/IL2016/051205 WO2017077543A1 (en) 2015-11-08 2016-11-08 A method for aerial imagery acquisition and analysis

Publications (2)

Publication Number Publication Date
JP2018534714A JP2018534714A (ja) 2018-11-22
JP6921095B2 true JP6921095B2 (ja) 2021-08-25

Family

ID=58662917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018543475A Active JP6921095B2 (ja) 2015-11-08 2016-11-08 航空画像を収集及び分析するための方法

Country Status (11)

Country Link
US (1) US10943114B2 (ja)
EP (1) EP3374928B1 (ja)
JP (1) JP6921095B2 (ja)
KR (1) KR102623403B1 (ja)
CN (1) CN108369635B (ja)
AU (1) AU2016350155B2 (ja)
BR (1) BR112018009108B1 (ja)
CA (1) CA3004388C (ja)
EA (1) EA039345B1 (ja)
MX (1) MX2018005714A (ja)
WO (1) WO2017077543A1 (ja)

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090077623A1 (en) 2005-03-16 2009-03-19 Marc Baum Security Network Integrating Security System and Network Devices
US11113950B2 (en) 2005-03-16 2021-09-07 Icontrol Networks, Inc. Gateway integrated with premises security system
US11489812B2 (en) 2004-03-16 2022-11-01 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US11343380B2 (en) 2004-03-16 2022-05-24 Icontrol Networks, Inc. Premises system automation
US9141276B2 (en) 2005-03-16 2015-09-22 Icontrol Networks, Inc. Integrated interface for mobile device
US20160065414A1 (en) 2013-06-27 2016-03-03 Ken Sundermeyer Control system user interface
US10522026B2 (en) 2008-08-11 2019-12-31 Icontrol Networks, Inc. Automation system user interface with three-dimensional display
US10339791B2 (en) 2007-06-12 2019-07-02 Icontrol Networks, Inc. Security network integrated with premise security system
US20170118037A1 (en) 2008-08-11 2017-04-27 Icontrol Networks, Inc. Integrated cloud system for premises automation
US10237237B2 (en) 2007-06-12 2019-03-19 Icontrol Networks, Inc. Communication protocols in integrated systems
US7711796B2 (en) 2006-06-12 2010-05-04 Icontrol Networks, Inc. Gateway registry methods and systems
US11677577B2 (en) 2004-03-16 2023-06-13 Icontrol Networks, Inc. Premises system management using status signal
US9729342B2 (en) 2010-12-20 2017-08-08 Icontrol Networks, Inc. Defining and implementing sensor triggered response rules
US11316958B2 (en) 2008-08-11 2022-04-26 Icontrol Networks, Inc. Virtual device systems and methods
US11916870B2 (en) 2004-03-16 2024-02-27 Icontrol Networks, Inc. Gateway registry methods and systems
US11582065B2 (en) 2007-06-12 2023-02-14 Icontrol Networks, Inc. Systems and methods for device communication
US9531593B2 (en) 2007-06-12 2016-12-27 Icontrol Networks, Inc. Takeover processes in security network integrated with premise security system
US11201755B2 (en) 2004-03-16 2021-12-14 Icontrol Networks, Inc. Premises system management using status signal
US11244545B2 (en) 2004-03-16 2022-02-08 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US10156959B2 (en) 2005-03-16 2018-12-18 Icontrol Networks, Inc. Cross-client sensor user interface in an integrated security network
US10200504B2 (en) 2007-06-12 2019-02-05 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11190578B2 (en) 2008-08-11 2021-11-30 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11159484B2 (en) 2004-03-16 2021-10-26 Icontrol Networks, Inc. Forming a security network including integrated security system components and network devices
US10142392B2 (en) 2007-01-24 2018-11-27 Icontrol Networks, Inc. Methods and systems for improved system performance
US11811845B2 (en) 2004-03-16 2023-11-07 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20050216302A1 (en) 2004-03-16 2005-09-29 Icontrol Networks, Inc. Business method for premises management
US11277465B2 (en) 2004-03-16 2022-03-15 Icontrol Networks, Inc. Generating risk profile using data of home monitoring and security system
US11368429B2 (en) 2004-03-16 2022-06-21 Icontrol Networks, Inc. Premises management configuration and control
US10721087B2 (en) 2005-03-16 2020-07-21 Icontrol Networks, Inc. Method for networked touchscreen with integrated interfaces
US10062273B2 (en) 2010-09-28 2018-08-28 Icontrol Networks, Inc. Integrated security system with parallel processing architecture
US11700142B2 (en) 2005-03-16 2023-07-11 Icontrol Networks, Inc. Security network integrating security system and network devices
US20170180198A1 (en) 2008-08-11 2017-06-22 Marc Baum Forming a security network including integrated security system components
US11496568B2 (en) 2005-03-16 2022-11-08 Icontrol Networks, Inc. Security system with networked touchscreen
US11615697B2 (en) 2005-03-16 2023-03-28 Icontrol Networks, Inc. Premise management systems and methods
US10999254B2 (en) 2005-03-16 2021-05-04 Icontrol Networks, Inc. System for data routing in networks
US20120324566A1 (en) 2005-03-16 2012-12-20 Marc Baum Takeover Processes In Security Network Integrated With Premise Security System
US20110128378A1 (en) 2005-03-16 2011-06-02 Reza Raji Modular Electronic Display Platform
US9306809B2 (en) 2007-06-12 2016-04-05 Icontrol Networks, Inc. Security system with networked touchscreen
US10079839B1 (en) 2007-06-12 2018-09-18 Icontrol Networks, Inc. Activation of gateway device
US11706279B2 (en) 2007-01-24 2023-07-18 Icontrol Networks, Inc. Methods and systems for data communication
US7633385B2 (en) 2007-02-28 2009-12-15 Ucontrol, Inc. Method and system for communicating with and controlling an alarm system from a remote server
US8451986B2 (en) 2007-04-23 2013-05-28 Icontrol Networks, Inc. Method and system for automatically providing alternate network access for telecommunications
US11316753B2 (en) 2007-06-12 2022-04-26 Icontrol Networks, Inc. Communication protocols in integrated systems
US10523689B2 (en) 2007-06-12 2019-12-31 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US11237714B2 (en) 2007-06-12 2022-02-01 Control Networks, Inc. Control system user interface
US11423756B2 (en) 2007-06-12 2022-08-23 Icontrol Networks, Inc. Communication protocols in integrated systems
US11089122B2 (en) 2007-06-12 2021-08-10 Icontrol Networks, Inc. Controlling data routing among networks
US11601810B2 (en) 2007-06-12 2023-03-07 Icontrol Networks, Inc. Communication protocols in integrated systems
US11212192B2 (en) 2007-06-12 2021-12-28 Icontrol Networks, Inc. Communication protocols in integrated systems
US11646907B2 (en) 2007-06-12 2023-05-09 Icontrol Networks, Inc. Communication protocols in integrated systems
US12003387B2 (en) 2012-06-27 2024-06-04 Comcast Cable Communications, Llc Control system user interface
US11218878B2 (en) 2007-06-12 2022-01-04 Icontrol Networks, Inc. Communication protocols in integrated systems
US11831462B2 (en) 2007-08-24 2023-11-28 Icontrol Networks, Inc. Controlling data routing in premises management systems
US11916928B2 (en) 2008-01-24 2024-02-27 Icontrol Networks, Inc. Communication protocols over internet protocol (IP) networks
US20170185278A1 (en) 2008-08-11 2017-06-29 Icontrol Networks, Inc. Automation system user interface
US11729255B2 (en) 2008-08-11 2023-08-15 Icontrol Networks, Inc. Integrated cloud system with lightweight gateway for premises automation
US11792036B2 (en) * 2008-08-11 2023-10-17 Icontrol Networks, Inc. Mobile premises automation platform
US11758026B2 (en) 2008-08-11 2023-09-12 Icontrol Networks, Inc. Virtual device systems and methods
US11258625B2 (en) * 2008-08-11 2022-02-22 Icontrol Networks, Inc. Mobile premises automation platform
US8638211B2 (en) 2009-04-30 2014-01-28 Icontrol Networks, Inc. Configurable controller and interface for home SMA, phone and multimedia
US8836467B1 (en) 2010-09-28 2014-09-16 Icontrol Networks, Inc. Method, system and apparatus for automated reporting of account and sensor zone information to a central station
US11750414B2 (en) 2010-12-16 2023-09-05 Icontrol Networks, Inc. Bidirectional security sensor communication for a premises security system
US9147337B2 (en) 2010-12-17 2015-09-29 Icontrol Networks, Inc. Method and system for logging security event data
US11405463B2 (en) 2014-03-03 2022-08-02 Icontrol Networks, Inc. Media content management
US11146637B2 (en) 2014-03-03 2021-10-12 Icontrol Networks, Inc. Media content management
GB2568007A (en) 2016-09-08 2019-05-01 Walmart Apollo Llc Systems and methods for dispensing an insecticide via unmanned vehicles to defend a crop-containing area against pests
US11266054B2 (en) 2017-01-24 2022-03-08 Cnh Industrial America Llc System and method for automatically estimating and adjusting crop residue parameters as a tillage operation is being performed
WO2018168565A1 (ja) * 2017-03-12 2018-09-20 株式会社ナイルワークス 作物撮影用ドローン
US11470784B2 (en) * 2017-03-21 2022-10-18 Paul Richard GAUVREAU, Jr. Unmanned aerial vehicle for augmenting plant pollination
WO2018198313A1 (ja) * 2017-04-28 2018-11-01 株式会社オプティム 無人飛行体のアクションプラン作成システム、方法及びプログラム
IL253260B (en) 2017-07-02 2021-07-29 Manna Irrigation Ltd Methods and systems for directing irrigation
AU2018298392B2 (en) 2017-07-06 2024-02-15 Bayer Aktiengesellschaft Apparatus for weed control
EP3425572A1 (en) * 2017-07-06 2019-01-09 Bayer Aktiengesellschaft Apparatus for automated weed control
CN109406412A (zh) * 2017-08-18 2019-03-01 广州极飞科技有限公司 一种植物健康状态监控方法及装置
US10491778B2 (en) 2017-09-21 2019-11-26 Honeywell International Inc. Applying features of low-resolution data to corresponding high-resolution data
US20190266401A1 (en) * 2018-01-11 2019-08-29 Intelinair, Inc Change Detection System
US11116145B2 (en) 2018-03-30 2021-09-14 Greensight Argonomics, Inc. Automated optimization of agricultural treatments based on raster image data system
US11235874B2 (en) 2018-03-30 2022-02-01 Greensight Agronomics, Inc. Automated drone-based spraying system
US11205073B2 (en) 2018-03-30 2021-12-21 Greensight Agronomics, Inc. System to automatically detect and report changes over time in a large imaging data set
IL258665B (en) 2018-04-12 2021-12-01 Manna Irrigation Ltd Growth constants and their use for guiding irrigation
CN112352256B (zh) 2018-05-30 2024-06-25 谷歌有限责任公司 优化地理区域选择
EP3821313A4 (en) * 2018-07-12 2022-07-27 Terraclear Inc. SYSTEM AND METHOD FOR IDENTIFICATION AND COLLECTION OF OBJECTS
IL260844B (en) * 2018-07-29 2019-09-26 Benedek Nadav System and method for locating and destroying insects
CN109100350B (zh) * 2018-08-21 2022-01-28 珠海市博恩科技有限公司 一种面粉麸星检测方法
US10813262B2 (en) * 2018-10-16 2020-10-27 Cnh Industrial America Llc System and method for generating a prescription map for an agricultural implement based on yield map and/or crop biomass
JP7292850B2 (ja) * 2018-10-17 2023-06-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN109492541B (zh) * 2018-10-18 2021-02-19 广州极飞科技有限公司 目标对象类型的确定方法及装置、植保方法、植保系统
US10778916B2 (en) 2018-10-24 2020-09-15 Honeywell International Inc. Applying an annotation to an image based on keypoints
CN109151402B (zh) * 2018-10-26 2022-10-11 深圳市道通智能航空技术股份有限公司 航拍相机的图像处理方法、图像处理系统及无人机
CN111191488B (zh) * 2018-11-15 2023-06-27 中国电信股份有限公司 活体检测方法、装置、系统和计算机可读存储介质
CN109684938A (zh) * 2018-12-06 2019-04-26 广西大学 一种基于作物冠层航拍俯视图的甘蔗株数自动识别方法
CN109919088B (zh) * 2019-03-06 2022-09-23 贵州师范大学 一种喀斯特地区火龙果单株识别自动提取方法
JP7383722B2 (ja) * 2019-03-22 2023-11-20 ビーエーエスエフ コーティングス ゲゼルシャフト ミット ベシュレンクテル ハフツング ターゲットコーティングの画像データにおける欠陥検出の方法とシステム
JP6690106B1 (ja) * 2019-03-26 2020-04-28 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 決定装置、撮像システム、及び移動体
CN110334372B (zh) * 2019-04-22 2023-02-03 武汉建工智能技术有限公司 一种基于图纸配准的bim增强现实仿真方法
JP7415348B2 (ja) * 2019-07-03 2024-01-17 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、センシングシステム
WO2021062459A1 (en) * 2019-10-04 2021-04-08 Single Agriculture Pty Ltd Weed mapping
CN110866493B (zh) * 2019-11-14 2022-03-22 生态环境部南京环境科学研究所 基于遥感影像的规模化生猪养殖场识别方法
KR102254491B1 (ko) * 2019-11-22 2021-05-21 (주)가시 지능형 영상 분석 모듈을 탑재한 자율비행 드론
CN111027441B (zh) * 2019-12-03 2023-05-05 西安石油大学 一种基于机载高光谱遥感影像的道路提取方法
CN111047566B (zh) * 2019-12-04 2023-07-14 昆明市滇池高原湖泊研究院 无人机和多光谱卫星影像进行水生植被年变化统计的方法
CN112948371A (zh) * 2019-12-10 2021-06-11 广州极飞科技股份有限公司 数据处理方法、装置、存储介质、处理器
US11263454B2 (en) * 2020-05-25 2022-03-01 Jingdong Digits Technology Holding Co., Ltd. System and method for video-based pig counting in the crowd
KR102162342B1 (ko) * 2020-06-17 2020-10-06 주식회사 아이온커뮤니케이션즈 태양광 패널 검사용 고품질 영상 획득을 위한 무인 비행체 및 그의 비행 제어 방법
KR102187654B1 (ko) * 2020-07-09 2020-12-07 주식회사 이노드 저고도 무인 비행체 및 이를 포함하는 작물 재배 정보 획득 시스템
CN112034512B (zh) * 2020-09-02 2023-03-14 中海石油(中国)有限公司 基于深度学习模型的地震数据不连续性检测方法和系统
KR102218863B1 (ko) * 2020-10-16 2021-02-24 네이버시스템(주) 드론을 이용한 실시간 변량 살포 방법 및 드론을 이용한 실시간 변량 살포 시스템
KR102267022B1 (ko) * 2020-10-30 2021-06-18 주식회사 스페이스소프트인더스트리 액제 혹은 입제를 변량 살포하기 위한 드론
WO2022155565A1 (en) * 2021-01-15 2022-07-21 Medici Land Governance Enhancement of coarse resolution imagery using super-resolution and convolution neural networks to be used for fit-for-purpose systematic land titling and land valuation
CN112906648A (zh) * 2021-03-24 2021-06-04 深圳前海微众银行股份有限公司 一种地块中对象的分类方法、装置及电子设备
KR102300348B1 (ko) * 2021-04-13 2021-09-09 주식회사 프로펠 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법
KR102300349B1 (ko) * 2021-04-13 2021-09-09 주식회사 프로펠 탐지 상황에 따라 자동으로 이동 경로를 설정하는 무인 항공기, 및 운용 방법
CN113177956B (zh) * 2021-05-11 2024-06-14 南通大学 一种面向无人机遥感影像的语义分割方法
CN113361350A (zh) * 2021-05-25 2021-09-07 东南大学 一种地表生境因子量化解析方法
JP2023170711A (ja) * 2022-05-19 2023-12-01 横河電機株式会社 データ取得装置、データ取得方法、および、データ取得プログラム
CN116258785A (zh) * 2023-02-14 2023-06-13 国家海洋信息中心 一种基于数值特征统计的海洋环境遥感可视化表达方法
CN116733472B (zh) * 2023-06-05 2024-06-04 江西华丽丰科技有限公司 一种基于智能算法的金属矿石采选控制系统
CN117014584B (zh) * 2023-09-28 2023-12-29 中国科学院空天信息创新研究院 植被遥感产品获取系统及方法
CN117611784A (zh) * 2023-11-30 2024-02-27 华北电力大学 面向多光谱高时效性放电检测的协同控制方法及装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010016053A1 (en) 1997-10-10 2001-08-23 Monte A. Dickson Multi-spectral imaging sensor
US6178253B1 (en) 1997-10-10 2001-01-23 Case Corporation Method of determining and treating the health of a crop
JP2000194833A (ja) * 1998-12-28 2000-07-14 Hitachi Ltd 観測衛星を利用した地域管理システム,地域管理方法と農業育成管理システム及び観測衛星運用システム
US6567537B1 (en) 2000-01-13 2003-05-20 Virginia Commonwealth University Method to assess plant stress using two narrow red spectral bands
US7161665B2 (en) * 2002-12-18 2007-01-09 University Of Wyoming High resolution imaging fountain flow cytometry
US7208733B2 (en) * 2004-08-24 2007-04-24 International Electronic Machines Corp. Non-visible radiation imaging and inspection
US8009871B2 (en) * 2005-02-08 2011-08-30 Microsoft Corporation Method and system to segment depth images and to detect shapes in three-dimensionally acquired data
US8503794B2 (en) * 2010-07-28 2013-08-06 Microsoft Corporation Data difference guided image capturing
JP5560157B2 (ja) * 2010-10-19 2014-07-23 株式会社日立製作所 スペクトル情報抽出装置
US20140312165A1 (en) * 2013-03-15 2014-10-23 Armen Mkrtchyan Methods, apparatus and systems for aerial assessment of ground surfaces
FR3003377A1 (fr) * 2013-03-18 2014-09-19 Delta Drone Procede d'analyse d'une parcelle agricole cultivee
FR3003380A1 (fr) 2013-03-18 2014-09-19 Delta Drone Procede de surveillance de l'etat de vegetation aux abords d'une infrastructure
EP3541071A1 (en) * 2013-08-02 2019-09-18 Xactware Solutions Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
US9830514B2 (en) * 2013-12-27 2017-11-28 Weyerhaeuser Nr Company Method and apparatus for distinguishing between types of vegetation using near infrared color photos
US20150254800A1 (en) * 2014-03-06 2015-09-10 F12 Solutions, Llc Nitrogen status determination in growing crops
US9734399B2 (en) * 2014-04-08 2017-08-15 The Boeing Company Context-aware object detection in aerial photographs/videos using travel path metadata
CN104851113B (zh) * 2015-04-17 2017-11-03 华中农业大学 多分辨率遥感影像的城市植被自动提取方法
US9989965B2 (en) * 2015-08-20 2018-06-05 Motionloft, Inc. Object detection and analysis via unmanned aerial vehicle

Also Published As

Publication number Publication date
MX2018005714A (es) 2019-08-16
KR102623403B1 (ko) 2024-01-12
CN108369635A (zh) 2018-08-03
JP2018534714A (ja) 2018-11-22
AU2016350155A1 (en) 2018-05-24
CA3004388C (en) 2024-02-13
EP3374928A1 (en) 2018-09-19
US10943114B2 (en) 2021-03-09
BR112018009108A2 (pt) 2018-11-06
KR20180081104A (ko) 2018-07-13
WO2017077543A1 (en) 2017-05-11
AU2016350155B2 (en) 2021-08-19
BR112018009108B1 (pt) 2023-10-24
EA039345B1 (ru) 2022-01-17
US20190073534A1 (en) 2019-03-07
EP3374928A4 (en) 2019-06-05
CA3004388A1 (en) 2017-05-11
CN108369635B (zh) 2022-07-29
BR112018009108A8 (pt) 2019-02-26
EP3374928B1 (en) 2024-03-27
EA201890935A1 (ru) 2018-11-30

Similar Documents

Publication Publication Date Title
JP6921095B2 (ja) 航空画像を収集及び分析するための方法
Rasmussen et al. Pre-harvest weed mapping of Cirsium arvense in wheat and barley with off-the-shelf UAVs
Barbosa et al. RGB vegetation indices applied to grass monitoring: A qualitative analysis
Onishi et al. Automatic classification of trees using a UAV onboard camera and deep learning
Laliberte et al. Image processing and classification procedures for analysis of sub-decimeter imagery acquired with an unmanned aircraft over arid rangelands
Jiménez-Brenes et al. Automatic UAV-based detection of Cynodon dactylon for site-specific vineyard management
US20200244890A1 (en) Unmanned aerial vehicle
Santoso et al. A simple method for detection and counting of oil palm trees using high-resolution multispectral satellite imagery
KR102098259B1 (ko) 무인항공기를 이용한 산림병해충 의심목 선별 시스템
KR102297913B1 (ko) 하이퍼스펙트럴 반사광 및 형광 산란을 이용한 식물 생장 모니터링 시스템 및 그 방법
JP2023526390A (ja) ゴルフコースのディボット探知システム及びこれを用いた探知方法
Tubau Comas et al. Automatic apple tree blossom estimation from UAV RGB imagery
Marcal et al. Evaluation of satellite image segmentation using synthetic images
Gadhwal et al. Spatial corn canopy temperature extraction: How focal length and sUAS flying altitude influence thermal infrared sensing accuracy
Choudhury et al. UAV-assisted multi-modal detection and severity assessment for red spider mites in tea
López et al. Multi-Spectral Imaging for Weed Identification in Herbicides Testing
Wijesingha et al. Mapping invasive Lupinus polyphyllus Lindl. in semi-natural grasslands using object-based analysis of UAV-borne images
Khidher et al. Automatic trees density classification using deep learning of unmanned aerial vehicles images
Lozano et al. Detection and Monitoring of Alien Weeds Using Unmanned Aerial Vehicle in Agricultural Systems in Sardinia (Italy)
Iwaszenko et al. Computer Software for Selected Plant Species Segmentation on Airborne Images
Baron Mapping invasive plants using RPAS and remote sensing
Haddadi Amlashi Improved Watershed Segmentation Algorithm for Tree Crowns Extraction from Multi-Spectral Uav-Based Aerial Images
Hamzah et al. Visualization of Tree Species Identification Using Mask RCNNs for Tropical Forests in Malaysia
JP2023140607A (ja) 情報処理装置、情報処理方法、およびプログラム
Moldovan et al. Monitoring diviciori forest improvement perimeters using aerial photos

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210401

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210527

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210727

R150 Certificate of patent or registration of utility model

Ref document number: 6921095

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250