JP2022502794A - 分布情報の確定方法、無人飛行体の制御方法及び装置 - Google Patents

分布情報の確定方法、無人飛行体の制御方法及び装置 Download PDF

Info

Publication number
JP2022502794A
JP2022502794A JP2021520573A JP2021520573A JP2022502794A JP 2022502794 A JP2022502794 A JP 2022502794A JP 2021520573 A JP2021520573 A JP 2021520573A JP 2021520573 A JP2021520573 A JP 2021520573A JP 2022502794 A JP2022502794 A JP 2022502794A
Authority
JP
Japan
Prior art keywords
target
image information
area
distribution
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021520573A
Other languages
English (en)
Inventor
双亮 代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Xaircraft Technology Co Ltd
Original Assignee
Guangzhou Xaircraft Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Xaircraft Technology Co Ltd filed Critical Guangzhou Xaircraft Technology Co Ltd
Publication of JP2022502794A publication Critical patent/JP2022502794A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D1/00Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
    • B64D1/16Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting
    • B64D1/18Dropping or releasing powdered, liquid, or gaseous matter, e.g. for fire-fighting by spraying, e.g. insecticides
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/40UAVs specially adapted for particular uses or applications for agriculture or forestry operations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Pest Control & Pesticides (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)
  • Catching Or Destruction (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

分布情報の確定方法、無人飛行体の制御方法及び装置を提供する。制御方法は、目標エリアの画像情報を取得するステップ(S102)と、画像情報をプリセットモデルに入力して分析を行って、目標エリアにおける目標対象の分布情報を得るステップ(S104)と、分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御するステップ(S106)とを含み、プリセットモデルが、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータが、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。したがって、農産物と雑草との区別が困難であることに起因した薬物の浪費や農薬の残留などの技術的課題を解決できる【選択図】図1

Description

関係出願の相互参照
本出願は、2018年10月18日に中国専利局に提出された、出願番号が201811217967.Xであり、名称が「分布情報の確定方法、無人飛行体の制御方法及び装置」である中国出願に基づいて優先権を主張し、その全ての内容が、参照により本出願に組み込まれる。
技術分野
本出願は、植物保護の分野に属し、具体的には、分布情報の確定方法、無人飛行体の制御方法及び装置に関する。
現在、無人飛行体(Unmanned Aerial Vehicle、ドローン)は、除草剤又は落葉剤については、まんべんなく散布する方式を採用しており、まんべんなく散布すれば、農薬の多量の浪費や残留が発生したり、又は一部の雑草害の深刻なところに対して薬散布量が不足したりし、莫大な経済的損失をもたらす。
本実施例では、少なくとも従来技術においては農産物と雑草との区別が困難であることに起因した薬物の浪費や農薬の残留などの技術的課題を解決できる分布情報の確定方法、無人飛行体の制御方法及び装置を提供する。
本実施例の一局面によれば、無人飛行体の制御方法が提供される。この無人飛行体の制御方法は、目標エリアの処理対象画像情報を取得するステップと、処理対象画像情報をプリセットモデルに入力して分析を行って、処理対象画像における目標対象の分布情報を得るステップと、処理対象画像情報に対応する分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御するステップとを含み、プリセットモデルが、複数組のデータ(データセット)によってトレーニング(学習)されたもの(学習済みモデル)であり、複数組のデータのうちの各組のデータが、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
任意で、前記プリセットモデルをトレーニングするステップは、
サンプル画像情報を取得して前記サンプル画像情報における目標対象の位置をマークし、このサンプル画像情報に対応する、目標対象の分布情報のラベルを取得し、前記サンプル画像及び対応のラベルをプリセットモデルに入力するステップと、
前記プリセットモデルにおける第1コンボリューション(畳み込み)ネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第1コンボリューション画像を得るステップと、
前記プリセットモデルにおける前記第1コンボリューションネットワークモデルに用いられるコンボリューションカーネルとは異なるコンボリューションカーネルを用いる第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第2コンボリューション画像を得るステップと、
前記サンプル画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合して、統合画像を得るステップと、
前記統合画像に対してデコンボリューション(逆畳み込み)処理を行い、デコンボリューション処理の結果及び前記サンプル画像のラベルに基づいてバックプロパゲーション(誤差逆伝播法)を行い、前記プリセットモデルの各部分のパラメータを調整するステップとを含んでいてもよい。
任意で、前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を得るステップは、
処理対象画像情報をトレーニング済みの前記プリセットモデルに入力するステップと、
前記プリセットモデルにおける第1コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記処理対象画像情報の第1コンボリューション画像を得るステップと、
前記プリセットモデルにおける第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記処理対象画像情報の第2コンボリューション画像を得るステップと、
前記処理対象画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合し、統合した画像に対してデコンボリューション処理を行って、得られた前記処理対象画像に対応する密度図を前記処理対象画像における目標対象の分布情報とするステップとを含んでいてもよい。
任意で、前記密度図における画素の値は、この画素の対応の位置における前記目標対象の分布密度値であってもよい。
任意で、上記サンプル画像情報は、目標エリアにおける目標対象の各分布エリア内の密度を反映するための目標対象の密度図を含んでいてもよい。
任意で、上記密度図は、目標対象の密度を示すためのマークを有してもよい。
任意で、上記分布情報は、目標対象の目標エリアにおける各分布エリア内の密度、目標対象が存在する分布エリアの面積のうちの少なくとも1種を含み、分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御するステップは、目標対象の分布エリア内の密度に基づいて無人飛行体の分布エリアに対する薬物散布量又は散布の持続時間を確定すること、及び/又は、目標対象が存在する分布エリアの面積に基づいて薬物の散布幅を確定することを含んでいてもよい。
任意で、分布情報は、目標対象の目標エリアにおける分布エリアをさらに含み、この方法は、目標対象の分布エリアの位置に基づいて無人飛行体の飛行経路を確定するステップと、無人飛行体を飛行経路に沿って移動するように制御するするステップとを含んでいてもよい。
任意で、分布情報に基づいて無人飛行体を制御して目標対象に対して薬物散布を行ったあと、この方法は、目標エリアにおいて、無人飛行体の目標エリアにおける薬物未散布の分布エリアである残り分布エリアを検出するステップと、残り分布エリアにおける目標対象の密度及び残り分布エリアの総面積を確定するステップと、残り分布エリアにおける目標対象の密度及び残り分布エリアの総面積に基づいて残り分布エリアに必要な薬物総量を確定するステップと、無人飛行体における残り薬物量と薬物総量との差を確定するステップと、この差と予め設定した閾値とを比較し、比較結果に基づいて無人飛行体の飛行経路を調整するステップとを含んでいてもよい。
任意で、分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御する前に、この方法は、分布情報における目標対象の目標エリアにおける分布エリアの大きさ及び目標対象の分布エリア内の密度に基づいて無人飛行体の目標薬物使用量を確定するステップをさらに含んでいてもよい。
本実施例の他の局面によれば、無人飛行体の制御装置が提供される。この無人飛行体の制御装置は、目標エリアの画像情報を取得するための取得モジュールと、画像情報をプリセットモデルに入力して分析を行って、目標エリアの目標対象の分布情報を得るための分析モジュールと、分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御する制御モジュールとを有し、プリセットモデルが、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータが、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
本実施例の他の局面によれば、無人飛行体が提供される。この無人飛行体は、目標エリアの画像情報を取得するための画像取得装置と、画像情報をプリセットモデルに入力して分析を行って、目標エリアにおける目標対象の分布情報を取得し、分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御するためのプロセッサとを有し、プリセットモデルが、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータが、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
本実施例の他の局面によれば、無人飛行体が提供される。この無人飛行体は、特定の設備からの目標エリアの画像情報を受信するための通信モジュールと、画像情報をプリセットモデルに入力して分析を行って、目標エリアにおける目標対象の分布情報を取得し、分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御するためのプロセッサとを有し、特定の設備が、ネットワーク側のサーバ又は測量製図ドローンを含み、プリセットモデルが、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータが、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
本実施例の他の局面によれば、設備に配置され、この設備を制御して上記の分布情報の確定方法を実行するプログラムが記憶された記憶媒体が提供される。
本実施例の他の局面によれば、上記の分布情報の確定方法を実行するプログラムを実行するためのプロセッサが提供される。
本実施例の他の局面によれば、目標対象の分布情報の確定方法が提供される。この方法は、目標エリアの画像情報を取得するステップと、画像情報をプリセットモデルに入力して分析を行って、目標エリアにおける目標対象の分布情報を得るステップとを含み、プリセットモデルが、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータが、いずれもサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
任意で、前記プリセットモデルをトレーニングするステップは、
サンプル画像情報を取得して前記サンプル画像情報における目標対象の位置をマークし、このサンプル画像情報に対応する、目標対象の分布情報のラベルを取得し、前記サンプル画像及び対応のラベルをプリセットモデルに入力するステップと、
前記プリセットモデルにおける第1コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第1コンボリューション画像を得るステップと、
前記プリセットモデルにおける前記第1コンボリューションネットワークモデルに用いられるコンボリューションカーネルとは異なるコンボリューションカーネルを用いる第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第2コンボリューション画像を得るステップと、
前記サンプル画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合して、統合画像を得るステップと、
前記統合画像に対してデコンボリューション処理を行い、デコンボリューション処理の結果及び前記サンプル画像のラベルに基づいてバックプロパゲーションを行い、前記プリセットモデルの各部分のパラメータを調整するステップとを含んでいてもよい。
任意で、前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を得るステップは、
処理対象画像情報をトレーニング済みの前記プリセットモデルに入力するステップと、
前記プリセットモデルにおける第1コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記処理対象画像情報の第1コンボリューション画像を得るステップと、
前記プリセットモデルにおける第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記処理対象画像情報の第2コンボリューション画像を得るステップと、
前記処理対象画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合し、統合した画像に対してデコンボリューション処理を行って、得られた前記処理対象画像に対応する密度図を前記処理対象画像における目標対象の分布情報とするステップとを含んでいてもよい。
任意で、前記密度図における画素の値は、この画素の対応の位置における前記目標対象の分布密度値であってもよい。
任意で、サンプル画像情報は、目標エリアにおける目標対象の各分布エリア内の密度を反映するための目標対象の密度図を含んでいてもよい。
任意で、密度図は、目標対象の密度を示すためのマークを有してもよい。
任意で、目標エリアが複数あり、かつ、複数の前記目標エリアが異なる販売エリアに位置するとき、複数の目標エリアにおける目標対象の密度図に基づいて薬物の目標販売エリアを確定してもよい。
任意で、分布情報は、目標対象の目標エリアにおける分布エリアをさらに含み、上記方法は、目標対象の分布エリアの位置に基づいて無人飛行体の飛行経路を確定するステップをさらに含んでいてもよい。
任意で、画像情報をプリセットモデルに入力して分析を行って、目標エリアにおける目標対象の分布情報を得たあと、この方法は、目標対象の種類を確定するステップと、種類及び分布情報に基づいて目標エリアにおける各サブエリアの薬物散布情報を確定するステップと、目標エリアの画像情報に薬物散布情報をマークするためのマーク情報を加え、目標エリアの処方図を得るステップとを含み、この薬物散布情報が、目標対象の目標エリアのサブエリアにおける薬物の種類と薬物の目標散布量とを含んでいてもよい。
任意で、前記目標エリアは薬物を散布する対象である畑であり、前記目標対象は雑草であってもよい。
本出願の実施例において、目標エリアの画像情報を取得し、画像情報をプリセットモデルに入力して分析を行って、目標エリアにおける目標対象の分布情報を取得し、分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御し、プリセットモデルが、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータが、いずれも目標エリアの画像情報と、画像情報における目標対象の分布情報をマークするためのラベルとを含む。したがって、無人飛行体が異なるエリア内の雑草の分布密度に応じて薬物の散布量をコントロールするとの目的を達せるので、異なるエリア内の雑草の分布密度を考慮する薬物の散布量の設定、農薬の節約、薬物の散布効率の向上という技術的効果を実現でき、さらに、農産物と雑草との区別が困難であることに起因した薬物の浪費や農薬の残留などの技術的課題を解決できる。
ここで説明する図面は、本出願の一部として、本出願をさらに理解するためのものであり、本出願の例示的な実施例及びその説明は、本出願を解釈するために用いられるものであり、いずれも本出願に対する不当な限定にはならない。
本出願の実施例に係る無人飛行体の制御方法を模式的に示すフローチャートである。 本出願の実施例に係るプリセットモデルのトレーニング法を模式的に示すフローチャートである。 図3a及び図3bは、本出願の実施例に係るサンプル画像及びそれに対するマークの模式図である。 本出願の実施例に係る他のプリセットモデルのトレーニング法を模式的に示すフローチャートである。 本出願の実施例に係る密度図の模式図である。 本出願の実施例に係る選択可能な無人飛行体の制御装置の模式的構成図である。 本出願の実施例に係る選択可能な無人飛行体の模式的構成図である。 本出願の実施例に係る選択可能な他の無人飛行体の模式的構成図である。 本出願の実施例に係る分布情報の確定方法を模式的に示すフローチャートである。
当業者が本出願の案をよりよく理解できるように、以下、本出願の実施例に用いられる図面を参照しながら、本出願の実施例における技術案を明瞭かつ完全に説明する。説明する実施例は、本出願の一部の実施例にすぎず、全ての実施例ではないことは無論である。本出願の実施例をもとに、当業者が発明能力を用いることなく得られた全ての他の実施例も、本出願の保護範囲に属する。
なお、本出願の明細書、特許請求の範囲及び図面における「第1」、「第2」等の用語は、類似の対象を区別するためのものにすぎず、特定の順序又は順位を限定するものではない。このように限定したデータを適当に入れ替えることができ、つまり、ここで説明する本出願の実施例は、図示又は説明する順序以外の順序で実施することもできる。また、用語「含む」、「有する」及びそれらの類義語は、非排他的包含をカバーすることが意図される。例えば一連のステップ又はユニットを含むプロセス、方法、システム又は設備は、必ずしもこれらの明記した要素のみに限定されず、明記されない、又はこれらのプロセス、方法、製品又は設備の他の固有要素を含んでもよい。
本出願の実施例によれば、無人飛行体の制御方法の一実施例が提供される。ここで、図面におけるフローチャートに示すステップは、例えばコンピュータ実行可能な命令セットなどを含むコンピュータシステムで実行できる。そして、フローチャートには論理順序を示したが、場合によっては、示された又は説明されたステップをここに示された順序とは異なる順序で実行されてもよい。
図1は、本実施例に係る無人飛行体の制御方法を模式的に示すフローチャートである。図1に示すように、この方法は下記のステップを含む。
ステップS102では、目標エリアの処理対象画像情報を取得する。
なお、この処理対象画像情報は、無人飛行体に設置された画像取得装置により目標エリアの画像を撮影して取得することができる。目標エリアは、1つ又は複数の薬物散布対象としての畑とすることができる。無人飛行体には、現目標エリアの面積情報及び経緯度情報を特定する測位システムが設置されてもよい。
ステップS104では、処理対象画像情報をプリセットモデルに入力して分析を行って、目標エリアにおける目標対象の分布情報を得る。
任意で、目標対象は畑における雑草であってもよい。
プリセットモデルは、複数組のデータ(データセット)によってトレーニング(学習)されたものであり(学習済みモデル)、複数組のデータのうちの各組のデータは、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
例えば雑草の種類を識別するための雑草識別モデルをトレーニングすることができる。雑草識別モデルは、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータは、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の種類をマークするためのラベルとを含む。
任意で、目標エリアの画像情報を取得したあと、画像情報を予め設定された雑草識別モデルに入力して分析を行って、目標エリアにおける目標対象の種類を取得することができる。ここでの目標対象は雑草である。
ステップS106において、前記処理対象画像情報に対応する分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御する。
分布情報は、前記目標対象の前記目標エリアにおける各分布エリア内の密度や、前記目標対象が存在する分布エリアの面積とすることができる。
前記分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御することは、下記の方式で実現することができる。
前記目標対象の分布エリア内の密度に基づいて前記無人飛行体の前記分布エリアに対する薬物散布量又は散布の持続時間を確定し、及び/又は、前記目標対象が存在する分布エリアの面積に基づいて薬物の散布幅を確定する。
任意で、分布エリアにおける目標対象の密度が高いほど、対応する分布エリアにおいて無人飛行体が散布する薬物の量を多く、散布の持続時間を長くしてもよい。目標対象が存在する分布エリアの面積が大きいほど、無人飛行体による薬物の散布幅を広くしてもよい。分布エリアにおける目標対象の密度及び分布エリアにおける目標対象の面積を総合的に考慮して、対応の分布エリアにおいて無人飛行体が散布する薬物の量を確定する。例えば分布エリアにおける目標対象の密度に基づいて薬物の散布量が確定される。薬物の散布幅は、縦方向の幅であってもよく、水平方向の幅であってもよい。
目標対象の分布情報は、前記目標エリアにおける前記目標対象の分布エリアをさらに含む。具体的には、取得した目標エリアの画像情報に基づいて分布エリアの画像における画素エリアが確定され、及び/又は、測位装置により、目標対象の目標エリアにおける位置の経緯度の範囲が確定される。
任意で、前記目標対象の分布エリアの位置に基づいて前記無人飛行体の飛行経路を確定し、前記無人飛行体が前記飛行経路に沿って移動するように制御されてもよい。
具体的には、雑草のないエリアを避けるように飛行経路を確定して、無人飛行体をこの飛行経路に沿って移動するように制御することができる。
前記分布情報に基づいて無人飛行体を制御して前記目標対象に対して薬物散布を行ったあとには、さらに下記のことを実行することができる。
前記目標エリアにおいて、前記無人飛行体の前記目標エリアにおける薬物未散布の分布エリアである残り分布エリアを検出し、前記残り分布エリアにおける前記目標対象の密度及び前記残り分布エリアの総面積を確定し、前記残り分布エリアにおける前記目標対象の密度及び前記残り分布エリアの総面積に基づいて前記残り分布エリアに必要な薬物総量を確定し、前記無人飛行体における残り薬物量と前記薬物総量との差を確定し、前記差と予め設定した閾値とを比較し、比較結果に基づいて前記無人飛行体の飛行経路を調整する。
任意で、残り薬物量と上記の薬物総量との差が負の値になった場合、農薬を再装填するように無人飛行体の飛行経路を帰還経路に調整してもよい。ここで、帰還途中では、帰還経路に位置する畑に対して薬物の散布が行われてもよい。
任意で、飛行経路を帰還経路に調整する前に、帰還途中に位置する全エリアに対して薬物の散布を行うように、薬物が散布されていない目標対象のエリア及び残り薬物量に基づいて帰還経路の計画を立ててもよい。
任意で、前記分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御する前に、画像取得装置により、目標エリアの画像情報を取得し、画像情報をプリセットモデルに入力して、画像情報における目標エリア内の目標対象の分布情報を確定し、分布情報における目標対象の目標エリアにおける分布エリアの大きさ及び前記目標対象の前記分布エリア内の密度に基づいて前記無人飛行体の目標薬物使用量を確定することができる。
任意で、分布情報における目標対象の目標エリアの分布エリアが比較的小さく、かつ、前記目標対象の前記分布エリア内の密度が比較的高い場合の目標薬物使用量を確定し、分布情報における目標対象の目標エリアの分布エリアが比較的大きく、かつ、前記目標対象の前記分布エリア内の密度が比較的低い場合の目標薬物使用量を確定し、分布情報における目標対象の目標エリアの分布エリアが比較的小さく、かつ、前記目標対象の前記分布エリア内の密度が比較的低い場合の目標薬物使用量を確定し、分布情報における目標対象の目標エリアの分布エリアが比較的大きく、かつ、前記目標対象の前記分布エリア内の密度が比較的高い場合の目標薬物使用量を確定する。無人飛行体の目標薬物使用量を確定したあと、農薬が装填される。
図2に示すように、プリセットモデルをトレーニングする方法は、下記のステップを含むものであってもよい。
ステップS302では、サンプル画像情報を取得して前記サンプル画像情報における目標対象の位置をマークし、このサンプル画像情報に対応する目標対象の分布情報のラベルを取得する。
任意で、サンプル画像情報に該当する画像はRGB画像である。
必要に応じて、ラベルにより、サンプル画像情報における目標対象の分布情報をマークすることもできる。ラベルは、目標対象の目標エリアにおける経緯度による分布範囲、及び/又は、目標対象の画像における画素による分布範囲を含む。例えば図3aを参照すると、ばつ「×」で作物エリアを示し、丸「○」で雑草エリアを示すことができる。図3bは、実写の電子地図における目標対象のマークを示すものである。その中で、濃い色のエリアは雑草であり、淡い色のエリアは作物である。
ステップS304では、前記プリセットモデルにおける第1コンボリューション(畳み込み)ネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第1コンボリューション画像を得る。
ステップS306では、前記プリセットモデルにおける前記第1コンボリューションネットワークモデルに用いられるコンボリューションカーネルとは異なるコンボリューションカーネルを用いる第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第2コンボリューション画像を得る。
任意で、第1コンボリューションネットワークモデルは、コンボリューションカーネルのサイズが3*3であり、コンボリューションステップサイズを2に設定することができる。
任意で、サンプル画像情報は、RGB画像であり、R、G、Bの3次元のものであり、第1コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第1コンボリューション画像を得る過程において、ダウンサンプリングを行ってもよい。また、これは、第1コンボリューション画像の各次元に対して設定することもできる。
任意で、第1コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第1コンボリューション画像を得る過程において、コンボリューション処理が複数回実行されてもよい。各コンボリューション処理時のコンボリューションカーネルのサイズはいずれも3*3であり、コンボリューションステップサイズが2であり、コンボリューションする度にダウンサンプリングが実行される。毎回ダウンサンプリングされたあと、画像のサイズがダウンサンプリングする前の画像の1/2になるので、データ処理量を大幅に低減し、データの演算速度を向上させることができる。
任意で、第2コンボリューションネットワークモデルは、コンボリューションカーネルのサイズを5*5に設定し、コンボリューションステップサイズを2に設定することができる。
サンプル画像情報は、RGB画像であり、R、G、Bの3次元のものである。第2コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第2コンボリューション画像を得る過程において、ダウンサンプリングが行われる。また、これは、第2コンボリューション画像の各次元に対して設定することもできる。
任意で、第2コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第2コンボリューション画像を得る過程において、コンボリューション処理が複数回実行されてもよい。各コンボリューション処理時のコンボリューションカーネルのサイズはいずれも5*5であり、コンボリューションステップサイズが2である。コンボリューションする度にダウンサンプリングが実行される。毎回ダウンサンプリングされたあと、画像のサイズがダウンサンプリングする前の画像の1/2になるので、データ処理量を大幅に低減し、データの演算速度を向上させることができる。
第1コンボリューション画像と第2コンボリューション画像とは、画像のサイズが同じである。
ステップS308では、前記サンプル画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合して、統合画像を得る。
ステップS310では、前記統合画像に対してデコンボリューション(逆畳み込み)処理を行い、デコンボリューション処理の結果及び前記サンプル画像のラベルに基づいてバックプロパゲーション(誤差逆伝播法)を行い、前記プリセットモデルの各部分のパラメータを調整する。
任意で、第1コンボリューション画像と第2コンボリューション画像とを統合したあと、統合した画像に対して、上記のサンプル画像情報を第1コンボリューション画像にするコンボリューション処理と同回数のデコンボリューションが行われてもよい。そして、デコンボリューションした画像に対して次元が設定される。
統合した画像に対してデコンボリューションを行うとき、デコンボリューションカーネルのサイズが3*3に設定されてもよい。
統合した画像に対してデコンボリューションを行ったあとの画像サイズは、サンプル画像情報のサイズと同じである。
最後に、デコンボリューション処理の結果及び前記サンプル画像のラベルに基づいてバックプロパゲーションが行われ、プリセットモデルの各層のパラメータが調整される。
複数のサンプル画像を用いてプリセットモデルをトレーニングすることにより、このプリセットモデルに、処理対象となる画像における目標対象の分布位置を識別する能力を付与することができる。
図4は、本実施例に係るもう1種の各組のデータにおける目標エリアのサンプル画像情報の取得方法を模式的に示すフローチャートである。この方法は、下記のステップを含む。
ステップS402では、サンプル画像情報を取得して前記サンプル画像情報における目標対象の位置をマークし、このサンプル画像情報に対応する目標対象の分布情報のラベルを取得し、前記サンプル画像及び対応のラベルをプリセットモデルに入力する。
任意で、サンプル画像情報に該当する画像はRGB画像であってもよい。
任意選択で、ラベルにより、サンプル画像情報における目標対象の分布情報がマークされてもよい。ラベルは、目標対象の目標エリアにおける経緯度の分布範囲、及び/又は、画像における画素の分布範囲を含む。
前記プリセットモデルにおける第1コンボリューションネットワークモデルが用いられて前記サンプル画像情報が処理されて、前記サンプル画像情報の第1コンボリューション画像が得られる。
任意で、第1コンボリューションネットワークモデルは、コンボリューションカーネルのサイズが3*3であり、コンボリューションステップサイズを2に設定してもよい。サンプル画像情報に対応する画像は、RGB画像であり、R、G、Bの3次元のものであり、第1コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第1コンボリューション画像を得る過程において、ダウンサンプリングを行う。また、これは、第1コンボリューション画像の各次元(ディメンション、dimension)に対して設定することもできる。
図4に示すように、第1コンボリューション画像を得る過程において、ステップS4042、ステップS4044及びステップS4046の順に合計3回のコンボリューションが実行される。コンボリューションする度にダウンサンプリングが実行され、コンボリューションステップサイズが2に設定される。毎回ダウンサンプリングされたあと、画像のサイズがダウンサンプリングする前の画像の1/2になるので、データ処理量を大幅に低減し、データの演算速度を向上させることができる。
図4において、n1、n2、n3は、それぞれ毎回のコンボリューション時に対応して設定された次元である。この次元は、第1コンボリューション画像における各画素に対応するデータのベクトルの長さを表すことに用いられる。一例として、n1が1である場合、第1回のコンボリューションが行われる画像の画素に対応する次元が1であり、この画素に対応するデータが階調(グレースケール)値であってもよく、n1が3である場合、第1回のコンボリューションが行われる画像の画素に対応する次元が3であり、この画素に対応するデータがRGB値であってもよい。第1コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第1コンボリューション画像を得る過程において、コンボリューション処理を複数回実行することができる。各コンボリューション処理時のコンボリューションカーネルのサイズは3*3である。
そして、前記プリセットモデルにおける前記第1コンボリューションネットワークモデルに用いられるコンボリューションカーネルとは異なるコンボリューションカーネルを用いる第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第2コンボリューション画像を得る。
任意で、第2コンボリューションネットワークモデルは、コンボリューションカーネルのサイズを5*5に設定し、コンボリューションステップサイズを2に設定してもよい。サンプル画像情報に対応する画像は、RGB画像であり、R、G、Bの3次元のものである。第2コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第2コンボリューション画像を得る過程において、ダウンサンプリングが行われる。また、これは、第2コンボリューション画像の各次元に対して設定することもできる。
任意で、第2コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第2コンボリューション画像を得る過程において、コンボリューション処理を複数回実行することができる。各コンボリューション処理時のコンボリューションカーネルのサイズはいずれも5*5であり、コンボリューションステップサイズが2に設定される。コンボリューションする度にダウンサンプリングが実行される。毎回ダウンサンプリングされたあと、画像のサイズがダウンサンプリングする前の画像の1/2になるので、データ処理量を大幅に低減し、データの演算速度を向上させることができる。
図4に示すように、第2コンボリューション画像を得る過程において、ステップS4062、ステップS4064及びステップS4066の順に合計3回のコンボリューションが実行される。コンボリューションする度にダウンサンプリングが実行され、コンボリューションステップサイズが2に設定される。毎回ダウンサンプリングされたあと、画像のサイズがダウンサンプリングする前の画像の1/2になるので、データ処理量を大幅に削減し、データの演算速度を向上させることができる。
図4において、m1、m2、m3は、それぞれ毎回のコンボリューション時に対応して設定された次元である。この次元は、第2コンボリューション画像における各画素に対応するデータのベクトルの長さを表すことに用いられる。一例として、m1が1である場合、第1回のコンボリューションが行われる画像の画素に対応する次元が1であり、この画素に対応するデータが階調値であってもよく、m1が3である場合、第1回のコンボリューションが行われる画像の画素に対応する次元が3であり、この画素に対応するデータがRGB値であってもよい。第2コンボリューションネットワークモデルを用いて前記マーク画像に対してコンボリューション処理を行って、第2コンボリューション画像を得る過程において、コンボリューション処理を複数回実行することができる。各コンボリューション処理時のコンボリューションカーネルのサイズは5*5である。
第1コンボリューション画像と第2コンボリューション画像とは、画像のサイズが同じである。
ステップS408では、前記サンプル画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合して、統合画像を得る。
前記統合画像に対してデコンボリューション処理が行われる。
任意で、統合した画像に対して、上記のサンプル画像情報を第1コンボリューション画像にするコンボリューション処理と同回数のデコンボリューションが行われてもよい。そして、デコンボリューションした画像に対して次元が設定される。統合した画像に対して、ステップS4102、ステップS4104及びステップS4106の3回のデコンボリューションが行われて、ステップS412の密度図である目標エリアのサンプル画像情報の取得が実行される。
統合した画像に対してデコンボリューションを行うとき、デコンボリューションカーネルのサイズを3*3に設定することができる。
統合した画像に対してデコンボリューションを行ったあとの画像のサイズは、サンプル画像情報のサイズと同じになる。
前記統合した画像に対してデコンボリューション処理が行われ、かつ、デコンボリューション処理の結果及び前記サンプル画像のラベルに基づいてバックプロパゲーションが行われ、前記プリセットモデルの各部分のパラメータが調整される。
複数のサンプル画像を用いてプリセットモデルをトレーニングすることにより、このプリセットモデルに、処理対象となる画像における目標対象の分布位置を識別する能力を付与することができる。
したがって、プリセットモデルを用いて画像識別処理を行うとき、処理対象画像情報をトレーニング済みの前記プリセットモデルに入力することができる。
前記プリセットモデルにおける第1コンボリューションネットワークモデルが用いられて前記サンプル画像情報が処理されて、前記処理対象画像情報の第1コンボリューション画像が得られる。
前記プリセットモデルにおける第2コンボリューションネットワークモデルが用いられて前記サンプル画像情報が処理されて、前記処理対象画像情報の第2コンボリューション画像が得られる。
前記処理対象画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合し、統合した画像に対してデコンボリューション処理を行って、得られた前記処理対象画像に対応する密度図が前記処理対象画像における目標対象の分布情報とされる。ここで、前記密度図における画素の値は、この画素の対応の位置における前記目標対象の分布密度値である。
任意で、密度図は、前記目標対象の密度を示すためのマークを有してもよい。例えば密度図において、前記分布エリアの色が浅い(薄い)ほど、前記分布エリアにおける前記目標対象の密度が高いことになる。図5は、処理後に得られた密度図である。図5において、Aエリアの色がBエリアの色より浅い場合、Aエリアの方が目標対象の密度が高いことになる。他の例として、前記密度図における画素の値は、この画素の対応の位置における前記目標対象の分布密度値である。
任意で、デコンボリューションして得た密度図は階調図であってもよい。密度図が階調図である場合、画像において、白が階調値を255にしたものであり、黒が階調値を0にしたものである。階調値の大きいエリアほど、目標エリアにおける目標対象の分布が密であることを示す。すなわち、色の濃いエリアは、雑草の分布が比較的密であり、色が浅いエリアは、雑草の分布が疎である。
本実施例では、プリセットモデルを用いて目標エリアの画像情報に対して分析を行って、目標エリアにおける目標対象の分布情報を取得し、この分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御している。このとき、目標エリアの画像情報を取得し、前記画像情報をプリセットモデルに入力することによって、分析を行って、前記目標エリアにおける目標対象の分布情報を取得し、前記分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御する。ここで、前記プリセットモデルは、複数組のデータによってトレーニングされたものである。前記複数組のデータのうちの各組のデータは、いずれも目標エリアの画像情報と、画像情報における目標対象の分布情報をマークするためのラベルとを含む。これによれば、異なるエリアでの雑草の分布密度に応じて薬物の散布量をコントロールする目的を達せるので、異なるエリア内の雑草の分布密度も考慮する薬物の散布量の設定、農薬の節約、薬物散布効率の向上という技術的効果を実現でき、さらに、農産物と雑草との区別が困難であることに起因した薬物の浪費や農薬の残留などの課題を解決できる。
図6は、本実施例に係る選択可能な無人飛行体の制御装置の模式的構成図である。図6に示すように、この装置は、取得モジュール62と、分析モジュール64と、制御モジュール66とを有する。
取得モジュール62は、目標エリアの画像情報を取得するものである。
分析モジュール64は、前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を得るためのものであり、前記プリセットモデルは、複数組のデータによってトレーニングされたものであり、前記複数組のデータのうちの各組のデータは、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
制御モジュール66は、前記処理対象画像情報に対応する分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御するものである。
なお、この無人飛行体の制御装置における各モジュールの具体的な機能については、図1に示す各ステップの関連説明を参照できるので、ここでは説明を省略する。
図7は、本実施例に係る選択可能な無人飛行体の模式的構成図である。図4に示すように、この装置は、画像取得装置72と、プロセッサ74とを有する。
画像取得装置72は、目標エリアの処理対象画像情報を取得するための装置である。
プロセッサ74は、前記処理対象画像情報をプリセットモデルに入力して分析を行って、処理対象画像情報における目標対象の分布情報を取得し、前記処理対象画像情報に対応する分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御するためのものであり、前記プリセットモデルは、複数組のデータによってトレーニングされたものであり、前記複数組のデータのうちの各組のデータは、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
なお、この無人飛行体の具体的な機能については、図1に示す各ステップの関連説明を参照できるので、ここでは説明を省略する。
図8は、本実施例に係る選択可能な無人飛行体の制御設備の模式的構成図である。図4に示すように、この装置は、画像取得装置82とプロセッサ84とを備える。
通信モジュール82は、特定の設備からの目標エリアの処理対象画像情報を受信するためのものである。
プロセッサ84は、前記処理対象画像情報をプリセットモデルに入力して分析を行って、処理対象画像情報における目標対象の分布情報を取得し、前記処理対象画像情報に対応する分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御するためのものであり、前記プリセットモデルは、複数組のデータによってトレーニングされたものである。前記複数組のデータにおける各組のデータは、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
なお、この無人飛行体の制御設備の機能については、図1に示す各ステップの関連説明を参照できるので、ここでは説明を省略する。
図9は、本実施例に係る分布情報の確定方法を模式的に示すフローチャートである。図9に示すように、この方法は下記のステップを含む。
ステップS902では、目標エリアの処理対象画像情報を取得する。
ステップS904では、処理対象画像情報をプリセットモデルに入力して分析を行って、処理対象画像情報における目標対象の分布情報を得るものであり、プリセットモデルは、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータは、いずれもサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。
任意で、前記プリセットモデルをトレーニングするステップは、サンプル画像情報を取得し、前記サンプル画像情報における目標対象の位置をマークして、このサンプル画像情報に対応する目標対象の分布情報のラベルを取得し、前記サンプル画像及び対応のラベルをプリセットモデルに入力するステップと、前記プリセットモデルにおける第1コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第1コンボリューション画像を得るステップと、前記プリセットモデルにおける前記第1コンボリューションネットワークモデルに用いられるコンボリューションカーネルとは異なるコンボリューションカーネルを用いる第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第2コンボリューション画像を得るステップと、前記サンプル画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合して、統合画像を得るステップと、前記統合画像に対してデコンボリューション処理を行い、デコンボリューション処理の結果及び前記サンプル画像のラベルに基づいてバックプロパゲーションを行い、前記プリセットモデルの各部分のパラメータを調整するステップとを含む。
対応して、プリセットモデルを用いて処理対象画像を処理するステップは、処理対象画像情報をトレーニング済みの前記プリセットモデルに入力するステップと、前記プリセットモデルにおける第1コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記処理対象画像情報の第1コンボリューション画像を得るステップと、前記プリセットモデルにおける第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記処理対象画像情報の第2コンボリューション画像を得るステップと、前記処理対象画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合し、統合した画像に対してデコンボリューション処理を行って、得られた前記処理対象画像に対応する密度図を前記処理対象画像における目標対象の分布情報とするステップとを含む。
任意で、前記密度図における画素の値は、この画素の対応の位置における前記目標対象の分布密度値であってもよい。
任意で、この密度図は、目標エリアにおける目標対象の各分布エリア内の密度を反映する。ここで、密度図は、目標対象の密度を示すためのマークを有し、このマークが、異なる色、又は同じ色の異なる濃さ、あるいは数字情報などを用いるものであってもよい。
任意で、目標エリアが複数あり、かつ、複数の目標エリアが異なる販売エリアに位置する場合、複数の目標エリアにおける目標対象の密度図に基づいて薬物の目標販売エリアを確定することができる。例えば密度図に示した密度が高い販売エリアは、薬物量を多く必要するので、目標販売エリアを間接的に確定できる。
上記分布情報は、目標対象の目標エリアにおける分布エリアをさらに含んでいてもよい。この場合、目標対象の分布エリアの位置に基づいて無人飛行体の飛行経路を確定することができる。
任意で、処理対象画像情報をプリセットモデルに入力して分析を行って、処理対象画像情報における目標対象の分布情報を得たあと、分布情報に基づいて目標エリアの薬物散布情報を示すための処方図を確定することができる。具体的には、目標対象の種類を確定し、種類及び分布情報に基づいて目標エリアにおける各サブエリアの薬物散布情報を確定し、目標エリアの画像情報に薬物散布情報をマークするためのマーク情報を加えることによって、目標エリアの処方図が得られる。ここで、この薬物散布情報は、目標対象の目標エリアのサブエリアにおける薬物の種類と薬物の目標散布量とを含む。
ここでは、機械学習の方式により目標対象の種類を確定することができる。例えば目標対象の画像をトレーニング済みの予測モデルに入力し、この予測モデルを用いて目標対象の種類を識別することができる。
なお、分布情報の確定方法の具体的なステップは、図1−7に示すステップの関連説明を参照できるので、ここでは説明を省略する。
本実施例の他の態様によれば、設備に配置され、この設備を制御して上記の無人飛行体の制御方法を実行するプログラムが記憶された記憶媒体がさらに提供される。
本実施例の他の態様によれば、上記の無人飛行体の制御方法を実行するプログラムを実行するためのプロセッサがさらに提供される。
なお、本実施例に開示された技術内容は、他の方式により実現することも可能である。上記に説明された装置の実施例は、例示的なものにすぎない。例えば前記のユニットの区分は、単に論理的な機能区分であり、実際に実施される場合には別の区分であってもよい。例えば複数のユニット若しくはコンポーネントを組み合わせ、又は別のシステムに統合してもよく、あるいは一部の特徴を省略又は不実行にしてもよい。また、図示した若しくは論じた相互結合、直接結合又は通信接続は、いくつかのインターフェース、ユニット若しくはモジュールを介する間接結合又は通信接続であってもよく、また、電気的又は他の形式による接続であってもよい。
上記の別個の部品として説明されたユニットは、物理的に別個であってもなくてもよい。ユニットとして示した部材は、物理的なユニットであってもなくてもよく、つまり、同一位置に配置してもよく、複数のユニットに分散してもよい。本実施例の案の目的を達成するために実際の要求に応じて一部又は全部のユニットを選択することが可能である。
また、本出願の各実施例における各機能ユニットは、1つの処理ユニットに統合してもよく、独立した物理的な存在として機能してもよく、2つ以上のユニットを1つのユニットに統合させてもよい。上記の集積したユニットは、ハードウェアの方式で実現してもよく、ソフトウェアによる機能ユニットの方式で実現してもよい。
前記集積したユニットは、ソフトウェア機能ユニットの形式で実現され、独立した製品として販売されたり使用されたりする場合、コンピュータ読取可能な記憶媒体に格納することが可能である。このような理解から、本出願の技術案のそのもの、あるいは従来技術に寄与できる部分、あるいはこの技術案の全部又は一部は、ソフトウェア製品の形式で実現できる。このコンピュータソフトウェア製品は、記憶媒体に記憶され、コンピュータ設備(パーソナルコンピュータ、サーバあるいはネットワーク設備等)が本出願の各実施例による方法の全部又は一部のステップを実行するための複数のコマンドを含む。上記の記憶媒体は、USBディスク、リードオンリーメモリ(ROM:Read−Only Memory)、ランダムアクセスメモリ(RAM:Random−Access Memory)、携帯型(リムーバブル)ハードディスク、磁気ディスク又は光ディスク等の各種のプログラムコードを記憶できる媒体を含む。
上記記載は、本出願の好ましい実施形態にすぎず、当業者は、本出願の原理から逸脱しないかぎり、多少の改良と改善を行うこともでき、これらの改良や改善も本出願の保護範囲に属する。
産業上の利用可能性
本出願の実施例では、目標エリアの処理対象画像情報を取得し、処理対象画像情報をプリセットモデルに入力して分析を行って、処理対象画像情報における目標対象の分布情報を取得し、分布情報に基づいて目標対象に対して薬物散布を行うように無人飛行体を制御しており、プリセットモデルは、複数組のデータによってトレーニングされたものであり、複数組のデータのうちの各組のデータは、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む。これによれば、異なるエリア内の雑草の分布密度に応じて薬物の散布量をコントロールする目的を達せるので、異なるエリア内の雑草の分布密度も考慮した薬物の散布量の設定、農薬の節約、薬物散布効率の向上という技術的効果を実現でき、さらに、農産物と雑草との区別が困難であることに起因した薬物の浪費や農薬の残留などの技術的課題を解決できる。

Claims (20)

  1. 目標エリアの処理対象画像情報を取得するステップと、
    前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を得るステップとを含み、
    前記プリセットモデルが、複数組のデータによってトレーニングされたものであり、前記複数組のデータのうちの各組のデータが、いずれもサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルを含む
    ことを特徴とする分布情報の確定方法。
  2. 前記プリセットモデルをトレーニングするステップは、
    サンプル画像情報を取得して前記サンプル画像情報における目標対象の位置をマークし、前記サンプル画像情報に対応する、目標対象の分布情報のラベルを取得し、前記サンプル画像及び対応のラベルをプリセットモデルに入力するステップと、
    前記プリセットモデルにおける第1コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第1コンボリューション画像を得るステップと、
    前記プリセットモデルにおける前記第1コンボリューションネットワークモデルに用いられるコンボリューションカーネルとは異なるコンボリューションカーネルを用いる第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記サンプル画像情報の第2コンボリューション画像を得るステップと、
    前記サンプル画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合して、統合画像を得るステップと、
    前記統合画像に対してデコンボリューション処理を行い、デコンボリューション処理の結果及び前記サンプル画像のラベルに基づいてバックプロパゲーションを行い、前記プリセットモデルの各部分のパラメータを調整するステップと
    を含むことを特徴とする請求項1に記載の方法。
  3. 前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を得るステップは、
    処理対象画像情報をトレーニング済みの前記プリセットモデルに入力するステップと、
    前記プリセットモデルにおける第1コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記処理対象画像情報の第1コンボリューション画像を得るステップと、
    前記プリセットモデルにおける第2コンボリューションネットワークモデルを用いて前記サンプル画像情報を処理して、前記処理対象画像情報の第2コンボリューション画像を得るステップと、
    前記処理対象画像情報の第1コンボリューション画像と第2コンボリューション画像とを統合し、統合した画像に対してデコンボリューション処理を行って、得られた前記処理対象画像に対応する密度図を前記処理対象画像における目標対象の分布情報とするステップと
    を含むことを特徴とする請求項2に記載の方法。
  4. 前記密度図における画素の値は、前記画素の対応の位置における前記目標対象の分布密度値であることを特徴とする請求項3に記載の方法。
  5. 前記サンプル画像情報は、前記目標エリアにおける前記目標対象の各分布エリア内の密度を反映するための前記目標対象の密度図を含む
    ことを特徴とする請求項2に記載の方法。
  6. 前記密度図は、前記目標対象の密度を示すためのマークを有する。
    ことを特徴とする請求項5に記載の方法。
  7. 前記目標エリアが複数あり、かつ、複数の前記目標エリアが異なる販売エリアに位置する場合、複数の目標エリアにおける前記目標対象の密度図に基づいて薬物の目標販売エリアを確定する
    ことを特徴とする請求項1〜6のいずれか1項に記載の方法。
  8. 前記分布情報は、前記目標対象の前記目標エリアにおける分布エリアを含み、
    前記方法は、前記目標対象の分布エリアの位置に基づいて前記無人飛行体の飛行経路を確定するステップをさらに含む
    ことを特徴とする請求項1〜7のいずれか1項に記載の方法。
  9. 前記画像情報をプリセットモデルに入力して分析を行って、前記目標エリアにおける目標対象の分布情報を得たあと、前記方法は、さらに、
    前記目標対象の種類を確定するステップと、
    前記種類及び前記分布情報に基づいて前記目標エリアにおける各サブエリアの薬物散布情報を確定するステップと、
    前記目標エリアの画像情報に前記薬物散布情報をマークするためのマーク情報を加え、前記目標エリアの処方図を得るステップとを含み、
    前記薬物散布情報が、前記目標対象の前記目標エリアのサブエリアにおける薬物の種類と薬物の目標散布量とを含む
    ことを特徴とする請求項1〜8のいずれか1項に記載の方法。
  10. 前記目標エリアは薬物を散布する対象である畑であり、前記目標対象は雑草である
    ことを特徴とする請求項9に記載の方法。
  11. 目標エリアの処理対象画像情報を取得するステップと、
    前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を得るステップと、
    前記処理対象画像情報に対応する分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御するステップとを含み、
    前記プリセットモデルが、複数組のデータによってトレーニングされたものであり、前記複数組のデータにおける各組のデータが、いずれもサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む
    ことを特徴とする無人飛行体の制御方法。
  12. 前記分布情報は、前記目標対象の前記目標エリアにおける各分布エリア内の密度、前記目標対象が存在する分布エリアの面積のうちの少なくとも1種を含み、
    前記分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御するステップは、
    前記目標対象の分布エリア内の密度に基づいて前記無人飛行体の前記分布エリアに対する薬物散布量又は散布の持続時間を確定すること、及び/又は、
    前記目標対象が存在する分布エリアの面積に基づいて薬物の散布幅を確定することを含む
    ことを特徴とする請求項11に記載の方法。
  13. 前記目標エリアが薬物を散布する対象である畑であり、前記目標対象が雑草であり、
    前記分布情報は、前記目標対象の前記目標エリアにおける分布エリアをさらに含み、
    前記方法は、前記目標対象の分布エリアの位置に基づいて前記無人飛行体の飛行経路を確定するステップと、前記無人飛行体を前記飛行経路に沿って移動するように制御するステップとをさらに含む
    ことを特徴とする請求項11又は12に記載の方法。
  14. 前記分布情報に基づいて前記無人飛行体を制御して前記目標対象に対して薬物散布を行ったあと、前記方法は、さらに、
    前記目標エリアにおいて、前記無人飛行体の前記目標エリアにおける薬物未散布の分布エリアである残り分布エリアを検出するステップと、
    前記残り分布エリアにおける前記目標対象の密度及び前記残り分布エリアの総面積を確定するステップと、
    前記残り分布エリアにおける前記目標対象の密度及び前記残り分布エリアの総面積に基づいて前記残り分布エリアに必要な薬物総量を確定するステップと、
    前記無人飛行体における残り薬物量と前記薬物総量との差を確定するステップと、
    前記差と予め設定した閾値とを比較し、比較結果に基づいて前記無人飛行体の飛行経路を調整するステップとを含む
    ことを特徴とする請求項11〜13のいずれか1項に記載の方法。
  15. 前記分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御する前に、前記方法は、
    前記分布情報における前記目標対象の前記目標エリアにおける分布エリアの大きさ及び前記目標対象の前記分布エリア内の密度に基づいて前記無人飛行体の目標薬物使用量を確定するステップをさらに含む
    ことを特徴とする請求項11〜14のいずれか1項に記載の方法。
  16. 目標エリアの処理対象画像情報を取得するための取得モジュールと、
    前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を得るための分析モジュールと、
    前記処理対象画像情報に対応する分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御するための制御モジュールとを有し、
    前記プリセットモデルが、複数組のデータによってトレーニングされたものであり、前記複数組のデータのうちの各組のデータが、いずれも目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む
    ことを特徴とする無人飛行体の制御装置。
  17. 目標エリアの処理対象画像情報を取得するための画像取得装置と、
    前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を取得し、前記処理対象画像情報に対応する分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御するためのプロセッサとを有し、
    前記プリセットモデルが、複数組のデータによってトレーニングされたものであり、前記複数組のデータのうちの各組のデータが、いずれも、目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む
    ことを特徴とする無人飛行体。
  18. 目標エリアの処理対象画像情報を受信するための画像取得装置と、
    前記処理対象画像情報をプリセットモデルに入力して分析を行って、前記処理対象画像情報における目標対象の分布情報を取得し、前記処理対象画像情報に対応する分布情報に基づいて前記目標対象に対して薬物散布を行うように前記無人飛行体を制御するためのプロセッサとを有し、
    前記プリセットモデルが、複数組のデータによってトレーニングされたものであり、前記複数組のデータのうちの各組のデータが、いずれも、目標エリアのサンプル画像情報と、サンプル画像情報における目標対象の分布情報をマークするためのラベルとを含む
    ことを特徴とする無人飛行体の制御設備。
  19. 設備に配置され、前記設備を制御して請求項1〜10のいずれか1項に記載の分布情報の確定方法を実行するプログラムが記憶されたことを特徴とする記憶媒体。
  20. 請求項1〜10のいずれか1項に記載の分布情報の確定方法を実行するプログラムを実行することを特徴とするプロセッサ。
JP2021520573A 2018-10-18 2019-10-16 分布情報の確定方法、無人飛行体の制御方法及び装置 Pending JP2022502794A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201811217967.X 2018-10-18
CN201811217967.XA CN109445457B (zh) 2018-10-18 2018-10-18 分布信息的确定方法、无人飞行器的控制方法及装置
PCT/CN2019/111515 WO2020078396A1 (zh) 2018-10-18 2019-10-16 分布信息的确定方法、无人飞行器的控制方法及装置

Publications (1)

Publication Number Publication Date
JP2022502794A true JP2022502794A (ja) 2022-01-11

Family

ID=65546651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021520573A Pending JP2022502794A (ja) 2018-10-18 2019-10-16 分布情報の確定方法、無人飛行体の制御方法及び装置

Country Status (8)

Country Link
US (1) US20210357643A1 (ja)
EP (1) EP3859479A4 (ja)
JP (1) JP2022502794A (ja)
KR (1) KR20210071062A (ja)
CN (1) CN109445457B (ja)
AU (1) AU2019362430B2 (ja)
CA (1) CA3115564A1 (ja)
WO (1) WO2020078396A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109445457B (zh) * 2018-10-18 2021-05-14 广州极飞科技股份有限公司 分布信息的确定方法、无人飞行器的控制方法及装置
US10822085B2 (en) 2019-03-06 2020-11-03 Rantizo, Inc. Automated cartridge replacement system for unmanned aerial vehicle
CN112948371A (zh) * 2019-12-10 2021-06-11 广州极飞科技股份有限公司 数据处理方法、装置、存储介质、处理器
CN113011220A (zh) * 2019-12-19 2021-06-22 广州极飞科技股份有限公司 穗数识别方法、装置、存储介质及处理器
CN113011221A (zh) * 2019-12-19 2021-06-22 广州极飞科技股份有限公司 作物分布信息的获取方法、装置及测量系统
CN111459183B (zh) * 2020-04-10 2021-07-20 广州极飞科技股份有限公司 作业参数推荐方法、装置、无人设备及存储介质
CN111783549A (zh) * 2020-06-04 2020-10-16 北京海益同展信息科技有限公司 一种分布图生成方法、系统、巡检机器人及控制终端
CN112425328A (zh) * 2020-11-23 2021-03-02 广州极飞科技有限公司 多物料播撒控制方法、装置、终端设备、无人设备及介质
CN113973793B (zh) * 2021-09-09 2023-08-04 常州希米智能科技有限公司 一种病虫害区域无人机喷洒处理方法和系统
CN115337430B (zh) * 2022-08-11 2024-06-07 深圳市隆瑞科技有限公司 一种喷雾小车的控制方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003082A1 (ja) * 2016-06-30 2018-01-04 株式会社オプティム 移動体制御アプリケーション及び移動体制御方法
CN107933921A (zh) * 2017-10-30 2018-04-20 广州极飞科技有限公司 飞行器及其喷洒路线生成和执行方法、装置、控制终端
JP2018072938A (ja) * 2016-10-25 2018-05-10 株式会社パスコ 目的物個数推定装置、目的物個数推定方法及びプログラム
JP2018111429A (ja) * 2017-01-12 2018-07-19 東光鉄工株式会社 ドローンを使用した農薬散布方法
CN108541683A (zh) * 2018-04-18 2018-09-18 济南浪潮高新科技投资发展有限公司 一种基于卷积神经网络芯片的无人机农药喷洒系统
CN108629289A (zh) * 2018-04-11 2018-10-09 千寻位置网络有限公司 农田的识别方法及系统、应用于农业的无人机

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015057637A1 (en) * 2013-10-14 2015-04-23 Kinze Manufacturing, Inc. Autonomous systems, methods, and apparatus for ag based operations
US10104836B2 (en) * 2014-06-11 2018-10-23 John Paul Jamison Systems and methods for forming graphical and/or textual elements on land for remote viewing
CA3237917A1 (en) * 2014-08-22 2016-02-25 Climate Llc Methods for agronomic and agricultural monitoring using unmanned aerial systems
US10139279B2 (en) * 2015-05-12 2018-11-27 BioSensing Systems, LLC Apparatuses and methods for bio-sensing using unmanned aerial vehicles
CN105159319B (zh) * 2015-09-29 2017-10-31 广州极飞科技有限公司 一种无人机的喷药方法及无人机
US9609288B1 (en) * 2015-12-31 2017-03-28 Unmanned Innovation, Inc. Unmanned aerial vehicle rooftop inspection system
US10520943B2 (en) * 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
GB2568007A (en) * 2016-09-08 2019-05-01 Walmart Apollo Llc Systems and methods for dispensing an insecticide via unmanned vehicles to defend a crop-containing area against pests
US10721859B2 (en) * 2017-01-08 2020-07-28 Dolly Y. Wu PLLC Monitoring and control implement for crop improvement
CN108509961A (zh) * 2017-02-27 2018-09-07 北京旷视科技有限公司 图像处理方法和装置
CN106882380A (zh) * 2017-03-03 2017-06-23 杭州杉林科技有限公司 空地一体农林用植保系统装置及使用方法
CN106951836B (zh) * 2017-03-05 2019-12-13 北京工业大学 基于先验阈值优化卷积神经网络的作物覆盖度提取方法
CN106910247B (zh) * 2017-03-20 2020-10-02 厦门黑镜科技有限公司 用于生成三维头像模型的方法和装置
CN107274378B (zh) * 2017-07-25 2020-04-03 江西理工大学 一种融合记忆cnn的图像模糊类型识别及参数整定方法
US10740607B2 (en) * 2017-08-18 2020-08-11 Autel Robotics Co., Ltd. Method for determining target through intelligent following of unmanned aerial vehicle, unmanned aerial vehicle and remote control
CN107728642B (zh) * 2017-10-30 2021-03-09 北京博鹰通航科技有限公司 一种无人机飞行控制系统及其方法
CN107703960A (zh) * 2017-11-17 2018-02-16 江西天祥通用航空股份有限公司 农药喷洒直升机的地空跟踪监测装置
CN108154196B (zh) * 2018-01-19 2019-10-22 百度在线网络技术(北京)有限公司 用于输出图像的方法和装置
CN108596222B (zh) * 2018-04-11 2021-05-18 西安电子科技大学 基于反卷积神经网络的图像融合方法
CN108594850B (zh) * 2018-04-20 2021-06-11 广州极飞科技股份有限公司 基于无人机的航线规划及控制无人机作业的方法、装置
US10660277B2 (en) * 2018-09-11 2020-05-26 Pollen Systems Corporation Vine growing management method and apparatus with autonomous vehicles
CN109445457B (zh) * 2018-10-18 2021-05-14 广州极飞科技股份有限公司 分布信息的确定方法、无人飞行器的控制方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018003082A1 (ja) * 2016-06-30 2018-01-04 株式会社オプティム 移動体制御アプリケーション及び移動体制御方法
JP2018072938A (ja) * 2016-10-25 2018-05-10 株式会社パスコ 目的物個数推定装置、目的物個数推定方法及びプログラム
JP2018111429A (ja) * 2017-01-12 2018-07-19 東光鉄工株式会社 ドローンを使用した農薬散布方法
CN107933921A (zh) * 2017-10-30 2018-04-20 广州极飞科技有限公司 飞行器及其喷洒路线生成和执行方法、装置、控制终端
CN108629289A (zh) * 2018-04-11 2018-10-09 千寻位置网络有限公司 农田的识别方法及系统、应用于农业的无人机
CN108541683A (zh) * 2018-04-18 2018-09-18 济南浪潮高新科技投资发展有限公司 一种基于卷积神经网络芯片的无人机农药喷洒系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
M. PEREZ-ORTIZ: "Machine learning paradigms for weed mapping via unmanned aerial vehicles", 2016 IEEE SYMPOSIUM SERIES ON COMPUTATIONAL INTELLIGENCE (SSCI), JPN6022016428, 2016, pages 1 - 8, XP033066393, ISSN: 0004932440, DOI: 10.1109/SSCI.2016.7849987 *
MUMING ZHAO: "Leaning a perspective-embedded deconvolution network for crowd counting", PROCEEDOMGS OF THE IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA ANDEXPO (ICME) 2017, JPN6022016424, 14 July 2017 (2017-07-14), pages 403 - 408, XP033146717, ISSN: 0004932438, DOI: 10.1109/ICME.2017.8019501 *
YINGYING ZHANG: "Single-image crowd counting via multi-column convolutional neural network", 2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, JPN6022016431, 2016, pages 589 - 597, XP033021234, ISSN: 0004932439, DOI: 10.1109/CVPR.2016.70 *
池田 浩雄: "群衆パッチ学習に基づく人数推定の高精度化", 画像ラボ 第28巻 第1号 IMAGE LABORATORY, vol. 2017.1, JPN6022016427, 10 January 2017 (2017-01-10), JP, pages 1 - 8, ISSN: 0004769224 *

Also Published As

Publication number Publication date
US20210357643A1 (en) 2021-11-18
WO2020078396A1 (zh) 2020-04-23
AU2019362430B2 (en) 2022-09-08
EP3859479A1 (en) 2021-08-04
EP3859479A4 (en) 2021-11-24
KR20210071062A (ko) 2021-06-15
AU2019362430A1 (en) 2021-05-13
CA3115564A1 (en) 2020-04-23
CN109445457B (zh) 2021-05-14
CN109445457A (zh) 2019-03-08

Similar Documents

Publication Publication Date Title
JP2022502794A (ja) 分布情報の確定方法、無人飛行体の制御方法及び装置
Huang et al. A fully convolutional network for weed mapping of unmanned aerial vehicle (UAV) imagery
US11915501B2 (en) Object detection method and apparatus, electronic device, and storage medium
US11151734B2 (en) Method and system for generating synthetic point cloud data using a generative model
CN111353512B (zh) 障碍物分类方法、装置、存储介质和计算机设备
Dittmar et al. Goal seeking in honeybees: matching of optic flow snapshots?
Knoll et al. Real-time classification of weeds in organic carrot production using deep learning algorithms
CN111353969A (zh) 道路可行驶区域的确定方法、装置及计算机设备
KR102140805B1 (ko) 위성 영상의 물체 식별을 위한 뉴럴 네트워크 학습 방법 및 장치
CN109840463B (zh) 一种车道线识别方法和装置
WO2021025761A1 (en) Sub-pixel data simulation system
US11961207B2 (en) Image processing apparatus performing a deconvolution operation and operation method thereof
Orengo et al. New developments in drone‐based automated surface survey: towards a functional and effective survey system
Duan et al. Biological eagle-eye-based visual imaging guidance simulation platform for unmanned flying vehicles
Wilde et al. Detecting gravitational lenses using machine learning: exploring interpretability and sensitivity to rare lensing configurations
Cocoma-Ortega et al. Towards high-speed localisation for autonomous drone racing
Petříček et al. Simultaneous exploration and segmentation for search and rescue
CN110751163B (zh) 目标定位方法及其装置、计算机可读存储介质和电子设备
CN112101185B (zh) 一种训练皱纹检测模型的方法、电子设备及存储介质
Krump et al. UAV based vehicle detection on real and synthetic image pairs: performance differences and influence analysis of context and simulation parameters
US20220392212A1 (en) Object identification apparatus, object identification method, learning apparatus,learning method, and recording medium
US20220058815A1 (en) Articles for disrupting automated visual object tracking processes
Navale et al. Deep Learning based Automated Wheat Disease Diagnosis System
Yu et al. An object-based visual attention model for robots
Krestenitis et al. Overcome the Fear Of Missing Out: Active sensing UAV scanning for precision agriculture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210414

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221129