JP2021531806A - 昆虫を位置特定および排除するためのシステムと方法 - Google Patents

昆虫を位置特定および排除するためのシステムと方法 Download PDF

Info

Publication number
JP2021531806A
JP2021531806A JP2021504834A JP2021504834A JP2021531806A JP 2021531806 A JP2021531806 A JP 2021531806A JP 2021504834 A JP2021504834 A JP 2021504834A JP 2021504834 A JP2021504834 A JP 2021504834A JP 2021531806 A JP2021531806 A JP 2021531806A
Authority
JP
Japan
Prior art keywords
insect
image
space
processor
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021504834A
Other languages
English (en)
Inventor
ベネデック,ナダフ
ウィルフ,ザール
Original Assignee
ブジゴ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブジゴ リミテッド filed Critical ブジゴ リミテッド
Publication of JP2021531806A publication Critical patent/JP2021531806A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/02Stationary means for catching or killing insects with devices or substances, e.g. food, pheronones attracting the insects
    • A01M1/026Stationary means for catching or killing insects with devices or substances, e.g. food, pheronones attracting the insects combined with devices for monitoring insect presence, e.g. termites
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/06Catching insects by using a suction effect
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/22Killing insects by electric means
    • A01M1/223Killing insects by electric means by using electrocution
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M5/00Catching insects in fields, gardens, or forests by movable appliances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/14Catching by adhesive surfaces
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01MCATCHING, TRAPPING OR SCARING OF ANIMALS; APPARATUS FOR THE DESTRUCTION OF NOXIOUS ANIMALS OR NOXIOUS PLANTS
    • A01M1/00Stationary means for catching or killing insects
    • A01M1/20Poisoning, narcotising, or burning insects
    • A01M1/2022Poisoning or narcotising insects by vaporising an insecticide

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Pest Control & Pesticides (AREA)
  • Engineering & Computer Science (AREA)
  • Insects & Arthropods (AREA)
  • Environmental Sciences (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Forests & Forestry (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Catching Or Destruction (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Burglar Alarm Systems (AREA)
  • Image Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)

Abstract

空間内の昆虫の位置を特定し、昆虫の位置をユーザに示すため、および/または昆虫を排除するためのシステムおよび方法が提供される。このシステムは、空間の画像を取得するためのカメラと、空間の少なくとも2つの画像を比較することによって物体を検出し、空間の画像内の物体の特性に基づいて物体が昆虫であると決定するためのプロセッサとを含む。いくつかの実施形態では、独立の移動装置は、空間内の昆虫の位置において昆虫を排除するように制御されてもよい。【選択図】図4C

Description

本発明は、特に、飛翔昆虫などの害虫を検出、位置特定、および排除するためにコンピュータビジョンを使用する、害虫駆除の分野に関する。
家またはその他の都市空間では、人間と環境を共有する飛翔昆虫などの害虫が病気を蔓延させ、食料を台無しにし、一般的に迷惑をかける。これらの害虫の防除は、通常、排除、撃退、物理的除去、または化学的手段によって試みられる。
拡大鏡付きの画像センサを使用するシステムは、一般的な農業環境で害虫を検出するために使用され、この場合、広い面積の監視を可能にするために、画像センサが移動させられるか、または画像センサの視野において対象物が移動させられる。
移動カメラを必要とするこのようなシステムは、屋内での使用には適していない。なぜならば、人々は、自分の生活空間および/または作業空間において常に移動するカメラに興味がないからである。
画像センサを使用する別のシステムは、カメラと、カメラから離れた再帰反射面とによって画定された対象領域において飛翔昆虫を追跡する。カメラに加えて再帰反射面を使用する必要があるため、このシステムは、邪魔で扱いにくく、家庭、オフィス、その他の都市空間に広く設置される可能性が低い。
本発明の実施形態は、典型的には閉鎖環境において、害虫に対する楽でかつ正確な行動を可能にするために、典型的には屋内環境において飛翔昆虫などの害虫を検出および位置特定するためのシステムおよび方法を提供する。
本発明の実施形態によるシステムは、カメラによって取得された画像から害虫を検出および位置特定するためのカメラおよびプロセッサを含む。システムは、カメラを含む単一のハウジングから動作してもよく、害虫を位置特定するために単一のハウジングとは別に追加の要素を必要としない。さらに、システムのカメラは、使用可能な画像をキャプチャするために、可動なプラットフォームに取り付けたり、埋め込んだりする必要がない。したがって、システムは、簡単にセットアップでき、家もしくはオフィスの部屋などのスペース、または劇場、美術館などの公共スペースに目立たないように配置されてもよい。
本発明の実施形態は、昆虫をノイズおよび/または非昆虫物体から区別することができる。
一実施形態では、システムは、さらなる行動のために、部屋の中の昆虫の位置を示すために、人間に見えるマークを提供することができる。
本発明の実施形態は、空間の画像から検出および位置特定された害虫に対して作用するための様々なタイプの解決策を提供する。
本発明は、より完全に理解されることができるように、以下の例示的な図面を参照して、特定の例および実施形態に関連して説明される。図において、
本発明の一実施形態による、空間内の昆虫を位置特定するためのシステムの概略図である。 本発明の一実施形態による、空間内の昆虫を検出および位置特定するための方法の概略図である。 本発明の別の実施形態による、空間内の昆虫を位置特定するためのシステムの概略図である。 本発明の別の実施形態による、空間内の昆虫を検出および位置特定するための方法の概略図である。 本発明の一実施形態による、視覚マークのプロジェクタを含むシステムの概略図である。 本発明の実施形態による、昆虫を処理するための補助装置を含むシステムの概略図である。 本発明の一実施形態による、昆虫を処理するための補助装置を制御するための方法の概略図である。 本発明の一実施形態による、昆虫を処理するための補助装置の概略図である。 本発明の一実施形態による、空間の画像において昆虫を検出する方法の概略図である。 本発明の一実施形態による、画像内の物体が昆虫であるかどうかを決定する方法の概略図である。 本発明の一実施形態による、以前の画像に基づいて画像内の物体が昆虫であるかどうかを決定する方法の概略図である。
本発明の実施形態は、部屋などの閉鎖空間において1つまたは複数の昆虫の位置を検出し、空間内の昆虫の検出された位置を示すためのシステムおよび方法を提供する。
本明細書に記載の例は、主に害虫、特に蚊などの飛翔昆虫を指すが、本発明の実施形態は、その他の害虫を位置特定するために使用されてもよい。
以下の説明では、本発明の様々な態様が説明される。説明の目的のために、本発明の完全な理解を提供するために、特定の構成および詳細が記載される。しかしながら、本明細書に提示される特定の詳細なしに本発明が実施され得ることも当業者には明らかであろう。さらに、本発明を不明瞭にしないために、周知の特徴は省略または簡略化され得る。
特に別段の定めがないかぎり、以下の説明から明らかなように、明細書の説明を通して、「分析」、「処理」、「計算」、「算出」、「決定」、「検出」、「識別」、「推定」、「理解」などの用語を利用することは、コンピュータシステムのレジスタおよび/またはメモリ内の電子量などの物理として表されるデータを、計算システムのメモリ、レジスタ、またはその他のこのような情報ストレージ、送信またはディスプレイ装置内の物理量として同様に表されるその他のデータに操作および/または変換する、コンピュータまたは計算システム、または類似の電子計算装置の動作および/またはプロセスを意味する。
図1Aに概略的に示されている一実施形態では、昆虫を検出および位置特定するためのシステム100は、部屋104または部屋104の一部などの空間の画像を取得するためのカメラ103を含む。1つまたは複数の蚊などの昆虫105が、部屋104にいることがある。
画像センサおよび適切な光学系を含むカメラ103は、プロセッサ102と通信している。プロセッサ102は、カメラ103によって取得された部屋または部屋104の一部の画像を受信し、部屋の画像内の昆虫105の位置を検出する。画像内の昆虫105の位置に基づいて、プロセッサ102は、部屋104内の昆虫105の位置を示すために、人間の目に見える位置インジケータの作成を可能にする信号を生成する。
プロセッサ102は、空間の画像に基づいて空間(例えば、部屋104)内の昆虫105の位置を決定してもよく、空間内の昆虫の位置の近くの人間の目に見える表示を作成するように光源を向けるためにプロジェクタ装置を制御してもよい。
図1Aに示された例では、位置インジケータは、部屋104内の昆虫105の位置における視覚的マーク115である。視覚的マーク115は、一実施形態では、レーザーまたは他のビームを部屋104内の昆虫105の近くに投影するプロジェクタ108を介して作成され、部屋内の昆虫の位置の近くに視覚的マーク115を形成する。
システム100の構成要素のいくつかまたはすべては、ハウジング101に取り付けられているか、またはハウジング101内に封入されている。したがって、例えば、カメラ103およびプロセッサ102は、両方とも単一のハウジング101内に含まれてもよい。その他の実施形態では、システムのいくつかの構成要素(例えば、プロセッサ102)は、遠隔に配置されている。
プラスチックおよび/または金属などの、実用的でかつ安全に使用できる材料から形成されていてもよいハウジング101は、ヒンジ、回転可能なジョイントまたはボールジョイントなどの1つまたは複数のピボット要素を含んでもよく、ハウジング101の様々な動きを可能にする。例えば、ハウジング101は、部屋104内の1つの場所に配置することができるが、ハウジング101を回転および/または傾斜させることによって、ハウジング101内に封入されたカメラ103への複数の視野(FOV)を可能にすることができる。しかしながら、ハウジング101は、通常、画像を取得している間、カメラが動かされないように、カメラ103に安定性を提供する。
いくつかの実施形態では、カメラ103は、その焦点面が部屋104内の面に対して平行になるように配置される。例えば、部屋における面は、部屋の床または天井、あるいは部屋の家具の壁または面などを含んでもよい。
一実施形態では、プロセッサ102は、部屋の面(例えば、壁、天井、部屋の家具の面など)における画像内の昆虫105の位置を検出し、その面における昆虫105の位置に視覚的マーク115を生成することを可能にするために信号を生成する。
いくつかの実施形態では、プロセッサ102は、部屋の画像内の静止した(例えば、飛んでいない)昆虫を検出し、視覚的マーク115が、静止した昆虫の位置に形成されるかまたは向けられる。
いくつかの実施形態では、プロセッサ102は、止まる昆虫を検出する。例えば、プロセッサは、飛んでおり、次いで、着地する昆虫を検出する。次に、プロセッサ102は、止まった後、例えば、着地後の昆虫の位置を検出し、視覚的マーク115が止まった後の昆虫の位置に形成されるかまたは向けられる。
カメラ103は、画像センサ、例えば、CCDまたはCMOSチップなどの適切なチップを含んでもよく、2Dまたは3Dカメラであってもよい。カメラ103は、部屋(または部屋の一部)104の画像を取得することを可能にするためのレンズおよび/またはその他の光学系を含んでもよい。
いくつかの実施形態では、カメラ103は、赤外線(IR)高感度センサを含み、および/または特別な照明条件で部屋104の画像を取得できるようにするためにノイズを排除するためにその他の波長をフィルタリングするためのレンズおよび/またはフィルターを含んでもよい。例えば、システム100は、IR照明源106を含んでもよい。IR照明源106は、約750〜950nmの範囲で発光するLEDまたはその他の照明源を含んでもよい。一例では、照明源106は、約850nmで照明する。IR照明源106は、人間の目には見えないおよび/または刺激性ではないが、カメラ103が暗い部屋の意味のある画像を取得することを可能にする照明を提供することによって、暗い部屋でもシステム100の使用を可能にすることができる。
プロセッサ102は、例えば、1つまたは複数のプロセッサを含んでもよく、中央処理装置(CPU)、デジタル信号プロセッサ(DSP)、マイクロプロセッサ、コントローラ、チップ、マイクロチップ、集積回路(IC)またはその他の適切な多目的または特定のプロセッサまたはコントローラであってもよい。
いくつかの実施形態では、システム100は、警告装置、例えば、音放出装置および/または専用LEDなどの光源を含んでもよく、プロセッサ102は、昆虫の位置の検出に基づいて音または光を発出させるなどのために、警告信号を生成してもよい。
いくつかの実施形態では、プロセッサ102は、1つまたは複数のメモリユニット112と通信している。メモリユニット112は、例えば、ランダムアクセスメモリ(RAM)、ダイナミックRAM(DRAM)、フラッシュメモリ、揮発性メモリ、不揮発性メモリ、キャッシュメモリ、バッファ、ショートタームメモリユニット、ロングタームメモリユニット、またはその他の適切なメモリユニットまたは記憶装置を含んでもよい。
システム100の構成要素は、無線で、例えば、適切なネットワークハブを介して、または適切なケーブルまたはUSBなどの適切なポートを介して互いに接続されてもよい。
いくつかの実施形態によれば、カメラ103によって取得された画像のうちの少なくともいくつかは、メモリ112に記憶される。メモリ112は、実行可能な命令をさらに記憶してもよく、実行可能な命令は、プロセッサ102によって実行されると、本明細書に記載の方法を容易にする。
方法の一例が図1Bに概略的に示されており、この方法のいくつかのステップはプロセッサ102によって実行される。閉鎖空間内の昆虫を検出および位置特定するための方法は、空間、例えば部屋104の画像を取得するステップ(1001)と、画像内の昆虫の位置を検出するステップ(1003)とを含む。画像内の昆虫の位置は、実世界座標に変換され(1005)、実世界座標を示すために位置インジケータが作成される(1007)。
いくつかの実施形態では、昆虫の位置が検出されると、ユーザに通知するために信号が生成される。信号は、(例えば、ブルートゥース(登録商標)、無線などを介して)ユーザのモバイル装置(ユーザの携帯電話または専用装置など)に送信されてもよい。
一実施形態では、この方法は、空間の画像内の静止昆虫(例えば、飛行していない、および/または空間における位置を変えていない昆虫)を検出すること、および静止昆虫の位置を検出することを含む。静止した昆虫の実世界座標を示すために、位置インジケータが作成される。
別の実施形態では、この方法は、空間の画像において止まる昆虫を検出し、止まった後の昆虫の位置を検出することを含む。止まった後の昆虫の実世界座標を示すために位置インジケータが作成される。
一実施形態では、この方法は、位置インジケータ(例えば、可視光レーザービームなどの人間の目に見える光のビーム)を、空間内の実世界座標の位置に投影することを含み(1009)、目に見えるマークは空間内の位置に作成される。例えば、昆虫(例えば、静止昆虫および/または止まった後の昆虫)が空間内の表面上の位置で検出されると、表面上の光の円(またはその他の形状)が昆虫の位置をマークするように、光線が表面上の位置へ向けられる。
画像内の昆虫の位置は、例えば、画像を取得するカメラの焦点面が、昆虫が位置特定される空間の表面に対して平行である場合、射影幾何学を使用することによって実世界座標に変換することができる(1005)。
別の実施形態では、イメージャ(例えば、カメラ103)およびプロジェクタ(例えば、プロジェクタ108)を含むシステムは、事前に較正されてもよい。例えば、プロジェクタは、カメラのすぐ近くに配置されてもよい(例えば、以下の図3を参照して説明される距離Dを参照されたい)。較正中に、カメラに見える光線は、プロジェクタから空間内のいくつかの位置へ投影されてもよく、それらの位置においてカメラによって画像化されてもよい。このように、補間を使用することにより、画像内の各位置(例えば、各ピクセルまたはピクセルのグループ)を、空間内のx,y座標へリアルタイムに相関させることができ、これにより、画像において検出された位置に基づいてプロジェクタを空間内の位置へ向けることができる。あるいは、またはさらに、カメラに見える光線を使用すると、目に見える表示に基づいてリアルタイムでプロジェクタの方向を修正することができる。
一実施形態では、プロジェクタは、異なる角度で位置インジケータの投影を可能にするための1つまたは複数のローターを含む。この場合、画像内の各位置は、事前キャリブレーションに基づいて、ローターのα,β座標に相関させることができる。
一例では、ローターは、角度の変化が各ステップについて分かるように、ステップモーターを含んでもよい。その動きの限界におけるローターの角度が分かるように、1つまたは複数の物理的停止が使用されてもよい。公知のカメラの光学系の場合、各ピクセルを既知の角度に関連付けることができる。したがって、各角度にローターを方向付けるために必要なステップ数を計算することができる。通常、プロジェクタはカメラと同じ位置に配置されていないため、計算にはプロジェクタとカメラの間の距離の調整が必要になることがある。
画像内の昆虫の位置を実世界位置に変換するためにその他の方法が使用されてもよい。
図2Aに概略的に示されている別の実施形態では、システム200は、例えば本明細書で説明するように昆虫を検出し、部屋の画像において見える位置インジケータを作成する。この実施形態では、プロセッサ202は、部屋の画像223において昆虫205を位置特定し、昆虫の位置において画像223に位置インジケータ225を作成するために信号を生成する。一例では、部屋の画像223は、位置インジケータ225とともに表示され、これは、画像223に重ね合わされたアイコンまたはその他のグラフィック表示であってもよい。
部屋の画像223の例が図2Bに示されている。部屋の一部を含む画像223は、昆虫が位置する表面、すなわち部屋の天井226を示している。位置インジケータ225は、画像223を見るユーザに、天井226上の昆虫の位置を示すために、画像223に重ね合わされる。
一実施形態では、カメラ203によって得られた画像は、ローカル(例えば、メモリユニット212)および/または遠隔で記憶することができる(例えば、画像は、インターネットを介して、または別の適切な無線通信を使用して、例えば、クラウド上の遠隔記憶装置に送信される)。次に、画像は、個人用および/またはモバイル装置(例えば、スマートフォン、タブレットなど)などの装置209上、または専用の、典型的にはモバイルの装置上で検索および表示されてもよい。
一実施形態では、部屋の画像223は、リアルタイムでの部屋の画像であり、位置インジケータ225は、昆虫205の位置が検出される同じ画像に重ね合わされる。
いくつかの実施形態では、部屋の画像223は、特定の詳細(個人情報、プライベート情報、および/または機密情報など)が隠されるか、または画像から削除されるように操作される。したがって、プライバシーおよび/または機密性を損なうことなく、リアルタイム画像(昆虫205が検出されたのと同じ画像)を表示することができる。画像223は、プロセッサ202または異なるプロセッサ(例えば、装置209内のプロセッサ)によってプライバシーおよび/または機密性を保護するように操作することができる。
別の実施形態では、部屋の画像のセットが、カメラ203によって取得される。すべての画像が同じ視野をキャプチャするように、画像のセットを取得している間、カメラ203は移動または再配置されない。第1の画像は、居住者がいない、部屋204のみの画像であってもよいのに対し、部屋204の第2の画像は、昆虫205が検出された部屋(おそらく居住者がいる)のリアルタイム画像であってもよい。いくつかの実施形態では、居住者のプライバシーを保護するために、第1の画像のみが装置209に送信されて表示され、第2の画像における昆虫205の位置は、ユーザに表示されている画像である第1の画像に示されかつ表示される。
いくつかの実施形態では、第1の画像(通常、個人情報を含まない)は、部屋の画像のセットからユーザによって選択された画像であってもよい。その他の実施形態では、第1の画像は、画像内の個人情報を変更することによって個人情報が隠されている部屋の変更または操作された画像であってもよい。
いくつかの実施形態では、第1の画像は、ユーザが画像化されている空間のレイアウトを理解することを可能にする代表的な画像であってもよいが、必ずしも空間の実像であるわけではない。例えば、代表的な画像は、典型的にはカメラ203によって取得される、空間のいくつかの画像の組み合わせから作成されてもよい。例えば、代表的な画像は、空間の画像のセットからのいくつかの画像の平均であってもよい。別の例では、代表的な画像は、空間のグラフィック表現を含んでもよいが、空間の実際に画像化された構成要素を含まなくてもよい。個人情報の保護に役立つことに加えて、平均画像(またはその他の代表的な画像)を第1の画像として使用することは、カメラ(例えば、カメラ203)が画像間で再配置され、画像がすべてまったく同じ視野のものではないような場合に有用である場合がある。
一実施形態では、プロセッサ202によって実行される、昆虫を検出および位置特定するための方法は、空間の画像上に、空間内の昆虫の位置を視覚的にマークすることを含む。図2Cに概略的に示されている例示的な方法は、空間の第1の画像を取得すること(2001)および第1の画像を格納すること(2003)を含む。通常、第1の画像には、居住者がいないスペースおよび/または個人情報が隠されているスペースが含まれる。
空間の第2の画像が取得される(2005)。第2の画像は、第1の画像とほぼ同じ視野であるが、第1の画像よりも後で取得される。第2の画像には、空間内の昆虫が含まれている。第2の画像の昆虫の位置が決定され(2007)、空間の画像内のその位置をマークするために、位置インジケータ(例えば、グラフィックマーク)が作成される(2009)。
一実施形態では、位置インジケータは、昆虫が検出されたのと同じ画像上の位置をマークする。その他の実施形態では、位置インジケータは、部屋の異なる画像上の位置をマークする。部屋の異なる画像は、以前にキャプチャされた画像、例えば、部屋の第1の画像であってもよい。
いくつかの実施形態では、この方法は、ユーザからの入力を受け入れ、ユーザからの入力に基づいて、第1の画像として使用する画像(すなわち、位置インジケータと一緒に表示する画像)を決定することを含む。したがって、ユーザは、ストレージおよび/またはディスプレイに送信する画像を選択することができ、これには、ユーザが個人的またはプライベートと見なす情報は含まれない。
その他のまたは追加の実施形態では、この方法は、空間の代表的な画像(例えば、平均的な画像)を作成し、代表的な画像を第1の画像として使用するステップを含む。
いくつかの実施形態では、第1の画像は、ストレージから検索され、第2の画像と同じ場所で、例えば、ユーザの個人用モバイル装置または専用装置上に、位置インジケータが重ね合わされて、ユーザに表示される(2011)。
したがって、例えば、グリッドが、同じ視野(またはほぼ同じ視野)である空間のすべての画像において使用されてもよく、これにより、1つの画像内の昆虫の位置に、同じ視野のその他のすべての画像において同じx,y座標である、グリッドのx,y座標を与えることができる。
上で論じたように、そして図3にさらに例示したように、位置インジケータを実世界空間、例えば、部屋104内の昆虫の位置に投影するまたは向けるために、プロジェクタ308はプロセッサ302によって制御されてもよい。
一実施形態では、プロジェクタ308およびカメラ303は、ハウジング301内に近接して配置されている。プロジェクタ308は、インジケータソース、例えば、レーザー316などの光源と、光を光源から所望の方向または角度へ向けるレンズおよび/またはミラーまたはその他の光学部品を含む光学系などのインジケータ方向付け装置312とを含む。一実施形態では、インジケータ方向付け装置312は、単一の軸を中心に回転するように配置されたミラー支持ジンバルなどの回転光学要素を含む。直交するピボット軸を有するように一方が他方の上に取り付けられた2つまたは3つのそのようなジンバルのセットが、レーザー316の光をあらゆる所望のピッチ、ロールおよびヨーへ方向付けるために使用されてもよい。
カメラ303によって取得された画像における昆虫305の検出された位置に基づいて、プロセッサ302は、インジケータ、例えば、レーザー316が昆虫の実世界位置へ方向付けられるように、インジケータ方向付け装置312を制御する。例えば、インジケータ方向付け装置312のジンバルのヨーおよびピッチの制御は、レーザー316などのインジケータを実世界位置へ方向付けることを可能にする。
典型的には、カメラ303は、インジケータの正確な狙いを可能にするために、プロジェクタ308から(または、レーザーおよび/またはインジケータ方向付け装置などのプロジェクタの構成要素から)最小距離Dに配置される。一例では、カメラ303およびレーザー316またはインジケータ方向付け装置312は、互いから20cm未満に配置される。別の例では、カメラ303およびレーザー316またはインジケータ方向付け装置312は、互いから10cm未満に配置される。
レーザー316は、可視光を含んでもよく、これにより、昆虫の検出された位置においてレーザーによって作成されたマークが見え、カメラ303によって画像化され、例えば装置209上でユーザに表示することができる。したがって、一実施形態では、ユーザは、部屋の画像内で、レーザー316によって作成された昆虫の位置の視覚的指示を有する部屋の画像を受け取ってもよい。
一実施形態では、プロジェクタ308は、昆虫305を排除または無力化するように構成されている。例えば、レーザー316は、十分に高い出力のUVまたはIRまたはその他の光であってもよく、これにより、室内の表面上の昆虫305、または静止昆虫、または止まった後の昆虫に方向付けられると、レーザー316は、昆虫305を無効化するおよび/または殺す場合がある。
いくつかの実施形態では、インジケータソース、例えば、レーザー316などの光源と、プロセッサによって制御されるインジケータ方向付け装置312とを含むプロジェクタ308が、害虫駆除以外の分野で使用されてもよい。例えば、プロジェクタ308は、アニメーションなどの視覚効果を生み出すために使用されてもよい。例えば、プロジェクタ308は、おもちゃの一部であってもよい。いくつかの実施形態では、方向付け装置を制御するプロセッサは、画像センサから、および/または画像処理に基づいて入力を受け取り、仮想現実ゲームまたはその他のアプリケーションにおいて使用することができる。
別の実施形態では、プロジェクタ308は、例えば、閉鎖された空間またはその他の空間内の特定の地点へユーザを案内するための案内装置として使用されてもよい。いくつかの例は、以下を含む:
−セキュリティカメラによって識別された位置へ警備員を案内する;
−アーカイブ、店舗、倉庫などの広いスペースにおける所望の位置へユーザを案内する;
−問題が検出された特定の場所へ建設または保守スタッフを案内する(おそらく、問題は画像処理によって検出される);および
−画像処理に基づくレーザー切断機の操作。
本発明のいくつかの実施形態は、昆虫を排除または無力化するなど、昆虫を処理するための装置を提供する。そのような装置はまた、昆虫の確認、例えば、画像内の昆虫の存在および/またはタイプの確認を支援するために、追加のカメラおよび/または照明源などの装置を含んでもよい。通常は移動可能な装置は、密閉空間などの空間内の昆虫の位置に近づくように制御され、昆虫を近距離で処理し、それによって周囲の空間に危険を及ぼすことがある影響を制限する。
以下に説明する昆虫を処理するための装置のいくつかの例は、本発明の実施形態による、昆虫を位置特定するためのシステムによって制御される装置であるが、いくつかの実施形態では、昆虫を処理するための装置は、その他のシステムによって制御されてもよい。
上記のようなシステムは、いくつかの実施形態では、本発明の実施形態による、画像において検出された昆虫を排除および/またはその他の方法で処理するために、本明細書において説明されるシステムとともに使用される補助装置を含んでもよい。
図4Aおよび4Bに概略的に示される例示的な実施形態では、部屋内の昆虫の位置を検出するためのシステムは、ハウジング401を含み、ハウジング401は、空間(家の中の部屋、オフィススペースおよびその他の公共または私用屋内スペース)の画像を取得するために使用されるカメラ403を収容している。カメラ403は、例えば、上記のように、プロセッサ402およびメモリ412と通信している。システムは、プロセッサ402と通信する補助装置をさらに含む。
図4Aでは、補助装置は、独立の移動装置415であり、これは、昆虫を排除するために、または図5でさらに説明されるように、昆虫を除去、捕獲または分析するなどのその他の目的のために使用されてもよい。
図4Aに記載されたシステムはまた、独立の移動装置415に電力を供給および/またはロードするためのドッキングステーションまたはその他のターミナルなどの、典型的にはハウジング401上にあるポート413を含んでもよい。
一実施形態では、独立の移動装置415は、ドローンなどの飛行装置である。
独立の移動装置415は、プロセッサ402によって遠隔制御されてもよい。例えば、独立の移動装置415は、(例えば、ブルートゥース(登録商標)、無線などを介して)プロセッサ402と無線通信してもよい。
図4Aに概略的に示されているシステムは、空間の画像を取得するためのカメラ403と、カメラ403とは別個に移動可能なモバイル装置415とを含む。プロセッサ402は、カメラ403によって取得された空間の画像のうちの少なくとも1つにおいて昆虫を検出してもよく、空間の画像の分析に基づいて、昆虫の近くへ移動するように装置415を制御してもよい。
一実施形態では、プロセッサ402は、単一のフレーム内に昆虫およびモバイル装置415を有する空間の画像の分析に基づいて、昆虫の近くへ移動するようにモバイル装置415を制御する。プロセッサ402は、カメラ403から昆虫の方向への直接経路において移動するようにモバイル装置415を制御してもよく、昆虫への方向は、フレーム内の昆虫の画像の位置から推定することができる。昆虫およびモバイル装置415が同じフレーム内にあるならば、プロセッサ402は、カメラから離れて昆虫に向かうようにモバイル装置を案内しながらモバイル装置が画像内の昆虫の近くにとどまるように、モバイル装置415の移動をさらに制御する。例えば、プロセッサ402は、フレーム内の2つの物体間のピクセルにおける距離を使用して推定されてもよいフレームにおける昆虫からのモバイル装置415の角距離を周期的に決定してもよい。決定された角距離が所定の値を超える場合、プロセッサ402は、モバイル装置415を昆虫から所定の角距離内に移動させるためにモバイル装置415を移動させるのに必要な距離および方向を計算し、計算された方向へ計算された距離だけモバイル装置415を移動させてもよい。
このプロセスは、モバイル装置415が昆虫から所定の距離、例えば、除去距離内になるまで繰り返されてもよい。例えば、除去距離は、装置が昆虫を効果的に処理することができる距離、例えば、殺虫剤を昆虫に効果的に噴霧することができる距離であってもよい。所定の距離(除去距離)に達すると、装置415および/または部材426(以下に記載)は、例えば、化学的、機械的、または電気的方法を使用することによって、昆虫を除去するように制御されてもよい。
したがって、プロセッサ402は、カメラ403から昆虫の方向を推定し、ほぼその方向に移動するように装置を制御する。
一実施形態では、除去距離に到達したかどうかを決定することは、昆虫の画像を取得するためにモバイル装置415上の追加のカメラを利用することによって行うことができる。(例えば、画像内の昆虫のサイズを、所望の距離からのこのタイプの昆虫の予想されるサイズと比較することによって)昆虫の画像が分析されてもよい。別の実施形態では、プロセッサ(例えば、モバイル装置415に取り付けられてもよいプロセッサ402または別のプロセッサ)は、距離計からの入力に基づいて、除去距離に到達したかどうかを決定するために、(モバイル装置415に取り付けられてもよいまたはシステム内の別の位置に取り付けられてもよい)距離計または同様のシステムと通信してもよい。別の実施形態では、除去距離に到達したかどうかの決定は、光点を取得するために(例えば、レーザーポインタまたはその他のプロジェクタを使用して)既知の方向に光を放射し、カメラ403からの画像における光点(例えば、レーザーポインタによって作成された壁または天井上の点)の位置を分析する、モバイル装置415によって行うことができる。(本明細書に記載されているように)カメラ403に対するモバイル装置415の位置は既知である。したがって、モバイル装置415から光点の位置までの角度が分かる。カメラ403から光点の位置までの角度は、画像内の点のピクセル(またはピクセルのグループ)を検出することによって計算することができる。昆虫はしばしば光点と同じ表面上にいるので、光点までの距離を三角測量することができ、そこから、昆虫までのモバイル装置415の距離を推定することができる。
いくつかの実施形態では、モバイル装置415は、エネルギーの形態のビームを昆虫の近くに投影し、光点を作成しかつ/または昆虫を処理するための、プロジェクタを含んでもよい。さらに、モバイル装置415は、追加のカメラ(例えば、図5のカメラ503)を含んでもよい。昆虫からのモバイル装置415の方向および/または距離は、モバイル装置415のプロジェクタおよび/または追加のカメラを使用して(例えば、上記のように)計算されてもよい。
所定の距離内に入ると、モバイル装置415は、例えば、以下に説明するように、昆虫を処理するために、場合によっては装置から昆虫の近くまで延伸可能な部材を使用してもよい。
図4Bでは、補助装置は、取り付け点411においてハウジング401に取り付けられており、取り付け点411を介して、ハウジング401内の電源および/またはリザーバと通信してもよい。補助装置は、伸縮アームなどの、移動可能で典型的には延伸可能な部材426などの、処理ツールを含んでもよい。部材426は、ハウジング401から延伸し、昆虫の位置へ移動し、これにより、その位置において昆虫を処理し、例えば、以下に説明するように昆虫を捕獲しかつ殺すために、プロセッサ402によって制御されてもよい。
いくつかの実施形態では、部材426は、例えば、形状記憶材料から形成された伸縮式および/または変形可能なアームまたはばねであり、部材426は、通常は折り畳まれたまたはコイル状の形態であり、プロセッサ402からの信号に応じて、昆虫の位置において昆虫と相互作用するように延伸および移動させることができる。
昆虫の処理は、機械的および/または化学的方法の使用を含んでもよい。場合によっては、昆虫を処理するために機械的および化学的手段または方法の両方が使用される。
いくつかの実施形態では、部材426は、昆虫を使用するために使用される器具または薬剤のための導管として機能する。例えば、部材426は、(例えば、気体、液体、または粉末の形態の)化学物質を含むチャンバーを含んでもよい、またはこのチャンバーと連通していてもよく、化学物質は、比較的近い範囲から昆虫に対して噴霧または滴下することができ、これにより、化学物質の効果を昆虫自体に限定し、周囲空間に影響を与えない。一例では、チャンバーは農薬を含んでもよい。別の例では、チャンバーは、植物ベースの防虫剤であるシトロネラ油などの防虫剤を含んでもよい。
いくつかの実施形態では、ハウジング401は、化学物質のリザーバを含む。その他の実施形態では、ハウジング401は、部材426に装填することができる化学物質のカプセル(またはその他の容器)を格納している。
一実施形態では、部材426は、部材426の遠位端427に取り付けられたノズルを含んでもよい。ノズルを備える部材426は、昆虫の位置に向けられてもよく、(例えば、上記のように)化学物質のパルスまたはスプレーが、ノズルを介して近距離で昆虫に向けられてもよい。
一実施形態では、部材426は、昆虫を引き込みかつ捕獲する(および/または殺す)ための吸引チャンバーを含んでもよいまたはこの吸引チャンバーと連通していてもよい。
別の実施形態では、部材426は、昆虫を感電死させるための感電要素を含んでもよい。別の実施形態では、部材426は、昆虫を捕獲(および/または殺す)するための接着要素を含んでもよい。
その他の電気的および/または機械的および/または化学的ソリューションが、部材426を介して使用されてもよい。
部材426は、人間またはその他の捕食者の特性を持たないため、通常、昆虫(蚊など)によって人間または捕食者として識別されず、昆虫を怖がらせることなく昆虫に近づき、昆虫の近距離に入ることができる。
いくつかの実施形態では、補助装置は、例えば、昆虫に有害または致命的なあらゆる形態のエネルギーのビームを昆虫の位置に投影するためのプロジェクタを(例えば、プロジェクタ108に加えて)を含んでもよい。いくつかの実施形態では、昆虫の位置を示し、昆虫を処理する(例えば、無力化する)ためにビームを投影するために、単一のプロジェクタ(例えば、プロジェクタ108)が使用されてもよい。したがって、プロジェクタは、光、熱などのエネルギーの形態のビームを昆虫の位置に投影して、昆虫を処理するために、プロセッサ102から生成された信号によって制御されてもよい。
いくつかの実施形態では、その場所の画像または複数の画像から昆虫の詳細を検出および識別するために、畳み込みニューラルネットワークなどのニューラルネットワーク、またはその他のコンピュータビジョンソフトウェアおよびアルゴリズムが使用される。例えば、昆虫の形状および/または色および/または移動パターンおよび/またはその他の詳細を決定するために、形状および/または動きおよび/または色検出アルゴリズムが使用されてもよい。移動パターンは、例えば、移動方向、移動の大きさ、移動速度などを含んでもよい。昆虫のこれらの詳細は、画像化される昆虫のタイプを決定するため、および/または異なる昆虫を区別するためおよび/または昆虫と、画像化されることがあるほこりの粒子またはその他のノイズなどの非昆虫物体とを区別するために使用されてもよい。
いくつかの実施形態では、プロセッサ102は、昆虫のタイプの決定に基づいて補助装置を制御する。例えば、それが特定の種類の昆虫である場合にのみ昆虫を処理するようにプロジェクタが制御されてもよい。
その他の実施形態では、補助装置は、例えば、昆虫の位置において部屋の画像を強調するためのツールを含んでもよい。例えば、システム(例えば、100)は、例えば、その位置の拡大された画像に基づいて、その位置における昆虫の存在および/またはタイプを確認するために昆虫の位置を強調することができる工学系を備えるカメラを(例えば、カメラ103に加えて)含んでもよい。
一実施形態では、昆虫の位置を拡大して、昆虫の形状または他の詳細をより詳細にかつ焦点を合わせて見ることを可能にするために、長焦点レンズ(例えば、望遠レンズ)が使用されてもよい。
一実施形態では、カメラ103が疑わしい昆虫の位置を検出すると、例えば、昆虫の存在および/またはタイプを確認するために、追加のカメラが疑わしい昆虫の位置に向けられかつ/または移動させられてもよい。一実施形態では、長焦点レンズ(またはその他の拡大光学系)を備えたカメラは、インジケータ方向付け装置312、例えばジンバルに取り付けられるか、または配置されてもよく、これにより、拡大光学系をインジケータ方向付け装置に対して平行に移動させ、疑わしい昆虫の位置へ光学系を自動的に方向付けることができる。
一実施形態では、疑わしい昆虫を確認し、および/または昆虫を検出するために、差分解析が使用されてもよい。例えば、疑わしい昆虫を検出するためにある領域を低解像度でスキャンされてもよく、次に、疑わしい昆虫の領域が、例えば、昆虫の存在および/またはタイプを確認するために高解像度で分析されてもよい。画像の差分解析を使用すると、処理を減らすことができ、それによって費用効果の高いソリューションが提供される。
したがって、一実施形態では、カメラ103は、部屋の広いFOV画像を取得してもよく、拡大を可能にする追加のカメラなどの補助装置は、部屋の一部の詳細な画像を取得する。プロセッサ102は、部屋の広いFOV画像内の疑わしい昆虫の位置を検出し、(例えば、ジンバルの動きを制御することによって)追加のカメラを疑わしい昆虫の位置に向け、部屋の一部(疑わしい昆虫の位置)の詳細画像における昆虫を確認する(例えば、昆虫の存在および/またはタイプを確認する)ことができる。
一実施形態では、システム100などの昆虫を処理するためのシステムは、疑わしい昆虫の位置のより高い解像度の画像化を可能にし、昆虫の確認を支援するための、補助照明源を含んでもよい。選択的に、例えば、より明るい画像を得るために、インジケータ方向付け装置に対して平行に移動させられるようにジンバルに取り付けられてもよい照明源が使用されてもよい。照明源は、回折限界を低減し、疑わしい昆虫のより高解像度の画像化を可能にするために、比較的短い波長(例えば、青色光)を有してもよい。いくつかの実施形態では、照明源および位置インジケータは同じ要素である。
疑わしい昆虫が確認されると、プロセッサ102はプロジェクタ108を制御することができ、これにより、確認された昆虫の位置を示し、場合によっては別の補助装置を制御して、確認された昆虫を排除またはその他の態様で処理する。
追加のカメラおよび/または追加の照明源などの補助装置を使用することにより、光学および/または照明を介して強化された画像を取得し、電力を消費するコンピュータビジョンアルゴリズムにあまり依存しないことが可能になる。したがって、より強力でないCPUがカメラ103とともに使用されてもよく、それにより、費用効果の高い解決策を提供する。
いくつかの実施形態では、昆虫または疑わしい昆虫の位置を検出するための画像を提供し、検出された位置において画像を拡大するまたはその他の方法で強調するために、単一のカメラ(例えば、カメラ103)が使用されてもよい。例えば、広い領域(例えば、部屋)を画像化するために1つの光学要素が使用されてもよく、大きな領域内の小さな領域(例えば、部屋内の検出された位置)を画像化するために別の光学要素が使用されてもよい。あるいは、またはさらに、例えば、昆虫の識別を支援するために、広い領域の画像内の領域を局所的に強調するために差分解析が使用されてもよい。昆虫の位置における部屋の画像を強調するためのツールは、プロセッサ102によって制御されてもよい。
図4Cに概略的に示されている一実施形態では、昆虫を排除、無力化、またはその他の方法で処理するための方法は、空間の画像を取得し(4001)、画像内の昆虫の位置検出すること(4003)を含み、この方法のいくつかのステップは、プロセッサ402によって行われてもよい。画像内の昆虫の位置は、実世界座標に変換される(4005)。次に、プロセッサ402(または別のプロセッサ)は、実世界座標に基づいて補助装置(独立の移動装置415または部材426など)を制御する。例えば、補助装置を実世界座標へ方向付けることができる(4007)。
いくつかの実施形態では、補助装置は、補助装置の作用によって害を受ける可能性のあるその他の影響を受けやすい物体がないと決定された場合にのみ、昆虫を排除するまたはその他の態様で処理するために使用される。影響を受けやすい物体は、例えば、生物(例えば、人間、ペットなど)および/またはその他の物体または材料、例えば紙または布、または補助装置の作用によって害を受ける可能性のあるそのような材料を含む物体を含むことがある。
したがって、昆虫を駆除する方法は、昆虫の位置の近くに生物(または補助装置の作用によって害を受けることがある物体または材料)が存在するかどうかを決定し、昆虫の近くに生物(または物体または材料)が検出されない場合にのみ補助装置をステップ(4005)において検出された実世界座標に方向付けるするステップを含んでもよい。昆虫の位置の近くにおける生物の存在は、例えば、空間内の動きを検出することによって決定されてもよい。所定の大きさを超える動きは、その空間にいる人またはその他の生物を示すことがある。一実施形態では、動きまたは動きの大きさは、空間の画像の経時変化を検出することによって決定される。
その他の実施形態では、空間内の人またはその他の生物(または特定の物体または材料)の存在は、例えば、画像(例えば、カメラ103または追加のカメラによって取得された画像)から、人または物体または材料の形状、色またはその他の属性を検出するために、コンピュータビジョン技術を使用することによって決定されてもよい。
したがって、いくつかの実施形態では、部屋内の昆虫を排除するためのシステムは、部屋の画像を取得するためのカメラと、部屋の画像内の昆虫の位置を検出するためのプロセッサとを含む。例えば、プロセッサは、部屋の画像から、止まった後の昆虫および/または空間の表面上の昆虫を検出する。次に、プロセッサは、画像内の昆虫(例えば、止まった後の昆虫)の位置を、実世界座標に変換し、昆虫を排除またはその他の態様で処理するために、実世界座標に基づいて補助装置を制御する。
あるいは、またはさらに、プロセッサは、昆虫の近くに人(またはその他の生物)または特定の影響を受けやすい物体または材料が存在するかどうかを決定してもよく、その決定に基づいて昆虫を排除またはその他の方法で処理するように補助装置を制御してもよい。
あるいは、またはさらに、プロセッサは、その位置における昆虫の存在および/またはタイプを確認してもよく、その位置における昆虫の存在および/またはタイプの確認に基づいて、昆虫を排除またはその他の方法で処理するように補助装置を制御してもよい。一例では、プロセッサは、その位置における昆虫の存在および/またはタイプを確認するために昆虫の拡大画像またはより詳細な画像を取得するようにカメラまたは追加のカメラを制御してもよい。
無線通信を介してもよい補助装置の制御は、例えば、補助装置の推進機構の制御および/または補助装置の処理ツールの制御であることができる。
独立して移動可能な補助装置の一例が、図5に概略的に示されている。
一実施形態では、装置515は、補助なしに装置を移動させるための推進機構525および昆虫処理ツール526を含む飛行装置(例えば、ドローン)であり、または、あるいは、またはさらに、処理ツールを装置515に解放可能に収容および固定するように構成された取り付け箇所を含む。
処理ツール526は、昆虫を処理するための機械的および/または化学的および/または電気的方法を適用してもよい。いくつかの実施形態では、処理ツール526は、昆虫を処理するための機械的および化学的手段または方法の両方を適用する。
一実施形態では、処理ツール526は、昆虫を引き込みかつ捕獲する(および/または殺す)ための吸引チャンバーを含んでもよい。別の実施形態では、処理ツール526は、昆虫を感電死させるための感電要素を含んでもよい。別の実施形態では、処理ツール526は、昆虫を捕獲する(および/または殺す)ための接着要素を含んでもよい。その他の電気的および/または機械的解決策は、処理ツール526によって使用されてもよい。
一実施形態では、処理ツール526は、装置515の輸送中に折り畳まれたまたはコイル状にされた状態になることができかつプロセッサ402からの信号に基づいて昆虫と相互作用するように延長させられることができる、例えば、形状記憶材料から形成された伸縮アームまたは変形可能アームまたはばねを含むことができる。
別の実施形態では、処理ツール526は、(例えば、上述のような)化学物質を含むチャンバーを含んでもよく、化学物質は、比較的近い範囲から昆虫に対して噴霧または滴下させられることができ、これにより、化学物質の効果を昆虫事態に限定し、周囲空間に影響を与えない。
いくつかの実施形態では、ポート413は、装置515がポートにドッキングし、処理ツール526に化学物質を再充填および貯蔵することを可能にするための化学物質のリザーバを含む。その他の実施形態では、ポート413は、化学物質のカプセル(またはその他の容器)を保管する。装置515がポート413にドッキングしている間に、カプセルを処理ツール526に装填することができる。カプセルは、枯渇する前に昆虫を処理するいくつかのイベントに耐えてもよく、枯渇したときにポート413で交換されてもよい。
いくつかの実施形態では、装置515は、異なる処理ツールの組み合わせを含んでもよく、昆虫を処理するための方法(例えば、化学的および/または機械的)の組み合わせを使用してもよい。
装置515は、人間またはその他の捕食者の特徴を持たないため、通常、昆虫(蚊など)によって人間または捕食者として識別されず、したがって、昆虫に近づき、昆虫を怖がらせることなく昆虫の近距離に入ることができる。
図5の例では、装置515は空中ドローンであり、推進機構525は、空中飛行に適したプロペラ機構を含む。異なるタイプの独立して移動する装置は、異なるタイプの推進メカニズム、または複数のタイプの推進メカニズムを有してもよい。例えば、地上のドローンは、モーター、トランスミッション、ホイールを含む推進メカニズムを有してもよい。
装置515は、通常、プロセッサ(例えば、プロセッサ402)と通信する制御回路(図示せず)を含み、昆虫の位置に関する入力を受信するように構成される。
いくつかの実施形態では、装置515(および/または部材426)は、画像センサ(例えば、カメラ503)および/または距離センサ(距離計など)などの1つまたは複数のセンサをさらに含んでもよい。
一実施形態では、装置515(および/または部材426)は、静止昆虫または止まった後の昆虫(例えば、空間内の表面上の昆虫)を処理するように制御される。装置515または部材426は、静止昆虫の検出された位置に基づいて、プロセッサ402から方向情報(例えば、ベクトル)を受信し、受信した情報に従って推進される。装置515(または部材426)内の距離センサは、昆虫(および/または表面)からの装置515(または部材426)の距離を検出し、昆虫から所定の距離で推進を停止することができる。
一実施形態では、装置515(および/または部材426)は、信号を発するための信号源(光源またはオーディオトランスミッタなど)を含んでもよく、信号は、プロセッサ402によって受信および分析することができ、昆虫(および/または表面)からの装置515または部材426の距離を推定または計算するために使用されてもよい。例えば、装置515は、昆虫の近くに目に見えるマークを投影するためのプロジェクタを含んでもよい。次に、プロセッサ402は、計算された距離に基づいて、装置515(例えば、処理ツール526を制御するため)または部材426を制御することができる。
いくつかの実施形態では、昆虫(および場合によっては、装置515のプロジェクタから投影された視覚的マーク)の画像を捕捉するために、ハウジング401に取り付けられたまたはハウジング401内に設けられた専用の画像センサを使用することができ、画像は、装置515または部材426を昆虫へ方向付けるために使用されてもよい。視覚的マークは、カメラ403または専用のカメラおよび装置515または部材426によって取得された画像から検出することができ、これにより、画像化された視覚的マークの位置へ方向付けることができる。
本発明の実施形態によれば、画像内の昆虫の位置に基づいてプロセッサによって制御される装置および/または拡張可能な部材を使用することにより、飛んでいる昆虫などの害虫を除去または排除するための正確で環境に優しい行動が可能になる。
上記のように、本発明の実施形態は、昆虫を、ノイズ、例えば、画像センサにおける電子ノイズおよび/または周囲ノイズ、例えば、空間におけるほこり粒子、周囲照明における変化、反射などを区別することができる。加えて、特定の昆虫タイプ(例えば、蚊)を別の昆虫タイプ(例えば、ハエ)と区別することができる。
一実施形態では、空間の画像から標的昆虫と非標的昆虫物体とを区別するための方法が提供される。例えば、標的昆虫は、非昆虫物体(例えば、ノイズまたはその他の物体)に対する昆虫、および/または異なるタイプの昆虫に対する、特定のタイプの昆虫であってもよい。
システム100などのシステムによって実行されてもよい方法は、画像内の物体が標的昆虫であるかどうかを決定するために複数の画像を使用することを含む。
一実施形態では、プロセッサ102は、空間の2つ(またはそれ以上)の画像を比較することによって物体を検出し、空間の画像内の物体の特性に基づいて、物体が標的昆虫であると決定してもよい。いくつかの実施形態では、物体は、所定の基準を満たす場合に検出される。
一実施形態では、カメラ103は、昆虫が空間に存在するかどうかを決定することが望ましい画像(「現在の画像」とも呼ばれる)をキャプチャしてもよい。プロセッサ102は、空間の異なる第2の画像から空間の現在の画像を減算することによって減算画像を取得してもよい。減算画像は、空間における変化を強調する。なぜならば、画像間で変更されていない(例えば、移動していない、または位置を変更していない)物体は通常、減算画像に表示されないからである。
プロセッサ102は、減算画像において、所定の基準を有する物体を検出し、その物体が標的昆虫であると決定してもよい。
上記のように、装置は、物体が標的昆虫であるという決定に基づいて制御されてもよい。
本発明の一実施形態では、所定の基準を満たす物体を検出するために、空間の2つ以上の画像が比較される。例えば、現在の画像には存在するが前の画像には存在しない物体を検出するために、現在の画像が、以前にキャプチャされた第2の画像と比較されてもよい。いくつかの実施形態では、第2の画像は、空間の複数の画像の表現を含んでもよい。例えば、第2の画像は、空間の複数の画像の平均(またはその他の適切な統計的表現)であり得る。別の例では、第2の画像は、空間の画像における一定かつ一時的な要素を理解しかつ一定の要素(例えば、人およびペットではなく、壁および家具)の画像を構築することによって、時間の経過とともにキャプチャされた空間の画像を使用して構築された背景画像を含んでもよい。
この実施形態の例は、図6に概略的に示されている。空間の2つの画像が取得される(ステップ602)。一例では、画像は減算によって比較され、例えば、現在の画像が空間の別の画像から減算され、減算画像が得られる(ステップ604)。
ステップ606において、所定の基準を満たす物体が減算画像において検出される。所定の基準は、物体の1つまたは複数の特性に関連してもよい。例えば、物体の特性は、減算画像におけるサイズ、形状、位置、減算画像における物体の色、透明度およびその他のこのような属性を含んでもよい。したがって、所定の基準は、例えば、サイズ範囲(例えば、ピクセル単位)、特定の形状(例えば、減算画像に適用される形状検出アルゴリズムによって決定される)、減算画像内の物体の特定の位置または位置の範囲、特定の色(例えば、減算画像に色検出アルゴリズムを適用することによって決定される)などであってもよい。
プロセッサ102は、所定の基準を満たす物体が標的昆虫であるかどうかを決定する。例えば、物体の1つまたは複数の特性(例えば、移動パターン、形状、色または透明度)が決定されてもよく、決定された特性に基づいて、物体が標的昆虫であると決定されてもよい。例えば、蚊は、他の一般的な昆虫よりも透明で明るい色であるため、標的昆虫が蚊である1つの例では、物体に関連したがその色が、蚊の典型的な色であるならば、その物体は蚊であると決定される。別の実施形態では、物体が特定のレベルの透明性を有するまたは透明領域の所定のパターンを有すると決定される場合、物体は蚊であると決定されてもよい。物体の透明度は、例えば、空間内の背景の既知の色に基づいて決定されてもよい。物体が背景の色を有すると決定された場合(例えば、背景色が標的昆虫に典型的な色でない場合)、物体は部分的に透明であると決定されてもよい。別の例では、異なる昆虫は異なる形状を有し、したがって、標的昆虫は、減算画像におけるその形状に基づいて決定されてもよい。
いくつかの実施形態では、物体は複数の画像から検出されてもよいが、物体が所定の基準を満たしているかどうかを検出し、物体が標的昆虫であると決定することは、単一の画像から行われる。一実施形態では、第1の画像において、所定の基準を満たす物体を検出し、同じ画像または第2の画像において、その物体が標的昆虫であるかどうかを決定するために、物体の同じ特性が使用されてもよい。その他の実施形態では、第1の画像において、所定の基準を満たす物体を検出し、同じ画像または第2の画像においてその物体が標的昆虫であるかどうかを決定するために、異なる特性が使用されてもよい。
例えば、減算画像は、いくつかの物体を含んでもよいが、2つの物体のみが所定のサイズ範囲にある。したがって、減算画像では2つの物体が検出される。サイズ以外の1つまたは複数の特性が2つの物体について決定されてもよく、例えば、2つの物体の色および/または透明度および/または移動パターンが決定されてもよく、物体は、それらの色および/または透明度および/または移動パターンに基づいて、標的昆虫であるかどうかが決定されてもよい。
いくつかの実施形態では、物体の高解像度画像が取得されてもよく、物体は、高解像度画像に基づいて標的昆虫であると決定することができる。例えば、物体は、第1の画像において、例えば、減算画像において、場合によってはそのサイズまたはその他の特性に基づいて検出されてもよく、次いで、第1の画像より高い解像度の第2の画像から、標的昆虫である(またはそうではない)と決定されてもよい。
いくつかの実施形態では、色および/または動きなどの特性は、空間的に相関させられてもよい。例えば、互いに近い複数のピクセルが、標的昆虫を示す特性を有するならば、これらのピクセルは、同じ特性を有するが、近くでグループ化されていない複数のピクセルよりも、標的昆虫の存在を決定する際により大きな重みが与えられてもよい。別の例では、画像における複数の位置において検出された、複数の相関させられた特性またはピクセル特性、例えば、同じ移動パターンおよび/または照明の変化は、より大きな物体の動きおよび/または反射に向けられてもよく、1つの相関させられていない特性よりも、標的昆虫の存在を決定する際により小さな重みが割り当てられてもよい。
複数の画像における特徴の挙動に基づいて、特徴(またはこれらの特徴を表すピクセル)に異なる重みが割り当てられてもよい。例えば、時間の経過とともに持続する特性は、ノイズである可能性が低いため、より高い重みが割り当てられてもよい。
空間の画像(例えば、減算画像)内の物体を検出し、物体に関連するピクセルを決定するために、物体検出アルゴリズム、セグメンテーションなどのマシンビジョン技術が使用されてもよい。いくつかの実施形態では、物体が標的昆虫であることを決定するために、学習モデルが空間の画像に適用されてもよい。学習モデルは、例えば、減算画像において所定の基準を有する物体を検出するためにおよび/または現在の画像において物体が標的昆虫であることを決定するために、適用されてもよい。学習モデルは、様々な入力(色、透明度、サイズ、移動パターンなど)を、物体が標的昆虫であるかどうかを決定する単一の決定に統合するなど、他のステップにおいて適用されてもよい。
物体が標的昆虫であると決定された場合(ステップ608)、プロセッサ102は、装置を制御するための信号を生成する(ステップ610)。物体が標的昆虫であると決定されない場合は、別の現在の画像が取得されて処理される。
物体が標的昆虫であるという決定に基づいて制御される装置は、例えば、上記のように、補助装置を含んでもよい。一例では、装置(光源のプロジェクタなど)は、人間の目に見える位置インジケータ(例えば、視覚的マーク115)を作成してもよい。したがって、方法は、空間の画像から標的昆虫の実世界位置を決定し、人間の目に見える、標的昆虫の実世界位置を示す位置インジケータを作成するように装置を制御することを含んでもよい。
別の実施形態では、標的昆虫を排除および/またはその他の方法で処理するために装置が使用されてもよい。したがって、方法は、空間の画像から標的昆虫の実世界位置を決定し、実世界の位置で標的昆虫を排除する(またはその他の方法で処理する)ために装置を制御することを含んでもよい。この装置は、例えば上記のように、昆虫を処理するための補助装置を含んでもよい。例えば、装置は、標的昆虫の実世界位置にある形態のエネルギーを投影するためのプロジェクタを含んでもよい。あるいは、またはさらに、装置は、遠隔制御される独立のモバイル装置および/または伸縮アームおよび/またはノズルを含んでもよい。
一実施形態では、物体(例えば、減算画像において検出された物体)は、空間の複数の画像において、空間内の複数の場所まで追跡され、物体は、追跡に基づいて標的昆虫である(またはそうでない)と決定されてもよい。
図7に概略的に示されている一実施形態では、物体の移動パターンが検出され、移動パターンに基づいて、物体が標的昆虫である(またはそうでない)と決定される。
空間の画像において物体が検出され(ステップ702)、物体の移動パターンが決定される(ステップ704)。移動パターンが所定のパターンに類似している場合(ステップ706)、物体が標的昆虫であると決定される(ステップ708)。移動パターンが所定の移動パターン(ステップ706)と類似していない場合、対象は標的昆虫であると決定されない(ステップ(710)。
典型的には、所定の移動パターンは、標的の昆虫から予想されるパターンと一致するパターンである。例えば、所定の移動パターンは、蚊に典型的な止まるパターン(例えば、飛んでいて、次いで着地する)を含むことができる。別の例では、主に反復運動は、意図しない運動(扇風機の動き、風に吹かれた物体および/または電子ノイズなど)の特徴であるため、所定の移動パターンは、主に非反復移動を含むことができる。さらに別の例では、移動パターンは方向の変化を含むことができ、所定の移動は特定の角度または角度の範囲での方向の変化を含む。例えば、蚊はしばしば、ハエよりも鋭くない角度で方向を変化する。したがって、所定の移動パターンは、所定の範囲内の角度での方向の変化を含んでもよい。別の例では、蚊はハエよりもゆっくりと移動するため、所定の移動パターンは、特定の速度(または速度範囲)を含むことができる。
さらに、色および透明度などの物体の特性を決定することは、複数の画像を使用するおよび/または時間の経過とともに画像を比較する場合、より正確であることがある。場合によっては、時間の経過とともに、移動する物体(昆虫など)が様々な背景を通過することがあり、(上記のように)物体の色および/または透明度を決定するのに役立つ。例えば、完全に不透明な物体は、異なる背景を通過するときに色または強度を変更させないが、半透明の物体は変更させる。
いくつかの実施形態では、履歴データは、物体が標的昆虫であるかどうかを決定する際に使用されてもよい。例えば、後でキャプチャされた画像における物体が標的昆虫であるかどうかを決定することは、前にキャプチャされた画像のピクセルに割り当てられた重みに基づくことができる。
図8に概略的に示されている一例では、物体は、空間の第1の画像(例えば、第1の現在の画像)内の位置で検出される(ステップ802)。物体が標的昆虫ではないと決定された場合(ステップ804)、第1の重みがその位置のピクセルに割り当てられる(ステップ806)。物体が標的昆虫であると決定された場合(ステップ804)、第2の重みがその位置のピクセルに割り当てられる(ステップ808)。
物体が第2の画像(例えば、第2の現在の画像)内の位置で検出され(ステップ810)、ステップ806および808からの重みが、第2の画像内のそれらの位置に基づいて第2の画像のピクセルに割り当てられる。次に、第2の画像内の物体は、第2の画像内の物体に関連付けられた重み付けされたピクセルに基づいて、標的昆虫である(またはそうでない)と決定されてもよい(ステップ812)。
例えば、空間(部屋など)の画像は、窓、テレビ画面、扇風機、反射などを含むことがあり、これらは、画像に「ノイズの多い」領域を生じることがある。このようなノイズは、例えば、時間の経過に伴うピクセル値の大きな変動によって、多くの誤検知(例えば、誤って検出された標的昆虫)によって、またはノイズを生じる可能性のある物体(例えば、窓、テレビなど)を識別するための物体検出アルゴリズムを適用することによって、検出されてもよい。いくつかの実施形態では、画像の比較的「ノイズの多い」領域において検出された物体の特性(またはこれらの特性を表すピクセル)は、画像の他の領域において検出された物体の特性(またはピクセル)よりも少ない重みが割り当てられてもよい。別の例では、過去のケースにおいて標的昆虫が誤って決定された画像の領域において検出された物体の特性(またはピクセル)は、画像の他の領域において検出された特性(またはピクセル)よりも少ない重みが割り当てられてもよい。

Claims (37)

  1. 空間内の標的昆虫を検出するための方法であって、
    前記空間の少なくとも2つの画像を比較することによって物体を検出することと、
    前記空間の画像内の前記物体の特性に基づいて、前記物体が標的昆虫であると決定することと、
    前記物体が標的昆虫であるという決定に基づいて装置を制御することと、を含む、方法。
  2. 前記物体が所定の基準を満たす、請求項1に記載の方法。
  3. 前記少なくとも2つの画像のうちの1つが、前記空間の複数の画像の表現を含む、請求項1に記載の方法。
  4. 前記空間の前記少なくとも2つの画像を比較することが、前記空間の第2の画像から前記空間の現在の画像を減算することによって減算画像を取得することを含み、かつ
    前記減算画像において、所定の基準を満たす物体を検出することを含む、請求項1に記載の方法。
  5. 前記第2の画像が、前記現在の画像の前にキャプチャされた前記空間の画像を含む、請求項4に記載の方法。
  6. 前記所定の基準が、前記物体の1つまたは複数の特性に関連し、前記特性は、サイズ、形状、画像内の位置、色、および透明度のうちの1つを含む、請求項2に記載の方法。
  7. 前記物体の1つまたは複数の特性を決定することであって、前記特性が、移動パターン、形状、色および透明度のうちの1つを含む、決定することと、
    決定された前記特性に基づいて、前記物体が標的昆虫であると決定することと、を含む、請求項1に記載の方法。
  8. 前記空間の画像内の前記物体を追跡することと、
    前記追跡に基づいて、前記物体が標的昆虫であると決定することと、を含む、請求項1に記載の方法。
  9. 前記物体の前記追跡に基づいて、前記物体の移動パターンを検出することと、
    前記移動パターンが所定の移動パターンに類似している場合、前記物体が標的昆虫であると決定することと、を含む、請求項8に記載の方法。
  10. 前記所定の移動パターンが、止まるパターン、主に非反復運動、および前記所定の範囲の角度での方向の変化のうちの1つまたは複数を含む、請求項9に記載の方法。
  11. 前記物体の高解像度画像を取得することと、
    前記高解像度画像に基づいて、前記物体が標的昆虫であると決定することと、を含む、請求項1に記載の方法。
  12. 前記物体の空間的に相関する特性を検出することと、
    前記空間的に相関する特性に基づいて前記物体が標的昆虫であるかどうかを決定することと、を含む、請求項1に記載の方法。
  13. 前記物体が標的昆虫であるという決定に基づいて、前記空間の第1の画像内の前記物体の位置にあるピクセルに重みを割り当てることと、
    第2の画像内の物体の位置にあるピクセルに前記重みを割り当てることにより、前記空間の前記第2の画像内の前記物体が標的昆虫であると決定することと、を含む、請求項1に記載の方法。
  14. 前記空間の画像から前記標的昆虫の実世界位置を決定することと、
    人間の目に見える、前記標的昆虫の前記実世界位置を示す位置インジケータを生成するように前記装置を制御することと、を含む、請求項1に記載の方法。
  15. 前記装置が、光源のプロジェクタを含む、請求項14に記載の方法。
  16. 前記空間の画像から前記標的昆虫の実世界位置を決定することと、
    前記実世界位置において前記標的昆虫を排除するように装置を制御することと、を含む、請求項1に記載の方法。
  17. 前記装置が、前記標的昆虫の前記実世界位置に、ある形態のエネルギーを投影するためのプロジェクタを含む、請求項16に記載の方法。
  18. 前記装置が、遠隔制御される独立の移動装置を含む、請求項16に記載の方法。
  19. 前記装置が、伸縮アームを含む、請求項16に記載の方法。
  20. 前記装置が、ノズルを含む、請求項16に記載の方法。
  21. 前記標的昆虫の近くに生物がいるかどうかを前記空間の前記画像から決定することと、
    前記標的昆虫の近くに生物が存在するかどうかの前記決定に基づいて、前記標的昆虫の前記実世界位置において前記標的昆虫を排除するように前記装置を制御することと、を含む、請求項16に記載の方法。
  22. 前記装置が、自律移動装置であり、前記方法が、
    前記空間の画像から前記標的昆虫の実世界位置を決定することと、
    前記標的昆虫の前記実世界位置の近くに移動するように前記装置を制御することと、を含む、請求項1に記載の方法。
  23. 前記物体が標的昆虫であることを決定するために前記空間の画像に学習モデルを適用することを含む、請求項1に記載の方法。
  24. 空間内の標的昆虫を検出するためのシステムであって、
    前記空間の画像を取得するためのカメラと、
    前記カメラと通信するプロセッサと、を含み、前記プロセッサが、
    前記空間の前記画像のうちの少なくとも2つを比較することによって物体を検出し、
    前記空間の画像内の前記物体の特性に基づいて、前記物体が標的昆虫であることを決定する、システム。
  25. 空間内の昆虫を処理するためのシステムであって、
    前記空間の画像を取得するためのカメラと、
    前記カメラとは別個に移動可能な装置と、
    前記空間の前記画像のうちの少なくとも1つにおいて前記昆虫を検出し、かつ
    前記空間の前記画像の分析に基づいて、前記昆虫の近くに移動するように前記装置を制御するためのプロセッサと、を含む、システム。
  26. 前記プロセッサが、同じフレーム内に前記昆虫および前記装置を有する前記空間の画像の分析に基づいて、前記昆虫の近くに移動するように前記装置を制御する、請求項25に記載のシステム。
  27. 前記プロセッサが、前記カメラから前記昆虫の方向を推定し、前記プロセッサが、ほぼ前記方向へ移動するように前記装置を制御する、請求項26に記載のシステム。
  28. 前記プロセッサが、前記昆虫からの前記装置の距離を推定し、前記プロセッサが、前記昆虫から所定の距離に移動するように前記装置を制御する、請求項27に記載のシステム。
  29. 前記昆虫からの前記装置の前記距離を推定するために前記プロセッサと通信する距離計を含む、請求項28に記載のシステム。
  30. 前記プロセッサが、前記空間の画像からの前記昆虫のサイズを前記昆虫の予想されるサイズと比較することによって、前記昆虫からの前記装置の前記距離を推定する、請求項28に記載のシステム。
  31. 前記プロセッサが、前記フレーム内の光点の位置を分析することによって前記昆虫からの前記装置の距離を推定し、前記光点が前記装置から投影される、請求項28に記載のシステム。
  32. 前記装置が前記昆虫から前記所定の距離にあるときに、前記プロセッサが、前記昆虫を排除するように前記装置を制御する、請求項28に記載のシステム。
  33. 前記装置が、前記装置から延長可能な部材を含み、前記プロセッサが、前記部材を介して前記昆虫を排除するように前記装置を制御する、請求項32に記載のシステム。
  34. 前記装置が、前記昆虫の画像を取得するための追加のカメラを含む、請求項25に記載のシステム。
  35. 前記装置が、ある形態のエネルギーのビームを前記昆虫の近くに投影するためのプロジェクタを含む、請求項25に記載のシステム。
  36. 前記装置に電力を供給および/またはロードするためのドッキングステーションを含む、請求項25に記載のシステム。
  37. 前記装置が、前記昆虫を電気的、機械的、または化学的に排除するように構成されている、請求項25に記載のシステム。

JP2021504834A 2018-07-29 2019-07-24 昆虫を位置特定および排除するためのシステムと方法 Pending JP2021531806A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
IL260844A IL260844B (en) 2018-07-29 2018-07-29 System and method for locating and destroying insects
IL260844 2018-07-29
US201862743593P 2018-10-10 2018-10-10
US62/743,593 2018-10-10
PCT/IL2019/050839 WO2020026230A1 (en) 2018-07-29 2019-07-24 System and method for locating and eliminating insects

Publications (1)

Publication Number Publication Date
JP2021531806A true JP2021531806A (ja) 2021-11-25

Family

ID=68069430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021504834A Pending JP2021531806A (ja) 2018-07-29 2019-07-24 昆虫を位置特定および排除するためのシステムと方法

Country Status (12)

Country Link
US (1) US20210251209A1 (ja)
EP (1) EP3830755A4 (ja)
JP (1) JP2021531806A (ja)
KR (1) KR20210035252A (ja)
CN (1) CN112513880A (ja)
AR (1) AR115817A1 (ja)
AU (1) AU2019313665A1 (ja)
BR (1) BR112021001634A2 (ja)
CA (1) CA3105655A1 (ja)
IL (1) IL260844B (ja)
TW (1) TW202022698A (ja)
WO (1) WO2020026230A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445909B1 (ja) 2023-08-21 2024-03-08 株式会社ヤマサ 害獣駆除システムおよび害獣駆除プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11176652B2 (en) * 2019-04-05 2021-11-16 Waymo Llc High bandwidth camera data transmission
EP3975710A1 (en) * 2019-05-24 2022-04-06 Romanova, Anastasiia Romanivna Mosquito monitoring and counting system
CN110674805B (zh) * 2019-10-11 2022-04-15 杭州睿琪软件有限公司 昆虫识别方法及系统
TWI763099B (zh) * 2020-10-28 2022-05-01 李寬裕 光學除蟲設備
KR102531690B1 (ko) * 2020-11-25 2023-05-12 유한회사 평화스테인레스 Oled 및 빅데이터와 파장을 기반으로 하는 겹눈해충 퇴치시스템
CN112674057A (zh) * 2021-01-08 2021-04-20 中国人民解放军海军航空大学 一种智能蚊虫消灭设备及方法
CN114431773B (zh) * 2022-01-14 2023-05-16 珠海格力电器股份有限公司 扫地机器人的控制方法
CN116391693B (zh) * 2023-06-07 2023-09-19 北京市农林科学院智能装备技术研究中心 天牛灭杀方法及系统

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040390A (ja) * 1996-07-19 1998-02-13 Agency Of Ind Science & Technol 微小生物モニタによる環境清浄度計測装置
JP2005021074A (ja) * 2003-07-01 2005-01-27 Terada Seisakusho Co Ltd 画像処理計数方法と画像処理計数装置
JP2008200002A (ja) * 2007-02-22 2008-09-04 Matsushita Electric Works Ltd 夜行性虫捕虫システム
JP2010507390A (ja) * 2006-10-23 2010-03-11 ダウ アグロサイエンシィズ エルエルシー ナンキンムシ検出、監視及び防除技術
JP2010149727A (ja) * 2008-12-25 2010-07-08 Aisin Aw Co Ltd 虫類車室内進入阻止システム及びプログラム
US20150085100A1 (en) * 2013-09-26 2015-03-26 Micholas Raschella System for detection of animals and pests
JP2015228803A (ja) * 2014-06-03 2015-12-21 みこらった株式会社 害虫捕獲収容装置及び害虫殺虫装置
JP2016032461A (ja) * 2014-07-31 2016-03-10 近藤電子株式会社 家禽の健康状態診断装置
JP2016136916A (ja) * 2015-01-29 2016-08-04 シャープ株式会社 害虫駆除装置および害虫駆除方法
JP2016185076A (ja) * 2015-03-27 2016-10-27 三菱自動車工業株式会社 虫追い出し装置
US20170231213A1 (en) * 2016-02-17 2017-08-17 International Business Machines Corporation Pest abatement utilizing an aerial drone
US20180046872A1 (en) * 2016-08-11 2018-02-15 DiamondFox Enterprises, LLC Handheld arthropod detection device
JP2018061513A (ja) * 2017-12-25 2018-04-19 みこらった株式会社 害虫駆除装置
US20180204321A1 (en) * 2012-07-05 2018-07-19 Bernard Fryshman Object image recognition and instant active response with enhanced application and utility

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4015366A (en) * 1975-04-11 1977-04-05 Advanced Decision Handling, Inc. Highly automated agricultural production system
ES2226602T1 (es) * 2002-07-15 2005-04-01 Baylor College Of Medicine Procedimiento de identificacion de agentes biologicamente activos.
US7496228B2 (en) * 2003-06-13 2009-02-24 Landwehr Val R Method and system for detecting and classifying objects in images, such as insects and other arthropods
NZ608703A (en) * 2010-10-17 2014-06-27 Purdue Research Foundation Automatic monitoring of insect populations
EP2775827B1 (en) * 2011-11-09 2019-10-23 Feugier, Francois Gabriel Pest control system, pest control method and pest control program
WO2016025848A1 (en) * 2014-08-15 2016-02-18 Monsanto Technology Llc Apparatus and methods for in-field data collection and sampling
US9828093B2 (en) * 2015-05-27 2017-11-28 First Principles, Inc. System for recharging remotely controlled aerial vehicle, charging station and rechargeable remotely controlled aerial vehicle, and method of use thereof
WO2017077543A1 (en) * 2015-11-08 2017-05-11 Agrowing Ltd A method for aerial imagery acquisition and analysis
JP6410993B2 (ja) * 2016-05-31 2018-10-24 株式会社オプティム ドローン飛行制御システム、方法及びプログラム

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040390A (ja) * 1996-07-19 1998-02-13 Agency Of Ind Science & Technol 微小生物モニタによる環境清浄度計測装置
JP2005021074A (ja) * 2003-07-01 2005-01-27 Terada Seisakusho Co Ltd 画像処理計数方法と画像処理計数装置
JP2010507390A (ja) * 2006-10-23 2010-03-11 ダウ アグロサイエンシィズ エルエルシー ナンキンムシ検出、監視及び防除技術
JP2008200002A (ja) * 2007-02-22 2008-09-04 Matsushita Electric Works Ltd 夜行性虫捕虫システム
JP2010149727A (ja) * 2008-12-25 2010-07-08 Aisin Aw Co Ltd 虫類車室内進入阻止システム及びプログラム
US20180204321A1 (en) * 2012-07-05 2018-07-19 Bernard Fryshman Object image recognition and instant active response with enhanced application and utility
US20150085100A1 (en) * 2013-09-26 2015-03-26 Micholas Raschella System for detection of animals and pests
JP2015228803A (ja) * 2014-06-03 2015-12-21 みこらった株式会社 害虫捕獲収容装置及び害虫殺虫装置
JP2016032461A (ja) * 2014-07-31 2016-03-10 近藤電子株式会社 家禽の健康状態診断装置
JP2016136916A (ja) * 2015-01-29 2016-08-04 シャープ株式会社 害虫駆除装置および害虫駆除方法
JP2016185076A (ja) * 2015-03-27 2016-10-27 三菱自動車工業株式会社 虫追い出し装置
US20170231213A1 (en) * 2016-02-17 2017-08-17 International Business Machines Corporation Pest abatement utilizing an aerial drone
US20180046872A1 (en) * 2016-08-11 2018-02-15 DiamondFox Enterprises, LLC Handheld arthropod detection device
JP2018061513A (ja) * 2017-12-25 2018-04-19 みこらった株式会社 害虫駆除装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7445909B1 (ja) 2023-08-21 2024-03-08 株式会社ヤマサ 害獣駆除システムおよび害獣駆除プログラム

Also Published As

Publication number Publication date
KR20210035252A (ko) 2021-03-31
TW202022698A (zh) 2020-06-16
AR115817A1 (es) 2021-03-03
EP3830755A1 (en) 2021-06-09
CA3105655A1 (en) 2020-02-06
WO2020026230A1 (en) 2020-02-06
AU2019313665A1 (en) 2021-01-28
CN112513880A (zh) 2021-03-16
IL260844B (en) 2019-09-26
US20210251209A1 (en) 2021-08-19
BR112021001634A2 (pt) 2021-05-04
EP3830755A4 (en) 2022-05-18

Similar Documents

Publication Publication Date Title
JP2021531806A (ja) 昆虫を位置特定および排除するためのシステムと方法
US10147177B2 (en) Object image recognition and instant active response with enhanced application and utility
US9811764B2 (en) Object image recognition and instant active response with enhanced application and utility
US20210199973A1 (en) Hybrid reality system including beacons
CN108141579B (zh) 3d相机
US10937147B2 (en) Object image recognition and instant active response with enhanced application and utility
US8149210B2 (en) Pointing device and method
US9693547B1 (en) UAV-enforced insect no-fly zone
JP2022518391A (ja) 少なくとも1つの物体の位置を決定するための検出器
JP2008527806A (ja) 夜間監視のシステムおよび方法
WO2004008403A2 (en) Method and apparatus for implementing multipurpose monitoring system
McNeil et al. Autonomous fire suppression system for use in high and low visibility environments by visual servoing
CN113544745A (zh) 用于确定至少一个对象的位置的检测器
CN108572730B (zh) 用于使用深度感知相机与计算机实现的交互式应用程序进行交互的系统和方法
EP3455827B1 (en) Object image recognition and instant active response with enhanced application and utility
AU2018282480B2 (en) Particle detection
US20230342952A1 (en) Method for coordinative measuring by terrestrial scanning with image-based interference detection of moving objects
US20230149582A1 (en) System and method for disinfecting a volume in space

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220707

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230727

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231121