JP6326009B2 - 無線航空機、位置情報出力方法及び無線航空機用プログラム。 - Google Patents

無線航空機、位置情報出力方法及び無線航空機用プログラム。 Download PDF

Info

Publication number
JP6326009B2
JP6326009B2 JP2015130293A JP2015130293A JP6326009B2 JP 6326009 B2 JP6326009 B2 JP 6326009B2 JP 2015130293 A JP2015130293 A JP 2015130293A JP 2015130293 A JP2015130293 A JP 2015130293A JP 6326009 B2 JP6326009 B2 JP 6326009B2
Authority
JP
Japan
Prior art keywords
image
wireless aircraft
position information
crop
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015130293A
Other languages
English (en)
Other versions
JP2017016271A (ja
Inventor
俊二 菅谷
俊二 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Optim Corp
Original Assignee
Optim Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Optim Corp filed Critical Optim Corp
Priority to JP2015130293A priority Critical patent/JP6326009B2/ja
Priority to US15/185,094 priority patent/US20160379369A1/en
Publication of JP2017016271A publication Critical patent/JP2017016271A/ja
Application granted granted Critical
Publication of JP6326009B2 publication Critical patent/JP6326009B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Description

本発明は、空中を飛行する無線航空機、位置情報出力方法及び無線航空機用プログラムに関する。
近年、モータで回転するプロペラにより空中を走行する無線航空機が実用化されている。このような無線航空機により、静止画や動画等の画像を撮影することが行われている。
このような無線航空機において、高所から画像を撮影し、撮影した画像の画像解析を実行することが行われている。
また、無線航空機とは異なるが、画像取得装置を装着するユーザが危険に遭遇したとき、その場所の画像を位置情報とともに、センターに送信し、情報表示装置を装着したユーザがこの場所に近づいた場合、危険な場所の画像等の情報を配信することが行われている。(特許文献1参照)。
特開2015−41969号公報
特許文献1によれば、センターが、各情報表示装置の現在位置を取得し、取得した現在位置が、画像取得装置から送信された危険な場所であると判断した場合、ユーザの情報表示装置に危険な場所の画像等の情報を送信するものである。
しかしながら、特許文献1に記載の方法では、画像取得装置が、現在位置をセンターに送信する必要があり、システム全体のコストが増加することや、危険か否かの判断を生体情報に基づいて実行しており、処理が煩雑になるおそれがある。
そこで、本発明では、無線航空機自体が撮影した画像を画像認識するとともに、撮影した場所における自身の現在位置を端末に送信することにより、コストを抑制し、処理を簡単にするとともに、必要な情報を出力することができる点に着目した。
本発明は、コストを抑制しつつ、処理を簡単にするとともに、必要な情報を出力することが可能な無線航空機、位置情報出力方法及び無線航空機用プログラムを提供することを目的とする。
本発明では、以下のような解決手段を提供する。
第1の特徴に係る発明は、空中を飛行する無線航空機であって、
ライブ画像を撮影するカメラ手段と、
自身が位置する位置情報を検知可能な位置情報検出手段と、
抽出した対象に関する特定画像を記憶する特定画像記憶手段と、
前記カメラ手段が撮影したライブ画像と、前記特定画像とを比較して、前記ライブ画像から抽出したい対象を認識する対象認識手段と、
前記対象を認識した際に、前記位置情報検出手段が検知した現在位置を出力する位置情報出力手段と、
自身が、現在位置を出力した位置に移動した場合には、前記特定画像の種類に応じて、所定の装置を駆動する装置駆動手段と、
を備えることを特徴とする無線航空機を提供する。
第1の特徴に係る発明によれば、空中を飛行する無線航空機は、ライブ画像を撮影し、自身が位置する位置情報を検知可能であり、抽出した対象に関する特定画像を記憶し、前記撮影したライブ画像と、前記特定画像とを比較して、前記ライブ画像から抽出したい対象を認識し、前記対象を認識した際に、前記位置情報検出手段が検知した現在位置を出力し、自身が、現在位置を出力した位置に移動した場合には、前記特定画像の種類に応じて、所定の装置を駆動する
ここで、第1の特徴に係る発明は、無線航空機のカテゴリであるが、位置出力方法及び無線航空機用プログラム等の他のカテゴリにおいても、そのカテゴリに応じた同様の作用・効果を発揮する。
の特徴に係る発明は、空中を飛行する無線航空機が実行する位置情報出力方法であって、
ライブ画像を撮影するステップと、
自身が位置する位置情報を検知するステップと、
抽出した対象に関する特定画像を記憶するステップと、
前記撮影したライブ画像と、前記特定画像とを比較して、前記ライブ画像から抽出したい対象を認識するステップと、
前記対象を認識した際に、前記検知した現在位置を出力するステップと、
自身が、現在位置を出力した位置に移動した場合には、前記特定画像の種類に応じて、所定の装置を駆動するステップと、
を備えることを特徴とする位置情報出力方法を提供する。
の特徴に係る発明は、空中を飛行する無線航空機に、
ライブ画像を撮影するステップ、
自身が位置する位置情報を検知するステップ、
抽出した対象に関する特定画像を記憶するステップ、
前記撮影したライブ画像と、前記特定画像とを比較して、前記ライブ画像から抽出したい対象を認識するステップ、
前記対象を認識した際に、前記検知した現在位置を出力するステップ、
自身が、現在位置を出力した位置に移動した場合には、前記特定画像の種類に応じて、所定の装置を駆動するステップ、
を実行させるためのコンピュータ読み取り可能な無線航空機用プログラムを提供する。
本発明によれば、コストを抑制しつつ、処理を簡単にするとともに、必要な情報を出力することが可能な無線航空機、位置情報出力方法及び無線航空機用プログラムを提供することが可能となる。
図1は、位置情報出力システム1の概念図である。 図2は、位置情報出力システム1の全体構成図である。 図3は、無線航空機10及び携帯端末100の機能ブロック図である。 図4は、無線航空機10及び携帯端末100が実行する位置情報出力処理の手順を示すフローチャートである。 図5は、無線航空機10が実行する対応処理の手順を示すフローチャートである。 図6は、無線航空機10が記憶する画像データテーブルを表した図である。 図7は、無線航空機10が撮影する撮影対象領域3を表した図である。 図8は、無線航空機10が記憶する位置情報テーブルを表した図である。 図9は、無線航空機10が記憶する対応情報テーブルを表した図である。 図10は、携帯端末100が表示する農作物マップを表した図である。
以下、本発明を実施するための最良の形態について図を参照しながら説明する。なお、これらはあくまでも例であって、本発明の技術的範囲はこれに限られるものではない。
[位置情報出力システム1の概要]
図1は、本発明の好適な実施形態である位置情報出力システム1の概要を説明するための図である。位置情報出力システム1は、撮影対象領域3、GPSシステム5、無線航空機10及び携帯端末100から構成される。
無線航空機10は、自身が有するプロペラ等により空中を飛行する。無線航空機10は、携帯端末10やその他の操作用端末等の外部端末からの遠隔操作や、自身にプログラミングされた所定の行動に基づいて自動制御が可能な無人航空機である。また、無線航空機10は、データ通信機能を備え、携帯端末100に撮影した画像の画像データを送信したり、自身の位置情報やその他のデータ等を送信したり、携帯端末100が送信したデータ等を受信したりする。
無線航空機10は、撮影対象領域3の動画や静止画等の現在の状態をライブ画像として撮影するカメラ等を備える。また、無線航空機10は、GPSシステム5から自身の現在位置に関する位置情報を検知し、取得する。また、無線航空機10は、抽出した対象に関する特定画像を記憶する記憶部を備える。抽出した対象とは、例えば、農作物や、人物である。抽出した対象に関する特定画像とは、例えば、農作物である場合、大きさ、形状、色、凹凸であり、人物である場合、年齢、性別、服装である。また、無線航空機10は、ライブ画像と特定画像とを比較し、ライブ画像から抽出したい対象を認識する。抽出したい対象とは、例えば、ライブ画像に含まれる農作物の大きさ、形状、色、凹凸であり、ライブ画像に含まれる人物の年齢、性別、服装である。無線航空機10は、対象を認識した際に、GPSシステム5から取得した自身の位置情報を、携帯端末100に送信するデータ通信機能を備える。また、無線航空機10は、現在位置を出力した位置に再度移動した場合には、特定画像の種類に応じて、所定の装置を駆動する装置駆動部を備える。所定の装置を駆動するとは、例えば、農作物の場合、農作物の収穫や、害虫を駆除するための薬剤の散布であり、人物の場合、性別に応じたチラシの配布や、道案内等の補助である。
携帯端末100は、データ通信機能を備え、無線航空機10とデータ通信を実行する家庭用又は業務用の電化製品である。携帯端末100は、例えば、携帯電話、期待情報端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の情報家電である。
なお、本実施形態において、撮影対象領域3は、田畑のような農作物を栽培する場所であり、農作物a〜pが栽培される。また、抽出した対象とは、農作物である。特定画像とは、収穫に適した農作物である。また、抽出した対象として認識するものは、農作物の大きさ、形状、色、凹凸である。また、所定の装置を駆動するとは、農作物の収穫や害虫や病気を駆除するための薬剤の散布である。
また、撮影対象領域3、抽出した対象、特定画像、抽出した対象として認識するもの及び所定の装置を駆動することは、適宜変更可能である。また、撮影対象領域3、抽出した対象、特定画像、抽出した対象として認識するもの及び所定の装置を駆動することは、農作物以外であっても良い。例えば、撮影対象領域3は人が多くいる場所である場合、抽出した対象とは、人物であり、特定画像とは、所定の条件に適した人物であり、抽出した対象として認識するものは、人物の年齢、性別、服装であり、所定の装置を駆動するとは、チラシを配布する装置を駆動することや道案内等の補助を実行するための装置を駆動することであっても良い。所定の条件とは、例えば、年齢、性別、服装である。また、所定の装置を駆動することは、他の内容であっても良い。
はじめに、携帯端末100は、撮影対象領域3に栽培される農作物において、この農作物が収穫に適した状態を示す複数の画像データを、無線航空機10に送信する(ステップS01)。無線航空機10は、携帯端末100から送信された画像データを記憶する。ステップS01において、携帯端末100は、インターネット等の公衆回線網を介して、この農作物が収穫に適した状態を示す画像データを取得し、送信する。なお、ステップS01において、携帯端末100が有するカメラ等の撮影装置により、収穫に適した農作物を撮影し、この撮影した画像の画像データを無線航空機10に送信しても良い。また、その他の方法により取得した画像データを無線航空機10に送信しても良い。また、携帯端末100が送信する画像データは、一つであっても良い。
携帯端末100は、無線航空機10に撮影対象領域3への撮影指示を送信する(ステップS02)。ステップS02において、撮影指示には、撮影対象領域3の位置情報が含まれる。ステップS02において、携帯端末100は、撮影対象領域3の位置情報を直接指示しても良いし、地図アプリケーション等の他のアプリケーション等を介して位置情報を指示しても良いし、公衆回線網を介して位置情報を取得し、取得した位置情報を指示しても良い。
無線航空機10は、撮影指示に含まれる撮影対象領域3の位置情報に基づいて、撮影対象領域3に移動し、農作物のライブ画像の撮影を実行する(ステップS03)。ステップS03において、無線航空機10は、予め自身にプログラミングされた撮影対象領域3の位置情報に基づいて、撮影対象領域3に移動し、農作物のライブ画像の撮影を実行しても良い。ステップS03にいて、無線航空機10は、農作物のライブ画像を撮影する。
無線航空機10は、農作物aを撮影すると同時に、自身の位置情報をGPSシステム5から検知し、取得する(ステップS04)。すなわち、無線航空機10は、農作物aのライブ画像を撮影すると同時に、この撮影位置における自身の位置情報をGPSシステム5から検知し、取得する。
無線航空機10は、撮影した農作物のライブ画像の画像データと、記憶した収穫に適した農作物の画像データとを比較する(ステップS05)。ステップS05において、無線航空機10は、記憶した画像データの画像解析を行い、収穫に適した農作物の大きさや形状や色や凹凸等を識別する。また、無線航空機10は、撮影したライブ画像の画像データの画像解析を行い、ライブ画像の画像データにおける農作物の大きさや形状や色や凹凸等を識別する。無線航空機10は、記憶した画像データにおいて識別した農作物の大きさや形状や色や凹凸等が、ライブ画像の画像データにおいて識別した農作物の大きさや形状や色や凹凸等と類似しているか否かを判断する。ステップS05において、類似しているか否かとは、特徴量として、大きさや形状や色や凹凸等を抽出し、大きさが近い又は同等、形状が近い又は同等、色が近い又は同等、かつ凹凸が近い又は同等か否かを判断する。
ステップS05において、無線航空機10は、撮影したライブ画像の画像データが、記憶した画像データに類似していると判断した場合、撮影したライブ画像の画像データが収穫可能であることを示す収穫情報と、この画像データのライブ画像を撮影した位置情報とを対応付けて記憶する(ステップS06)。
一方、ステップS06において、無線航空機10は、撮影したライブ画像の画像データが、記憶した画像データに類似していないと判断した場合、害虫や病気の有無が有るか否かを判断する(ステップS07)。ステップS07において、無線航空機10は、記憶した画像データの画像解析を行い、収穫に適した農作物の形状や色や凹凸等を識別する。無線航空機10は、撮影したライブ画像の画像データの画像解析を行い、ライブ画像の画像データにおける農作物の形状や色や凹凸等を識別する。無線航空機10は、記憶した画像データにおいて識別した農作物の形状や色や凹凸等が、ライブ画像の画像データにおいて識別した農作物の形状や色や凹凸等と相違しているか否かを判断する。相違しているか否かとは、特徴量として、形状や色や凹凸等を抽出し、形状が異なる、色が異なる又は凹凸が異なるか否かを判断する。
ステップS07において、無線航空機10は、撮影したライブ画像の画像データが、記憶した画像データに相違していないと判断した場合、害虫や病気が無いと判断し、対応の必要が無いことを示す対応不要情報と、この画像データのライブ画像を撮影した位置情報とを対応付けて記憶する(ステップS08)。
一方、ステップS07において、無線航空機10は、撮影したライブ画像の画像データが、記憶した画像データに相違していると判断した場合、害虫や病気が有ると判断し、対応の必要があることを示す情報である対応情報と、この画像データのライブ画像を撮影した位置情報とを対応付けて記憶する(ステップS09)。無線航空機10は、他の農作物に対して、ステップS03以降の処理を実行する。
無線航空機10は、全ての農作物a〜pに対してステップS03〜ステップS09の処理を実行した後、農作物の収穫情報と、対応情報と、対応不要情報と、位置情報とを携帯端末100に送信する(ステップS10)。
携帯端末100は、受信した農作物の収穫情報と、対応情報と、対応不要情報と、位置情報とに基づいて、収穫可能な農作物であることや、害虫や病気といった所定の対応が必要であることを示す農作物マップを生成し、表示する(ステップS11)。
以上が、位置情報出力システム1の概要である。
[位置情報出力システム1のシステム構成]
図2は、本発明の好適な実施形態である位置情報出力システム1のシステム構成図である。位置情報出力システム1は、撮影対象領域3、GPSシステム5、無線航空機10及び携帯端末100から構成される。
無線航空機10は、後述の機能を備え、データ通信を実行可能であり、自身が有するプロペラにより、空中を飛行する。また、無線航空機10は、携帯端末10やその他の操作用端末等の外部端末からの遠隔操作や、自身にプログラミングされた所定の行動に基づいて自動制御が可能な無人航空機である。
無線航空機10は、撮影対象領域3の動画や静止画等のライブ画像を撮影するカメラ等を備える。また、無線航空機10は、GPSシステム5から自身の現在位置に関する位置情報を検知し、取得する。また、無線航空機10は、抽出した対象に関する特定画像を記憶する記憶部を備える。抽出した対象とは、例えば、農作物や、人物である。抽出した対象に関する特定画像とは、例えば、農作物である場合、大きさ、形状、色、凹凸であり、人物である場合、年齢、性別、服装である。また、無線航空機10は、ライブ画像と特定画像とを比較し、ライブ画像から抽出したい対象を認識する。抽出したい対象とは、例えば、ライブ画像に含まれる農作物の大きさ、形状、色、凹凸であり、ライブ画像に含まれる人物の年齢、性別、服装である。無線航空機10は、対象を認識した際に、GPSシステム5から取得した自身の位置情報を携帯端末100に送信するデータ通信機能を備える。また、無線航空機10は、現在位置を出力した位置に再度移動した場合には、特定画像の種類に応じて、所定の装置を駆動する装置駆動部を備える。所定の装置を駆動するとは、例えば、農作物の場合、害虫を駆除するための薬剤の散布であり、人物の場合、性別に応じたチラシの配布や、道案内等の補助である。
携帯端末100は、データ通信機能を備え、無線航空機10とデータ通信を実行する家庭用又は業務用の電化製品である。携帯端末100は、例えば、携帯電話、期待情報端末、パーソナルコンピュータに加え、ネットブック端末、スレート端末、電子書籍端末、携帯型音楽プレーヤ等の情報家電である。
GPSシステム5は、無線航空機10からの要求に基づいて、無線航空機10の現在位置を位置情報として、無線航空機10に送信する一般的なGPSシステムである。
撮影対象領域3は、田畑のような農作物を栽培する場所である。この撮影対象領域3は、複数の農作物a〜pが栽培される。なお、撮影対象領域3に栽培される農作物は、本実施形態の数に限らず、この数よりも多くとも少なくとも良い。なお、撮影対象領域3は道路や施設等のように人物や車両等が存在する場所であっても良いし、他の場所であっても良い。
[各機能の説明]
図3に基づいて、各装置の構成について説明する。
無線航空機10は、制御部11として、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備え、通信部12として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi(Wireless Fidelity)対応デバイスを備える。また、通信部12は、赤外線通信等の近距離無線通信や、所定の帯域の電波を送受信するためのデバイス等や、GPSシステム5から自身の現在位置を取得するためのデバイス等を備える。
また、無線航空機10は、撮影部13として、例えば、カメラ等の画像を撮影するデバイス等を備える。
また、無線航空機10は、記憶部14として、例えば、ハードディスクや半導体メモリ、記録媒体、メモリカード等によるデータのストレージ部を備える。記憶部14には、後述する無線航空機10の撮影部13が撮影した動画や静止画等の画像データを記憶する機能が含まれる。また、記憶部14には、携帯端末100から受信した収穫可能な農作物の画像データを記憶する機能が含まれる。また、記憶部14には、所定の装置を駆動するためのプログラムを記憶する機能が含まれる。また、記憶部14には、後述する画像データテーブル、位置情報テーブル及び対応情報テーブルが含まれる。
また、無線航空機10は、装置駆動部15として、農薬の保持及び農薬の散布を実行するためのデバイスや、農作物を収穫し、収穫した農作物を格納するためのデバイス等を備える。
無線航空機10において、制御部11が所定のプログラムを読み込むことで、通信部12と協働して、データ送受信モジュール20、指示受信モジュール21、位置情報取得モジュール22、指示判断モジュール23を実現する。また、無線航空機10において、制御部11が所定のプログラムを読み込むことで、撮影部13と協働して撮影モジュール40を実現する。また、無線航空機10において、制御部11が所定のプログラムを読み込むことで、記憶部14と協働して、データ記憶モジュール50、画像判断モジュール51、撮影終了判定モジュール52、対応情報取得モジュール53、対応完了判定モジュール54を実現する。また、無線航空機10において、制御部11が所定のプログラムを読み込むことで、装置駆動部15と協働して、対応実行モジュール60を実現する。
携帯端末100は、無線航空機10と同様に、制御部110として、CPU、RAM、ROM等を備え、通信部120として、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWiFi対応デバイス、赤外線通信等の近距離無線通信や、所定の帯域の電波を送受信するためのデバイス等を備える。
また、携帯端末100は、入出力部130として、制御部110で制御したデータや画像を出力表示する表示部と、ユーザからの入力を受け付けるタッチパネルやキーボード、マウスといった入力部に加え、GPSシステム5から位置情報を取得可能なデバイスや、カメラ等の画像撮影が可能なデバイスや、後述する農作物マップを表示するデバイスを備える。
携帯端末100において、制御部110が所定のプログラムを読み込むことで、通信部120と協働して、データ送受信モジュール150、撮影指示モジュール151を実現する。また、携帯端末100において、制御部110が所定のプログラムを読み込むことで、入出力部130と協働して、表示モジュール160を実現する。
[位置情報出力処理]
図4は、無線航空機10及び携帯端末100が実行する位置情報出力処理の手順を示すフローチャートである。上述した各装置のモジュールが実行する処理について、本処理に併せて説明する。
はじめに、携帯端末100のデータ送受信モジュール150は、撮影対象領域3に栽培される農作物において、この農作物の収穫に適した状態を示す画像の画像データと、この農作物の名称とを、無線航空機10に送信する(ステップS20)。ステップS20において、データ送受信モジュール150は、インターネット等の公衆回線網を介して、農作物の収穫に適した状態を示す画像の画像データを取得し、取得した画像データと、この農作物の名称とを無線航空機10に送信する。なお、ステップS20において、データ送受信モジュール150は、携帯端末100が有するカメラ等の撮影装置により、収穫に適した農作物を撮影し、この撮影した画像の画像データと、この農作物の名称とを無線航空機10に送信しても良い。また、データ送受信モジュール150は、その他の方法により取得した農作物の収穫に適した状態を示す画像の画像データと、この農作物の名称とを取得し、取得した画像データを無線航空機10に送信しても良い。また、データ送受信モジュール150が送信する画像データの数は、一つであっても良いし、複数であっても良い。
無線航空機10のデータ送受信モジュール20は、携帯端末100から送信された画像データを受信する。無線航空機10のデータ記憶モジュール50は、図6に示す画像データテーブルとして、受信した画像データを記憶する(ステップS21)。
[画像データテーブル]
図6は、無線航空機10のデータ記憶モジュール50が記憶する画像データテーブルを示す図である。データ記憶モジュール50は、受信した画像データと、農作物の名称とを対応付けて記憶する。データ記憶モジュール50が記憶する農作物の名称とは、本実施形態において「農作物A」である。また、データ記憶モジュール50が記憶する画像データとは、農作物Aが収穫に適した状態にある画像の画像データである。データ記憶モジュール50は、一つの農作物Aに対応付けて、複数の画像データを記憶する。
なお、無線航空機10のデータ記憶モジュール50が記憶する画像データは、複数ではなく、一つであっても良い。また、データ記憶モジュール50が記憶する画像データは、三つではなく、二つ、四つあるいはそれ以上の数であっても良い。また、異なる種類の農作物毎に一つ又は複数の画像データを記憶していても良い。また、データ記憶モジュール50が記憶する画像データは、画像そのものではなくとも、大きさ、色、形状、凹凸等の画像を判断するためのデータを記憶していれば良く、文字データや記号データ等の他の種類のデータであっても良い。
次に、携帯端末100の撮影指示モジュール151は、無線航空機10に、撮影対象領域3への撮影指示を送信する(ステップS22)。ステップS22において、撮影指示モジュール151が送信する撮影指示には、撮影対象領域3の場所に関する情報及び各農作物の場所に関する情報が含まれる。ステップS22において、撮影指示モジュール151が送信する撮影指示に含まれる撮影対象領域3の場所の情報及び各農作物の場所に関する情報は、撮影対象領域3の場所に関する情報及び農作物の場所に関する情報をユーザが直接入力しても良いし、地図アプリケーション等の他のアプリケーション等を介して撮影対象領域3の場所に関する情報及び農作物の場所の情報に関する情報を入力しても良いし、公衆回線網を介して撮影対象領域3の場所に関する情報及び農作物の場所に関する情報を入力しても良い。
無線航空機10の指示受信モジュール21は、携帯端末100から送信された撮影指示を受信する。無線航空機10の撮影モジュール40は、撮影指示に含まれる撮影対象領域3及び農作物の場所に関する情報に基づいて、対象とする図7に示す撮影対象領域3に移動し、農作物a〜pのライブ画像の撮影を実行する(ステップS23)。ステップS23において、無線航空機10は、予め自身にプログラミングされた撮影対象領域3及び農作物の場所に関する情報に基づいて、撮影対象領域3に移動し、農作物のライブ画像の撮影を実行しても良い。無線航空機10は、一つの農作物のライブ画像を撮影する毎に、以下の処理を実行する。
図7は、撮影対象領域3を示す図である。上述した通り、撮影対象領域3には、複数の農作物a〜pが栽培される。
無線航空機10の位置情報取得モジュール22は、撮影モジュール40が農作物aのライブ画像を撮影すると同時に、自身の位置情報をGPSシステム5から検知し、取得する(ステップS24)。すなわち、ステップS24において、位置情報取得モジュール22は、ライブ画像の撮影位置における自身の位置情報をGPSシステム5から取得する。
無線航空機10のデータ記憶モジュール50は、撮影モジュール40が撮影したライブ画像の画像データと、位置情報取得モジュール22が取得したこのライブ画像を撮影した位置情報とを、対応付けて図8に示す位置情報テーブルとして記憶する(ステップS25)。
[位置情報テーブル]
図8は、無線航空機10のデータ記憶モジュール50が記憶する位置情報テーブルを示す図である。データ記憶モジュール50は、撮影モジュール40が撮影したライブ画像の画像データと、位置情報取得モジュール22が取得した位置情報とを対応付けて記憶する。データ記憶モジュール50は、撮影モジュール40が撮影する農作物a〜pの各々と、農作物a〜pの各々の位置情報とを対応付けて記憶する。
なお、無線航空機10のデータ記憶モジュール50が記憶する画像データは、本実施形態の数に限らずこれ以上よりも多くとも少なくとも良い。また、データ記憶モジュール50が記憶する画像データは、画像そのものではなく、大きさ、色、形状、凹凸等の画像を判断するためのデータを記憶していれば良く、文字データや記号データ等の他の種類のデータであっても良い。また、データ記憶モジュール50が記憶する位置情報は、本実施形態の内容に限らず、北緯及び東経により記憶しても良いし、緯度及び経度により記憶しても良いし、他の方法により記憶しても良い。
無線航空機10の画像判断モジュール51は、データ記憶モジュール50が記憶した農作物のライブ画像の画像データと、データ記憶モジュール50が記憶した収穫に適した農作物の画像の画像データとを比較し、ライブ画像の農作物が収穫可能であるか否かを判断する(ステップS26)。ステップS26において、画像判断モジュール51は、収穫に適した農作物の画像の画像データの画像解析を行い、特徴量として、収穫に適した農作物の形状や色や凹凸等を識別する。加えて、画像判断モジュール51は、記憶した農作物のライブ画像の画像データの画像解析を行い、特徴量として、ライブ画像の農作物の大きさや形状や色や凹凸等を識別する。画像判断モジュール51は、抽出した収穫に適した農作物の大きさや形状や色や凹凸等と、抽出したライブ画像の農作物の大きさや形状や色や凹凸等が、類似しているか否かを判断することにより、ライブ画像の農作物が収穫可能であるか否かを判断する。ステップS26において、画像判断モジュール51が判断する類似しているか否かとは、大きさやが近い又は同等、形状が近い又は同等、色が近い又は同等、かつ凹凸が近い又は同等か否かを判断するものである。
なお、画像判断モジュール51は、大きさや形状や色や凹凸等のいずれか一つのみが近い又は同等であるか否かに基づいて類似しているか否かを判断しても良いし、大きさや形状や色や凹凸等のうちの二つあるいは、それ以上が近い又は同等であるか否かに基づいて類似しているか否かを判断しても良い。また、画像判断モジュール51は、大きさや形状や色や凹凸以外の他の特徴量を抽出し、類似しているか否かを判断しても良い。
ステップS26において、無線航空機10の画像判断モジュール51は、ライブ画像の画像データと記憶した収穫に適した農作物の画像データとが類似していると判断した場合(ステップS26 YES)、データ記憶モジュール50は、このライブ画像を撮影した位置情報と、この農作物が収穫可能であることを示す情報である収穫情報とを対応付けて後述する図9に示す対応情報テーブルとして記憶する(ステップS27)。
なお、ステップS27において、無線航空機10のデータ記憶モジュール50は、予めこの農作物の成長における情報を取得し、記憶していても良い。農作物の成長における情報とは、例えば、大きさや形状に関する一日毎の成長量に関する情報や、発芽から収穫が可能になるまでの期間に関する情報である。画像判断モジュール51は、この記憶した成長に対する情報に基づいて、この農作物が、撮影したライブ画像の画像データの状態から、収穫可能になるまでの間の期間を算出し、データ記憶モジュール50は、算出した期間を、収穫情報として記憶しても良い。
一方、ステップS26において、無線航空機10の画像判断モジュール51は、ライブ画像の画像データと記憶した収穫に適した農作物の画像データとが類似していないと判断した場合(ステップS26 NO)、データ記憶モジュール50が記憶した農作物のライブ画像データと、データ記憶モジュール50が記憶した収穫に適した農作物の画像の画像データとを比較し、ライブ画像の農作物が害虫や病気等の対応が必要な状態であるか否かを判断する(ステップS28)。ステップS28において、画像判断モジュール51は、収穫に適した農作物の画像の画像データの画像解析を行い、特徴量として、形状や色や凹凸等を識別する。加えて、画像判断モジュール51は、記憶した農作物のライブ画像の画像データの画像解析を行い、特徴量として、形状や色や凹凸等を識別する。画像判断モジュール51は、抽出した収穫に適した農作物の形状や色や凹凸等と、抽出したライブ画像の農作物の形状や色や凹凸等の特定の特徴量が、相違しているか否かを判断することにより、ライブ画像の農作物が害虫や病気等の対応が必要な状態であるか否かを判断する。ステップS27において、画像判断モジュール51が判断する相違しているか否かとは、色が相違する、又は凹凸が相違するかを判断するものである。
なお、ステップS28において、画像判断モジュール51は、携帯端末100やデータベース等から害虫や病気に関する画像データを取得し、この取得した画像データの画像解析を行い、特徴量として、形状や色や凹凸等を識別し、ライブ画像の画像データから抽出したライブ画像の形状や色や凹凸等を比較することにより、害虫や病気の有無を判断しても良い。また、画像判断モジュール51は、形状や色や凹凸等の全てが相違している場合に、対応が必要な状態であるか否かを判断しても良いし、形状や色や凹凸等のいずれか二つが相違している場合に、対応が必要な状態であるか否かを判断しても良い。また、画像判断モジュール51は、形状や色や凹凸以外の他の特徴量を抽出し、類似しているか否かを判断しても良い。この場合、画像判断モジュール51は、抽出した複数の特徴量の全て、複数、あるいはいずれかが相違しているか否かに基づいて対応が必要であるか否かを判断しても良い。
ステップS28において、無線航空機10の画像判断モジュール51は、ライブ画像の画像データと、記憶した収穫に適した農作物の画像データとが相違していると判断した場合(ステップS28 YES)、データ記憶モジュール50は、このライブ画像を撮影した位置情報と、この農作物が対応が必要な状態であることを示す情報である対応情報とを対応付けて図9に示す対応情報テーブルとして記憶する(ステップS29)。
一方、ステップS28において、無線航空機10の画像判断モジュール51は、ライブ画像の画像データと、記憶した収穫に適した農作物の画像データとが相違していないと判断した場合(ステップS28 NO)、データ記憶モジュール50は、このライブ画像を撮影した位置情報と、この農作物が対応が必要な状態でないことを示す情報である対応不要情報とを対応付けて図9に示す対応情報テーブルとして記憶する(ステップS30)。
[対応情報テーブル]
図9は、無線航空機10のデータ記憶モジュール50が記憶する対応情報テーブルを示す図である。データ記憶モジュール50は、撮影モジュール40が撮影した位置における位置情報と、この位置に栽培される農作物が収穫可能であるか否かを示す情報である収穫情報と、この位置に栽培される農作物が対応が必要な状況であるか否かを示す情報である対応情報とを対応付けて記憶する。図9において、農作物aにおける位置情報「(X01,Y01)」と、収穫情報「○」と、対応情報「−」とが対応付けられて記憶される。同様に他の農作物b〜pに対しても、位置情報と、収穫情報と、対応情報とが対応付けられて記憶される。本実施形態において、「収穫情報」の項目における、「○」とは、この収穫情報に対応付けられた位置情報の場所に栽培される農作物が、収穫が適した状態であることを示す。また、「収穫情報」の項目における「−」とは、この収穫情報に対応付けられた位置情報の場所に栽培される農作物が、収穫に適した状態ではないことを示す。また、「対応情報」の項目における「○」とは、この対応情報に対応付けられた位置情報の場所に栽培される農作物が、害虫や病気等の対応が必要な状態であることを示す。また、「対応情報」の項目における「−」とは、この対応情報に対応付けられた位置情報の場所に栽培される農作物が、害虫や病気等の対応が必要な状態ではないことを示す。
なお、無線航空機10のデータ記憶モジュール50が記憶する対応情報テーブルは、本実施形態の項目の数に限らず、他の項目が追加されていても良いし、項目のいずれかが削除されていても良い。また、データ記憶モジュール50が記憶する収穫情報は、「○」や「−」以外の情報であっても良い。また、データ記憶モジュール50が記憶する対応情報は、「○」や「−」以外の情報であっても良い。例えば、上述した通り、収穫情報として、収穫が可能になるまでの日数を記憶しても良いし、対応情報として、必要な薬剤を記憶しても良い。
無線航空機10の撮影終了判定モジュール52は、撮影対象領域3における全ての農作物a〜pの撮影が完了したか否かを判断する(ステップS31)。ステップS31において、撮影終了判定モジュール52は、対応情報テーブルに全ての農作物a〜pにおける位置情報、収穫情報及び対応情報が記憶されているか否かを判断する。
無線航空機10の撮影終了判定モジュール52は、全ての農作物a〜pにおける位置情報、収穫情報及び対応情報が記憶されていないと判断した場合、撮影対象領域3における全ての農作物a〜pの撮影が完了していないと判断し(ステップS31 NO)、撮影モジュール40が全ての農作物a〜pのライブ画像の撮影を完了するまで、上述したステップS23〜ステップS30の処理を繰り返す。
一方、無線航空機10の撮影終了判定モジュール52は、全ての農作物a〜pにおける位置情報、収穫情報及び対応情報が記憶されていると判断した場合、撮影対象領域3における全ての農作物a〜pの撮影が完了したと判断し(ステップS31 YES)、データ送受信モジュール20は、対応情報テーブルとして記憶した、各農作物の位置情報、収穫情報及び対応情報を携帯端末100に送信する(ステップS32)。
携帯端末100のデータ送受信モジュール150は、無線航空機10が送信した各農作物の位置情報、収穫情報及び対応情報を受信する。携帯端末100の表示モジュール160は、受信したこれらの情報に基づいて、図10に示す農作物マップを表示する(ステップS33)。
[農作物マップ]
図10は、携帯端末100の表示モジュール160が表示する農作物マップを示す図である。表示モジュール160は、受信した農作物a〜pの位置情報に基づいて、農作物a〜pの各々の撮影領域3における場所を表示する。また、表示モジュール160は、農作物a〜pが、収穫可能であることと、対応が必要な状態であること及び収穫が可能ではなく対応も必要でないことを其々示すために、各農作物a〜pを、表示態様により表示する。図10において、表示モジュール160は、対象とする農作物が、収穫可能であることを示す表示態様としてハッチング処理により表示する。また、図10において、表示モジュール160は、対象とする農作物が、対応が必要な状態であることを示す表示態様として、収穫可能である農作物とは異なるハッチング処理により表示する。また、図10において、表示モジュール160は、対象とする農作物が収穫可能ではなくかつ対応も必要がないことを示す表示態様として、白抜きにより表示する。本実施形態において、農作物a,d,g,o,pは、収穫可能であることを示しており、農作物c,i,j,nは、対応が必要な状態であることを示し、農作物b,e,f,h,k,l,mは、いずれの状態でもないことを示している。
なお、表示モジュール160は、収穫可能であること及び対応が必要であることをハッチング処理により表示しているが、着色、形状変化、点滅等の表示態様で表示しても良いし、音声による通知を実行する表示態様で表示しても良いし、これらの内のいずれか又は複数の表示態様を組み合わせて表示しても良い。
次に、無線航空機10の対応実行モジュール60は、対応が必要な農作物に対して後述する対応処理を実行する(ステップS34)。
無線航空機10は、対応処理を実行した後、位置情報出力処理を終了する。
以上が、位置情報出力処理である。
[対応処理]
図5は、無線航空機10が実行する対応処理の手順を示すフローチャートである。上述した各装置のモジュールが実行する処理について、本処理に併せて説明する。
無線航空機10の指示判断モジュール23は、対応処理の実行指示を受け付けたか否かを判断する(ステップS40)。ステップS40において、指示判断モジュール23は、携帯端末100又は他の外部端末から直接対応指示を受信したか否か、又は自身にプログラミングされた所定の行動に予め対応が必要な農作物に対しての対応指示が含まれているか否かを判断する。
ステップS40において、無線航空機10の指示判断モジュール23は、対応処理の実行指示を受け付けていないと判断した場合(ステップS40 NO)、本処理を終了する。
一方、ステップS40において、無線航空機10の指示判断モジュール23が、対応処理の実行指示を受け付けたと判断した場合(ステップS40 YES)、無線航空機10の対応情報取得モジュール53は、データ記憶モジュール50が対応情報テーブルに記憶した各農作物の位置情報、収穫情報及び対応情報を取得する(ステップS41)。
無線航空機10は、取得した位置情報に基づいて対象とする農作物の場所に移動する(ステップS42)。
無線航空機10の対応実行モジュール60は、農作物に対しての対応を実行する(ステップS43)。ステップS43において、対応実行モジュール60は、この農作物が収穫に適していた場合、この作物を収穫し、保持し、所定の場所に農作物を移動させる。また、害虫や病気がある場合、薬剤を散布する。ステップS43において、対応実行モジュールは、対応に必要な装置を駆動させ、必要な対応を実行する。
無線航空機10の対応完了判定モジュール54は、全ての農作物に対しての対応が完了したか否かを判断する(ステップS44)。ステップS44において、対応完了判定モジュール54は、対応情報テーブルに記憶された全ての位置情報への移動が完了したか否かを判断する。
ステップS44において、無線航空機10の対応完了判定モジュール54は、全ての農作物に対しての対応が完了していないと判断した場合(ステップS44 NO)、対応実行モジュール60が、全ての農作物に対しての対応を完了するまで、ステップS41以降の処理を繰り返す。
一方、ステップS44において、無線航空機10の対応完了判定モジュール54は、全ての農作物に対しての対応が完了したと判断した場合(ステップS44 YES)、本処理を終了する。
以上が、対応処理である。
[変形例]
本発明の変形例について説明する。本発明は、農作物以外、例えば、人物に対しても適用することが可能である。以下、人物に対して適用した場合について説明する。
本変形例において、撮影対象領域は、道路や施設である。また、抽出した対象に関する特定画像とは、年齢を識別するための画像や、性別を識別するための画像や、服装の画像である。
無線航空機は、携帯端末やその他の外部端末や、公衆回線網を介して特定画像の画像データを受信し、記憶する。無線航空機は、携帯端末やその他の外部端末等や自身にプログラミングされた所定の行動に基づいて、人物の撮影指示を受け付ける。
無線航空機は、撮影対象領域に存在する人物の画像をライブ画像として撮影する。無線航空機は、同時に、この撮影した位置における位置情報をGPSシステムから取得する。無線航空機は、撮影した人物のライブ画像の画像データと、この撮影場所における位置情報とを対応付けて記憶する。
無線航空機は、記憶した特定画像の画像データとライブ画像の画像データとを比較し、人物の年齢、性別、服装等を識別する。無線航空機は、識別した人物の年齢、性別、服装等の個人データと、撮影した位置における位置情報とを対応付けて記憶する。
無線航空機は、記憶した位置情報と個人データとを携帯端末に送信する。携帯端末は、受信した位置情報と個人データとに基づいて、混雑マップを生成し、表示する。携帯端末が表示する混雑マップとは、例えば、撮影対象領域に存在する各人物の位置をアイコンや図等で表示するとともに、このアイコンや図等に重ねて個人データを表示するものである。なお、混雑マップは他の表示態様であっても良い。また、個人データの表示態様は、上述した実施形態と同様に、アイコンや図等をハッチング処理、着色、形状変化、点滅等の表示態様で表示しても良いし、音声による通知を実行する表示態様で表示しても良いし、これらの内のいずれか又は複数の表示態様を組み合わせて表示しても良い。また、個人データの表示位置に関しては、適宜変更しても良い。
無線航空機は、対応処理の実行指示を受け付けた場合、各人物の位置情報と個人データとに基づいて、予め設定された対応行動を実行する。無線航空機が実行する対応行動とは、例えば、特定の年齢の人物に対して、音声案内を実行することや、特定の性別の人物に対してチラシを配布することである。なお、無線航空機は、他の対応行動を実行しても良い。
以上が、本実施形態における変形例である。なお、本実施形態における変形例はあくまでも一例であり、他の例であっても良いことは言うまでもない。
上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD−ROMなど)、DVD(DVD−ROM、DVD−RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
3 撮影対象領域、5 GPSシステム、10 無線航空機、100 携帯端末

Claims (3)

  1. 空中を飛行する無線航空機であって、
    ライブ画像を撮影するカメラ手段と、
    自身が位置する位置情報を検知可能な位置情報検出手段と、
    抽出した対象に関する特定画像を記憶する特定画像記憶手段と、
    前記カメラ手段が撮影したライブ画像と、前記特定画像とを比較して、前記ライブ画像から抽出したい対象を認識する対象認識手段と、
    前記対象を認識した際に、前記位置情報検出手段が検知した現在位置を出力する位置情報出力手段と、
    自身が、現在位置を出力した位置に移動した場合には、前記特定画像の種類に応じて、所定の装置を駆動する装置駆動手段と、
    を備えることを特徴とする無線航空機。
  2. 空中を飛行する無線航空機が実行する位置情報出力方法であって、
    ライブ画像を撮影するステップと、
    自身が位置する位置情報を検知するステップと、
    抽出した対象に関する特定画像を記憶するステップと、
    前記撮影したライブ画像と、前記特定画像とを比較して、前記ライブ画像から抽出したい対象を認識するステップと、
    前記対象を認識した際に、前記検知した現在位置を出力するステップと、
    自身が、現在位置を出力した位置に移動した場合には、前記特定画像の種類に応じて、所定の装置を駆動するステップと、
    を備えることを特徴とする位置情報出力方法。
  3. 空中を飛行する無線航空機に、
    ライブ画像を撮影するステップ、
    自身が位置する位置情報を検知するステップ、
    抽出した対象に関する特定画像を記憶するステップ、
    前記撮影したライブ画像と、前記特定画像とを比較して、前記ライブ画像から抽出したい対象を認識するステップ、
    前記対象を認識した際に、前記検知した現在位置を出力するステップ、
    自身が、現在位置を出力した位置に移動した場合には、前記特定画像の種類に応じて、所定の装置を駆動するステップ、
    実行させるためのコンピュータ読み取り可能な無線航空機用プログラム。
JP2015130293A 2015-06-29 2015-06-29 無線航空機、位置情報出力方法及び無線航空機用プログラム。 Active JP6326009B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015130293A JP6326009B2 (ja) 2015-06-29 2015-06-29 無線航空機、位置情報出力方法及び無線航空機用プログラム。
US15/185,094 US20160379369A1 (en) 2015-06-29 2016-06-17 Wireless aircraft and methods for outputting location information of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015130293A JP6326009B2 (ja) 2015-06-29 2015-06-29 無線航空機、位置情報出力方法及び無線航空機用プログラム。

Publications (2)

Publication Number Publication Date
JP2017016271A JP2017016271A (ja) 2017-01-19
JP6326009B2 true JP6326009B2 (ja) 2018-05-16

Family

ID=57601202

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015130293A Active JP6326009B2 (ja) 2015-06-29 2015-06-29 無線航空機、位置情報出力方法及び無線航空機用プログラム。

Country Status (2)

Country Link
US (1) US20160379369A1 (ja)
JP (1) JP6326009B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173577A1 (ja) * 2017-03-23 2018-09-27 日本電気株式会社 植生指標算出装置、植生指標算出方法、及びコンピュータ読み取り可能な記録媒体
CN115361482A (zh) * 2017-04-28 2022-11-18 索尼公司 信息处理装置、信息处理方法、信息处理程序、图像处理装置以及图像处理系统
US11061155B2 (en) 2017-06-08 2021-07-13 Total Sa Method of dropping a plurality of probes intended to partially penetrate into a ground using a vegetation detection, and related system
JP6862299B2 (ja) * 2017-06-28 2021-04-21 株式会社クボタ 圃場の空撮システム
JP6550496B1 (ja) * 2018-03-29 2019-07-24 西日本電信電話株式会社 情報収集装置、情報収集方法及びコンピュータープログラム
JP7127361B2 (ja) * 2018-05-18 2022-08-30 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置
JP7292850B2 (ja) * 2018-10-17 2023-06-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5379190B2 (ja) * 1999-09-22 2013-12-25 雅信 鯨田 捜索システム及び方法
US7386187B2 (en) * 2004-03-07 2008-06-10 Rafael Advanced Defense Systems Ltd. Method and system for pseudo-autonomous image registration
IL175835A0 (en) * 2006-05-22 2007-07-04 Rafael Armament Dev Authority Methods and systems for communicating and displaying points-of-interest
US8320615B2 (en) * 2008-02-27 2012-11-27 Honeywell International Inc. Systems and methods for recognizing a target from a moving platform
JP2011198161A (ja) * 2010-03-22 2011-10-06 Hiromitsu Hama 対象物認識システム及び該システムを利用する監視システム、見守りシステム
US9408342B2 (en) * 2010-10-25 2016-08-09 Trimble Navigation Limited Crop treatment compatibility
KR101533905B1 (ko) * 2011-02-21 2015-07-03 스트라테크 시스템즈 리미티드 비행장 내의 이물질, 파편 또는 손상 검출 감시 시스템 및 방법
US9489839B2 (en) * 2012-08-06 2016-11-08 Cloudparc, Inc. Tracking a vehicle using an unmanned aerial vehicle
US20140316614A1 (en) * 2012-12-17 2014-10-23 David L. Newman Drone for collecting images and system for categorizing image data
WO2014160589A1 (en) * 2013-03-24 2014-10-02 Bee Robotics Corporation Aerial farm robot system for crop dusting, planting, fertilizing and other field jobs
KR20150019771A (ko) * 2013-08-16 2015-02-25 한국항공우주연구원 무인 항공기의 착륙 방법 및 시스템
US9903719B2 (en) * 2013-09-03 2018-02-27 Litel Instruments System and method for advanced navigation
US20160012393A1 (en) * 2014-07-14 2016-01-14 Nutex Communications Corp. Parcel delivery method using an unmanned aerial vehicle

Also Published As

Publication number Publication date
US20160379369A1 (en) 2016-12-29
JP2017016271A (ja) 2017-01-19

Similar Documents

Publication Publication Date Title
JP6326009B2 (ja) 無線航空機、位置情報出力方法及び無線航空機用プログラム。
EP3479691B1 (en) Mobile body control application and mobile body control method
JP5510833B2 (ja) 携帯端末装置及びプログラム
US10024678B2 (en) Wearable clip for providing social and environmental awareness
US11914769B1 (en) Item tracking and presentation
US20150198454A1 (en) Smart necklace with stereo vision and onboard processing
US20200089943A1 (en) Living body search system
WO2015108882A1 (en) Smart necklace with stereo vision and onboard processing
WO2019106733A1 (ja) 生育状況または病害虫発生状況の予測システム、方法およびプログラム
KR101714976B1 (ko) 증강현실 기반의 축사 모니터링 장치
CN108431851A (zh) 自动产品地图构建
US20170032190A1 (en) Image processing apparatus, communication system, communication method and imaging device
US20180129303A1 (en) Information processing apparatus, information processing method, and program
US11087446B2 (en) Automated arthropod detection system
JP5954460B2 (ja) 観測装置及び観測管理システム
KR20180086776A (ko) 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법, 이를 실행하는 휴대용 스마트 기기 및 이를 포함하는 식물 생육정보 분석 시스템
US11145009B2 (en) Method for supporting a user in an agricultural activity
JP2013162800A (ja) 通信装置並びにプログラム
KR20180027839A (ko) 증강현실영상 기반의 가축정보 제공 방법 및 장치
JP6212662B1 (ja) ドローン自動飛行制御アプリケーション、スマートデバイス、ドローン、サーバ、ドローン自動飛行制御方法及びプログラム。
WO2020157879A1 (ja) コンピュータシステム、作物生育支援方法及びプログラム
US20220172840A1 (en) Information processing device, information processing method, and information processing system
KR102532651B1 (ko) 온실 작물 관리 시스템
JP2013162799A (ja) 観測管理システム、観測装置、携帯端末装置並びにプログラム
TWI811198B (zh) 收集系統、終端用程式以及收集方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180413

R150 Certificate of patent or registration of utility model

Ref document number: 6326009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250