JP5542530B2 - サンプリング位置決定装置 - Google Patents

サンプリング位置決定装置 Download PDF

Info

Publication number
JP5542530B2
JP5542530B2 JP2010128406A JP2010128406A JP5542530B2 JP 5542530 B2 JP5542530 B2 JP 5542530B2 JP 2010128406 A JP2010128406 A JP 2010128406A JP 2010128406 A JP2010128406 A JP 2010128406A JP 5542530 B2 JP5542530 B2 JP 5542530B2
Authority
JP
Japan
Prior art keywords
sampling
unit
image
sampling position
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010128406A
Other languages
English (en)
Other versions
JP2011252870A (ja
Inventor
頼子 風間
修 西口
正明 谷崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Solutions Ltd
Original Assignee
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Solutions Ltd filed Critical Hitachi Solutions Ltd
Priority to JP2010128406A priority Critical patent/JP5542530B2/ja
Priority to EP11168313.2A priority patent/EP2393041B1/en
Priority to US13/151,585 priority patent/US9098745B2/en
Priority to CN201110148935.0A priority patent/CN102339387B/zh
Publication of JP2011252870A publication Critical patent/JP2011252870A/ja
Application granted granted Critical
Publication of JP5542530B2 publication Critical patent/JP5542530B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Description

本発明は、サンプリング位置を決定する装置に関する。
サンプリング調査等を行う際に,全対象領域を隈なく調査することは労力,コストの面で困難なため,対象領域内から数点をサンプリングし,サンプリングした試料の分析が行われている。
非特許文献1には,画一的に定められた位置をサンプリング地点とするものとして、対象領域の対角線上を等間隔にサンプリング地点と定める対角線法が記載されている。
また、特許文献1では,ある領域から複数点の計測を行い,得られた点データを補間して分布図を作成し、この分布図から、土壌の無機成分、有機成分、腐植物質、溶液などの基本構成要素を選択してサンプリング地点を決定することが記載されている。
さらに、特許文献2では,土壌に検査光を照射することによって土壌からの反射光を取得し、計測したスペクトルデータの変化があった地点をサンプリング地点と定めることが記載されている。
また、特許文献3には、土壌の線虫密度分布を作成するために、自然電位測定を行いその分布を作成し、電位が異なる地点において土壌を採取することが記載されている。
W-Q Li, et al., ""Relationship between soil characteristics and halophytic vegetation in coastal region of north China", Pakistan Journal of Botany, 40(3), 1081-1090, 2008.
特開2004-012158 号公報 特開2008-032450号公報 特開2000-236794号公報
しかしながら、非特許文献1記載の対角線法では、異常値を示す領域があった場合,サンプリング地点に異常領域が含まれていなければ実態を把握することができない。
また、特許文献1のサンプリングでは、点データを補間して得られた分布図をもとにしているため,異常地点や少量域の分布などの抽出精度が点計測の位置に強く依存し,場合によっては異常地点等を把握することができない。
更に、特許文献2、3のサンプリングでは、適切な変化量を定めることが難しく,また計測データのノイズの影響を多大に受けてしまい、高度なサンプリング精度を出すことができない。
本発明は、画像を記憶する記憶部と、演算部とを備えるサンプリング位置決定装置であって、演算部は、対象領域から特徴量を抽出する。さらに、特徴量を特徴量空間でクラスタリングして、地図上に結果を表示し,空間的な分布を鑑みて代表位置を求める。算出した結果を記憶部に格納する。その他の手段については後記する。
このように、特徴量を特徴量空間でクラスタリングすることにより、特徴的な地点をサンプリング点として選択することができるので、適切なサンプリング位置を決定することができる。
本実施形態のサンプリング位置決定装置の機能構成図である。 本実施形態のサンプリング位置決定装置の物理構成図である。 本実施形態における処理フローを示す図である。 本実施形態における、シーケンス図を示した図である。 本実施形態における、サンプリング位置決定処理の結果例である。 本実施形態における、クラスタ中心領域からサンプリング位置を抽出したサンプリング位置決定の処理例である。 本実施形態における、中心領域設定部を追加したサンプリング位置決定装置の機能構成図である。 本実施形態における、最短経路探索部を追加したサンプリング位置決定装置の機能構成図である。 本実施形態における、最短経路探索を行ってサンプリング位置を決定した処理の結果例である。 本実施形態における、複数の領域を選択し,サンプリング位置を決定した処理の結果例である。 本実施形態における、ユーザー設定画面の例である。 本実施形態における、特徴抽出時に対象領域内を小領域に分割して特徴抽出する処理の実施例である。 本実施形態における、水質のサンプリング地点を決定する処理の結果例である。 本実施形態における、マスク処理部を追加したサンプリング位置決定装置の機能構成図である。 本実施形態における、サンプリング位置をモバイル端末で表示した表示例である。 本実施形態における,過去のサンプリング位置を画面上に表示した表示例である。 本実施形態のサンプリング位置決定装置の物理構成図である。 本実施形態における,ユーザーによるクラスタリングのパラメータ変更例である。 本実施形態における,地図を利用しない場合の実施例を示した図である。 本実施形態における,対象領域内から複数のサンプルを抽出した後に,混合して一つのサンプルとする場合の実施例を示す図である。
以下、本発明を実施するための最良の形態(以下、「実施形態」という。)について、図面を参照(言及図以外の図面も適宜参照)しながら詳細に説明する。なお、本実施形態において、各蓄積部はハードディスクや計算機上のメモリによって実現される。その代案として、ネットワーク上のハードディスクを用いてもよい。また、各処理部は、コンピュータにおいてプログラムを読み込むことで実行される。その代案として、ハードウェアとソフトウェアの協調によってなされるものであってもよい。
図1、図2,図3を参照して、本実施形態のサンプリング位置決定装置の構成について説明する。図1は、本実施形態のサンプリング位置決定装置101の機能構成図である。図2は、本実施形態のサンプリング位置決定装置101の物理構成図である。図3は,本実施形態における処理フローを示す図である。
図1に示すように、サンプリング位置決定装置101は、処理部としてのユーザー設定部104,データ入力部105、画像対応部106、特徴抽出部107、分類処理部108、空間解析部109,代表点抽出部110、結果調整部111と,記憶部(蓄積部)としてのデータ蓄積部102、演算結果蓄積部103とを備えて構成される。また、画像表示部112を備える。
データ蓄積部102は、対象とする画像と地図データを蓄積(記憶)する。対象画像は、例えば多バンドセンサで撮影された衛星画像であり、また位置情報が付属されている。対象画像は衛星画像に限らず、航空画像、ヘリコプター画像、無人偵察機画像,地上計測画像などでもよい。また、画像は単一ではなく、複数の時系列画像や複数のセンサ等で撮影した複数画像でもよい。地図データは、電子化されているデータで、ポリゴンなどのベクターと属性情報および位置情報を有する。属性情報および位置情報はラベル、属性、位置情報などが格納されている。位置情報は、例えばベクターデータとして保存されている。また、位置情報は画像に対応する座標でもよいし、所望の地図投影で表現される緯度経度情報等であってもよい。地図データは地図だけでなく、ユーザーが描画した画像や文書情報から知識処理によって収集した位置情報であってもよい。また、ここでは、データ蓄積部をサンプリング位置決定装置の内部に保有する構成を示したが、サンプリング位置決定装置の外部に置き、ネットワーク等を通じて記憶情報を送受信するようにしても良い。
ユーザー設定部104は,ユーザーが解析対象の設定やサンプリング数の設定を入力し,受け付ける。受け付けた入力情報はデータ蓄積部102に格納する。
データ入力部105は、ユーザーが指定した解析対象とする画像を入力し、また同地域の地図データを入力し、データ蓄積部102に格納する。さらに、ユーザーが指定する解析対象領域の名称またはID等の情報をデータ蓄積部102に格納する。解析対象物は一つでもよいし、複数指定してもよい。
画像対応部106は、データ入力部105で入力した画像と地図データの位置を対応づける。画像および地図データに付属されている位置情報を利用して、自動的に位置合わせを行う(下記非特許文献2)。また、手動により画像と地図データから対応点を抽出して位置合わせを行ってもよい。抽出した対応点情報は、演算結果蓄積部103に格納する。
対応づけた画像において、データ入力部104で入力された対象領域の情報を地図データの属性情報から抽出し、対応する属性の領域を画像上に配置する。
特徴抽出部107は、画像対応部106で画像上に配置された解析対象領域から、特徴量を抽出する。特徴量は、スペクトル画像(分光画像)から得られる1画素毎のスペクトルデータである。クラスタリングを行う領域に含まれる対象物が類似スペクトルを持っている場合(例えば植生のみが含まれ,植生の種が異なる場合),スペクトルの絶対値ではなく,スペクトルの形状(波長間のスペクトルの差異など)に着目する必要がある。その場合は,スペクトルデータを正規化した値を特徴量とする。例えば,2波長の正規化データでもよいし,全波長に対して定めた極小,極大値内に含まれるように正規化してもよい。さらに,スペクトルの吸収帯を強調するような処理を行って特徴量としてもよい。
特徴量は,ある領域内の平均値でもよく,この場合は領域内に含まれるノイズを軽減することができる。また、フィルタ処理等を行って算出した値やバンド間の演算データを利用すると,画素の値または領域内の値の微小な特徴の違いを強調することができ,下記クラスタリングの精度を高めることができる。合成開口レーダー画像やレーザーデータを使用する場合は、強度画像から得られる強度値を利用する。また,複素数データや散乱係数でもよい。これにより,レーダーデータやデジタルカメラ画像の輝度値を利用することもできる。デジタルカメラでは,通常RGBの3バンドデータを取得することができるため,RGB値を特徴量として用いることができる。これらの特徴量は一つでもよいし,複数抽出してもよい。複数の特徴を組み合わせる場合には,相補的な関係を持つ複数の特徴を選択すれば,下記クラスタリング処理で特徴量空間上での各分布の離度を高くすることができ,クラスタリング精度を向上することができる。
得られた特徴量は、特徴ベクトルとして表現する。この特徴ベクトルは複数の次元を持っている。また、1次元のデータ(ひとつの値)であってもよい。抽出した特徴ベクトルは、演算結果蓄積部103に格納する。
分類処理部108は、特徴抽出部107で抽出した特徴ベクトルを特徴空間上にプロットし、特徴ベクトルに対してクラスタリングを行う。クラスタリングはk-Means法(下記非特許文献3)などを利用して行う。クラスタリング手法はこれに限らない。また、クラスタリング処理ではなく、特徴ベクトルのうち、適当な次元を選択して特徴空間を表示し、ユーザーが特徴空間上で入力することでクラスタを作成してもよい。また、特徴量の閾値処理でもよい。閾値はユーザーが設定してもよいし、自動閾値決定法(下記非特許文献4参照)などで自動に求めてもよい。
このように特徴量を用いてクラスタリングを行うことで,自動的に対象領域を構成する複数の要素を抽出することができる。複数の要素とは,例えば針葉樹,広葉樹など,領域内に含まれる構成要素である。また統計分布を仮定しているためにノイズの影響を低減することができ,異常データ等の削除を容易に行うことが可能である。
クラスタリングで得られるクラスタの数は,ユーザーが任意に設定してもよいし,あらかじめ最大および最小クラスタ数を設定しておいてもよい。クラスタリング処理では,設定したクラスタ数になるように自動でクラスタの統合,分割処理を行う。これにより,所望のクラスタ数を得ることができる。
画素ごとに抽出した特徴量に対し,クラスタ番号が割り当てられる。このクラスタ番号を画像上にマッピングし,クラスタリング結果画像を作成する。
空間解析部109では,分類処理部108で作成したクラスタリング結果画像に対し,フィルタリング処理を行うことで領域の平滑化,ノイズ除去を行う。フィルタリング処理では,例えばメディアン処理(非特許文献5)などを用いる。さらに,空間的に隣接している同一クラスタリング番号の画素を結合し,複数の小領域を形成する。形成した小領域があらかじめ定めた最小領域面積よりも小さければ,周囲の領域へ統合する。これにより,ノイズの影響を除去した領域分割図を得ることができる。
代表点抽出部110では,空間解析部109で作成した領域分割図から,各領域の代表点を求める。例えば,代表点として領域の重心を計算する。
代表点抽出部110で抽出した代表点は,一つのクラスタに所属する複数の領域が発生したために,同一のクラスタから複数の代表点が得られる場合がある。その場合には,結果調整部111で,例えば最大面積を有する領域からの代表点を保存し,その他の同一クラスタの代表点を除去する。この処理により,各クラスタに対し一つの代表点を抽出することができる。また,同一クラスタに所属する領域が複数存在し,極端に離れて位置する場合などには,同一クラスタから複数の代表点を抽出してもよい。
画像表示部112は、結果調整部111で抽出した代表点をサンプリング位置として画像上または地図上に表示する。また、データ蓄積部102から読み出した原画像を並べて表示し、サンプリング位置を視認し易くしてもよい。さらに、画像の拡大、縮小などを並べた画像同士で連動させ、視認し易くしてもよい。
データ蓄積部102から読み出した地図データと、空間解析部109で作成した領域分割図を重ねて表示し,領域の分布とサンプリング位置の関係を表示してもよい。
次に、サンプリング位置決定装置101の物理構成について説明する。図2に示すように、サンプリング位置決定装置101は、ディスプレイ201、プリンタ202、演算部203、メモリ204、HDD(Hard Disk Drive)205、キーボード206およびマウス207を備えて構成され、それらがバス208によって接続されている。
ディスプレイ201は、入力された画像等のデータを表示する。
プリンタ202は、入力されたデータを印刷機等へ出力する。
演算部203は、各種の処理エンジン2031を有し、処理命令が入力されると対応するエンジンソフトをメモリ204から読み出し、また、必要があればHDD205から蓄積されているデータを読み出して所定の演算を行う。また、計算結果をメモリ204に出力する。
メモリ204は、処理エンジン管理部2041、演算情報管理部2042および設定条件管理部2043を有する。処理エンジン管理部2041は、演算部203での計算に使用する各エンジンのソフトを管理する。演算情報管理部2042は、演算部203で計算された計算結果を管理する。設定条件管理部2043は、キーボード206やマウス207から入力された条件を保存し、管理する。
HDD205は、データ蓄積部102、演算結果蓄積部103を有し、それぞれが該当データを格納している。各データはID番号1305のようにIDで管理されており、効率的にデータにアクセスすることができる。HDD205に対してデータの読み出し命令が入力されると、対象データがアクセスされ読み出される。なお、HDD205はネットワーク上に設置されていてもよい。サンプリング位置決定装置101はネットワークインターフェイスを備え、HDD205など各構成はネットワーク上に設置されてもよい。
キーボード206及びマウス207は、各種設定条件を入力するユーザーによる操作のための手段である。
図3は、本実施形態における処理フローを示す図である。
ステップ301で、ユーザー設定部104はユーザーの入力を受け付け,データ入力部105はユーザーが指定した処理対象の画像および地図データを入力し、データ蓄積部102にデータを蓄積する。
ステップ302で、画像対応部106は入力データの画像と地図データの位置を対応付けし、地図データから解析対象の領域を抽出し,対応する画像領域を抽出する。
ステップ303で、特徴抽出部107は、画像対応部105で抽出した画像上の解析対象物領域から特徴ベクトルを抽出する。
ステップ304で、分類処理部108は、特徴抽出部107で抽出した特徴ベクトルに対し、クラスタリング処理を行い、各特徴に対してクラスタ番号を割り当てる。特徴の位置とクラスタ番号を参照し,クラスタリング結果画像を作成する。
ステップ305で、空間解析部109は,分類処理部108で作成したクラスタリング結果画像に対して,フィルタリングなど所望の空間処理を行う。
ステップ306で,代表点抽出部110は空間処理を行った画像から,領域を認識し,各領域から代表点を抽出する。
ステップ307で,結果調整部111は,ステップ306で抽出した代表点のうち,各クラスタからの抽出点が一つになるように抽出点を選定する。具体的には同一クラスタに所属する領域のうち,最大面積の代表点のみ選定する。この代表点をサンプリング地点とする。
ステップ308で,画像表示部112はステップ307で抽出したサンプリング地点を地図上および画像上に表示する。
図4は、本実施形態における処理シーケンスを示す図である。ユーザー401が処理の開始を指示し、表示画面402上で処理対象画像を選択すると、演算部403に処理対象画像の設定情報が通知される。演算部403では対象となる地図と画像をデータ蓄積部404に指定し、データ蓄積部404から必要となるデータを読みだす。
次に演算部403では、読み出した画像と地図を表示画面402上に表示し,解析対象とする領域の指定を求める。ユーザー401は,表示画面402上で処理対象領域や対象物を指示する。ここで,ユーザー401は処理対象とする領域をマウス等で選択してもよいし,対象とする領域のID番号等を入力してもよい。また,処理対象領域を複数選択してもよい。
演算部403は,指定された対象領域を,データ蓄積部404から読み出しておいた画像および地図上に設定する。演算部403は,指定領域内からあらかじめ設定した方法により特徴データを生成する。演算部403では、生成した特徴データをもとに、分類処理を行う。表示画面402は分類結果画像を表示する。表示画面402は,ユーザーに分類結果の修正有無を尋ねてもよい。ユーザーはそれを受けて,修正の指示をしてもよい。演算部403は修正を受け付け,修正指示に応じて結果を修正する。
演算部403は,分類結果から代表点を計算し,サンプリング位置を生成する。表示画面402は,生成したサンプリング位置を表示する。演算部403はサンプリング位置および分類結果をデータ蓄積部404に保存する。
Remote Sensing Digital Image Analysis, Springer, J. A. Richards and X. Jia, pp.56-58, 2006 Image Processing, Analysis, and Machine Vision, M. Sonka, V. Hlavac, and R. Boyle, PWS publishing, pp. 307-308. Image Processing, Analysis, and Machine Vision, M. Sonka, V. Hlavac, and R. Boyle, PWS publishing, pp. 128-130. Image Processing, Analysis, and Machine Vision, M. Sonka, V. Hlavac, and R. Boyle, PWS publishing, pp. 74-76.
次に、図5を参照して、サンプリング位置決定装置の利用例として、地図と画像を利用した農場内の土壌サンプリング位置決定の例について説明する。
図5は,対象ポリゴン内をクラスタリングし,解析対象ポリゴン502内からサンプリング地点を3点決定する例である。地図データ501には,地図情報として領域ポリゴンが含まれる。例えば,農場や駐車場,空き地などである。また,地図データ501には対応する位置情報をもった衛星画像が存在する。ここで,衛星画像ではなく航空写真や飛翔物体から撮影した画像でもよいし,地上から撮影した画像でもよい。ユーザーが設定した対象ポリゴン502は,位置情報および形状情報を有しており,画像対応部106は地図上で指定した対象領域502に対応する画像領域を設定する。また,対象ポリゴンを地図上でなく,直接画像上で指定してもよい。例えば,ユーザーが解析対象領域として画像上にポリゴン等を描いてもよい。
特徴抽出部107は,指定した対象ポリゴン内から特徴量を抽出し,特徴空間503上に各特徴量をマッピングする。ここで,特徴空間503上の点は,特徴量をベクトル表現した特徴ベクトルを表す。画素毎に特徴量を抽出した場合は,特徴ベクトルがポリゴン領域内の画素数と同等となる。また,画素毎ではなく,ポリゴン内を小領域に分割した小領域の平均値や代表値でもよい。特徴量は,例えばスペクトル情報を有する画像から抽出するスペクトル情報である。スペクトル情報は,反射率でもよいし,放射率等の値でもよい。また,輝度値や画素値でもよい。対象画像がスペクトル情報を保有しない場合は,画像に対してフィルタリング処理を行った値でもよいし,画素値でもよい。また,同一ポリゴンに対応する複数画像の画素値や複数画像間での算術値でもよい。
分類処理部108は,特徴空間上にマッピングされた特徴量をクラスタリングし,所望のクラスタ数のクラスタを形成する。クラスタ数はユーザーが設定してもよいし,あらかじめ最大および最小クラスタ数を設定しておいてもよい。作成したクラスタの数が設定数と異なる場合には,クラスタ同士を統合またはクラスタを分割し,クラスタ数を調整する。また,特徴空間上でのクラスタ分布同士が最もよく分離するようにユーザーがクラスタ数を決定してもよい。さらに,クラスタ分布の分離度は,クラスタ中心間の距離やクラスタの重なり度合によって表現することがきる。そのため,クラスタ数を順に変化させながら上記分離度を求め,分離度が最も良い時のクラスタ数を最適クラスタ数として自動的に決定してもよい。ただし,クラスタ数を無制限に順に変化させていくと,クラスタ数が特徴量の数と同一になった場合に分離度が最大となってしまう。その場合には,クラスタリングの意味がなく,サンプリング点を抽出することができない。そのため,クラスタリング数の下限と上限を定め,その中でクラスタリング数を変化させる必要がある。また,クラスタリングに含まれる特徴量の最低数を設定してもよい。この処理により,クラスタの分離度が最も高い結果を自動的に算出することができる。
クラスタリングを行った結果,各特徴量にはクラスタ番号が割り振られる。特徴量を抽出した画素(場所)にクラスタ番号をマッピングすると結果画像504のようになる。結果画像504は,複数の領域から構成された例である。空間解析部109は,マッピング結果画像504対象ポリゴン内の分割領域を認識する。例えば,ラベリング処理によって,複数の領域に分割する。図5では,マッピング結果画像504のように3つの領域に分割できる。代表点抽出部110は,この3つの領域から領域の重心を求め,土壌サンプリング地点として抽出する。抽出したサンプリング地点は画像表示部112によって,地図上あるいは画像上に表示される。表示は,サンプリング位置表示画像505のようにマッピング結果画像504上に点として表示してもよいし,地図や画像上に表示してもよい。また,サンプリング位置の表現として,丸や矢印のようなシンボルを表示してもよいし,テキストで表示してもよい。また,サンプリング位置は一点ではなく,サンプリング推奨領域として,領域を示してもよい。
本発明で得られたサンプリング地点に基づきサンプリングを行うには,抽出したサンプリング地点を表示した地図または画像に,緯度経度などの位置情報を付加して紙等へ出力する。また,サンプリング地点はモバイル端末等で表示できる地図等の上にシンボル等として表示させてもよい。そのサンプリング地点情報に基づいて,現地で所定の位置の土壌サンプリングを行う。また,実際にサンプリングを行っている位置の情報はGPS等で取得する。サンプリングした後に,サーバー等へ実際のサンプリングした地点の緯度経度をモバイル端末等で送信し,サーバー内で管理してもよい。さらに,本発明により抽出したサンプリング地点に自動または手動でID番号を付加し,サンプリングしたサンプルにIDを記載することで,緯度経度等の位置情報とサンプルを対応づけることができる。これにより,サンプルの分析結果を再度地図上に表現し,対象領域の分布を把握することができる。さらに,サンプリング結果を外挿し,点として得られたデータを平面情報へと拡張して表示することもできる。また,サンプリング地点から得られたサンプルの分析結果と,対応する衛星画像のスペクトル情報から検量線を作成し,衛星画像のスペクトルデータからサンプル分析値を逆推定することで,分析マップを作成することもできる。
ここで,本実施例で説明した構成は,土壌サンプルを決定するだけでなく,例えば作物の現況調査,作物の被害調査,森林調査,森林樹種調査,病害虫調査,間伐調査,土壌汚染,水質調査,水質汚染等の調査におけるサンプリングにも適用できる。また,サンプリングではなく,調査や計測の実施地点決定にも適用できる。例えば,堤防等の点検箇所決定などがある。
本実施例の構成では、対象領域の構成要素を示すサンプリング地点を所望の数だけ抽出することができる。
次に,図6および図7を参照して,サンプリング位置決定装置の応用例として,同一のクラスタに所属するクラスタリング結果が複数の領域に分散する場合の処理について説明する。
図6は,対象ポリゴン内をクラスタリングした結果,結果画像が複数の領域から構成された場合の例である。図7はサンプリング位置決定装置の応用例を示す図である。
特徴抽出部107は対象ポリゴンから特徴量を抽出し,特徴量を特徴ベクトルとして表現して特徴空間601にマッピングする。分類処理部108は,特徴ベクトルを所望のクラスタ数になるようにクラスタリングを行う。クラスタリングした結果を画像上にマッピングすると,クラスタリング結果画像603のように,同一クラスタに所属する複数の領域が発生する。この場合は,特徴空間602に示すように,クラスタ中心付近にクラスタの代表的な特徴が表現されているとし,中心領域設定部701がクラスタ中心付近に存在する特徴ベクトルを抽出する。ここで,クラスタ中心付近は領域606で表現される。クラスタ中心付近は,ユーザー設定部104で半径または直径を設定してもよいし,分布の標準偏差(3σなど)を設定してもよい。また,あらかじめ距離を設定しておいてもよい。クラスタ中心からの距離はユークリッド距離でもよいし,マハラノビス距離などでもよい。また,クラスタ中心から任意のn個の特徴量を抽出するとして,nを指定してもよい。
クラスタ中心領域606に対応する特徴ベクトルを画像上または地図上にマッピングすると,クラスタリング結果604となる。クラスタ中心付近の特徴量はクラスタリング結果画像604上では領域607のような分布となる。例えば,クラスタ1に所属する領域はクラスタリング結果604上では,2つの領域608と609に分かれて存在する。サンプリング位置として,一つのクラスタに対し一つの代表点を抽出するため,代表点抽出部110は最も領域サイズの大きい領域から代表点を抽出する。大きい領域からサンプリングを行う方が,サンプリング時に他サンプルが混入することが少なく,またサンプリング地点の選択が多くなるために,実作業上便利である。図6では,クラスタ1に所属する領域608と609のうち,領域608が存在するクラスタ領域の方が大きいため,領域608から代表点を抽出する。この代表点は,クラスタ中心付近の分布608で示す領域から選択する。代表点の選択方法は,クラスタ中心付近の分布608の重心でもよいし,ランダムに抽出してもよい。また,特徴空間602でクラスタ中心に最も近い特徴ベクトルに対応する位置を,代表点として抽出してもよい。領域607と領域610は同じクラスタに所属し,特徴空間602上でのクラスタ分布の中心に近い領域を示している。このように,同一領域内にクラスタ中心付近から得られた小領域分布が複数存在する場合は,どの小領域から代表点を抽出してもよい。クラスタリング結果604では,他代表点からの距離に基づくサンプリングのしやすさを考慮して,領域607から代表点の抽出をしている。
抽出した代表点をサンプリング位置として画像上にマッピングすると,サンプリング位置決定結果画像605となる。サンプリング位置は点などのシンボルで表現している。
同一のクラスタから一つ以上のサンプリング地点を抽出したい場合には,領域サイズの上位から選択することにより,複数のサンプリング地点を抽出することができる。
次に,図8および図9を参照して,サンプリング地点の最短経路を表示する例について説明する。
図8は,サンプリング位置決定装置に最短経路探索部を追加した応用例である。図9は,最短経路を探索し,表示した例を示している。
実施例3の図6で示したように,対象ポリゴン内から特徴量を抽出してクラスタリングし,結果画像901を作成する。さらに,中心領域設定部801により,特徴空間上でのクラスタ中心付近領域を抽出して結果画像901に表示する。ここで,クラスタ中心付近領域は,複数の領域として存在する。実施例3では,所属する領域サイズによって,最も領域サイズが大きい領域から代表位置を決定したが,本実施例ではサンプリングのしやすさを選択基準とする。
対象ポリゴンが示す領域へは,近接する道路からアクセスする。そのため,指定したアクセスポイントからサンプリング地点までの経路を求める。ユーザーが対象ポリゴン領域へアクセスする位置,例えば道路902上の一点を指定する。また,道路上の一点ではなく,道路902を指定してもよい。最短経路探索部802は,指定したアクセス地点から,最短距離でアクセスできるサンプリング位置を選択する。最短距離探索を行う際に,候補となるサンプリング点は,空間解析部109が作成したクラスタリング結果画像から,クラスタリング中心付近に所属する領域に含まれる全ての地点である。同一のクラスタに所属する複数の領域が存在する場合は,そのうちの一つが選択されたとして全ての組み合せを計算する。全ての経路のうち,最短距離の経路およびサンプリング地点を選択する。選択されたサンプリング地点を,代表点抽出部110で代表点とて抽出する。結果調整部111は,代表点抽出部110で抽出した代表点を結ぶ最短経路903を探索し,画像上に表示する。経路探索には,ダイクストラ法(下記非特許文献6)を用いてもよいし,その他の探索アルゴリズムを用いてもよい。
これにより,複数のサンプリング地点を結ぶ最短経路を示すことができ,効率的にサンプリングを行うことができる。
E. W. Dijkstra, A note on two problems in connexion with graphs, Numerische Mathematik, Vol 1, pp. 269-271, 1959.
次に図1および図10を参照して,サンプリング対象領域を地図データ等に含まれる領域を示す図形である,複数のポリゴンから選択し,サンプリング地点を抽出する例を説明する。地図データでは各ポリゴンに属性情報が付加されており,この属性情報からサンプリング対象とする領域を決定することができる。例えば,ある領域内に含まれる複数の農場などをポリゴンとして考える。
図10は,近接する複数のポリゴンがある場合,各ポリゴンからサンプリングを取るのではなく,複数ポリゴンの中から所望のサンプリング数でサンプリング地点を抽出する場合の例である。
地図1001上で,ユーザー設定部104から対象とする複数のポリゴン領域指定を受け付ける。特徴抽出部107は,指定された複数のポリゴン領域から特徴量を抽出して特徴空間上にマッピングする。分類処理部108は,特徴空間上でクラスタリング処理を行い,所望のクラスタ数に分類する。空間解析部109は,クラスタリング結果を画像上または地図上に表示する。クラスタリング結果は複数のポリゴン上に表現される。空間解析部109は,さらに規定した面積以下の小領域を統合する。代表点抽出部110は,分割された領域から代表点を抽出する。代表点は,最も面積の大きい対象クラスタ領域の重心点などである。重心点がポリゴン領域から外れている場合には,最寄りのポリゴン内クラスタ領域から代表点を抽出する。また,各ポリゴンに含まれるクラスタ領域からそれぞれ代表点を抽出し,各クラスタについて代表点が一つになるように,選択してもよい。選択の方法は,実施例4に示すように,各サンプリング地点が最短距離になるように最短経路をもとに選択してもよい。代表点抽出結果を地図上にマッピングすると地図1002のように表現できる。
これにより,対象領域が複数の領域に跨り,また分散して存在している場合でも所望の数のサンプリング地点を決定することができる。
次に図11を参照して,ユーザーが処理設定を行う画面例を説明する。
ユーザー設定画面1101で,サンプリング数や優先,サンプリング点決定方法を入力する。サンプリング数は,対象とするポリゴン内から選択するサンプリング数を表す。優先選択には例えば精度とコストがある。サンプリング数が増加するとサンプリングおよび分析を行うコストが高くなるため,コストを優先する場合には,サンプリング数を指定したサンプリング数以下になるように,分類処理部108で調整する。また,精度を優先とした場合には,分類処理部108で,特徴空間上でのクラスタ分布の分離が高くなるように,クラスタ数を調整する。サンプリング点決定方法では,例えば重心,最短経路,クラスタ中心の方法を選択する。重心を選択した場合は,代表点抽出部110で,画像または地図上でのクラスタ領域の重心点を抽出する。また,最短経路を選択した場合は,クラスタ領域を最短でサンプリングできる地点を抽出し,さらに最短経路も表示する。クラスタ中心を選択した場合には,特徴空間上でクラスタ中心付近を抽出し,画像上または地図上で対応する領域から代表点を抽出する。サンプリング地点の設定は,ユーザーがサンプリング数を指定するだけでなく,画像または地図上で所望の候補領域を指定してもよい。
これにより,ユーザーの目的や運用にあわせてサンプリング地点を決定することができる
次に図1および図12を参照して,対象ポリゴン内の少領域を基準としてクラスタリングし,サンプリング位置を決定する例を説明する。
対象ポリゴン1201に対し,特徴抽出部107はポリゴン内を小領域に分割1202する。分割は,ユーザーが設定した小領域のサイズまたは分割数になるようにメッシュ状に分割する。また,ポリゴンの形状に合わせて,ポリゴン長手方向と同様の方向にメッシュ方向を設定してもよい。特徴抽出部107は,分割した小領域内から特徴量を抽出する。特徴量は領域内の代表特徴量として平均値を求めてもよいし,最頻値等を求めてもよい。また,代表特徴として複数の特徴量を抽出してもよい。
分類処理部108は,抽出した各領域の代表特徴量を特徴空間1203上でクラスタリングし,所望のクラスタ数を得る。クラスタリング結果を画像上または地図上にマッピングし,クラスタリング結果画像1204を作成する。クラスタリング結果は,各小領域の代表特徴が所属するクラスタ番号を小領域全体に割り当てる。
空間解析部109は,クラスタリング結果1204から,隣接小領域をグルーピングし,得られた領域グループの中から代表領域を抽出する。代表領域はグルーピングした領域の重心を抽出してもよいし,隣接する小領域が全て同じクラスタに所属する領域を抽出してもよい。代表点抽出部110は,抽出した代表領域の中心点をサンプリング位置として抽出する。また,抽出した代表領域をサンプリング領域として抽出してもよい。
これにより,ノイズを多く含む画像などではノイズの影響を軽減し,空間解析を容易とするクラスタリング結果を得ることができる。
次に図13および図14を参照して,水質サンプリングを行う際のサンプリング位置決定例について説明する。
図13は,領域内に陸域と水域を含む領域に対し,サンプリング位置を求める応用例である。
領域1301には,陸地と水域が含まれ,水域内には水質の異なる領域が存在する。画像対応部106は,地図と画像の位置を対応付ける。マスク処理部1401は,対象外の領域,ここでは水域以外の陸地をマスク処理する。マスク処理した画像から,特徴抽出部107は特徴量を抽出する。分類処理部108が,抽出した特徴量を特徴量空間上でクラスタリングする。クラスタリングするクラスタの数は,ユーザー設定部104にてユーザーが設定した数である。また,あらかじめ設定しておいた数でもよい。分類処理部108で作成したクラスタ結果から,代表点抽出部110が各領域からの代表点を抽出する。代表点が各クラスタから1つになるように結果調整部111で選択し,選択した代表点をサンプリング地点とする。抽出したサンプリング地点を画像表示部112で表示する。このように,解析対象となる領域をあらかじめマスク処理することにより,クラスタリング処理で特徴空間上での余分な領域を除去することができるため,クラスタリング精度が向上し,サンプリング位置の信頼度を高めることができる。
これにより,水質のサンプリング地点の決定を行うことができる。
なお、ここでは、水域と陸地の例を示したが、水域と船舶等の人工物,海等の一部に氷がある場合の水域と氷域などの場合でも良い。また,水質だけでなく,大気汚染,土壌汚染などの計測サンプリングにも適用できる。
次に図15をおよび図17を参照して,モバイル端末にてサンプリング地点の表示例および物理構成を説明する。
図15は,サンプリング地点をサンプリング位置決定装置101にて求め,モバイル端末で表示する例である。図17はサンプリング位置決定装置101の物理構成図である。
モバイル端末にはGPS等の位置測位装置が内蔵されており,モバイル端末の位置を地図上に示すことができる。端末画面1501には,現在位置とサンプリング地点のマークが画像上または地図上に表示されている。サンプリング地点には,A,B,C,…のように番号を割り振って表示する。また,実施例4で示すように,サンプリング経路を図示してもよい。端末画面1501上のサンプリング地点Bからのサンプリングが終了すると,端末画面1502のようにサンプリング終了地点のマークが反転する。また,サンプリング地点の情報を,テキスト情報として端末画面1503のように表示する。テキスト情報は,地点名,地域や住所,ポリゴン番号やID,サンプリング番号等である。サンプリングの有無等はテキスト情報画面1502で選択してもよいし,地図表示画面1502で選択してもよい。また,モバイル端末に内蔵されているGPS等により実際のサンプリング地点を取得し,サンプリング地点を登録することができる。これにより,実際のサンプリング地点と,サンプリング位置決定装置101が決定したサンプリング位置とを記録することができる。また,サンプリング地点に一定時間滞在すると,自動的にサンプリング終了を判断し,マークを反転し,サンプリング地点を登録してもよい。また,ユーザーは現地の状況を鑑みて,モバイル端末画面1501上でサンプリング位置を編集することができる。その場合には,ユーザー設定部104が編集内容を受け付け,演算結果蓄積部103にあるサンプリング地点を変更し,変更情報を格納する。さらに,ユーザーが画面1501上で,追加サンプリング地点を設定してもよい。設定された新規サンプリング地点は,演算結果蓄積部103に格納される。
これにより,サンプリング位置を現場で容易に確認し,サンプリング試料と場所との関連付けを用意に行うことができる。
次に、図17を参照してモバイル端末を利用する場合のサンプリング位置決定装置101の物理構成について説明する。図17に示すように、サンプリング位置決定装置101を含む全体のシステム構成は、モバイル端末1701、プリンタ202、演算部203、メモリ204、HDD(Hard Disk Drive)205を備えて構成され、それらがネットワーク1702によって接続されている。演算部,メモリはネットワーク上のサーバーを構成する。また,演算部203とメモリ204,HDD205はバスで接続されていてもよい。
サンプリング位置決定装置101は、モバイル端末1701と受送信を行う受信部、送信部を備えている。モバイル端末1701は、サンプリング位置決定装置と受送信を行うことによって、入力された画像やサーバーで計算された結果等のデータを表示する。また,ユーザーの命令を受け付け,ネットワーク上にあるサーバーへ送信する。また,モバイル端末内に演算部203とメモリ204,およびHDD205を構成してもよい。モバイル端末1701はネットワーク1702と切り離されていてもよいし,必要があればネットワーク1702に接続し,データ等を取得してもよい。
次に図16を参照して,前回のサンプリング地点を表示し,比較する例について説明する。
図16は,サンプリング位置決定装置101にてサンプリング位置を決定し,その結果を表示する画面の例である。
画面1601には,地図または画像が表示されており,サンプリング位置1604がシンボルマークとして表示されている。表示選択画面1602には,過去のサンプリング日付が表示されており,所望の日付が選択されると,画面1601上に過去のサンプリング位置1603が表示される。過去のサンプリング地点はシンボルマークだけでなく,日付も表示する。また,日付や位置,サンプリング試料の分析結果などの違いをシンボルマークのカラーを変えることで表現してもよい。サンプリング位置決定装置101で決定したサンプリング位置と過去のサンプリング地点が同一の場合は,ユーザーが画面上で指定することで,編集を行ってもよい。また,過去に何度もサンプリングを行った地点の時系列変化を見たい,といった場合には,ユーザーが画面上で指定することにより,追加サンプリング地点を入力してもよい。これらの過去のサンプリング位置は、HHD205内のデータ蓄積部に保存されている。従って、このデータ蓄積部から、適宜情報を取り出して、上述のように画面上に表示させる。
これにより,過去のサンプリング地点を表示させて比較することにより,サンプリング地点の編集,意味付けを行うことができる。
次に図18を参照して,クラスタリング結果をユーザーが修正する例について説明する。
特徴空間1801は,分類処理部108によって特徴空間でクラスタリングした結果の図である。クラスタの数は初期設定が3となっており,解析対象領域から特徴抽出部107が抽出した特徴量を3つのクラスタに分類している。ユーザーは,この特徴空間1801を参照しながら,任意のクラスタ数に変更し,再度分類処理部108によってクラスタリングした結果を特徴空間1802で表現している。また,特徴空間だけでなく,空間解析部109が算出するクラスタリング結果画像を参照してもよい。この場合は,地図または画像上でクラスタリング結果が確認できるため,ユーザーによるパラメータの設定が直観的に分かり易くなる。クラスタ数等のパラメータを変更して得られた結果を随時参照し,クラスタリング結果が最もよいとユーザーが判断したときのクラスタ数およびクラスタリング結果を空間解析部110に渡す。ユーザーは,特徴空間上でのクラスタリング結果を参照して判断してもよいし,地図または画像上にマッピングしたクラスタリング結果を参照して判断してもよい。また,分類処理部108でクラスタリング結果の統計値等を算出して表示し,それを参照して判断してもよい。
さらに,特徴空間1803で示すように,ユーザーがノイズと判断した特徴点を除外することができる。除外した点は黒点で示している。除外する特徴点の選択は,ユーザーが画面上でマウス等により選択する。これにより,ノイズや不要な特徴点を除外することができるので,クラスタリング精度を向上することができる。
以上の処理により,ユーザーがクラスタリング結果を参照しながらクラスタリングのパラメータを設定できるため,より人の理解に近いクラスタリングを行うことができる,
次に,地図データを使用せずに対象領域を設定する例について図1および図19を参照しながら説明する。解析したい対象を森林とした場合に,森林の各樹種をサンプリング調査する例を取り上げる。
解析対象領域1901には,森林,水域,裸地等が含まれているとする。まず,対象とする森林域のみ抽出し,他領域はマスク処理を行う。マスク処理には,複数のスペクトル情報を持つ衛星画像から算出される植生指標を用いる。植生指標には,例えばNDVI(非特許文献7)を利用することで,閾値以上のNDVI値を持つ画素を植生域として抽出することができる。また,植生指標ではなく,前述のクラスタリング手法を用いて解析対象領域全体をクラスタリングし,特徴空間上で森林クラスタに所属する画素のみ抽出してもよい。また,ユーザーが目視により,画像上で対象領域をマウス等により指定することで,解析する森林領域を決定してもよい。森林領域として抽出した画素以外はマスク処理を施す。上記処理により,マスク処理画像1902が得られる。
さらに,対象領域広範囲に分布し,解析画像内が全て対象物である場合には,地図や上記マスク処理を施さずに,画像全体を対象領域としてサンプリング抽出を行うことができる。
抽出したマスク処理画像1902の森林領域に対し,特徴抽出部107から特徴量を抽出し,分類処理部108でクラスタリング処理を行い,所望のクラスタ数に分類する。クラスタリング結果を受け,空間解析部109で処理した後に,代表点抽出部110でサンプリング位置を決定する。
このように,地図が入手できない場合にも,地図を利用せずに入力画像だけで対象領域を抽出することが可能である。また,広範囲に対象領域が分布指定している場合にも,上記手法により処理を行うことができる。
Introduction to Remote Sensing, J. B. Campbell, Taylor & Francis, pp.466-468, 2002
次に,対象領域内から複数のサンプルを抽出した後に,混合して一つのサンプルとする場合の実施例について図20を参照して説明する。
混合して一つのサンプルとする場合,各サンプル地点から均等量のサンプルを採取すると対象領域の代表値とならない。そのため,各サンプル地点から適切な量のサンプルを採取することが必要となる。対象領域を前述の手法によりクラスタリングした後に代表点からサンプルを抽出する場合を考える。代表点は,特徴空間2003で示すように,あるクラスタに所属しており,クラスタリングの結果からそのクラスタに所属するデータ点数を把握できる。クラスタとクラスタに所属するデータ数は,表2006のように表現できる。ここで,データ点数とは衛星画像等のピクセル数である。全データと各クラスタに所属する点数の割合から,サンプル量を決定する。混合したサンプルの総量をxgとすると,クラス1からは0.2xg,クラス2からは0.3gというようにサンプル量を求めることができる。ここで,現場でサンプル量を正確に把握することは困難な場合が多いので,サンプル量の端数を切り上げるなどの処理を行い,サンプリングし易い値とする。このサンプル量は、出力手段によって出力され、サンプリングを行う者が把握できるようにされている。
この方法により,複数のサンプルを混合する場合でも,適切な量を決定したサンプル地点から採取することで,対象領域のばらつきを考慮した状態把握を行うことができる。
以上で本実施形態の説明を終えるが、本発明の態様はこれらに限定されるものではない。
実施例では、衛星画像等の空中写真を用いたが、地上で測定するカメラ、センサ等の画像でもよい。地図データは、地図に限らず、何らかの位置情報(緯度経度や座標など)を含むデータであってもよい。
その他、ハードウェア、プログラム等の具体的な構成について、本発明の主旨を逸脱しない範囲で適宜変更が可能である。
101…サンプリング位置決定装置、102…データ蓄積部、103…演算結果蓄積部、104…ユーザー設定部,105…データ入力部、106…画像対応部、107…特徴抽出部、108…分類処理部、109…空間解析部、110…代表点抽出部、111…結果調整部、112…画像表示部,201…ディスプレイ、202…プリンタ、203…演算部、204…メモリ、205…HDD、206…キーボード、207…マウス、401…ユーザー,402…表示画面,403…演算部,404…データ蓄積部,501…地図,502…対象ポリゴン,503…特徴空間,504…分類結果画像,505…サンプリング位置表示画像,601…特徴空間,602…特徴空間,603…分類結果画像,604…分類結果画像,605…サンプリング位置表示画像,606…クラスタ中心領域,607…クラスタ中心領域,608…クラスタ中心領域,609…クラスタ中心領域,701…中心領域設定部,801…中心領域設定部,802…最短経路探索部,901…サンプリング位置表示画像,902…道路,903…サンプリング経路,1001…地図,1002…サンプリング位置表示画像,1101…ユーザー設定画面,1201…対象ポリゴン,1202…対象ポリゴン,1203…特徴空間,1204…分類結果画像,1205…サンプリング位置表示画像,1301…画像,1302…サンプリング位置表示画像,1401…マスク処理部,1501…端末画面,1502…端末画面,1503…端末画面,1601…表示画面,1602…設定画面,1701…モバイル端末,1702…ネットワーク,1801…特徴空間,1802…特徴空間,1803…特徴空間,1901…画像,1902…画像

Claims (11)

  1. 解析対象となる画像データを入力する入力手段と、
    前記画像データと地図データの位置を対応付ける画像対応部と、
    前記画像対応部にて前記地図データと対応づけられた画像データの特徴ベクトルを抽出する手段と、
    前記抽出された特徴ベクトルを、特徴空間上でクラスタリングして特徴ベクトルの複数のクラスタを形成する分類処理部と、
    前記複数のクラスタの各々の前記特徴空間上での中心付近の特徴ベクトルを抽出して地図上にマッピングすることで各クラスタの中心に対応する中心対応領域を抽出する空間解析手段と、
    各クラスタの前記中心対応領域を構成する複数地点のうち、指定されたアクセス地点から最短距離でアクセスできる地点を順次選択する最短経路探索部を含み、選択した地点を各クラスタの代表点として抽出する代表点抽出手段と、
    前記抽出した代表点をサンプリング位置として出力する出力手段とを有することを特徴とするサンプリング位置決定装置。
  2. 前記代表点抽出手段は、一つのクラスタに属する複数の中心対応領域が抽出された場合に該複数の中心対応領域のうち最大の領域から該クラスタの代表点を抽出することを特徴とする請求項1のサンプリング位置決定装置
  3. 前記空間解析手段は、複数の地図領域における前記特徴ベクトルを抽出し、
    前記クラスタリングは、前記複数の地図領域にて抽出された特徴ベクトルについて行われ、
    前記代表点抽出手段は、前記複数の地図領域から所定の数のサンプリング地点を抽出することを特徴とする請求項1に記載のサンプリング位置決定装置。
  4. 前記入力手段にて、サンプリング数の指定を受け、
    前記出力手段は、前記入力されたサンプリング数のサンプリング位置を出力することを特徴とする請求項1記載のサンプリング位置決定装置。
  5. 前記空間解析手段は、前記画像データの対象領域を複数小領域に分け、各小領域の代表特徴量から前記特徴ベクトルを抽出することを特徴とする請求項1記載のサンプリング位置決定装置。
  6. 前記サンプリング位置決定装置は、更に、マスク処理部を有し、
    前記マスク処理部は、予めサンプリング地点の対象外となる領域をマスク処理することを特徴とする請求項1記載のサンプリング位置決定装置。
  7. 前記サンプリング位置決定装置は、更に、モバイル端末と受送信を行う受送信部を有し、
    前記受送信部は、前記モバイル端末に前記サンプリング位置の情報を送信することを特徴とする請求項1記載のサンプリング位置決定装置。
  8. 前記サンプリング位置決定装置は、更に、データ蓄積部を有し、
    前記データ蓄積部は、過去のサンプリング地点を記憶しており、
    前記出力手段は、前記過去のサンプリング地点も出力することを特徴とする請求項1記載のサンプリング位置決定装置。
  9. 前記出力手段は、前記抽出したサンプリング地点を、前記画像データおよび前記地図データに重ね合わせて表示させることを特徴とする請求項1記載のサンプリング位置決定装置。
  10. 前記クラスタリングは、前記入力手段にて設定されたクラスタ数に基づいて行われることを特徴とする請求項1記載のサンプリング位置決定装置。
  11. 前記出力手段は、混合して一つのサンプルとするための、サンプリング量を出力することを特徴とする請求項1記載のサンプリング位置決定装置。
JP2010128406A 2010-06-04 2010-06-04 サンプリング位置決定装置 Expired - Fee Related JP5542530B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010128406A JP5542530B2 (ja) 2010-06-04 2010-06-04 サンプリング位置決定装置
EP11168313.2A EP2393041B1 (en) 2010-06-04 2011-05-31 System for determining representative positions for sampled features
US13/151,585 US9098745B2 (en) 2010-06-04 2011-06-02 Sampling position-fixing system
CN201110148935.0A CN102339387B (zh) 2010-06-04 2011-06-03 取样位置决定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010128406A JP5542530B2 (ja) 2010-06-04 2010-06-04 サンプリング位置決定装置

Publications (2)

Publication Number Publication Date
JP2011252870A JP2011252870A (ja) 2011-12-15
JP5542530B2 true JP5542530B2 (ja) 2014-07-09

Family

ID=44118090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010128406A Expired - Fee Related JP5542530B2 (ja) 2010-06-04 2010-06-04 サンプリング位置決定装置

Country Status (4)

Country Link
US (1) US9098745B2 (ja)
EP (1) EP2393041B1 (ja)
JP (1) JP5542530B2 (ja)
CN (1) CN102339387B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160138969A (ko) * 2014-03-31 2016-12-06 미쓰비시 마테리알 가부시키가이샤 샘플링 위치 표시 장치, 샘플링 방법

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6060377B2 (ja) * 2012-10-31 2017-01-18 小平アソシエイツ株式会社 画像クラスタ分析装置
MX339790B (es) * 2012-11-09 2016-06-10 California Inst Of Techn Comparación, análisis automatizados de características y detección de anomalías.
JP5919212B2 (ja) * 2013-03-26 2016-05-18 富士フイルム株式会社 目視照合支援装置およびその制御方法
CN103973526B (zh) * 2014-05-19 2017-04-19 百度在线网络技术(北京)有限公司 基于网络拓扑结构的定位方法及装置
JP6546385B2 (ja) * 2014-10-02 2019-07-17 キヤノン株式会社 画像処理装置及びその制御方法、プログラム
US10817540B2 (en) * 2016-09-02 2020-10-27 Snowflake Inc. Incremental clustering maintenance of a table
US20190354781A1 (en) * 2018-05-17 2019-11-21 GM Global Technology Operations LLC Method and system for determining an object location by using map information
JP2020144609A (ja) 2019-03-06 2020-09-10 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
CN110231453A (zh) * 2019-05-31 2019-09-13 重庆工商大学融智学院 一种土壤分析大数据分析的数据获取系统
CN111581536A (zh) * 2020-03-21 2020-08-25 长沙迪迈数码科技股份有限公司 基于样品号的矿山取样登记方法、装置及存储介质
JP7201733B2 (ja) * 2021-04-16 2023-01-10 株式会社三井住友銀行 衛星データ分析装置及び衛星データ分析方法
CN118376761B (zh) * 2024-06-21 2024-09-17 山东省国土空间生态修复中心(山东省地质灾害防治技术指导中心、山东省土地储备中心) 一种基于土壤数据的检测方法、设备及介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4209852A (en) * 1974-11-11 1980-06-24 Hyatt Gilbert P Signal processing and memory arrangement
US4891762A (en) * 1988-02-09 1990-01-02 Chotiros Nicholas P Method and apparatus for tracking, mapping and recognition of spatial patterns
US5640468A (en) * 1994-04-28 1997-06-17 Hsu; Shin-Yi Method for identifying objects and features in an image
JPH0938631A (ja) * 1995-07-26 1997-02-10 Hitachi Ltd リモートセンシング応用広域水圏監視システム
JPH1125162A (ja) * 1997-07-09 1999-01-29 Fujitsu F I P Kk 環境評価システムおよび記録媒体
JP3007969B1 (ja) * 1999-02-24 2000-02-14 農林水産省農業工学研究所長 土壌生物の密度探知法
US7058197B1 (en) * 1999-11-04 2006-06-06 Board Of Trustees Of The University Of Illinois Multi-variable model for identifying crop response zones in a field
JP2002132749A (ja) * 2000-10-24 2002-05-10 Naoyuki Kamatani サンプリングバイアス評価・減少装置
JP3715589B2 (ja) * 2002-06-04 2005-11-09 独立行政法人科学技術振興機構 森林土壌の総合酸緩衝能力診断方法、森林土壌の酸性雨耐用年数診断方法、及び対象地域における診断結果の分布分析方法
US7324666B2 (en) * 2002-11-15 2008-01-29 Whitegold Solutions, Inc. Methods for assigning geocodes to street addressable entities
US7983446B2 (en) * 2003-07-18 2011-07-19 Lockheed Martin Corporation Method and apparatus for automatic object identification
EP1693783B1 (en) * 2005-02-21 2009-02-11 Mitsubishi Electric Information Technology Centre Europe B.V. Fast method of object detection by statistical template matching
US20080033935A1 (en) * 2006-08-04 2008-02-07 Metacarta, Inc. Systems and methods for presenting results of geographic text searches
JP5019025B2 (ja) * 2006-07-27 2012-09-05 シブヤ精機株式会社 土壌検査分析方法
US9115996B2 (en) * 2009-07-29 2015-08-25 Lockheed Martin Corporation Threat analysis toolkit

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160138969A (ko) * 2014-03-31 2016-12-06 미쓰비시 마테리알 가부시키가이샤 샘플링 위치 표시 장치, 샘플링 방법
KR102222783B1 (ko) * 2014-03-31 2021-03-03 미쓰비시 마테리알 가부시키가이샤 샘플링 위치 표시 장치, 샘플링 방법

Also Published As

Publication number Publication date
US20110299786A1 (en) 2011-12-08
CN102339387B (zh) 2017-04-12
EP2393041A2 (en) 2011-12-07
US9098745B2 (en) 2015-08-04
EP2393041B1 (en) 2017-03-01
JP2011252870A (ja) 2011-12-15
CN102339387A (zh) 2012-02-01
EP2393041A3 (en) 2014-10-01

Similar Documents

Publication Publication Date Title
JP5542530B2 (ja) サンプリング位置決定装置
Franklin et al. Deciduous tree species classification using object-based analysis and machine learning with unmanned aerial vehicle multispectral data
Birdal et al. Estimating tree heights with images from an unmanned aerial vehicle
Laliberte et al. Image processing and classification procedures for analysis of sub-decimeter imagery acquired with an unmanned aircraft over arid rangelands
Gillan et al. Integrating drone imagery with existing rangeland monitoring programs
JP4858793B2 (ja) 樹木本数算定方法及び樹木本数算定装置
CN109813286A (zh) 一种基于无人机的倒伏灾害遥感定损方法
Brocks et al. Toward an automated low-cost three-dimensional crop surface monitoring system using oblique stereo imagery from consumer-grade smart cameras
Ramli et al. Homogeneous tree height derivation from tree crown delineation using Seeded Region Growing (SRG) segmentation
Klabin et al. Treedetection: automatic tree detection using UAV-based data
Selim et al. Semi-automatic tree detection from images of unmanned aerial vehicle using object-based image analysis method
JP2011024471A (ja) 中間赤外域バンドを利用した森林の樹種分類
Gonzalez Musso et al. Applying unmanned aerial vehicles (UAVs) to map shrubland structural attributes in northern Patagonia, Argentina
Madec et al. VegAnn, Vegetation Annotation of multi-crop RGB images acquired under diverse conditions for segmentation
Rumora et al. Spatial video remote sensing for urban vegetation mapping using vegetation indices
van Geffen et al. SiDroForest: A comprehensive forest inventory of Siberian boreal forest investigations including drone-based point clouds, individually labelled trees, synthetically generated tree crowns and Sentinel-2 labelled image patches
Maan et al. Tree species biomass and carbon stock measurement using ground based-LiDAR
Mustafa et al. Object based technique for delineating and mapping 15 tree species using VHR WorldView-2 imagery
Dietenberger et al. Tree Stem Detection and Crown Delineation in a Structurally Diverse Deciduous Forest Combining Leaf-On and Leaf-Off UAV-SfM Data
JP5352435B2 (ja) 分類画像作成装置
Wang et al. Retrieving individual tree heights from a point cloud generated with optical imagery from an unmanned aerial vehicle (UAV)
Miraki et al. Using canopy height model derived from UAV imagery as an auxiliary for spectral data to estimate the canopy cover of mixed broadleaf forests
Aguilar-Ariza et al. UAV-based individual Chinese cabbage weight prediction using multi-temporal data
Ali-Sisto et al. Comparison of 3D point clouds from aerial stereo images and lidar for forest change detection
Iwaszenko et al. Computer Software for Selected Plant Species Segmentation on Airborne Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140507

R150 Certificate of patent or registration of utility model

Ref document number: 5542530

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees