JP2020091640A - 物体分類システム、学習システム、学習データ生成方法、学習済モデル生成方法、学習済モデル、判別装置、判別方法、およびコンピュータプログラム - Google Patents

物体分類システム、学習システム、学習データ生成方法、学習済モデル生成方法、学習済モデル、判別装置、判別方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP2020091640A
JP2020091640A JP2018228120A JP2018228120A JP2020091640A JP 2020091640 A JP2020091640 A JP 2020091640A JP 2018228120 A JP2018228120 A JP 2018228120A JP 2018228120 A JP2018228120 A JP 2018228120A JP 2020091640 A JP2020091640 A JP 2020091640A
Authority
JP
Japan
Prior art keywords
distribution
contour
learning
learning data
learned model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018228120A
Other languages
English (en)
Inventor
信徳 大西
Nobunori Onishi
信徳 大西
武史 伊勢
Takeshi Ise
武史 伊勢
庄五郎 藤木
Shogoro FUJIKI
庄五郎 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University NUC
Original Assignee
Kyoto University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University NUC filed Critical Kyoto University NUC
Priority to JP2018228120A priority Critical patent/JP2020091640A/ja
Publication of JP2020091640A publication Critical patent/JP2020091640A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】森林の樹木などの物体を分類することができる環境を従来よりも低いコストで用意する。【解決手段】上空からのテスト領域80の写真またはテスト領域80の各地点の高さの分布である第一の分布と各地点の勾配の分布である第二の分布とに基づいて、テスト領域80に存在する複数の物体それぞれの輪郭を特定し、特定された輪郭ごとに、所定の複数の種類のうちの輪郭に存在する物体の種類に対応するラベルを付与し、輪郭ごとに、写真の中の各輪郭に囲まれた部分の部分画像および各輪郭に付与されたラベルを示す学習データを生成し、学習データそれぞれに示される部分画像およびラベルをそれぞれ入力および正解として用いて学習済モデルを生成する。【選択図】図1

Description

本発明は、森林の樹木などの物体を分類する技術に関する。
従来、森林に植えられている樹木を、森林をセンシングして得たデータに基づいて自動的に分類することが、多くの科学者や森林の管理者から求められている。
そこで、非特許文献1に記載される通り、ハイパースペクトルカメラ、マルチスペクトルカメラ、またはLiDAR(Light Detection and Ranging)センサなどの特殊なハードウェアで森林の情報を取得し、樹木の種類を特定する方法が、提案されている。
"Review of studies on tree species classification from remotely sensed data." Remote Sensing of Environment Sensing of Environment Sensing of Environment Sensing of Environment Sensing of Environment Sensing of Environment , 186 , 64 -87.,Fassnacht, F. E., Latifi, H., Sterenczak, K., Modzelewska, A., Lefsky, M., Waser, L. T., ... & Ghosh, A. 2016年著
しかし、上述のハードウェアは高価なので、上述の方法で森林の樹木を分類するのにコストが嵩んでしまう。
本発明は、このような問題点に鑑み、従来よりも低いコストで森林の樹木を分類できるようにすることを、目的とする。
本発明の一形態に係る物体分類システムは、上空からの第一の領域の第一の写真、当該第一の領域の各地点の高さの分布である第一の高さ分布、および当該各地点の勾配の分布である第一の勾配分布に基づいて、当該第一の領域に存在する複数の物体それぞれの第一の輪郭を特定する、第一の特定手段と、前記第一の特定手段によって特定された前記第一の輪郭ごとに、所定の複数の種類のうちの当該第一の輪郭に存在する物体の種類に対応するラベルを付与する付与手段と、前記第一の輪郭ごとに、前記第一の写真の中の当該第一の輪郭に囲まれた部分の部分画像および当該第一の輪郭に付与された前記ラベルを示す学習データを生成する、学習データ生成手段と、前記学習データそれぞれに示される前記部分画像および前記ラベルをそれぞれ問題および解答として用いて学習済モデルを生成する、学習手段と、上空からの第二の領域の第二の写真、当該第二の領域の各地点の高さの分布である第二の高さ分布、および当該各地点の勾配の分布である第二の勾配分布に基づいて、当該第二の領域に存在する複数の物体それぞれの第二の輪郭を特定する、第二の特定手段と、前記第二の特定手段によって特定された前記第二の輪郭ごとに、前記複数の種類のうちの当該第二の輪郭に存在する物体の種類を、前記第二の写真の中の当該第二の輪郭に囲まれた部分の画像および前記学習済モデルに基づいて判別する判別手段と、を有する。
本発明の一形態に係る学習システムは、上空からの領域の写真、当該領域の各地点の高さの分布である第一の分布、および当該各地点の勾配の分布である第二の分布に基づいて、当該領域に存在する複数の物体それぞれの輪郭を特定する、特定手段と、前記特定手段によって特定された前記輪郭ごとに、所定の複数の種類のうちの当該輪郭に存在する物体の種類に対応するラベルを付与する付与手段と、前記輪郭ごとに、前記写真の中の当該輪郭に囲まれた部分の部分画像および当該輪郭に付与された前記ラベルを示す学習データを生成する、学習データ生成手段と、前記学習データそれぞれに示される前記部分画像および前記ラベルをそれぞれ入力および正解として用いて学習済モデルを生成する、学習手段と、を有する。
本発明によると、従来よりも低いコストで森林の樹木などの物体を分類することができる。
樹木分類システムの全体的な構成の例を示す図である。 コンピュータのハードウェア構成の例を示す図である。 コンピュータの機能的構成の例を示す図である。 空中写真の例を示す図である。 学習データ生成部の構成の例を示す図である。 オルソ写真を生成する方法の例を示す図である。 オルソ写真、表層モデル、およびスロープモデルそれぞれの一部分の例を示す図である。 キャノピマップ一部分の例を示す図である。 ポリゴンデータの例を示す図である。 地上検証マップ一部分の例を示す図である。 境界付写真一部分の例を示す図である。 物体データの例を示す図である。 物体データを増やす方法の例を示す図である。 樹木分類部の例を示す図である。 樹木分布マップ一部分の例を示す図である。 樹木分類プログラムによる処理の流れの例を説明するフローチャートである。 学習データセット生成処理の流れの例を説明するフローチャートである。 樹木分類処理の流れの例を説明するフローチャートである。
〔全体の構成〕
図1は、樹木分類システム3の全体的な構成の例を示す図である。図2は、コンピュータ1のハードウェア構成の例を示す図である。図3は、コンピュータ1の機能的構成の例を示す図である。
図1に示すように、樹木分類システム3は、コンピュータ1およびドローン2などによって構成される。樹木分類システム3は、上空からの写真に写っている樹木をAI(Artificial Intelligence)によって分類するサービスを提供する。
ドローン2は、デジタルカメラが搭載されたUAV(Unmanned Aerial Vehicle)であって、森林を上空から撮影することによって学習データの基となるカラー写真を取得するために用いられる。ドローン2は、市販のものでよく、例えば、DJI社のPHANTOM 4が用いられる。
コンピュータ1は、図2に示すように、プロセッサ10、RAM(Random Access Memory)11、ROM(Read Only Memory)12、補助記憶装置13、ネットワークアダプタ14、キーボード15、ポインティングデバイス16、入出力ボード17、タッチパネルディスプレイ18、および音声出力ユニット19などによって構成される。
ROM12または補助記憶装置13には、オペレーティングシステムのほか種々のプログラムがインストールされている。特に、本実施形態では、樹木分類プログラム4(図3参照)がインストールされている。補助記憶装置13として、SSD(Solid State Drive)またはハードディスクなどが用いられる。
RAM11は、コンピュータ1のメインメモリである。RAM11には、オペレーティングシステムのほか樹木分類プログラム4などのプログラムがロードされる。
プロセッサ10は、RAM11にロードされたプログラムを実行する。プロセッサ10として、GPU(Graphics Processing Unit)またはCPU(Central Processing Unit)などが用いられる。
ネットワークアダプタ14は、TCP/IP(Transmission Control Protocol/Internet Protocol)などのプロトコルでドローン2など他の装置と通信するための装置である。ネットワークアダプタ14として、Wi−Fi用の子機が用いられる。
キーボード15およびポインティングデバイス16は、コマンドまたはデータなどをオペレータが入力するための入力装置である。
入出力ボード17は、ドローン2と有線または無線を介して通信する。入出力ボード17として、例えば、HDMI(High-Definition Multimedia Interface)(登録商標)、USB(Universal Serial Bus)、またはBluetooth(登録商標)に準拠した入出力ボードが用いられる。
タッチパネルディスプレイ18は、コマンドもしくはデータを入力するための画面またはプロセッサ10によって生成されたマップなどを表示する。
音声出力ユニット19は、音声ボードおよびスピーカなどによって構成され、警告音などの音声を出力する。
樹木分類プログラム4は、図3に示す学習データ生成部41、学習データ記憶部42、樹木分類学習部43、学習済モデル記憶部44、樹木分類部45、樹木分布マップ生成部46、樹木分布マップ出力部47などを実現するためのコンピュータプログラムである。
以下、ドローン2および図3に示す各部の処理を、学習のフェーズおよび推論のフェーズに大別して説明する。
〔学習のフェーズ〕
(1) データセットの準備
図4は、空中写真60の例を示す図である。図5は、学習データ生成部41の構成の例を示す図である。図6は、オルソ写真62を生成する方法の例を示す図である。図7は、オルソ写真62、表層モデル63、およびスロープモデル64それぞれの一部分の例を示す図である。図8は、キャノピマップ65の一部分の例を示す図である。図9は、ポリゴンデータ6Tの例を示す図である。図10は、地上検証マップ66の一部分の例を示す図である。図11は、境界付写真67の一部分の例を示す図である。図12は、物体データ70の例を示す図である。図13は、物体データ70を増やす方法の例を示す図である。
ドローン2は、例えば次のように学習データの基となるデジタルカラー写真を取得し、コンピュータ1へ送信する。
オペレータは、予めドローン2の飛行の高度を地上から所定の高さ(例えば、80メートル)に設定する。さらに、ドローン2による撮影の範囲を特定の領域に設定する。特定の領域は、大学または営林局などが運営する起伏の少ない森林の全部分または特定の一部分であって、特定の複数の種類の樹木が植えられている。以下、この特定の領域を「テスト領域80」と記載する。
本実施形態では、テスト領域80の広さは、約10ヘクタールである。テスト領域80には、「落葉広葉樹(deciduous broad-leaved tree)」、「メタセコイヤ(deciduous coniferous tree)」、「常緑広葉樹(evergreen broad-leaved tree)」、「ヒノキ(Chamaecyparis obtuse)」、「スラッシュマツ等(Pinus elliottii and Pinus taeda)」、および「ストローブマツ(Pinus strobus)」の6種類それぞれの樹木が植えられている。さらに、このテスト領域80には、人工物が設置されている部分、裸地、または下層植生など、樹木が植えられていない部分が含まれる。このような部分は、「その他(other)」という種類に分類される。
設定が完了したら、オペレータは、撮影のコマンドをドローン2に入力する。すると、ドローン2は、離陸し、地上から所定の高さまで上昇し、テスト領域80を撮影する。ただし、1回の撮影でテスト領域80の全体を撮影することができないので、少しずつ水平に移動しながらテスト領域80を一部分ずつ撮影する。これにより、図4のような複数のデジタルカラー写真が得られる。以下、これらのデジタルカラー写真を「空中写真60」と記載する。なお、ドローン2は、隣り合う2つの空中写真60同士がオーバラップするように撮影する。例えば、隣り合う2つの空中写真60の80%ずつがオーバラップするように撮影する。なお、撮影は特定の時期(例えば、秋)に行うのが望ましい。
さらに、ドローン2は、空中写真60ごとに、撮影時におけるドローン2の位置情報6L(例えば、経緯度)を測定する。
そして、ドローン2は、これらの空中写真60を、JPEG(Joint Photographic Experts Group)またはビットマップなどRGB(Red Green Blue)対応のフォーマットの画像データとしてコンピュータ1へ送信するとともに、空中写真60ごとの位置情報6LをCSV(Comma Separated Value)フォーマットなどの位置データとしてコンピュータ1へ送信する。
なお、オペレータの操作に依らずドローン2が自動的に飛行し撮影するために、DroneDeploy社のDroneDeploy v2.66 によってドローン2を制御してもよい。また、位置の測定の精度を向上させるために、ドローン2は、GCP(Ground Control Point)を複数(例えば、10個)使用してもよい。
また、ドローン2からコンピュータ1へ空中写真60および位置情報6Lを直接送信するのではなく、スマートフォンまたはタブレットコンピュータなどの端末装置に一旦、記憶させ、端末装置からコンピュータ1へ送信してもよい。または、ドローン2が着陸した後、空中写真60および位置情報6Lを纏めてコンピュータ1へ送信してもよい。
コンピュータ1において、これらの空中写真60および位置情報6Lが入力されると、図3の学習データ生成部41によって学習データが次のように生成される。
学習データ生成部41は、図5に示すように、オルソ写真生成部501、表層モデル生成部502、スロープモデル生成部503、キャノピマップ生成部504、ポリゴン属性記憶部505、ラベル付与処理部506、ポリゴン画像抽出部507、物体データ生成部508、および類似データ生成部509などによって構成される。
オルソ写真生成部501は、これらの空中写真60および位置情報6Lに基づいてテスト領域80全体を表わす1つのオルソ写真62を生成する。ここで、図6を参照しながらオルソ写真62の生成の方法の一例を説明する。
オルソ写真生成部501は、これらの空中写真60に対して、歪みをなくす補正処理を施す。この歪みは、ドローン2のデジタルカメラのレンズの中心から被写体までの距離の違いによって生じる位置ズレである。この補正処理は、「正斜変換」または「正斜投影」などと呼ばれる。この補正処理によって、空中写真60それぞれから補正写真61が生成される。そして、これらの補正写真61を、位置情報6Lに基づいてテスト領域80におけるそれぞれの位置に応じて結合することによって、オルソ写真62を生成する。
オルソ写真生成部501の代わりに、既存のソフトウェアによってオルソ写真62を生成してもよい。例えば、Agisoft社のAgisoft Photoscan Professional v1.3.4によって生成してもよい。
表層モデル生成部502は、オルソ写真62に基づいて表層モデル63を生成する。表層モデル63は、テスト領域80のDEM(Digital Elevation Model)であって、テスト領域80の、樹木および人工物などを含めた表面の形状を表わす。「DSM(Digital Surface Model)」と呼ばれることもある。高さ(Elevation)に応じて着色すると、表層モデル63は、図7のように表われる。
表層モデル63は、公知の方法によって生成することができる。例えば、補正写真61またはオルソ写真62によって生成すればよい。テスト領域80の各地点の表層は複数の補正写真61に表われているので、これらの補正写真61を用いて三角測量によって表層モデル63を生成することができる。または、レーザ計測器などの深度計がドローン2に備わっている場合は、これを用いて表層モデル63を生成してもよい。
表層モデル63も、オルソ写真62と同様に、既存のソフトウェア、例えば、Agisoft Photoscan Professional v1.3.4によって生成してもよい。
オルソ写真62および表層モデル63それぞれの解像度は、例えば、5センチメートル/ドットおよび9センチメートル/ドットである。
スロープモデル生成部503は、表層モデル63に基づいてスロープモデル64を生成する。スロープモデル64は、テスト領域80の、植物および人工物などを含めた表面の各地点の勾配の大きさを表わす。各地点の勾配の大きさは、公知の方法によって例えば次のように算出することができる。
スロープモデル生成部503は、表層モデル63のドットごとに、前後左右それぞれに隣接する4つのドットとの間の高さの変化率(rate of elevation change)の絶対値を求める。そして、4つの絶対値のうち最も大きいものを、そのドットにおける勾配の大きさとして採用する。勾配の大きさに応じて着色すると、スロープモデル64は、図7のように表われる。
例えば、あるドットP0(x,y)の高さがE0であり、ドットP1(x−1,y)、ドットP2(x+1,y)、ドットP3(x,y−1)、およびドットP4(x,y+1)それぞれの高さがE1、E2、E3、およびE4であり、かつ、隣り合う2つのドットそれぞれの中心同士の距離が「D」であれば、スロープモデル生成部503は、|E1−E0|/D、|E2−E0|/D、|E3−E0|/D、および|E4−E0|/D、のうちの最も大きい値をドットPにおける勾配の大きさとして算出する。
スロープモデル生成部503の代わりに、既存のソフトウェアによって表層モデル63からスロープモデル64を生成してもよい。例えば、環境システム研究所社のArcGIS v10.4によって生成してもよい。
キャノピマップ生成部504は、図8のようなキャノピマップ65を生成する。キャノピマップ65には、テスト領域80に植えられている樹木それぞれのキャノピ(樹冠)の輪郭が、ポリゴン65Aとして表われている。
ところで、オルソ写真62、表層モデル63、およびスロープモデル64のそれぞれには、テスト領域80に植えられている各樹木の輪郭を特定するための手掛かりが含まれている。
例えば、オルソ写真62において、ある樹木と他の物体(人工物、他の樹木、または裸地など)との境界およびその近隣は、他の部分とはRGB各色の階調またはその変化の仕方が相違する。しかし、この相違だけでは、輪郭を特定することが難しい。
また、表層モデル63において、ある樹木と他の物体との境界およびその近隣は、他の部分とは高さまたはその変化の仕方が相違する。しかし、この相違だけでは、輪郭を特定することが難しい。
また、スロープモデル64において、ある樹木と他の物体との境界およびその近隣は、他の部分とは勾配またはその変化の仕方が相違する。しかし、この相違だけでは、輪郭を特定することが難しい。
このように、オルソ写真62、表層モデル63、およびスロープモデル64には、輪郭を特定するための手掛かりが含まれているが、個々の手掛かりだけでは、輪郭を特定することが難しい。
そこで、キャノピマップ生成部504は、オルソ写真62の赤の階調のみの写真(赤画像62R)、緑の階調のみの写真(緑画像62G)、青の階調のみの写真(青画像62B)、表層モデル63、およびスロープモデル64に基づいてキャノピマップ65を例えば次のように生成する。
キャノピマップ生成部504は、赤画像62Rの中から、輪郭である可能性が一定の値以上であるドットを擬輪郭ドットとして特定し、擬輪郭ドットの分布を表わす疑輪郭マップを生成する。緑画像62G、青画像62B、表層モデル63、およびスロープモデル64についても同様に、それぞれの中から、輪郭である可能性が一定の値以上であるドットを擬輪郭ドットとして特定し、疑輪郭マップを生成する。これにより、5つの疑輪郭マップが生成される。
そして、キャノピマップ生成部504は、5つの疑輪郭マップを重ね合わせ、所定の個数(例えば、3つ)以上の擬輪郭ドットが重なった部分の分布を表わすマップをキャノピマップ65として生成する。
なお、キャノピマップ65の生成は、赤画像62R、緑画像62G、青画像62B、表層モデル63、およびスロープモデル64それぞれの解像度を統一してから行うのが望ましい。
または、キャノピマップ65を、既存のソフトウェアによって生成してもよい。例えば、オルソ写真62、表層モデル63、およびスロープモデル64を入力データとしてTrimble社のeCognition Developer v9.0.0を用いて多重解像度セグメンテーション(Multiresolution Segmentation)のアルゴリズムによってキャノピマップ65を生成してもよい。このアルゴリズムには、「Baatz & Schape 2000」が採用されている。
より輪郭が好適に得られるように、各入力データの重みを調整してもよい。例えば、赤画像62R、緑画像62G、青画像62B、表層モデル63、およびスロープモデル64の重みをそれぞれ、「1」、「1」、「1」、「2」、および「3」に調整する。重みは、実験を繰り返しながら調整すればよい。また、キャノピマップ65が生成された後、不備のあるポリゴン65Aをオペレータが修正してもよい。
さらに、キャノピマップ生成部504は、各ポリゴン65Aにユニークな識別コードを付与する。そして、ポリゴン65Aごとに、図9(A)のような、そのポリゴン65Aの識別コード、形状、およびキャノピマップ65における位置を示すポリゴンデータ6Tを生成し、ポリゴン属性記憶部505に記憶させる。
ラベル付与処理部506は、キャノピマップ65の中の各ポリゴン65Aに対して、そのポリゴン65Aが表わす物体の種類に対応したラベル6Sを付与する。本実施形態では、「落葉広葉樹」、「メタセコイヤ」、「常緑広葉樹」、「ヒノキ」、「スラッシュマツ等」、「ストローブマツ」、および「その他」それぞれのラベル6Sとして、「クラス_1」、「クラス_2」、「クラス_3」、「クラス_4」、「クラス_5」、「クラス_6」、および「クラス_7」が予め定義されている。
ポリゴン65Aへのラベル6Sの付与は、図9(B)のように、そのポリゴン65Aのポリゴンデータ6Tにラベル6Sを書き加えることによって、行えばよい。例えば、ポリゴン65Aaがメタセコイヤを表わすものである場合は、ラベル付与処理部506は、ポリゴン65Aaのポリゴンデータ6Tにラベル6Sとして「クラス_2」を書き加える。
キャノピマップ65に、各ポリゴン65Aに付与したラベル6Sごとに異なる色を付けることによって、図10のような地上検証マップ(Ground Truth Map)66が生成される。また、オルソ写真62の上にキャノピマップ65を重ねることによって、図11のような、樹木および人工物などの物体の、上空からの様子および境界線を表わす境界付写真67が生成される。
ところで、ラベル付与処理部506には、ポリゴン65Aをその形状に応じて上記の7つの種類のうちのいずれかに分類するための手段(例えば、分類器)が備わっていないことがある。そこで、ラベル付与処理部506がキャノピマップ65、地上検証マップ66、または境界付写真67をタッチパネルディスプレイ18に表示させ、すべてのポリゴン65Aをオペレータに分類させてもよい。そして、ラベル付与処理部506は、オペレータによる分類の結果に応じて各ポリゴン65Aにラベル6Sを付与すればよい。
または、すべてのポリゴン65Aのうちの幾つか(例えば、全体の0.5〜1割程度)をオペレータが分類した後、ラベル付与処理部506が、分類結果を学習データとして用いて機械学習することによって分類器を生成し、分類器によって残りを分類してもよい。この方法は、既存のソフトウェアを用いて行うことができる。例えば、フォレストマッピングのための最近傍分類をeCognitionに適用することによって、一部のポリゴン65Aを分類し、地上検証マップ66を生成してもよい。この方法は、2014年にMachalaおよびZejdovaによって提案されたものである。
ポリゴン画像抽出部507は、各ポリゴン65Aのポリゴンデータ6Tに基づいて、オルソ写真62から各ポリゴン65Aの画像をポリゴン画像6Pとして抽出する。具体的には、ポリゴン65Aa、65Ab、65Ac、…ごとに、オルソ写真62における区域を特定し、特定した区域の画像をポリゴン画像6Pa、6Pb、6Pc、…として抽出する。
物体データ生成部508は、ポリゴン65Aごとに、そのポリゴン65Aに基づいて抽出されたポリゴン画像6Pの画像データおよびそのポリゴン65Aに対して付与されたラベル6Sのラベルデータを含む物体データ70を生成する。これにより、ポリゴン65Aごとに、図12のような、多数の物体データ70が生成される。
そして、物体データ生成部508は、これらの物体データ70を学習データ記憶部42に記憶させる。例えば、ポリゴン65AがN個ある場合は、N個の物体データ70が生成され、学習データ記憶部42に記憶される。これらの物体データ70は、後述するように、機械学習のためのデータセットとして用いられる。
これらの物体データ70だけでは、データセットの個数が十分でない場合がある。そこで、類似データ生成部509は、より多くのデータセットを得るために、これらのポリゴン画像6Pそれぞれの類似する画像を生成することによって、物体データ70を増やす処理を行う。以下、この処理の方法を、あるポリゴン画像6Pkを用いる場合を例に図13を参照しながら説明する、
類似データ生成部509は、ポリゴン画像6Pkのコピーを複数、生成し、各コピーをそれぞれ異なる角度で回転させることによって回転画像6Pkxを生成する。これらの角度はランダムに決定してもよいし、規則的に決定してもよい。本例では回転画像6Pkxを3つ生成しているが、4つ以上生成してもよい。例えば、15〜20個程度、生成してもよい。
さらに、類似データ生成部509は、回転画像6Pkxごとに、その回転画像6Pkxの画像データおよびオリジナル(本例では、ポリゴン画像6Pk)のラベル6Sのラベルデータを含む類似物体データ70xを生成する。そして、これらの類似物体データ70xを物体データ70として学習データ記憶部42に記憶させる。
類似データ生成部509は、ポリゴン画像6Pk以外のポリゴン画像6Pについても同様に、図13で説明した処理を行う。
(2) 機械学習の実行
図3の樹木分類学習部43は、学習データ記憶部42から物体データ70を読み出し、これらの物体データ70を用いて機械学習を行うことによって、樹木の種類を識別するための学習済モデル72を生成する。物体データ70の中の画像データが入力(説明変数)のデータとして用いられ、ラベルデータが正解(目的変数)のデータとして用いられる。
機械学習の際に、これらの物体データ70のうちの、クラス_1ないしクラス_7それぞれのRa%分が学習データとして用いられ、クラス_1ないしクラス_7それぞれのRb%分が検証データとして用いられ、クラス_1ないしクラス_7それぞれのRc%分がテストデータとして用いられる。ただし、(Ra+Rb+Rc)=100、である。例えば、Ra=50、Rb=25、Ra=25、である。どの物体データ70を学習データ、検証データ、およびテストデータのうちのいずれのデータとして用いるのかは、ランダムに決定すればよい。
機械学習は、ディープラーニングなどの教師あり学習の手法によって行われる。公知のアプリケーションを使用して機械学習を行ってもよい。例えば、nVIDIA社のDIGITs 5.0を使用すればよい。DIGITs 5.0には、複数のフレームワークおよび複数の学習ネットワークが組み込まれているが、本実施形態では、フレームワークとしてCaffeが用いられ、学習ネットワークとしてGoogLeNetが用いられる。他のフレームワークまたは学習ネットワークが用いられてもよい。
また、機械学習を開始する前に、樹木分類学習部43は、すべてのポリゴン画像6Pのサイズを所定の大きさに統一してもよい。例えば、256×256ピクセルに統一するために、それぞれのポリゴン画像6Pの周囲のピクセルに特定の画素(例えば、黒色の画素)を配置する。そして、サイズを統一した後、上述の要領で機械学習を実行することによって学習済モデル72を生成する。学習済モデル72は、学習済モデル記憶部44に記憶される。
〔推論のフェーズ〕
図14は、樹木分類部45の例を示す図である。図15は、樹木分布マップ68の一部分の例を示す図である。
樹木分類部45は、推論の対象の森林に植えられている樹木を、学習済モデル72を用いて分類する。樹木分類部45は、図14に示すように、オルソ写真生成部521、表層モデル生成部522、スロープモデル生成部523、キャノピマップ生成部524、ポリゴン属性記憶部525、ポリゴン画像抽出部526、および樹木種類判別部527などによって構成される。
以下、樹木分類部45の各部による処理を、テスト領域80とは異なる対象領域82の樹木を分類する場合を例に説明する。
ドローン2は、テスト領域80の空中写真60および位置情報6Lを取得する方法と同様の方法で、対象領域82の空中写真60’および位置情報6L’を取得する。そして、空中写真60’および位置情報6L’をコンピュータ1へ送信する。なお、対象領域82の撮影は、テスト領域80の撮影の時期と同じであるのが望ましい。
オルソ写真生成部521は、図5のオルソ写真生成部501が空中写真60および位置情報6Lに基づいてオルソ写真62を生成する方法と同様の方法で(図6参照)、対象領域82のオルソ写真62’を生成する。なお、コンピュータ1以外の装置で生成されたオルソ写真をオルソ写真62’として用いてもよい。
表層モデル生成部522は、表層モデル生成部502がオルソ写真62に基づいて表層モデル63を生成する方法と同様の方法で、オルソ写真62’に基づいて対象領域82の表層モデル63’を生成する。
スロープモデル生成部523は、スロープモデル生成部503が表層モデル63に基づいてスロープモデル64を生成する方法と同様の方法で、表層モデル63’に基づいて対象領域82のスロープモデル64’を生成する。
キャノピマップ生成部524は、キャノピマップ生成部504がオルソ写真62、表層モデル63、およびスロープモデル64に基づいてキャノピマップ65を生成する方法と同様の方法で、オルソ写真62’、表層モデル63’、およびスロープモデル64’に基づいて対象領域82のキャノピマップ65’を生成する。この際に、キャノピマップ65’の中のポリゴン65A’ごとに、そのポリゴン65A’の識別コード、形状、およびキャノピマップ65’における位置を示すポリゴンデータ6T’を生成し、ポリゴン属性記憶部525に記憶させる。
ポリゴン画像抽出部526は、ポリゴン画像抽出部507がオルソ写真62からポリゴン65Aごとのポリゴン画像6Pを抽出する方法と同様の方法で、各ポリゴン65A’のポリゴンデータ6T’に基づいて、オルソ写真62’から各ポリゴン65A’の画像をポリゴン画像6P’として抽出する。これにより、対象領域82に存在する個々の物体(樹木または人工物など)ごとのポリゴン画像6P’が抽出される。
樹木種類判別部527は、ポリゴン画像6P’それぞれが表わす物体の種類を、ポリゴン画像6P’を推論入力データとして用いて学習済モデル72に基づいて判別する。本実施形態では、「落葉広葉樹」、「メタセコイヤ」、「常緑広葉樹」、「ヒノキ」、「スラッシュマツ等」、「ストローブマツ」、および「その他」のうちのいずれであるかを判別する。
そして、樹木種類判別部527は、各ポリゴン画像6P’のポリゴン65A’のポリゴンデータ6T’に、分類先の種類に対応するラベルをラベル6S’として書き加える。例えば、ポリゴン画像6Pr’が表わす物体がストローブマツであると判別した場合は、ポリゴン65Ar’のポリゴンデータ6T’にラベル6S’として「クラス_6」を書き加える。
このように、樹木分類部45によると、オルソ写真62’に写っている各物体が7つの種類のいずれかに分類される。
樹木分布マップ生成部46は、ポリゴンデータ6T’に基づいて、図15のような樹木分布マップ68を生成する。樹木分布マップ68は、地上検証マップであって、キャノピマップ65’に、各ポリゴン65A’に付与したラベル6S’ごとに異なる色を付けることによって、生成される。
樹木分布マップ出力部47は、樹木分布マップ68をタッチパネルディスプレイ18に表示する。オルソ写真62’およびキャノピマップ65’を樹木分布マップ68と並べて表示してもよい。または、オルソ写真62’にキャノピマップ65’を重ねたものを、樹木分布マップ68と並べて表示してもよい。
〔全体的な処理の流れ〕
図16は、樹木分類プログラム4による処理の流れの例を説明するフローチャートである。図17は、学習データセット生成処理の流れの例を説明するフローチャートである。図18は、樹木分類処理の流れの例を説明するフローチャートである。
次に、コンピュータ1による全体的な処理の流れを、図16〜図18のフローチャートを参照しながら説明する。コンピュータ1は、樹木分類プログラム4に基づいて、図16に示す手順で処理を実行する。
コンピュータ1は、テスト領域80のデジタルカラー写真に基づいて機械学習用のデータセットを、図17に示す手順で生成する(図16の#101)。
コンピュータ1は、ドローン2から複数の空中写真60を取得し、これらの空中写真60を用いてオルソ写真62を生成する(図17の#121)。オルソ写真62を生成する方法の一例は、図6で説明した通りである。
コンピュータ1は、オルソ写真62に基づいて表層モデル63を生成し(#122)、表層モデル63に基づいてスロープモデル64を生成する(#123)。オルソ写真62、表層モデル63、およびスロープモデル64に基づいて、図8のようなキャノピマップ65を生成する(#124)。
コンピュータ1は、キャノピマップ65の中のポリゴン65Aごとに、オルソ写真62からポリゴン画像6Pを抽出するとともに(#125)、ポリゴン画像6Pが表わす物体の種類に対応するラベル6Sを付与する(#126)。そして、ポリゴン65Aごとに、抽出したポリゴン画像6Pおよび付与したラベル6Sを示す物体データ70を生成する(#127)。
さらに、コンピュータ1は、図13で説明した方法で、回転させたポリゴン画像6Pおよびラベル6Sを示す類似物体データ70xを生成する(#128)。
図16に戻って、コンピュータ1は、生成した物体データ70を学習データ記憶部42に保存する(#102)。類似物体データ70xも、物体データ70として学習データ記憶部42に保存する。
コンピュータ1は、学習データ記憶部42に保存した物体データ70のうちの一部を学習データとして使用し、他の一部を検証データとして使用し、残りをテストデータとして使用することによって、ディープラーニングの手法に基づいて機械学習を行う(#103)。これにより、学習済モデル72が生成される。生成した学習済モデル72を学習済モデル記憶部44に保存する(#104)。
コンピュータ1は、対象領域82のデジタルカラー写真に基づいて対象領域82の樹木を、図18に示す手順で分類する(#105)。
コンピュータ1は、ドローン2から複数の空中写真60’を取得し、これらの空中写真60’を用いてオルソ写真62’を生成する(図18の#131)。
コンピュータ1は、オルソ写真62’に基づいて表層モデル63’を生成し(#132)、表層モデル63’に基づいてスロープモデル64’を生成する(#133)。オルソ写真62’、表層モデル63’、およびスロープモデル64’に基づいてキャノピマップ65’を生成する(#134)。
さらに、コンピュータ1は、キャノピマップ65’の中のポリゴン65A’ごとに、オルソ写真62’からポリゴン画像6P’を抽出するとともに(#135)、ポリゴン画像6P’が表わす物体の種類を学習済モデル72に基づいて判別する(#136)。そして、ポリゴン65A’ごとに、判別結果に基づいてポリゴンデータ6T’を生成する(#137)。
図16に戻って、コンピュータ1は、生成したポリゴンデータ6T’に基づいて図15のような樹木分布マップ68を生成し(#106)、表示する(#107)。
本実施形態によると、機械学習のための学習データを生成するに当たり、ドローン2で撮影して得た複数の空中写真60からテスト領域80全体のオルソ写真62を生成し、さらに表層モデル63およびスロープモデル64を生成した。そして、オルソ写真62、表層モデル63、およびスロープモデル64に基づいて学習データとして物体データ70を生成した。
しかも、ドローン2によると有人航空機よりも低い高度で撮影することができるので、有人航空機から撮影する場合よりも安価なデジタルカメラを使用することができる。
よって、本実施形態によると、従来のように高価なハードウェアを用いることなく学習データを取得し、学習済モデルを生成することができる。
〔変形例〕
本実施形態では、コンピュータ1を、対象領域82に存在する樹木を分類するために用いたが、他の物体を分類するために用いてもよい。例えば、草原に分布する草花、低木、動物の住処(蟻塚、モグラの巣などの、動物の巣)、または地形などを分類するために用いてもよい。または、岩石を分類するために用いてもよい。
いずれの種類を分類する場合も、コンピュータ1およびドローン2は、基本的に本実施形態と同様の処理を行えばよい。
ただし、草花を分類する場合は、ドローン2は、樹木を分類する場合よりも低い高度で撮影を行うことによって空中写真60を収集する。草花の形状はビルの形状のように急傾斜が生じているので、本実施形態と同様にスロープモデルを用いることが有効的であるが、樹木よりも小さいので、草花のサイズに合わせて高度を下げて撮影するのが望ましい。低木を分類する場合および湖沼の植物(例えば、葦)を分類する場合も、同様である。
一方、地形(湖沼、平野、丘陵、河川)を分類する場合は、ドローン2は、樹木を分類する場合よりも高い高度で撮影を行うことによって空中写真60を収集してもよい。または、解像度を下げて空中写真60を収集してもよい。そのほか、地形に現われている火山岩、半深成岩、深成岩、堆積岩などの岩石を分類してもよい。
本実施形態では、キャノピマップ65を生成する際の、赤画像62R、緑画像62G、青画像62B、表層モデル63、およびスロープモデル64の重みの比を1:1:1:2:3に設定したが、赤画像62R、緑画像62G、青画像62Bの重みよりも表層モデル63の重みのほうが大きく、かつ、表層モデル63の重みよりもスロープモデル64の重みのほうが大きければ、他の比であってもよい。例えば、1:1:1:1.5:2であってもよい。または1:1:1:2.5:3.5であってもよい。赤画像62R、緑画像62G、青画像62Bの比も、1:1:1以外であってもよい。例えば、0.9:1:1.1であってもよい。
または、赤画像62R、緑画像62G、および青画像62Bの重みをゼロにしてもよい。つまり、オルソ写真62を用いずに表層モデル63およびスロープモデル64に基づいてキャノピマップ65を生成してもよい。または、表層モデル63の重みをゼロにしてもよい。つまり、表層モデル63を用いずにオルソ写真62およびスロープモデル64に基づいてキャノピマップ65を生成してもよい。
アリ塚のような、色の特徴が小さいが三次元形状の特徴が顕著であるオブジェクトを分類する場合は、オルソ写真62および表層モデル63のいずれか一方のみおよびスロープモデル64に基づいてキャノピマップ65を生成しても、一定の精度の結果が得られる。
本実施形態では、1つの時期にテスト領域80を撮影したが、複数の時期それぞれに撮影してもよい。以下、複数の時期に撮影する際の処理について、春夏秋冬の4つの時期に撮影する場合を例に説明する。
コンピュータ1は、4つの時期それぞれのオルソ写真62を、それぞれの時期の空中写真60に基づいて生成する。いずれかの時期のオルソ写真62に基づいてキャノピマップ65を生成する。4つの時期それぞれのオルソ写真62から、ポリゴン65Aごとにポリゴン画像6Pを抽出する。さらに、ポリゴン65Aごとにラベル6Sを付与する。
コンピュータ1は、ポリゴン65Aごとに、抽出した4つの時期それぞれのポリゴン画像6Pと付与したラベル6Sとを示すデータセットを物体データ70として生成し、学習データ記憶部42によって記憶する。さらに、4つの時期それぞれのポリゴン画像6Pを回転させた画像と付与したラベル6Sとを示すデータセットを類似物体データ70xとして生成し、物体データ70として学習データ記憶部42によって記憶する。
そして、コンピュータ1は、これらの物体データ70に基づいて学習済モデル72を生成する。つまり、入力(説明変数)として、4つの時期それぞれのポリゴン画像6Pの組合せを用いて機械学習を行う。
次に、対象領域82の樹木分布マップ68を生成する際に、コンピュータ1は、対象領域82の4つの時期それぞれのオルソ写真62’を、それぞれの時期の空中写真60’に基づいて生成する。4つの時期それぞれのオルソ写真62’から、ポリゴン65A’ごとにポリゴン画像6P’を抽出する。
そして、コンピュータ1は、抽出した4つのポリゴン画像6P’の組合せを推論入力データとして用い、学習済モデル72によって、4つのポリゴン画像6P’が表わす物体の種類を判別する。
本実施形態では、図3に示した各手段をコンピュータ1に集約したが、複数の装置に分散してもよい。例えば、学習データ生成部41を第一のコンピュータに設け、学習データ記憶部42を第一のファイルサーバに設け、樹木分類学習部43を第二のコンピュータに
藻池、学習済モデル記憶部44を第二のファイルサーバに藻池、樹木分類部45、樹木分布マップ生成部46、および樹木分布マップ出力部47を第三のコンピュータに設けてもよい。
その他、樹木分類システム3、コンピュータ1の全体または各部の構成、処理内容、処理順序、データベースの構成などは、本発明の趣旨に沿って適宜変更することができる。
1 コンピュータ(物体分類システム、学習装置、学習データ生成装置、判別装置)
10 プロセッサ
14 ネットワークアダプタ(入力手段)
17 入出力ボード(入力手段)
2 ドローン
4 樹木分類プログラム(コンピュータプログラム)
43 樹木分類学習部(学習手段)
44 学習済モデル記憶部(記録手段)
45 樹木分類部(判別手段)
504 キャノピマップ生成部(第一の特定手段、特定手段)
506 ラベル付与処理部(付与手段)
508 物体データ生成部(学習データ生成手段)
509 類似データ生成部(第二の学習データ生成手段)
524 キャノピマップ生成部(第二の特定手段)
60 空中写真(部分写真)
62 オルソ写真(第一の写真、写真)
62B 青画像
62G 緑画像
62R 赤画像
62’ オルソ写真(第二の写真)
63 表層モデル(第一の高さ分布、第一の分布)
63’ 表層モデル(第二の高さ分布)
64 スロープモデル(第一の勾配分布、第二の分布)
64’ スロープモデル(第二の勾配分布)
65A ポリゴン(第一の輪郭、輪郭)
65A’ ポリゴン(第二の輪郭)
6S ラベル
70 物体データ(学習データ)
70x 類似物体データ(第二の学習データ)
72 学習済モデル
80 テスト領域(第一の領域、領域)
82 対象領域(第二の領域)

Claims (16)

  1. 上空からの第一の領域の第一の写真および当該第一の領域の各地点の高さの分布である第一の高さ分布のうちの少なくとも1つと当該各地点の勾配の分布である第一の勾配分布とに基づいて、当該第一の領域に存在する複数の物体それぞれの第一の輪郭を特定する、第一の特定手段と、
    前記第一の特定手段によって特定された前記第一の輪郭ごとに、所定の複数の種類のうちの当該第一の輪郭に存在する物体の種類に対応するラベルを付与する付与手段と、
    前記第一の輪郭ごとに、前記第一の写真の中の当該第一の輪郭に囲まれた部分の部分画像および当該第一の輪郭に付与された前記ラベルを示す学習データを生成する、学習データ生成手段と、
    前記学習データそれぞれに示される前記部分画像および前記ラベルをそれぞれ問題および解答として用いて学習済モデルを生成する、学習手段と、
    上空からの第二の領域の第二の写真、当該第二の領域の各地点の高さの分布である第二の高さ分布、および当該各地点の勾配の分布である第二の勾配分布に基づいて、当該第二の領域に存在する複数の物体それぞれの第二の輪郭を特定する、第二の特定手段と、
    前記第二の特定手段によって特定された前記第二の輪郭ごとに、前記複数の種類のうちの当該第二の輪郭に存在する物体の種類を、前記第二の写真の中の当該第二の輪郭に囲まれた部分の画像および前記学習済モデルに基づいて判別する判別手段と、
    を有することを特徴とする物体分類システム。
  2. 上空からの領域の写真および当該領域の各地点の高さの分布である第一の分布のうちの少なくとも1つと当該各地点の勾配の分布である第二の分布とに基づいて、当該領域に存在する複数の物体それぞれの輪郭を特定する、特定手段と、
    前記特定手段によって特定された前記輪郭ごとに、所定の複数の種類のうちの当該輪郭に存在する物体の種類に対応するラベルを付与する付与手段と、
    前記輪郭ごとに、前記写真の中の当該輪郭に囲まれた部分の部分画像および当該輪郭に付与された前記ラベルを示す学習データを生成する、学習データ生成手段と、
    前記学習データそれぞれに示される前記部分画像および前記ラベルをそれぞれ入力および正解として用いて学習済モデルを生成する、学習手段と、
    を有することを特徴とする学習システム。
  3. 前記特定手段は、前記写真として、ドローンによって前記領域を一部分ずつ撮影して得られた部分写真に基づいて作成したオルソ写真を用いて前記輪郭を特定する、
    請求項2に記載の学習システム。
  4. 前記特定手段は、前記写真に基づいて前記第一の分布を算出し、前記第一の分布に基づいて前記第二の分布を算出し、前記写真ならびに算出した当該第一の分布および当該第二の分布に基づいて前記輪郭を特定する、
    請求項2または請求項3に記載の学習システム。
  5. 前記特定手段は、前記写真の、3原色のうちの赤色のみの階調で表わされる赤画像、緑色のみの階調で表わされる緑画像、および青色のみの階調で表わされる青画像と、前記第一の分布と、前記第二の分布と、に基づいて前記輪郭を特定する、
    請求項2ないし請求項4のいずれかに記載の学習システム。
  6. 前記特定手段は、前記赤画像、前記緑画像、および前記青画像に対する重みよりも大きい重みを前記第一の分布に対して掛け、前記第二の分布に対してさらに大きい重みを掛けて、前記輪郭を特定する、
    請求項5に記載の学習システム。
  7. 前記輪郭ごとに、当該輪郭の前記部分画像を回転させた第二の部分画像および当該輪郭に付与された前記ラベルを示す第二の学習データを生成する、第二の学習データ生成手段、を有し、
    前記学習手段は、前記第二の学習データそれぞれに示される前記第二の部分画像および前記ラベルをそれぞれ入力および正解としてさらに用いて前記学習済モデルを生成する、
    請求項2ないし請求項6のいずれかに記載の学習システム。
  8. 前記写真として、撮影された時期の異なる複数の時期別写真を入力する、入力手段、
    を有し、
    前記学習データ生成手段は、前記学習データとして、前記部分画像および前記複数の時期別写真のうちの当該部分画像の基の時期別写真が撮影された撮影時期ならびに前記ラベルを示すデータを生成し、
    前記学習手段は、前記部分画像および前記撮影時期を入力として用い前記ラベルを正解として用いて前記学習済モデルを生成する、
    請求項2ないし請求項7のいずれかに記載の学習システム。
  9. 前記領域は、森林であり、
    前記複数の種類は、複数の樹木の種類を含む、
    請求項2ないし請求項8のいずれかに記載の学習システム。
  10. 上空からの領域の写真および当該領域の各地点の高さの分布である第一の分布のうちの少なくとも1つと当該各地点の勾配の分布である第二の分布とに基づいて、当該領域に存在する複数の物体それぞれの輪郭を特定し、
    特定された前記輪郭ごとに、所定の複数の種類のうちの当該輪郭に存在する物体の種類に対応するラベルを付与し、
    前記輪郭ごとに、前記写真の中の当該輪郭に囲まれた部分の部分画像および当該輪郭に付与された前記ラベルを示す学習データを生成する、
    ことを特徴とする学習データ生成方法。
  11. 請求項10に記載の学習データ生成方法で生成された学習データを使用して学習済モデルを生成する学習済モデル生成方法。
  12. 前記学習データそれぞれに示される前記部分画像および前記ラベルをそれぞれ入力および正解として用いて学習済モデルを生成する、
    請求項11に記載の学習済モデル生成方法。
  13. 請求項10に記載の学習システムによって生成された、
    学習済モデル。
  14. 請求項11または請求項13に記載の学習済モデル生成方法で生成された学習済モデルを記録した記録手段と、
    前記学習済モデルを用いて入力データに示される物体の種類を判別する判別手段と、
    を有することを特徴とする判別装置。
  15. 請求項11または請求項13に記載の学習済モデル生成方法で生成された学習済モデルを用いて入力データに示される物体の種類を判別する、
    ことを特徴とする判別方法。
  16. 物体が所定の複数の種類のうちのいずれに該当するのかを決定するための学習済モデルを生成するコンピュータに用いられるコンピュータプログラムであって、
    前記コンピュータに、
    上空からの領域の写真および当該領域の各地点の高さの分布である第一の分布のうちの少なくとも1つと当該各地点の勾配の分布である第二の分布とに基づいて、当該領域に存在する複数の物体それぞれの輪郭を特定する処理を実行させ、
    特定された前記輪郭ごとに、前記複数の種類のうちの当該輪郭に存在する物体の種類に対応するラベルを付与する処理を実行させ、
    前記輪郭ごとに、前記写真の中の当該輪郭に囲まれた部分の部分画像および当該輪郭に付与された前記ラベルを示す学習データを生成する処理を実行させ、
    前記学習データそれぞれに示される前記部分画像および前記ラベルをそれぞれ入力および正解として用いて学習済モデルを生成する処理を実行させる、
    ことを特徴とするコンピュータプログラム。
JP2018228120A 2018-12-05 2018-12-05 物体分類システム、学習システム、学習データ生成方法、学習済モデル生成方法、学習済モデル、判別装置、判別方法、およびコンピュータプログラム Pending JP2020091640A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018228120A JP2020091640A (ja) 2018-12-05 2018-12-05 物体分類システム、学習システム、学習データ生成方法、学習済モデル生成方法、学習済モデル、判別装置、判別方法、およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018228120A JP2020091640A (ja) 2018-12-05 2018-12-05 物体分類システム、学習システム、学習データ生成方法、学習済モデル生成方法、学習済モデル、判別装置、判別方法、およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2020091640A true JP2020091640A (ja) 2020-06-11

Family

ID=71012869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018228120A Pending JP2020091640A (ja) 2018-12-05 2018-12-05 物体分類システム、学習システム、学習データ生成方法、学習済モデル生成方法、学習済モデル、判別装置、判別方法、およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2020091640A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220004491A (ko) * 2020-07-03 2022-01-11 국민대학교산학협력단 인공지능 기반 수목 데이터 관리 시스템 및 수목 데이터 관리 방법
JP7193824B1 (ja) 2022-06-21 2022-12-21 株式会社アドイン研究所 森林計測用ドローン、ドローンシステム、及び、プログラム
WO2024100866A1 (ja) * 2022-11-10 2024-05-16 日本電信電話株式会社 学習装置、建造物領域分類装置、学習方法、建造物領域分類方法、及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344048A (ja) * 2002-05-22 2003-12-03 Pasuko:Kk 森林情報処理システム
JP2006285310A (ja) * 2005-03-31 2006-10-19 Kanazawa Univ 森林の樹冠の評価方法及びその樹冠評価プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003344048A (ja) * 2002-05-22 2003-12-03 Pasuko:Kk 森林情報処理システム
JP2006285310A (ja) * 2005-03-31 2006-10-19 Kanazawa Univ 森林の樹冠の評価方法及びその樹冠評価プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
内田 祐介: "畳み込みニューラルネットワークの研究動向", 電子情報通信学会技術研究報告, vol. 第117巻,第362号, JPN6022049240, 10 December 2017 (2017-12-10), JP, pages 25 - 38, ISSN: 0005063331 *
安川 雅紀: "ドローンを用いた生物多様性研究のためのモザイク画像作成に関する検討", 第9回データ工学と情報マネジメントに関するフォーラム (第15回日本データベース学会年次大会) [O, JPN6022049241, 27 February 2017 (2017-02-27), JP, ISSN: 0005063330 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220004491A (ko) * 2020-07-03 2022-01-11 국민대학교산학협력단 인공지능 기반 수목 데이터 관리 시스템 및 수목 데이터 관리 방법
KR102517513B1 (ko) * 2020-07-03 2023-04-03 국민대학교산학협력단 인공지능 기반 수목 데이터 관리 시스템 및 수목 데이터 관리 방법
JP7193824B1 (ja) 2022-06-21 2022-12-21 株式会社アドイン研究所 森林計測用ドローン、ドローンシステム、及び、プログラム
JP2024000709A (ja) * 2022-06-21 2024-01-09 株式会社アドイン研究所 森林計測用ドローン、ドローンシステム、及び、プログラム
WO2024100866A1 (ja) * 2022-11-10 2024-05-16 日本電信電話株式会社 学習装置、建造物領域分類装置、学習方法、建造物領域分類方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP7113044B2 (ja) 航空画像からの自動物体検出のための方法およびシステム
KR102154950B1 (ko) 무인 비행체에 의해 촬영된 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법 및 장치
US11769225B2 (en) Image processing apparatus, image processing method, and program
JP2020091640A (ja) 物体分類システム、学習システム、学習データ生成方法、学習済モデル生成方法、学習済モデル、判別装置、判別方法、およびコンピュータプログラム
CN111275015A (zh) 一种基于无人机的电力巡线电塔检测识别方法及系统
US11995805B2 (en) Imputation of 3D data using generative adversarial networks
US10089418B2 (en) Structure model segmentation from a three dimensional surface
JP5352435B2 (ja) 分類画像作成装置
KR102587445B1 (ko) 드론을 이용하여 시계열정보가 포함된 3차원 지도의 제작 방법
Wijesingha Geometric quality assessment of multi-rotor unmanned aerial vehicle borne remote sensing products for precision agriculture
Pratama et al. An Overview of Generating VR Models for Disaster Zone Reconstruction Using Drone Footage
TW202125324A (zh) 航拍影像自動物體偵測之方法及系統
Garg Understanding Geospatial Data
CN111750830A (zh) 地块测绘方法及测绘系统
Maguire Using Unmanned Aerial Vehicles and" Structure from Motion" Software to Monitor Coastal Erosion in Southeast Florida
WO2023053485A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
Permana et al. Analysis of aerial photography with unmanned aerial vehicle (uav) using ecognition developer to estimate the number of trees in the forest area
JP2023135210A (ja) クラス推論システム、学習装置、推論システム、クラス推論方法、およびコンピュータプログラム
Loor et al. Aerial and Satellite Imagery and Big Data: Blending Old Technologies
Yudhistira Kurniawan et al. Mangrove Tree Density Detector using YOLO Based on Darknet Framework using RGB Drone Imagery
Dindaroğlu et al. Determination of the actual land use pattern using unmanned aerial vehicles and multispectral camera
KR20240005607A (ko) 무인 비행체 촬영 영상의 이미지 정합 방법 및 이를위한 장치
Piech et al. The use of UAV data for photogrammetric documentation
Lentz et al. High-resolution orthomosaic image (natural color) of Black Beach, Falmouth, Massachusetts on 18 March 2016 (32-bit GeoTIFF)
CN116843843A (zh) 一种行军道路沿线三维场景仿真方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20181218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230523