JP2023170710A - 撮影支援装置、撮影支援方法、および、撮影支援プログラム - Google Patents

撮影支援装置、撮影支援方法、および、撮影支援プログラム Download PDF

Info

Publication number
JP2023170710A
JP2023170710A JP2022082657A JP2022082657A JP2023170710A JP 2023170710 A JP2023170710 A JP 2023170710A JP 2022082657 A JP2022082657 A JP 2022082657A JP 2022082657 A JP2022082657 A JP 2022082657A JP 2023170710 A JP2023170710 A JP 2023170710A
Authority
JP
Japan
Prior art keywords
timing
photographing
target area
support device
satellite image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022082657A
Other languages
English (en)
Inventor
幸宏 内田
Yukihiro Uchida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yokogawa Electric Corp
Original Assignee
Yokogawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yokogawa Electric Corp filed Critical Yokogawa Electric Corp
Priority to JP2022082657A priority Critical patent/JP2023170710A/ja
Priority to US18/314,130 priority patent/US20230379574A1/en
Priority to EP23172105.1A priority patent/EP4280175A1/en
Priority to CN202310567412.2A priority patent/CN117092071A/zh
Publication of JP2023170710A publication Critical patent/JP2023170710A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/55Specular reflectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1793Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】複数の衛星画像間における撮影環境の違いが解析結果に影響を及ぼすことを低減する撮影支援装置、撮影支援方法及び撮影支援プログラムを提供する。【解決手段】リモートセンシングシステム1において、撮影支援装置100は、対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得する第1情報取得部110と、対象エリアにおける撮影環境を時系列に予測した予測結果を取得する予測結果取得部120と、予測結果に基づいて、第1のタイミングとの間における撮影環境の類似度を時系列に算出する算出部130と、類似度に基づいて、対象エリアの衛星画像を撮影すべき第2のタイミングを決定する決定部140と、第2のタイミングを示す第2の情報を出力する第2情報出力部150と、を備える。【選択図】図1

Description

本発明は、撮影支援装置、撮影支援方法、および、撮影支援プログラムに関する。
特許文献1には、「被雲が一定比率以上かかった衛星画像は使い物にならないから、当該領域の回収できる点数はほぼ0になるように調整する」と記載されている。
[先行技術文献]
[特許文献]
[特許文献1] 特開2020-173604
[特許文献2] 特開2015-028759
[特許文献3] 特開2021-006017
本発明の第1の態様においては、撮影支援装置を提供する。前記撮影支援装置は、対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得する第1情報取得部と、前記対象エリアにおける撮影環境を時系列に予測した予測結果を取得する予測結果取得部と、前記予測結果に基づいて、前記第1のタイミングとの間における撮影環境の類似度を時系列に算出する算出部と、前記類似度に基づいて、前記対象エリアの衛星画像を撮影すべき第2のタイミングを決定する決定部と、前記第2のタイミングを示す第2の情報を出力する第2情報出力部と、を備える。
前記撮影支援装置において、前記撮影環境には、前記対象エリアにおける土壌の水分量を示す指数が少なくとも含まれてもよい。
前記撮影支援装置のいずれかは、気象データを取得する気象データ取得部と、前記気象データに基づいて前記指数を予測する予測部と、を更に備えてもよい。
前記撮影支援装置のいずれかにおいて、前記予測部は、タンクモデルを用いて前記指数を予測してもよい。
前記撮影支援装置のいずれかにおいて、前記決定部は、前記第1のタイミングとの間において前記指数の差が予め定められた基準を満たす候補タイミングの中から、前記第2のタイミングを決定してもよい。
前記撮影支援装置のいずれかにおいて、前記第2情報出力部は、前記対象エリアを前記第2のタイミングで撮影することを依頼する撮影依頼コマンドを出力してもよい。
前記撮影支援装置のいずれかは、前記対象エリアを前記第1のタイミングで撮影した第1の衛星画像データを取得する第1画像取得部と、前記対象エリアを前記第2のタイミングで撮影した第2の衛星画像データを取得する第2画像取得部と、を更に備えてもよい。
前記撮影支援装置のいずれかは、前記第1の衛星画像データおよび前記第2の衛星画像データを解析する画像解析部を更に備えてもよい。
前記撮影支援装置のいずれかにおいて、前記画像解析部は、前記第1の衛星画像データおよび前記第2の衛星画像データの差分に基づいて、前記対象エリアにおける植生の変化を検出してもよい。
前記撮影支援装置のいずれかは、前記植生の変化が予め定められた基準を超える場合に、アラートを発生する解析結果出力部を更に備えてもよい。
本発明の第2の態様においては、撮影支援方法を提供する。前記撮影支援方法は、コンピュータにより実行され、前記コンピュータが、対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得することと、前記対象エリアにおける撮影環境を時系列に予測した予測結果を取得することと、前記予測結果に基づいて、前記第1のタイミングとの間における撮影環境の類似度を時系列に算出することと、前記類似度に基づいて、前記対象エリアの衛星画像を撮影すべき第2のタイミングを決定することと、前記第2のタイミングを示す第2の情報を出力することと、を備える。
本発明の第3の態様においては、撮影支援プログラムを提供する。前記撮影支援プログラムは、コンピュータにより実行され、前記コンピュータを、対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得する第1情報取得部と、前記対象エリアにおける撮影環境を時系列に予測した予測結果を取得する予測結果取得部と、前記予測結果に基づいて、前記第1のタイミングとの間における撮影環境の類似度を時系列に算出する算出部と、前記類似度に基づいて、前記対象エリアの衛星画像を撮影すべき第2のタイミングを決定する決定部と、前記第2のタイミングを示す第2の情報を出力する第2情報出力部と、して機能させる。
なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る撮影支援装置100が含まれてよい撮影システム1のブロック図の一例を示す。 水・土壌・植物の分光反射特性の一例を示す。 本実施形態に係る撮影支援装置100が実行してよい撮影支援方法のフローの一例を示す。 本実施形態の変形例に係る撮影支援装置100が含まれてよい撮影システム1のブロック図の一例を示す。 タンクモデルの一例を示す。 本実施形態の他の変形例に係る撮影支援装置100が含まれてよい撮影システム1のブロック図の一例を示す。 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ9900の例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態に係る撮影支援装置100が含まれてよいリモートセンシングシステム1のブロック図の一例を示す。なお、これらブロックは、それぞれ機能的に分離された機能ブロックであって、実際の装置構成とは必ずしも一致していなくてもよい。すなわち、本図において、1つのブロックとして示されているからといって、それが必ずしも1つの装置により構成されていなくてもよい。また、本図において、別々のブロックとして示されているからといって、それらが必ずしも別々の装置により構成されていなくてもよい。これより先のブロック図についても同様である。
リモートセンシングにおいて、異なる時点に撮影された複数の衛星画像を解析して、地表の変化を捉えることが試みられている。しかしながら、衛星画像の撮影にあたっては、撮影環境が時々刻々と変化する。そのため、複数の衛星画像間における撮影環境の違いが解析結果に影響を及ぼし得る。本実施形態に係る撮影支援装置100は、例えばこのような影響を低減させるよう、衛星画像の撮影を支援する。リモートセンシングシステム1には、衛星10と、地上局20と、処理局30と、データベース40と、撮影支援装置100とが含まれている。
衛星10は、電波、赤外線、および、可視光を用いて地球を観測する人工衛星であり、地球観測衛星やリモートセンシング衛星とも呼ばれる。衛星10は、地上局20と通信可能であり、例えば、衛星画像の撮影を指令するコマンドを地上局20から受信して、当該コマンドに応じて撮影した衛星画像のデータを地上局20へ送信する。
地上局20は、衛星10と通信するために地上に設けられた施設であり、衛星通信施設とも呼ばれる。地上局20は、衛星10と通信可能であり、例えば、衛星画像の撮影が依頼されると、衛星画像の撮影を指令するコマンドを衛星10へ送信して、当該コマンドに応じて撮影された衛星画像のデータを衛星10から受信する。
なお、衛星10と地上局20との間の通信においては、種々の変復調や電力増幅が実行されてよい。また、衛星10と地上局20とは、他の装置を介することなく直接的に通信可能であってもよいし、図示せぬ他の装置(例えば、通信衛星)を介して間接的に通信可能であってもよい。地上局20は、受信した衛星画像データを処理局30へ供給する。
処理局30は、衛星画像データに対して種々の処理を施す。例えば、処理局30は、地上局20から供給された衛星画像データを、予め定められた大きさで切り出してよい。また、処理局30は、衛星画像データに対して、衛星10に搭載されたセンサの感度、太陽の位置や角度、および、大気の条件等による放射量の歪みを補正(ラジオメトリック補正)してよい。また、処理局30は、衛星画像データに対して、地球の自転や湾曲による影響、および、衛星10の姿勢変化等を補正(幾何補正)してよい。処理局30は、補正された衛星画像データを、撮影された日時や補正した際の情報等のメタデータとともにデータベース40へ格納する。
データベース40には、衛星画像データが保存される。例えば、データベース40には、処理局30から供給された衛星画像データとメタデータとが対応付けて保存されてよい。ユーザは、データベース40に保存されるこのようなデータを、例えば、衛星運用機関や代理店などを通じて、取得または購入することができる。
撮影支援装置100は、PC(パーソナルコンピュータ)、タブレット型コンピュータ、スマートフォン、ワークステーション、サーバコンピュータ、または汎用コンピュータ等のコンピュータであってよく、複数のコンピュータが接続されたコンピュータシステムであってもよい。このようなコンピュータシステムもまた広義のコンピュータである。また、撮影支援装置100は、コンピュータ内で1または複数実行可能な仮想コンピュータ環境によって実装されてもよい。これに代えて、撮影支援装置100は、撮影の支援用に設計された専用コンピュータであってもよく、専用回路によって実現された専用ハードウェアであってもよい。また、インターネットに接続可能な場合、撮影支援装置100は、クラウドコンピューティングにより実現されてもよい。
撮影支援装置100は、撮影環境の予測結果に基づいて衛星画像を撮影すべきタイミングを決定し、これを出力する。これにより、撮影支援装置100は、衛星画像の撮影を支援する。撮影支援装置100は、第1情報取得部110と、予測結果取得部120と、算出部130と、決定部140と、第2情報出力部150とを備える。
第1情報取得部110は、対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得する。ここで、対象エリアとは、ユーザがリモートセンシングしたいと望む関心領域(AOI:Area of Interest)である。このような対象エリアの衛星画像を、衛星10が任意の時点(「第1のタイミング」と呼ぶ。)において撮影したとする。このような場合、第1情報取得部110は、当該第1のタイミングを示す情報を第1の情報として取得してよい。なお、第1情報取得部110が第1の情報を取得する時点においては、必ずしも撮影が完了している必要はない。すなわち、第1情報取得部110が第1の情報を取得する時点においては、対象エリアを第1のタイミングで撮影することが確定してさえいればよく(例えば、地上局20に依頼済みであればよく)、衛星10が対象エリアの撮影を実際に完了したかどうかは問わないものと解釈されてよい。第1情報取得部110は、取得した第1の情報を予測結果取得部120へ供給する。
予測結果取得部120は、対象エリアにおける撮影環境を時系列に予測した予測結果を取得する。例えば、予測結果取得部120は、第1情報取得部110により取得された第1の情報が示す第1のタイミングを起点として、対象エリアにおける撮影環境を時系列に予測した予測結果を取得してよい。このような撮影環境には、対象エリアにおける土壌の水分量を示す指数が少なくとも含まれてよい。これについては、詳細を後述する。なお、「時系列」とは、異なる複数の時点(少なくとも2つの時点)における系列を意味し、時点間の間隔が一定である場合に限らず、間隔が一定でない場合(いわゆる、点過程)をも含むものと解釈されてよい。予測結果取得部120は、取得した予測結果を算出部130へ供給する。
算出部130は、予測結果に基づいて、第1のタイミングとの間における撮影環境の類似度を時系列に算出する。例えば、算出部130は、予測結果取得部120により取得された予測結果に基づいて、第1情報取得部110により取得された第1の情報が示す第1のタイミングとの間における撮影環境の類似度を時系列に算出してよい。算出部130は、算出した類似度を決定部140へ供給する。
決定部140は、類似度に基づいて、対象エリアの衛星画像を撮影すべき第2のタイミングを決定する。例えば、決定部140は、算出部130により算出された類似度に基づいて、対象エリアの衛星画像を撮影すべき第2のタイミングを決定してよい。決定部140は、決定した第2のタイミングを第2情報出力部150へ通知する。
第2情報出力部150は、第2のタイミングを示す第2の情報を出力する。例えば、第2情報出力部150は、決定部140により決定された第2のタイミングを示す第2の情報を出力してよい。
このような撮影支援装置100の動作について、詳細に説明する。これより先、撮影支援装置100を、リモートセンシングのうちの、可視・反射赤外リモートセンシングに適用する場合を一例として説明する。したがって、撮影支援装置100が撮影を支援する衛星画像は、マルチスペクトル画像であってよい。このようなマルチスペクトル画像は、地表を構成する様々な物体(水、土壌、および、植物等)により反射された異なるスペクトルの電磁波を記録する。しかしながら、これに限定されるものではない。撮影支援装置100を、熱赤外リモートセンシングやマイクロ波リモートセンシング等、他のリモートセンシングに適用することもできる。
図2は、水・土壌・植物の分光反射特性の一例を示す。本図において、横軸は、電磁波の波長を[μm]を単位として示している。また、本図において、縦軸は、反射率を示している。本図に示されるように、分光反射特性は、各物体におけるスペクトル毎の反射率の特性を示している。地表を構成する物体は、種類によってスペクトル毎の反射率の特性がそれぞれ異なる。例えば、「水」は、可視域(0.4~0.7μm)を主な反射領域とする。「土壌」は、波長が長くなるにつれて反射が強くなる傾向があり、短波長赤外域(1.3~3μm)を主な反射領域とする。「植物」は、光合成色素の働きで可視域を効率的に吸収するとともに、近赤外域(0.7~1.3μm)を反射する特性を持つ。
異なる波長帯の電磁波を記録するマルチスペクトル画像は、このような物体のスペクトル反射特性を把握するために重要なデータといえる。マルチスペクトル画像の持つ異なる波長帯の情報を用いて演算することで、地表の物体の特徴をうまく捉えることができる。このような演算をバンド間演算と呼ぶ。一例として、リモートセンシングによる植生モニタリングにおいては、植物の分光反射特性を利用した正規化植生指数(NDVI:Normalized Difference Vegetation Index)という指標が広く用いられている。
NDVIは、数式「NDVI=(NIR-RED)/(NIR+RED)」により算出される。ここで、NIRは近赤外域の反射率、REDは可視域赤の反射率を示している。すなわち、NDVIは、植物によって反射される近赤外バンドと赤色バンドの反射率の差を和で除したものである。NDVIは、-1から1の値に正規化された数値で示され、植生が濃いほど値が大きくなる。このようなNDVIを、植生の量や活性度の高さを示す指標として用いて、植生の変化を捉えることが試みられている。
しかしながら、このような指標は、衛星画像の撮影環境に起因して様々な誤差を含み得る。一例として、衛星10から地表の植物を撮影する場合、植物の隙間から土壌が見える部分が存在し得る。しかしながら、土壌の状態(例えば、水分量)は、時々刻々と変化し得る。このような変化は、近赤外域や可視域の反射率にも影響を及ぼし得、当然、これらを基に算出されるNDVIにも誤差となって表れ得る。したがって、このような撮影環境の違いが解析結果に与える影響を低減させることが、地表の変化を捉える上で重要といえる。本実施形態に係る撮影支援装置100は、例えばこのような影響を低減させるよう、衛星画像の撮影を支援する。
図3は、本実施形態に係る撮影支援装置100が実行してよい撮影支援方法のフローの一例を示す。撮影支援装置100は、例えば本フローにより第2の情報を出力することで、衛星画像の撮影を支援してよい。
ステップS310において、撮影支援装置100は、第1の情報を取得する。例えば、第1情報取得部110は、対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得してよい。一例として、ユーザが、対象エリアを、住所、地名、目標物、郵便番号等の各種情報により指定、または、当該各種情報に対してジオコーディングによって付与された地理座標(例えば、緯度・経度)により指定したとする。そして、ユーザが、このように指定した対象エリアの衛星画像を、任意の時点(例えば、2022年10月1日9時00分)に撮影することを地上局20に依頼したとする。このような場合、第1情報取得部110は、第1タイミング=2022年10月1日9時00分を示す情報を第1の情報として取得してよい。この際、第1情報取得部110は、このような第1の情報を、ユーザ入力を介して取得してもよいし、地上局20への撮影依頼コマンドから取得してもよい。また、このような撮影依頼に基づいて撮影された衛星画像(「第1の衛星画像」と呼ぶ。)のデータ(「第1の衛星画像データ」と呼ぶ。)がデータベース40に保存済みの場合には、第1情報取得部110は、第1の情報を、第1の衛星画像データに対応付けてデータベース40に保存されているメタデータから取得してもよい。第1情報取得部110は、取得した第1の情報を、対象エリアを指定する情報とともに、予測結果取得部120へ供給する。
ステップS320において、撮影支援装置100は、予測結果を取得する。例えば、予測結果取得部120は、対象エリアにおける撮影環境を時系列に予測した予測結果を取得してよい。一例として、予測結果取得部120は、ステップS310において取得された第1の情報が示す第1のタイミングを起点として、対象エリアにおける撮影環境を予め定められた対象期間(例えば、1ヵ月。すなわちここでは、2022年10月1日9時00分~2022年11月1日9時00分)に亘り時系列に予測した予測結果を取得してよい。この際、予測結果取得部120は、このような予測結果を取得するにあたり、気象庁、民間気象業務支援センター、および、気象事業者等(「気象庁等」と呼ぶ。)のホームページへアクセスしてよい。次に、予測結果取得部120は、対象エリア、対象期間、および、気象データの種別を検索キーとして、気象庁等のデータベースを検索してよい。そして、予測結果取得部120は、検索されたデータを、例えば、CSV(Comma Separated Value)ファイルとしてダウンロードしてよい。予測結果取得部120は、例えばこのようにして得られた気象データを、予測結果として取得してよい。
ここで、予測結果は、衛星画像の撮影に影響を及ぼす様々な撮影環境を示し得る、1または複数の指標を含んでいてよい。このような指標としては、例えば、天気、雲、気温、湿度、降水量、日照時間、風速、風向等が挙げられる。また、上述のとおり、植生をモニタリングする場合、土壌の水分量がNDVIに誤差となって表れ得る。したがって、予測結果は、土壌の水分量を示す指数、例えば、土壌雨量指数が含まれているとよい。予測結果取得部120は、例えばこのような予測結果を気象庁等から取得してよい。予測結果取得部120は、取得した予測結果を算出部130へ供給する。
ステップS330において、撮影支援装置100は、類似度を算出する。例えば、算出部130は、ステップS320において取得された予測結果に基づいて、ステップS310において取得された第1の情報が示す第1のタイミングとの間における撮影環境の類似度を時系列に算出してよい。一例として、ステップS320において取得された予測結果が複数の指標を含む場合、予測結果は指標毎の値を示す多次元のデータとなる。この場合、算出部130は、第1のタイミングを基準として指標毎にデータ間の距離を時系列に算出してよい。このようなデータ間の距離は、値が小さいほど撮影環境が第1のタイミングと類似していることを示すものである。
そして、算出部130は、指標毎に算出された距離を重み付け加算してよい。この際、算出部130は、衛星画像の撮影に影響を及ぼす度合いに応じて指標毎の重みを設定してよい。また、算出部130は、重要であると考えられる指標については、制約条件を設けてもよい。例えば、土壌の水分量が重要であると考えられる場合、算出部130は、土壌雨量指数についての距離が予め定められた閾値以上となる場合に、加重平均が十分大きな値となるように土壌雨量指数についての重みの関数を設定してよい。これにより、算出部130は、土壌の水分量が第1のタイミングと類似しないタイミングについては、候補タイミングとして選択されないように除外することができる。算出部130は、例えばこのようにして算出した加重平均を類似度として決定部140へ供給する。
ステップS340において、撮影支援装置100は、第2のタイミングを決定する。例えば、決定部140は、ステップS330において算出された類似度に基づいて、第2の衛星画像を撮影すべき第2のタイミングを決定してよい。一例として、決定部140は、ステップS330において算出された加重平均が予め定められた閾値未満となるタイミングを、候補タイミングとして選択してよい。そして、決定部140は、他の様々な条件(例えば、衛星10の軌道条件やメンテナンス条件等)を考慮して、候補タイミングの中から、第2のタイミングを決定してよい。
ここで、上述のように、土壌の水分量が制約条件として設けられる場合、加重平均が予め定められた閾値未満となる候補タイミングは、土壌の水分量を示す指数の差が、第1のタイミングとの間において予め定められた基準を満たすタイミングということができる。したがって、決定部140は、第1のタイミングとの間において、土壌の水分量を示す指数の差が予め定められた基準を満たす候補タイミングの中から、第2のタイミングを決定することとなる。
なお、このような第2のタイミングは、1つの時点だけではなく、複数の時点(連続的な期間であってもよいし、離散した複数時点の集合であってもよい。)を含んでいることが好ましい。これにより、衛星10が何らかの理由により決定された第2のタイミングで撮影ができないという事態を回避することができる、決定部140は、決定した第2のタイミングを第2情報出力部150へ通知する。
ステップS350において、撮影支援装置100は、第2の情報を出力する。例えば、第2情報出力部150は、ステップS140において決定された第2のタイミングを示す第2の情報を出力してよい。この際、第2情報出力部150は、一例として、第2の情報をモニタに表示出力してもよいし、スピーカにより音声出力してもよいし、プリンタにより印字出力してもよいし、他の装置へ送信出力してもよい。
これにより、当該第2の情報に接したユーザは、対象エリアを第2のタイミングで撮影することを、地上局20に新規に依頼することができる。すなわち、ユーザは、第2の衛星画像を撮影するタイミングを、第1の衛星画像を撮影したタイミングと撮影環境が類似したタイミングとして指定することができる。
リモートセンシングにおいて、異なる時点に撮影された複数の衛星画像を解析して、地表の変化を捉えることが試みられている。しかしながら、衛星画像の撮影にあたっては、撮影環境が時々刻々と変化する。そのため、複数の衛星画像間における撮影環境の違いが解析結果に影響を及ぼし得る。そこで、撮影環境を考慮した衛星画像の撮影が検討されている。しかしながら、従来は、撮影環境が悪い場合(例えば、雨の場合や被雲が多い場合)に撮影を行わないようにスケジューリングしているに過ぎず、衛星画像を撮影する複数のタイミングにおいて撮影環境を積極的に類似させることはできなかった。
これに対して、本実施形態に係る撮影支援装置100は、撮影環境の予測結果に基づいて衛星画像を撮影すべきタイミングを決定し、これを出力する。これにより、本実施形態に係る撮影支援装置100によれば、第1の衛星画像を撮影したタイミングと撮影環境が類似するタイミングを知らしめることができるので、例えば、ユーザは、衛星画像を撮影する複数のタイミングにおいて撮影環境を積極的に類似させることができる。そのため、例えば、複数の衛星画像データを解析して地表の変化を捉える場合において、実際には変化していないにも関わらず画像上では変化が検出される、または、実際には変化しているにも関わらず画像上では変化が検出されない等の誤検出の可能性を低減させることができる。
また、本実施形態に係る撮影支援装置100は、撮影環境として、対象エリアにおける土壌の水分量を示す指標をも考慮する。これにより、土壌の状態変化が解析結果に与える影響を低減させることができる。これは、画像解析に近赤外域や可視域を用いたバンド間演算を用いる場合、例えば、NDVIを用いて植生をモニタリングする場合等に特に有効である。
図4は、本実施形態の変形例に係る撮影支援装置100が含まれてよい撮影システム1のブロック図の一例を示す。図4においては、図1と同じ機能および構成を有する部材に対して同じ符号を付すとともに、以下相違点を除き説明を省略する。上述の実施形態においては、撮影支援装置100が、予想結果を気象庁等の外部から取得する場合を一例として説明した。しかしながら、本変形例においては、撮影支援装置100が、予測結果の少なくとも一部を自身で予測する。本変形例に係る撮影支援装置100は、上述の実施形態に係る撮影支援装置100が備える機能部に加えて、気象データ取得部410と、予測部420とを更に備える。そして、本変形例においては、予測結果取得部120は、予測結果の少なくとも一部を、予測部420から取得する。これより先、撮影支援装置100が土壌の水分量を示す指数を予測する場合を一例として説明する。しかしながら、これに限定されるものではない。撮影支援装置100は、他の様々な指標を予測してもよい。
気象データ取得部410は、気象データを取得する。気象データの取得の仕方については、上述の説明のとおりであってよい。気象庁等は、全国約1300か所(約17km間隔)のアメダス(地域気象観測システム)と、全国をカバーして雨の分布を観測している気象レーダーの長所を組み合わせて、全国5km格子毎の正確な雨量を算出し、発表している。気象データ取得部410は、気象データとして、少なくとも、例えばこのように気象庁等から発表されるレーダー・アメダス解析雨量を取得してよい。気象データ取得部410は、取得した気象データを予測部420へ供給する。なお、気象データ取得部410は、取得した気象データのうち、撮影環境の予測結果としてそのまま用いられる気象データについては、予測部420ではなく予測結果取得部120へ供給してよい。
予測部420は、気象データに基づいて、撮影環境、ここでは、土壌の水分量を示す指数を予測する。そして、予測部420は、予測結果を予測結果取得部120へ供給する。この際、予測部420は、タンクモデルを用いて土壌の水分量を示す指数を予測してよい。これについて、詳細に説明する。
図5は、タンクモデルの一例を示す。タンクモデルは、地上に降った雨が土壌中にしみこんだ後、時間的遅延をもって川等に流れ込む状況を、孔の空いたタンクを直列に3つ並べてモデル化したものである。各タンクは、水が周りに流れ出すことを表す流出孔を側面に有し、水がより深いところに浸み込むことを表す浸透孔を底面に有する。第1タンクの流出孔は表面流出、第2タンクの流出孔は表層浸透流出、第3タンクの流出孔は地下水流出にそれぞれ対応している。また、第1タンクへの流入は降水、第2タンクへの流入は第1タンクの浸透孔からの流出、第3タンクへの流入は第2タンクの浸透孔からの流出にそれぞれ対応している。すなわち、タンクモデルにおいて、土壌中に含まれる水分量は、「今まで降った雨の量」から「川等へ流出した量」と「下の土壌へ浸透した量」を引いた値により推定される。そして、タンクモデルにおいては、各タンクに残っている水分量(貯留量)の合計により土壌雨量指数が算出され、これが、土壌の水分量を示す指数に相当する。
このようなタンクモデルにおいては、流出孔の高さや、流出係数、浸透係数等、設定すべき複数のパラメータが存在する。気象庁等が発表する土壌雨量指数は、これらパラメータとして全国一律のパラメータが用いられ、個々の地域における植生、地質、および、風化等が考慮されていないのが一般である。
そこで、本変形例に係る撮影支援装置100は、このような指数を、気象庁等の外部から取得することに代えて、自身で予測する。一例として、気象データ取得部410は、レーダー・アメダス解析雨量を取得し、予測部420は、レーダー・アメダス解析雨量とタンクモデルとを用いて土壌雨量指数を算出してよい。そして、予測結果取得部120は、予測部420により算出された土壌雨量指数を、予測結果の少なくとも一部として取得してよい。
このように、本変形例に係る撮影支援装置100は、撮影環境、ここでは、土壌の水分量を示す指数を自らが予測してよい。これにより、本変形例に係る撮影支援装置100によれば、対象エリアにおける植生、地質、および、風化等を考量してパラメータをチューニングすることができるので、対象エリアに最適化されたモデルを用いて撮影環境を比較的高精度に予測することができる。
図6は、本実施形態の他の変形例に係る撮影支援装置100が含まれてよい撮影システム1のブロック図の一例を示す。図6においては、図1と同じ機能および構成を有する部材に対して同じ符号を付すとともに、以下相違点を除き説明を省略する。上述の実施形態においては、撮影支援装置100が、衛星画像の撮影を支援する機能のみを有する場合を一例として説明した。しかしながら、本変形例においては、撮影支援装置100が、衛星画像の撮影を支援する機能に加えて、衛星画像データを取得して解析する機能を更に備える。本変形例に係る撮影支援装置100は、上述の実施形態に係る撮影支援装置100が備える機能部に加えて、第1画像取得部610と、第2画像取得部620と、画像解析部630と、解析結果出力部640とを更に備える。また、本変形例においては、第2情報出力部150は、対象エリアを第2のタイミングで撮影することを依頼する撮影依頼コマンドを地上局20へ送信出力することもできる。
第1画像取得部610は、対象エリアを第1のタイミングで撮影した第1の衛星画像データを取得する。例えば、第1画像取得部610は、対象エリアを第1のタイミングで撮影した第1の衛星画像データを、ネットワークを介してデータベース40から取得してよい。しかしながら、これに限定されるものではない。第1画像取得部610は、各種メモリデバイスやユーザ入力を介して第1の衛星画像データを取得してもよいし、データベース40とは異なる他の装置から第1の衛星画像データを取得してもよい。第1画像取得部610は、取得した第1の衛星画像データを画像解析部630へ供給する。
第2画像取得部620は、対象エリアを第2のタイミングで撮影した第2の衛星画像データを取得する。例えば、第2画像取得部620は、対象エリアを第2のタイミングで撮影した第2の衛星画像データを、ネットワークを介してデータベース40から取得してよい。しかしながら、これに限定されるものではない。第2画像取得部620は、各種メモリデバイスやユーザ入力を介して第2の衛星画像データを取得してもよいし、データベース40とは異なる他の装置から第2の衛星画像データを取得してもよい。なお、このような第2の衛星画像データは、第2情報出力部150が地上局20へ撮影依頼コマンドを送信出力したことに応じて取得されたものであってよい。第2画像取得部620は、取得した第2の衛星画像データを画像解析部630へ供給する。
画像解析部630は、第1の衛星画像データおよび第2の衛星画像データを解析する。例えば、画像解析部630は、第1画像取得部610により取得された第1の衛星画像データを解析し、第1のタイミングにおけるNDVI画像を生成してよい。また、画像解析部630は、第2画像取得部620により取得された第2の衛星画像データを解析し、第2のタイミングにおけるNDVI画像を生成してよい。そして、画像解析部630は、第1のタイミングにおけるNDVI画像および第2のタイミングにおけるNDVI画像の差分に基づいて、対象エリアにおける植生の変化を検出してよい。画像解析部630は、例えばこのようにして第1の衛星画像データおよび第2の衛星画像データの差分に基づいて、対象エリアにおける植生の変化を検出することができる。
なお、上述の説明では、NDVIを用いて植生をモニタリングする場合を一例として示したが、これに限定されるものではない。NDVIに代えて、または、加えて、拡張植生指数(EVI:Extended Vegetation Index)や葉面積指数(LAI:Leaf Area Index)等の他の指標が用いられてもよい。画像解析部630は、解析結果を、解析結果出力部640へ供給する。
解析結果出力部640は、解析結果を出力する。例えば、解析結果出力部640は、画像解析部630により解析された結果を出力してよい。この際、解析結果出力部640は、一例として、解析結果をモニタに表示出力してもよいし、スピーカにより音声出力してもよいし、プリンタにより印字出力してもよいし、他の装置へ送信出力してもよい。また、解析結果出力部640は、解析結果において検出された植生の変化が予め定められた基準を超える場合に、その旨のアラートを発生してもよい。
このように、本変形例に係る撮影支援装置100は、第1の衛星画像データおよび第2の衛星画像データを取得する機能と、これら画像データを解析する機能とを更に備えてよい。これにより、本変形例に係る撮影支援装置100によれば、衛星画像の撮影を支援する機能と、撮影された衛星画像データを取得して解析する機能とを、1つの装置により実現することができる。
また、本変形例に係る撮影支援装置100は、第1の衛星画像データおよび第2の衛星画像データの差分に基づいて、対象エリアにおける植生の変化を検出してよい。ここで、第1の衛星画像および第2の衛星画像は、撮影環境が類似するように撮影タイミングが積極的に調整されたものである。したがって、このようにして取得された複数の衛星画像データを差分解析する技術と親和性が高い。これにより、本変形例に係る撮影支援装置100によれば、撮影環境の違いによる影響を低減させた高精度な解析結果を得ることができ、誤検出の可能性を低減させることができる。
また、本変形例に係る撮影支援装置100は、予め定められた基準を超える植生の変化が検出された場合にアラートを発生してよい。これにより、本変形例に係る撮影支援装置100によれば、気候変動に伴う植生の変化や人為的な森林破壊などを、高精度に解析された結果を根拠として知らしめることができる。
また、本変形例に係る撮影支援装置100は、対象エリアを第2のタイミングで撮影することを依頼する撮影依頼コマンドを、地上局20へ送信出力してよい。これにより、本変形例に係る撮影支援装置100によれば、第2の情報に接したユーザが新規に撮影依頼することなく、第2の衛星画像の取得を自動化することができる。また、本変形例に係る撮影支援装置100は、第2の衛星画像を撮影した第2のタイミングを新たな第1のタイミングとして取得することで、次なる第2のタイミングを決定し、更なる撮影依頼コマンドを地上局へ送信出力してもよい。これにより、本変形例に係る撮影支援装置100によれば、衛星画像の連続的な取得を自動化することができる。
本発明の様々な実施形態は、フローチャートおよびブロック図を参照して記載されてよく、ここにおいてブロックは、(1)操作が実行されるプロセスの段階または(2)操作を実行する役割を持つ装置のセクションを表わしてよい。特定の段階およびセクションが、専用回路、コンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、および/またはコンピュータ可読媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタルおよび/またはアナログハードウェア回路を含んでよく、集積回路(IC)および/またはディスクリート回路を含んでよい。プログラマブル回路は、論理AND、論理OR、論理XOR、論理NAND、論理NOR、および他の論理操作、フリップフロップ、レジスタ、フィールドプログラマブルゲートアレイ(FPGA)、プログラマブルロジックアレイ(PLA)等のようなメモリ要素等を含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読媒体は、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROMまたはフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(RTM)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、またはSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、および「C」プログラミング言語または同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1または複数のプログラミング言語の任意の組み合わせで記述されたソースコードまたはオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサまたはプログラマブル回路に対し、ローカルにまたはローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して提供され、フローチャートまたはブロック図で指定された操作を実行するための手段を作成すべく、コンピュータ可読命令を実行してよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
図7は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ9900の例を示す。コンピュータ9900にインストールされたプログラムは、コンピュータ9900に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ9900に、本発明の実施形態に係るプロセスまたは当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ9900に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU9912によって実行されてよい。
本実施形態によるコンピュータ9900は、CPU9912、RAM9914、グラフィックコントローラ9916、およびディスプレイデバイス9918を含み、それらはホストコントローラ9910によって相互に接続されている。コンピュータ9900はまた、通信インターフェイス9922、ハードディスクドライブ9924、DVDドライブ9926、およびICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ9920を介してホストコントローラ9910に接続されている。コンピュータはまた、ROM9930およびキーボード9942のようなレガシの入/出力ユニットを含み、それらは入/出力チップ9940を介して入/出力コントローラ9920に接続されている。
CPU9912は、ROM9930およびRAM9914内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ9916は、RAM9914内に提供されるフレームバッファ等またはそれ自体の中にCPU9912によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス9918上に表示されるようにする。
通信インターフェイス9922は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ9924は、コンピュータ9900内のCPU9912によって使用されるプログラムおよびデータを格納する。DVDドライブ9926は、プログラムまたはデータをDVD-ROM9901から読み取り、ハードディスクドライブ9924にRAM9914を介してプログラムまたはデータを提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/またはプログラムおよびデータをICカードに書き込む。
ROM9930はその中に、アクティブ化時にコンピュータ9900によって実行されるブートプログラム等、および/またはコンピュータ9900のハードウェアに依存するプログラムを格納する。入/出力チップ9940はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ9920に接続してよい。
プログラムが、DVD-ROM9901またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ9924、RAM9914、またはROM9930にインストールされ、CPU9912によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ9900に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ9900の使用に従い情報の操作または処理を実現することによって構成されてよい。
例えば、通信がコンピュータ9900および外部デバイス間で実行される場合、CPU9912は、RAM9914にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インターフェイス9922に対し、通信処理を命令してよい。通信インターフェイス9922は、CPU9912の制御下、RAM9914、ハードディスクドライブ9924、DVD-ROM9901、またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
また、CPU9912は、ハードディスクドライブ9924、DVDドライブ9926(DVD-ROM9901)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM9914に読み取られるようにし、RAM9914上のデータに対し様々なタイプの処理を実行してよい。CPU9912は次に、処理されたデータを外部記録媒体にライトバックする。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU9912は、RAM9914から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM9914に対しライトバックする。また、CPU9912は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU9912は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ9900上またはコンピュータ9900近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ9900に提供する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
1 リモートセンシングシステム
10 衛星
20 地上局
30 処理局
40 データベース
100 撮影支援装置
110 第1情報取得部
120 予測結果取得部
130 算出部
140 決定部
150 第2情報出力部
410 気象データ取得部
420 予測部
610 第1画像取得部
620 第2画像取得部
630 画像解析部
640 解析結果出力部
9900 コンピュータ
9901 DVD-ROM
9910 ホストコントローラ
9912 CPU
9914 RAM
9916 グラフィックコントローラ
9918 ディスプレイデバイス
9920 入/出力コントローラ
9922 通信インターフェイス
9924 ハードディスクドライブ
9926 DVDドライブ
9930 ROM
9940 入/出力チップ
9942 キーボード

Claims (12)

  1. 対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得する第1情報取得部と、
    前記対象エリアにおける撮影環境を時系列に予測した予測結果を取得する予測結果取得部と、
    前記予測結果に基づいて、前記第1のタイミングとの間における撮影環境の類似度を時系列に算出する算出部と、
    前記類似度に基づいて、前記対象エリアの衛星画像を撮影すべき第2のタイミングを決定する決定部と、
    前記第2のタイミングを示す第2の情報を出力する第2情報出力部と、
    を備える、撮影支援装置。
  2. 前記撮影環境には、前記対象エリアにおける土壌の水分量を示す指数が少なくとも含まれる、請求項1に記載の撮影支援装置。
  3. 気象データを取得する気象データ取得部と、
    前記気象データに基づいて前記指数を予測する予測部と、を更に備える、請求項2に記載の撮影支援装置。
  4. 前記予測部は、タンクモデルを用いて前記指数を予測する、請求項3に記載の撮影支援装置。
  5. 前記決定部は、前記第1のタイミングとの間において前記指数の差が予め定められた基準を満たす候補タイミングの中から、前記第2のタイミングを決定する、請求項2から4のいずれか一項に記載の撮影支援装置。
  6. 前記第2情報出力部は、前記対象エリアを前記第2のタイミングで撮影することを依頼する撮影依頼コマンドを出力する、請求項1から4のいずれか一項に記載の撮影支援装置。
  7. 前記対象エリアを前記第1のタイミングで撮影した第1の衛星画像データを取得する第1画像取得部と、
    前記対象エリアを前記第2のタイミングで撮影した第2の衛星画像データを取得する第2画像取得部と、を更に備える、請求項1から4のいずれか一項に記載の撮影支援装置。
  8. 前記第1の衛星画像データおよび前記第2の衛星画像データを解析する画像解析部を更に備える、請求項7に記載の撮影支援装置。
  9. 前記画像解析部は、前記第1の衛星画像データおよび前記第2の衛星画像データの差分に基づいて、前記対象エリアにおける植生の変化を検出する、請求項8に記載の撮影支援装置。
  10. 前記植生の変化が予め定められた基準を超える場合に、アラートを発生する解析結果出力部を更に備える、請求項9に記載の撮影支援装置。
  11. コンピュータにより実行され、前記コンピュータが、
    対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得することと、
    前記対象エリアにおける撮影環境を時系列に予測した予測結果を取得することと、
    前記予測結果に基づいて、前記第1のタイミングとの間における撮影環境の類似度を時系列に算出することと、
    前記類似度に基づいて、前記対象エリアの衛星画像を撮影すべき第2のタイミングを決定することと、
    前記第2のタイミングを示す第2の情報を出力することと、
    を備える、撮影支援方法。
  12. コンピュータにより実行され、前記コンピュータを、
    対象エリアの衛星画像を撮影した第1のタイミングを示す第1の情報を取得する第1情報取得部と、
    前記対象エリアにおける撮影環境を時系列に予測した予測結果を取得する予測結果取得部と、
    前記予測結果に基づいて、前記第1のタイミングとの間における撮影環境の類似度を時系列に算出する算出部と、
    前記類似度に基づいて、前記対象エリアの衛星画像を撮影すべき第2のタイミングを決定する決定部と、
    前記第2のタイミングを示す第2の情報を出力する第2情報出力部と、
    して機能させる、撮影支援プログラム。
JP2022082657A 2022-05-19 2022-05-19 撮影支援装置、撮影支援方法、および、撮影支援プログラム Pending JP2023170710A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022082657A JP2023170710A (ja) 2022-05-19 2022-05-19 撮影支援装置、撮影支援方法、および、撮影支援プログラム
US18/314,130 US20230379574A1 (en) 2022-05-19 2023-05-08 Imaging support apparatus, imaging support method and non-transitory computer-readable medium
EP23172105.1A EP4280175A1 (en) 2022-05-19 2023-05-08 Imaging support apparatus, imaging support method and imaging support program
CN202310567412.2A CN117092071A (zh) 2022-05-19 2023-05-19 拍摄辅助装置、拍摄辅助方法以及非临时性计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022082657A JP2023170710A (ja) 2022-05-19 2022-05-19 撮影支援装置、撮影支援方法、および、撮影支援プログラム

Publications (1)

Publication Number Publication Date
JP2023170710A true JP2023170710A (ja) 2023-12-01

Family

ID=86330693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022082657A Pending JP2023170710A (ja) 2022-05-19 2022-05-19 撮影支援装置、撮影支援方法、および、撮影支援プログラム

Country Status (4)

Country Link
US (1) US20230379574A1 (ja)
EP (1) EP4280175A1 (ja)
JP (1) JP2023170710A (ja)
CN (1) CN117092071A (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL231114A0 (en) 2013-07-05 2014-08-31 Hitachi Ltd Device for formulating a photography program and software and method for it
FR3069651B1 (fr) * 2017-07-27 2020-03-06 Airbus Defence And Space Sas Dispositif et procede de simulation de l'estimation d'un delai de realisation d'images satellitaires de la terre
JP7219143B2 (ja) 2019-04-10 2023-02-07 株式会社日立製作所 撮影計画立案装置およびその方法
JP7229864B2 (ja) 2019-06-28 2023-02-28 株式会社日立製作所 リモートセンシング画像取得時期決定システム、および、作物生育状況分析方法

Also Published As

Publication number Publication date
US20230379574A1 (en) 2023-11-23
EP4280175A1 (en) 2023-11-22
CN117092071A (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
López-Serrano et al. A comparison of machine learning techniques applied to Landsat-5 TM spectral data for biomass estimation
Zhang et al. Lake-area mapping in the Tibetan Plateau: an evaluation of data and methods
Estornell et al. Analysis of the factors affecting LiDAR DTM accuracy in a steep shrub area
Kang et al. Consensus on climate trends in western North Pacific tropical cyclones
Hollaus et al. Growing stock estimation for alpine forests in Austria: a robust lidar-based approach
Rastner et al. On the automated mapping of snow cover on glaciers and calculation of snow line altitudes from multi-temporal landsat data
Mora et al. Forest inventory stand height estimates from very high spatial resolution satellite imagery calibrated with lidar plots
Greaves et al. Applying terrestrial lidar for evaluation and calibration of airborne lidar-derived shrub biomass estimates in Arctic tundra
Fu et al. Assessment of approaches for monitoring forest structure dynamics using bi-temporal digital aerial photogrammetry point clouds
Lin et al. Improving the estimation of alpine grassland fractional vegetation cover using optimized algorithms and multi-dimensional features
Jiménez et al. Estimation of aboveground forest biomass in Galicia (NW Spain) by the combined use of LiDAR, LANDSAT ETM+ and National Forest Inventory data
Xu et al. A novel automatic method on pseudo-invariant features extraction for enhancing the relative radiometric normalization of high-resolution images
Tormos et al. Object-based image analysis for operational fine-scale regional mapping of land cover within river corridors from multispectral imagery and thematic data
Gonzalez Musso et al. Applying unmanned aerial vehicles (UAVs) to map shrubland structural attributes in northern Patagonia, Argentina
Richter et al. Detecting tree species effects on forest canopy temperatures with thermal remote sensing: The role of spatial resolution
Taylor et al. Constraints and opportunities for detecting land surface phenology in drylands
Gupta et al. An innovative approach for retrieval of gridded urban canopy parameters using very high resolution optical satellite stereo
Lee et al. The extraction of forest CO2 storage capacity using high-resolution airborne LiDAR data
Li et al. Derivation of the Green Vegetation Fraction of the Whole China from 2000 to 2010 from MODIS Data
Upgupta et al. Estimation of aboveground phytomass of plantations using digital photogrammetry and high resolution remote sensing data
JP2023170710A (ja) 撮影支援装置、撮影支援方法、および、撮影支援プログラム
Ozkan et al. Estimation of forest stand parameters by using the spectral and textural features derived from digital aerial images.
Mahoney et al. Filtering ground noise from LiDAR returns produces inferior models of forest aboveground biomass in heterogenous landscapes
Xu et al. A comparative study on the applicability and effectiveness of NSVI and NDVI for estimating fractional vegetation cover based on multi-source remote sensing image
Deery et al. Impact of varying light and dew on ground cover estimates from active NDVI, RGB, and LiDAR

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240508