JP7218722B2 - 情報処理装置、情報処理方法、プログラム - Google Patents
情報処理装置、情報処理方法、プログラム Download PDFInfo
- Publication number
- JP7218722B2 JP7218722B2 JP2019511075A JP2019511075A JP7218722B2 JP 7218722 B2 JP7218722 B2 JP 7218722B2 JP 2019511075 A JP2019511075 A JP 2019511075A JP 2019511075 A JP2019511075 A JP 2019511075A JP 7218722 B2 JP7218722 B2 JP 7218722B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- captured
- specific
- synthesizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 66
- 238000003672 processing method Methods 0.000 title claims description 5
- 238000003384 imaging method Methods 0.000 claims description 97
- 238000012545 processing Methods 0.000 claims description 88
- 239000002131 composite material Substances 0.000 claims description 77
- 230000002194 synthesizing effect Effects 0.000 claims description 66
- 238000000034 method Methods 0.000 claims description 65
- 238000000605 extraction Methods 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 46
- 230000003287 optical effect Effects 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 241000196324 Embryophyta Species 0.000 description 51
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 239000000284 extract Substances 0.000 description 14
- 229930002875 chlorophyll Natural products 0.000 description 12
- 235000019804 chlorophyll Nutrition 0.000 description 12
- ATNHDLDRLWWWCB-AENOIHSZSA-M chlorophyll a Chemical compound C1([C@@H](C(=O)OC)C(=O)C2=C3C)=C2N2C3=CC(C(CC)=C3C)=[N+]4C3=CC3=C(C=C)C(C)=C5N3[Mg-2]42[N+]2=C1[C@@H](CCC(=O)OC\C=C(/C)CCC[C@H](C)CCC[C@H](C)CCCC(C)C)[C@H](C)C2=C5 ATNHDLDRLWWWCB-AENOIHSZSA-M 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 238000005259 measurement Methods 0.000 description 9
- 239000002689 soil Substances 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000035882 stress Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 241000227653 Lycopersicon Species 0.000 description 2
- 235000007688 Lycopersicon esculentum Nutrition 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- KBPHJBAIARWVSC-RGZFRNHPSA-N lutein Chemical compound C([C@H](O)CC=1C)C(C)(C)C=1\C=C\C(\C)=C\C=C\C(\C)=C\C=C\C=C(/C)\C=C\C=C(/C)\C=C\[C@H]1C(C)=C[C@H](O)CC1(C)C KBPHJBAIARWVSC-RGZFRNHPSA-N 0.000 description 2
- 229960005375 lutein Drugs 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- KBPHJBAIARWVSC-XQIHNALSSA-N trans-lutein Natural products CC(=C/C=C/C=C(C)/C=C/C=C(C)/C=C/C1=C(C)CC(O)CC1(C)C)C=CC=C(/C)C=CC2C(=CC(O)CC2(C)C)C KBPHJBAIARWVSC-XQIHNALSSA-N 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- FJHBOVDFOQMZRV-XQIHNALSSA-N xanthophyll Natural products CC(=C/C=C/C=C(C)/C=C/C=C(C)/C=C/C1=C(C)CC(O)CC1(C)C)C=CC=C(/C)C=CC2C=C(C)C(O)CC2(C)C FJHBOVDFOQMZRV-XQIHNALSSA-N 0.000 description 2
- 235000008210 xanthophylls Nutrition 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 208000005156 Dehydration Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000006353 environmental stress Effects 0.000 description 1
- 238000006735 epoxidation reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000029553 photosynthesis Effects 0.000 description 1
- 238000010672 photosynthesis Methods 0.000 description 1
- 230000000243 photosynthetic effect Effects 0.000 description 1
- 238000011002 quantification Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000015378 stomatal closure Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/16—Image acquisition using multiple overlapping images; Image stitching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Remote Sensing (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
特許文献1には、圃場を撮像し、リモートセンシングを行う技術に関して開示されている。
しかしながら、植物の視差画像を使ってオルソ画像を作るやり方では、植物の複雑度に比べて情報が少ないため、植物を真上から見た画像に変換するのは難しい。
その結果、画像から植生状態の雰囲気を確認するには役立つが、測定結果をセンシングデータとして数値化する場合には、多くの誤差と不安定さが含まれており、不十分なものであった。
即ち、各時点の撮像情報から、同じ情報領域の情報を抽出して合成情報を得る。このとき、複数の撮像装置で撮像された撮像画像を対象とする。そして各撮像装置での各時点の撮像画像から特定領域の画像を抽出し、合成画像を生成する。また各撮像装置の撮像画像について、画像の画角の中央(視野中央で入射角が小さい範囲)の画像領域を抽出し、それらを集めて複数の合成画像を生成する。
撮像装置を移動させながら各時刻で撮像することで、広い範囲を対象とした複数の撮像画像を得ることができる。これらの撮像画像から特定領域抽出し、時刻順に並べてステッチ処理を行う。
例えばステッチ後の画像を、撮像画像に付加された位置情報を利用して、地図画像に重ね合わせる処理を行う。
撮像画像からどの領域を特定領域として画像を切り出すかの判定を撮像画像に応じて実行する。
上記した情報処理装置においては、前記抽出部は、各時刻の撮像画像毎に特定の画像状態の領域を判定し、判定した領域を前記特定領域とすることが考えられる。
各撮像画像における各部の画像状態(例えば明るさ等)に応じて特定領域を可変的に設定する。
上記した情報処理装置においては、前記抽出部は、選択情報に応じて特定領域を設定することが考えられる。
撮像画像のどの領域を特定領域とするかは、ユーザの選択操作に応じたものとする。
ラインセンサ型の撮像装置では受光素子は一次元の線状に並ぶため、撮像される画像の各ラインの入射角度は同様となる。
これにより各時点の撮像画像から、各撮像画像における同じ画像領域の画像を抽出して、それらの画像を合成する。
本技術にかかるプログラムは上記の各手順に相当する処理をコンピュータ装置に実行させるプログラムである。
これによりコンピュータ装置を用いて上記情報処理装置を容易に実現・提供できる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
<1.植生状態のリモートセンシングの説明>
<2.装置構成>
<3.第1の実施の形態>
<4.第2の実施の形態>
<5.第3の実施の形態>
<6.第4の実施の形態>
<7.第5の実施の形態>
<8.まとめ及び変形例>
実施の形態では圃場の植生状態のセンシングを行う場合を例に挙げて撮像画像の合成を行う情報処理装置について説明していくが、情報処理装置の説明に先立って、まず飛行体を用いたリモートセンシングに関して説明しておく。
図1Aは圃場100の様子を示している。昨今、図1Aのように飛行体300に搭載された撮像装置(カメラユニット20)を用いて、植生状態をリモートセンシングする取り組みが行われている。
飛行体300にはカメラユニット20が例えば下方を撮像するようにセットされている。飛行体300が所定の経路で圃場100の上空を移動する際に、カメラユニット20は例えば定期的に静止画撮像を行ったり、或いは動画撮像を行うことで、各時点において撮像視野の範囲の画像を得ることができる。
例えばカメラユニット20の撮像によって得られる画像ファイル(或る時点の撮像画像)には分光計測画像を含むことが考えられる。即ちカメラユニット20はマルチスペクトラムカメラとされ、撮像される画像としては、特定の2以上の波長領域の情報を有する測定画像を含む。
なおカメラユニット20としてR(赤)、G(緑)、B(青)の可視光画像を撮像するカメラが併用されてもよい。
またカメラユニット20として、赤波長領域(RED)と近赤外領域(NIR:Near InfraRed)の撮像画像を得るカメラであり、得られる画像はNDVI(Normalized Difference Vegetation Index)画像とするものが併用されても良い。
例えば入射範囲θALで入射した被写体光がイメージセンサ44によって光電変換され1枚の画像データとなる。このうちで、特定の入射角範囲θ1、θ2などとして入射された被写体光の画像領域を特定領域とする。
本実施の形態では、各時点で撮像される画像データから、このような特定領域の画像を集めて合成する処理を行うことになる。
環境ストレスの測定に用いる指数としては、
・PRI(photochemical reflectance index)
・クロロフィル蛍光の大きさ
・クロロフィル蛍光インデックス
・ステート遷移反射率
等がある。
ここではPRIは、
PRI=(R570-R531)/(R570+R531)
として算出されるものとする。なお、「R570」は波長570nmの反射光強度、「R531」は波長531nmの反射光強度である。
クロロフィル蛍光インデックスは、クロロフィル蛍光をいくつかの波長に分けて測定し、例えば685nm、735nmの2波長の比で表すものである。
クロロフィル蛍光を用いてストレス検出を行うこともできる。クロロフィル蛍光は植物の光合成に伴い植物から発せられる蛍光で、光により電子が励起した反応中心から一定時間内にエネルギーが抜き取られないと、高等植物では680nm~770nm前後の波長の蛍光としてエネルギーが放出される現象である。
放出されるエネルギーは入力光のエネルギーに対し0.5%~3%で、植物の光合成の状態に応じて変動し、強光や、水ストレスに伴う気孔閉塞といった光合成しきれない過剰な光エネルギーが多い場合に大きくなる。
実施の形態の情報処理装置10として機能する各種装置について説明する。
図2はカメラユニット20の構成例を説明する。カメラユニット20では、その信号処理部45を本実施の形態の情報処理装置10として機能させることができる。
レンズ系41は入射端レンズ、ズームレンズ、フォーカスレンズ、集光レンズなど各種レンズを含む入射光学系とされている。
フィルタ43は被測定対象物についての測定しようとする波長を取り出すためのフィルタである。これは一般にイメージセンサ上に構成されるカラーフィルタとその前に配置されるIRカットフィルタなどを組み合わせたものを示しており、場合によってフィルタの一部は、露光部42の前(入射側)やレンズ系41の前などに置かれることもある。
露光部42は、イメージセンサ44において、信号電荷が飽和せずにダイナミックレンジ内に入っている状態でセンシングが行われるように、レンズ系41等の光学系やアイリス(絞り)による開口量などを調整することで、露光制御を行う。
イメージセンサ44は、フィルタ43を通過した光を、センシング素子により検出することで、光の光量に応じた測定信号(画像データ)を信号処理部45に出力する。
インターフェース部46は信号処理部45で処理された画像データその他の情報を外部機器に出力する。
抽出部1は、イメージセンサ44によって得られた撮像画像について、例えば画像内の特定の位置範囲である特定領域の画像を抽出する処理を行う。
合成部2は、異なる時点に撮像された複数の撮像画像のそれぞれから抽出した複数の特定領域の画像を合成して合成画像を生成する処理を行う。
算出部3は合成部2が生成した合成画像を用いて各種の算出を行う。例えば植生の密集度や植物種の分散などの植生状態を表す値を算出したり、上述したPRI、クロロフィル蛍光の大きさ、クロロフィル蛍光インデックス、ステート遷移反射率等の植生指数の算出を行う。
また算出部3としての機能を備えることで、さらに植生状態や植生指数等の算出値を、インターフェース部46を介して外部機器に出力することができる。
外部機器が抽出部1及び合成部2を備えた情報処理装置10とされていることで、その外部機器によって合成画像が生成される。
この例では2つのカメラユニット20A、20Bと、インターフェース部50と、信号処理装置51を示している。
カメラユニット20A、20Bは、それぞれ図2のような構成を有するが、信号処理部45は抽出部1及び合成部2としての機能を持たなくても良い。
例えばカメラユニット20A、20Bはそれぞれ、は各時点の撮像画像をインターフェース50に出力する。
インターフェース部50はカメラユニット20A、20Bからの各時点の撮像画像を信号処理装置51に送信する。
この信号処理装置51が抽出部1及び合成部2としての機能を備えることで、カメラユニット20Aで撮像した撮像画像に基づいて合成画像を生成することができ、またカメラユニット20Bで撮像した撮像画像に基づいて合成画像を生成することができる。
また信号処理装置51は算出部3としての機能を備えることで、植生状態や植生指数等の算出値を求めることができる。
また例えば1つのカメラユニット20と信号処理装置51を接続したシステム構成も考えられる。
さらにこれらの場合、カメラユニット20(20A、20B)の信号処理装部45が抽出部1及び合成部2としての機能を備え、信号処理装置51が抽出部1及び合成部2としての機能を備えないことも想定される。
図4には2つのカメラユニット20A、20B、インターフェース部50、信号処理装置60、ルータ61、基地局62、ネットワーク63、サーバ64、ストレージ70を示している。
ルータ61は、例えばモバイル用のルータであり、基地局62を介して、インターネット等のネットワーク63に接続することができる。
信号処理装置60は、カメラユニット20A、20Bから取得した撮像画像を、ルータ61を用いてサーバ64に送信する。これにより撮像画像は基地局62、ネットワーク63を介してサーバ64に取り込まれる。
サーバ64は抽出部1及び合成部2としての機能を備える。これによりサーバ64は受信した撮像画像について画像抽出及び合成処理を行い、合成画像を生成することができる。
ストレージ70は、サーバ64において信号処理装置60から送信されてきた撮像画像の保存や、生成した合成画像の保存に用いられる。
またサーバ64は算出部3としての機能を備えることも考えられる。これにより合成画像を用いて植生状態や植生指数等の算出値を求めることができる。
またサーバ64が算出部3を有する場合、信号処理装置60はサーバ64にアクセスして、植生状態や植生指数等の算出値を閲覧したり取得したりすることもできる。
カメラユニット20内の信号処理部45は、例えばマイクロコンピュータなどとして、ソフトウエアにより抽出部1、合成部2、さらには算出部3としての機能を備えることが考えられる。
信号処理装置51やサーバ64は、例えば図5のようなハードウエア構成のコンピュータ装置150で実現される。
CPU151は、ROM152に記憶されているプログラム、または記憶部159からRAM153にロードされたプログラムに従って各種の処理を実行する。RAM153にはまた、CPU151が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU151、ROM152、およびRAM153は、バス154を介して相互に接続されている。このバス154にはまた、入出力インターフェース155も接続されている。
入力部157は、コンピュータ装置150を使用するユーザが用いる入力デバイスを意味する。
通信部160は、インターネットを含むネットワーク63を介しての通信処理や、周辺各部の機器との間の通信を行う。
またこの図5のコンピュータ装置150は、据え置き型、ノート型等のパーソナルコンピュータ、タブレット端末やスマートフォン等の携帯端末として実現できる。さらにはコンピュータ装置150としての機能を有する測定装置、テレビジョン装置、モニタ装置、撮像装置、設備管理装置等の電子機器でも、本実施の形態の情報処理装置10としての機能を搭載することができる。
以下、第1の実施の形態としての画像処理を説明していくが、実施の形態の動作に先立って、まずは圃場100のリモートセンシングの場合に容易に想定される画像合成の手法を、比較例として説明する。
図では圃場100について領域AR1、AR2・・・AR7を示しているが、これは説明のために便宜的に領域を分けているのであって、実際に圃場100が各領域に分かれている必要はない。
図6Aは、ある時点t10においてカメラユニット20で撮像できている視野範囲に領域AR1~AR5が含まれていることを示している。
圃場100の全体をカバーするため、飛行体300を矢印方向に移動させながら撮像を行っていく。
さらに次の時点t12では、図6Cのように、カメラユニット20によって領域AR3~AR7の範囲が撮像される。
圃場100の広い範囲について、植生の観察や分析のための画像を得るには、これらの各時点の画像を合成すればよい。
飛行体300で移動されながらカメラユニット20で撮像される画像G(G(t10)、G(t11)、G(t12)・・・)は、約90%の重なりを持つようにされる。そして図6Dに示すように各画像のマッチングを確認しながらステッチ処理が行われる。
これらの画像Gは同じ位置が視差を持って撮像されていることを利用して、オルソ化が行われ、図6Eのような真上から見た画像に変換される。この画像はRGBの可視光画像の場合もあれば、REDとNIR画像から作成されるNDVI画像であることもある。
図7Cに生成された合成画像の状態として不安定な誤差を多く含む画像を模式的に示している。
この場合、特定領域としては、入射角の小さい画像領域(真下に近い領域:第1入射角範囲)と入射角が大きい画像領域(進行方向の画面の上の領域:第2入射角範囲)としており、それぞれの領域の画像データをそれぞれステッチしたものが、図7Aの第1入射角画像と図7Bの第2入射角画像となる。
図8Aは圃場100の上空に飛行体300を飛ばしてカメラユニット20で圃場100を撮像しているが、この時点t1では圃場100の領域AR1,AR2,AR3の画像が撮像されるとする。
図8Bの時点t2では、領域AR1,AR2,AR3、AR4の画像が撮像される。
図8Cの時点t3では、領域AR1~AR5の範囲の画像が撮像される。
図8Dの時点t4では、領域AR2~AR6の範囲の画像が撮像される。
図8Eの時点t5では、領域AR3~AR7の範囲の画像が撮像される。
一例として第1入射角範囲θ1はほぼ真下となる入射角範囲である。
例えば図1Bに示すように第1入射角範囲θ1は、撮像素子であるイメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jを中心として±角度a1以内となる範囲である。即ち入射角度が最も小さくなる領域である。
また第2入射角範囲θ2は画角の中央からみて端部に寄った領域(入射角が大きい範囲)である。例えば図1Bにおいて、イメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jから第1の角度a3以上、第2の角度a4以下の範囲としている。
図8Aの時点t1の撮像画像からは、入射角範囲θ1、θ2の画像として、領域AR1、AR3を写した部分の画像が抽出される。これらの特定領域の画像を、領域と時点の符号により画像AR1(t1)、AR3(t1)として示している。
図8Bの時点t2の撮像画像からは、入射角範囲θ1、θ2の画像として、それぞれ領域AR2、AR4を写した部分の画像AR2(t2)、AR4(t2)が抽出される。
図8Cの時点t3の撮像画像からは、入射角範囲θ1、θ2の画像として、それぞれ領域AR3、AR5を写した部分の画像AR3(t3)、AR5(t3)が抽出される。
図8Dの時点t4の撮像画像からは、入射角範囲θ1、θ2の画像として、それぞれ領域AR4、AR6を写した部分の画像AR4(t4)、AR6(t4)が抽出される。
図8Eの時点t5の撮像画像からは、入射角範囲θ1、θ2の画像として、それぞれ領域AR5、AR7を写した部分の画像AR5(t5)、AR7(t5)が抽出される。
以降の時点の撮像画像からも同様に各特定領域の画像が抽出される。
各時点の入射角範囲θ1の画像AR1(t1)~AR7(t7)を集めて合成した画像は図9Aのようになる。なお、画像AR6(t6)、AR7(t7)は図8Eの時点t5より後の時点t6,t7の撮像画像から抽出された画像である。
これらの画像AR1(t1)~AR7(t7)は全て各時点でほぼ直下を写した画像となっている。このような第1入射角画像として図7Aのような画像が得られる。
画像AR1(t-1)~AR7(t5)は全て各時点で飛行体300の進行方向の斜め下方を写した画像となっている。このような第2入射角画像として図7Bのような画像が得られる。
また、図7Aの合成画像は、真上から見た画像で構成されているため、土の部分が映っており、植物の密度を観測することができる。
また、図7Bの合成画像は、植物を斜めから見た画像が集められているため、植物の状態、活性度だけを見ることができる。
ステップS102で情報処理装置10は画像位置補正を行う。ここでは飛行体300の姿勢情報(IMU:Inertial Measurement Unit(慣性計測装置))を利用して、画像の入射角に応じた画像の歪補正を行う。
即ち情報処理装置10は各時点の入射角範囲θ1の画像を集め、図9Aのように撮像時刻順に並べてステッチ処理を行うことで入射角の小さい画像領域(真下に近い領域)のステッチ画像を生成する。また情報処理装置10は各時点の入射角範囲θ2の画像を集め、図9Bのように撮像時刻順に並べてステッチ処理を行うことで入射角が大きい画像領域(進行方向にみて斜め下方の領域)のステッチ画像を生成する。これにより、2つのステッチ画像を得る。
さらに処理を行う場合はステップS106からS101に戻って、他の撮像画像を用いた処理に移行する。終了する場合はステップS106から一連の処理を終える。
また3つ以上の入射角範囲θ1、θ2、θ3・・・をそれぞれ特定領域として、3以上の合成画像を生成するようにしてもよい。
各入射角範囲θ1、θ2は、それぞれが完全に異なる入射角度範囲としたが、一部重複した入射角範囲としてもよい。
また、特定領域は入射角範囲θ1に基づいて決めるものでなくてもよい。例えばイメージセンサ44の撮像素子の領域範囲として特定領域を設定してもよい。例えば撮像素子配列上での中央領域などとして特定領域を決めるような例である。
また撮像画像領域内で撮像画素(ピクセル)の範囲として、水平・垂直の両方向で範囲を設定し、それを特定領域として設定してもよい。
いずれにしても、撮像画像の一部が特定領域として設定されればよい。
その場合、算出部3は図7Aのようなほぼ真上からの画像の合成画像を用いて植物の密集度を算出し、また図7Bのような画角の中央からみて左又は右方向(又は上又は下方向)に寄った領域(入射角が大きい範囲)の画像の合成画像を用いて植物の密集度を算出することが考えられる。
第2の実施の形態の処理例を図11で説明する。図10と同一の処理は同一のステップ番号を付して重複説明を避ける。
この図11の処理例は先の図10の処理にステップS110が追加されたものである。
情報処理装置10は、ステップS104で画像合成を行ったら、ステップS110で地図画像処理を行う。
これはステッチ後の画像をGPSの情報を利用して地図画像に重ね合わせることで、正確な位置情報との整合性をとる処理である。
入射角の大きな画像はGPSとの位置がずれているため、その点も考慮して地図画像に重ね合わせが行われる。これによって正確な位置を反映した合成画像が得られることになる。
第3の実施の形態の処理例を図12で説明する。図10と同一の処理は同一のステップ番号を付して重複説明を避ける。この図12は先の図10の処理にステップS120が追加された例である。
情報処理装置10は、ステップS120で抽出画像の判断を行う。これは特定領域を設定する処理である。つまりステップS101で取得した各時点の撮像画像について、どの領域を抽出するかを設定する処理である。
即ち入射角の小さい画像領域と大きい画像領域を分離する前に、どのような画像を切り出すかを、画像から判断する。
例えば植物は種類によって丈が違う。丈が長い植物程、入射角は小さくても、植生だけの画像を得ることが可能となる。
そこで例えば丈が長い植物の場合は、入射角範囲θ1は真下の画像領域(画像センターの入射は0度)、入射角範囲θ2は「入射角X度付近の画像領域」を選ぶ。
丈が短い植物の場合は、入射角範囲θ1は同じく真下の画像領域、入射角範囲θ2は「入射角Y度付近の画像領域」を選ぶこととする。ここで、入射角Xと入射角Yの関係は、入射角X<入射角Yという関係である。
例えばこのような手法で植物の丈を判定し、上記のように特定領域の設定を切り替えることができる。
そしてこの場合、丈の長い植物については、入射角範囲θ2の画像についても、なるべく入射角の小さい領域の画像が選択されることになる。よって画像歪を抑えつつ、植生の状態、活性度を捉えることが可能となる。
日陰の画像と、日向の画像では、太陽光のスペクトルが異なるため、それぞれの太陽光スペクトルに応じた補正を行う必要があるが、このような補正が容易となる。
また植生のストレス状態も、日向と日陰では異なるため、その差を測定することで、ストレス状態を見分けることも可能となる。
即ち各撮像画像の日向の画像領域を第1の特定領域とし、各撮像画像の日陰の画像領域を第2の特定領域とする。
例えば撮像画像毎に画素領域の輝度分布、明度分布などを判定し、日向領域と日陰領域を特定し、それを第1,第2の特定領域として抽出する。
このようにすることで、撮像画像毎に日向/日陰の範囲が変化する場合でも、日向のみの画像を集めた合成画像や日陰のみの画像を集めた合成画像を得ることができる。
図14A、図14Bは圃場100に対して飛行体300が方向DA、DBに飛行する状態を示している。方向DAは太陽400を背にして進行する方向で、方向DBは太陽400に向かうように進行する方向である。
そして図14Cのように圃場100上を飛行体300が飛行する場合を考える。方向DAに向かって飛行している際には、入射角範囲θ2の抽出画像は撮像画像の上側(飛行体300の進行方向の画像:図14A参照)を採用し、逆に方向DBに向かって飛行している際には、撮像画像の下側(飛行体300の進行方向と逆側の画像:図14B参照)を採用する。これにより鏡面反射が少ない画像を集めることができる。
なお真下(入射角範囲θ1)の画像は鏡面反射量が入射角範囲θ2の画像に比べて大きいが、同時に取得することで、角度による植生の違いを推測するのに役立つ。
そのような場合には、入射角範囲θ2として抽出する画像は、図16A、図16Bに示すようにすることが考えられる。なお図16Cは図14Cと同様に圃場100上の飛行体300の飛行経路を示している。
図16Aに示すように、方向DAに向かって飛行している際には、入射角範囲θ2の抽出画像は撮像画像の下側(飛行体300の進行方向と逆側の画像)を採用し、逆に方向DBに向かって飛行している際には、図16Bに示すように、撮像画像の上側(飛行体300の進行方向の画像)を採用する。
これによりスタッフが圃場100や植物の種類等に応じて臨機応変に、適切な合成画像を得ることができる設定を行うことができる。
第4の実施の形態を図17で説明する。
これはカメラユニット20を入射角に合わせて複数台使用する例である。
この例では図17Dに示すように飛行体300には2つのカメラユニット20A、20Bを搭載している。カメラユニット20Aは撮像方向を真下とし、カメラユニット20Bは撮像方向を飛行体300の進行方向の斜め下方としている。即ちカメラユニット20Bは、カメラユニット20Aによっては入射角が大きくなってしまう範囲を狙った撮像方向とする。
また、カメラユニット20Bに関しても同じく光軸Jに近い入射角範囲θ1(図1B参照)を特定領域とする。そしてカメラユニット20Bで撮像された各時刻の撮像画像から、入射角範囲θ1の画像領域を抽出し、第2の合成画像を生成する。
但しこの場合、進行方向の斜め下方の合成画像もカメラユニット20Bにおいて入射角が小さい範囲の画像を集めたものとなっている。つまりレンズ歪みの少ない画像となる。
このように、2台のカメラユニット20A、20Bのそれぞれカメラセンターの画像を使って合成画像を生成することで、入射角および画角を小さくして、レンズ歪の少ない高画質な合成画像を得ることが可能となる。
図18により第5の実施の形態を説明する。
図18A、図18B、図18Cは、先の図8C、図8D、図8Eと同様に時点t3,t4,t5における撮像の様子を示している。
この場合、図18Dに示すようにラインセンサ型のカメラユニット20AL,20BLを飛行体300に搭載する。カメラユニット20ALは撮像方向を真下とし、カメラユニット20BLは撮像方向を飛行体300の進行方向の斜め下方としている。
またカメラユニット20BLの各時点の撮像画像は全体がほぼ同じ入射角度で得られた進行方向斜め下方の画像となる。
そしてカメラユニット20ALの各時点の撮像画像を用いて合成画像を生成し、またカメラユニット20BLの各時点の撮像画像を用いて合成画像を生成することで、合成画像としては全てのラインが同じ角度で撮像された画像を得ることが容易となる。
以上の実施の形態によれば次のような効果が得られる。
実施の形態の情報処理装置10は、特定波長領域の情報を有する撮像画像を取得し、撮像画像について、画像内の特定の位置範囲である特定領域の画像を抽出する抽出部1と、異なる時点に撮像された複数の撮像画像のそれぞれから抽出部1が抽出した複数の特定領域の画像を合成して合成画像を生成する合成部2を備える。即ち、各時点の撮像画像から、各撮像画像における同じ画像領域の画像を抽出して、それらの画像を合成するようにする。
これにより、誤差が少なく測定結果をセンシングデータとして数値化する場合に好適な画像を得ることができる。
例えば各撮像画像の左右方向の中央部分などを特定領域とする。その場合、撮像装置に対する角度(例えば撮像素子に対する被写体光の入射角度)がほぼ同じ範囲の画像を集めた合成画像を得ることができる。
撮像装置を移動させながら撮像した場合に、撮像装置に対する相対位置がほぼ同じ画像としての移動範囲の撮像画像を得ることができる。
例えば植物の視差画像を使ってオルソ画像を作るやり方では、植物の複雑度に比べて情報が少ないため、植物を真上から見た画像に変換するのは難しいため、撮像画像をセンシングデータとして数値化する場合には多くの誤差と不安定さが含まれており不十分なものとなる。これに対して実施の形態では、例えば全面にわたって植物を真上から見たような画像(図7A参照)を誤差を生じさせる大きな変換を行わず得ることが容易であり、植生状態のセンシングとして非常に好適となる。
これにより、カメラユニット20を飛行体300により移動させながら撮像した場合に、ほぼ同じ入射角の被写体光による画像領域を集めて合成画像を得ることができる。
例えば撮像素子に対して最も入射角が小さい画像のみを集めて合成することで、歪みの少ない画像を得ることができる。
また例えば入射角が大きい領域の画像のみを集めて合成することで、画像全体が斜め方向から視認したような画像を得ることができる。
従って例えば入射角範囲が同様の画像を集めた複数の合成画像を生成することができる。例えば入射角範囲θ1の画像領域の合成画像として、カメラユニット20から直下に見た状態の圃場100の撮像画像が生成でき、同時に、カメラユニット20から斜め下に見た状態の圃場100の撮像画像が生成できる。
入射角度の異なる画像は、それぞれ各種の観察・分析のために適している点がある。このため多様な入射角画像が一度に得られることは、植生状態のリモートセンシングに非常に好適である。
もちろん、さらに抽出部が抽出した複数の第3の特定領域を合成して第3の合成画像を生成するなど、3以上の合成画像を生成することも可能である。
また入射角に応じた画像をそれぞれ集めることで、植物の状態を違った角度から評価するのに役立つ。例えば、真上から見た画像で構成されたものは、植物の成長度合に応じて、土の部分が映っているなど、植物の密度を観測するのに適している。植物を斜めから見た画像が集めることで、植物だけをとらえることができ、植物の状態、活性度を見るのに適している。
画角中央の画像は、画像歪みが小さい。従って被写体(例えば圃場)の広い範囲を画像歪みの小さい画像としての合成画像が得られる、このような合成画像は、画像歪みが影響する方式の植生情報の分析或いは観察に好適となる。
例えば図7Aのような合成画像(第1入射角画像)として、画像の無理な変換がないため、安定した精度の高い画像が得られる。また、図7Aの合成画像は、真上から見た画像で構成されているため、土の部分が映っており、植物の密度を観測することができる。
つまり画像の画角の中央からみて左又は右方向(又は上又は下方向)に寄った領域(入射角が大きい範囲)を特定領域とする。つまり画角として縁部に近い領域である。このような画像領域を抽出し、それらを集めて複数の合成画像を生成する。
画角縁部に近い画像は、斜め方向からの見た画像となる。圃場の画像として考えると、植物の葉によって土の部分が隠されたような画像となりやすい。そのため土の部分が分析のノイズになるような植生分析、観察に好適な画像を得ることができる。
例えば図7Bのような合成画像(第2入射角画像)として、植物を斜めから見た画像が集められているため、植物の状態、活性度だけを見ることができる。
撮像装置を移動させながら各時刻で撮像することで、広い範囲を対象とした複数の撮像画像を得ることができる。これらの撮像画像から特定領域抽出し、時刻順に並べてステッチ処理を行う。
例えば圃場の広い範囲の画像として、被写体光の入射角範囲が同様の画像を得ることができ、広い範囲の植生分析に好適となる。
これにより位置関係が正確な合成画像を得ることができる。
つまり複数の撮像装置(カメラユニット20)で撮像された撮像画像を対象とする。そして各撮像装置での各時点の撮像画像から特定領域の画像を抽出し、合成画像を生成する。
この場合、複数のカメラユニット20A、20Bによって撮像した撮像画像から、それぞれ特定の入射角範囲の画像を集めて合成画像を生成することができる。
例えば図17で説明したように、カメラユニット20Aは飛行体300の直下を向き、カメラユニット20Bが飛行体300の斜め下方を向くようにするなどして、広い範囲で撮像画像が得られるようにする。するとカメラユニット20Aの撮像方向の設定や、抽出する特定領域の選択により、植生状態のセンシング等の目的に応じて好適な画像を得易くすることができる。
なおもちろん、さらに多数のカメラユニット20(例えばカメラユニット20A、20Bに加え不図示のカメラユニット20Cなど)を用いて、それぞれの撮像画像から特定領域を抽出して合成画像を得ることができる。
また複数のカメラユニット20を用いる場合でも、1つのカメラユニット20Aから複数の特定領域(第1の特定領域と第2の特定領域)の画像を抽出するようにして、それぞれ合成画像を生成するようにしてもよい。例えばカメラユニット20Aで撮像した撮像画像について第1,第2の特定領域を設定して2つの合成画像を生成し、さらにカメラユニット20Bで撮像した撮像画像について第1,第2の特定領域を設定して2つの合成画像を生成することとして、合計4つの合成画像を一度に生成することも可能である。
画角中央の画像は、画像歪みが小さい。従って被写体(例えば圃場)の広い範囲についての画像歪みの小さい合成画像が得られる。
例えば図17で説明したように、カメラユニット20Aは飛行体300の直下を向き、カメラユニット20Bが飛行体300の斜め下方を向くようにした場合、いずれも入射角が小さい範囲(光軸に近い範囲)の画像として、直下の視野となる画像と斜め下方の視野となる画像を得ることができる。つまりいずれも画像歪みが小さい画像として直下の画像と斜め下方の画像を得ることができる。
これにより撮像画像に応じて、圃場100等のセンシングの目的に沿った特定領域を抽出した合成画像を得ることができる。例えば、太陽光の照射状態に応じた特定領域設定などができる。
これにより例えば太陽光の照射状態が撮像画像毎に変化するような場合でも、日陰と日向などを的確に分離するための特定領域設定ができる。
これにより撮像画像に応じて、圃場等のセンシングの目的に沿った特定領域を抽出した合成画像を得ることができる。例えば、植物の種類に応じてユーザが特定領域を選択しておくことなどができる。
抽出部1は、特定領域の画像(入射角範囲θ1の画像)として、カメラユニット20のイメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jを中心として±角度a1内となる範囲(図1B参照)の画像領域の画像を抽出し、合成部2が、異なる時点に撮像された複数の撮像画像のそれぞれから抽出部1が抽出した複数の特定領域の画像を合成して合成画像を生成する。この場合、算出部3はほぼ真上からの画像の合成画像を用いて植物の密集度を算出するようにする。
例えば図7Aのような合成画像(第1入射角画像)として、画像の無理な変換がないため、安定した精度の高い画像が得られ、また植物に加え、土などの植物以外の部分も映っている。従って算出部3は植生状態の算出を適切に行うことができる。植生状態とは例えば植物の密度(密集度)や、1又は複数の植物種の分散などである。
例えば図7Bのような合成画像(第2入射角画像)として、土の部分が分析のノイズになるような植生分析、観察に好適な画像が得られる。このため、算出部3はこのような合成画像を用いることで、PRI等の植生指数の算出を精度良く実行できる。
より具体的には、図10、図11、又は図12の処理をコンピュータ装置150のCPU151に実行させるプログラムである。
そしてこのようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体や、CPUを有するマイクロコンピュータ内のROM等に予め記憶しておくことができる。あるいはまた、半導体メモリ、メモリカード、光ディスク、光磁気ディスク、磁気ディスクなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記憶)しておくことができる。またこのようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN、インターネットなどのネットワークを介してダウンロードすることもできる。
(1)特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出部と、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成部と、を備えた
情報処理装置。
(2)前記抽出部は、撮像装置によって撮像された撮像画像としての取得画像内の特定領域の画像を抽出する
上記(1)に記載の情報処理装置。
(3)前記特定領域は、撮像装置の撮像素子に対する被写体光の入射角度が特定の入射角範囲である画像領域である
上記(2)に記載の情報処理装置。
(4)前記抽出部は、
撮像画像について、第1の特定領域の画像と第2の特定領域の画像を抽出する処理を行い、
前記合成部は、
異なる時点に撮像された複数の撮像画像のそれぞれから前記抽出部が抽出した複数の前記第1の特定領域の画像を合成して第1の合成画像を生成する処理と、
異なる時点に撮像された複数の撮像画像のそれぞれから前記抽出部が抽出した複数の前記第2の特定領域の画像を合成して第2の合成画像を生成する処理と、を行う
上記(2)又は(3)に記載の情報処理装置。
(5)前記抽出部は、
前記特定領域の画像として、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を抽出する
上記(2)乃至(4)のいずれかに記載の情報処理装置。
(6)前記抽出部は、
前記特定領域の画像として、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸から第1の角度以上、第2の角度以下の範囲の画像領域の画像を抽出する
上記(2)乃至(5)のいずれかに記載の情報処理装置。
(7)前記合成部は、前記抽出部が抽出した複数の前記特定領域の画像を撮像時刻順に並べてステッチ処理を行うことで合成画像を生成する
上記(2)乃至(6)のいずれかに記載の情報処理装置。
(8)前記合成部は、ステッチ処理を行った画像について位置情報を用いた処理を行う
上記(7)に記載の情報処理装置。
(9)前記抽出部は、
第1の撮像装置で得られた各時刻の第1の撮像画像から前記特定領域の画像を抽出する処理と、
第2の撮像装置で得られた各時刻の第2の撮像画像から前記特定領域の画像を抽出する処理と、を行い、
前記合成部は、
各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、
各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を行う
上記(2)乃至(8)のいずれかに記載の情報処理装置。
(10)前記抽出部は、
前記第1の撮像画像及び前記第2の撮像画像の両方について、前記特定領域の画像として、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を抽出する
上記(9)に記載の情報処理装置。
(11)前記抽出部は、取得画像に応じて前記特定領域を設定する
上記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)前記抽出部は、各時刻の撮像画像毎に特定の画像状態の領域を判定し、判定した領域を前記特定領域とする
上記(2)乃至(10)のいずれかに記載の情報処理装置。
(13)前記抽出部は、選択情報に応じて特定領域を設定する
上記(1)乃至(10)のいずれかに記載の情報処理装置。
(14)前記抽出部は、
ラインセンサ型の撮像装置で得られた各時刻の撮像画像から前記特定領域の画像を抽出する処理を行う
上記(2)乃至(13)のいずれかに記載の情報処理装置。
(15)前記特定領域は、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域であり、
前記合成部が、異なる時点に撮像された複数の撮像画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成するとともに、
前記合成画像を用いて植物の植生状態の算出を行う算出部を備えた
上記(2)乃至(14)のいずれかに記載の情報処理装置。
(16)前記特定領域は、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸から第1の角度以上、第2の角度以下の範囲の画像領域であり、
前記合成部が、異なる時点に撮像された複数の撮像画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成するとともに、
前記合成画像を用いて植生指数の算出を行う算出部を備えた
上記(2)乃至(15)のいずれかに記載の情報処理装置。
(17)特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出手順と、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出手順で抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成手順と、
を情報処理装置が実行する情報処理方法。
(18)特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出ステップと、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出ステップで抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成ステップと、
をコンピュータ装置に実行させるプログラム。
Claims (9)
- 特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出部と、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成部と、
前記合成画像を用いて植物の植生状態及び植生指数の算出を行う算出部と、
を備え、
前記抽出部は、
撮像方向を真下とする第1の撮像装置で得られた各時刻の第1の撮像画像から、前記第1の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、
撮像方向を斜め下方とする第2の撮像装置で得られた各時刻の第2の撮像画像から、前記第2の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、を行い、
前記合成部は、
各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、
各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を行い、
前記算出部は、
前記第1の合成画像を用いて植物の植生状態の算出を行い、前記第2の合成画像を用いて植生指数の算出を行う
情報処理装置。 - 前記合成部は、前記抽出部が抽出した複数の前記特定領域の画像を撮像時刻順に並べてステッチ処理を行うことで合成画像を生成する
請求項1に記載の情報処理装置。 - 前記合成部は、ステッチ処理を行った画像について位置情報を用いた処理を行う
請求項2に記載の情報処理装置。 - 前記抽出部は、取得画像に応じて前記特定領域を設定する
請求項1に記載の情報処理装置。 - 前記抽出部は、各時刻の撮像画像毎に特定の画像状態の領域を判定し、判定した領域を前記特定領域とする
請求項1に記載の情報処理装置。 - 前記抽出部は、選択情報に応じて特定領域を設定する
請求項1に記載の情報処理装置。 - 前記抽出部は、
ラインセンサ型の撮像装置で得られた各時刻の撮像画像から前記特定領域の画像を抽出する処理を行う
請求項1に記載の情報処理装置。 - 特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出手順と、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出手順で抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成手順と、
前記合成画像を用いて植物の植生状態及び植生指数の算出を行う算出手順と、
を情報処理装置が実行し、
前記抽出手順では、
撮像方向を真下とする第1の撮像装置で得られた各時刻の第1の撮像画像から、前記第1の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、
撮像方向を斜め下方とする第2の撮像装置で得られた各時刻の第2の撮像画像から、前記第2の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、を実行し、
前記合成手順では、
各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、
各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を実行し、
前記算出手順では、
前記第1の合成画像を用いて植物の植生状態の算出を行い、前記第2の合成画像を用いて植生指数の算出を行う処理を実行する
情報処理方法。 - 特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出ステップと、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出ステップで抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成ステップと、
前記合成画像を用いて植物の植生状態及び植生指数の算出を行う算出ステップと、
をコンピュータ装置に実行させ、
前記抽出ステップでは、
撮像方向を真下とする第1の撮像装置で得られた各時刻の第1の撮像画像から、前記第1の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、
撮像方向を斜め下方とする第2の撮像装置で得られた各時刻の第2の撮像画像から、前記第2の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、を実行させ、
前記合成ステップでは、
各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、
各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を実行させ、
前記算出ステップでは、
前記第1の合成画像を用いて植物の植生状態の算出を行い、前記第2の合成画像を用いて植生指数の算出を行う処理を実行させる
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017075043 | 2017-04-05 | ||
JP2017075043 | 2017-04-05 | ||
PCT/JP2018/004234 WO2018186016A1 (ja) | 2017-04-05 | 2018-02-07 | 情報処理装置、情報処理方法、プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018186016A1 JPWO2018186016A1 (ja) | 2020-02-13 |
JP7218722B2 true JP7218722B2 (ja) | 2023-02-07 |
Family
ID=63712589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019511075A Active JP7218722B2 (ja) | 2017-04-05 | 2018-02-07 | 情報処理装置、情報処理方法、プログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11398060B2 (ja) |
EP (1) | EP3609174A4 (ja) |
JP (1) | JP7218722B2 (ja) |
CN (1) | CN110476412B (ja) |
AU (2) | AU2018248211A1 (ja) |
WO (1) | WO2018186016A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI724764B (zh) * | 2020-01-21 | 2021-04-11 | 國立臺灣大學 | 光譜照相裝置 |
US20240015375A1 (en) * | 2020-11-10 | 2024-01-11 | Sony Group Corporation | Imaging device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000156818A (ja) | 1998-11-18 | 2000-06-06 | Nippon Telegr & Teleph Corp <Ntt> | パノラマ画像作成方法、装置、パノラマ画像作成プログラムを記録した記録媒体、情報提供方法、装置、情報提供プログラムを記録した記録媒体 |
JP2011234121A (ja) | 2010-04-27 | 2011-11-17 | Fujifilm Corp | 撮影装置、パノラマ撮影方法 |
JP2012191486A (ja) | 2011-03-11 | 2012-10-04 | Sony Corp | 画像合成装置と画像合成方法およびプログラム |
JP2014011782A (ja) | 2012-07-03 | 2014-01-20 | Canon Inc | 撮像装置ならびに撮像方法およびそのプログラム |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005041562A1 (ja) * | 2003-10-22 | 2005-05-06 | Matsushita Electric Industrial Co., Ltd. | 撮像装置とその製造方法、携帯機器、及び撮像素子とその製造方法 |
JP5162890B2 (ja) | 2006-12-01 | 2013-03-13 | 株式会社サタケ | リモートセンシングにおける補正方法 |
CA2683206C (en) * | 2009-10-17 | 2018-07-03 | Hermary Opto Electronics Inc. | Enhanced imaging method and apparatus |
US9025831B2 (en) * | 2009-11-10 | 2015-05-05 | Monsanto Technology Llc | Apparatus and methods for automated phenotypic screening of plant genotypes |
US8687062B1 (en) * | 2011-08-31 | 2014-04-01 | Google Inc. | Step-stare oblique aerial camera system |
US9864184B2 (en) * | 2012-10-30 | 2018-01-09 | California Institute Of Technology | Embedded pupil function recovery for fourier ptychographic imaging devices |
WO2015088618A2 (en) * | 2013-09-26 | 2015-06-18 | Konica Minolta Laboratory U.S.A., Inc. | Method and system of calibrating a multispectral camera on an aerial vehicle |
IL236606B (en) * | 2015-01-11 | 2020-09-30 | Gornik Amihay | Standards and methods for agricultural monitoring |
-
2018
- 2018-02-07 WO PCT/JP2018/004234 patent/WO2018186016A1/ja unknown
- 2018-02-07 JP JP2019511075A patent/JP7218722B2/ja active Active
- 2018-02-07 US US16/495,041 patent/US11398060B2/en active Active
- 2018-02-07 EP EP18780366.3A patent/EP3609174A4/en not_active Withdrawn
- 2018-02-07 CN CN201880021826.2A patent/CN110476412B/zh active Active
- 2018-02-07 AU AU2018248211A patent/AU2018248211A1/en not_active Abandoned
-
2021
- 2021-06-17 AU AU2021204034A patent/AU2021204034B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000156818A (ja) | 1998-11-18 | 2000-06-06 | Nippon Telegr & Teleph Corp <Ntt> | パノラマ画像作成方法、装置、パノラマ画像作成プログラムを記録した記録媒体、情報提供方法、装置、情報提供プログラムを記録した記録媒体 |
JP2011234121A (ja) | 2010-04-27 | 2011-11-17 | Fujifilm Corp | 撮影装置、パノラマ撮影方法 |
JP2012191486A (ja) | 2011-03-11 | 2012-10-04 | Sony Corp | 画像合成装置と画像合成方法およびプログラム |
JP2014011782A (ja) | 2012-07-03 | 2014-01-20 | Canon Inc | 撮像装置ならびに撮像方法およびそのプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP3609174A4 (en) | 2020-04-15 |
AU2021204034A1 (en) | 2021-07-08 |
US20200258265A1 (en) | 2020-08-13 |
CN110476412B (zh) | 2022-04-12 |
AU2021204034B2 (en) | 2023-07-27 |
US11398060B2 (en) | 2022-07-26 |
CN110476412A (zh) | 2019-11-19 |
WO2018186016A1 (ja) | 2018-10-11 |
JPWO2018186016A1 (ja) | 2020-02-13 |
EP3609174A1 (en) | 2020-02-12 |
AU2018248211A1 (en) | 2019-08-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2764872C2 (ru) | Распознавание сорняка в естественной среде | |
Chianucci | An overview of in situ digital canopy photography in forestry | |
JP7156282B2 (ja) | 情報処理装置、情報処理方法、プログラム、情報処理システム | |
Brusa et al. | Increasing the precision of canopy closure estimates from hemispherical photography: Blue channel analysis and under-exposure | |
JP7415347B2 (ja) | 情報処理装置、情報処理方法、プログラム、センシングシステム | |
AU2021204034B2 (en) | Information processing device, information processing method and program | |
JP7415348B2 (ja) | 情報処理装置、情報処理方法、プログラム、センシングシステム | |
KR20190113523A (ko) | 정보 탐색 시스템 및 프로그램 | |
US20210201025A1 (en) | Information processing apparatus, information processing method, program, and information processing system | |
CN109918531A (zh) | 一种毒品原植物的搜查方法、装置和计算机可读存储介质 | |
WO2019181025A1 (ja) | 樹冠の同定装置、同定方法、プログラム、および記録媒体 | |
Liu et al. | Detection of Firmiana danxiaensis canopies by a customized imaging system mounted on an UAV platform | |
McCarthy et al. | Automated variety trial plot growth and flowering detection for maize and soybean using machine vision | |
WO2020179276A1 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
Syal et al. | Apple fruit detection and counting using computer vision techniques | |
US20230408889A1 (en) | Imaging apparatus and lens apparatus | |
CN110647781B (zh) | 一种基于谱图融合的农作物生长信息获取方法及装置 | |
Wang | Estimating forest attributes from spherical images | |
Cao | A Low-Cost Depth Imaging Mobile Platform for Canola Phenotyping | |
Gao et al. | Computer Vision and Less Complex Image Analyses to Monitor Potato Traits in Fields | |
WO2023234020A1 (ja) | 撮像装置、および撮像装置の作動方法、並びにプログラム | |
Herrera et al. | An automatic segmentation method based on geometrical features in hemispherical images for forest management | |
Neeser et al. | Performance and cost of field scouting for weeds and diseases using imagery obtained with an Unmanned Aerial Vehicle | |
Fernández Gallego | Image processing techniques for plant phenotyping using RGB and thermal imagery= Técnicas de procesamiento de imágenes RGB y térmicas como herramienta para fenotipado de cultivos | |
Gallego | Image Processing Techniques for Plant Phenotyping Using RGB and Thermal Imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220329 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220509 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221011 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20221011 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20221011 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221021 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230109 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7218722 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |