JP7218722B2 - 情報処理装置、情報処理方法、プログラム - Google Patents

情報処理装置、情報処理方法、プログラム Download PDF

Info

Publication number
JP7218722B2
JP7218722B2 JP2019511075A JP2019511075A JP7218722B2 JP 7218722 B2 JP7218722 B2 JP 7218722B2 JP 2019511075 A JP2019511075 A JP 2019511075A JP 2019511075 A JP2019511075 A JP 2019511075A JP 7218722 B2 JP7218722 B2 JP 7218722B2
Authority
JP
Japan
Prior art keywords
image
images
captured
specific
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019511075A
Other languages
English (en)
Other versions
JPWO2018186016A1 (ja
Inventor
昌利 高嶋
哲 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018186016A1 publication Critical patent/JPWO2018186016A1/ja
Application granted granted Critical
Publication of JP7218722B2 publication Critical patent/JP7218722B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本技術は情報処理装置、情報処理方法、プログラムに関し、例えばリモートセンシングのための撮像画像の合成処理に好適な技術分野に関する。
例えば小型の飛行体に撮像装置を搭載し、圃場の上空を移動しながら植物の植生状態を撮像していくことで、植生状態をリモートセンシングする取り組みがある。
特許文献1には、圃場を撮像し、リモートセンシングを行う技術に関して開示されている。
特許第5162890号公報
例えば圃場の上空で飛行体を移動させながら飛行体に搭載した撮像装置で圃場を撮像していくことで、ある程度広い範囲をカバーした圃場の植生の撮像画像が得られる。即ち少しずつ場所がずれた各時点の撮像画像を合成することで、圃場の広い範囲をカバーする合成画像が得られる。このようにすることで、圃場の各部の植生状態のセンシングに有効である。
ここで飛行体に搭載された撮像装置により撮影された画像は、ある程度の重なりを持って撮像されたもので、互いに画像のマッチングを確認しながらステッチ処理が行われる。それらの画像は同じ位置が視差を持って撮像されていることを利用して、オルソ化が行われ、例えば真上から見た画像に変換される。
しかしながら、植物の視差画像を使ってオルソ画像を作るやり方では、植物の複雑度に比べて情報が少ないため、植物を真上から見た画像に変換するのは難しい。
その結果、画像から植生状態の雰囲気を確認するには役立つが、測定結果をセンシングデータとして数値化する場合には、多くの誤差と不安定さが含まれており、不十分なものであった。
そこで本技術は、例えばリモートセンシング等に好適な誤差の少ない画像等の情報を得ることができるようにすることを目的とする。
本技術に係る情報処理装置は、特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出部と、異なる時点に取得された複数の取得画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成部と、前記合成画像を用いて植物の植生状態及び植生指数の算出を行う算出部とを備え、前記抽出部は、第1の撮像装置で得られた各時刻の第1の撮像画像から、前記第1の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、前記第1の撮像装置とは異なる撮像方向とする第2の撮像装置で得られた各時刻の第2の撮像画像から、前記第2の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、を行い、前記合成部は、各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を行い、前記算出部は、前記第1の合成画像を用いて植物の植生状態の算出を行い、前記第2の合成画像を用いて植生指数の算出を行う。
即ち、各時点の撮像情報から、同じ情報領域の情報を抽出して合成情報を得る。このとき、複数の撮像装置で撮像された撮像画像を対象とする。そして各撮像装置での各時点の撮像画像から特定領域の画像を抽出し、合成画像を生成する。また各撮像装置の撮像画像について、画像の画角の中央(視野中央で入射角が小さい範囲)の画像領域を抽出し、それらを集めて複数の合成画像を生成する。
上記した情報処理装置においては、前記合成部は、前記抽出部が抽出した複数の前記特定領域の画像を撮像時刻順に並べてステッチ処理を行うことで合成画像を生成することが考えられる。
撮像装置を移動させながら各時刻で撮像することで、広い範囲を対象とした複数の撮像画像を得ることができる。これらの撮像画像から特定領域抽出し、時刻順に並べてステッチ処理を行う。
上記した情報処理装置においては、前記合成部は、ステッチ処理を行った画像について位置情報を用いた処理を行うことが考えられる。
例えばステッチ後の画像を、撮像画像に付加された位置情報を利用して、地図画像に重ね合わせる処理を行う。
上記した情報処理装置においては、前記抽出部は、取得画像に応じて前記特定領域を設定することが考えられる。
撮像画像からどの領域を特定領域として画像を切り出すかの判定を撮像画像に応じて実行する。
上記した情報処理装置においては、前記抽出部は、各時刻の撮像画像毎に特定の画像状態の領域を判定し、判定した領域を前記特定領域とすることが考えられる。
各撮像画像における各部の画像状態(例えば明るさ等)に応じて特定領域を可変的に設定する。
上記した情報処理装置においては、前記抽出部は、選択情報に応じて特定領域を設定することが考えられる。
撮像画像のどの領域を特定領域とするかは、ユーザの選択操作に応じたものとする。
上記した情報処理装置においては、前記抽出部は、ラインセンサ型の撮像装置で得られた各時刻の撮像画像から前記特定領域の画像を抽出する処理を行うことが考えられる。
ラインセンサ型の撮像装置では受光素子は一次元の線状に並ぶため、撮像される画像の各ラインの入射角度は同様となる。
本技術にかかる情報処理方法は、特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出手順と、異なる時点に取得された複数の取得画像のそれぞれから前記抽出手順で抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成手順と、前記合成画像を用いて植物の植生状態及び植生指数の算出を行う算出手順とを情報処理装置が実行し、前記抽出手順では、第1の撮像装置で得られた各時刻の第1の撮像画像から、前記第1の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、前記第1の撮像装置とは異なる撮像方向とする第2の撮像装置で得られた各時刻の第2の撮像画像から、前記第2の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、を実行し、前記合成手順では、各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を実行し、前記算出手順では、前記第1の合成画像を用いて植物の植生状態の算出を行い、前記第2の合成画像を用いて植生指数の算出を行う処理を実行する
これにより各時点の撮像画像から、各撮像画像における同じ画像領域の画像を抽出して、それらの画像を合成する。
本技術にかかるプログラムは上記の各手順に相当する処理をコンピュータ装置に実行させるプログラムである。
これによりコンピュータ装置を用いて上記情報処理装置を容易に実現・提供できる。
本技術によれば、誤差が少なく例えば撮像情報をセンシングデータとして数値化する場合に好適な情報(画像情報等)を得ることができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
実施の形態で実行する植生状態のリモートセンシングの説明図である。 実施の形態のカメラユニットのブロック図である。 実施の形態のセンシングシステムのブロック図である。 実施の形態の他のセンシングシステムのブロック図である。 実施の形態の情報処理装置を実現するコンピュータ装置のブロック図である。 比較例として画像合成の説明図である。 実施の形態及び比較例の合成画像の説明図である。 第1の実施の形態の撮像及び特定領域の抽出の説明図である。 第1の実施の形態の合成画像の説明図である。 第1の実施の形態の画像処理のフローチャートである。 第2の実施の形態の画像処理のフローチャートである。 第3の実施の形態の画像処理のフローチャートである。 第3の実施の形態で考慮する葉の鏡面反射の説明図である。 第3の実施の形態の抽出する画像の説明図である。 第3の実施の形態で考慮する葉の鏡面反射の説明図である。 第3の実施の形態の抽出する画像の説明図である。 第4の実施の形態の撮像及び特定領域の抽出の説明図である。 第5の実施の形態の撮像及び特定領域の抽出の説明図である。
以下、実施の形態を次の順序で説明する。
<1.植生状態のリモートセンシングの説明>
<2.装置構成>
<3.第1の実施の形態>
<4.第2の実施の形態>
<5.第3の実施の形態>
<6.第4の実施の形態>
<7.第5の実施の形態>
<8.まとめ及び変形例>
<1.植生状態のリモートセンシングの説明>
実施の形態では圃場の植生状態のセンシングを行う場合を例に挙げて撮像画像の合成を行う情報処理装置について説明していくが、情報処理装置の説明に先立って、まず飛行体を用いたリモートセンシングに関して説明しておく。
図1Aは圃場100の様子を示している。昨今、図1Aのように飛行体300に搭載された撮像装置(カメラユニット20)を用いて、植生状態をリモートセンシングする取り組みが行われている。
図1Aにおける小型の飛行体300は、例えば操作者の無線操縦、或いは無線自動操縦等により、圃場100の上空を移動することができる。
飛行体300にはカメラユニット20が例えば下方を撮像するようにセットされている。飛行体300が所定の経路で圃場100の上空を移動する際に、カメラユニット20は例えば定期的に静止画撮像を行ったり、或いは動画撮像を行うことで、各時点において撮像視野の範囲の画像を得ることができる。
図1Bにはカメラユニット20による撮像視野を示している。例えばカメラユニット20の内部のイメージセンサ44に入射する被写体光の入射範囲θAL(画角)を示している。入射範囲θALは当然カメラユニット20内の図示しないズームレンズ機構などを含むレンズ系41により変化するが、通常、圃場100の上空を移動して撮像している期間(少なくとも合成画像生成用の画像を得るための撮像を行う期間)は或る画角に固定されているとする。
カメラユニット20がどのような撮像装置であるかは各種考えられる。
例えばカメラユニット20の撮像によって得られる画像ファイル(或る時点の撮像画像)には分光計測画像を含むことが考えられる。即ちカメラユニット20はマルチスペクトラムカメラとされ、撮像される画像としては、特定の2以上の波長領域の情報を有する測定画像を含む。
なおカメラユニット20としてR(赤)、G(緑)、B(青)の可視光画像を撮像するカメラが併用されてもよい。
またカメラユニット20として、赤波長領域(RED)と近赤外領域(NIR:Near InfraRed)の撮像画像を得るカメラであり、得られる画像はNDVI(Normalized Difference Vegetation Index)画像とするものが併用されても良い。
またカメラユニット20で撮像されて得られる画像には、タグ情報が付加されている。タグ情報には撮像日時情報や、GPS(Global Positioning System)データとしての位置情報(緯度/経度情報)、撮像装置情報(カメラの個体識別情報や機種情報等)、各画像データの情報(画サイズ、波長、撮像パラメータ等の情報)などが含まれている。
本実施の形態では、カメラユニット20による撮像画像データの処理を入射角の異なる画像領域毎に集計処理することで、植生の密度と植生の活性度を分離し、より詳しい情報を獲得できるようにする。
例えば入射範囲θALで入射した被写体光がイメージセンサ44によって光電変換され1枚の画像データとなる。このうちで、特定の入射角範囲θ1、θ2などとして入射された被写体光の画像領域を特定領域とする。
本実施の形態では、各時点で撮像される画像データから、このような特定領域の画像を集めて合成する処理を行うことになる。
この特定領域の画像を集めて合成した合成画像は、植生に関する各種の分析や観察に用いられる。例えば図示しない演算装置により、合成画像を用いて植生指数を求める処理を行うことが想定される。
環境ストレスの測定に用いる指数としては、
・PRI(photochemical reflectance index)
・クロロフィル蛍光の大きさ
・クロロフィル蛍光インデックス
・ステート遷移反射率
等がある。
PRIは、キサントフィルサイクルの脱エポキシ化に伴い変化する分光反射率をインデックス化したものである。キサントフィルサイクルは、強光や水ストレスに伴う気孔閉塞といった、光合成しきれない過剰な光エネルギーを熱として放出する機構である。
ここではPRIは、
PRI=(R570-R531)/(R570+R531)
として算出されるものとする。なお、「R570」は波長570nmの反射光強度、「R531」は波長531nmの反射光強度である。
クロロフィル蛍光の大きさは、太陽光によって励起されるクロロフィル蛍光の大きさ(solar-induced chlorophyll fluorescence(SIF))でもよいし、太陽光ではなくレーザーやLEDを用いてクロロフィル蛍光を励起させてもよい。
クロロフィル蛍光インデックスは、クロロフィル蛍光をいくつかの波長に分けて測定し、例えば685nm、735nmの2波長の比で表すものである。
クロロフィル蛍光を用いてストレス検出を行うこともできる。クロロフィル蛍光は植物の光合成に伴い植物から発せられる蛍光で、光により電子が励起した反応中心から一定時間内にエネルギーが抜き取られないと、高等植物では680nm~770nm前後の波長の蛍光としてエネルギーが放出される現象である。
放出されるエネルギーは入力光のエネルギーに対し0.5%~3%で、植物の光合成の状態に応じて変動し、強光や、水ストレスに伴う気孔閉塞といった光合成しきれない過剰な光エネルギーが多い場合に大きくなる。
カメラユニット20を用いて撮像し、後述する本実施の形態の手法で生成した合成画像に基づいて、これらの指標を生成することで、植生の的確な分析、観察が可能となる。
<2.装置構成>
実施の形態の情報処理装置10として機能する各種装置について説明する。
図2はカメラユニット20の構成例を説明する。カメラユニット20では、その信号処理部45を本実施の形態の情報処理装置10として機能させることができる。
図2に示すようにカメラユニット20は、レンズ系41、露光部42、フィルタ43、及びイメージセンサ44を有する測定部21と、信号処理部45及びI/F部46を有する処理部22を有する。
カメラユニット20において、被測定対象物等の被写体からの光(反射光)は、レンズ系41とフィルタ43を介してイメージセンサ44に入射される。
レンズ系41は入射端レンズ、ズームレンズ、フォーカスレンズ、集光レンズなど各種レンズを含む入射光学系とされている。
フィルタ43は被測定対象物についての測定しようとする波長を取り出すためのフィルタである。これは一般にイメージセンサ上に構成されるカラーフィルタとその前に配置されるIRカットフィルタなどを組み合わせたものを示しており、場合によってフィルタの一部は、露光部42の前(入射側)やレンズ系41の前などに置かれることもある。
露光部42は、イメージセンサ44において、信号電荷が飽和せずにダイナミックレンジ内に入っている状態でセンシングが行われるように、レンズ系41等の光学系やアイリス(絞り)による開口量などを調整することで、露光制御を行う。
イメージセンサ44は、そのセンサ面に、複数の画素が繰り返しパターンで2次元配列されたセンシング素子を有して構成される。
イメージセンサ44は、フィルタ43を通過した光を、センシング素子により検出することで、光の光量に応じた測定信号(画像データ)を信号処理部45に出力する。
信号処理部45は、イメージセンサ44から出力される画像データに対し各種の信号処理を行いインターフェース部46に出力する。
インターフェース部46は信号処理部45で処理された画像データその他の情報を外部機器に出力する。
ここで信号処理部45を含むカメラユニット20が本実施の形態の情報処理装置10として機能する場合、信号処理部45において図示のように抽出部1,合成部2,算出部3が設けられる。
抽出部1は、イメージセンサ44によって得られた撮像画像について、例えば画像内の特定の位置範囲である特定領域の画像を抽出する処理を行う。
合成部2は、異なる時点に撮像された複数の撮像画像のそれぞれから抽出した複数の特定領域の画像を合成して合成画像を生成する処理を行う。
算出部3は合成部2が生成した合成画像を用いて各種の算出を行う。例えば植生の密集度や植物種の分散などの植生状態を表す値を算出したり、上述したPRI、クロロフィル蛍光の大きさ、クロロフィル蛍光インデックス、ステート遷移反射率等の植生指数の算出を行う。
具体的な処理例は後述するが、少なくとも抽出部1、合成部2としての機能をハードウエア又はソフトウエアにより具備することで、信号処理部45(又は信号処理部45を有するカメラユニット20)は、請求項にいう情報処理装置に相当することになる。その場合、インターフェース部46は信号処理部45で生成された合成画像を外部機器に出力することができる。
また算出部3としての機能を備えることで、さらに植生状態や植生指数等の算出値を、インターフェース部46を介して外部機器に出力することができる。
なお、システム構成によってはカメラユニット20は、抽出部1、合成部2としての機能を備えない場合もあり得る。その場合、インターフェース部46はカメラユニット20による各時点の撮像画像を外部機器に送信する。
外部機器が抽出部1及び合成部2を備えた情報処理装置10とされていることで、その外部機器によって合成画像が生成される。
そのようなシステム構成例を図3に示す。
この例では2つのカメラユニット20A、20Bと、インターフェース部50と、信号処理装置51を示している。
カメラユニット20A、20Bは、それぞれ図2のような構成を有するが、信号処理部45は抽出部1及び合成部2としての機能を持たなくても良い。
例えばカメラユニット20A、20Bはそれぞれ、は各時点の撮像画像をインターフェース50に出力する。
インターフェース部50はカメラユニット20A、20Bからの各時点の撮像画像を信号処理装置51に送信する。
信号処理装置51は、例えばPC(personal computer)やFPGA(field-programmable gate array)などとして実現される。
この信号処理装置51が抽出部1及び合成部2としての機能を備えることで、カメラユニット20Aで撮像した撮像画像に基づいて合成画像を生成することができ、またカメラユニット20Bで撮像した撮像画像に基づいて合成画像を生成することができる。
また信号処理装置51は算出部3としての機能を備えることで、植生状態や植生指数等の算出値を求めることができる。
なお図3では2つのカメラユニット20A、20Bを示しているが、もちろん3以上のカメラユニット20を有するシステム構成も考えられる。
また例えば1つのカメラユニット20と信号処理装置51を接続したシステム構成も考えられる。
さらにこれらの場合、カメラユニット20(20A、20B)の信号処理装部45が抽出部1及び合成部2としての機能を備え、信号処理装置51が抽出部1及び合成部2としての機能を備えないことも想定される。
図4は更に他のシステム構成を示している。これは遠隔地にあるサーバ64が本実施の形態の情報処理装置10として機能する例である。
図4には2つのカメラユニット20A、20B、インターフェース部50、信号処理装置60、ルータ61、基地局62、ネットワーク63、サーバ64、ストレージ70を示している。
信号処理装置60は図3と同様にPCやFPGAなどとされるが、この場合、信号処理装置60は抽出部1及び合成部2としての機能を備えなくてもよい。
ルータ61は、例えばモバイル用のルータであり、基地局62を介して、インターネット等のネットワーク63に接続することができる。
信号処理装置60は、カメラユニット20A、20Bから取得した撮像画像を、ルータ61を用いてサーバ64に送信する。これにより撮像画像は基地局62、ネットワーク63を介してサーバ64に取り込まれる。
サーバ64は抽出部1及び合成部2としての機能を備える。これによりサーバ64は受信した撮像画像について画像抽出及び合成処理を行い、合成画像を生成することができる。
ストレージ70は、サーバ64において信号処理装置60から送信されてきた撮像画像の保存や、生成した合成画像の保存に用いられる。
またサーバ64は算出部3としての機能を備えることも考えられる。これにより合成画像を用いて植生状態や植生指数等の算出値を求めることができる。
信号処理装置60としてのPC等は、サーバ64にアクセスして、合成画像を閲覧したりダウンロードすることができる。
またサーバ64が算出部3を有する場合、信号処理装置60はサーバ64にアクセスして、植生状態や植生指数等の算出値を閲覧したり取得したりすることもできる。
以上の図2,図3,図4の例のように、カメラユニット20、PCやFPGA等の信号処理装置51、或いはサーバ64は、いずれも請求項にいう情報処理装置に相当する場合が想定される。
カメラユニット20内の信号処理部45は、例えばマイクロコンピュータなどとして、ソフトウエアにより抽出部1、合成部2、さらには算出部3としての機能を備えることが考えられる。
信号処理装置51やサーバ64は、例えば図5のようなハードウエア構成のコンピュータ装置150で実現される。
図5に示すようにコンピュータ装置150は、CPU(Central Processing Unit)151、ROM(Read Only Memory)152、RAM(Random Access Memory)153を有して構成される。
CPU151は、ROM152に記憶されているプログラム、または記憶部159からRAM153にロードされたプログラムに従って各種の処理を実行する。RAM153にはまた、CPU151が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU151、ROM152、およびRAM153は、バス154を介して相互に接続されている。このバス154にはまた、入出力インターフェース155も接続されている。
入出力インターフェース155には、液晶パネル或いは有機EL(Electroluminescence)パネルなどよりなるディスプレイ156、キーボード、マウスなどよりなる入力部157、スピーカ158、HDD(Hard Disk Drive)などより構成される記憶部159、通信部160などが接続可能である。
ディスプレイ156はコンピュータ装置150と一体でも良いし別体の機器でもよい。例えば撮像画像や合成画像の表示、評価指標の表示などが行われる。
入力部157は、コンピュータ装置150を使用するユーザが用いる入力デバイスを意味する。
通信部160は、インターネットを含むネットワーク63を介しての通信処理や、周辺各部の機器との間の通信を行う。
入出力インターフェース155にはまた、必要に応じてドライブ161が接続され、メモリカード162が装着され、メモリカード162から読み出されたコンピュータプログラムが、必要に応じて記憶部159にインストールされたり、CPU151で処理したデータが記憶される。もちろんドライブ161は、磁気ディスク、光ディスク、光磁気ディスク等のリムーバブル記憶媒体に対する記録再生ドライブとされてもよい。
このようなハードウエア構成において、実施の形態の情報処理装置10としての処理、即ち抽出部1、合成部2としての処理、或いはさらに算出部3としての処理を行うことができる。即ちこれらの処理はCPU151で起動されるソフトウエアにより実現される。そのソフトウエアを構成するプログラムは、ネットワークからダウンロードされたり、リムーバブル記憶媒体から読み出されたりして図5のコンピュータ装置150にインストールされる。或いはそのプログラムが記憶部159としてのHDD等に予め記憶されていてもよい。そしてCPU151において当該プログラムが起動されることで、上記各部の機能が発現する。
なお、実施の形態の信号処理装置51やサーバ64は、図5のようなハードウエア構成のコンピュータ装置(情報処理装置)150が単一で構成されることに限らず、複数のコンピュータ装置がシステム化されて構成されてもよい。複数のコンピュータ装置は、LAN等によりシステム化されていてもよいし、インターネット等を利用したVPN(Virtual Private Network)等により遠隔地に配置されたものでもよい。複数のコンピュータ装置には、クラウドコンピューティングサービスによって利用可能なコンピュータ装置が含まれてもよい。
またこの図5のコンピュータ装置150は、据え置き型、ノート型等のパーソナルコンピュータ、タブレット端末やスマートフォン等の携帯端末として実現できる。さらにはコンピュータ装置150としての機能を有する測定装置、テレビジョン装置、モニタ装置、撮像装置、設備管理装置等の電子機器でも、本実施の形態の情報処理装置10としての機能を搭載することができる。
<3.第1の実施の形態>
以下、第1の実施の形態としての画像処理を説明していくが、実施の形態の動作に先立って、まずは圃場100のリモートセンシングの場合に容易に想定される画像合成の手法を、比較例として説明する。
図6Aは圃場100の上空に飛行体300を飛ばしてカメラユニット20で圃場100を撮像している様子を示している。
図では圃場100について領域AR1、AR2・・・AR7を示しているが、これは説明のために便宜的に領域を分けているのであって、実際に圃場100が各領域に分かれている必要はない。
図6Aは、ある時点t10においてカメラユニット20で撮像できている視野範囲に領域AR1~AR5が含まれていることを示している。
圃場100の全体をカバーするため、飛行体300を矢印方向に移動させながら撮像を行っていく。
次の時点t11では、図6Bのように、カメラユニット20によって領域AR2~AR6の範囲が撮像される。
さらに次の時点t12では、図6Cのように、カメラユニット20によって領域AR3~AR7の範囲が撮像される。
これらの各時点t10,t11,t12においてカメラユニット20で撮像される画像を画像G(t10)、G(t11)、G(t12)とする。
圃場100の広い範囲について、植生の観察や分析のための画像を得るには、これらの各時点の画像を合成すればよい。
飛行体300で移動されながらカメラユニット20で撮像される画像G(G(t10)、G(t11)、G(t12)・・・)は、約90%の重なりを持つようにされる。そして図6Dに示すように各画像のマッチングを確認しながらステッチ処理が行われる。
これらの画像Gは同じ位置が視差を持って撮像されていることを利用して、オルソ化が行われ、図6Eのような真上から見た画像に変換される。この画像はRGBの可視光画像の場合もあれば、REDとNIR画像から作成されるNDVI画像であることもある。
しかし、植物の視差画像を使ってオルソ画像を作るやり方では、植物の複雑度に比べて情報が少ないため、植物を真上から見た画像に変換するのは難しい。その結果、画像から植生状態の雰囲気を確認するには役立つが、測定結果をセンシングデータとして数値化する場合には、多くの誤差と不安定さが含まれており、不十分なものとなってしまう。
図7Cに生成された合成画像の状態として不安定な誤差を多く含む画像を模式的に示している。
これに対して本実施の形態では、各時点の撮像画像Gについて、画像内の特定の位置範囲である特定領域の画像を抽出し、抽出した複数の特定領域の画像を合成して合成画像を生成することで、図7A、図7Bのような誤差の少ない合成画像を得るものである。
この場合、特定領域としては、入射角の小さい画像領域(真下に近い領域:第1入射角範囲)と入射角が大きい画像領域(進行方向の画面の上の領域:第2入射角範囲)としており、それぞれの領域の画像データをそれぞれステッチしたものが、図7Aの第1入射角画像と図7Bの第2入射角画像となる。
このように植生検査のために撮像された画像を、入射角範囲の異なる画像に分離し、それぞれでステッチ画像を作成する本実施の形態の処理の具体例を説明していく。
図8A~図8Eは先の比較例の図6と同様に、各時点での撮像の様子を示している。
図8Aは圃場100の上空に飛行体300を飛ばしてカメラユニット20で圃場100を撮像しているが、この時点t1では圃場100の領域AR1,AR2,AR3の画像が撮像されるとする。
図8Bの時点t2では、領域AR1,AR2,AR3、AR4の画像が撮像される。
図8Cの時点t3では、領域AR1~AR5の範囲の画像が撮像される。
図8Dの時点t4では、領域AR2~AR6の範囲の画像が撮像される。
図8Eの時点t5では、領域AR3~AR7の範囲の画像が撮像される。
ここでカメラユニット20には先に図1Bに示したように被写体光の入射範囲θAL(画角)がレンズ系41の状態で決まるが、その範囲内に図8に示す第1入射角範囲θ1、第2入射角範囲θ2が含まれているとする。
一例として第1入射角範囲θ1はほぼ真下となる入射角範囲である。
例えば図1Bに示すように第1入射角範囲θ1は、撮像素子であるイメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jを中心として±角度a1以内となる範囲である。即ち入射角度が最も小さくなる領域である。
また第2入射角範囲θ2は画角の中央からみて端部に寄った領域(入射角が大きい範囲)である。例えば図1Bにおいて、イメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jから第1の角度a3以上、第2の角度a4以下の範囲としている。
例えばこのような入射角範囲θ1、θ2として特定領域を設定し、各時点の撮像画像からこれらの特定領域を抽出する。
図8Aの時点t1の撮像画像からは、入射角範囲θ1、θ2の画像として、領域AR1、AR3を写した部分の画像が抽出される。これらの特定領域の画像を、領域と時点の符号により画像AR1(t1)、AR3(t1)として示している。
図8Bの時点t2の撮像画像からは、入射角範囲θ1、θ2の画像として、それぞれ領域AR2、AR4を写した部分の画像AR2(t2)、AR4(t2)が抽出される。
図8Cの時点t3の撮像画像からは、入射角範囲θ1、θ2の画像として、それぞれ領域AR3、AR5を写した部分の画像AR3(t3)、AR5(t3)が抽出される。
図8Dの時点t4の撮像画像からは、入射角範囲θ1、θ2の画像として、それぞれ領域AR4、AR6を写した部分の画像AR4(t4)、AR6(t4)が抽出される。
図8Eの時点t5の撮像画像からは、入射角範囲θ1、θ2の画像として、それぞれ領域AR5、AR7を写した部分の画像AR5(t5)、AR7(t5)が抽出される。
以降の時点の撮像画像からも同様に各特定領域の画像が抽出される。
そしてこのように抽出した特定領域の画像を集めて合成する。
各時点の入射角範囲θ1の画像AR1(t1)~AR7(t7)を集めて合成した画像は図9Aのようになる。なお、画像AR6(t6)、AR7(t7)は図8Eの時点t5より後の時点t6,t7の撮像画像から抽出された画像である。
これらの画像AR1(t1)~AR7(t7)は全て各時点でほぼ直下を写した画像となっている。このような第1入射角画像として図7Aのような画像が得られる。
また各時点の入射角範囲θ2の画像AR1(t-1)~AR7(t5)を集めて合成した画像は図9Bのようになる。なお、画像AR2(t0)、AR1(t-1)は図8Aの時点t1より前の時点t0,t-1の撮像画像から抽出された画像である。
画像AR1(t-1)~AR7(t5)は全て各時点で飛行体300の進行方向の斜め下方を写した画像となっている。このような第2入射角画像として図7Bのような画像が得られる。
図7A,図7Bの合成画像はいずれも画像の無理な変換がないため、安定した精度の高い画像が得られる。
また、図7Aの合成画像は、真上から見た画像で構成されているため、土の部分が映っており、植物の密度を観測することができる。
また、図7Bの合成画像は、植物を斜めから見た画像が集められているため、植物の状態、活性度だけを見ることができる。
このような合成画像を得るための本実施の形態の情報処理装置10、即ち抽出部1と合成部2による処理例を図10に示す。この処理は実際には、情報処理装置10として機能する図2のカメラユニット20の信号処理部45、図3の信号処理装置51、或いは図4のサーバ64において実行される処理例となる。なおこの点は後述の第2,第3の実施の形態の処理例(図11,図12)も同様である。
情報処理装置10は図10のステップS101でデータ取得を行う。具体的には各時点での撮像画像を取得する処理となる。
ステップS102で情報処理装置10は画像位置補正を行う。ここでは飛行体300の姿勢情報(IMU:Inertial Measurement Unit(慣性計測装置))を利用して、画像の入射角に応じた画像の歪補正を行う。
ステップS103で情報処理装置10は画像の分離、即ち特定領域の画像の抽出を行う。例えば上記の例の場合、それぞれの撮像画像から入射角の小さい画像領域(真下に近い領域)の画像(入射角範囲θ1の画像)と入射角が大きい画像領域(進行方向の画面の上の領域)の画像(入射角範囲θ2の画像)を分離抽出する。
ステップS104で情報処理装置10は画像合成を行う。
即ち情報処理装置10は各時点の入射角範囲θ1の画像を集め、図9Aのように撮像時刻順に並べてステッチ処理を行うことで入射角の小さい画像領域(真下に近い領域)のステッチ画像を生成する。また情報処理装置10は各時点の入射角範囲θ2の画像を集め、図9Bのように撮像時刻順に並べてステッチ処理を行うことで入射角が大きい画像領域(進行方向にみて斜め下方の領域)のステッチ画像を生成する。これにより、2つのステッチ画像を得る。
ステップS105で情報処理装置10は生成した合成画像データを保存し、ステップS106で終了判断を行う。
さらに処理を行う場合はステップS106からS101に戻って、他の撮像画像を用いた処理に移行する。終了する場合はステップS106から一連の処理を終える。
以上の処理により、各時点の撮像画像から特定領域を集めた合成画像が得られる。特定領域としては、入射角範囲θ1、θ2を想定したが、もちろんこれに限られない。 例えば入射角範囲θ1のみを特定領域として、1つの合成画像を生成するものでもよい。
また3つ以上の入射角範囲θ1、θ2、θ3・・・をそれぞれ特定領域として、3以上の合成画像を生成するようにしてもよい。
各入射角範囲θ1、θ2は、それぞれが完全に異なる入射角度範囲としたが、一部重複した入射角範囲としてもよい。
また、特定領域は入射角範囲θ1に基づいて決めるものでなくてもよい。例えばイメージセンサ44の撮像素子の領域範囲として特定領域を設定してもよい。例えば撮像素子配列上での中央領域などとして特定領域を決めるような例である。
また撮像画像領域内で撮像画素(ピクセル)の範囲として、水平・垂直の両方向で範囲を設定し、それを特定領域として設定してもよい。
いずれにしても、撮像画像の一部が特定領域として設定されればよい。
なお、情報処理装置10として算出部3を備える場合、例えばステップS106の後に、合成画像を用いて算出処理を行うことができる。
その場合、算出部3は図7Aのようなほぼ真上からの画像の合成画像を用いて植物の密集度を算出し、また図7Bのような画角の中央からみて左又は右方向(又は上又は下方向)に寄った領域(入射角が大きい範囲)の画像の合成画像を用いて植物の密集度を算出することが考えられる。
<4.第2の実施の形態>
第2の実施の形態の処理例を図11で説明する。図10と同一の処理は同一のステップ番号を付して重複説明を避ける。
この図11の処理例は先の図10の処理にステップS110が追加されたものである。
情報処理装置10は、ステップS104で画像合成を行ったら、ステップS110で地図画像処理を行う。
これはステッチ後の画像をGPSの情報を利用して地図画像に重ね合わせることで、正確な位置情報との整合性をとる処理である。
入射角の大きな画像はGPSとの位置がずれているため、その点も考慮して地図画像に重ね合わせが行われる。これによって正確な位置を反映した合成画像が得られることになる。
<5.第3の実施の形態>
第3の実施の形態の処理例を図12で説明する。図10と同一の処理は同一のステップ番号を付して重複説明を避ける。この図12は先の図10の処理にステップS120が追加された例である。
情報処理装置10は、ステップS120で抽出画像の判断を行う。これは特定領域を設定する処理である。つまりステップS101で取得した各時点の撮像画像について、どの領域を抽出するかを設定する処理である。
例えばステップS120で情報処理装置10は、特定領域とする画像領域を、撮像画像から判断して、適応的に切り替える処理を行う。
即ち入射角の小さい画像領域と大きい画像領域を分離する前に、どのような画像を切り出すかを、画像から判断する。
例えば植物は種類によって丈が違う。丈が長い植物程、入射角は小さくても、植生だけの画像を得ることが可能となる。
そこで例えば丈が長い植物の場合は、入射角範囲θ1は真下の画像領域(画像センターの入射は0度)、入射角範囲θ2は「入射角X度付近の画像領域」を選ぶ。
丈が短い植物の場合は、入射角範囲θ1は同じく真下の画像領域、入射角範囲θ2は「入射角Y度付近の画像領域」を選ぶこととする。ここで、入射角Xと入射角Yの関係は、入射角X<入射角Yという関係である。
撮像画像に写る圃場100の画像において植物の葉の部分と土の部分は画像解析により判別しやすい。その場合、直下の画像領域において土の部分が多ければ丈の短い植物、少なければ丈の長い植物という判定ができる。
例えばこのような手法で植物の丈を判定し、上記のように特定領域の設定を切り替えることができる。
そしてこの場合、丈の長い植物については、入射角範囲θ2の画像についても、なるべく入射角の小さい領域の画像が選択されることになる。よって画像歪を抑えつつ、植生の状態、活性度を捉えることが可能となる。
ステップS120の処理としてのもう1つの具体例として、太陽光の状態に応じて、植物が陰になる入射角の画像と、日向になる入射角を特定し、それぞれの入射角の画像だけを抽出するように特定領域を設定することも可能である。
日陰の画像と、日向の画像では、太陽光のスペクトルが異なるため、それぞれの太陽光スペクトルに応じた補正を行う必要があるが、このような補正が容易となる。
また植生のストレス状態も、日向と日陰では異なるため、その差を測定することで、ストレス状態を見分けることも可能となる。
この場合、飛行体300が飛行して撮像した各時点の撮像画像において、日向/日陰の領域がほぼ変わらない場合は、特定領域として入射角範囲θ1,θ2を1枚の撮像画像から設定することが考えられる。例えば周囲の地形により通常日向である位置や日陰である位置が決まり、飛行体300との相対関係では、撮像画像に反映される日向/日陰位置があまり変わらない場合である。
一方、飛行体300の進行に応じて、各時点の撮像画像内での日向/日陰の範囲が変化する場合もある。そこで、撮像画像毎に可変的に特定領域を設定してもよい。
即ち各撮像画像の日向の画像領域を第1の特定領域とし、各撮像画像の日陰の画像領域を第2の特定領域とする。
例えば撮像画像毎に画素領域の輝度分布、明度分布などを判定し、日向領域と日陰領域を特定し、それを第1,第2の特定領域として抽出する。
このようにすることで、撮像画像毎に日向/日陰の範囲が変化する場合でも、日向のみの画像を集めた合成画像や日陰のみの画像を集めた合成画像を得ることができる。
また太陽の位置、被写体の角度、カメラユニット20への入射角によって、植物から反射される鏡面反射の量が変化する。植生の状態を検知するためには、できるだけ鏡面反射の量を抑える必要がある。そこで、もう1つの例として、植物の種類、成長度合いに応じて、最も鏡面反射が少ない入射角を特定し、その入射角の画像を集めるということも有効である。
図13Aに示すように、トマトなどの葉は比較的上を向いている場合が多い。光源からの光が正反射(鏡面反射)する方向は物質への入射角と反射角が等しくなる方向である。よってトマトの場合、図13Bに示すような関係になる。即ち太陽400からの光は入射角AG1、反射角AG2が等しくなる状態で、逆の方向に光が反射される。
図14A、図14Bは圃場100に対して飛行体300が方向DA、DBに飛行する状態を示している。方向DAは太陽400を背にして進行する方向で、方向DBは太陽400に向かうように進行する方向である。
そして図14Cのように圃場100上を飛行体300が飛行する場合を考える。方向DAに向かって飛行している際には、入射角範囲θ2の抽出画像は撮像画像の上側(飛行体300の進行方向の画像:図14A参照)を採用し、逆に方向DBに向かって飛行している際には、撮像画像の下側(飛行体300の進行方向と逆側の画像:図14B参照)を採用する。これにより鏡面反射が少ない画像を集めることができる。
なお真下(入射角範囲θ1)の画像は鏡面反射量が入射角範囲θ2の画像に比べて大きいが、同時に取得することで、角度による植生の違いを推測するのに役立つ。
また、図15Aに示すように、芝などの場合には、葉は、上に向かって立っている葉が多く、太陽400からの光の鏡面反射の様子は図15Bのようになることが多い。
そのような場合には、入射角範囲θ2として抽出する画像は、図16A、図16Bに示すようにすることが考えられる。なお図16Cは図14Cと同様に圃場100上の飛行体300の飛行経路を示している。
図16Aに示すように、方向DAに向かって飛行している際には、入射角範囲θ2の抽出画像は撮像画像の下側(飛行体300の進行方向と逆側の画像)を採用し、逆に方向DBに向かって飛行している際には、図16Bに示すように、撮像画像の上側(飛行体300の進行方向の画像)を採用する。
以上のように、撮像画像の状態によって、特定領域とする入射角範囲を適応的に切り替えたり、或いは特定領域となる領域自体を撮像画像毎に選択するという手法を採ることもできる。
また被写体が明確な場合には、どのような入射角で測定をするかを、あらかじめ決めておき、それに基づいてステップS120で抽出する特定領域を選択することも可能である。即ちステップS120では、どの入射角の画像領域を特定領域とするかを、予め入力された設定情報に基づいて決定するという処理を行うものでもよい。
これによりスタッフが圃場100や植物の種類等に応じて臨機応変に、適切な合成画像を得ることができる設定を行うことができる。
<6.第4の実施の形態>
第4の実施の形態を図17で説明する。
これはカメラユニット20を入射角に合わせて複数台使用する例である。
図17A、図17B、図17Cは、先の図8C、図8D、図8Eと同様に時点t3,t4,t5における撮像の様子を示している。
この例では図17Dに示すように飛行体300には2つのカメラユニット20A、20Bを搭載している。カメラユニット20Aは撮像方向を真下とし、カメラユニット20Bは撮像方向を飛行体300の進行方向の斜め下方としている。即ちカメラユニット20Bは、カメラユニット20Aによっては入射角が大きくなってしまう範囲を狙った撮像方向とする。
つまりこの例の場合、カメラユニット20Aにおける光軸Jに近い入射角範囲θ1(図1B参照)を特定領域とする。そしてカメラユニット20Aで撮像された各時刻の撮像画像から、入射角範囲θ1の画像領域を抽出し、第1の合成画像を生成する。
また、カメラユニット20Bに関しても同じく光軸Jに近い入射角範囲θ1(図1B参照)を特定領域とする。そしてカメラユニット20Bで撮像された各時刻の撮像画像から、入射角範囲θ1の画像領域を抽出し、第2の合成画像を生成する。
すると第1、第2の合成画像は、図7A,図7Bと同様の、真下の画像と進行方向に見て斜め下方の画像となる。
但しこの場合、進行方向の斜め下方の合成画像もカメラユニット20Bにおいて入射角が小さい範囲の画像を集めたものとなっている。つまりレンズ歪みの少ない画像となる。
このように、2台のカメラユニット20A、20Bのそれぞれカメラセンターの画像を使って合成画像を生成することで、入射角および画角を小さくして、レンズ歪の少ない高画質な合成画像を得ることが可能となる。
<7.第5の実施の形態>
図18により第5の実施の形態を説明する。
図18A、図18B、図18Cは、先の図8C、図8D、図8Eと同様に時点t3,t4,t5における撮像の様子を示している。
この場合、図18Dに示すようにラインセンサ型のカメラユニット20AL,20BLを飛行体300に搭載する。カメラユニット20ALは撮像方向を真下とし、カメラユニット20BLは撮像方向を飛行体300の進行方向の斜め下方としている。
ラインセンサ型のカメラユニット20AL,20BLは、イメージセンサ44として受光素子が1次元の線状に配置されており、被写体との相対位置を変化させながら1ライン毎の撮像を行っていくものとなる。飛行体300の進行とともに、1ラインずつの撮像を行っていくことで、圃場100を上空から写した撮像画像を得る。
この場合、カメラユニット20ALの各時点の撮像画像は全体がほぼ同じ入射角度で得られた直下の画像となる。
またカメラユニット20BLの各時点の撮像画像は全体がほぼ同じ入射角度で得られた進行方向斜め下方の画像となる。
そしてカメラユニット20ALの各時点の撮像画像を用いて合成画像を生成し、またカメラユニット20BLの各時点の撮像画像を用いて合成画像を生成することで、合成画像としては全てのラインが同じ角度で撮像された画像を得ることが容易となる。
<8.まとめ及び変形例>
以上の実施の形態によれば次のような効果が得られる。
実施の形態の情報処理装置10は、特定波長領域の情報を有する撮像画像を取得し、撮像画像について、画像内の特定の位置範囲である特定領域の画像を抽出する抽出部1と、異なる時点に撮像された複数の撮像画像のそれぞれから抽出部1が抽出した複数の特定領域の画像を合成して合成画像を生成する合成部2を備える。即ち、各時点の撮像画像から、各撮像画像における同じ画像領域の画像を抽出して、それらの画像を合成するようにする。
これにより、誤差が少なく測定結果をセンシングデータとして数値化する場合に好適な画像を得ることができる。
例えば各撮像画像の左右方向の中央部分などを特定領域とする。その場合、撮像装置に対する角度(例えば撮像素子に対する被写体光の入射角度)がほぼ同じ範囲の画像を集めた合成画像を得ることができる。
撮像装置を移動させながら撮像した場合に、撮像装置に対する相対位置がほぼ同じ画像としての移動範囲の撮像画像を得ることができる。
例えば植物の視差画像を使ってオルソ画像を作るやり方では、植物の複雑度に比べて情報が少ないため、植物を真上から見た画像に変換するのは難しいため、撮像画像をセンシングデータとして数値化する場合には多くの誤差と不安定さが含まれており不十分なものとなる。これに対して実施の形態では、例えば全面にわたって植物を真上から見たような画像(図7A参照)を誤差を生じさせる大きな変換を行わず得ることが容易であり、植生状態のセンシングとして非常に好適となる。
各実施の形態では、特定領域は、カメラユニット20のイメージセンサ44に対する被写体光の入射角度が特定の入射角範囲である画像領域である例を述べた。そして各時点の撮像画像について、同じ入射角範囲の画像領域を抽出して合成する。
これにより、カメラユニット20を飛行体300により移動させながら撮像した場合に、ほぼ同じ入射角の被写体光による画像領域を集めて合成画像を得ることができる。
例えば撮像素子に対して最も入射角が小さい画像のみを集めて合成することで、歪みの少ない画像を得ることができる。
また例えば入射角が大きい領域の画像のみを集めて合成することで、画像全体が斜め方向から視認したような画像を得ることができる。
第1の実施の形態では、抽出部1は、撮像画像について、第1の特定領域の画像(入射角範囲θ1の画像)と第2の特定領域の画像(入射角範囲θ2の画像)を抽出する処理を行うものとした。そして合成部2は、異なる時点に撮像された複数の撮像画像のそれぞれから抽出された複数の第1の特定領域の画像を合成して第1の合成画像を生成する処理と、異なる時点に撮像された複数の撮像画像のそれぞれから抽出された複数の第2の特定領域の画像を合成して第2の合成画像を生成する処理とを行う例を述べた。つまり各時点の撮像画像から複数の合成画像を生成する。各合成画像は、例えば同じ入射角範囲の画像領域など、画像内の特定の位置範囲を集めた画像となる。
従って例えば入射角範囲が同様の画像を集めた複数の合成画像を生成することができる。例えば入射角範囲θ1の画像領域の合成画像として、カメラユニット20から直下に見た状態の圃場100の撮像画像が生成でき、同時に、カメラユニット20から斜め下に見た状態の圃場100の撮像画像が生成できる。
入射角度の異なる画像は、それぞれ各種の観察・分析のために適している点がある。このため多様な入射角画像が一度に得られることは、植生状態のリモートセンシングに非常に好適である。
もちろん、さらに抽出部が抽出した複数の第3の特定領域を合成して第3の合成画像を生成するなど、3以上の合成画像を生成することも可能である。
また入射角に応じた画像をそれぞれ集めることで、植物の状態を違った角度から評価するのに役立つ。例えば、真上から見た画像で構成されたものは、植物の成長度合に応じて、土の部分が映っているなど、植物の密度を観測するのに適している。植物を斜めから見た画像が集めることで、植物だけをとらえることができ、植物の状態、活性度を見るのに適している。
第1の実施の形態では、抽出部1は、特定領域の画像(入射角範囲θ1の画像)として、カメラユニット20のイメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jを中心として±角度a1内となる範囲(図1B参照)の画像領域の画像を抽出する例を説明した。つまり画像の画角の中央(視野中央で入射角が小さい範囲)の画像領域を抽出し、それらを集めて複数の合成画像を生成する。
画角中央の画像は、画像歪みが小さい。従って被写体(例えば圃場)の広い範囲を画像歪みの小さい画像としての合成画像が得られる、このような合成画像は、画像歪みが影響する方式の植生情報の分析或いは観察に好適となる。
例えば図7Aのような合成画像(第1入射角画像)として、画像の無理な変換がないため、安定した精度の高い画像が得られる。また、図7Aの合成画像は、真上から見た画像で構成されているため、土の部分が映っており、植物の密度を観測することができる。
第1の実施の形態では、抽出部1は、特定領域の画像(入射角範囲θ2の画像)として、カメラユニット20のイメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jから第1の角度a3以上、第2の角度a4以下の範囲(図1B参照)の画像領域の画像を抽出する例を述べた。
つまり画像の画角の中央からみて左又は右方向(又は上又は下方向)に寄った領域(入射角が大きい範囲)を特定領域とする。つまり画角として縁部に近い領域である。このような画像領域を抽出し、それらを集めて複数の合成画像を生成する。
画角縁部に近い画像は、斜め方向からの見た画像となる。圃場の画像として考えると、植物の葉によって土の部分が隠されたような画像となりやすい。そのため土の部分が分析のノイズになるような植生分析、観察に好適な画像を得ることができる。
例えば図7Bのような合成画像(第2入射角画像)として、植物を斜めから見た画像が集められているため、植物の状態、活性度だけを見ることができる。
各実施の形態のでは合成部2は、抽出部1が抽出した複数の特定領域の画像を撮像時刻順に並べてステッチ処理を行うことで合成画像を生成するものとしている(図9A、図9B参照)。
撮像装置を移動させながら各時刻で撮像することで、広い範囲を対象とした複数の撮像画像を得ることができる。これらの撮像画像から特定領域抽出し、時刻順に並べてステッチ処理を行う。
例えば圃場の広い範囲の画像として、被写体光の入射角範囲が同様の画像を得ることができ、広い範囲の植生分析に好適となる。
第2の実施の形態では、合成部2はステッチ処理を行った画像について位置情報を用いた処理を行う例を挙げた。例えばステッチ後の画像を、撮像画像に付加されたGPSの情報を利用して、地図画像に重ね合わせる処理を行う。
これにより位置関係が正確な合成画像を得ることができる。
第4の実施の形態では、抽出部1は、カメラユニット20Aで得られた各時刻の第1の撮像画像から特定領域の画像を抽出する処理と、カメラユニット20Bで得られた各時刻の第2の撮像画像から特定領域の画像を抽出する処理とを行うこととした。また合成部2は、各時刻の第1の撮像画像から抽出された特定領域の画像を合成して第1の合成画像を生成する処理と、各時刻の第2の撮像画像から抽出された特定領域の画像を合成して第2の合成画像を生成する処理とを行う。
つまり複数の撮像装置(カメラユニット20)で撮像された撮像画像を対象とする。そして各撮像装置での各時点の撮像画像から特定領域の画像を抽出し、合成画像を生成する。
この場合、複数のカメラユニット20A、20Bによって撮像した撮像画像から、それぞれ特定の入射角範囲の画像を集めて合成画像を生成することができる。
例えば図17で説明したように、カメラユニット20Aは飛行体300の直下を向き、カメラユニット20Bが飛行体300の斜め下方を向くようにするなどして、広い範囲で撮像画像が得られるようにする。するとカメラユニット20Aの撮像方向の設定や、抽出する特定領域の選択により、植生状態のセンシング等の目的に応じて好適な画像を得易くすることができる。
なおもちろん、さらに多数のカメラユニット20(例えばカメラユニット20A、20Bに加え不図示のカメラユニット20Cなど)を用いて、それぞれの撮像画像から特定領域を抽出して合成画像を得ることができる。
また複数のカメラユニット20を用いる場合でも、1つのカメラユニット20Aから複数の特定領域(第1の特定領域と第2の特定領域)の画像を抽出するようにして、それぞれ合成画像を生成するようにしてもよい。例えばカメラユニット20Aで撮像した撮像画像について第1,第2の特定領域を設定して2つの合成画像を生成し、さらにカメラユニット20Bで撮像した撮像画像について第1,第2の特定領域を設定して2つの合成画像を生成することとして、合計4つの合成画像を一度に生成することも可能である。
また第4の実施の形態においては、抽出部1は、カメラユニット20A、20Bの撮像画像の両方について、特定領域の画像として、被写体光の入射角度がレンズ系光軸Jを中心として所定角度内となる範囲(入射角範囲θ1)の画像領域の画像を抽出する例を説明した。即ち各カメラユニット20A、20Bの撮像画像について、画像の画角の中央(視野中央で入射角が小さい範囲)の画像領域を抽出し、それらを集めて複数の合成画像を生成する。
画角中央の画像は、画像歪みが小さい。従って被写体(例えば圃場)の広い範囲についての画像歪みの小さい合成画像が得られる。
例えば図17で説明したように、カメラユニット20Aは飛行体300の直下を向き、カメラユニット20Bが飛行体300の斜め下方を向くようにした場合、いずれも入射角が小さい範囲(光軸に近い範囲)の画像として、直下の視野となる画像と斜め下方の視野となる画像を得ることができる。つまりいずれも画像歪みが小さい画像として直下の画像と斜め下方の画像を得ることができる。
第3の実施の形態では、図12のステップS120の処理として抽出部1は、撮像画像に応じて特定領域を設定する例を述べた。即ち撮像画像からどの領域を特定領域として画像を切り出すかの判定を撮像画像に応じて実行する。
これにより撮像画像に応じて、圃場100等のセンシングの目的に沿った特定領域を抽出した合成画像を得ることができる。例えば、太陽光の照射状態に応じた特定領域設定などができる。
また第3の実施の形態のステップS120では、抽出部1は、各時刻の撮像画像毎に特定の画像状態の領域を判定し、判定した領域を特定領域としてもよい。即ち各撮像画像における各部の画像状態(例えば明るさ等)に応じて特定領域を可変的に設定する。
これにより例えば太陽光の照射状態が撮像画像毎に変化するような場合でも、日陰と日向などを的確に分離するための特定領域設定ができる。
また第3の実施の形態のステップS120では、抽出部1は、ユーザが予め設定した選択情報に応じて特定領域を設定してもよい。つまり撮像画像のどの領域を特定領域とするかは、ユーザの選択操作に応じたものとする。
これにより撮像画像に応じて、圃場等のセンシングの目的に沿った特定領域を抽出した合成画像を得ることができる。例えば、植物の種類に応じてユーザが特定領域を選択しておくことなどができる。
第5の実施の形態では、抽出部1は、ラインセンサ型のカメラユニット20AL,20BLで得られた各時刻の撮像画像から特定領域の画像を抽出する処理を行う例を述べた。ラインセンサ型の撮像装置では受光素子は一次元の線状に並ぶため、撮像される画像の各ラインの入射角度は同様となる。従って合成画像としては全てのラインが同じ入射角の被写体光となった画像を得ることが容易になる。
図2、図3、図4の構成例で示したように、合成画像を用いて植物の植生状態を算出を行う算出部3を備える場合がある。
抽出部1は、特定領域の画像(入射角範囲θ1の画像)として、カメラユニット20のイメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jを中心として±角度a1内となる範囲(図1B参照)の画像領域の画像を抽出し、合成部2が、異なる時点に撮像された複数の撮像画像のそれぞれから抽出部1が抽出した複数の特定領域の画像を合成して合成画像を生成する。この場合、算出部3はほぼ真上からの画像の合成画像を用いて植物の密集度を算出するようにする。
例えば図7Aのような合成画像(第1入射角画像)として、画像の無理な変換がないため、安定した精度の高い画像が得られ、また植物に加え、土などの植物以外の部分も映っている。従って算出部3は植生状態の算出を適切に行うことができる。植生状態とは例えば植物の密度(密集度)や、1又は複数の植物種の分散などである。
また、抽出部1は、特定領域の画像(入射角範囲θ2の画像)として、カメラユニット20のイメージセンサ44に対する被写体光の入射角度がレンズ系光軸Jから第1の角度a3以上、第2の角度a4以下の範囲(図1B参照)の画像領域の画像を抽出し、合成部2が、異なる時点に撮像された複数の撮像画像のそれぞれから抽出部1が抽出した複数の特定領域の画像を合成して合成画像を生成する。この場合、算出部3は画角の中央からみて左又は右方向(又は上又は下方向)に寄った領域(入射角が大きい範囲)の画像の合成画像を用いて植物の密集度を算出する。
例えば図7Bのような合成画像(第2入射角画像)として、土の部分が分析のノイズになるような植生分析、観察に好適な画像が得られる。このため、算出部3はこのような合成画像を用いることで、PRI等の植生指数の算出を精度良く実行できる。
なお各実施の形態においては抽出部1、合成部2は撮像画像を対象として処理を行うが、本技術における“撮像画像”とは、光電変換素子で得られた信号によって表現される情報の全てを含む。例えば可視光をそのまま表現した狭義の画像に限られない。
本発明の実施の形態のプログラムは、コンピュータ装置150のCPU151に、撮像画像内の特定領域の画像を抽出する抽出ステップ(S103)と、異なる時点に撮像された複数の撮像画像のそれぞれから抽出ステップで抽出した複数の特定領域の画像を合成して合成画像を生成する合成ステップ(S104)とをコンピュータ装置に実行させるプログラムである。
より具体的には、図10、図11、又は図12の処理をコンピュータ装置150のCPU151に実行させるプログラムである。
このようなプログラムにより本実施の形態の情報処理装置10の実現が容易となる。
そしてこのようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体や、CPUを有するマイクロコンピュータ内のROM等に予め記憶しておくことができる。あるいはまた、半導体メモリ、メモリカード、光ディスク、光磁気ディスク、磁気ディスクなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記憶)しておくことができる。またこのようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN、インターネットなどのネットワークを介してダウンロードすることもできる。
なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
なお本技術は以下のような構成も採ることができる。
(1)特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出部と、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成部と、を備えた
情報処理装置。
(2)前記抽出部は、撮像装置によって撮像された撮像画像としての取得画像内の特定領域の画像を抽出する
上記(1)に記載の情報処理装置。
(3)前記特定領域は、撮像装置の撮像素子に対する被写体光の入射角度が特定の入射角範囲である画像領域である
上記(2)に記載の情報処理装置。
(4)前記抽出部は、
撮像画像について、第1の特定領域の画像と第2の特定領域の画像を抽出する処理を行い、
前記合成部は、
異なる時点に撮像された複数の撮像画像のそれぞれから前記抽出部が抽出した複数の前記第1の特定領域の画像を合成して第1の合成画像を生成する処理と、
異なる時点に撮像された複数の撮像画像のそれぞれから前記抽出部が抽出した複数の前記第2の特定領域の画像を合成して第2の合成画像を生成する処理と、を行う
上記(2)又は(3)に記載の情報処理装置。
(5)前記抽出部は、
前記特定領域の画像として、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を抽出する
上記(2)乃至(4)のいずれかに記載の情報処理装置。
(6)前記抽出部は、
前記特定領域の画像として、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸から第1の角度以上、第2の角度以下の範囲の画像領域の画像を抽出する
上記(2)乃至(5)のいずれかに記載の情報処理装置。
(7)前記合成部は、前記抽出部が抽出した複数の前記特定領域の画像を撮像時刻順に並べてステッチ処理を行うことで合成画像を生成する
上記(2)乃至(6)のいずれかに記載の情報処理装置。
(8)前記合成部は、ステッチ処理を行った画像について位置情報を用いた処理を行う
上記(7)に記載の情報処理装置。
(9)前記抽出部は、
第1の撮像装置で得られた各時刻の第1の撮像画像から前記特定領域の画像を抽出する処理と、
第2の撮像装置で得られた各時刻の第2の撮像画像から前記特定領域の画像を抽出する処理と、を行い、
前記合成部は、
各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、
各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を行う
上記(2)乃至(8)のいずれかに記載の情報処理装置。
(10)前記抽出部は、
前記第1の撮像画像及び前記第2の撮像画像の両方について、前記特定領域の画像として、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を抽出する
上記(9)に記載の情報処理装置。
(11)前記抽出部は、取得画像に応じて前記特定領域を設定する
上記(1)乃至(10)のいずれかに記載の情報処理装置。
(12)前記抽出部は、各時刻の撮像画像毎に特定の画像状態の領域を判定し、判定した領域を前記特定領域とする
上記(2)乃至(10)のいずれかに記載の情報処理装置。
(13)前記抽出部は、選択情報に応じて特定領域を設定する
上記(1)乃至(10)のいずれかに記載の情報処理装置。
(14)前記抽出部は、
ラインセンサ型の撮像装置で得られた各時刻の撮像画像から前記特定領域の画像を抽出する処理を行う
上記(2)乃至(13)のいずれかに記載の情報処理装置。
(15)前記特定領域は、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域であり、
前記合成部が、異なる時点に撮像された複数の撮像画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成するとともに、
前記合成画像を用いて植物の植生状態の算出を行う算出部を備えた
上記(2)乃至(14)のいずれかに記載の情報処理装置。
(16)前記特定領域は、撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸から第1の角度以上、第2の角度以下の範囲の画像領域であり、
前記合成部が、異なる時点に撮像された複数の撮像画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成するとともに、
前記合成画像を用いて植生指数の算出を行う算出部を備えた
上記(2)乃至(15)のいずれかに記載の情報処理装置。
(17)特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出手順と、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出手順で抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成手順と、
を情報処理装置が実行する情報処理方法。
(18)特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出ステップと、
異なる時点に取得された複数の取得画像のそれぞれから前記抽出ステップで抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成ステップと、
をコンピュータ装置に実行させるプログラム。
1…抽出部、2…合成部、3…算出部、10…情報処理装置、20,20A,20B,20AL,20BL…カメラユニット、44…イメージセンサ、45…信号処理部、51…信号処理装置、64…サーバ、100…圃場、150…コンピュータ装置、300…飛行体

Claims (9)

  1. 特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出部と、
    異なる時点に取得された複数の取得画像のそれぞれから前記抽出部が抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成部と、
    前記合成画像を用いて植物の植生状態及び植生指数の算出を行う算出部と、
    を備え、
    前記抽出部は、
    撮像方向を真下とする第1の撮像装置で得られた各時刻の第1の撮像画像から、前記第1の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、
    撮像方向を斜め下方とする第2の撮像装置で得られた各時刻の第2の撮像画像から、前記第2の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、を行い、
    前記合成部は、
    各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、
    各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を行い、
    前記算出部は、
    前記第1の合成画像を用いて植物の植生状態の算出を行い、前記第2の合成画像を用いて植生指数の算出を行う
    情報処理装置。
  2. 前記合成部は、前記抽出部が抽出した複数の前記特定領域の画像を撮像時刻順に並べてステッチ処理を行うことで合成画像を生成する
    請求項1に記載の情報処理装置。
  3. 前記合成部は、ステッチ処理を行った画像について位置情報を用いた処理を行う
    請求項2に記載の情報処理装置。
  4. 前記抽出部は、取得画像に応じて前記特定領域を設定する
    請求項1に記載の情報処理装置。
  5. 前記抽出部は、各時刻の撮像画像毎に特定の画像状態の領域を判定し、判定した領域を前記特定領域とする
    請求項1に記載の情報処理装置。
  6. 前記抽出部は、選択情報に応じて特定領域を設定する
    請求項1に記載の情報処理装置。
  7. 前記抽出部は、
    ラインセンサ型の撮像装置で得られた各時刻の撮像画像から前記特定領域の画像を抽出する処理を行う
    請求項1に記載の情報処理装置。
  8. 特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出手順と、
    異なる時点に取得された複数の取得画像のそれぞれから前記抽出手順で抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成手順と、
    前記合成画像を用いて植物の植生状態及び植生指数の算出を行う算出手順と、
    を情報処理装置が実行し、
    前記抽出手順では、
    撮像方向を真下とする第1の撮像装置で得られた各時刻の第1の撮像画像から、前記第1の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、
    撮像方向を斜め下方とする第2の撮像装置で得られた各時刻の第2の撮像画像から、前記第2の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、を実行し、
    前記合成手順では、
    各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、
    各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を実行し、
    前記算出手順では、
    前記第1の合成画像を用いて植物の植生状態の算出を行い、前記第2の合成画像を用いて植生指数の算出を行う処理を実行する
    情報処理方法。
  9. 特定波長領域の情報を有する取得画像内の特定領域の画像を抽出する抽出ステップと、
    異なる時点に取得された複数の取得画像のそれぞれから前記抽出ステップで抽出した複数の前記特定領域の画像を合成して合成画像を生成する合成ステップと、
    前記合成画像を用いて植物の植生状態及び植生指数の算出を行う算出ステップと、
    をコンピュータ装置に実行させ、
    前記抽出ステップでは、
    撮像方向を真下とする第1の撮像装置で得られた各時刻の第1の撮像画像から、前記第1の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、
    撮像方向を斜め下方とする第2の撮像装置で得られた各時刻の第2の撮像画像から、前記第2の撮像装置の撮像素子に対する被写体光の入射角度がレンズ系光軸を中心として所定角度内となる範囲の画像領域の画像を前記特定領域の画像として抽出する処理と、を実行させ、
    前記合成ステップでは、
    各時刻の前記第1の撮像画像から抽出された前記特定領域の画像を合成して第1の合成画像を生成する処理と、
    各時刻の前記第2の撮像画像から抽出された前記特定領域の画像を合成して第2の合成画像を生成する処理と、を実行させ、
    前記算出ステップでは、
    前記第1の合成画像を用いて植物の植生状態の算出を行い、前記第2の合成画像を用いて植生指数の算出を行う処理を実行させる
    プログラム。
JP2019511075A 2017-04-05 2018-02-07 情報処理装置、情報処理方法、プログラム Active JP7218722B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017075043 2017-04-05
JP2017075043 2017-04-05
PCT/JP2018/004234 WO2018186016A1 (ja) 2017-04-05 2018-02-07 情報処理装置、情報処理方法、プログラム

Publications (2)

Publication Number Publication Date
JPWO2018186016A1 JPWO2018186016A1 (ja) 2020-02-13
JP7218722B2 true JP7218722B2 (ja) 2023-02-07

Family

ID=63712589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019511075A Active JP7218722B2 (ja) 2017-04-05 2018-02-07 情報処理装置、情報処理方法、プログラム

Country Status (6)

Country Link
US (1) US11398060B2 (ja)
EP (1) EP3609174A4 (ja)
JP (1) JP7218722B2 (ja)
CN (1) CN110476412B (ja)
AU (2) AU2018248211A1 (ja)
WO (1) WO2018186016A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI724764B (zh) * 2020-01-21 2021-04-11 國立臺灣大學 光譜照相裝置
US20240015375A1 (en) * 2020-11-10 2024-01-11 Sony Group Corporation Imaging device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156818A (ja) 1998-11-18 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> パノラマ画像作成方法、装置、パノラマ画像作成プログラムを記録した記録媒体、情報提供方法、装置、情報提供プログラムを記録した記録媒体
JP2011234121A (ja) 2010-04-27 2011-11-17 Fujifilm Corp 撮影装置、パノラマ撮影方法
JP2012191486A (ja) 2011-03-11 2012-10-04 Sony Corp 画像合成装置と画像合成方法およびプログラム
JP2014011782A (ja) 2012-07-03 2014-01-20 Canon Inc 撮像装置ならびに撮像方法およびそのプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005041562A1 (ja) * 2003-10-22 2005-05-06 Matsushita Electric Industrial Co., Ltd. 撮像装置とその製造方法、携帯機器、及び撮像素子とその製造方法
JP5162890B2 (ja) 2006-12-01 2013-03-13 株式会社サタケ リモートセンシングにおける補正方法
CA2683206C (en) * 2009-10-17 2018-07-03 Hermary Opto Electronics Inc. Enhanced imaging method and apparatus
US9025831B2 (en) * 2009-11-10 2015-05-05 Monsanto Technology Llc Apparatus and methods for automated phenotypic screening of plant genotypes
US8687062B1 (en) * 2011-08-31 2014-04-01 Google Inc. Step-stare oblique aerial camera system
US9864184B2 (en) * 2012-10-30 2018-01-09 California Institute Of Technology Embedded pupil function recovery for fourier ptychographic imaging devices
WO2015088618A2 (en) * 2013-09-26 2015-06-18 Konica Minolta Laboratory U.S.A., Inc. Method and system of calibrating a multispectral camera on an aerial vehicle
IL236606B (en) * 2015-01-11 2020-09-30 Gornik Amihay Standards and methods for agricultural monitoring

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000156818A (ja) 1998-11-18 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> パノラマ画像作成方法、装置、パノラマ画像作成プログラムを記録した記録媒体、情報提供方法、装置、情報提供プログラムを記録した記録媒体
JP2011234121A (ja) 2010-04-27 2011-11-17 Fujifilm Corp 撮影装置、パノラマ撮影方法
JP2012191486A (ja) 2011-03-11 2012-10-04 Sony Corp 画像合成装置と画像合成方法およびプログラム
JP2014011782A (ja) 2012-07-03 2014-01-20 Canon Inc 撮像装置ならびに撮像方法およびそのプログラム

Also Published As

Publication number Publication date
EP3609174A4 (en) 2020-04-15
AU2021204034A1 (en) 2021-07-08
US20200258265A1 (en) 2020-08-13
CN110476412B (zh) 2022-04-12
AU2021204034B2 (en) 2023-07-27
US11398060B2 (en) 2022-07-26
CN110476412A (zh) 2019-11-19
WO2018186016A1 (ja) 2018-10-11
JPWO2018186016A1 (ja) 2020-02-13
EP3609174A1 (en) 2020-02-12
AU2018248211A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
RU2764872C2 (ru) Распознавание сорняка в естественной среде
Chianucci An overview of in situ digital canopy photography in forestry
JP7156282B2 (ja) 情報処理装置、情報処理方法、プログラム、情報処理システム
Brusa et al. Increasing the precision of canopy closure estimates from hemispherical photography: Blue channel analysis and under-exposure
JP7415347B2 (ja) 情報処理装置、情報処理方法、プログラム、センシングシステム
AU2021204034B2 (en) Information processing device, information processing method and program
JP7415348B2 (ja) 情報処理装置、情報処理方法、プログラム、センシングシステム
KR20190113523A (ko) 정보 탐색 시스템 및 프로그램
US20210201025A1 (en) Information processing apparatus, information processing method, program, and information processing system
CN109918531A (zh) 一种毒品原植物的搜查方法、装置和计算机可读存储介质
WO2019181025A1 (ja) 樹冠の同定装置、同定方法、プログラム、および記録媒体
Liu et al. Detection of Firmiana danxiaensis canopies by a customized imaging system mounted on an UAV platform
McCarthy et al. Automated variety trial plot growth and flowering detection for maize and soybean using machine vision
WO2020179276A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
Syal et al. Apple fruit detection and counting using computer vision techniques
US20230408889A1 (en) Imaging apparatus and lens apparatus
CN110647781B (zh) 一种基于谱图融合的农作物生长信息获取方法及装置
Wang Estimating forest attributes from spherical images
Cao A Low-Cost Depth Imaging Mobile Platform for Canola Phenotyping
Gao et al. Computer Vision and Less Complex Image Analyses to Monitor Potato Traits in Fields
WO2023234020A1 (ja) 撮像装置、および撮像装置の作動方法、並びにプログラム
Herrera et al. An automatic segmentation method based on geometrical features in hemispherical images for forest management
Neeser et al. Performance and cost of field scouting for weeds and diseases using imagery obtained with an Unmanned Aerial Vehicle
Fernández Gallego Image processing techniques for plant phenotyping using RGB and thermal imagery= Técnicas de procesamiento de imágenes RGB y térmicas como herramienta para fenotipado de cultivos
Gallego Image Processing Techniques for Plant Phenotyping Using RGB and Thermal Imagery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221011

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221011

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221011

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221021

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230109

R151 Written notification of patent or utility model registration

Ref document number: 7218722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151