JP2014183788A - 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム - Google Patents

情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム Download PDF

Info

Publication number
JP2014183788A
JP2014183788A JP2013062017A JP2013062017A JP2014183788A JP 2014183788 A JP2014183788 A JP 2014183788A JP 2013062017 A JP2013062017 A JP 2013062017A JP 2013062017 A JP2013062017 A JP 2013062017A JP 2014183788 A JP2014183788 A JP 2014183788A
Authority
JP
Japan
Prior art keywords
image
index
crop
growth
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013062017A
Other languages
English (en)
Other versions
JP2014183788A5 (ja
JP5950166B2 (ja
Inventor
Morio Ogura
盛生 小倉
Hirobumi Sumi
博文 角
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013062017A priority Critical patent/JP5950166B2/ja
Priority to TW103102014A priority patent/TWI615605B/zh
Priority to EP23169780.6A priority patent/EP4220129A1/en
Priority to KR1020227000999A priority patent/KR102487134B1/ko
Priority to RU2015139842A priority patent/RU2659883C2/ru
Priority to KR1020157021071A priority patent/KR102227077B1/ko
Priority to BR112015024105-0A priority patent/BR112015024105B1/pt
Priority to KR1020217002303A priority patent/KR102362910B1/ko
Priority to EP14719877.4A priority patent/EP2979079B1/en
Priority to CN202010672995.1A priority patent/CN111929253B/zh
Priority to US14/777,549 priority patent/US10607078B2/en
Priority to CN201480016948.4A priority patent/CN105308436B/zh
Priority to PCT/JP2014/001497 priority patent/WO2014156039A1/en
Priority to AU2014245679A priority patent/AU2014245679B2/en
Publication of JP2014183788A publication Critical patent/JP2014183788A/ja
Publication of JP2014183788A5 publication Critical patent/JP2014183788A5/ja
Application granted granted Critical
Publication of JP5950166B2 publication Critical patent/JP5950166B2/ja
Priority to US16/812,678 priority patent/US11699286B2/en
Priority to US16/942,432 priority patent/US11443509B2/en
Priority to US17/713,639 priority patent/US11875562B2/en
Priority to US18/132,309 priority patent/US12014538B2/en
Priority to US18/324,603 priority patent/US20230306736A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/30Measuring the intensity of spectral lines directly on the spectrum itself
    • G01J3/36Investigating two or more bands of a spectrum by separate detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/51Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/51Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters
    • G01J3/513Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters having fixed filter-detector pairs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/251Colorimeters; Construction thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/255Details, e.g. use of specially adapted sources, lighting or optical systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/314Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry with comparison of measurements at specific and non-specific wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/01Arrangements or apparatus for facilitating the optical investigation
    • G01N2021/0106General arrangement of respective parts
    • G01N2021/0118Apparatus with remote processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1793Remote sensing
    • G01N2021/1797Remote sensing in landscape, e.g. crops
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/314Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry with comparison of measurements at specific and non-specific wavelengths
    • G01N2021/3155Measuring in two spectral ranges, e.g. UV and visible
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/8466Investigation of vegetal material, e.g. leaves, plants, fruits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • G01N21/35Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light
    • G01N21/359Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry using infrared light using near infrared light
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/0098Plants or trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Botany (AREA)
  • Environmental Sciences (AREA)
  • Ecology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Forests & Forestry (AREA)
  • Human Resources & Organizations (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Primary Health Care (AREA)
  • Tourism & Hospitality (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Wood Science & Technology (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)

Abstract

【課題】適切に適正収穫時期を予測できるようにする。
【解決手段】センサカメラ11は、作物の画像をRGB画像、および近赤外線画像として撮像する。サーバ14は、画像における前記作物である被写体が撮像された領域を特定し、特定した前記画像における被写体が撮像された領域の、前記RGB画像、および前記近赤外線画像の画像に基づいて、前記作物の生育指標を算出する。本技術は、農産物の生育管理システムに適用することができる。
【選択図】図1

Description

本技術は、情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラムに関し、特に、適切に農作物の生育指標、および予想適正収穫時期を適切に算出することができるようにした情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラムに関する。
人口衛星に搭載したセンサにより植物からの反射光(近赤外光)をセンシングすることにより、作物の生育状況、収穫期推定を行う衛星リモートセンシングは、夜間や雲の下のデータは取得できない上、衛星からデータが手元に届くまでに数日を要し、リアルタイムな情報となりにくい。また、衛星が周回しているため同一地点での情報は衛星の周期に依存することになるため、広い範囲のおおまかな情報は得られるが、狭い領域の正確な情報は得るのが難しかった。
また、地上に設置したセンサを用いる近接リモートセンシングは、対象物からセンサまでの距離が近いので、衛星リモートセンシングに比べて大気の影響が少ないこと、対象物以外のセンサへの写り込みが無く純粋な対象物のデータが取得できること、好きな時にデータを取得できることなどのメリットがある。前記リモートセンシングとして、植物の近くで画像情報を取得し、画像情報をコンピュータに送信し、コンピュータにて、植生指数を算出し、繊維量等の評価項目との相関関係に基づき、収穫適切時期かを評価、また収穫適切時期を予測するものが開示されている(特許文献1参照)。
WO2009/116613号国際公開公報
しかしながら、上述した特許文献1に記載された技術では、作物を撮影するカメラは単数であるため、畑の領域内で生育状況にばらつきがある場合、たまたま撮影した作物の生育状況で畑全体の生育状況を認識することとなり、収穫適切時期の評価や収穫適切時期の予測の精度が低くなってしまうことがあった。また、異なる地域に存在する多くの畑での生育状況を自動的に把握することはできなかった。
また、特許文献1に記載された技術では、近赤外光センサおよび赤色光センサを用いて、作物の画像データから近赤外光および赤色光データに基づいた演算によって植生指数を算出することによって作物の生育状況を評価する精度が不十分であった。すなわち、作物の色を用いた生育状況の評価と植生指数による生育状況の評価を組み合わせて評価を行うことによって評価の精度を向上させることが困難であった。
さらに、特許文献1に記載された技術では、カメラとしてリモートセンシング用の専用機を用いてもよい旨記載されている。リモートセンシングの専用機としては、マルチスペクトルカメラ(マルチバンドカメラ)やハイパースペクトルカメラが用いられている。前者は、バンドパスフィルタの機械的な切り換えが必要であり、画像領域の同時性が不十分であった。また、後者は、スキャンが必要であるため、画像領域の同時性が不十分であり、さらに、光学系が複雑であるため、カメラの小型化が困難であり高価であって、さらに、データ容量が大きいため、通信負荷が大きくなり、特に無線通信に適していなかった。
さらに、特許文献1に記載された技術では、生産者又は管理者に対して収穫適切時期の評価結果、または収穫適切時期の予測を提供することが前提となっている。この場合、生産者が収穫時期を予想・把握することはできるが、小売業者、一般消費者、若しくはレストラン等、小売業者を通さずに作物を購入したい消費者、物流業者等、作物の収穫時期を把握したいニーズに応えることができなかった。
本技術は、このような状況に鑑みてなされたものであり、特に、RGB画像、およびNIR画像に基づいて、農作物の生育指標、および予想適正収穫時期を適切に算出できるようにすると共に、生育指標、および予想適正収穫時期の情報を、生産者、および管理者に対してのみならず、小売業者、一般消費者、および物流業者等に配信できるようにするものである。
本技術の第1の側面の情報処理システムは、作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像部と、前記画像における前記作物である被写体が撮像された領域を特定する特定部と、前記特定部により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出部とを含む。
前記生育指標画像は、NDVI(Normalized Difference Vegetation Index)画像、SR(Simple Ratio)画像、GEMI(Global Environment Monitoring Index)画像、SAVI(Soil Adjusted Vegetation Index)画像、EVI(Enhanced Vegetation Index)、PVI(Perpendicular Vegetation Index)画像、PRI(Photochemical Reflectance Index)画像、SIPI(Structure Insensitive Pigment Index)画像、PSRI(Plant Senescing Reflectance Index)画像、CI(Chlorophyll Index)画像、mSR(Modified Simple Ratio)画像、mND(Modified Normalized Diffrence)画像、CCI(Canopy Chlorophyll Index)画像、WI(Water Index)画像、NDWI(Normalized Difference Water Index)画像、CAI(Cellulose Absorption Index)画像、RVI(Ratio Vegetation Index)画像、KVI(Kind of Vegetation Index)画像、およびDVI(Difference Vegetation Index)画像のいずれか、または、それらの組み合わせの画像とすることができる。
前記撮像部は、RGB画像の各色彩のイメージセンサ、および、NIRのイメージセンサより構成されるようにすることができる。
前記撮像部は、RGB画像、およびNIRの各色彩の画素配列は、平面に配列されるようにすることができる。
前記撮像部は、RGB画像、およびNIRの各色彩の画素は、光の進行方向に積層されて配列されるようにすることができる。
前記特定部により特定された前記画像における前記作物である被写体が撮像された領域の赤色画像、およびNIR画像に基づいて、前記作物の前記生育指標画像を算出する生育指標画像算出部をさらに含ませるようにすることができ、前記生育指標算出部には、前記生育指標画像算出部により算出された前記生育指標画像に基づいて、前記作物の生育指標を算出させるようにすることができる。
前記生育指標画像算出部には、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域の赤色画像、およびNIR画像に基づいて、求められる前記近赤外線反射率から前記生育指標画像を算出し、前記生育指標画像の平均、分散、または高次分散に基づいて、前記作物の生育指標画像生育指標を算出させるようにすることができる。
前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像に基づいて、前記作物のRGB画像生育指標を算出するRGB画像生育指標算出部をさらに含ませるようにすることができ、前記生育指標算出部には、前記RGB画像生育指標算出部により算出された前記RGB画像生育指標に基づいて、前記作物の生育指標を算出させるようにすることができる。
前記RGB画像生育指標算出部には、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像における所定の色の割合からRGB画像生育指標を算出させるようにすることができる。
前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像であって、異なる角度から同一の前記作物である被写体を撮像した少なくとも2枚以上の画像より求められる視差画像に基づいた視差画像生育指標を算出する視差画像生育指標算出部をさらに含ませるようにすることができ、前記生育指標算出部には、前記視差画像生育指標算出部により算出された前記視差画像生育指標に基づいて、前記作物の生育指標を算出させるようにすることができる。
前記視差画像生育指標算出部には、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像であって、異なる角度から同一の前記作物である被写体を撮像した少なくとも2枚以上の画像より求められる視差画像に基づいて算出される、前記作物の撮像方向の距離により推定される作物の大きさから、前記視差画像生育指標を算出させるようにすることができる。
前記撮像部を識別する情報に対応付けて、前記撮像部の位置、前記撮像部により撮像された画像、前記撮像部により撮像された画像の撮像日時、および前記撮像部により撮像された作物毎の生育指標を、管理情報として記憶する記憶部と、前記記憶部に記憶されている作物毎の生育指標、並びに、過去の作物毎の生育指標と収穫時期との関係に基づいて、前記作物の予想適正収穫時期を算出する収穫時期算出部とを含ませるようにすることができ、前記記憶部には、前記収穫時期算出部により算出された予想適正収穫時期の情報も併せて、前記撮像部を識別する情報に対応付けて記憶させるようにすることができる。
前記情報処理システムは、前記撮像部を備えたセンサ、前記管理情報を記憶する記憶部を管理するサーバ、および、前記サーバに収穫時期を問い合わせる端末装置からこうせいすることができ、前記サーバには、前記端末装置より前記予想適正収穫時期の問い合わせを受けさせると共に、前記記憶部に記憶されている管理情報に基づいて、前記予想適正収穫時期の問い合わせに対するものであって、前記記憶部に記憶されている管理情報に基づいた予想適正収穫時期を含む応答情報を生成させ、前記端末装置に送信させるようにすることができる。
本技術の第1の側面の情報処理方法は、作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像処理をし、前記画像における前記作物である被写体が撮像された領域を特定する特定処理をし、前記特定処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出処理をするステップを含む。
本技術の第1の側面のプログラムは、作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像ステップと、前記画像における前記作物である被写体が撮像された領域を特定する特定ステップと、前記特定ステップの処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出ステップとを含む処理を情報処理システムを制御するコンピュータに実行させる。
本技術の第2の側面の撮像装置は、作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像部と、前記画像における前記作物である被写体が撮像された領域を特定する特定部と、前記特定部により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出部とを含む。
前記生育指標画像は、NDVI(Normalized Difference Vegetation Index)画像、SR(Simple Ratio)画像、GEMI(Global Environment Monitoring Index)画像、SAVI(Soil Adjusted Vegetation Index)画像、EVI(Enhanced Vegetation Index)、PVI(Perpendicular Vegetation Index)画像、PRI(Photochemical Reflectance Index)画像、SIPI(Structure Insensitive Pigment Index)画像、PSRI(Plant Senescing Reflectance Index)画像、CI(Chlorophyll Index)画像、mSR(Modified Simple Ratio)画像、mND(Modified Normalized Diffrence)画像、CCI(Canopy Chlorophyll Index)画像、WI(Water Index)画像、NDWI(Normalized Difference Water Index)画像、CAI(Cellulose Absorption Index)画像、RVI(Ratio Vegetation Index)画像、KVI(Kind of Vegetation Index)画像、およびDVI(Difference Vegetation Index)画像のいずれか、または、それらの組み合わせの画像とすることができる。
前記撮像部は、RGB画像の各色彩のイメージセンサ、および、近赤外線のイメージセンサより構成されるようにすることができる。
前記撮像部は、RGB画像、および近赤外線の各色彩の画素配列は、平面に配列されるようにすることができる。
前記撮像部は、RGB画像、および近赤外線の各色彩の画素は、光の進行方向に積層されて配列されるようにすることができる。
本技術の第2の側面の撮像方法は、作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像処理をし、前記画像における前記作物である被写体が撮像された領域を特定する特定処理をし、前記特定処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出処理をするステップを含む。
本技術の第2の側面のプログラムは、作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像ステップと、前記画像における前記作物である被写体が撮像された領域を特定する特定ステップと、前記特定ステップの処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出ステップとを含む処理を撮像装置を制御するコンピュータに実行させる。
本技術の第1および第2の側面においては、作物の画像がRGB画像、およびNIR(近赤外線)画像として撮像され、前記画像における前記作物である被写体が撮像された領域が特定され、前記特定部により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標が算出される。
本技術の第1,第2の側面においては、独立した装置であっても良いし、各処理を行うブロックであっても良い。
本技術の第1,第2の側面によれば、農作物の生育指標と予想適正収穫時期を適切に算出させることが可能となる。
情報処理システムの構成例を示す図である。 図1のセンサカメラの構成例を示す図である。 図2のセンサカメラにおけるセンサの構成例を示す図である。 図1の端末装置の構成例を示す図である。 図1のサーバの構成例を示す図である。 管理情報の構成例を示す図である。 センサカメラによる生育状況情報蓄積処理を説明するフローチャートである。 センサカメラ間の生育状況情報の転送方法を説明する図である。 センサカメラ間の生育状況情報の転送方法を説明する図である。 センサカメラによるセンシング処理について説明するフローチャートである。 サーバによる生育状況情報蓄積処理を説明するフローチャートである。 端末装置による収穫計画受信処理について説明するフローチャートである。 ステレオ画像の撮像原理を説明する図である。 端末装置とサーバによる問合応答処理を説明するフローチャートである。 センサの第1の変形例を説明する図である。 センサの第2の変形例を説明する図である。 センサの第3の変形例を説明する図である。 センサの第4の変形例を説明する図である。 汎用のパーソナルコンピュータの構成例を説明する図である。
以下、本開示における実施の形態(以下、本実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(情報処理システムの一実施の形態の構成例)
2.第1の変形例(センサ構造の第1の変形例)
3.第2の変形例(センサ構造の第2の変形例)
4.第3の変形例(センサ構造の第3の変形例)
5.第4の変形例(センサ構造の第4の変形例)
<1.第1の実施の形態>
<情報処理システムの構成例>
まず、図1を参照して、本発明の一実施の形態の構成例である情報処理システムの構成例について説明する。
図1の情報処理システムは、センサカメラ11−1乃至11−N、消費者、小売業者、物流業者、および農家のそれぞれにより管理される端末装置12−1乃至12−4、ネットワーク13、並びにサーバ14から構成されている。図1の情報処理システムは、センサカメラ11−1乃至11−Nにより撮像される画像が、インターネットに代表されるネットワーク13を介して、サーバ14に供給されることにより、サーバ14において、農作物の生育指標が算出されると共に、生育指標に基づいて、予想適正収穫時期が算出される。そして、サーバ14は、消費者、小売業者、物流業者、および農家のそれぞれにより管理される端末装置12−1乃至12−4からの予想適正収穫時期等の問い合わせに応答する。
より詳細には、センサカメラ11−1乃至11−Nは、管理すべき農作物の耕作地に所定の間隔で耕作地全体が撮像できるように(または、センサカメラ11−1乃至11−Nにより、全体として耕作地全体と近似できるような領域が撮像できるように)配置され、RGBの各画素、および近赤外線(以降、NIRとも称する)の画素よりなる画像を撮像し、撮像した画像データを、ネットワーク13を介してサーバ14に送信する。また、センサカメラ11は、環境情報として、気温、湿度、および大気圧などの情報を測定し、撮像した画像データと共に生育状況情報としてサーバ14に供給する。尚、センサカメラ11−1乃至11−Nは、特に区別する必要がない場合、単にセンサカメラ11と称するものとし、その他の構成についても同様に称するものとする。
端末装置12−1乃至12−4は、消費者、小売業者、物流業者、および農家のそれぞれにより管理される、例えば、パーソナルコンピュータなど(いわゆる、スマートフォン等のモバイル端末も含む)からなる情報処理装置であり、サーバ14に対して、ネットワーク13を介して生育指標や予想適正収穫時期の情報などを問い合わせると共に、それらの応答情報を受信して表示する。
サーバ14は、センサカメラ11より供給されてくる画像データ等に基づいた生育状況情報を取得して蓄積すると共に、画像データに基づいて生育指標および予想適正収穫時期を算出する。また、サーバ14は、センサカメラ11より供給されてきた画像データに加えて、過去の生育状況情報をも利用して予想適正収穫時期を算出する。さらに、サーバ14は、生育状況情報に基づいて算出された予想適正収穫時期が到来すると、ネットワーク13を介して、消費者、小売業者、物流業者、および農家のそれぞれにより管理される端末装置12−1乃至12−4に予想適正収穫時期の到来を告げる情報を通知する。尚、予想適正収穫時期については、適正な収穫を開始すべき日として予想される予想日そのものであってもよいし、予想日から所定の日数だけ前の日、または予想日から所定の日数だけ前の日から所定日数となる期間であってもよい。
<センサカメラの機能を実現するための構成例>
次に、図2を参照して、センサカメラ11の機能を実現するための構成例について説明する。
センサカメラ11は、センサ31、RGB画像生成部32、NDVI画像生成部33、制御部34、IPアドレス記憶部35、GPS36、環境情報測定部37、RTC38、生育状況情報生成部39、通信部40、および通信経路特定部41を備えている。センサ31は、例えば、イメージセンサより構成されており、例えば、図3で示されるような画素配列となっている。すなわち、センサ31の画素配列は、画像P1で示されるような通常のRGB(赤色、緑色、青色)からなるベイヤー配列における緑色の配列のいずれかを近赤外線画素として構成している。尚、以降の図面においては、横縞模様は緑色を示し、縦縞模様は青色を示し、右上がりの斜線部は赤色を示し、右下がりの斜線部は近赤外線を示すものとする。
RGB画像生成部32は、センサ31により撮像された画像信号よりRGB画像を生成する。すなわち、RGB画像生成部32は、図3の画像P1で示されるような画素配列のセンサ31により撮像された画像信号に基づいて、それぞれ画像P11乃至P13で示されるように、緑色、赤色、および青色の信号を抽出し、これをデモザイク処理により、画像P21乃至P23で示されるような、緑色、赤色、および青色の成分信号画像を生成する。さらに、RGB画像生成部32は、画像P21乃至P23で示されるようなRGBの成分信号画像を構成することにより、画像P31で示されるようなRGB画像を生成する。
NDVI(Normalized Difference Vegetation Index)画像生成部33は、センサ31により撮像された画像信号よりNIR画像を生成する。すなわち、NDVI画像生成部33は、図3の画像P1で示されるような画素配列のセンサ31により撮像された画像信号に基づいて、画像P14で示されるようにNIRの信号を抽出し、これをデモザイク処理により、画像P24で示されるようなNIRの成分信号画像を生成する。さらに、NDVI画像生成部33は、このNIRの成分信号画像と、上述したRGB画像生成部32により生成された赤色の成分信号画像とに基づいて、NDVI画像を生成する。尚、NDVI(Normalized Difference Vegetation Index)については、詳細を後述する。
制御部34は、例えば、マイクロプロセッサやメモリなどから構成されており、メモリに記憶されたプログラムを実行することにより各種の処理を実行し、センサカメラ11の動作の全体を制御する。
IP(Internet Protocol)アドレス記憶部35は、センサカメラ11を個別に識別する情報であるIPアドレスを記憶しており、必要に応じて、IPアドレスの情報を制御部34に供給する。GPS(Global Positioning System)36は、図示せぬ衛星からの電波を受信して、センサカメラ11が設置されている、地球上の緯度および経度からなる位置情報を算出し、制御部34に供給する。環境情報測定部37は、センサカメラ11が設置されている環境情報として、気温、湿度、および気圧の情報を測定し、制御部34に供給する。RTC(Real Time Clock)を備えており、時刻情報を常に発生しており、制御部34に供給する。尚、ここでは、センサカメラ11を個別に識別する情報としてIPアドレスを利用した例について説明するものとするが、センサカメラ11を個別に識別できる情報であれば、IPアドレス以外の情報を利用するようにしてもよい。
生育状況情報生成部39は、センサ31により画像が撮像されると、撮像されたタイミングにおける時刻情報と共に、IPアドレス、RGB画像、NDVI画像、位置情報、および環境情報からなる生育状況情報を生成する。尚、生育状況情報については、生育状況が確認できる情報であれば、IPアドレス、RGB画像、NDVI画像、位置情報、および環境情報以外の情報を含むようにしてもよい。
通信部40は、有線または無線でインターネットなどからなるネットワーク13を介して通信するものであり、例えば、イーサネットボードなどからなり、制御部34により制御され、生育状況情報をサーバ14に送信する。通信経路特定部41は、通信部40より生育状況情報を送信する際の通信経路を特定する。すなわち、通信経路特定部41は、例えば、無数に存在するセンサカメラ11よりサーバ14に供給すべき生育状況情報をセンサカメラ11間で順次リレー形式でサーバ14に送信する。すなわち、センサカメラ11−1乃至11−3がそれぞれの生育状況情報を送信する際、センサカメラ11−1は、自らの生育状況情報をセンサカメラ11−2に送信し、センサカメラ11−2は、自らの生育状況情報と、センサカメラ11−1より供給されてきた生育状況情報をセンサカメラ11−3に供給する。さらに、センサカメラ11−3は、自らの生育状況情報と、センサカメラ11−1,11−2のそれぞれの生育状況情報とをサーバ14に送信する。通信経路特定部41は、このような通信をするために、どのセンサカメラ11を経由させて自らの生育状況情報を送信すべきかの通信経路を特定する。具体的には、センサカメラ11の通信経路特定部41により近隣のセンサカメラ11の通信経路特定部41と通信部40を介して通信し、例えば、後述するステレオ画像を構成するための、対となる画像を撮像し合うときには、相互にいずれかがまとめて生育状況情報を送信するように経路を特定する。このような処理により、通信経路上の混雑を低減させることが可能となり、通信速度を向上させることが可能となる。このような通信形態は、例えば、Zigbee(登録商標)等に代表される近距離通信などと同様である。尚、通信経路については、順次効率よく生育状況情報がサーバ14に送信できればよいものであり、上述したリレー形式は、その一例に過ぎず、その他の形式で送信するようにしてもよいものである。
<端末装置の機能を実現させる構成例>
次に、図4を参照して、消費者、小売業者、物流業者、および農家のそれぞれにより管理される端末装置12の機能を実現させる構成例について説明する。
消費者、小売業者、物流業者、および農家のそれぞれにより管理される端末装置12は、制御部61、問合部62、操作部63、通信部64、IPアドレス記憶部65、および表示部66を備えている。制御部61は、マイクロプロセッサおよびメモリなどからなり、メモリに記憶されたデータ、およびプログラムをマイクロプロセッサが実行することにより、端末装置12の動作の全体を制御する。問合部12は、キーボードやマウスなどからなる操作部63が操作されることにより、センサカメラ11により撮像されている画像、生育指標、および予想適正収穫時期の全て、または、そのいずれかを問い合せる指示がなされると、イーサネットボードなどからなる通信部64を制御して、IPアドレス記憶部65に記憶されている、自らが管理する(または問い合わせたい)センサカメラ11を特定するIPアドレスの情報と共にサーバ14に対して、センサカメラ11により撮像されている画像、生育指標、および予想適正収穫時期を問い合せる問合情報を生成させる。そして、問合部12は、生成した問合情報を通信部64よりサーバ14に送信させる。また、通信部64は、この問合情報に対応して、サーバ14より送信されてくる応答情報を受信して、制御部61に供給する。制御部61は、この応答情報をLCD(Loquid Crystal Display)や有機EL(Electro Luminescence)などからなる表示部66に表示する。
<サーバの機能を実現するための構成例>
次に、図5を参照して、サーバ14の機能を実現する構成例について説明する。
サーバ14は、制御部81、生育状況情報蓄積部82、対象物領域特定部83、RGB画像生育指標算出部84、NDVI画像生育指標算出部85、ステレオ画像生育指標算出部86、収穫時期算出部87、管理情報蓄積部88、生育指標算出部89、マッピング部90、センサカメラ動作状況監視部91、通信部92、収穫計画生成部93、配送計画生成部94、販売計画生成部95、購入計画生成部96、問合受付部97、および応答作成部98を備えている。
制御部81は、マイクロプロセッサおよびメモリなどからなり、メモリに記憶されているデータおよびプログラムを実行することにより、サーバ14の全体の動作を制御する。
生育状況情報蓄積部82は、通信部92を介してセンサカメラ11より供給されてくるそれぞれの生育状況情報を、センサカメラ11を識別するIPアドレスに対応付けて記憶する。
対象物領域特定部83は、生育状況情報に含まれるRGB画像に基づいて、監視すべき対象物となる農作物が存在する画像内の領域を特定する。より詳細には、対象物領域特定部83は、農作物毎の特徴情報となる色、および形状のパターンを記憶しており、RGB画像内において、これらの特徴情報と一致する領域を検索することにより、対象物領域を特定する。尚、ここでは、対象物領域特定部83は、サーバ14に設けられる例について説明するものとするが、センサカメラ11内に設けるようにして、例えば、対象物領域の情報を生育状況情報に含まれるものとするようにしてもよい。また、対象物領域特定部83は、対象物領域が特定できればよいものであるので、RGB画像以外の画像、例えば、NIR画像のみを用いて対象物領域を特定するようにしてもよい。
RGB画像生育指標算出部84は、RGB画像のうち、対象物領域として特定された画像領域の情報に基づいて、生育指標を算出する。例えば、米の収穫時期などについては、1穂のうち緑が残されている籾の割合が10%程度の時が収穫開始時期とされ、2%程度が収穫晩限であるとされているので、RGB画像生育指標算出部84は、この緑の籾の割合により生育指標を算出する。RGB画像生育指標算出部84は、RGB画像のうち、対象物の存在する領域の画像情報のみを利用してRGB画像生育指標を算出するので、より高い精度で生育指標を算出することが可能となる。
NDVI画像生育指標算出部85は、NDVI画像のうち、対象物領域として特定された画像領域の情報に基づいて生育指標を算出する。ここでNDVIとは、以下の式(1)で示される正規化植生指数を示している。
NDVI=(R_NIR−R_RED)/(R_NIR+R_RED)
・・・(1)
ここで、NDVIは、正規化植生指数であり、R_NIRは、近赤外光の反射率であり、R_REDは、赤色の反射率である。従って、上述したセンサカメラ11のNDVI画像生成部33は、上述した式(1)の演算により求められる画像をNDVI画像として生成する。NDVIは茎葉の生育の指標として使用されるものである。尚、近赤外光、および赤色光の反射率は、RGB画像、およびNIR画像において、対象物領域ではない領域であって、例えば、空などの領域における赤色光強度、およびNIR強度を入射光強度として求め、対象物領域における赤色光強度、およびNIR強度を反射光強度として求めることで、算出される。また、近赤外光、および赤色光の反射率は、既知の反射率を持つ拡散板をリファレンスにして、入射光の強度を計測し、対象の反射輝度との比から反射係数を計算した後、反射率に変換するようにして求めるようにしてもよい。さらに、NDVI画像生育指標算出部85は、対象物領域のみのNDVIの平均値、分散、または高次分散などによりNDVI画像生育指標を算出する。このようにすることで、対象物領域内の画素から得られた情報のみからNDVI画像生育指標が算出されることで、より高い精度でNDVI画像生育指標を算出することが可能となる。
ステレオ画像生育指標算出部86は、複数のセンサカメラ11により撮像された同一の対象物の領域の情報に基づいて視差画像を生成することにより、対象物である農作物の大きさを立体的な情報として取得し、その立体的な大きさを含む画像情報に基づいてステレオ画像生育指標を算出する。
収穫時期算出部87は、RGB生育指標、NDVI生育指標、ステレオ画像生育指標、および、生育状況情報蓄積部82に蓄積された、これらの情報の過去の情報に基づいて予想適正収穫時期を算出する。
管理情報蓄積部88は、図6で示されるように、センサカメラ11を識別するIPアドレス毎に、センサ位置、地域(国、または都市など)、作物種類、作物(農場)所有者、農場、畑Gp、契約物流業者、契約小売業者、グループ、生育指標、および予想適正収穫時期の情報を記憶している。センサ位置の欄には、センサカメラ11に設けられたGPS36により取得される情報が登録される。地域の欄には、センサ位置に対応付けて設定される、国、または都市などが登録される。作物種類の欄には、センサカメラ11により監視される耕作地域で耕作される作物の種類を示す情報が登録される。作物(農場)所有者の欄には、IPアドレスで特定されるセンサカメラ11が設置されている作物、または農場の所有者の情報が登録される。農場、畑Gpの欄には、例えば、同一の所有者により管理されるグループなどが登録される。契約物流業者の欄には、IPアドレスで識別されるセンサカメラ11により監視される農作物を運搬する物流業者の情報が登録される。契約小売業者の欄には、IPアドレスで識別されるセンサカメラ11により監視される農作物を販売する契約小売業者の情報が登録される。グループの欄には、例えば、同時に収穫がなされる領域により割り付けられたグループ名が登録される。生育指標の欄には、IPアドレスで識別されるセンサカメラ11により監視される範囲内の農産物の生育指標が登録される。予測適正収穫時期の欄には、生育指標と、その過去の情報に基づいて予測される予測適正収穫時期の情報が登録される。
図6においては、IPアドレスとして、AAA,BBB,CCCと登録されている。そして、IPアドレスがAAAとなるセンサ位置がAであり、地域がaあり、作物種類がαであり、作物所有者が甲であり、農場、畑GpがG1であり、契約物流業者が(1)であり、契約小売業者がアであり、グループがiであり、生育指標が60であり、予想適正収穫時期が10月15日であることが示されている。
同様に、IPアドレスがBBBとなるセンサ位置がBであり、地域がaであり、作物種類がαであり、作物所有者が甲であり、農場、畑GpがG1であり、契約物流業者が(1)であり、契約小売業者がアであり、グループがiであり、生育指標が70であり、予想適正収穫時期が10月16日であることが示されている。
さらに、IPアドレスがCCCとなるセンサ位置がCであり、地域がcであり、作物種類がβであり、作物所有者が乙であり、農場、畑GpがG2であり、契約物流業者が(2)であり、契約小売業者がイであり、グループがiiであり、生育指標が65であり、予想適正収穫時期が10月20日であることが示されている。
生育指標算出部89は、RGB生育指標、NDVI生育指標、およびステレオ画像生育指標のいずれか、または、それらに基づいて、例えば、それぞれに重みを付した平均値などとして設定される生育指標を算出する。
マッピング部90は、生育指標や予想適正収穫時期を地域毎の地図上の情報としてマッピングした情報を生成する。
センサカメラ動作状況監視部91は、生育状況情報に含まれるRGB画像の時系列の変化を比較して極端に大きな変化がある場合、センサカメラ11の動作状態に異常が発生しているか否かを判定することで、動作状況を監視する。
通信部92は、イーサネットボードなどからなり、制御部81により制御され、端末装置12より送信されてくる生育状況情報、および問合情報を受信すると共に、端末装置12に応答情報を送信する。
収穫計画生成部93は、生育状況情報、および予想適正収穫時期の情報に基づいた、収穫時期の情報から収穫計画の情報を生成して、通信部92より農家により管理運営される端末装置12に送信する。尚、収穫計画の情報は、農家により管理運営される端末装置12のみならず、物流業者、小売業者、および消費者により管理運営される端末装置12に送信されるようにしてもよい。このようにすることで、物流業者、小売業者、および消費者が、収穫計画の情報から自らの物流計画、販売計画、および購入計画をそれぞれ作成することも可能となる。
配送計画生成部94は、生育状況情報、および予想適正収穫時期の情報に基づいて、収穫時期の情報から配送計画の情報を生成して、通信部92より配送業者により管理運営される端末装置12に送信する。
販売計画生成部95は、生育状況情報、および予想収穫時期の情報に基づいて、収穫時期の情報から販売計画の情報を生成して、通信部92より小売業者により管理運営される端末装置12に送信する。
購入計画生成部96は、生育状況情報、および予想収穫時期の情報に基づいて、収穫時期の情報から購入計画の情報を生成して、通信部92より消費者により管理運営される端末装置12に送信する。
問合受付部97は、通信部92を制御して、消費者、小売業者、物流業者、および農家のいずれかにより運営される端末装置12よりネットワーク13を介して送信されてくる収穫時期の問い合せなどからなる問合情報を受け付ける。
応答作成部98は、問合情報として受け付けた情報に対応する、例えば、マッピング部90により生成された生育指標マッピング情報からなる応答情報を生成して、通信部92を制御して、問合情報を送信してきた端末装置12に送信する。
<センサカメラによる生育状況情報蓄積処理>
次に、図7のフローチャートを参照して、センサカメラ11による生育状況情報蓄積処理について説明する。
ステップS11において、センサカメラ11の制御部34は、RTC38より発生される時刻情報と、前回のセンシング処理が開始された時刻情報とに基づいて、前回のセンシング処理から所定の時間が経過したか否かを判定する。ステップS11において、前回のセンシング処理から所定の時間が経過していない場合、処理は、ステップS15に進む。
ステップS15において、制御部34は、図示せぬ操作部が操作されて、動作の終了が指示されたか否かを判定する。ステップS15において、動作の終了が指示された場合、処理が終了し、動作の終了が指示されない場合、処理は、ステップS11に戻る。すなわち、動作の終了が指示されるか、または、所定の時間が経過するまで、ステップS11,S15の処理が繰り返される。そして、ステップS11において、所定の時間が経過したと見なされた場合、処理は、ステップS12に進む。
ステップS12において、センサ31は、センシング処理を実行し、センシング処理によりRGB画像、およびNDVI画像を取得する。尚、センシング処理については、図10のフローチャートを参照して、詳細を後述する。
ステップS13において、生育状況情報生成部39は、センシング処理により取得されたRGB画像、およびNDVI画像、並びに、IPアドレス記憶部35に記憶されているIPアドレス、GPS36により取得される地球上の緯度経度からなる位置情報、環境情報測定部37により測定される気温、湿度、および気圧の情報、およびRTC38により発生される時刻情報に基づいて、生育状況情報を生成する。尚、生育状況情報は、作物の生育状況を示す情報、または、生育状況を認識するための情報を含むものであればよいため、RGB画像、およびNDVI画像、IPアドレス、地球上の緯度経度からなる位置情報、気温、湿度、および気圧の情報、並びに時刻情報に加えて、それ以外の生育状況を示す情報、または、生育状況を認識するための情報を含ませるようにしてもよい。
ステップS14において、制御部34は、通信部40を制御して、生成した生育状況情報をサーバ14に送信させ、処理は、ステップS11に戻る。この際、制御部34は、通信経路特定部41を制御して、周辺のセンサカメラ11と通信させ、どのセンサカメラ11を中継させてサーバ14に生育状況情報を送信するかを特定させてから、その通信経路に沿ったセンサカメラ11を介して、サーバ14に生育状況情報を送信させる。
すなわち、例えば、図8で示されるように、センサカメラ11が設置された位置が、ノードN1乃至N10で示されており、基地局K、およびゲートウェイGWを介してインターネット(internet)に出力されるような場合、ノードN5に対応するセンサカメラ11の生育状況情報は、近傍に存在するノードN4で示されるセンサカメラ11、およびノードN3で示されるセンサカメラ11を介して基地局Kに転送される。この間、ノードN4に対応するセンサカメラ11は、ノードN5の生育状況情報と、自らの生育状況情報とをノードN3に転送する。さらに、ノードN1,N2がそれぞれの生育状況情報をノードN3に転送する。そして、ノードN3が、ノードN1乃至N5の生育状況情報をまとめて基地局Kに転送する。また、ノードN7で示されるセンサカメラ11が、生育状況情報をノードN6で示されるセンサカメラ11に転送し、ノードN6で示されるセンサカメラ11が、ノードN6,N7で示される生育状況情報をまとめて基地局K、およびゲートウェイGWを介してインターネットに出力する。さらに、ノードN9,N10で示されるセンサカメラ11がそれぞれ生育状況情報をノードN8で示されるセンサカメラ11に転送し、ノードN8で示されるセンサカメラ11が、ノードN8乃至N10の生育状況情報をまとめて、基地局K、およびゲートウェイGWを介してインターネットに出力する。
このような処理により、各センサカメラ11から生育状況情報を一斉に出力するよりも、基地局KとゲートウェイGWの通信による混雑を緩和することが可能となり、より高速に生育状況情報を転送することが可能となる。尚、各センサカメラ11の生育状況情報がサーバ14に効率よく送信されるようにすればよいものであるので、各センサカメラ11の生育状況情報は、上述したようにリレー形式でセンサカメラ11間を転送する以外の方法で転送するようにしてもよく、例えば、各センサカメラ11がそれぞれ直接基地局Kに転送するようにしてもよい。また、各センサカメラ11は、その他のセンサカメラ11からの生育状況情報をまとめて転送するのみでなく、所定の順序で順次基地局Kにそれぞれの生育状況情報を転送するようにしてもよい。特に、各センサカメラ11がそれぞれ直接基地局Kに転送するような場合、このようにすることで、各センサカメラ11からの生育状況情報を基地局Kに効率よく転送させることができる。
また、図9で示されるように、ノードN11乃至N17,N21乃至N23,N31乃至N33で示されるセンサカメラ11が設けられているような場合、例えば、ノードN21乃至N23,N31乃至N33で示されるセンサカメラ11については、ノードN21乃至N23で示されるセンサカメラ11を第1のグループG11とし、ノードN31乃至N33で示されるセンサカメラ11を第2のグループG12とし、それぞれいずれか代表となるノードに生育状況情報を集めて、その代表となるノードのセンサカメラ11がグループに属するノードのセンサカメラ11の生育状況情報をまとめて出力するようにしてもよい。さらに、これらのグループG11,G12の設定については、例えば、同一の所有者が所有する耕作地内に存在するセンサカメラ11について同一のグループとするようにしてもよいし、後述するステレオ画像を撮像するために対となるセンサカメラ11同士を同一のグループに設定するようにしてもよい。
以上の処理により、所定の時間間隔でRGB画像、およびNDVI画像を含む生育状況情報が生成されて、サーバ14に順次送信されることにより、サーバ14により生育状況情報を順次蓄積することが可能となる。
<センシング処理>
次に、図10のフローチャートを参照して、センシング処理について説明する。
ステップS31において、センサ31は、被写体となる農作物が耕作されている範囲について、収穫物の大きさや色が十分に認識可能な大きさの画像を撮像する。また、センサカメラ11については、このような撮像条件で耕作地を撮像できる間隔や方向に設置される。
ステップS32において、RGB画像生成部32、およびNDVI画像生成部33は、センサ31により撮像された画素について、それぞれの色の光をデモザイク処理する。すなわち、RGB画像生成部32は、赤色、緑色、および青色の光の画素について、それぞれデモザイク処理を施し、赤色、緑色、および青色の成分信号画像を生成する。また、NDVI画像生成部33は、NIRの画素をデモザイク処理することにより、NIRからなる成分信号画像を生成する。
ステップS33において、RGB画像生成部32は、デモザイクされたRGBのそれぞれの成分信号画像を合成して、RGB画像を生成する。
ステップS34において、NDVI画像生成部33は、NIR画像、および赤色画像に基づいて、画素毎に空の画像と認識される領域から入射光となるNIR、および赤色光の強度を測定し、さらに、それ以外の領域の反射光となるNIR、および赤色光の強度を測定し、それぞれのNIRおよび赤色光の反射率を算出して、NDVI画像を生成する。このため、センサ31は、被写体となる農作物が撮像される領域に加えて、空などの赤色光、またはNIRの入射光が測定できる領域を含むアングルで設置される。また、このようなアングルでの設置が難しい場合、センサカメラ11にパン、およびチルト機構を設け、一旦、空に向けて赤色光およびNIRの入射光を撮像した後に、被写体となる農作物が存在する領域を撮像するように制御することで、反射光を撮像し、上述したようにNDVI画像を生成するようにしてもよい。また、NIR、および赤色光の反射率は、既知の反射率を持つ拡散板をリファレンスにして、入射光の強度を計測し、対象の反射輝度との比から反射係数を計算した後、反射率に変換するようにして求めるようにしてもよい。
ステップS35において、制御部34は、環境情報測定部37を制御して、環境情報を構成する気温、湿度、および気圧を測定させる。
このような処理によりRGB画像、およびNDVI画像、並びに環境情報である気温、湿度、および気圧といった生育状況情報を構成する情報が測定されて生成される。尚、生育状況情報を構成する情報は、生育状況の確認に必要な情報であれば、RGB画像、およびNDVI画像、並びに環境情報である気温、湿度、および気圧以外の情報を含めるようにしてもよい。
<サーバおよび端末装置による生育状況情報蓄積処理>
次に、図11,図12のフローチャートを参照して、サーバ14および端末装置12による生育状況情報蓄積処理について説明する。
ステップS61において、サーバ14の制御部81は、通信部92を制御して、いずれかのセンサカメラ11から生育状況情報が送信されてきたか否かを判定し、送信されてきていない場合、処理は、ステップS82に進む。
ステップS82において、制御部81は、図示せぬ操作部が操作されて、動作の終了が指示されたか否かを判定し、終了が指示されている場合、処理は終了する。また、終了が指示されていない場合、処理は、ステップS61に戻る。すなわち、終了が指示されず、また、生育状況情報が送信されてこない場合、ステップS61,S82の処理が繰り返される。ステップS61において、例えば、図7のステップS14の処理により生育状況情報が送信されてくると、処理は、ステップS62に進む。
ステップS62において、制御部81は、通信部92を制御して、センサカメラ11より送信されてきた生育状況情報を受信させると共に、受信した生育状況情報を生育状況情報蓄積部82に蓄積させる。このとき、受信される生育状況情報は、上述したように、複数のセンサカメラ11からの複数の生育状況情報となることがある。従って、一回の処理により複数の生育状況情報が蓄積されることがある。ただし、以降の説明については、1回の受信処理で、同一の対象物をステレオ画像として撮像した、2のセンサカメラ11からの生育状況情報が送信されてきたものとみなして処理を進めるものとする。
ステップS63において、制御部81は、対象物領域特定部83を制御して、送信されてきた生育状況情報に含まれているRGB画像に基づいて、対象となる農作物が撮像された画像内の領域である対象物領域を特定させる。より詳細には、対象物領域特定部83は、生育指標を算出すべき農産物の形状、および色彩の特徴情報をRGB画像から抽出する。そして、対象物領域特定部83は、抽出した特徴情報が、予め記憶されている実際の農産物の形状、および色彩と一致するか否かを判定し、一致するRGB画像内の生育指標を算出すべき農作物が撮像された領域からなる対象物領域を特定する。尚、この際、特定すべき農作物については、例えば、対象物領域特定部83が、RGB画像を含む生育状況情報に含まれるIPアドレスに基づいて、管理情報蓄積部88に蓄積されている管理情報を検索し、図6で示されるように作物種類の欄に登録されている情報を読み出して利用することで、特徴情報を特定するようにしてもよい。
ステップS64において、制御部81は、RGB画像生育指標算出部84を制御して、RGB画像における対象物領域に基づいたRGB画像生育指標を算出させる。より詳細には、RGB画像生育指標算出部84は、例えば、米の収穫時期などについて、1穂のうち緑が残されている籾の割合が10%程度の時が収穫開始時期とされ、2%程度が収穫晩限であるとされているので、この緑の籾の割合により生育指標を算出し、これをRGB画像生育指標とする。
ステップS65において、制御部81は、NDVI画像生育指標算出部85を制御して、NDVI画像における対象物領域に基づいたNDVI画像生育指標を算出させる。より詳細には、NDVI画像生育指標算出部85は、例えば、対象物領域のNDVIの平均値、分散、または、高次分散を算出することにより、NDVI画像生育指標を算出する。
ステップS66において、制御部81は、ステレオ画像生育指標算出部86を制御して、ステレオ画像に基づいたステレオ画像生育指標を算出させる。より詳細には、ステレオ画像生育指標算出部86は、ステレオ画像を構成するためのRGB画像を撮像している、少なくとも2台のセンサカメラ11からの生育状況情報に含まれている2枚のRGB画像を抽出する。すなわち、図13で示されるように、センサカメラ11−1,11−2は、同一の農作物M1を異なる角度から撮像しており、この2台のセンサカメラ11−1,11−2により撮像された2枚のRGB画像により、ステレオ画像生育指標算出部86は、ステレオ画像、すなわち、視差画像を生成する。さらに、ステレオ画像生育指標算出部86は、視差画像に基づいて、対象物領域に存在する農作物の3次元画像を生成して、その大きさからステレオ画像生育指標を算出する。尚、ステップS65,S66の処理における対象物領域については、対象物である作物の領域が特定できれば、RGB画像に基づいて求められる領域以外でもよく、例えば、NDVI画像における、対象物が存在する可能性の高いNDVI値が所定値よりも高い領域と、RGB画像に基づいて求められた領域との、いずれの領域にも属する領域を対象物領域とするようにしてもよい。
ステップS67において、制御部81は、生育指標算出部89を制御して、RGB画像生育指標、NDVI画像生育指標、およびステレオ画像生育指標に基づいて、対象となる農作物の生育指標を算出する。より詳細には、生育指標算出部89は、この3種類の生育指標の平均を生育指標とするようにしても良いし、それぞれに重みを付した和を求めることにより生育指標としても良いし、このうちのいずれかを選択して生育指標としてもよい。また、RGB画像生育指標、NDVI画像生育指標、およびステレオ画像生育指標は、いずれも全て算出できるものばかりではないため、算出可能であった生育指標の平均値や重みを付して和を求めた値を生育指標とするようにしてもよい。
ステップS68において、制御部81は、管理情報蓄積部88に蓄積されている管理情報のうち、センサカメラ11より送信されてきた生育状況情報に含まれるIPアドレスに基づいて対応する管理情報を検索し、検索された管理情報に含まれる生育指標を、上述した処理により算出された値に更新する。
ステップS69において、制御部81は、収穫時期算出部87を制御して、生育指標、環境情報、並びに過去の生育状況情報、収穫時期の情報に基づいて、収穫時期を算出させる。すなわち、収穫時期算出部87は、過去の生育評価指数の変化の情報と、収穫時期の情報との関係に基づいて、今シーズンにおける生育評価指数の変化の情報から予想される今シーズンの収穫時期を予想適正収穫時期として算出する。
ステップS70において、制御部81は、管理情報蓄積部88に蓄積されている管理情報のうち、センサカメラ11より送信されてきた生育状況情報に含まれるIPアドレスに基づいて対応する管理情報を検索し、検索された管理情報に含まれる予想適正収穫時期の情報を、上述した処理により算出された値に更新する。
ステップS71において、制御部81は、センサカメラ動作状況監視部91を制御して、RGB画像に基づいて、生育状況情報を送信してきているセンサカメラ11に異常が発生しているか否かを判定する。より詳細には、センサカメラ動作状況監視部91は、生育状況情報蓄積部82に蓄積されている生育状況情報のうち、送信してきた生育状況情報に含まれるIPアドレスと同一であって、直前のタイミングで撮像されたRGB画像同士を比較し、その変化の大きさが所定値よりも大きいか否かに基づいて、センサカメラ11に異常が発生しているか否かを判定する。すなわち、センサカメラ11は、基本的に定点カメラであり、撮像間隔である所定の時間が、例えば、1日程度であったとしても、RGB画像に大きな変化は存在しないはずである。従って、ここで、大きな変化があったとすれば、センサカメラ11に何らかの事故が発生しているものと考えられる。そこで、センサカメラ動作状況監視部91は、直前のRGB画像と、今現在送信されてきたRGB画像との比較から、その変化が大きく、異常が発生しているとみなした場合、処理は、ステップS72に進む。尚、センサカメラ11に異常が発生しているか否かについては、NIR画像同士、NDVI画像同士、NDVI平均値、分散、高次分散同士、および生育指標同士を比較することでも判定することができる。
ステップS72において、センサカメラ動作状況監視部91は、生育状況情報を送信してきたセンサカメラ11に何らかの異常が発生しているものとみなし、センサカメラ11のIPアドレスに基づいて管理情報を検索し、検索された管理情報に含まれる作物(農場)所有者により管理運営される端末装置12、または、図示せぬ携帯電話機などに通知する。
一方、ステップS71において、異常が発生していないと見なされた場合、ステップS72の処理はスキップされる。
ステップS73において、制御部81は、生育指標が所定の閾値よりも高く、予想適正収穫時期が既に時期を迎えているか否かを判定する。ステップS73において、例えば、既に、生育指標が所定の閾値よりも高く、予想適正収穫時期が既に時期を迎えている、すなわち、予想適正収穫時期に該当する当日、または、その当日より所定日数だけ前の日を既に迎えていると見なされた場合、処理は、ステップS74に進む。
ステップS74において、制御部81は、収穫計画生成部93を制御して、収穫計画を作成する。より詳細には、収穫計画生成部93は、IPアドレスにより管理されている管理情報のうち、予想適正収穫時期が重なる範囲から作物の収穫量を推定し、同一の作物(農場)所有者が予め登録している、収穫に必要な農耕機具の処理能力などに基づいて、収穫開始日からどのような日程で収穫処理を進めるのかを計画する。
ステップS75において、制御部81は、通信部92を制御して、収穫計画生成部93により生成された収穫計画の情報を農家で管理運営されている端末装置12に送信させる。尚、収穫計画の情報については、物流業者、小売業者、および消費者により管理運営されている端末装置12に対して送信されるようにしてもよい。このようにすることにより、物流業者、小売業者、および消費者が、収穫計画の情報から自ら物流計画、販売計画、購入計画を作成することが可能となる。
この処理により、ステップS91(図12)において、端末装置12の制御部61は、通信部64を制御して、収穫計画が送信されてきたか否かを判定し、送信されてくるまで、同様の処理を繰り返す。ステップS91において、例えば、図12のステップS75の処理により収穫計画が送信されてくると、処理は、ステップS92に進む。
ステップS92において、制御部61は、通信部64を制御して、送信されてきた収穫計画の情報を受信させる。
ステップS93において、制御部61は、通信部64により受信された収穫計画の情報を表示部66に表示する。
ステップS76(図11)において、制御部81は、配送計画生成部94を制御して、配送計画を作成する。より詳細には、配送計画生成部94は、IPアドレスにより管理されている管理情報のうち、予想適正収穫時期が重なる範囲から作物の収穫量を推定し、契約配送業者が予め登録している、配送に必要な配送車輌の運搬能力などに基づいて、収穫開始日からどのような日程で配送処理を進めるのかを計画する。
ステップS77において、制御部81は、通信部92を制御して、配送計画生成部94により生成された配送計画の情報を契約物流業者で管理運営されている端末装置12に送信させる。尚、端末装置12における処理は、図12のフローチャートを参照して説明した処理における収穫計画に代えて、配送計画が受信されて表示されるのみであるので、その説明は省略するものとする。また、ステップS76,S77の処理により、図1により示される一連のサービスの契約者となる、物流業者、小売業者、および消費者に、物流業者、小売業者、および消費者のそれぞれが契約していない農地を含む、全ての農地における配送計画、販売計画、および購入計画を送信するようにしてもよい。さらに、ステップS76,S77の処理により、図1により示される一連のサービスの契約者となる、物流業者、小売業者、および消費者に、物流業者、小売業者、および消費者のそれぞれが事業範囲とする地域内の農地における配送計画、販売計画、および購入計画を送信するようにしてもよい。このような場合、例えば、大手物流業者などには、支店毎に配送計画が送信されるようにしてもよい。
ステップS78において、制御部81は、販売計画生成部95を制御して、販売計画を作成する。より詳細には、販売計画生成部95は、IPアドレスにより管理されている管理情報のうち、予想適正収穫時期が重なる範囲から作物の収穫量を推定し、契約小売業者が予め登録している、店頭に陳列可能な量などに基づいて、収穫開始日からどのような日程で販売を進めるのかを計画する。
ステップS79において、制御部81は、通信部92を制御して、販売計画生成部95により生成された販売計画の情報を契約小売業者で管理運営されている端末装置12に送信させる。尚、端末装置12における処理は、図12のフローチャートを参照して説明した処理における収穫計画に代えて、販売計画が受信されて表示されるのみであるので、その説明は省略するものとする。また、ステップS78,S79の処理により、図1により示される一連のサービスの契約者となる小売業者のうち、農地毎に、その農地の近隣の小売業者が選択されるようにして、選択された小売業者に販売計画が送信されるようにしてもよい。このような場合、例えば、スーパーマーケットなどに代表される大手小売業者には、支店毎に販売計画が送信されるようにしてもよく、さらに、配送計画を加味した情報が送信されるようにしてもよい。
ステップS80において、制御部81は、購入計画生成部96を制御して、購入計画を作成する。より詳細には、購入計画生成部96は、IPアドレスにより管理されている管理情報のうち、予想適正収穫時期が重なる範囲から作物の収穫量を推定し、契約消費者が予め登録している、希望購入量などに基づいて、収穫開始日からどのような日程で購入を進めるのかを計画する。
ステップS81において、制御部81は、通信部92を制御して、購入計画生成部96により生成された購入計画の情報を契約消費者で管理運営されている端末装置12に送信させ、処理は、ステップS61に戻る。尚、端末装置12における処理は、図12のフローチャートを参照して説明した処理における収穫計画に代えて、購入計画が受信されて表示されるのみであるので、その説明は省略するものとする。また、ステップS80,S81の処理により、図1により示される一連のサービスの契約者となる消費者のうち、消費者毎に、購入対象の農地に応じた購入計画が送信されるようにしてもよい。また、特定の小売業者から購入する消費者については、例えば、消費者の住所の近所の小売業者の販売計画に合わせた購入計画が生成されるようにして、送信されるようにしてもよい。
また、ステップS73において、生育指標が所定の閾値よりも高くない場合、処理は、ステップS83乃至S86に進む。尚、ステップS83乃至S86の処理は、それぞれステップS74,S76,S78,S80の処理と同様であるので、その説明は省略する。すなわち、ステップS73において、生育指標が所定の閾値よりも高くない場合であっても、収穫計画、配送計画、販売計画、および購入計画が生成され、これにより、それぞれの計画について問い合わせがあったときには、それぞれの計画について応答するようにしてもよいし、生育指標の途中経過をその都度送信するようにしてもよい。
すなわち、以上の処理により、センサカメラ11より所定の時間間隔で送信されてくる生育状況情報が順次蓄積されていく。この際、生育状況情報に基づいて、センサカメラ11のIPアドレスで管理される管理情報における生育指数、および予想適正収穫時期が順次更新されて記録される。結果として、生育指数、および予想適正収穫時期が所定時間間隔で最新の情報に更新され、予想適正収穫時期を迎えると、農家、契約物流業者、契約小売業者、および契約消費者のそれぞれにより管理運営される端末装置12に、収穫計画、配送計画、販売計画、および購入計画の情報としてリアルタイムに配信することが可能となる。また、このように収穫計画、配送計画、販売計画、および購入計画の情報が配信されることにより、予想適正収穫時期に合わせた行動を取ることができるので、効率よく、収穫、配送、販売、または購入することが可能となる。さらに、RGB画像の時系列の比較により、センサカメラ11における異常が検出されることにより、適切にセンサカメラ11が設置されているか否かを監視することが可能となる。また、管理情報に含まれる位置情報を、送信されてきた位置情報と比較することにより、センサカメラ11が盗難にあったり、暴風雨等により別の場所に移動してしまったり、作物が盗難にあってしまうようなことがあっても、通信経路としては使用可能であるので、異常として検出することが可能となる。また、同様の処理により、何らかの要因により、センサカメラ11の撮像方向や角度が変化してしまうようなことがあっても、通信経路として使用可能である場合には、異常が発生したものとして検出することが可能となる。尚、収穫計画、配送計画、販売計画、および購入計画の情報の配信は、予想適正収穫時期として特定された日の当日であってもよいし、特定された日から所定の日数だけ直前の日であってもよい。
<問合応答処理>
次に、図14のフローチャートを参照して、問合応答処理について説明する。尚、ここでは、農家により管理運営される端末装置12が、サーバ14に収穫時期について問合せる問合情報を送信するものとし、その応答情報を受信して表示する処理を説明するものとする。尚、契約小売業者、契約消費者、および契約流通業者により、同様の問合せをするようにしても同様の処理であるので、その説明は省略するものとする。
すなわち、ステップS101において、端末装置12の制御部61は、操作部63を制御して、使用者により操作されて、問合操作がなされたか否かを判定し、問合操作があったとみなされるまで、同様の処理を繰り返す。ステップS101において、問合操作があったものとみなされると、処理は、ステップS102に進む。
ステップS102において、問合部62は、収穫時期を問い合わせる問合情報を、IPアドレス記憶部65に記憶されている、その契約農家の耕作地において耕作されている作物を監視するセンサカメラ11を識別するIPアドレスを含めて生成する。尚、図1で示される一連のサービスを受ける契約をした流通業者、小売業者、および消費者が、農地ごと(IPアドレスごと)に契約しているのでなく、サービス自体に契約している場合、問合部62は、流通業者、小売業者、および消費者毎の、それぞれの事業範囲と、対応するセンサカメラ11のIPアドレスとの関係を対応付けるテーブルを予め記憶して、流通業者、小売業者、および消費者毎の事業範囲に応じたIPアドレスを含む問合情報を生成する。
ステップS103において、制御部61は、通信部64を制御して、問合部62により生成された収穫時期を問い合わせる問合情報を、ネットワーク13を介してサーバ14に送信させる。
ステップS121において、サーバ14の制御部81は、問合受付部97を制御して、通信部92により問合情報が送信されてきたか否かを判定させ、送信されてきたとみなされるまで、同様の処理を繰り返す。そして、ステップS121において、問合情報が送信されてきたと見なされた場合、処理は、ステップS122に進む。
ステップS122において、制御部81は、問合受付部97を制御して、通信部92により送信されてきた問合情報を取得させ、問い合わせ内容を確認する。
ステップS123において、制御部81は、問合情報に含まれるIPアドレスに基づいて、管理情報蓄積部88に蓄積されている管理情報を検索し、検索された管理情報のうち、予想適正収穫時期の情報、および地域の情報を読み出す。ここで、農家により耕作されている作物を監視するセンサカメラ11が複数である場合、複数のIPアドレスが含まれていることになる。また、ここで検索される予想適正収穫時期の情報については、自らの所有する農場に設置されたセンサカメラ11によるもののみならず、使用者により指定されたセンサカメラ11を特定するIPアドレスに基づいたものであってもよい。
ステップS124において、制御部81は、マッピング部90を制御して、読み出した地域の情報に対応する位置に、予想適正収穫時期の情報を日程に応じてマッピングさせ、予想適正収穫時期マッピング情報を生成する。
ステップS125において、制御部81は、応答作成部98を制御して、生成された予想適正収穫時期マッピング情報からなる応答情報を作成させる。
ステップS126において、制御部81は、通信部92を制御して、作成した予想適正収穫時期マッピング情報からなる応答情報を、問合情報を送信してきた端末装置12に送信させる。
ステップS104において、端末装置12の制御部61は、通信部64を制御して、応答情報を受信させる。
ステップS105において、端末装置12の制御部61は、受信した予想適正収穫時期マッピング情報からなる応答情報を表示部66に表示する。
以上の処理により、予想適正収穫時期の情報が、マッピングされた情報を取得することが可能となる。また、表示されたマッピング情報により、予想適正収穫時期の情報をリアルタイムで、かつ、オンデマンドに配信することが可能となる。尚、以上においては、農家により管理される端末装置12による問合応答処理について説明してきたが、契約流通業者、契約小売業者、および契約消費者などにより管理される端末装置12においても同様の処理が可能である。また、以上においては、問い合わせ内容が予想適正収穫時期の情報であったが、サーバ14により管理されている、例えば、収穫計画、配送計画、販売計画、購入計画などのその他の情報であっても、同様の処理により問い合わせすることができるようにしてもよいし、これらの問い合せに応答するようにしてもよい。さらに、例えば、作物ごとに予想適正収穫時期をマッピングした情報が、農家、配送業者、および消費者により管理される端末装置12に送信されるようにしたり、作物ごとに小売業者を分類して予想適正収穫時期をマッピングした情報が小売業者に送信されるようにすることも可能となる。すなわち、例えば、大手スーパーマーケットなどについては、どの支店向けのどの作物がいつ収穫されるかわかるような予想適正収穫時期の情報が送信されるようにすることも可能となる。
尚、以上においては、センサカメラ11によりRGB画像、およびNIR画像を撮像して、これらを含む生育状況情報がサーバ14に送信されて、サーバ14によりRGB画像生育指標、およびNDVI画像生育指標が算出されて、予想適正収穫時期が算出される例について説明してきた。しかしながら、センサカメラ11において、サーバ14における機能と同様の機能を設けるようにすることで、センサカメラ11により、対象となる作物が撮像されている領域が特定され、RGB画像、およびNDVI画像において作物が撮像されている領域として特定された領域のRGB画像生育指標、およびNDVI画像生育指標が算出され、これらを含めた生育状況情報が生成されて、サーバ14に供給されるようにしてもよい。また、これに加えて、センサカメラ11は、近傍の他のセンサカメラ11と協働して、ステレオ画像を撮像し、ステレオ画像生育指標を算出するようにしてもよい。さらに、センサカメラ11は、このようにして求められたRGB画像生育指標、NDVI画像生育指標、およびステレオ画像生育指標に基づいて、生育指標、および予想適正収穫時期を算出するようにしてもよい。この場合、センサカメラ11は、予想適正収穫時期を算出する際、サーバ14に蓄積されている過去の生育状況情報を読み出し、過去の生育状況情報も利用しながら予想適正収穫時期を算出するようにしてもよい。
また、以上においては、情報処理システムを構成するに当たり、センサカメラ11、端末装置12、およびサーバ14からなる構成例について説明してきたが、サーバ14については、クラウドコンピュータを利用するようにしてもよい。
<2.第1の変形例>
以上においては、センサカメラ11により撮像された情報は、RGB、およびNIRのそれぞれの成分信号画像をデモザイクして処理する例について説明してきたが、例えば、図15で示されるように、デモザイクされる前の赤色信号、およびNIR信号からなる画像P112,P114を利用して、画像P132で示されるようなNDVI画像P132を生成するようにしてもよい。このようにすることで、デモザイク処理が無く、または、扱う画素数を減らすことができるので、処理負荷を低減し、処理速度を向上させることが可能となる。尚、画像P111,P113,P121乃至P123,P131は、図3の画像P11,P13,P21乃至P23,P31と同様であるので、その説明は省略する。
<3.第2の変形例>
また、以上においては、センサカメラ11の平面方向にRGB、およびNIRの成分信号の画素を配列する例について説明してきたが、例えば、図16で示されるように、光の進行方向と垂直に積層して成分信号画像を生成できるようにセンサ31を構成するようにしてもよい。すなわち、図16においては、画像P151で示されるように、図中上から青色センサ層L1、緑色センサ層L2、赤色センサ層L3、NIRセンサ層L4により積層構成されている。各層においては、対象となる波長の色成分のみが検出されるセンサ構造となっている。この結果、各層で画像P161乃至P164からなる緑色、赤色、青色、およびNIRの成分信号画像からなる画像P161乃至P163が生成される。この結果、画像P161乃至P163によりRGB画像P171が生成され、画像P162,P164によりNDVI画像P172が生成される。
<4.第3の変形例>
さらに、RGBからなる成分信号を検出するセンサ31については、例えば、図17の右部で示されるように、RGBのカラーフィルタFR,FG,FBの下に、図17の左部で示されるような、例えば、SiO/SiNからなる積層膜等の誘電体積層膜により構成されるIRカットフィルタFを設けるようにして、RGB信号成分を検出するセンサにはNIRが検出されないようにし、NIR用のセンサのみブラック(可視光カット)フィルタFAの下に、IRカットフィルタFを設けない構成としてもよい。尚、図17は、図中右部がセンサ31の2画素×2画素分の外観斜視図であり、図中左部がIRカットフィルタFの拡大断面図であり、左部においては、赤外光IRがIRカットフィルタにより遮断され、赤外光IR以外の光Tのみがセンサに透過することが示されている。尚、ブラックフィルタFAについては、カラーフィルタなしの構成とするようにしてもよい。
<5.第4の変形例>
また、NIRからなる成分信号を検出するセンサ31については、例えば、図18で示されるように、RGBのカラーフィルタFCの下であって、センサSC上に、IRカットフィルタFを設けるようにして、RGB信号成分を検出するセンサにはNIRが検出されないようにし、NIR用のセンサSC上にのみIRカットフィルタFを設けない構成としてもよい。尚、図18は、センサ31の4画素分の断面図であり、図中左からNIR用の画素P1、NIR以外の画素P2、NIR用の画素P3、NIR以外の画素P4の構成が示されている。
尚、以上においては、RGBの信号成分、およびNIR信号成分に基づいて、NDVI画像を生成し、生成されたNDVI画像より求められるNDVI画像生育指標を利用する例について説明してきたが、RGBの信号成分、およびNIR信号成分に基づいて、求められる生育指標であれば、その他の生育指標でも良いものである。従って、例えば、NDVI画像に代えて、RGBの信号成分、およびNIR信号成分に基づいて求められる、SR(Simple Ratio)画像、GEMI(Global Environment Monitoring Index)画像、SAVI(Soil Adjusted Vegetation Index)画像、EVI(Enhanced Vegetation Index)、PVI(Perpendicular Vegetation Index)画像、PRI(Photochemical Reflectance Index)画像、SIPI(Structure Insensitive Pigment Index)画像、PSRI(Plant Senescing Reflectance Index)画像、CI(Chlorophyll Index)画像、mSR(Modified Simple Ratio)画像、mND(Modified Normalized Diffrence)画像、CCI(Canopy Chlorophyll Index)画像、WI(Water Index)画像、NDWI(Normalized Difference Water Index)画像、CAI(Cellulose Absorption Index)画像、RVI(Ratio Vegetation Index)画像、KVI(Kind of Vegetation Index)画像、およびDVI(Difference Vegetation Index)画像などを用いて、それぞれ対応する生育指標を算出して利用するようにしてもよい。さらに、RGBの信号成分、およびNIR信号成分に基づいて求められる複数の種類の画像を組み合わせて、複合画像からなる画像生育指標を求めて利用するようにしてもよい。
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図19は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本技術は、以下のような構成も取ることができる。
(1) 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像部と、
前記画像における前記作物である被写体が撮像された領域を特定する特定部と、
前記特定部により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出部と
を含む情報処理システム。
(2) 前記生育指標画像は、NDVI(Normalized Difference Vegetation Index)画像、SR(Simple Ratio)画像、GEMI(Global Environment Monitoring Index)画像、SAVI(Soil Adjusted Vegetation Index)画像、EVI(Enhanced Vegetation Index)、PVI(Perpendicular Vegetation Index)画像、PRI(Photochemical Reflectance Index)画像、SIPI(Structure Insensitive Pigment Index)画像、PSRI(Plant Senescing Reflectance Index)画像、CI(Chlorophyll Index)画像、mSR(Modified Simple Ratio)画像、mND(Modified Normalized Diffrence)画像、CCI(Canopy Chlorophyll Index)画像、WI(Water Index)画像、NDWI(Normalized Difference Water Index)画像、CAI(Cellulose Absorption Index)画像、RVI(Ratio Vegetation Index)画像、KVI(Kind of Vegetation Index)画像、およびDVI(Difference Vegetation Index)画像のいずれか、または、それらの組み合わせの画像である。
(3) 前記撮像部は、RGB画像の各色彩のイメージセンサ、および、NIRのイメージセンサより構成される
(1)に記載の情報処理システム。
(4) 前記撮像部は、RGB画像、およびNIRの各色彩の画素配列は、平面に配列されている
(3)に記載の情報処理システム。
(5) 前記撮像部は、RGB画像、およびNIRの各色彩の画素は、光の進行方向に積層されて配列されている
(3)に記載の情報処理システム。
(6)
前記特定部により特定された前記画像における前記作物である被写体が撮像された領域の赤色画像、およびNIR画像に基づいて、前記作物の前記生育指標画像を算出する生育指標画像算出部をさらに含み、
前記生育指標算出部は、前記生育指標画像算出部により算出された前記生育指標画像に基づいて、前記作物の生育指標を算出する
(1)に記載の情報処理システム。
(7) 前記生育指標画像算出部は、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域の赤色画像、およびNIR画像に基づいて、求められる前記近赤外線反射率から前記生育指標画像を算出し、前記生育指標画像の平均、分散、または高次分散に基づいて、前記作物の生育指標を算出する
(6)に記載の情報諸システム。
(8) 前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像に基づいて、前記作物のRGB画像生育指標を算出するRGB画像生育指標算出部をさらに含み、
前記生育指標算出部は、前記RGB画像生育指標算出部により算出された前記RGB画像生育指標に基づいて、前記作物の生育指標を算出する
(1)に記載の情報処理システム。
(9) 前記RGB画像生育指標算出部は、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像における所定の色の割合からRGB画像生育指標を算出する
(8)に記載の情報処理システム。
(10) 前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像であって、異なる角度から同一の前記作物である被写体を撮像した少なくとも2枚以上の画像より求められる視差画像に基づいた視差画像生育指標を算出する視差画像生育指標算出部をさらに含み、
前記生育指標算出部は、前記視差画像生育指標算出部により算出された前記視差画像生育指標に基づいて、前記作物の生育指標を算出する
(1)に記載の情報処理システム。
(11) 前記視差画像生育指標算出部は、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像であって、異なる角度から同一の前記作物である被写体を撮像した少なくとも2枚以上の画像より求められる視差画像に基づいて算出される、前記作物の撮像方向の距離により推定される作物の大きさから、前記視差画像生育指標を算出する
(10)に記載の情報処理システム。
(12) 前記撮像部を識別する情報に対応付けて、前記撮像部の位置、前記撮像部により撮像された画像、前記撮像部により撮像された画像の撮像日時、および前記撮像部により撮像された作物毎の生育指標を、管理情報として記憶する記憶部と、
前記記憶部に記憶されている作物毎の生育指標、並びに、過去の作物毎の生育指標と収穫時期との関係に基づいて、前記作物の予想適正収穫時期を算出する収穫時期算出部とを含み、
前記記憶部は、前記収穫時期算出部により算出された予想適正収穫時期の情報も併せて、前記撮像部を識別する情報に対応付けて記憶する
(1)に記載の情報処理システム。
(13) 前記情報処理システムは、前記撮像部を備えたセンサ、前記管理情報を記憶する記憶部を管理するサーバ、および、前記サーバに収穫時期を問い合わせる端末装置からなり、
前記サーバは、前記端末装置より前記予想適正収穫時期の問い合わせを受けると、前記記憶部に記憶されている管理情報に基づいて、前記予想適正収穫時期の問い合わせに対するものであって、前記記憶部に記憶されている管理情報に基づいた予想適正収穫時期を含む応答情報を生成し、前記端末装置に送信する
(12)に記載の情報処理システム。
(14) 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像処理をし、
前記画像における前記作物である被写体が撮像された領域を特定する特定処理をし、
前記特定処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出処理をする
ステップを含む情報処理システムの情報処理方法。
(15) 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像ステップと、
前記画像における前記作物である被写体が撮像された領域を特定する特定ステップと、
前記特定ステップの処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出ステップと
を含む処理を情報処理システムを制御するコンピュータに実行させるプログラム。
(16) 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像部と、
前記画像における前記作物である被写体が撮像された領域を特定する特定部と、
前記特定部により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出部と
を含む撮像装置。
(17) 前記生育指標画像は、NDVI(Normalized Difference Vegetation Index)画像、SR(Simple Ratio)画像、GEMI(Global Environment Monitoring Index)画像、SAVI(Soil Adjusted Vegetation Index)画像、EVI(Enhanced Vegetation Index)、PVI(Perpendicular Vegetation Index)画像、PRI(Photochemical Reflectance Index)画像、SIPI(Structure Insensitive Pigment Index)画像、PSRI(Plant Senescing Reflectance Index)画像、CI(Chlorophyll Index)画像、mSR(Modified Simple Ratio)画像、mND(Modified Normalized Diffrence)画像、CCI(Canopy Chlorophyll Index)画像、WI(Water Index)画像、NDWI(Normalized Difference Water Index)画像、CAI(Cellulose Absorption Index)画像、RVI(Ratio Vegetation Index)画像、KVI(Kind of Vegetation Index)画像、およびDVI(Difference Vegetation Index)画像のいずれか、または、それらの組み合わせの画像である
請求項(16)に記載の撮像装置。
(18) 前記撮像部は、RGB画像の各色彩のイメージセンサ、および、近赤外線のイメージセンサより構成される
(16)に記載の撮像装置。
(19) 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像処理をし、
前記画像における前記作物である被写体が撮像された領域を特定する特定処理をし、
前記特定処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出処理をする
ステップを含む撮像方法。
(20) 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像ステップと、
前記画像における前記作物である被写体が撮像された領域を特定する特定ステップと、
前記特定ステップの処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出ステップと
を含む処理を撮像装置を制御するコンピュータに実行させるプログラム。
11,11−1乃至11−N センサカメラ, 12,12−1乃至12−4 端末装置, 13 ネットワーク, 14 サーバ, 31 センサ, 32 RGB画像生成部, 33 NDVI画像生成部, 34 制御部, 35 IPアドレス記憶部, 36 GPS, 37 環境情報測定部, 38 RTC, 39 生育状況情報生成部, 40 通信部, 41 通信経路特定部, 61 制御部, 62 問合部, 63 操作部, 64 通信部, 65 IPアドレス記憶部, 66 表示部, 81 制御部, 82 生育状況情報蓄積部, 83 対象物領域特定部, 84 RGB画像生育指標算出部, 85 NDVI画像生育指標算出部, 86 ステレオ画像生育指標算出部, 87 収穫時期算出部, 88 管理情報蓄積部, 89 生育指標算出部, 90 マッピング部, 91 センサカメラ動作状況監視部, 92 通信部, 93 収穫計画生成部, 94 配送計画生成部, 95 販売計画生成部, 96 購入計画生成部, 97 問合受付部, 98 応答作成部

Claims (20)

  1. 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像部と、
    前記画像における前記作物である被写体が撮像された領域を特定する特定部と、
    前記特定部により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出部と
    を含む情報処理システム。
  2. 前記生育指標画像は、NDVI(Normalized Difference Vegetation Index)画像、SR(Simple Ratio)画像、GEMI(Global Environment Monitoring Index)画像、SAVI(Soil Adjusted Vegetation Index)画像、EVI(Enhanced Vegetation Index)、PVI(Perpendicular Vegetation Index)画像、PRI(Photochemical Reflectance Index)画像、SIPI(Structure Insensitive Pigment Index)画像、PSRI(Plant Senescing Reflectance Index)画像、CI(Chlorophyll Index)画像、mSR(Modified Simple Ratio)画像、mND(Modified Normalized Diffrence)画像、CCI(Canopy Chlorophyll Index)画像、WI(Water Index)画像、NDWI(Normalized Difference Water Index)画像、CAI(Cellulose Absorption Index)画像、RVI(Ratio Vegetation Index)画像、KVI(Kind of Vegetation Index)画像、およびDVI(Difference Vegetation Index)画像のいずれか、または、それらの組み合わせの画像である
    請求項1に記載の情報処理システム。
  3. 前記撮像部は、RGB画像の各色彩のイメージセンサ、および、NIRのイメージセンサより構成される
    請求項1に記載の情報処理システム。
  4. 前記撮像部は、RGB画像、およびNIRの各色彩の画素配列は、平面に配列されている
    請求項3に記載の情報処理システム。
  5. 前記撮像部は、RGB画像、およびNIRの各色彩の画素は、光の進行方向に積層されて配列されている
    請求項3に記載の情報処理システム。
  6. 前記特定部により特定された前記画像における前記作物である被写体が撮像された領域の赤色画像、およびNIR画像に基づいて、前記作物の前記生育指標画像を算出する生育指標画像算出部をさらに含み、
    前記生育指標算出部は、前記生育指標画像算出部により算出された前記生育指標画像に基づいて、前記作物の生育指標を算出する
    請求項1に記載の情報処理システム。
  7. 前記生育指標画像算出部は、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域の赤色画像、およびNIR画像に基づいて、求められる前記近赤外線反射率から前記生育指標画像を算出し、前記生育指標画像の平均、分散、または高次分散に基づいて、前記作物の生育指標を算出する
    請求項6に記載の情報諸システム。
  8. 前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像に基づいて、前記作物のRGB画像生育指標を算出するRGB画像生育指標算出部をさらに含み、
    前記生育指標算出部は、前記RGB画像生育指標算出部により算出された前記RGB画像生育指標に基づいて、前記作物の生育指標を算出する
    請求項1に記載の情報処理システム。
  9. 前記RGB画像生育指標算出部は、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像における所定の色の割合からRGB画像生育指標を算出する
    請求項8に記載の情報処理システム。
  10. 前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像であって、異なる角度から同一の前記作物である被写体を撮像した少なくとも2枚以上の画像より求められる視差画像に基づいた視差画像生育指標を算出する視差画像生育指標算出部をさらに含み、
    前記生育指標算出部は、前記視差画像生育指標算出部により算出された前記視差画像生育指標に基づいて、前記作物の生育指標を算出する
    請求項1に記載の情報処理システム。
  11. 前記視差画像生育指標算出部は、前記特定部により特定された前記画像における前記作物である被写体が撮像された領域のRGB画像であって、異なる角度から同一の前記作物である被写体を撮像した少なくとも2枚以上の画像より求められる視差画像に基づいて算出される、前記作物の撮像方向の距離により推定される作物の大きさから、前記視差画像生育指標を算出する
    請求項10に記載の情報処理システム。
  12. 前記撮像部を識別する情報に対応付けて、前記撮像部の位置、前記撮像部により撮像された画像、前記撮像部により撮像された画像の撮像日時、および前記撮像部により撮像された作物毎の生育指標を、管理情報として記憶する記憶部と、
    前記記憶部に記憶されている作物毎の生育指標、並びに、過去の作物毎の生育指標と収穫時期との関係に基づいて、前記作物の予想適正収穫時期を算出する収穫時期算出部とを含み、
    前記記憶部は、前記収穫時期算出部により算出された予想適正収穫時期の情報も併せて、前記撮像部を識別する情報に対応付けて記憶する
    請求項1に記載の情報処理システム。
  13. 前記情報処理システムは、前記撮像部を備えたセンサ、前記管理情報を記憶する記憶部を管理するサーバ、および、前記サーバに収穫時期を問い合わせる端末装置からなり、
    前記サーバは、前記端末装置より前記予想適正収穫時期の問い合わせを受けると、前記記憶部に記憶されている管理情報に基づいて、前記予想適正収穫時期の問い合わせに対するものであって、前記記憶部に記憶されている管理情報に基づいた予想適正収穫時期を含む応答情報を生成し、前記端末装置に送信する
    請求項12に記載の情報処理システム。
  14. 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像処理をし、
    前記画像における前記作物である被写体が撮像された領域を特定する特定処理をし、
    前記特定処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出処理をする
    ステップを含む情報処理システムの情報処理方法。
  15. 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像ステップと、
    前記画像における前記作物である被写体が撮像された領域を特定する特定ステップと、
    前記特定ステップの処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出ステップと
    を含む処理を情報処理システムを制御するコンピュータに実行させるプログラム。
  16. 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像部と、
    前記画像における前記作物である被写体が撮像された領域を特定する特定部と、
    前記特定部により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出部と
    を含む撮像装置。
  17. 前記生育指標画像は、NDVI(Normalized Difference Vegetation Index)画像、SR(Simple Ratio)画像、GEMI(Global Environment Monitoring Index)画像、SAVI(Soil Adjusted Vegetation Index)画像、EVI(Enhanced Vegetation Index)、PVI(Perpendicular Vegetation Index)画像、PRI(Photochemical Reflectance Index)画像、SIPI(Structure Insensitive Pigment Index)画像、PSRI(Plant Senescing Reflectance Index)画像、CI(Chlorophyll Index)画像、mSR(Modified Simple Ratio)画像、mND(Modified Normalized Diffrence)画像、CCI(Canopy Chlorophyll Index)画像、WI(Water Index)画像、NDWI(Normalized Difference Water Index)画像、CAI(Cellulose Absorption Index)画像、RVI(Ratio Vegetation Index)画像、KVI(Kind of Vegetation Index)画像、およびDVI(Difference Vegetation Index)画像のいずれか、または、それらの組み合わせの画像である
    請求項16に記載の撮像装置。
  18. 前記撮像部は、RGB画像の各色彩のイメージセンサ、および、近赤外線のイメージセンサより構成される
    請求項16に記載の撮像装置。
  19. 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像処理をし、
    前記画像における前記作物である被写体が撮像された領域を特定する特定処理をし、
    前記特定処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出処理をする
    ステップを含む撮像方法。
  20. 作物の画像をRGB画像、およびNIR(近赤外線)画像として撮像する撮像ステップと、
    前記画像における前記作物である被写体が撮像された領域を特定する特定ステップと、
    前記特定ステップの処理により特定された前記画像における被写体が撮像された領域の、前記RGB画像、並びに前記NIR画像および前記RGB画像のうちの赤色画像から得られる生育指標画像に基づいて、前記作物の生育指標を算出する生育指標算出ステップと
    を含む処理を撮像装置を制御するコンピュータに実行させるプログラム。
JP2013062017A 2013-03-25 2013-03-25 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム Active JP5950166B2 (ja)

Priority Applications (19)

Application Number Priority Date Filing Date Title
JP2013062017A JP5950166B2 (ja) 2013-03-25 2013-03-25 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム
TW103102014A TWI615605B (zh) 2013-03-25 2014-01-20 成像方法,影像處理系統以及電腦可讀取媒體
AU2014245679A AU2014245679B2 (en) 2013-03-25 2014-03-17 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an organism comprising a set of optical data
RU2015139842A RU2659883C2 (ru) 2013-03-25 2014-03-17 Способ, система и носитель информации, имеющий сохраненные на нем команды, которые вызывают выполнение процессором способа получения информации изображения организма, содержащей набор оптических данных
KR1020157021071A KR102227077B1 (ko) 2013-03-25 2014-03-17 처리장치에 일련의 광학 데이터를 포함하는 작물의 화상정보 취득방법의 실행지시가 기억된 매체, 시스템 및 방법
BR112015024105-0A BR112015024105B1 (pt) 2013-03-25 2014-03-17 Método, sistema, e, mídia legível por computador tangível não temporária
KR1020217002303A KR102362910B1 (ko) 2013-03-25 2014-03-17 처리장치에 일련의 광학 데이터를 포함하는 작물의 화상정보 취득방법의 실행지시가 기억된 매체, 시스템 및 방법
EP14719877.4A EP2979079B1 (en) 2013-03-25 2014-03-17 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an agricultural produce comprising a set of optical data
CN202010672995.1A CN111929253B (zh) 2013-03-25 2014-03-17 信息处理系统、器件和方法以及生产农作物产品的方法
US14/777,549 US10607078B2 (en) 2013-03-25 2014-03-17 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an organism comprising a set of optical data
EP23169780.6A EP4220129A1 (en) 2013-03-25 2014-03-17 A system, a device, and a method of producing agricultural products
PCT/JP2014/001497 WO2014156039A1 (en) 2013-03-25 2014-03-17 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an organism comprising a set of optical data
KR1020227000999A KR102487134B1 (ko) 2013-03-25 2014-03-17 처리장치에 일련의 광학 데이터를 포함하는 작물의 화상정보 취득방법의 실행지시가 기억된 매체, 시스템 및 방법
CN201480016948.4A CN105308436B (zh) 2013-03-25 2014-03-17 信息处理方法和系统以及计算机可读介质
US16/812,678 US11699286B2 (en) 2013-03-25 2020-03-09 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an organism comprising a set of optical data
US16/942,432 US11443509B2 (en) 2013-03-25 2020-07-29 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an organism comprising a set of optical data
US17/713,639 US11875562B2 (en) 2013-03-25 2022-04-05 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an organism comprising a set of optical data
US18/132,309 US12014538B2 (en) 2013-03-25 2023-04-07 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an organism comprising a set of optical data
US18/324,603 US20230306736A1 (en) 2013-03-25 2023-05-26 Method, system, and medium having stored thereon instructions that cause a processor to execute a method for obtaining image information of an organism comprising a set of optical data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013062017A JP5950166B2 (ja) 2013-03-25 2013-03-25 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016116252A Division JP6187639B2 (ja) 2016-06-10 2016-06-10 撮像装置および撮像方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2014183788A true JP2014183788A (ja) 2014-10-02
JP2014183788A5 JP2014183788A5 (ja) 2015-04-09
JP5950166B2 JP5950166B2 (ja) 2016-07-13

Family

ID=50588778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013062017A Active JP5950166B2 (ja) 2013-03-25 2013-03-25 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム

Country Status (10)

Country Link
US (6) US10607078B2 (ja)
EP (2) EP4220129A1 (ja)
JP (1) JP5950166B2 (ja)
KR (3) KR102227077B1 (ja)
CN (2) CN111929253B (ja)
AU (1) AU2014245679B2 (ja)
BR (1) BR112015024105B1 (ja)
RU (1) RU2659883C2 (ja)
TW (1) TWI615605B (ja)
WO (1) WO2014156039A1 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016171007A1 (ja) * 2015-04-24 2016-10-27 ソニー株式会社 検査装置および検査方法、並びにプログラム
WO2016203689A1 (ja) * 2015-06-19 2016-12-22 パナソニックIpマネジメント株式会社 撮像装置
WO2016208415A1 (ja) * 2015-06-26 2016-12-29 ソニー株式会社 検査装置、センシング装置、感度制御装置、検査方法、並びにプログラム
WO2017071928A1 (de) * 2015-10-28 2017-05-04 Robert Bosch Gmbh Verfahren und informationssystem zum erkennen zumindest einer auf einem feld angepflanzten pflanze
JP2017131116A (ja) * 2016-01-25 2017-08-03 株式会社トプコン 植物用センサ装置
WO2017164097A1 (ja) * 2016-03-25 2017-09-28 日本電気株式会社 情報処理装置、情報処理装置の制御方法、および、情報処理装置の制御プログラムが記録された記録媒体
WO2018034166A1 (ja) 2016-08-17 2018-02-22 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラム
WO2019003400A1 (ja) * 2017-06-29 2019-01-03 日本電気株式会社 係数算出装置、係数算出方法、及び、係数算出プログラムが記録された記録媒体
WO2019035306A1 (ja) * 2017-08-18 2019-02-21 コニカミノルタ株式会社 植物生育指標算出方法、植物生育指標算出プログラム及び植物生育指標算出システム
WO2019039507A1 (ja) * 2017-08-22 2019-02-28 株式会社 東芝 スマートカメラ、画像処理装置、およびデータ通信方法
JP2019041159A (ja) * 2017-08-22 2019-03-14 株式会社東芝 スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム
KR20190140658A (ko) * 2018-06-12 2019-12-20 주식회사 팜에어 드론 영상을 이용한 농작물 판별 장치 및 그 방법
JP2020016666A (ja) * 2019-10-18 2020-01-30 マクセルホールディングス株式会社 植物情報取得システム、植物情報取得装置、植物情報取得方法、作物管理システムおよび作物管理方法
WO2020044628A1 (ja) * 2018-08-29 2020-03-05 コニカミノルタ株式会社 圃場撮影システムおよび圃場撮影方法
JP2021006819A (ja) * 2020-10-01 2021-01-21 マクセルホールディングス株式会社 植物情報取得システム、植物情報取得装置、植物情報取得方法、作物管理システムおよび作物管理方法
EP4105892A1 (en) 2021-06-17 2022-12-21 Rakuten Group, Inc. Turf health condition determination system at golf course, turf health condition determination method at golf course and program

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5950166B2 (ja) 2013-03-25 2016-07-13 ソニー株式会社 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム
US9715231B2 (en) * 2013-09-04 2017-07-25 Kubota Corporation Agriculture support system
JP6863280B2 (ja) * 2015-07-10 2021-04-21 ソニーグループ株式会社 検査装置、検査方法、及び、プログラム
KR101832189B1 (ko) * 2015-07-29 2018-02-26 야마하하쓰도키 가부시키가이샤 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량
US20170099476A1 (en) * 2015-10-01 2017-04-06 Samsung Electronics Co., Ltd. Photographing device and method of controlling the same
CN105547360B (zh) * 2015-12-16 2017-08-08 中国科学院地理科学与资源研究所 基于情景感知的作物冠层图像采集方法
ES2847200T3 (es) * 2016-04-07 2021-08-02 Tobii Ab Sensor de imágenes para interacción humano-ordenador basada en visión por ordenador
EP3244343A1 (en) * 2016-05-12 2017-11-15 Bayer Cropscience AG Recognition of weed in a natural environment
WO2017221756A1 (ja) * 2016-06-22 2017-12-28 ソニー株式会社 センシングシステム、センシング方法、及び、センシング装置
FR3055410A1 (fr) * 2016-08-25 2018-03-02 Jaubert Agissant Au Nom Et Pour Le Compte De Ph J Sas En Cours De Formation Philippe Procede de determination instantanee de l'etat vegetatif de zones agricoles
US11010913B2 (en) 2016-10-19 2021-05-18 Basf Agro Trademarks Gmbh Determining the grain weight of an ear
US10769436B2 (en) 2017-04-19 2020-09-08 Sentera, Inc. Multiband filtering image collection and analysis
JOP20190145A1 (ar) * 2017-06-14 2019-06-16 Grow Solutions Tech Llc أنظمة وطرق لتفريع حصاد قرن إنماء
JOP20190167A1 (ar) * 2017-06-14 2019-07-02 Grow Solutions Tech Llc أنظمة وطرق لتحديد وقت الحصاد لمادة نبات بحجيرة نمو
US11227382B2 (en) * 2018-01-11 2022-01-18 Intelinair, Inc. Change detection system
JP7192279B2 (ja) * 2018-07-13 2022-12-20 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
KR102301658B1 (ko) * 2018-10-31 2021-09-14 (주)카탈로닉스 식물 생육 장치 및 그 제어 방법
US20220139082A1 (en) * 2019-03-01 2022-05-05 Sony Group Corporation Image processing device, image processing method, and program
CN110717087B (zh) * 2019-04-24 2022-09-13 中国科学院地理科学与资源研究所 一种指定位置点的归一化植被指数ndvi获取方法及系统
TWI726396B (zh) * 2019-08-23 2021-05-01 經緯航太科技股份有限公司 環境巡檢系統及其方法
US11710308B1 (en) 2019-10-10 2023-07-25 Aerofarms, Inc. Seed germination detection method and apparatus
CN114586066A (zh) * 2019-10-30 2022-06-03 索尼集团公司 图像处理装置、图像处理方法和图像处理程序
US11688069B2 (en) * 2019-11-22 2023-06-27 Farmers Edge Inc. Dynamic area thresholding for automatic crop health change detection and alerting system
US20230143130A1 (en) * 2020-04-10 2023-05-11 Agropeeper Technologies Private Limited System and method for identifying fruit shelf life
BR112023000742A2 (pt) * 2020-07-14 2023-01-31 Farmers Edge Inc Sistema de detecção e alerta de mudança de diferencial de correlação de imagem de campo
US11917272B2 (en) * 2020-10-28 2024-02-27 Semiconductor Components Industries, Llc Imaging systems for multi-spectral imaging
CN112304902B (zh) * 2020-11-02 2023-10-20 航天宏图信息技术股份有限公司 一种农作物物候的实时监测方法和装置
CN113433075B (zh) * 2021-05-08 2022-06-14 中科海慧(天津)科技有限公司 一种简单的黑臭水体遥感快速监测方法
CN114266969A (zh) * 2021-12-16 2022-04-01 江西裕丰智能农业科技有限公司 一种巡检设备及巡检方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06138041A (ja) * 1992-10-26 1994-05-20 Techno Gurafuteingu Kenkyusho:Kk 植物良否判別制御装置およびその良否判別のための面積集計方法
JP2006250827A (ja) * 2005-03-11 2006-09-21 Pasuko:Kk 作物の生育状況分析方法
JP2011027600A (ja) * 2009-07-27 2011-02-10 Satake Corp リモートセンシングにおける検量線の作成方法

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5931614A (ja) 1982-08-11 1984-02-20 株式会社クボタ 果実収穫装置
US6160902A (en) * 1997-10-10 2000-12-12 Case Corporation Method for monitoring nitrogen status using a multi-spectral imaging system
WO2000077861A1 (en) * 1999-06-14 2000-12-21 Augusto Carlos J R P Stacked wavelength-selective opto-electronic device
AU2003211938B2 (en) 2002-02-13 2008-04-10 The General Environmental Technos Co., Ltd. Method of biomass estimation for forests and trees by remote sensing high-resolution data
US8712144B2 (en) * 2003-04-30 2014-04-29 Deere & Company System and method for detecting crop rows in an agricultural field
KR20050043368A (ko) * 2003-11-06 2005-05-11 신성식 친환경 농산물의 유통 검증 방법 및 그 시스템
US7854108B2 (en) * 2003-12-12 2010-12-21 Vision Robotics Corporation Agricultural robot system and method
WO2005091290A1 (ja) * 2004-03-23 2005-09-29 Matsushita Electric Industrial Co., Ltd. 記録装置、再生装置、ホスト装置、ドライブ装置、記録方法、再生方法、プログラムおよび情報記録媒体
US7702597B2 (en) * 2004-04-20 2010-04-20 George Mason Intellectual Properties, Inc. Crop yield prediction using piecewise linear regression with a break point and weather and agricultural parameters
SE0402576D0 (sv) * 2004-10-25 2004-10-25 Forskarpatent I Uppsala Ab Multispectral and hyperspectral imaging
US20060167926A1 (en) * 2005-01-27 2006-07-27 James Verhey Vineyard information collection and management system
US8185275B2 (en) * 2005-07-01 2012-05-22 Deere & Company System for vehicular guidance with respect to harvested crop
US7570783B2 (en) * 2005-07-01 2009-08-04 Deere & Company Method and system for vehicular guidance using a crop image
US7751647B2 (en) * 2005-12-08 2010-07-06 Lenel Systems International, Inc. System and method for detecting an invalid camera in video surveillance
JP4873545B2 (ja) * 2006-05-16 2012-02-08 株式会社日立ソリューションズ 圃場管理支援方法及びシステム
JP4396684B2 (ja) * 2006-10-04 2010-01-13 ソニー株式会社 固体撮像装置の製造方法
US8208680B2 (en) * 2006-11-07 2012-06-26 The Curators Of The University Of Missouri Method of predicting crop yield loss due to N-deficiency
WO2008074019A2 (en) * 2006-12-13 2008-06-19 Georgia Tech Research Corporation Systems and methods for real time multispectral imaging
DK2129212T3 (en) * 2007-03-23 2016-03-29 Heliospectra Aktiebolag A system for modulating plant growth or attributes
US8145677B2 (en) * 2007-03-27 2012-03-27 Faleh Jassem Al-Shameri Automated generation of metadata for mining image and text data
US7911517B1 (en) * 2007-10-31 2011-03-22 The United States Of America As Represented By The Secretary Of Agriculture Device and method for acquiring digital color-infrared photographs for monitoring vegetation
US7924504B2 (en) * 2008-01-01 2011-04-12 United Microelectronics Corp. Color filter structure having inorganic layers
CN101971006B (zh) 2008-03-21 2013-06-05 株式会社伊藤园 茶叶采摘适当性评价方法以及采摘适当性评价装置、采摘适当性评价系统
EP2312858B1 (en) * 2008-06-18 2012-09-26 Panasonic Corporation Image processing apparatus, imaging apparatus, image processing method, and program
US8001115B2 (en) * 2008-10-16 2011-08-16 The Curators Of The University Of Missouri Identifying geographic-areas based on change patterns detected from high-resolution, remotely sensed imagery
WO2010063075A1 (en) * 2008-12-03 2010-06-10 Magnificent Pty Ltd Crop picking device and method
JP2010166851A (ja) * 2009-01-22 2010-08-05 Chiharu Hongo 作物の収量予測方法及びその装置
US8248496B2 (en) * 2009-03-10 2012-08-21 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image sensor
WO2010116974A1 (ja) * 2009-04-07 2010-10-14 ローム株式会社 光電変換装置および撮像装置
MX2011013334A (es) * 2009-06-11 2012-04-11 Pa Llc Indices de vegetacion para medir densidad de microcultivo y crecimiento en multicapas.
US20110221895A1 (en) * 2010-03-10 2011-09-15 Vinay Sharma Detection of Movement of a Stationary Video Camera
JP5467903B2 (ja) * 2010-03-24 2014-04-09 株式会社日本総合研究所 農作物管理方法及び農作物管理装置
JP2011199798A (ja) * 2010-03-24 2011-10-06 Sony Corp 物理情報取得装置、固体撮像装置、物理情報取得方法
US20110276336A1 (en) * 2010-03-25 2011-11-10 Tracy Sweely Method and apparatus for managing production complexity of high yield, multiple crop gardening and sustainable farming operations
CN101839979B (zh) * 2010-04-22 2012-07-25 中国农业大学 作物冠层植被指数测量方法及装置
CN102013021B (zh) 2010-08-19 2012-10-31 汪建 基于颜色和区域生长的茶叶嫩芽分割和识别方法
US9213905B2 (en) * 2010-10-25 2015-12-15 Trimble Navigation Limited Automatic obstacle location mapping
US8855937B2 (en) * 2010-10-25 2014-10-07 Trimble Navigation Limited Crop characteristic estimation
CN103620381B (zh) 2011-06-29 2015-09-30 富士通株式会社 植物种类识别装置以及方法
US8755154B2 (en) 2011-09-13 2014-06-17 Seagate Technology Llc Tuned angled uniaxial anisotropy in trilayer magnetic sensors
CN102521564A (zh) 2011-11-22 2012-06-27 常熟市董浜镇华进电器厂 基于颜色和形状识别茶叶的方法
TWI443446B (zh) 2011-12-01 2014-07-01 Univ Nat Taiwan 植床的監測系統及影像重建方法
CN102565061B (zh) 2012-01-16 2014-03-12 沈阳农业大学 作物生物量无损检测图像采集处理装置及检测方法
US9113590B2 (en) 2012-08-06 2015-08-25 Superior Edge, Inc. Methods, apparatus, and systems for determining in-season crop status in an agricultural crop and alerting users
JP5950166B2 (ja) 2013-03-25 2016-07-13 ソニー株式会社 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06138041A (ja) * 1992-10-26 1994-05-20 Techno Gurafuteingu Kenkyusho:Kk 植物良否判別制御装置およびその良否判別のための面積集計方法
JP2006250827A (ja) * 2005-03-11 2006-09-21 Pasuko:Kk 作物の生育状況分析方法
JP2011027600A (ja) * 2009-07-27 2011-02-10 Satake Corp リモートセンシングにおける検量線の作成方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016171007A1 (ja) * 2015-04-24 2018-02-15 ソニー株式会社 検査装置および検査方法、並びにプログラム
WO2016171007A1 (ja) * 2015-04-24 2016-10-27 ソニー株式会社 検査装置および検査方法、並びにプログラム
WO2016203689A1 (ja) * 2015-06-19 2016-12-22 パナソニックIpマネジメント株式会社 撮像装置
JPWO2016208415A1 (ja) * 2015-06-26 2018-04-12 ソニー株式会社 検査装置、センシング装置、感度制御装置、検査方法、並びにプログラム
US11448586B2 (en) 2015-06-26 2022-09-20 Sony Group Corporation Inspection apparatus, sensing apparatus, sensitivity control apparatus, inspection method, and program with pixel sensitivity control
WO2016208415A1 (ja) * 2015-06-26 2016-12-29 ソニー株式会社 検査装置、センシング装置、感度制御装置、検査方法、並びにプログラム
WO2017071928A1 (de) * 2015-10-28 2017-05-04 Robert Bosch Gmbh Verfahren und informationssystem zum erkennen zumindest einer auf einem feld angepflanzten pflanze
JP2017131116A (ja) * 2016-01-25 2017-08-03 株式会社トプコン 植物用センサ装置
JPWO2017164097A1 (ja) * 2016-03-25 2019-02-07 日本電気株式会社 情報処理装置、制御方法、および、制御プログラム
WO2017164097A1 (ja) * 2016-03-25 2017-09-28 日本電気株式会社 情報処理装置、情報処理装置の制御方法、および、情報処理装置の制御プログラムが記録された記録媒体
JP7124697B2 (ja) 2016-03-25 2022-08-24 日本電気株式会社 情報処理装置、制御方法、および、制御プログラム
EP3748335A1 (en) 2016-08-17 2020-12-09 Sony Corporation Signal processing apparatus, signal processing method, and program
WO2018034166A1 (ja) 2016-08-17 2018-02-22 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラム
JPWO2018034166A1 (ja) * 2016-08-17 2019-06-13 ソニー株式会社 信号処理装置および信号処理方法、並びにプログラム
US11047793B2 (en) 2016-08-17 2021-06-29 Sony Corporation Signal processing apparatus, signal processing method, and progress
WO2019003400A1 (ja) * 2017-06-29 2019-01-03 日本電気株式会社 係数算出装置、係数算出方法、及び、係数算出プログラムが記録された記録媒体
WO2019035306A1 (ja) * 2017-08-18 2019-02-21 コニカミノルタ株式会社 植物生育指標算出方法、植物生育指標算出プログラム及び植物生育指標算出システム
WO2019039507A1 (ja) * 2017-08-22 2019-02-28 株式会社 東芝 スマートカメラ、画像処理装置、およびデータ通信方法
JP2019041159A (ja) * 2017-08-22 2019-03-14 株式会社東芝 スマートカメラ、サーバ、スマートカメラシステム、データ伝送方法およびプログラム
KR102106112B1 (ko) * 2018-06-12 2020-04-29 주식회사 팜에어 드론 영상을 이용한 농작물 판별 장치 및 그 방법
KR20190140658A (ko) * 2018-06-12 2019-12-20 주식회사 팜에어 드론 영상을 이용한 농작물 판별 장치 및 그 방법
WO2020044628A1 (ja) * 2018-08-29 2020-03-05 コニカミノルタ株式会社 圃場撮影システムおよび圃場撮影方法
JPWO2020044628A1 (ja) * 2018-08-29 2021-09-24 コニカミノルタ株式会社 圃場撮影システムおよび圃場撮影方法
JP2020016666A (ja) * 2019-10-18 2020-01-30 マクセルホールディングス株式会社 植物情報取得システム、植物情報取得装置、植物情報取得方法、作物管理システムおよび作物管理方法
JP2021006819A (ja) * 2020-10-01 2021-01-21 マクセルホールディングス株式会社 植物情報取得システム、植物情報取得装置、植物情報取得方法、作物管理システムおよび作物管理方法
EP4105892A1 (en) 2021-06-17 2022-12-21 Rakuten Group, Inc. Turf health condition determination system at golf course, turf health condition determination method at golf course and program

Also Published As

Publication number Publication date
US20220230431A1 (en) 2022-07-21
AU2014245679A1 (en) 2015-08-20
WO2014156039A1 (en) 2014-10-02
US11699286B2 (en) 2023-07-11
RU2015139842A (ru) 2017-03-23
AU2014245679B2 (en) 2017-04-13
KR20220010066A (ko) 2022-01-25
US11443509B2 (en) 2022-09-13
US20230245446A1 (en) 2023-08-03
US20230306736A1 (en) 2023-09-28
US20200210699A1 (en) 2020-07-02
KR102227077B1 (ko) 2021-03-11
US20160283791A1 (en) 2016-09-29
KR20160018450A (ko) 2016-02-17
CN111929253A (zh) 2020-11-13
CN111929253B (zh) 2024-03-22
EP2979079B1 (en) 2023-04-26
CN105308436B (zh) 2020-09-18
US11875562B2 (en) 2024-01-16
RU2659883C2 (ru) 2018-07-04
KR102362910B1 (ko) 2022-02-15
US10607078B2 (en) 2020-03-31
TWI615605B (zh) 2018-02-21
BR112015024105A2 (pt) 2017-07-18
EP2979079A1 (en) 2016-02-03
EP4220129A1 (en) 2023-08-02
CN105308436A (zh) 2016-02-03
JP5950166B2 (ja) 2016-07-13
US12014538B2 (en) 2024-06-18
US20200356775A1 (en) 2020-11-12
TW201437626A (zh) 2014-10-01
BR112015024105B1 (pt) 2022-01-04
KR102487134B1 (ko) 2023-01-12
KR20210011514A (ko) 2021-02-01

Similar Documents

Publication Publication Date Title
JP5950166B2 (ja) 情報処理システム、および情報処理システムの情報処理方法、撮像装置および撮像方法、並びにプログラム
JP6187639B2 (ja) 撮像装置および撮像方法、並びにプログラム
Nex et al. UAV in the advent of the twenties: Where we stand and what is next
US20170131718A1 (en) System, machine, and control method
US10585210B2 (en) Apparatus for radiometric correction and orthorectification of aerial imagery
JP2014183788A5 (ja)
CN106575419A (zh) 信息处理设备、产生控制信号的方法、信息处理系统以及程序
WO2019106733A1 (ja) 生育状況または病害虫発生状況の予測システム、方法およびプログラム
Marín et al. Urban lawn monitoring in smart city environments
US11631242B2 (en) Information processing apparatus, information processing method, and program
JP2021012433A (ja) 情報処理装置、情報処理方法、プログラム、センシングシステム
Fathipoor et al. Corn forage yield prediction using unmanned aerial vehicle images at mid-season growth stage
JPWO2018186016A1 (ja) 情報処理装置、情報処理方法、プログラム
Holasek et al. The selectable hyperspectral airborne remote sensing kit (SHARK) as an enabler for precision agriculture
Nguyen et al. Characteristics of optical flow from aerial thermal imaging,“thermal flow”
Molina-Jimenez et al. NATUREYES: Development of surveillance monitoring system for open spaces based on the analysis of different optical sensors data and environmental conditions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150223

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160525

R151 Written notification of patent or utility model registration

Ref document number: 5950166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250