JP2020024672A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2020024672A
JP2020024672A JP2019097874A JP2019097874A JP2020024672A JP 2020024672 A JP2020024672 A JP 2020024672A JP 2019097874 A JP2019097874 A JP 2019097874A JP 2019097874 A JP2019097874 A JP 2019097874A JP 2020024672 A JP2020024672 A JP 2020024672A
Authority
JP
Japan
Prior art keywords
image
feature
target objects
area
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019097874A
Other languages
English (en)
Inventor
竜也 山本
Tatsuya Yamamoto
竜也 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to AU2019309839A priority Critical patent/AU2019309839A1/en
Priority to PCT/JP2019/028464 priority patent/WO2020022215A1/ja
Publication of JP2020024672A publication Critical patent/JP2020024672A/ja
Priority to US17/156,267 priority patent/US20210142484A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/68Food, e.g. fruit or vegetables

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】個数を求めたいオブジェクトの一部又は全部が検出できない場合でもオブジェクトの総数を推定する仕組みの実現を支援することを目的とする。【解決手段】圃場のうち設定された領域を撮影した画像から取得された特徴量と、設定された領域に存在する対象オブジェクトの実際の個数と、を学習データとして、圃場のうち指定された領域に存在する対象オブジェクトの実際の個数を推定するための推定パラメータを学習する。【選択図】図6

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
特定の領域における特定のオブジェクトの個数を求める技術がある。
例えば、特許文献1では、画像処理技術を用いて、撮影した画像から花の領域を検出し、花の数を求める方法が提案されている。また、特許文献2の部分検出器を用いることで、オブジェクトが部分的に隠された場合(例えば、オブジェクトである農作物の一部が葉等により隠された場合)でも、オブジェクトを検出することができる。これにより、オブジェクトが部分的に隠された場合でも、より精度よくオブジェクトの個数を求めることが可能となる。
しかしながら、個数を求めたいオブジェクトを検出できない場合がある。例えば、オブジェクトが完全に隠されている場合(例えば、葉によりオブジェクトである農作物が完全に隠されている場合)、特許文献1、2の技術を用いてオブジェクトを検出できない。
特開2017−77238号公報 特開2012−108785号公報
個数を求めたいオブジェクトの一部又は全部が検出できない場合でもオブジェクトの総数を推定する仕組みの実現を支援したいという要望がある。
しかし、特許文献1、2では、このような仕組みの実現を支援できなかった。
本発明の情報処理装置は、農作物を生育する圃場の一部である領域を撮影した画像から、前記画像から対象オブジェクトが検出された個数に関連する前記領域の特徴量を取得する特徴取得手段と、前記圃場のうち設定された領域に存在する前記対象オブジェクトの実際の個数を取得する個数取得手段と、前記設定された領域を撮影した画像から前記特徴取得手段によって取得された前記特徴量と、前記個数取得手段に取得された前記実際の個数とを学習データとして、前記圃場のうち指定された領域に存在する前記対象オブジェクトの実際の個数を推定するための推定パラメータを学習する学習手段と、を有することを特徴とする。
本発明によれば、個数を求めたいオブジェクトの一部又は全部が検出できない場合でもオブジェクトの総数を推定する仕組みの実現を支援することができる。
推定装置のハードウェア構成の一例を示す図である。 推定装置の機能構成の一例を示す図である。 学習データを管理するテーブルの一例を示す図である。 オブジェクトの一部が葉に隠れた様子の一例を示す図である。 推定データを管理するテーブルの一例を示す図である。 学習処理の一例を示すフローチャートである。 推定処理の一例を示すフローチャートである。 推定装置の機能構成の一例を示す図である。 区画の領域の一例を示す図である。 区画の領域の一例を示す図である。 学習データを管理するテーブルの一例を示す図である。 推定データを管理するテーブルの一例を示す図である。 学習処理の一例を示すフローチャートである。 推定処理の一例を示すフローチャートである。 推定装置の機能構成の一例を示す図である。 補正情報を管理するテーブルの一例を示す図である。 推定処理の一例を示すフローチャートである。 情報処理システムのシステム構成の一例を示す図である。 推定結果の表示画面の一例を示す図である。 推定結果の表示画面の一例を示す図である。 推定結果の表示画面の一例を示す図である。
以下に、本発明の実施の形態を、図面に基づいて詳細に説明する。
<実施形態1>
本実施形態では、推定装置100が指定された領域に含まれるオブジェクトの個数の推定に用いられるパラメータである推定パラメータを学習し、学習した推定パラメータに基づいて指定された領域に含まれるオブジェクトの個数を推定する処理について説明する。
図1は、本実施形態における推定装置100のハードウェア構成の一例を示す図である。推定装置100は、指定された領域に含まれるオブジェクトの個数を推定するパーソナルコンピュータ、サーバ装置、タブレット装置等の情報処理装置である。
推定装置100は、CPU101、RAM102、ROM103、ネットワークI/F104、VRAM105、入力コントローラ107、HDD109、入力I/F110を含む。各要素は、システムバス111を介して、相互に通信可能に接続されている。
CPU101は、推定装置100全体を統括的に制御する中央演算装置である。RAM102は、Random Access Memoryであり、CPU101の主メモリ、実行プログラムのロードやプログラム実行に必要なワークメモリ等として機能する。
ROM103は、Read Only Memoryであり、例えば、各種プログラム、各種設定情報等を記憶する。ROM103には、コンピュータシステムの機器制御を行うシステムプログラムである基本ソフトウェア(OS)等を記憶したプログラムROMと、システムを稼動するために必要な情報等が記憶されたデータROMと、が含まれる。また、HDD109が、ROM103に記憶されているプログラムや情報を記憶することとしてもよい。
ネットワークI/F104は、ネットワークインタフェースであり、Local Area Network(LAN)等のネットワークを介して送受信される画像データ等のデータの入出力制御に用いられる。ネットワークI/F104は、有線や無線等、ネットワークの媒体に応じたインタフェースであるとする。
VRAM105は、ビデオRAMであり、表示装置であるディスプレイ106の画面に表示される画像のデータが展開される。ディスプレイ106は、表示装置であり、例えば、液晶ディスプレイや液晶パネル等である。入力コントローラ107は、入力装置108からの入力信号の制御に用いられるコントローラである。入力装置108は、ユーザからの操作指示を受け付けるための外部の入力装置であり、例えば、タッチパネル、キーボード、ポインティングデバイス、リモートコントローラ等である。
HDD109は、ハードディスクドライブであり、アプリケーションプログラムや、動画データや画像データ等のデータを記憶する。HDD109に記憶されるアプリケーションプログラムは、例えば、ハイライト動画作成アプリケーション等である。入力I/F110は、CD(DVD)−ROMドライブ、メモリカードドライブ等の外部の装置との接
続に用いられるインタフェースであり、例えば、デジタルカメラで撮影した画像データの読出し等に用いられる。システムバス111は、推定装置の各ハードウェア構成要素間を相互に通信可能に接続するための入出力バスであり、例えばアドレスバス、データバス、制御バス等である。
CPU101がROM103、HDD109等に記憶されたプログラムに基づいて処理を実行することで、図2、8、15で後述する推定装置100の機能、図6、7、13、14、17で後述するフローチャートの処理等が実現される。
本実施形態では、個数を推定する対象となるオブジェクトを、農作物(例えば、実、花、ぶどう等の房等)とする。以下では、個数を推定する対象となるオブジェクトを対象オブジェクトとする。また、本実施形態では、対象オブジェクトの検出を阻害し得る物体を、阻害物とする。本実施形態では、阻害物は、葉であるとする。しかし、阻害物は、葉だけでなく木や茎でもよい。また、対象オブジェクトは、農作物に限らず、人や車であるとしてもよい。その場合、阻害物は、例えば、建物等としてもよい。
また、本実施形態では、推定装置100は、対象オブジェクトの個数を推定する対象の領域が撮影された画像から対象オブジェクトを検出し、検出した対象オブジェクトの個数に基づいて決定したその領域の特徴を示す特徴量を求める。そして、推定装置100は、求めた特徴量と、その領域に実際に含まれる対象オブジェクトの個数と、に基づいて、その領域に含まれる対象オブジェクトの実際の個数の推定に用いられるパラメータである推定パラメータを学習することとする。以下では、領域に含まれる対象オブジェクトの実際の個数を、その領域における対象オブジェクトの実個数とする。
また、推定装置100は、対象オブジェクトの個数を推定する対象となる指定された領域が撮影された画像から対象オブジェクトを検出し、検出した対象オブジェクトの個数に基づいてその領域の特徴を示す特徴量を求める。そして、推定装置100は、求めた特徴量と、学習された推定パラメータと、に基づいて、その領域に含まれる対象オブジェクトの実際の個数を推定することとする。
図2は、本実施形態の推定装置100の機能構成の一例を示す図である。推定装置100は、個数取得部201、画像取得部202、学習部203、特徴量取得部204、パラメータ管理部205、推定部206、表示制御部207を含む。
個数取得部201は、人手で数える等により求められた予め設定された領域に含まれる対象オブジェクトの実際の個数(実個数)を取得する。個数取得部201は、例えば、予め設定された領域における対象オブジェクトの実個数が記録されたテキストファイルをHDD109等から読込むことで、実個数を取得する。また、個数取得部201は、入力装置108を介して、実個数の入力を受付けることとしてもよい。
画像取得部202は、例えば、外部の撮像装置等から、対象オブジェクトを含む予め設定された領域が撮影された画像を取得し、取得した画像をHDD109等に記憶する。本実施形態では、この予め設定された領域それぞれは、対応する画像に撮影されている領域全体であるとする。
特徴量取得部204は、画像取得部202により取得された画像から、物体検出技術を用いて対象オブジェクトを検出し、検出した対象オブジェクトの数に基づいて、検出した対象オブジェクトが存在する予め設定された領域の特徴を示す特徴量を取得する。以下では、ある領域から特徴量取得部204により検出された対象オブジェクトの数を、その領域における検出数とする。本実施形態では、特徴量取得部204は、ある領域の検出数を、その領域の特徴を示す特徴量として取得する。特徴量取得部204による特徴量を取得する処理は、特徴取得処理の一例である。
学習部203は、個数取得部201により受付けられた画像ごとに、以下の処理を行う。即ち、学習部203は、個数取得部201により取得されたその画像に対応する予め設
定された領域に含まれる対象オブジェクトの実際の個数と、特徴量取得部204により取得されたその画像に対応する予め設定された領域の特徴を示す特徴量と、を取得する。そして、学習部203は、取得した個数と特徴量とに基づいて、機械学習により、指定された領域に含まれる対象オブジェクトの実際の個数の推定に用いられる推定パラメータを学習する。本実施形態では、学習部203は、機械学習の手法として線形回帰が用いられることとし、線形回帰に用いられるパラメータを、推定パラメータとして学習することとする。しかし、学習部203は、サポートベクターマシン等の他の手法におけるパラメータを、推定パラメータとして学習することとしてもよい。
パラメータ管理部205は、学習部203により学習された推定パラメータを、HDD109等に記憶し、管理する。
推定部206は、対象オブジェクトの個数を推定する対象となる領域が撮影された画像から特徴量取得部204により取得された特徴量と、パラメータ管理部205により管理されている学習された推定パラメータと、に基づいて、以下の処理を行う。即ち、推定部206は、対象オブジェクトの個数を推定する対象となる領域に含まれる対象オブジェクトの実際の個数を推定する。
図3は、個数取得部201により取得された対象オブジェクトの実個数と、特徴量取得部204により検出された対象オブジェクトの検出数と、を学習データとして管理するテーブルの一例を示す図である。テーブル301は、ID、画像ファイル、検出数、実個数の項目を含む。IDの項目は、学習データを識別する識別情報を示す。画像ファイルの項目は、対応する学習データがどの画像を用いて生成された学習データであるかを示す。検出数の項目は、対応する画像ファイルの項目が示す画像から検出された対象オブジェクトの数を示す。実個数の項目は、対応する画像ファイルの項目が示す画像に撮影された特定の領域に実際に含まれる対象オブジェクトの個数(例えば、葉に隠れて画像に写っていない対象オブジェクトも含めた個数)を示す。テーブル301は、例えば、HDD109等に記憶される。
例えば、IDが1の学習データに対応する画像ファイルが示す画像(IMG_0001.jpg)について、図4を用いて説明する。IMG_0001.jpgである画像701を見ると、対象オブジェクトが3つ写っており、4つは葉に隠れて写っていない状態であることが分かる。そのため、テーブル301のIDが1の学習データに対応する検出数と実個数とは、それぞれ3、7(=3+4)となっている。
個数取得部201は、予め、1つ以上の特定の領域について対象オブジェクトの実個数を取得する。また、特徴量取得部204は、予め、その1つ以上の特定の領域の何れかが撮影された複数の画像それぞれから、対象オブジェクトを検出し、検出数を求める。そして、個数取得部201と特徴量取得部204とは、取得した実個数と、検出数と、を図3に示すテーブル301の形式で学習データとしてHDD109等に記憶する。これにより、学習に用いられる学習データが、予め用意されることとなる。
なお、本実施形態における学習データのうち、画像ファイル又はその特徴量は、入力データと呼ばれる。また、入力データに対応する実個数は、正解データと呼ばれる。また、学習された推定パラメータは、学習済みモデルとも呼ばれる。
図5は、対象オブジェクトの実個数を推定したい領域が撮影された画像から特徴量取得部204により検出された対象オブジェクトの検出数と、推定部206により推定されたその領域の対象オブジェクトの実個数の値と、を管理するテーブルの一例を示す図である。テーブル401は、ID、画像ファイル、検出数、推定値の項目を含む。IDの項目は、対象オブジェクトの実個数が推定された領域を識別する識別情報を示す。画像ファイルの項目は、実個数の推定に用いられた画像を示す。検出数の項目は、対応する画像ファイルの項目が示す画像から特徴量取得部204により検出された対象オブジェクトの個数(検出数)を示す。推定値の項目は、推定部206により推定された対象オブジェクトの個数を示す。テーブル401は、例えば、HDD109等に記憶される。
図6は、推定パラメータの学習処理の一例を示すフローチャートの一例である。
S501において、個数取得部201は、例えば、HDD109に記憶されたテキストファイルから、予め設定された領域が撮影された画像ファイルのファイル名と、その領域に含まれる対象オブジェクトの実個数と、を取得する。そして、個数取得部201は、取得したファイル名と実個数とを、HDD109に記憶されたテーブル301に登録する。HDD109には、予め、画像ファイル名と実個数とがCSV形式等のフォーマットで対応付けて記録されているテキストファイルが記憶されているものとする。
本実施形態では、個数取得部201は、HDD109に記憶されたテキストファイルから、予め設定された複数の領域それぞれについて、領域が撮影された画像ファイルのファイル名と、その領域に含まれる対象オブジェクトの実個数と、を取得することとする。そして、個数取得部201は、複数の領域それぞれについて取得したファイル名と実個数との組それぞれをテーブル301に登録する。
S502において、特徴量取得部204は、S501でテーブル301に登録された画像ファイル名それぞれについて、画像ファイル名が示す画像から、対象オブジェクトを検出して検出数を、その画像に撮影されている領域の特徴量として取得する。
S503において、特徴量取得部204は、例えば、S502で取得された検出数(特徴量)を、HDD109に記憶されたテーブル301に登録する。
S504において、学習部203は、テーブル301に登録された検出数(特徴量)と実個数との組を用いて、推定パラメータ(本実施形態では、線形回帰のパラメータ)を学習する。例えば、線形回帰は、以下の式(1)で表される。学習部203は、例えば、式(1)におけるパラメータw0、w1を推定パラメータとして、推定パラメータを学習する。例えば、w0=7.0、w1=1.2等といった値が学習されることとなる。
実個数(推定値)= w0 +(w1×検出数) ・・・式(1)
S505において、パラメータ管理部205は、例えば、S504で学習された推定パラメータを、HDD109に記憶することで、管理を開始する。
図7は、図6の処理によって学習された推定パラメータを用いた推定処理の一例を示すフローチャートである。
S601において、推定部206は、パラメータ管理部205に対して、図6の処理で学習された推定パラメータを要求する。パラメータ管理部205は、この要求に応じて、HDD109からS505で記憶したS504で学習された推定パラメータを取得し、取得した推定パラメータを推定部206に送信する。
S602において、特徴量取得部204は、対象オブジェクトの個数を推定する対象として指定された領域が撮影された画像から対象オブジェクトを検出し、検出数を取得する。本実施形態では、S602において圃場の少なくとも一部を撮影した画像を処理対象として供給することが、すなわち、画像に撮影されている領域を、対象オブジェクトの個数を推定する処理の対象として指定することに相当する。指定された画像が複数であれば、そのすべてについて同様に処理が行われる。そして、特徴量取得部204は、例えば、その画像の画像ファイル名と対応付けて、取得した検出数を、HDD109に記憶されたテーブル401に登録する。
S603において、推定部206は、S601で取得した推定パラメータと、S602で取得された検出数と、に基づいて、対象オブジェクトの個数を推定する対象となる領域に含まれる対象オブジェクトの個数を推定する。推定部206は、例えば、S601で取得した推定パラメータであるw0、w1と、S602で取得された検出数と、に基づいて、式(1)を用いてその領域に含まれる対象オブジェクトの個数の推定値を求める。推定部206は、求めた推定値を、テーブル401に登録することで出力する。また、推定部206は、求めた推定値を、ディスプレイ106に表示することで、出力してもよい。
テーブル401に登録された推定値は、例えば、対象オブジェクトである農作物の収穫量の予測や、予測される収穫の多い領域、少ない領域の情報の地図上への可視化等に用いられることとしてもよい。
以上、本実施形態では、推定装置100は、予め設定された領域が撮影された画像から対象オブジェクトを検出し、検出した対象オブジェクトの個数(検出数)に基づいて、その領域の特徴を示す特徴量を取得した。そして、推定装置100は、取得した特徴量と、その領域に含まれる対象オブジェクトの実際の個数(実個数)と、に基づいて、推定パラメータを学習した。学習された推定パラメータを用いることで、ある領域から検出された対象オブジェクトの検出数に応じた特徴量に基づいて、その領域に含まれる対象オブジェクトの実際の個数の推定が可能となる。即ち、推定装置100は、推定パラメータを学習することで、対象オブジェクトの一部又は全部が検出できない場合でもオブジェクトの総数を推定する仕組みの実現を支援できる。
また、本実施形態では、推定装置100は、学習した推定パラメータと、対象オブジェクトの個数を推定する対象の領域が撮影された画像から検出された対象オブジェクトの検出数に基づいて取得されたその領域の特徴量と、に基づいて、以下の処理を行った。即ち、推定装置100は、その領域に含まれる対象オブジェクトの実際の個数を推定することとした。このように、推定装置100は、ある領域から検出された対象オブジェクトの個数に基づくその領域の特徴量から、その領域に含まれる対象オブジェクトの実際の個数を推定できる。これにより、推定装置100は、対象オブジェクトの一部又は全部が検出できない場合でもオブジェクトの総数を推定する仕組みの実現を支援できる。
また、本実施形態では、推定装置100は、推定パラメータの学習に用いられる学習データを予め生成し、テーブル301としてHDD109に記憶することとした。このように、推定装置100は、推定パラメータの学習に用いられる学習データを用意することで、対象オブジェクトの一部又は全部が検出できない場合でもオブジェクトの総数を推定する仕組みの実現を支援できる。
本実施形態では、検出数は、画像から検出された対象オブジェクトの個数であるとした。しかし、検出数は、例えば、人が目視で対象オブジェクトを検出した個数であるとしてもよい。その場合、推定装置100は、例えば、入力装置108を介したユーザの操作に基づいて、検出数の指定を受付ける。
また、対象オブジェクトを人であるとして、予め設定された領域の一部に人感センサが設置されているとする。その場合、推定装置100は、人感センサを介して検出された人の数を検出数として、その領域に実際に存在する人を実個数として、用いることとしてもよい。例えば、推定装置100は、その領域における複数の時点それぞれにおける検出数と実個数との組に基づいて、検出数から取得されたその領域の特徴量に基づくその領域に含まれる実際の人数の推定に用いられる推定パラメータを学習してもよい。また、推定装置100は、学習した推定パラメータを用いて、指定された時刻におけるその領域に含まれる実際の人数を推定することとしてもよい。また、推定装置100は、予め、複数の時点それぞれにおける検出数と実個数との組を求めて、推定パラメータの学習に用いられる学習データを生成してもよい。
<利用例>
本実施形態の推定装置100の処理によって得られる対象オブジェクトの数や、それをもとに予測され得る農作物の収穫量をユーザに提示するシステムの利用例について説明する。このシステムは、推定装置100を含む。このシステムのユーザは、推定装置100によって推定された対象オブジェクトの数を、その後に行う作業や加工品の生産計画に活かすことができる。例えば、本実施形態の処理は、農作物としてワイン製造用のぶどうを栽培する場合に好適に適用できる。以下では、ワイン製造用のぶどうの生産管理を例に説明する。
ワイン製造用のぶどうの栽培を行う場合には、その年度(ヴィンテージとも呼ばれる)に生産可能なワインの種類や量を管理するために、ぶどうの栽培段階でもその収穫量を精度よく予測することが求められる。そこで、ぶどうの圃場では、複数の生育ステージの所定のタイミングにおいて、ぶどうの芽や花、房を計数することで、その年に最終的に得られるぶどうの収穫量を繰り返し予測することが行われる。そして、収穫量が予測値より少なかったり多かったりする場合には、圃場での作業内容が変更されたり、生産されるワインの種類や量の計画又は販売計画等が調整されたりする。
対象オブジェクトの実際の個数を計数するために、人(作業者)がぶどうの葉のような阻害物を避けながら目視で対象オブジェクトを数えることが行われている。しかしながら、圃場は広大である場合、タイミングが重視されるような計数作業を圃場のすべての木に対して行うには人的な負荷が過大となる。
そこで、従来は、圃場のうちの複数個所、又は複数の木におけるサンプリング調査が行われてきた。しかしながら、圃場の中には地理的・気候的な条件が均一でない等の理由で、同じように世話をされた木でも場所又は年によって生育状態にばらつきが生じることがある。そのようなばらつきを考慮して、より高精度のサンプリング調査を行うには、調査の度に圃場内での地理的・気候的な条件の違いを反映したサンプリング位置を決定することが求められる。
一方で、圃場が広大である場合にも、圃場の全体、又は一部領域のぶどうの木の写真を一定の条件で撮影することは、全ての木について葉をめくりながら対象オブジェクトを計数するのに比べると作業負荷は低い。対象オブジェクトの実際の個数の計数が、圃場のうち一部でしか行えなかった場合でも、それよりも広い範囲で撮影された画像を得ることができれば、本実施形態の処理により、対象オブジェクトの数の推定をより高い精度で行うことが可能となる。上述したように、本実施形態では、圃場の少なくとも一部について、対象オブジェクトの実際の個数を計数した結果と、その一部を撮影した画像と、の組を学習させた学習済みモデルを利用して、画像に基づいて対象オブジェクトの実個数を推定する。この場合、画像に写る対象オブジェクトの検出数が少なければ、推定される実個数も少なくなる傾向が反映されるように、学習済みモデルが学習される。従って、例えば、地理的な条件の影響で、サンプリング調査が行われた木よりも生育状態の悪い木が存在した場合でも、その木を撮影した画像から推定される対象オブジェクトの個数は、サンプリング調査が行われた木よりも少なくなる。このように、本実施形態の処理により、サンプリング調査が行われた位置によらず、より精度の高い推定処理が可能になる。
図19〜21それぞれは、ワイン製造用ぶどうの生産現場において、本利用例に係るシステムが導入された場合に推定装置100が出力する推定結果を示す表示画面の一例を示す図である。本実施形態では、表示制御部207は、S603での推定結果に基づいて、図19〜21の表示画面を生成し、ディスプレイ106に表示する。ただし、表示制御部207は、S603での推定結果に基づいて、図19〜21の表示画面を生成し、生成した表示画面を外部の機器に送信し、送信先の機器の表示部(ディスプレイ等)に表示させるよう制御してもよい。
画面1900は、圃場に含まれる7つのブロックのそれぞれについて、識別子(ID)と、面積と、対応するブロックについてのぶどうの収穫量の推定値と、を示す画面である。表示制御部207は、対応するブロックについての全ての画像についてS603の処理の結果の合計(収穫されるぶどうの房の推定数)に基づいて、収穫されるぶどうの重量(単位:t)の推定値を求める。そして、表示制御部207は、求めた重量を、ぶどうの収穫量の推定値として、画面1900に含ませる。ぶどうの収穫量を、房の数ではなく、重量で表すことで、ぶどうの収穫量をワインの生産量の見積もりに利用しやすくなる。図19の例では、領域1901が表すブロックB−01において、19.5(t)のぶどうが収穫されるという予測値が示されている。
さらに、本実施形態では、表示制御部207は、領域1901への入力装置108を介したポインティング操作(例えば、クリック、タップ等の選択操作)を検知すると、ディスプレイ106に表示される画面を、図20に示す画面2000に切り替える。
図20を用いて、画面1900において領域1901(ブロックB−01に対応)が選択された場合に表示される画面2000について説明する。画面2000は、ブロックB−01について、収穫量の予測の根拠となった情報を提示する画面である。
画面2000は、画面1900における領域1901に対応する位置に、領域2001を含む。領域2001内の66個の正方形のそれぞれは、計数調査を行う1単位(ユニット)を示すマーカーである。図20の例では、対象オブジェクトは、ぶどうの房である。各マーカーの模様は、各ユニットで検出された房の平均の数に応じた模様である。つまり、領域2001には、ブロックB−01に存在する対象オブジェクトの検出数の地理的な分布が示されている。
破線で囲まれた領域2002には、選択されたブロックB−01に関する詳細情報が示される。例えば、領域2002には、ブロックB−01内の全ユニットについての平均検出房数は8.4であることを示す情報が示される。また、領域2002には、ブロックB−01内の全ユニットについての平均推定房数が17.1であることを示す情報が示される。
ここで、特徴量取得部204によって検出された対象オブジェクトの検出数には、阻害物によって検出を阻害される対象オブジェクトの数が含まれない。一方で、個数取得部201によって取得される実個数とは、阻害物によって検出を阻害される対象オブジェクトの数を含む数である。つまり、本実施形態では、対の学習データとなる実個数と検出数とには差異がある場合がある。結果として、推定部206によって推定される対象オブジェクトの数は、阻害物によって検出を阻害される対象オブジェクトの数の分、図20の領域2002が示すように、検出数よりも大きい数となる場合がある。
領域2003には、複数段階に分けられた検出房数と推定された房数との組について、段階別に、対応する段階に属するマーカーの総数が示される。領域2003に示される情報の表現方法は、図20の例のようにヒストグラム形式であってもよいし、各種グラフ形式であってもよい。
図20の例では、領域2003には、段階別にビンの模様を変えたヒストグラムが示されている。このヒストグラムにおけるビンの模様は、領域2001でのマーカーの模様に対応している。
さらに、図20の例では、領域2002の下部には、領域2003及び領域2001で用いられる模様と対応する検出房数及び推定房数の段階が示されている。なお、図20の例では、表示制御部207は、ビン及びマーカーそれぞれについて、異なる模様を付けることとしたが、異なる色で着色する等してもよい。
このように、領域2001には、疑似的なヒートマップによって、検出された房の数の分布が表現される。ヒートマップ形式の表示により、ユーザは直感的に検出数の大小とその分布を理解できる。
また、図20の例では、領域2002には、検出房数と対応させて推定房数も示される。実際に圃場を目にするユーザ自身は、葉が育つ前からぶどうの木を目にすることもあるため、感覚的に葉に隠された房の数を認識している場合がある。そのようなユーザにとって、画像から検出された房の数は、自らの感覚が知る数よりも少ないと感じられる可能性がある。
そこで、本利用例では、表示制御部207は、収穫量の予測値の根拠として、実際に検出された房の数のみならず、学習済みモデルによって推定された実個数を検出数に対応させて表示させる。例えば、ユーザは、まず画面1900を見て、収穫量の予測値を知る。そして、ブロックごとのその後の計画を立てるにあたり、念のために予測値の根拠を知りたいと考えた場合には、対象ブロックをクリックする。そして、ユーザは、クリックされたブロックに対応する画面2000により、画像から検出された房数(現実的に存在することが確実な房数)と、画像から検出されていない房までを含めて存在することが推定された房和と、の両方を確認できる。例えば、実際の圃場の状態を知るユーザが、画面1900で収穫量の予測値が少なすぎる等の印象を持った場合、画面2000を確認すれば、検出数が少ないことが原因であるのか、あるいは推定数(推定処理)が少ないことが原因であるのかを速やかに判断できる。
また、領域2002内の仮想ボタン2004は、領域2001に示されたマーカーのうち、実際にサンプリング調査が行われた位置の明示の指示に用いられるボタンである。表示制御部207は、仮想ボタン2004へのポインティング操作を検知すると、ディスプレイ106に表示される画面を、図21に示す画面2100に切り替える。
図21の例では、画面2100の領域2001には、画面2000から引き続きブロックB−01に含まれる66個のマーカーが表示されている。そして、表示制御部207は、66個のマーカーのうち、実際にサンプリング調査が行われた位置に対応する10個のマーカーについて、マーカー2101のように、太線で強調表示したマーカーにする。
それと併せて、表示制御部207は、仮想ボタン2004についても、画面2000での表示状態を、色を変化させる等して変化させる。これにより、仮想ボタン2004の表示状態が、仮想ボタン2004が選択されているか否かと対応づけられる。ユーザは、仮想ボタン2004を確認することで、仮想ボタン2004が選択されている状態であるか否かを容易に判断できる。
なお、仮想ボタン2004に係る機能は、推定処理の根拠としてその年のサンプリング調査による学習データが利用されている場合に特に有効である。例えば、昨年以前に実績として得られたデータのみを学習データとして学習した学習済みモデルが利用される場合、サンプリング位置を確認する必要性は低いので、仮想ボタン2004は省略されてもよい。例えば、過去のサンプリング調査の実績により十分な学習データが得られたと判断された年の後は、年ごとのサンプリング調査を省略し、本実施形態による推定処理による計数調査のみを行ってもよい。
<実施形態2>
本実施形態では、推定装置100が予め設定された特定の区画の領域を特定し、特定した領域に含まれる対象オブジェクトの実際の個数を推定する場合について説明する。
本実施形態の推定装置100のハードウェア構成は、実施形態1と同様である。
以下では、実施形態1と異なる点について説明する。
図8は、本実施形態の推定装置100の機能構成の一例を示す図である。本実施形態の推定装置100は、図2に示す実施形態1の場合と比べて、予め設定された区画の領域を特定する区画特定部801を含む点で異なる。また、本実施形態では、画像取得部202が取得する画像が、予め設定された区画の領域を示す画像となる。
区画特定部801は、予め設定された区画の領域(例えば、圃場に設定された区画の領域等)を示す物体を画像から検出し、検出した物体の位置に基づいて、その画像に置ける区画の領域を特定する。画像取得部202は、区画特定部801により特定された区画の領域を、入力の画像から切り出して、HDD109等に記憶する。
区画特定部801の処理について、図9を用いて説明する。図9の画像901は、区画の領域が撮影された画像であり、画像902は、区画の領域を切り出した画像である。区画特定部801は、画像901から区画の領域を示す物体を検出し、画像901における検出した物体で囲まれている領域を、区画の領域として特定する。そして、画像取得部202は、画像901から区画特定部801により特定された領域を切り出し、画像902を取得し、取得した画像902をHDD109に記憶することとなる。
また、区画の幅が広くなると、一枚の画像に区画が収まらず、複数の画像に分割して1つの区画が撮影される場合がある。その場合、区画特定部801は、その区画が撮影された複数の画像を並べて、区画の両端を示す物体をこの複数の画像から検出し、各画像に対して区画の領域を特定する。画像取得部202は、区画特定部801により特定された複数の画像それぞれにおけるその区画の領域を合成し、合成した画像を、HDD109等に記憶する。
この場合の区画特定部801の処理について、図10を用いて説明する。図10の複数の画像1001は、区画の領域が撮影された画像であり、画像1002は、合成された区画の領域を示す画像である。区画特定部801は、複数の画像1001から区画の領域を示す物体を検出し、複数の画像1001における検出した物体で挟まれている領域を、区画の領域として特定する。そして、画像取得部202は、画像1001から区画特定部801により特定された領域を合成し、画像1002を取得し、取得した画像1002をHDD109に記憶することとなる。
また、区画特定部801は、その区画が撮影された複数の画像を合成して、1つの合成画像として、合成画像から区画の領域を示す物体を検出して、検出した物体に基づいて、合成画像における区画の領域を特定してもよい。
本実施形態では、特徴量取得部204は、画像取得部202により取得された区画特定部801により特定された予め設定された区画の領域の画像から、対象オブジェクトを検出する。そして、特徴量取得部204は、検出した対象オブジェクトの個数(検出数)に基づいて、この区画の領域の特徴量を取得することとなる。
そのため、推定パラメータの学習に用いられる学習データに含まれる特徴量、推定処理に用いられる特徴量それぞれは、予め設定された何れかの区画の特徴量となる。つまり、本実施形態では、圃場の中に定義された区画ごとに推定パラメータを学習する。
また、画像取得部202は、区画特定部801により特定された区画の領域の画像を取得せずに、実施形態1と同様の画像を取得することとしてもよい。その場合、特徴量取得部204は、画像取得部202により取得された画像における区画特定部801により特定された予め設定された区画の領域から、対象オブジェクトを検出する。そして、特徴量取得部204は、検出した対象オブジェクトの個数(検出数)に基づいて、この区画の領域の特徴量を取得することとなる。
以上、本実施形態では、推定装置100は、予め設定された区画の領域を特定し、特定した区画の領域に含まれる対象オブジェクトの実際の個数を推定することができる。
ある区画の領域に含まれる対象オブジェクトの実際の個数を推定したい場合、その区画の領域以外の領域から検出され得る対象オブジェクトの影響を低減することが望ましい。本実施形態の処理により、推定装置100は、対象オブジェクトの実際の個数の推定の対象となる領域以外の領域から検出され得る対象オブジェクトの影響を低減できる。
また、区画特定部801は、予め設定された区画の領域を示す物体を検出することで区画の領域を特定したが、GPSデータ等の位置情報や画像計測技術を用いて距離を測り区画の領域を特定してもよい。更に、推定装置100は、撮影の際に特定された区画の領域がユーザにより確認できるよう、入力画像を生成するカメラファインダに仮想的な枠を表示してもよいし、枠を重畳した合成画像を生成してもよい。また、推定装置100は、画像のメタデータとして枠の情報をHDD109等に記憶してもよい。
<実施形態3>
本実施形態では、推定装置100が領域から検出された対象オブジェクトの個数に加えて、その領域の他の属性に基づいて、その領域の特徴を示す特徴量を取得する場合について説明する。
本実施形態の推定装置100のハードウェア構成、機能構成は、実施形態1と同様である。
本実施形態では、推定装置100は、ある領域の特徴量として、その領域から検出された対象オブジェクトの数と、その領域の他の属性と、の組を用いる。そして、推定装置100は、その特徴量を用いて、推定パラメータの学習処理、推定パラメータを用いた対象オブジェクトの個数の推定処理を行う。
図11のテーブル1101は、学習データの登録に用いられるテーブルであり、例えば、HDD109等に記憶されている。テーブル1101は、図3に示すテーブル301に推定パラメータの学習に用いられる情報が追加されたテーブルである。
テーブル1101は、ID、画像ファイル、検出数、隣接検出数、土壌、葉量、実個数の項目を含む。隣接検出数の項目は、対応するIDが示す領域と隣接する1つ以上の領域それぞれから検出された対象オブジェクトの平均値である。本実施形態では、対象オブジェクトを農作物とする。本実施形態では、推定装置100は、その領域の特徴量に、その領域の周囲の領域の特徴(例えば、周囲の領域から検出された対象オブジェクトの特徴個数に基づいて決定された統計値(例えば、平均、合計、分散等)等)を含ませる。これにより、推定装置100は、周囲の領域を考慮した上で対象オブジェクトの実際の個数を推定可能な推定パラメータを学習できるし、その推定パラメータを用いて、周囲の領域を考慮した上で対象オブジェクトの実際の個数を推定できる。
土壌の項目は、対応するIDが示す領域の土壌の良さ(実りやすさ)を示す指標値を示す。この指標値が大きい値であるほど土壌が良いこととなる。本実施形態では、推定装置100は、対象オブジェクトである農作物が植えられている土壌の良さを示す指標値を特徴量に含ませる。これにより、推定装置100は、土壌の特徴を考慮した上で対象オブジェクトの実際の個数を推定可能な推定パラメータを学習できるし、その推定パラメータを用いて、土壌の特徴を考慮した上で対象オブジェクトの実際の個数を推定できる。
葉量の項目は、その領域から検出された葉の量を示す指標値を示す。この指標値が大きいほど、葉の量が多いこととなる。本実施形態では、対象オブジェクトの検出を阻害し得る阻害物を、葉であるとする。本実施形態では、推定装置100は、検出された阻害物の量を特徴量に含ませる。これにより、推定装置100は、阻害物の量を考慮した上で対象オブジェクトの実際の個数を推定可能な推定パラメータを学習できるし、その推定パラメータを用いて、阻害物の量を考慮した上で対象オブジェクトの実際の個数を推定できる。
本実施形態では、領域の特徴量は、検出数と、隣接検出数と、葉量と、土壌の良さを示す指標値との組であるとする。しかし、領域の特徴量は、検出数と、隣接検出数・葉量・土壌の良さを示す指標値の一部との組であるとしてもよい。また、領域の特徴量は、検出数、隣接検出数、葉量、土壌の良さを示す指標値以外の領域の属性を含むこととしてもよい。
図12のテーブル1201は、対象オブジェクトの実個数を推定したい領域の特徴量と、推定部206により推定されたその領域の対象オブジェクトの実個数の値と、を管理するテーブルである。テーブル1201は、図5のテーブル401に、対象オブジェクトの実際の個数の推定に用いられる情報が追加されたテーブルである。テーブル1201は、ID、画像ファイル、検出数、隣接検出数、土壌、葉量、推定値の項目を含む。隣接検出数、土壌、葉量の項目それぞれは、テーブル1101と同様の項目である。
図13は、推定パラメータの学習処理の一例を示すフローチャートである。図13の処理では、図6の処理と異なり、テーブル301ではなく、テーブル1101が用いられる。
S1301〜S1304の処理は、テーブル1101に登録されている各画像ファイルに対して、特徴量取得部204により特徴量を取得し、取得した結果が登録される処理である。
S1301において、特徴量取得部204は、テーブル1101に登録されている画像から対象オブジェクトと葉とを検出する。特徴量取得部204は、葉を、物体検出技術を用いて検出してもよいし、単純に葉の色を持つ画素を検出することで検出してもよい。
S1302において、特徴量取得部204は、S1301で検出した対象オブジェクトの検出数と葉量とをテーブル1101に登録する。特徴量取得部204は、葉の量を示す指標値である葉量を、検出した葉の領域の画素数と画像全体の画素数との比率に基づいて取得する。
S1303において、特徴量取得部204は、テーブル1101に登録されている画像のメタデータからGPSデータ等の位置情報を取得する。そして、特徴量取得部204は、取得した位置情報に基づいて、隣接検出数と土壌の良さとの情報を取得する。特徴量取得部204は、テーブル1101から対象のIDの前後のIDに対応する画像の位置情報を取得し、隣接する領域の画像であるか否かを判定する。そして、特徴量取得部204は、隣接する領域であると判定した画像についての検出数を取得して平均値を、隣接検出数として取得する。特徴量取得部204は、例えば、ID2の隣接検出数を、ID1の検出数である3と、ID3の検出数である4と、を平均して3.5とする。
本実施形態では、位置的に連続して撮影された画像が、IDの連続する画像としてテーブル1101に登録されているとする。そのため、IDの近いものが近い位置で撮影されていることを前提としている。しかし、撮影対象となる領域の端が撮影された場合、撮影が途切れて前後のIDが必ずしも隣接しない場合があるため、特徴量取得部204は、位置情報を用いて実際に隣接する領域であるかを判定することとした。
また、複数個所が並行して撮影される等により、IDが近いからといって、位置的に近いこととならない場合に対応するために、推定装置100は、以下のようにしてもよい。即ち、テーブル1101が対応するIDの領域の位置情報を含むこととして、特徴量取得部204は、この位置情報に基づいて、テーブル1101から、ある領域の周囲の領域についての検出数のデータを特定することとしてもよい。
過去の生育状態から経験的に得られた位置と土壌の良さとの関係を示す情報が予めHDD109等に記憶されたデータベース等で管理されているとする。特徴量取得部204は、例えば、そのデータベース等から撮影位置に対応する土壌の良さを示す指標値を取得する。
S1304において、特徴量取得部204は、S1303で取得した隣接検出数と土壌の良さを示す指標値との情報をテーブル1101に登録する。
図13のS504において、学習部203は、テーブル1101の検出数、隣接検出数、土壌の良さを示す指標値、葉量を用いて推定パラメータを学習する。本実施形態では、推定パラメータは、線形回帰のパラメータであるとする。例えば、線形回帰は、以下の式(2)で表されるとする。
実数(推定値)= w0 +(w1×検出数)+(w2×隣接検出数)+(w3×土壌の良さを示す指標値)+(w4×葉量) ・・・式(2)
この場合、学習部203は、推定パラメータとしてw0、w1、w2、w3、w4を学習する。例えば、w0=7.0、w1=0.7、w2=0.5、w3=1.6、w4=1.2といった値が学習される。
図13のS505において、パラメータ管理部205は、S504で学習された推定パラメータをHDD109等に記憶し、管理する。
図14は、図13の処理で学習された推定パラメータを用いた対象オブジェクトの実際の個数を推定する推定処理の一例をしめすフローチャートである。
図14のS601において、推定部206は、図13のS504で学習された推定パラメータを取得する。
S1401において、特徴量取得部204は、S1301と同様に、対象オブジェクトの実際の個数を推定する対象となる領域が撮影された画像から対象オブジェクトと葉とを検出する。
S1402において、特徴量取得部204は、S1302と同様に、S1401で検出した対象オブジェクトの検出数と葉量とをテーブル1201に登録する。特徴量取得部204は、葉の量を示す指標値である葉量を、検出した葉の領域の画素数と画像全体の画素数との比率に基づいて取得する。
S1403において、特徴量取得部204は、S1303と同様に、対象オブジェクトの実際の個数を推定する対象となる領域が撮影された画像のメタデータからGPSデータ等の位置情報を取得する。そして、特徴量取得部204は、取得した位置情報に基づいて、隣接検出数と土壌の良さとの情報を取得する。そして、特徴量取得部204は、取得した隣接検出数と土壌の良さを示す指標値との情報をテーブル1201に登録する。
図14のS603において、推定部206は、S601で取得した推定パラメータと、テーブル1201に登録された領域の特徴量と、に基づいて、式(2)を用いて、以下の処理を実行する。即ち、推定部206は、対象オブジェクトの実際の個数を推定する対象となる領域に実際に含まれる対象オブジェクトの個数を推定する。
図12の例では、ID836は、ID835やID837と比べて検出された対象オブジェクトの個数(検出数)が少なくなっている。しかし、ID836は、ID835やID837と同程度の推定値となっている。そのため、ID836の領域では、たまたま葉に隠れた対象オブジェクトが、ID835やID837と比べて多くなり、検出数がID835やID837と比べて少なくなってしまった可能性がある。
農作物は、同じ圃場の中でも実りやすい場所と実りにくい場所とに偏りがあり、位置的に近いもの同士で対象オブジェクトの実個数に相関があることが仮定できる。推定装置100は、特徴量として隣接検出数を用いることで、検出数の情報を補完することができるため、検出数が少なくなっても推定値が小さくなりすぎないようにすることができる。また、葉量が多いほど対象オブジェクトが隠れる可能性が高くなるため、推定装置100は、特徴量として葉量を用いることで、葉量が多く隠れた場合でも推定値が小さくなりすぎることを防ぐことができる。
以上、本実施形態では、推定装置100は、特徴量として、検出数に加えて、実りやすさの位置的な偏り(土壌の良さ)や、葉量等の領域のその他の属性を用いることとした。これにより、推定装置100は、実施形態1よりも精度よく対象物の実数を推定することができる。
また、推定装置100は、本実施形態で用いた特徴量以外にも、実りやすい場所では対象オブジェクトが大きくなると仮定して検出した対象オブジェクトの大きさの情報を、領域の特徴量に用いてもよい。推定装置100は、他にも、実りやすさの要因とされる農作物の品種や、肥料の散布状況、病気の有無等を特徴量として用いてもよい。
<実施形態4>
農作物は天候により実りやすさに偏りがある。本実施形態では、対象オブジェクトである農作物の実際の個数を推定し、天候の条件を考慮した上で補正する処理について説明する。
本実施形態では、推定装置100のハードウェア構成は、実施形態1と同様である。
以下では、本実施形態と実施形態1との異なる点について説明する。
図15は、本実施形態の推定装置100の機能構成の一例を示す図である。本実施形態の推定装置100の機能構成は、図2の機能構成に比べて、補正情報を取得する補正情報取得部1501を含む点で異なる。補正情報取得部1501は、推定部206により対象オブジェクトの実際の個数を推定するために用いられる学習済みの推定パラメータと、推定した値の補正に用いられる情報である補正情報(例えば、推定値に乗じるための係数等)と、を取得する。本実施形態では、推定部206は、推定パラメータと、補正情報と、を用いて対象オブジェクトの実際の個数を推定する。
図16は、予め用意された学習済みパラメータと係数とを管理するテーブルの一例を示す図である。テーブル1601は、年度、平均検出数、パラメータを含む。年度の項目は、テーブル301に登録された学習データに対応する年度である。平均検出数の項目は、対応する年度における平均の検出数である。パラメータは、学習部203により対応する年度に対応する学習データを用いて学習された推定パラメータである。テーブル1601は、平均検出数という予め設定された指標の指標値とそれぞれ対応付けられた学習部203により学習された複数の推定パラメータを管理するテーブルである。テーブル1601は、例えば、HDD109等に記憶される。
テーブル1602は、晴れの割合、係数の項目を含む。晴れの割合の項目は、ある領域に実際に含まれる対象オブジェクトである農作物が生育した期間における晴れ日の割合を示す。係数の項目は、推定値を補正するための値を示し、対応する晴れ日の割合が高いほど大きい値となる。
図17は、推定パラメータを用いた推定処理の一例を示すフローチャートである。
S1701において、補正情報取得部1501は、テーブル401の検出数を平均して対象オブジェクトの実際の個数の推定対象に対応する年度の平均検出数を取得する。補正情報取得部1501は、テーブル1601に登録された推定パラメータから、対応する平均検出数の値が、取得した平均検出数に最も近い推定パラメータを取得する。補正情報取得部1501は、取得した推定パラメータを、推定処理に用いる推定パラメータとして選択する。
推定装置100は、S1701の処理により、改めて推定パラメータを学習することなく、推定処理の対象の領域の置かれている条件に近い条件で学習された推定パラメータを取得できる。これにより、推定装置100は、学習に係る処理の負担を軽減しつつ、推定処理の精度の低減を防止できる。
S1702において、補正情報取得部1501は、例えば、外部の気象サービス等を用いて取得した天候の情報に基づいて、推定処理の対象となる領域に対応する年度における対象オブジェクトである農作物の生育期間における晴れの日の割合を取得する。補正情報取得部1501は、テーブル1602から、取得した晴れの日の割合に対応する係数を取得する。
S1703において、推定部206は、例えば、S1701で選択された推定パラメータを用いて、式(1)により対象オブジェクトの実際の個数の推定値を取得する。そして、推定部206は、取得した推定値に、S1702で取得された係数を乗じることで、推定値を補正し、補正後の推定値を最終的な推定値とする。
以上、本実施形態では、推定装置100は、天候の情報(晴れの日の割合)に基づいて、オブジェクトの推定値の補正に用いられる係数を取得することとした。そして、推定装置100は、取得した係数を用いて、対象オブジェクトの実際の個数の推定値を補正した。これにより、推定装置100は、実施形態1よりも精度のよい対象オブジェクトの実際の個数の推定値を取得できる。
また、本実施形態では、農作物の収穫は年一回としたが、年一回に限定するものではなく、年に複数回収穫する農作物を対象にしてもよい。その場合、年度ごとに管理していたデータを生育期間ごとに管理するように変更すればよい。
また、本実施形態では、推定装置100は、係数を取得するために晴れの日の割合を用いたが、他にも日照時間、降水量、気温の平均値や積算値等を用いてもよい。
更に、推定装置100は、本実施形態で説明した推定パラメータを取得するために用いられる平均検出数、補正情報を取得するために用いられる晴れの日の割合を、特徴量の一つとして用いてもよい。また、推定装置100は、実施形態3で説明した特徴量の一部を用いて、推定パラメータや補正情報を取得してもよい。
<実施形態5>
実施形態1では、推定装置100が、推定パラメータの学習に用いられる学習データの生成処理、推定パラメータの学習処理、対象オブジェクトの実際の個数の推定処理を行うこととした。しかしながら、これらの処理は、単一の装置により実行されることとしなくてもよい。
本実施形態では、推定パラメータの学習に用いられる学習データの生成処理、推定パラメータの学習処理、対象オブジェクトの実際の個数の推定処理それぞれが別個の装置によって実行される場合について説明する。
図18は、本実施形態で推定パラメータの学習に用いられる学習データの生成処理、推定パラメータの学習処理、推定パラメータを用いた対象オブジェクトの実際の個数の推定処理を実行する情報処理システムのシステム構成等の一例を示す図である。
情報処理システムは、生成装置1801、学習装置1802、推定装置1803を含む。生成装置1801、学習装置1802、推定装置1803それぞれのハードウェア構成は、図1に示す実施形態1の推定装置100のハードウェア構成と同様である。
生成装置1801のCPUが生成装置1801のROM、HDD等に記憶されたプログラムに基づいて処理を実行することで、図18に示される生成装置1801の機能、生成装置1801の処理が実現される。学習装置1802のCPUが学習装置1802のROM、HDD等に記憶されたプログラムに基づいて処理を実行することで、図18に示される学習装置1802の機能、学習装置1802の処理が実現される。推定装置1803のCPUが推定装置1803のROM、HDD等に記憶されたプログラムに基づいて処理を実行することで、図18に示される推定装置1803の機能、推定装置1803の処理が実現される。
生成装置1801、学習装置1802、推定装置1803それぞれの機能構成について説明する。
生成装置1801は、個数取得部1811、画像取得部1812、特徴量取得部1813、生成部1814を含む。個数取得部1811、画像取得部1812、特徴量取得部1813は、それぞれ、図2の個数取得部201、画像取得部202、特徴量取得部204と同様である。生成部1814は、学習データを生成し、生成した学習データを、テーブル301やCSV等の形式で、生成装置1801のHDD等に記憶する。生成部1814は、例えば、図6のS501〜S503と同様の処理を実行することで、学習データを生成する。
学習装置1802は、学習部1821、パラメータ管理部1822を含む。学習部1821、パラメータ管理部1822は、それぞれ図2の学習部203、パラメータ管理部205と同様の機能構成要素である。即ち、学習部1821は、生成装置1801から生成装置1801により生成された学習データを取得し、取得した学習データ(テーブル301の情報)に基づいて、図6のS504〜S505と同様の処理を実行することで、推定パラメータを学習する。そして、パラメータ管理部1822は、学習部1821により学習された推定パラメータを、学習装置1802のHDD等に記憶する。
推定装置1803は、画像取得部1831、特徴量取得部1832、推定部1833、表示制御部1834を含む。画像取得部1831、特徴量取得部1832、推定部1833、表示制御部1834は、それぞれ図2の画像取得部202、特徴量取得部204、推定部206、表示制御部207と同様である。即ち、画像取得部1831、特徴量取得部1832、推定部1833は、図7と同様の処理を実行することで、対象オブジェクトの個数を推定する対象となる領域に含まれる対象オブジェクトの実際の個数を推定する処理を実行する。
以上、本実施形態では、それぞれ別個の装置が、推定パラメータの学習に用いられる学習データの生成処理、推定パラメータの学習処理、対象オブジェクトの実際の個数の推定処理のそれぞれを実行することとした。これにより、各処理に係る負担を、複数の装置に分散することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
例えば、上述した推定装置100の機能構成の一部又は全てをハードウェアとして推定装置100、生成装置1801、学習装置1802、推定装置1803等に実装してもよい。
以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。例えば、上述した各実施形態を任意に組み合わせたりしてもよい。
100 推定装置
101 CPU

Claims (20)

  1. 農作物を生育する圃場の一部である領域を撮影した画像から、前記画像から対象オブジェクトが検出された個数に関する前記領域の特徴量を取得する特徴取得手段と、
    前記圃場のうち設定された領域に存在する前記対象オブジェクトの実際の個数を取得する個数取得手段と、
    前記設定された領域を撮影した画像から前記特徴取得手段によって取得された前記特徴量と、前記個数取得手段に取得された前記実際の個数とを学習データとして、前記圃場のうち指定された領域に存在する前記対象オブジェクトの実際の個数を推定するための推定パラメータを学習する学習手段と、
    を有することを特徴とする情報処理装置。
  2. 前記対象オブジェクトは、少なくとも前記農作物の芽、実、花、房の何れかであることを特徴とする請求項1記載の情報処理装置。
  3. 前記指定された領域を撮影した画像から前記前記特徴取得手段により取得される前記特徴量と、前記学習手段により学習された前記推定パラメータと、に基づいて、前記指定された領域に含まれる前記対象オブジェクトの実際の個数を推定する推定手段を更に有することを特徴とする請求項1記載の情報処理装置。
  4. 前記推定手段は、前記指定された領域の前記特徴量と、それぞれが予め設定された指標における指標値と対応付けられた前記学習手段により学習された複数の前記推定パラメータから、前記特徴量に対応する前記指標の指標値に基づいて、選択された前記推定パラメータと、に基づいて、前記指定された領域に含まれる前記対象オブジェクトの実際の個数を推定することを特徴とする請求項3記載の情報処理装置。
  5. 前記推定手段は、前記指定された領域の前記特徴量と、前記学習手段により学習された前記推定パラメータと、前記推定パラメータを用いて推定された値の補正に用いられる補正情報と、に基づいて、前記指定された領域に含まれる前記対象オブジェクトの実際の個数を推定することを特徴とする請求項4記載の情報処理装置。
  6. 農作物を生育する圃場の一部である領域を撮影した画像から、前記画像から対象オブジェクトが検出された個数に関する前記領域の特徴量を取得する特徴取得手段と、
    前記圃場のうち指定された領域を撮影した画像から前記特徴取得手段により取得された前記特徴量と、前記圃場の領域を撮影した画像から前記特徴取得手段により取得される前記特徴量から前記領域に含まれる前記対象オブジェクトの実際の個数を推定する推定処理に用いられる予め学習されたパラメータである推定パラメータと、に基づいて、前記指定された領域に含まれる前記対象オブジェクトの実際の個数を推定する推定手段と、
    を有することを特徴とする情報処理装置。
  7. 前記推定手段は、前記指定された領域を撮影した画像から前記特徴取得手段により取得された前記特徴量と、それぞれが予め設定された指標における指標値と対応付けられた複数の前記推定パラメータから、前記特徴量に対応する前記指標の指標値に基づいて、選択された前記推定パラメータと、に基づいて、前記設定された領域に含まれる前記対象オブジェクトの実際の個数を推定することを特徴とする請求項6記載の情報処理装置。
  8. 前記推定手段は、前記指定された領域を撮影した画像から前記特徴取得手段により取得された前記特徴量と、前記推定パラメータと、前記推定パラメータを用いて推定された値の補正に用いられる補正情報と、に基づいて、前記設定された領域に含まれる前記対象オブジェクトの実際の個数を推定することを特徴とする請求項6記載の情報処理装置。
  9. 前記推定手段によって推定された前記対象オブジェクトの実際の個数に基づいて予測される前記農作物の収穫量を所定のディスプレイに表示させる表示制御手段を更に有することを特徴とする請求項3乃至8の何れか1項記載の情報処理装置。
  10. 前記表示制御手段は、さらに、ユーザによる操作に応じて、前記農作物の収穫量の予測の根拠となった所定の範囲で検出された前記対象オブジェクトの個数と前記推定手段によって推定された前記対象オブジェクトの個数とを前記所定のディスプレイに表示させる制御を行うことを特徴とする請求項9記載の情報処理装置。
  11. 農作物を生育する圃場の一部である領域を撮影した画像から、前記画像から対象オブジェクトが検出された個数に関する前記領域の特徴量を取得する特徴取得手段と、
    前記圃場のうち設定された領域に存在する前記対象オブジェクトの実際の個数を取得する個数取得手段と、
    前記設定された領域を撮影した画像から前記特徴取得手段により取得された前記特徴量と、前記個数取得手段により取得された前記実際の個数と、を対応付けて、前記圃場のうち指定された領域を撮影した画像から前記特徴取得手段によって取得される前記特徴量から、前記指定された領域に含まれる前記対象オブジェクトの実際の個数を推定する推定処理に用いられる推定パラメータの学習に用いられる学習データを生成する生成手段と、
    を有することを特徴とする情報処理装置。
  12. 前記特徴取得手段は、前記一部である領域を撮影した画像に写る所定の物体に基づいて決定される前記画像に含まれる領域から検出された前記対象オブジェクトの個数である前記検出された個数に基づいて、前記特徴量を取得することを特徴とする請求項1乃至11の何れか1項記載の情報処理装置。
  13. 前記特徴取得手段は、前記一部である領域を撮影した複数の画像に一部が写る予め設定された1の物体に基づいて決定される、前記複数の画像に含まれる領域から検出された前記対象オブジェクトの個数である前記検出された個数に基づいて、前記特徴量を取得することを特徴とする請求項12記載の情報処理装置。
  14. 前記特徴取得手段は、前記検出された個数と、前記一部である領域に存在する前記対象オブジェクトの検出を阻害し得る予め設定された阻害物の量を示す情報と、に基づいて、前記特徴量を取得することを特徴とする請求項1乃至13の何れか1項記載の情報処理装置。
  15. 前記特徴取得手段は、前記検出された個数と、前記一部である領域における土壌の特徴と、に基づいて、前記特徴量を取得することを特徴とする請求項1乃至14の何れか1項記載の情報処理装置。
  16. 前記特徴取得手段は、前記検出された個数と、前記一部である領域の周囲の領域として設定された領域の特徴と、に基づいて、前記特徴量を取得することを特徴とする請求項1乃至15の何れか1項記載の情報処理装置。
  17. 情報処理装置が実行する情報処理方法であって、
    農作物を生育する圃場の一部である領域を撮影した画像から、前記画像から対象オブジェクトが検出された個数に関する前記領域の特徴量を取得する特徴取得ステップと、
    前記圃場のうち設定された領域に存在する前記対象オブジェクトの実際の個数を取得する個数取得ステップと、
    前記設定された領域を撮影した画像から前記特徴取得ステップで取得された前記特徴量と、前記個数取得ステップで前記実際の個数とを学習データとして、前記圃場のうち指定された領域に存在する前記対象オブジェクトの実際の個数を推定するための推定パラメータを学習する学習ステップと、
    を含むことを特徴とする情報処理方法。
  18. 情報処理装置が実行する情報処理方法であって、
    農作物を生育する圃場の一部である領域を撮影した画像から、前記画像から対象オブジェクトが検出された個数に関する前記領域の特徴量を取得する特徴取得ステップと、
    前記圃場のうち指定された領域を撮影した画像から前記特徴取得ステップで取得された前記特徴量と、前記圃場の領域を撮影した画像から前記特徴取得ステップで取得される前記特徴量から前記領域に含まれる前記対象オブジェクトの実際の個数を推定する推定処理に用いられる予め学習されたパラメータである推定パラメータと、に基づいて、前記指定された領域に含まれる前記対象オブジェクトの実際の個数を推定する推定ステップと、
    を含むことを特徴とする情報処理方法。
  19. 農作物を生育する圃場の一部である領域を撮影した画像から、前記画像から対象オブジェクトが検出された個数に関する前記領域の特徴量を取得する特徴取得ステップと、
    前記圃場のうち設定された領域に存在する前記対象オブジェクトの実際の個数を取得する個数取得ステップと、
    前記設定された領域を撮影した画像から前記特徴取得ステップで取得された前記特徴量と、前記個数取得ステップで取得された前記実際の個数と、を対応付けて、前記圃場のうち指定された領域を撮影した画像から前記特徴取得ステップで取得される前記特徴量から、前記指定された領域に含まれる前記対象オブジェクトの実際の個数を推定する推定処理に用いられる推定パラメータの学習に用いられる学習データを生成する生成ステップと、
    を含むことを特徴とする情報処理方法。
  20. コンピュータを、請求項1乃至16の何れか1項記載の情報処理装置の各手段として、機能させるためのプログラム。
JP2019097874A 2018-07-27 2019-05-24 情報処理装置、情報処理方法及びプログラム Pending JP2020024672A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2019309839A AU2019309839A1 (en) 2018-07-27 2019-07-19 Information processing device, information processing method, and program
PCT/JP2019/028464 WO2020022215A1 (ja) 2018-07-27 2019-07-19 情報処理装置、情報処理方法及びプログラム
US17/156,267 US20210142484A1 (en) 2018-07-27 2021-01-22 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018141430 2018-07-27
JP2018141430 2018-07-27

Publications (1)

Publication Number Publication Date
JP2020024672A true JP2020024672A (ja) 2020-02-13

Family

ID=69618815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019097874A Pending JP2020024672A (ja) 2018-07-27 2019-05-24 情報処理装置、情報処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20210142484A1 (ja)
JP (1) JP2020024672A (ja)
AU (1) AU2019309839A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022030858A (ja) * 2020-08-07 2022-02-18 ヤンマーホールディングス株式会社 作業管理システム、作業管理方法及び作業管理プログラム
US20220358641A1 (en) * 2019-07-11 2022-11-10 Omron Corporation Information processing device and index value calculation method
WO2023176726A1 (ja) * 2022-03-15 2023-09-21 株式会社Nttドコモ 穂数予測装置
WO2023176201A1 (ja) * 2022-03-15 2023-09-21 株式会社Nttドコモ 穂数予測装置
WO2023176196A1 (ja) * 2022-03-15 2023-09-21 株式会社Nttドコモ 穂数予測装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021163048A (ja) * 2020-03-31 2021-10-11 株式会社トプコン 情報処理装置、情報処理システム、および情報処理方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9953241B2 (en) * 2014-12-16 2018-04-24 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for satellite image processing to estimate crop yield
FR3036830B1 (fr) * 2015-05-29 2017-06-09 Univ Bordeaux Systeme et methode pour l'estimation d'un volume de recolte au sein d'une exploitation viticole
US10331931B2 (en) * 2016-02-05 2019-06-25 The Climate Corporation Modeling trends in crop yields

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220358641A1 (en) * 2019-07-11 2022-11-10 Omron Corporation Information processing device and index value calculation method
JP2022030858A (ja) * 2020-08-07 2022-02-18 ヤンマーホールディングス株式会社 作業管理システム、作業管理方法及び作業管理プログラム
WO2023176726A1 (ja) * 2022-03-15 2023-09-21 株式会社Nttドコモ 穂数予測装置
WO2023176201A1 (ja) * 2022-03-15 2023-09-21 株式会社Nttドコモ 穂数予測装置
WO2023176196A1 (ja) * 2022-03-15 2023-09-21 株式会社Nttドコモ 穂数予測装置

Also Published As

Publication number Publication date
US20210142484A1 (en) 2021-05-13
AU2019309839A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
JP2020024672A (ja) 情報処理装置、情報処理方法及びプログラム
US10719787B2 (en) Method for mapping crop yields
US20230380349A1 (en) Information processing device and information processing method
JP5729476B2 (ja) 撮影装置、および撮影支援プログラム
KR101936317B1 (ko) 단말기를 이용한 스마트 파밍 방법
JP7229864B2 (ja) リモートセンシング画像取得時期決定システム、および、作物生育状況分析方法
US20210241389A1 (en) Device for agricultural management
JP5673833B2 (ja) 撮影装置、作業支援プログラム、および情報提供プログラム
EP2513598A1 (en) Method and system for estimating vegetation growth relative to an object of interest
JP2013051887A (ja) 生育管理方法
JP6760069B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6760068B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20220405863A1 (en) Information processing device, information processing method, and program
KR20150078366A (ko) 작물 재배정보 제공시스템 및 그 방법
KR20130136213A (ko) 농작물 재배 정보 관리 시스템 및 방법
WO2020022215A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN108363851B (zh) 种植控制方法及控制装置、计算机设备及可读存储介质
JP7089285B2 (ja) 作物の発育期推定装置および発育期推定方法
JP2023007457A (ja) 葉緑素量学習推定システム、葉緑素量推定用モデル生成システム、葉緑素量推定システム、葉緑素量推定方法、およびコンピュータプログラム
JP2019146489A (ja) 色指標値算出システムおよび色指標値算出方法
JP6931418B2 (ja) 画像処理方法、画像処理装置、ユーザインタフェース装置、画像処理システム、サーバ、および画像処理プログラム
JP2017163955A (ja) 生育管理装置、方法、及びプログラム
US11703493B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
KR101839802B1 (ko) Gps기반 경작지 종합관리 방법
WO2019239964A1 (ja) 情報処理装置、その制御方法、プログラム、記憶媒体、及びシステム