JP7405179B2 - 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム - Google Patents

情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム Download PDF

Info

Publication number
JP7405179B2
JP7405179B2 JP2022063269A JP2022063269A JP7405179B2 JP 7405179 B2 JP7405179 B2 JP 7405179B2 JP 2022063269 A JP2022063269 A JP 2022063269A JP 2022063269 A JP2022063269 A JP 2022063269A JP 7405179 B2 JP7405179 B2 JP 7405179B2
Authority
JP
Japan
Prior art keywords
ecosystem
display
vegetation
field
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022063269A
Other languages
English (en)
Other versions
JP2022120848A (ja
Inventor
真俊 舩橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JP2022120848A publication Critical patent/JP2022120848A/ja
Application granted granted Critical
Publication of JP7405179B2 publication Critical patent/JP7405179B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems

Description

本技術は、情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラムに関し、特に、例えば、協生農法(登録商標)を支援することができるようにする情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラムに関する。
現在、様々な人間活動によって、地球の生態系が破壊され、近い将来、自然資源の採取等が困難になることが予想されている。そこで、最近では、生態系の活用が注目されている。
生態系(の)活用としては、例えば、農作物に対する害虫の駆除に、農薬を使わずに、テントウムシを活用する方法や生態系の共生効果と有用種の活用に基づく協生農法(登録商標)(synecoculture)等がある。
ここで、協生農法(登録商標)とは、無耕起、無施肥、無農薬で種と苗以外は一切持ち込まない制約条件の上で、植生配置により自然状態を超える種多様性と、混生密生からの間引き収穫を基本とした、高収量をトータルで実現する農法である。
協生農法(登録商標)については、作業者が最適な植生の組み合わせを決定することができるように支援を行う装置が提案されている(例えば、特許文献1を参照)。
国際公開第2014/007109号
協生農法(登録商標)は、生態系を構成する様々な生態系構成物の影響を受けるため、圃場の作業者が協生農法(登録商標)を習熟するには、協生農法(登録商標)の熟練者の支援が必要である。
しかしながら、熟練者が、各圃場に出向き、その圃場に存在する植生や昆虫等の、その圃場の生態系を構成する生態系構成物を実際に見て、作業者にアドバイスすることは困難である。
本技術は、このような状況に鑑みてなされたものであり、協生農法(登録商標)の支援を、容易に行うことができるようにするものである。
本技術の第1の側面のプログラム、および情報処理装置は、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御を行う表示制御部としてコンピュータを機能させ、前記生態系オブジェクト、又は、前記タスクオブジェクトは、前記AR表示された状態で、ユーザの操作に応じて編集され、前記表示制御部は、前記AR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトを前記AR表示する表示制御を行うプログラム、および情報処理装置である。
本技術の第1の側面の情報処理方法は、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得することと、前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御を行うこととを含み、前記生態系オブジェクト、又は、前記タスクオブジェクトは、前記AR表示された状態で、ユーザの操作に応じて編集され、前記AR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトを前記AR表示する表示制御が行われる情報処理方法である。
本技術の第1の側面においては、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトが取得され、前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御が行われ、前記生態系オブジェクト、又は、前記タスクオブジェクトが、前記AR表示された状態で、ユーザの操作に応じて編集され、前記AR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトの前記AR表示が表示制御される。
本技術の第2の側面の情報処理システムは、第1の情報処理装置と第2の情報処理装置とからなる情報処理システムであって、前記第1の情報処理装置は、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する第1の取得部と、前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御を行う第1の表示制御部とを備え、前記第2の情報処理装置は、前記生態系オブジェクト、及び、前記タスクオブジェクトを取得する第2の取得部と、前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置に前記AR表示すると共に、前記タスクオブジェクトを前記背景空間内に前記AR表示する表示制御を行う第2の表示制御部とを備える情報処理システムである。
本技術の第2の側面においては、前記第1の情報処理装置により、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトが取得され、前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御が行われ、前記第2の情報処理装置により、前記生態系オブジェクト、及び、前記タスクオブジェクトが取得され、前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置に前記AR表示すると共に、前記タスクオブジェクトを前記背景空間内に前記AR表示する表示制御が行われる。
本技術を適用した生態系活用システムの一実施の形態の構成例を示すブロック図である。 ネットワーク10の構成例を示す図である。 端末12の構成例を示すブロック図である。 サーバ13の構成例を示すブロック図である。 協生農法(登録商標)DBの構成例を示す図である。 種まきDBの構成例を示す図である。 植生DBの構成例を示す図である。 収量DBの構成例を示す図である。 管理記録DBの構成例を示す図である。 文字によるフェノロジーDBの構成例を示す図である。 画像によるフェノロジーDBの構成例を示す図である。 昆虫動物叢DB構成例を示す図である。 気象DBの構成例を示す図である。 アレロパシーDBの構成例を示す図である。 輪作適性DBの構成例を示す図である。 植生設計の支援の処理の例を説明するフローチャートである。 共生的アレロパシーの出力例を示す図である。 ARオブジェクトの表示例を示す模式的な図である。 協生農法(登録商標)ページとしてのwebページのサイトマップの例を示す図である。 協生農法(登録商標)ページで提供される地図上の畑の分布の表示例を示す図である。 ユーザが圃場(畑)の情報を参照する場合の処理の例を説明するフローチャートである。 写真のアップロード処理の例を説明するフローチャートである。 キーイベントの登録の処理の例を説明するフローチャートである。 サーバ13のグラフ表示制御部72(又は端末12の取得部51)で生成される関係グラフを説明する図である。 植生/圃場DBのバイパータイトグラフから求められる関係スコアの例を示す図である。 グラフ表示画面の例を示す図である。 グラフ表示画面の例を示す図である。 グラフ表示画面の例を示す図である。 関係スコアの例を示す図である。 グラフ表示画面の例を示す図である。 圃場#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面の例を示す図である。 植生/レシピDBから生成されるバイパータイトグラフの例を示す図である。 関係スコアの例を示す図である。 グラフ表示画面の例を示す図である。 2個のDBから生成されるバイパータイトグラフの例を示す図である。 関係グラフを生成するのに用いるDBの例を示す図である。 グラフ表示画面の構成例を示す図である。 Gephiによるグラフ表示画面の例を示す図である。 Gephiによるグラフ表示画面の例を示す図である。 Gephiによるグラフ表示画面の他の例を示す図である。 Gephiによるグラフ表示画面のさらに他の例を示す図である。 グラフ表示画面を表示する処理の例を説明するフローチャートである。 ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援の概要を説明する図である。 端末12でのAR表示の表示例を示す図である。 端末12でのAR表示の表示例を示す図である。 端末12でのVR表示の表示例を示す図である。 端末12でのAR表示の表示例を示す図である。 端末12でのVR表示の表示例を示す図である。 端末12での生態系オブジェクトのタイムラプスモードの表示の表示例を示す図である。 端末12で行われる同一植生圃場情報表示の表示例を示す図である。 端末12で行われる遷移表示の表示例を示す図である。 遷移表示を経由して最終的に到達する選択圃場の表示の表示例を示す図である。 端末12での関連情報の表示例を示す図である。 端末12でのセンサデータの解析結果の表示例を示す図である。 生態系オブジェクトのコピーを説明する図である。 端末12での背景空間の表示スケールの変更の例を示す図である。 端末12での背景空間の表示スケールの変更に伴う、ARオブジェクトの表示の変更の例を示す図である。 複数の圃場それぞれを背景空間とするVR表示の例を示す図である。 生態系オブジェクトへのマーカの対応付けの例を説明する図である。 生態系オブジェクトへのマーカの対応付けの例を説明する図である。 マーカの設置位置の変更を説明する図である。 圃場全体に関する生態系構成物を表す生態系オブジェクトの表示例を示す図である。 端末12での関連情報の表示を説明する図である。 AR表示又はVR表示を行うARオブジェクトの選択の例を説明する図である。 AR表示又はVR表示を行うARオブジェクトの選択の他の例を説明する図である。 生態系活用システムでの生態系オブジェクトの登録の処理の例を説明するフローチャートである。 オブジェクト情報の概要を示す図である。 生態系活用システムでのARモードでのARオブジェクトの表示の処理の例を説明するフローチャートである。 生態系活用システムでのVRモードでのARオブジェクトの表示の処理の例を説明するフローチャートである。 生態系活用システムでのARオブジェクトの編集の処理の例を説明するフローチャートである。 生態系活用システムでのARオブジェクトの編集の処理の他の例を説明するフローチャートである。 端末12においてARオブジェクトの登録や編集等を行う場合の、表示部35の表示画面の遷移の例を示す図である。
<生態系活用システムの一実施の形態>
図1は、本技術を適用した生態系活用システムの一実施の形態の構成例を示すブロック図である。
図1において、生態系活用システムは、ネットワーク10、1個以上のセンサ装置11、1個以上の端末12、及び、1個以上のサーバ13で構成される。生態系活用システムは、生態系で観測される様々な情報を収集し、その情報に基づいて、生態系活用を図るための情報を得て、ユーザに提供する。
センサ装置11、端末12、及び、サーバ13は、ネットワーク10に、有線又は無線で接続され、通信を行うことができる。
センサ装置11は、各種の物理量をセンシングするセンサと、そのセンサによるセンシングの結果得られるセンサデータ(センシングされた物理量を表すデータ)を送信する通信機能とを有する。さらに、センサ装置11は、例えば、GPS(Global Positioning System)等を利用した、センサ装置11自体の位置を検出する位置検出機能を、必要に応じて含む。
センサ装置11は、センサによって、物理量をセンシングする。さらに、センサ装置11は、通信機能によって、センシングにより得られたセンサデータを、ネットワーク10を介して、サーバ13に送信する。センサデータは、必要に応じて、センサ装置11の位置検出機能により検出されたセンサ装置11の位置を表す位置情報とともに、センサ装置11からサーバ13に送信される。
センサ装置11が有するセンサとしては、例えば、光をセンシングすることにより画像を撮影するセンサ(イメージセンサ)等の、光を含む電磁波をセンシングするセンサや、音をセンシングするセンサ(マイク)を採用することができる。さらに、センサ装置11が有するセンサとしては、例えば、温度や、湿度、湿度、地磁気、気圧、におい等の各種の環境の情報としての物理量をセンシングするセンサを採用することができる。
センサ装置11は、生態系活用を図る地域(以下、活用地域ともいう)の山林や、川、海、湖、圃場(農園)等の生態系の観測(センシング)を行うべき場所に設置される。センサ装置11の設置は、人手によって所定の位置に行うことができる。また、センサ装置11の設置は、その他、例えば、飛行機や、船舶、自動車等で移動しながら、センサ装置11を散布することによって行うことができる。
センサ装置11によれば、活用地域の様々な場所において、例えば、植物や虫等の画像、風の音や、虫の声、葉がこすれる音等の音響、気温や土の温度、湿度、地磁気等がセンシングされ、そのセンシングにより得られたセンサデータが、ネットワーク10を介して、サーバ13に送信される。
ここで、活用地域は、例えば、市町村や、その一部であっても良いし、都道府県や、日本全国、世界各国であっても良い。また、活用地域は、例えば、北海道と九州や、日本と米国等のように、離れた地域であっても良い。
端末12は、協生農法(登録商標)を含む生態系活用の支援を受けるユーザや、生態系活用に協力するユーザが使用する情報処理装置である。
ここで、生態系活用の支援を受けるユーザとは、例えば、協生農法(登録商標)を実践する圃場の作業者等である。生態系活用に協力するユーザとは、例えば、協生農法(登録商標)を実践する圃場の作業者ではないが、圃場の生態系の情報の収集に協力してくれる近隣住民等の協力者や、アドバイスの発信に協力してくれる学者等の協力者等である。
端末12としては、例えば、スマートフォンや、タブレット、HMD(Head Mounted Display)、眼鏡型のウェアブルデバイス等の携帯可能な端末を採用することができる。また、端末12としては、例えば、ノートPC(Personal Computer)やデスクトップPC、その他、通信機能と、ユーザに対する情報の入出力機能(インターフェース)とを有する装置を採用することができる。
なお、端末12としてのHMDは、シースルー型及び没入型(非透過型)のHMDのいずれであっても良い。
また、ユーザが圃場で使用する端末12は、圃場でのユーザの作業の妨げとならないように、携帯可能な端末であることが望ましい。
ユーザは、端末12を使用して、活用地域の様々な場所において観測を行い、その観測結果を表す観測値を、ネットワーク10を介して、サーバ13に送信する。
ここで、端末12からサーバ13に送信する観測値としては、例えば、ある場所で、ある植生や虫、その他の生物の種が観測されたことや、種の画像、ある作物が収穫されたこととその作物の収穫量、白菜がロゼット化したこと、その他の、ユーザが生態系を観測して得られるあらゆる情報(ユーザが端末12を操作して得られる画像(写真、動画)や音響等を含む)を採用することができる。
端末12は、観測値以外の他のデータを、ネットワーク10を介して、サーバ13に送信する。また、端末12は、サーバ13から、ネットワーク10を介して、必要なデータを受信する。例えば、端末12は、サーバ13から、生態系活用を図るための情報を受信(取得)し、ユーザに提示する。ユーザへの情報の提示は、例えば、画像の表示や、音声の出力等によって行うことができる。
サーバ13は、生態系活用を支援する支援者が管理する情報処理装置である。
サーバ13は、センサ装置11からネットワーク10を介して送信されてくるセンサデータや、端末12からネットワーク10を介して送信されてくる観測値を受信して登録する。さらに、サーバ13は、センサ装置11からのセンサデータ(必要に応じて、センサ装置11の位置情報を含む)や、端末12からの観測値、その他の必要な情報に基づき、生態系活用を図るための情報を生成し、ネットワーク10を介して、端末12に送信する。
端末12は、サーバ13からネットワーク10を介して送信されてくる情報を受信し、画像として表示することや、音声として出力することで、サーバ13からの情報を、ユーザに提示する。
なお、以下説明する端末12の処理や、サーバ13の処理は、可能な範囲で、端末12とサーバ13とで分担して行うことができる。また、サーバ13が行う処理は、複数のサーバで分担して行うことができる。
<ネットワーク10の構成例>
図2は、図1のネットワーク10の構成例を示す図である。
ネットワーク10は、任意の数の無線中継装置21、任意の数の無線LAN(Local Area Network)22、携帯電話網23、及び、インターネット24等で構成される。
無線中継装置21は、無線で通信を行う装置であり、ルータ機能を有する。
無線中継装置21は、センサ装置11で得られたセンサデータを回収することができるように、例えば、活用地域に万遍なく設置される。
無線中継装置21の設置は、例えば、センサ装置11の設置と同様に、人手によって行うことや、飛行機、船舶、自動車等で移動しながら、無線中継装置21を散布することによって行うことができる。また、無線中継装置21は、自動車(例えば、定期運行しているバス等)や、バイク、船舶等の移動可能な乗り物に設置することができる。
無線中継装置21は、センサ装置11と通信を行うことにより、センサ装置11から送信されてくるセンサデータを受信する。また、無線中継装置21は、他の無線中継装置21と通信を行うことにより、他の無線中継装置21から送信されてくるセンサデータを受信する。さらに、無線中継装置21は、他の無線中継装置21と通信を行うことにより、他の無線中継装置21に、センサデータを送信する。
また、無線中継装置21は、無線LAN22や携帯電話網23と通信を行うことにより、センサ装置11や他の無線中継装置21から受信したセンサデータを、無線LAN22や携帯電話網23に送信する。
無線LAN22は、ユーザ宅や任意の場所に構築されている。無線LAN22は、端末12や、無線中継装置21、インターネット24と通信を行うことにより、端末12からのデータや、無線中継装置21からのセンサデータを、インターネット24を介して、サーバ13に送信する。
また、無線LAN22は、サーバ13からインターネット24を介して送信されてくるデータを受信し、端末12に送信する。
携帯電話網23は、例えば、3G回線等であり、端末12や、サーバ13、無線中継装置21、インターネット24と通信を行う。
インターネット24は、端末12や、サーバ13、無線LAN22、携帯電話網23と通信を行う。
ここで、無線中継装置21が送信するセンサデータや、無線LAN22を介して送信されてくるデータ、端末12が送信するデータは、携帯電話網23及びインターネット24の一方又は両方を介して、サーバ13に送信される。また、サーバ13が送信するデータは、携帯電話網23及びインターネット24の一方又は両方を介して、端末12に送信される。
以上のように構成されるネットワーク10では、無線中継装置21がルータ機能を有するので、ある無線中継装置21が故障等によって通信不能になり、その無線中継装置21を経由する無線通信経路が使用不能になっても、他の無線中継装置21を経由する無線通信経路を使用して、センサ装置11から送信されてくるセンサデータを、サーバ13に送信することができる。
すなわち、無線中継装置21がルータ機能を有することにより、センサ装置11で得られるセンサデータは、無線中継装置21を経由する様々な無線通信経路を介して、サーバ13に送信することができる。そのため、サーバ13では、ある無線中継装置21が通信不能になっても、他の無線中継装置21を経由して、センサ装置11で得られたセンサデータを回収(受信)することができる。
また、無線中継装置21を設置した自動車のユーザは、例えば、活用地域の山道等を走行するだけで、生態系活用のための情報収集に貢献することができる。
すなわち、無線中継装置21を設置した自動車で、活用地域を走行することにより、その自動車に設置された無線中継装置21は、様々な場所で、その場所に近い位置の他の無線中継装置21とともに無線通信経路を構成し、センサ装置11で得られたセンサデータをサーバ13で回収することに貢献する。
なお、無線中継装置21としては、近距離無線ネットワークの標準規格の1つである、例えば、ZIGBEE(登録商標)に準拠した無線通信装置、その他の、ルータ機能の搭載が可能で、ある程度の距離の無線通信が可能な、小型で、低消費電力の無線通信装置を採用することができる。
<端末12の構成例>
図3は、図1の端末12の構成例を示すブロック図である。
端末12は、CPU(Central Processing Unit)31、メモリ32、ストレージ33、操作部34、表示部35、スピーカ36、カメラ37、マイク38、位置検出部39、通信部40、外部I/F(Interface)41、及び、ドライブ42を有する。CPU31ないしドライブ42は、バスに接続されており、相互に、必要な通信を行う。
CPU31は、メモリ32やストレージ33にインストールされたプログラムを実行することで、各種の処理を行う。
メモリ32は、例えば、揮発性メモリ等で構成され、CPU31が実行するプログラムや、必要なデータを一時記憶する。
ストレージ33は、例えば、ハードディスクや不揮発性メモリで構成され、CPU31が実行するプログラムや、必要なデータを記憶する。
操作部34は、物理的なキー(キーボードを含む)や、マウス、タッチパネル等で構成される。操作部34は、ユーザの操作に応じて、その操作に対応する操作信号を、バス上に出力する。
表示部35は、例えば、LCD(Liquid Crystal Display)等で構成され、バスから供給されるデータに応じて、画像を表示する。
ここで、操作部34としてのタッチパネルは、透明な部材で構成され、表示部35と一体的に構成することができる。これにより、ユーザは、表示部35に表示されたアイコンやボタン等を操作するような形で、情報を入力することができる。
スピーカ36は、バスから供給されるデータに応じて、音響を出力する。
カメラ37は、画像(静止画(写真)、動画)を撮影し(光をセンシングし)、対応する画像データを、バス上に出力する。
マイク38は、音響を集音し(音をセンシングし)、対応する音響データを、バス上に出力する。
位置検出部39は、例えば、GPS(Global Positioning System)を利用する回路及びアンテナ等を含み、端末12の位置を、ユーザ等の位置として検出し、その位置を表す位置情報を、バス上に出力する。
通信部40は、通信回路とアンテナ等を含み、無線LAN22や、携帯電話網23、インターネット24等との通信を行う。
外部I/F41は、例えば、ヘッドフォンその他の外部の装置との間で、データをやりとりするためのインターフェースである。
ドライブ42は、例えば、メモリカード等のリムーバブル記録媒体42Aの着脱が可能になっており、そこに装着されたリムーバブル記録媒体42Aを駆動する。
以上のように構成される端末12において、CPU31が実行するプログラムは、端末12に内蔵されている記録媒体としてのストレージ33にあらかじめ記録しておくことができる。
また、プログラムは、リムーバブル記録媒体42Aに格納(記録)して、いわゆるパッケージソフトウエアとして提供し、リムーバブル記録媒体42Aから端末12にインストールすることができる。
その他、プログラムは、通信部40を介して、インターネット24からダウンロードし、端末12にインストールすることができる。
CPU31は、端末12にインストールされたプログラムを実行することにより、取得部51、及び、表示制御部52として機能する。
取得部51は、後述するAR(Augmented Reality)オブジェクト等の各種の情報(データ)を取得する。取得の処理としては、例えば、通信部40を介してデータを受信することや、メモリ32、ストレージ33、リムーバブル記録媒体42Aからデータを読み出す処理等を行うことができる。
表示制御部52は、取得部51が取得した情報等を、表示部35に表示させることで、ユーザに提示する表示制御を行う。
なお、端末12には、光をセンシングするカメラ37、及び、音をセンシングするマイク38以外のセンサ、すなわち、光及び音以外の物理量、例えば、温度や圧力等をセンシングするセンサ43を設けることができる。端末12にセンサ43を設ける場合には、端末12は、センサ装置11の役割も果たすことができる。
また、端末12に対する操作(入力)は、操作部34の操作の他、音声やジェスチャその他の任意の手段で行うことができる。
<サーバ13の構成例>
図4は、図1のサーバ13の構成例を示すブロック図である。
サーバ13は、CPU61、メモリ62、ストレージ63、操作部64、表示部65、スピーカ66、通信部67、外部I/F68、及び、ドライブ69を有する。
CPU61ないしドライブ69は、図3のCPU31ないしスピーカ36、通信部40ないしドライブ42とそれぞれ同様に構成される。
サーバ13では、端末12と同様に、CPU61が実行するプログラムは、サーバ13に内蔵されている記録媒体としてのストレージ63にあらかじめ記録しておくことができる。
また、プログラムは、リムーバブル記録媒体69Aに格納(記録)して、パッケージソフトウエアとして提供し、リムーバブル記録媒体69Aからサーバ13にインストールすることができる。
その他、プログラムは、通信部67を介して、インターネット24からダウンロードし、サーバ13にインストールすることができる。
CPU61は、サーバ13にインストールされたプログラムを実行することにより、協生農法(登録商標)CMS(Content Management System)71、グラフ表示制御部72、生成部73、AR/VR表示制御部74、編集部75、及び、解析部76として機能する。
協生農法(登録商標)CMS71は、協生農法(登録商標)に関する情報の授受を行うwebページ(以下、協生農法(登録商標)ページともいう)を構成するコンテンツ(テキストや画像等)や、レイアウト情報等を、ストレージ63に記憶されたDB(データベース)に登録して管理する。さらに、協生農法(登録商標)CMS71は、協生農法(登録商標)ページを構築し、インターネット24上のwebサーバとして、協生農法(登録商標)ページを、通信部67から、端末12(その他のwebブラウザとして機能する装置)に送信する。
端末12(図3)では、取得部51が、協生農法(登録商標)CMS71からの協生農法(登録商標)ページを、通信部40を介して取得し、表示制御部52が、その協生農法(登録商標)ページを、表示部35に表示させる。
グラフ表示制御部72は、ストレージ63等に記録されたDBから、後述する関係グラフの生成に必要なバイパータイトグラフ(bipartite graph)等のマルチパータイトグラフ(Multi-Partite Graph)(グラフモデル)を生成し、通信部67から、端末12に送信することで、端末12に、バイパータイトグラフから関係グラフを生成させて表示させる。あるいは、グラフ表示制御部72は、バイパータイトグラフから関係グラフを生成し、通信部67から、端末12に送信することで、端末12に、関係グラフを表示させる。
すなわち、端末12(図3)では、取得部51が、グラフ表示制御部72からのバイパータイトグラフ、又は、関係グラフを、通信部40を介して取得する。取得部51は、バイパータイトグラフを取得した場合には、そのバイパータイトグラフから、関係グラフを生成することにより、その関係グラフを取得する。そして、端末12では、表示制御部52が、取得部51によって取得された関係グラフを、表示部35に表示させる。
生成部73は、ARオブジェクトや、ARオブジェクトを重畳して表示するVR(Virtual Reality)空間(の画像)等を生成し、ストレージ63に登録(記録)する。
AR/VR表示制御部74は、ARオブジェクトを、実空間、実空間を撮影した撮影実空間(の画像)、又は、実空間をモデル化したVR空間(の画像)内に表示するAR表示やVR表示を、端末12に行わせるのに必要な処理を行う。
例えば、AR/VR表示制御部74は、ストレージ63から、ARオブジェクトと、そのARオブジェクトを重畳して表示する背景空間となる撮影実空間又はVR空間を表す情報を取得し、通信部67から端末12に送信することで、端末12に、背景空間に重畳してARオブジェクトを表示するAR表示、又は、VR表示を行わせる。
あるいは、例えば、AR/VR表示制御部74は、ストレージ63から、ARオブジェクトを取得し、通信部67から端末12に送信することで、端末12に、実空間を背景空間として用い、その背景空間に重畳してARオブジェクトを表示するAR表示を行わせる。
編集部75は、ユーザによる端末12の操作等に応じて、ストレージ63に登録されたARオブジェクトの編集を行う。
解析部76は、センサ装置11からのセンサデータを解析する。
ところで、サーバ13では、ストレージ63に、様々なDBが登録されており、その様々なDBの一部として、協生農法(登録商標)のマネージメントを支援する各種のDB(以下、協生農法(登録商標)DBともいう)がある。
以下、サーバ13のストレージ63に登録された協生農法(登録商標)DBについて説明する。
<協生農法(登録商標)DBの構成例>
図5は、協生農法(登録商標)DBの構成例を示す図である。
図5において、協生農法(登録商標)DBは、種まきDB、植生DB、収量DB、管理記録DB、フェノロジーDB、昆虫動物叢DB、微生物叢DB、気候区分DB、気象DB、座標DB、協生農法(登録商標)査定書DB、アレロパシーDB、輪作適性DB、植物名DB、写真記録DB、及び、メタDB等を有する。
協生農法(登録商標)DBでは、csv(comma separated values)ファイル(例えば、2次元マトリクス形式のファイル)や、画像ファイルでデータが保存される。協生農法(登録商標)DB、その他、ストレージ63に記憶されるDBの全部又は一部は、サーバ13から独立して配置し、ネットワーク10を介してサーバ13に接続させることができる。
図6は、種まきDBの構成例を示す図である。
種まきDBは、例えばcsvファイルにより構成される。この例では、記録年月日、畑区画、畝番号、畝区画、種(seed)と苗の区別、作物名、サクモツメイ、数量、メーカーに関する情報が記録されている。同じ品種の種、苗であっても、メーカーによって採取、生育のさせ方が異なり、メーカー名も一種の栽培条件となり得るので、管理記録しておくことが好ましい。
ここで、活用地域の畑(農園)は、畑区画に区分されている。畑区画には、畝が形成されており、畝は、1以上の畝区画に区分されている。畝には、その畝を特定する畝番号が付されている。
例えば2012年1月18日に、畑区画SWの全て(All)の畝には、メーカーA社のジャガイモ(メイクイーン)の苗が0.5Kgだけ植えられたことが記録されている。また、全て(All)の畑区画にC社のレタス(キングクラウン)の種が2袋だけ播かれたことが記録されている。
なお、作物名には、「ジャガイモ(男爵芋)」と、品種を含む情報が漢字も含んで記録されるが、サクモツメイには、「ジャガイモ」と、品種を区別せず、単に名称の情報だけがカタカナだけで記録されている。このような統一された文字だけの表現は、検索を容易にする。
図7は、植生DBの構成例を示す図である。
植生DBは、例えばcsvファイルで構成される。この例では、記録年月日と観測区画座標としての位置情報が記録されている。例えば観測区画座標NEにおいて、次のようなことが観測されたことが記録されている。2012年1月23日には、ソラマメの発芽が定着したこと、ニンジンが収穫可能であること、ダイコンが収穫可能であること、ネギが定着したこと、苗ブロッコリーが定着したこと、苗キャベツが定着したこと、苗白菜が定着し、収穫可能であることが記録されている。
また、イネ科、キク科、マメ科の雑草が観測されたこと、赤巻チコリが収穫可能であることが記録されている。なお、例えば所定の植物をイネ科よりさらに詳しく分類することも理論的には可能であるが、実用的にはそれ以上詳細に分類しても殆ど意味はない。
2012年2月25日にも観測区画座標NEにおいて観測された事項が記録されている。
図8は、収量DBの構成例を示す図である。
収量DBは、例えばcsvファイルで構成される。この例では、収穫された作物の収量が、収穫された月日毎に記録されている。例えばホロニガレタスは、2012年1月14日に、100g収穫され、大根は、1月24日に1700g、1月29日に4000g、1月30日に1500g、1月31日に740g、2月20日に1500g、それぞれ収穫されている。
この他、コカブ、W農園のコカブ、イタパセ、サラダニラ、ミント、ローズマリー、小松菜、ムー菜、ネギ、ハツカダイコン、W農園のハツカダイコン、セロリ、ゴボウ、チンゲン菜、春菊、小人参、W農園の小人参、W農園の大中人参、カリフラワー、キャベツ(茎キャベツ)、島ラッキョ、白菜緑菜、フキノトウ等の収量が記録されている。なお、「W農園」は農園の名称であり、「茎キャベツ?」は、観測者(ユーザ)が、そのキャベツが茎キャベツであるのかどうか、正確に識別できなかったことを表している。「ムー菜」とは一般的な名称ではないが、その植物に観測者が名付けた名称である。図8では、位置情報としての座標の記録は省略されているが、作物が観測された畑や畝等の区画の位置情報としてのGPS座標等を記録することができる。
なお、収量DBの入力には、種まきDBの入力情報を利用することができる。例えば、収量DBの入力を行う場合には、種まきDBにより管理されている植物の情報をそのまま表示することができる。
図9は、管理記録DBの構成例を示す図である。
管理記録DBは、例えばcsvファイルで構成される。この例では、行われた管理作業と行われた年月日が記録されている。例えば、2012年1月19日、2012年1月20日、2012年1月21日、2012年1月22日、2012年1月23日に、苗定植と、防風棚作りなどの土木工事が行われたことが記録されている。
図10は、フェノロジーDBとしてのcsvファイルの構成例を示す図である。
フェノロジーDBは、例えば画像ファイルとcsvファイルで構成される。図10は、csvファイルの例を示しており、csvファイルには、フェノロジーの内容と記録日時が文字で記録されている。例えば2011年1月9日に、不明な草の種が観測されたこと、他より成長がよいこと、エンドウの下部分が枯れてきたこと、他より明らかに成長がよい箇所が観測されたこと等が記録されている。
図11は、フェノロジーDBとしての画像ファイルの構成例を示す図である。
図11の画像ファイルでは、「大磯協生農園」の名称の畑で観測されたフェノロジーが、撮影された写真と付加された簡単なコメントとともに日付毎に記録されている。
図中左上には、場所がOiso、日付が2011年9月22日、畑区画がNN、畝番号が02、畝区画がd3において撮影された画像であるフェノロジー1が示されている。図中上中央には、同じ場所で撮影された画像であるフェノロジー1-2が、「NN02d3は双葉の発芽がとても多い」というコメントとともに示されている。
このように、フェノロジーDBには、作業者(ユーザ)が観測したフェノロジーが、文字、画像により記録される。
図12は、昆虫動物叢DB構成例を示す図である。
昆虫動物叢DBは、例えば、画像ファイルとcsvファイルにより構成される。図12のAには、2012年2月18日に、伊勢新農園の名称の畑087で撮影された昆虫の画像が示されている。コメントとして、観測地が伊勢新農園であること、昆虫は、目名がコウチュウ目、科名がゴミムシダマシ科、分類がスナゴミムシダマシ類と思われること、石の下で集団越冬していたことが記録されている。
図12のBには、2012年2月18日に、伊勢新農園の名称の畑088で、撮影された昆虫の画像が示されている。コメントとしては、図12のAにおける場合と同じ内容が記録されている。
図12のCには、2012年2月18日に、伊勢新農園の名称の畑089で、撮影された静物の画像が示されている。コメントとして、観測地が伊勢新農園であること、生物は、クモ類、目名はクモ目、科名はコモリグモ科、種名はウヅキコモリグモであること、そして、コモリグモ科の最普通種で、地表付近を徘徊しているのを、よく見かけることが記録されている。
図13は、気象DBの構成例を示す図である。
この例においては、2012年の津地方における気圧、降水量、気温、湿度等の気象情報が、各月の上旬、中旬、下旬毎に記録されている。例えば、1月上旬においては、現地の平均の気圧は1018.7hPa、海面の平均が1021.0hPaである。降水量は、最大が10分間で0.5mm、1時間で0.5mm、1日で0.5mm、合計で0.5mmとなっている。気温については、最高が11.6℃、最低が0.2℃であり、1日の平均の最高が9.2℃、平均の最低が2.0℃、日の平均が5.2℃となっている。湿度は、平均が62%、最小が24%となっている。
図14は、アレロパシーDBの構成例を示す図である。
アレロパシーDBは、例えばcsvファイルにより構成される。この例においては、ネギ、スイカやメロン(ウリ科)、ニンジン、アワ・キビ、ムギ、カボチャ、スイカ・キュウリ・カボチャ(ウリ類)、ニンニクやタマネギについて、アレロパシー(他感作用)が記録されている。「1」は対象となる植物の間で共生的な相互作用(すなわち促進的作用)が確認されたことを意味し、「0」はそれが確認されていないことを意味する。例えば、ネギとニンジンは共生的な相互作用が確認されているが、ネギとムギは共生的な相互作用が確認されていない。なお、0~10などの数字を用いて、相互作用の程度を段階的に表すこともできる。
図15は、輪作適性DBの構成例を示す図である。
輪作適性DBは、csvファイルにより構成される。この例においては、スイカ、メロン(ウリ科)と落花生の輪作適性が記録されている。「1」は対象となる植物の間でその畑において良好な輪作適性が確認されたことを意味し、「0」はそれが確認されていないことを意味する。例えば、スイカやメロン(ウリ科)と落花生は良好な輪作適性が確認されている。
これらのアレロパシーDBや輪作適性DBは、文献などで知られている情報だけでなく、それ以外の情報からも作成される。例えば、種まきDB、植生DB、収量DBを比較参照して、実際に協生農園で混生状態が成立した植生の組み合わせや、植生遷移(すなわち、時間的な植生の変化)が生じた組み合わせからも同じ形式で作成することができる。
微生物叢DBは、画像ファイルとcsvファイルで構成される。微生物叢DBは、協生農園で取得した土壌サンプルから解析された微生物に関する情報を記録する。
気候区分DBは、csvファイルで構成される。この気候区分DBは、農園(圃場)が位置している気候区分に関する情報を記録するDBであり、照葉樹林帯、落葉樹林帯、亜熱帯気候、熱帯気候などの区分からなる。
気象DBは、例えばアメダス等の気象衛星の気象データからグラフ化した画像ファイルと、csvファイル、及び、圃場に設置した観測機器であるセンサ装置11によるセンサデータとしての各種気象データを記録する。
座標DBは、csvファイルで構成される。座標DBは、畑の畝ごとのGPS座標を記録している。この座標は、10 センチ程度の精度を有している。
協生農法(登録商標)査定書DBは、pdf もしくは画像ファイルで構成される。協生農法(登録商標)査定書は、協生農法(登録商標)としての審査をクリアしたことの証明書であり、サーバ管理者が、畑21の管理者からの申請に基づいて畑を審査して、協生農法(登録商標)としての条件を満たしていることを確認した場合に発行される。この発行を受けた農園からの作物には、協生農法(登録商標)によるものであることを表記することが認められる。
植物名DBは、各種の植物の名称と画像を記録する。写真記録DBは、各種の写真を記録する。メタDBは、後述するキーイベントを記録する。
協生農法(登録商標)DBには、以上の他、協生農法(登録商標)で栽培する植物の植生設計を得るのに必要な各種の情報が記録される。
<植生設計の支援処理>
図16は、植生設計の支援の処理の例を説明するフローチャートである。
図1の生態系活用システムは、生態系活用の支援の1つとして、協生農法(登録商標)の植生設計の支援を行う。生態系活用システムにおいては、ユーザが栽培したい作物(植生)を入力すると、それらの作物と混生密生状態を構築するのに適した植生の組み合わせ、すなわち、協生農法(登録商標)の植生設計が、アレロパシーDBと輪作適性DBから検索される。そして、最もコストが低く収量が高いと予想される植生設計の時空間配列が出力される。
協生農法(登録商標)では、混生密生を基本とするため、複数の作物の種を混ぜて播種し、育って来たものを収穫する。どのような組み合わせで種をまけばより混生密生度を高く達成できるかは植物同士や土地条件との適正があり、既に知られている植物間相互作用(アレロパシーや輪作適性)と、圃場で実際にうまく行った組み合わせの両方から予想する必要がある。
気象等を含む生態系を完全にコントロールすることはできないため、播種した種や植えた苗のうち全てが収穫可能とは限らないが、できるだけコストを削減し収量を最大化する植生の組み合わせを推定することが植生設計の課題である。植生設計は株式投資におけるポートフォリオの構成と概念的に相同なため、植生設計はシードポートフォリオ(Seed Portfolio)と呼ぶことができる。
植生設計の支援の処理では、図16に示すように、ステップS11において、端末12の取得部51は、栽培する植物種(植生)の選択を取得する。すなわち、ユーザが、操作部34を操作して、栽培しようとする植物種を指定すると、これが取得部51により取得される。この入力は、ユーザに任意の植物名を入力させる方法で行ってもよいし、予め用意した植物名のリストを表示部35に表示させ、その中から所定のものを選択させるようにしてもよい。これにより、栽培する植物の指定が受け付けられる。
ステップS12において、通信部40は、取得部51が取得した植物種(の植物種名)を、ネットワーク10を介して、サーバ13に送信する。
ステップS31において、サーバ13の通信部67は、端末12から送信された植物種を受信する。つまりステップS12で端末12から送信された植物種がサーバ13により受信される。これによりユーザにより栽培される植物がサーバ13に受け付けられたことになる。ステップS32において、サーバ13においては、協生農法(登録商標)CMS71が、端末12からの植物種を含む植生設計を検索する。すなわち、協生農法(登録商標)CMS71は、ユーザにより指定された植物(端末12からの植物種)と混生密生状態を構築するのに適した植生の組み合わせを、アレロパシーDBと輪作適性DBの少なくとも一方から網羅的に検索する。なお、受信した植物種の確認には、必要に応じて植物名DBも利用される。
ステップS33において、協生農法(登録商標)CMS71は、ステップS32で検索された各植生設計の共生スコアを計算する。すなわち、ステップS32で検索された1以上の数の植生設計である、ユーザにより指定された植物と混生密生状態を構築するのに適した植生の各組み合わせの共生スコアが計算される。
共生スコアは、植え合わせたい種の集合が対応するアレロパシーDBと輪作適性DBに記録されている全要素の平均値として定義される。全要素とは、その種の全ての重み付けスコアであり、重み付けスコアとは、各植物の相互作用を正負の数値で評価した値である。つまり、共生スコアSCは、全植物の重み付けスコアの数をn、i(i=1,2,・・・,n)番目の植物の重み付けスコアの値をEiとするとき、式SC=ΣEi/nで表される。
なお、重み付けスコアの値Eiは、混生密生状態を構築する適性の程度が大きい程大きな値となる。また、Σは、iを、1~nの整数値に変えてのサメーションを表す。
共生スコアSCの値が大きいほど共生的な相互作用が強いこと、すなわち共生的な相互作用が強い経験則があることを意味し、数値が小さい(負に大きい)ほど競合的な相互作用が強いことを意味する。
アレロパシーDBと輪作適性DBには、文献及び圃場のデータから作成した植物種の組み合わせごとに、相互作用が正負の数値で評価された重み付けスコアの値が記録されている。
すなわち、種まきDBに種まきされたと記録されている種の植物の植生状態が植生DBに記録され、その植物から得られた収量が収量DBに記録される。そしてその植物の重み付けスコアが観測毎に種まきDB、植生DB、収量DBに追加されていき、最終的に収量が多い組み合わせ程、大きな重み付けスコアが付与される。輪作適性DBについても同様に、輪作に適した植物の組み合わせに大きい重み付けスコアが記録されていく。そしてアレロパシーDBにそれらに基づく共生スコアが記録される。
例えば落花生が指定された場合、落花生と組み合わせの対象として記録されている他の植物の1つであるスイカとの共生スコアは、両者を混生密生状態として植生した場合の種々の条件、結果等の要素に対する重み付けスコアの平均値が計算される。収量が多ければ、その要素には大きい重み付けスコアが割り当てられ、収量が少なければ、小さい重み付けスコアが割り当てられる。それらの平均値が計算されて、共生スコアとされる。なお、計算は、植物が指定される毎に行ってもよいし、所定のタイミングで自動的に行っておいてもよい。
共生スコアの計算に、アレロパシーDBと輪作適性DBの全ての積算値を用いると、植生遷移により年度ごとに育ちやすくなる植物種が変化する場合が平均化されてしまう。そこで、直近の過去数年分程度に区切った可変長時間差分の平均値である共生スコアでも評価が可能とされている。これを考慮することで、植生遷移への対応と利用を図ることができる。
ステップS34において、協生農法(登録商標)CMS71は、ステップS31で検索された各植生設計の共生スコアを評価する。すなわち、ユーザにより指定された植物を含む各植生設計の共生スコアを比較する。
ステップS35において、協生農法(登録商標)CMS71は、共生スコアが上位の植生設計を選択する。すなわち、ステップS34で評価された共生スコアの値が大きい植物種の組み合わせが大きい順に1以上選択される。
なお、検索された全ての植生設計は、そのままユーザに提示することができる。この場合、共生スコアの評価、共生スコアの値が上位の植生設計の選択の処理は省略することができる。
また、共生スコアの評価は、ユーザに行わせることができる。この場合、共生スコアの評価と共生スコアの値が上位の植生設計の選択の処理は省略することができる。
ステップS36において、サーバ13の通信部67は、選択された植生設計を、ネットワーク10を介して、ステップS31で受信された植物種をサーバ13に送信した端末12に送信する。
ステップS13において、端末12の取得部51は、サーバ13から送信された植生設計を、通信部40に受信させることにより取得する。これにより、ステップS11でユーザにより指定された植物の植生設計が取得される。ステップS14において、表示制御部52は、サーバ13から取得した植生設計を、表示部35に表示させる。
これにより、ユーザは、ステップS11で入力した植物種と混生密生状態を構築するのに適した植生の各組み合わせ知ることができる。ユーザは、生態系活用システムから提案され、表示された組み合わせの中から、所定の組み合わせを選択し、実際に畑で栽培することができる。表示された組み合わせは、ユーザが指定した植物種と混生密生状態を構築するのに適した植生の各組み合わせであるから、ランダムな組み合わせで栽培する場合に比較して、収量を向上させることが可能となる。その結果、ランダムな組み合わせで植物を栽培する場合に比べて、コストを安くすることができる。ただここでユーザに提示される情報は予測ではない。過去の経験則に基づく予測の参考情報である。予測はその参考情報に基づいてユーザが行う。
また、協生農法(登録商標)では、植物を混生密生状態で植生するため、植物毎に栽培区域を分けるモノカルチャー(慣行農法)の場合のように、農作業を幾つかに定式化し、そのいずれかを選択するようにしても、必ずしもいい結果は得ることができない。生態系活用システムでは、ユーザの観測に基づいて、ユーザに対して新たな組み合わせを提案することができるので、例えば、ある植生と昆虫の組み合わせに共生的な相互作用が強いことがユーザにより発見された場合、それを利用する植生設計を行うことが可能となる。
さらに、協生農法(登録商標)では、複数の種類の植物を混生密生状態で植生するので、1種類の植物だけを栽培する場合に比べて、危険を分散することができ、平均的には多くの収量を得ることが可能となる。これが生態系活用システムの植生設計を、シードポートフォリオと称する理由でもある。そこで、提示する上位の組み合わせの数をユーザに指定させることもできる。もちろん、より適切な植物の数も提示させることもできる。これによりリスク管理が可能となる。
図17は、共生的アレロパシーの出力例を示す図である。
この図17は、図16のステップS14での表示例である。図17においては、最上段に示されている10種類の植物と混生密生状態を構築するのに適した植物(すなわちコンパニオンプランツ)が、その下段に示されている。例えば、トウモロコシと混生密生状態を構築するのに適した植物は、スイカやメロン(ウリ科)、カボチャ、マメ類、レタス/サラダ菜、ウリ科、スイートバジル、ツルインゲン、ゼラニウム、メロン、パセリ、大豆、アサガオ、小松菜、葉菜類である。またセロリと混生密生状態を構築するのに適した植物は、トマト、キャベツ類、ハクサイ、カブ、エンドウである。
つまり、ユーザが最上段の植物名を入力すると、その下段に示されている植物名が、混生密生状態を構築するのに適した植物として表示されることになる。従ってユーザは、表示の中から1つ以上の植物を選択して、指定した植物とともに、混生密生状態で植生することができる。
なお、図17の例においては、植物名のみが示されているが、対応する共生スコアも合わせて、上位から順番に表示してもよい。
<ARオブジェクトの表示例>
図18は、ARオブジェクトの表示例を示す模式的な図である。
協生農法(登録商標)では、どの野菜を残してどの草を刈るかなど、圃場における植物個体1つ1つの精度での植生管理が究極的には必要になるため、現場で処理すべき情報量が膨大になる。そこで、生態系活用システムにおいては、それだけの情報量を個人の能力差に関わり無く処理すべく、拡張現実(AR:Augmented Reality)技術を採用することができる。
AR技術を用いたAR表示では、例えば、ユーザが実際に見ている実空間等の所定の背景空間に重畳して、オブジェクトデータ(としての画像(データ))が、その背景空間内に存在するかのように表示される。ここで、AR表示が可能なオブジェクトデータを、ARオブジェクトともいう。
AR表示を行う方法としては、背景空間(としての画像)の画像認識を行って、マーカを検出し、そのマーカに対応する位置に、ARオブジェクトを表示する方法と、GPS座標等の絶対的な位置に、ARオブジェクトを表示する方法がある。
また、マーカとしては、背景空間に元から存在する物体が使用される場合と、所定のパターン等の画像が印刷された印刷物が使用される場合とがある。
生態系活用システムでは、例えば、ARオブジェクトを、マーカやGPS座標と対応付けて、そのマーカやGPS座標に対応する背景空間内の位置に、ARオブジェクトを重畳したAR表示を行うことができる。
すなわち、生態系活用システムでは、サーバ13において、例えば、所定のGPS座標(が表す位置)に実際に植生されている野菜について、その種名を表すARオブジェクトと所定のGPS座標とを対応付けることや、所定のGPS座標の畝について、種まきや管理作業の情報を表すARオブジェクトと所定のGPS座標とを対応付けること、所定のGPS座標の先住植生について、その先住植生を表すARオブジェクトと所定のGPS座標とを対応付けること等を行うことができる。
そして、端末12では、図18に示すように、カメラ37による撮影で得られる動画又は静止画の実空間(現実世界)の画像や、ユーザがシースルー型のHMDで直接見る実空間等の背景空間(の画像)内の、所定のGPS座標に対応する位置に、その所定のGPS座標に対応付けられたARオブジェクトを表示することができる。
図18の表示例では、ユーザが、この場所で2011年8月に草刈りをし、2011年9月に種まきを行っている。何の種がまかれたかの情報は、その種まきのARオブジェクトに付随して、協生農法(登録商標)DBに記録されている。そして、現在においては、この場所に、白菜、ニラ、ダイコン、カリフラワー、コマツナ、ゴボウが植生している。
図18に示されるように、白菜101ないし104、ニラ105、ダイコン106、カリフラワー107、コマツナ108、ゴボウ109、ヨモギ群生地帯110は、それぞれある畑の所定のGPS座標で表される位置に植生している。協生農法(登録商標)DBにおいて、白菜101ないしヨモギ群生地帯110のARオブジェクトは、その白菜101ないしヨモギ群生地帯110が植生している位置のGPS座標と対応付けられ、記録、管理されている。
すなわち、ユーザが、ある植物を観測した場合に、例えば、端末12の操作部34を操作して、その植物の名称を入力すると、サーバ13では、ユーザが入力した名称(を表示する画像)をARオブジェクトとして、そのARオブジェクトに、ユーザが名称を入力した植物が植生しているGPS座標が対応付けられる。
その後、ユーザが畑の所定の植物をカメラ37により撮影すると、その画像が表示部35に表示される。さらに所定の指示が入力されると、図18に示されるように、GPS座標の位置に植生する実際の植物の画像に重畳して、対応するARオブジェクト、すなわち、「白菜」等の名称(を表示する画像)が表示される。
ここで、ヨモギ群生地帯110は、ユーザが種をまいた結果として植生した植物ではなく、先住植物であるが、図18では、そのような先住植物にも、ユーザによりARオブジェクトが付与されている。
なお、植生する植物は、時期によって変化するので、ARオブジェクトは年月日を付加して管理することができる。
また、上述の場合には、ARオブジェクトを、GPS座標を利用して表示することとしたが、ARオブジェクトは、マーカを利用して表示することができる。すなわち、ARオブジェクトは、GPS座標と対応付け、そのGPS座標に対応する背景空間内の位置に表示する他、マーカと対応付け、そのマーカに対応する背景空間内の位置に表示することができる。
<協生農法(登録商標)ページ>
図19は、協生農法(登録商標)ページとしてのwebページのサイトマップの例を示す図である。
サーバ13は、協生農法(登録商標)DBを図19に示される地理的階層に応じてリンクしたwebページである協生農法(登録商標)ページを、端末12のユーザに提供する。端末12のタッチパネルから操作するために、協生農法(登録商標)DBを選択するアイコンが協生農法(登録商標)ページのトップページに表示される。
協生農法(登録商標)ページは、同図に示されるように、上位の階層から下位の階層の順番に、トップページ、地図上の畑の分布、畑の全体情報、畑区画の全体情報、畝区画の全体情報の階層で構成される。トップページ、地図上の畑の分布、畑の全体情報、畑区画の全体情報、畝区画の全体情報の階層は、それぞれ地球、畑、畑区画、畝区画の地理階層に対応する。したがって、端末12の表示部35は、畑をこの階層構造にしたがって出力表示する。例えばユーザは、畑#1の画面から、その畑#を区分した畑区画#1-1,#1-2,・・・の画面を選択することができ、畑区画#1-1の画面から、その畑区画#1-1にある畝区画#1-1-1,#1-1-2,・・・の画面を選択することができる。なお、この例では、畝の階層は省略されているが、設けてもよい。
また、畑の全体情報は、気候区分DB、気象DB、協生農法(登録商標)査定書DB、写真記録DB、位置情報としてのGPS座標を記録する座標DBにリンクしている。畑区画の全体情報は、収量DB、昆虫動物叢DB、フェノロジーDB、写真記録DB、座標DBにリンクしている。畝区画の全体情報は、種まきDB、植生DB、フェノロジーDB、写真記録DB、座標DBにリンクしている。
図20は、協生農法(登録商標)ページで提供される地図上の畑の分布の表示例を示す図である。
この例においては、地球の地図上に、畑の位置がフラグ121で示されている。アイコン122ないし129は、それぞれ種まきDB、植生DB、収量DB、写真記録DB、フェノロジーDB、昆虫動物叢DB、気候区分DB及び気象DBに対応し、それぞれを読み出すとき操作される。地理階層のアイコン130は、例えば、畑区画や畝区画等の畑のレベルを選択するとき操作される。
アイコン131は、検索を指示するとき操作され、アイコン132は、ソートを指示するとき操作され、アイコン133は、キーイベントを指示するとき操作される。
検索のアイコン131が操作されると、サーバ13の協生農法(登録商標)CMS71は、全語句やファイル名を検索する。協生農法(登録商標)CMS71は、類似語検索機能も有する。これにより、日付の異なる様式での一括検索も可能となる。例えば、「2011年4月1日」と「20110401」、「01042011」、「2011/4/1」、「1/4/2011」、「二千十一年四月一日」などの日付は、同一視される。また、種名のカナ表記/漢字表記/和名/学名/英名/通俗名などを同一視した一括検索も可能となる。例えばジャガイモと馬鈴薯は同一視される。
ソートのアイコン132が操作されると、協生農法(登録商標)CMS71は、全パラメータ毎のソートを行う。例えば、検索結果を、日付順や種名の五十音順などのパラメータ毎に並び替えることができる。
なお、これらのアイコン122ないし133は、その画面において操作可能なものだけが表示される。
<圃場の情報を参照する処理>
図21は、ユーザが圃場(畑)の情報を参照する場合の処理の例を説明するフローチャートである。
ステップS41において、端末12の取得部51は、畑のレベルの情報を取得する。すなわち、ユーザは、畑に関する情報を参照する場合、操作部34を操作して、地理階層のアイコン130(図20参照)を選択する。この操作が行われると、表示部35は、畑のレベルを選択する画面を表示する。つまり畑の一覧のレベルが表示される。ユーザは操作部34を操作して、その画面から、参照の対象とする畑を選択する。取得部51がこの選択の情報を取得すると、通信部40がこの選択の情報をサーバ13に送信する。
ステップS61において、サーバ13の通信部67は、端末12により選択された畑のレベルの情報を受信する。ステップS62において、ステップS41で端末12により選択されたレベルの畑のリストを作成し、出力する処理が行われる。つまり、協生農法(登録商標)CMS71は、座標DBを検索することで、ステップS61で受信したレベルの畑のリストを生成し、通信部67がそのリストを端末12に送信する。
ステップS42においてリストを受信し、表示する処理が行われる。すなわち、サーバ13から出力されたリストが端末12の通信部40により受信され、表示制御部52がそのリストを表示部35に表示する。
ユーザは、操作部34を操作して、表示されたリストの中から、参照対象とする畑を選択する。ステップS43において、通信部40は、リストから選択された畑の情報を送信する。
ステップS63において、サーバ13の通信部67は、端末12により選択された畑の情報を受信する。
ステップS64において、協生農法(登録商標)CMS71は、ステップS63において受信された畑が関係するDBを、協生農法(登録商標)DBから検索する。つまりユーザが指定したレベルの畑が関係するDBが、協生農法(登録商標)DBから検索される。ステップS65において、検索された畑のDBの一覧を出力する処理が行われる。つまり、協生農法(登録商標)CMS71は検索結果に基づいて、関係するDBの一覧を作成し、通信部67がその一覧を端末12に出力する。
ステップS44において、端末12の通信部40は、検索された畑のDBの一覧を受信する。ステップS45において、表示制御部52は、通信部40が受信した畑のDBの一覧を、表示部35に表示させる。
ユーザは、操作部34を操作して、表示された一覧の中から参照するDBと畑の座標を入力する。ステップS46において、取得部51は、この入力された、参照するDBと畑の座標の情報を取得する。ステップS47において、通信部40は、ステップS46で取得された情報を、サーバ13に送信する。
ステップS66において、サーバ13の通信部67は、端末12により送信された情報を受信する。ステップS67において、協生農法(登録商標)CMS71は、受信した情報に基づき、指定されたDBの指定された座標の畑の情報を読み出す。すなわち、ステップS66において受信されたDBの、ユーザにより入力された座標の畑の情報が読み出される。
ステップS68において、通信部67は、読み出した畑の情報を端末12に送信する。
ステップS48において、端末12の通信部40は、サーバ13からの、DBから読み出された畑の情報を受信する。ステップS49において、表示制御部52は、通信部40が受信した畑の情報を、表示部35に表示する。
ユーザは、表示部35に表示された畑の情報を見て、操作部34を操作して、参照する情報の日付を選択する。取得部51は、ステップS50において、この参照する情報の日付の選択の情報を取得する。そして日付の選択の情報は、通信部40によりサーバ13に送信される。
ステップS69において、サーバ13の通信部67は、端末12からの、参照する情報の日付の選択の情報を受信する。ステップS70において、協生農法(登録商標)CMS71は、指定された日付の情報を、協生農法(登録商標)DBから読み出し、ステップS71において、通信部67は、読み出された日付の情報を、端末12に送信する。
ステップS51において、端末12の通信部40は、サーバ13からの、読み出された日付の情報を受信する。ステップS52において、表示制御部52は、ステップS51において受信された日付の情報を、表示部35に表示する。
以上のようにして、参照したい協生農法(登録商標)DB、畑区画などの座標、並びに日付を指定することで、座標ごとの協生農法(登録商標)DBの情報、例えば、ユーザが指定した過去の圃場や他の圃場等の履歴情報が表示部35に表示され、ユーザはこれを確認することができる。
なお、以上においては、地理階層のアイコン130により畑のレベルを選択するようにしたが、フラグ121を操作することで、参照する畑を直接指定することもできる。
<写真のアップロード処理>
図22は、写真のアップロード処理の例を説明するフローチャートである。
ユーザが、端末12からサーバ13に写真(としての画像)をアップロードする場合、ステップS81において、端末12の取得部51は、写真データを取得する。ユーザは、例えば、畑において所定の植物を発見(観測)し、その写真をサーバ13にアップロードする場合、カメラ37によりその植物を撮影する。この撮影が行われると、その写真データ(画像データ)が取得部51により取得される。勿論、メモリ等に予め保存された写真データをアップロードする写真データとして取得することも可能である。
ステップS82において、端末12の位置検出部39は、位置情報としてのGPS座標を検出する。つまり、端末12により撮影された被写体の座標が取得される。この座標は、端末12の現在位置とすることもできるし、現在位置から被写体までの距離と方向を演算し、現在位置を補正することで、より正確な被写体の座標とすることもできる。また、ユーザに操作部34を操作させることで座標を入力させることもできる。
ステップS83において、表示制御部52は、写真データとリンクさせる協生農法(登録商標)DBの情報のリストを、表示部35に表示する。ステップS84において、取得部51は、写真データとリンクさせる情報の選択の情報を取得する。すなわち、ユーザが操作部34を操作することで、表示部35に表示されたリストの中から、写真データとリンクさせる情報を選択すると、その選択の情報が取得部51により取得される。
さらに、ユーザは、操作部34を操作することで、アップロードする写真にコメントとして付加する情報(主に文字情報)を入力することができる。例えば、白菜の写真を撮影した場合、コメントとして「ハクサイ」の名称が入力される。なお、この入力には、キーボードからの文字入力だけでなく、予め用意された入力ページから所定の欄を選択する等の方法を用いることができる。ステップS85において、取得部51は、この入力されたコメントとする情報を取得する。ステップS86において、通信部40は、ステップS81,S82,S84,S85で取得された情報を、サーバ13に送信する。
ステップS91において、サーバ13の通信部67は、端末12から送信されてくる情報を受信する。ステップS92において、協生農法(登録商標)CMS71は、ステップS91で受信された情報を協生農法(登録商標)DBに登録する。すなわち、ユーザが撮影した写真が、コメントとともに、写真記録DBに登録され、さらに、ユーザが選択した協生農法(登録商標)DBの情報にリンクされる。
以上のようにして、ユーザは、端末12から所定の写真とコメントをサーバ13にアップロードすることができる。ユーザは、上述した図21の処理により、このアップロードした情報を後に参照することができる。
なお、写真以外の各種の情報をアップロードする場合にも同様の処理が行われる。例えば、所定の畝から白菜が1Kg収穫された場合、アップロードする情報として、「白菜1Kg」が入力される。そして、例えば、収量DBに、所定の畝の座標にリンクする形で、情報「白菜1Kg」が記録される。
<キーイベントの登録>
図23は、キーイベントの登録の処理の例を説明するフローチャートである。
ユーザは、任意の事象を、キーイベントとして、協生農法(登録商標)DBのメタDBに登録することができる。キーイベントとしては、協生農法(登録商標)のマネージメント上重要と推定される事象を採用することができ、キーイベントは、自然言語による名称記録と、協生農法(登録商標)DBの各DBの対応項目とのリンクとにより定義される。
ユーザは、キーイベントを登録するとき、操作部34を操作して、キーイベントのアイコン133(図20参照)を選択する。このとき、ステップS101において、取得部51は、キーイベントのアイコン133の選択を受け付ける。ステップS102において、取得部51は、写真データと日付を取得する。すなわち、例えば、ユーザが、キーイベントとして記録したい事象としての植物等をカメラ37により撮影し、操作部34を操作して日付を入力すると、これらの情報が取得部51により取得される。
ステップS103において、位置検出部39は、位置情報としてのGPS座標を取得する。すなわち撮影された写真に対応する座標(写真に映る事象としての植物等のGPS座標)が取得される。
ステップS104において取得部51は、入力文字を取得する。すなわち、ユーザが操作部34を操作してキーイベントとしての文字情報を入力すると、これが取得される。例えば、ユーザは、ロゼット化した白菜を発見したとき、その白菜の写真を撮影するとともに、「白菜のロゼット化」の文字をキーイベントとして入力することができる。
ステップS105において、通信部40は、ステップS102ないしS104で取得された情報を、サーバ13に送信する。
ステップS121において、サーバ13の通信部67は、端末12から送信されてきた情報を受信する。ステップS122において、協生農法(登録商標)CMS71は、通信部67が受信した情報をメタDBに記録する。すなわち、ステップS102ないしS104で端末12により取得された情報がキーイベントDBとしてのメタDBに記録(登録)される。
ステップS106において、端末12の取得部51は、畑のレベルを取得する。すなわち、ユーザは、キーイベントの記録を行う場合、操作部34を操作して、地理階層のアイコン130(図20)を選択する。この操作が行われると、表示部35は、畑のレベルを選択する画面を表示する。ユーザは、操作部34を操作して、その画面から、参照の対象とする畑のレベルを選択する。取得部51がこの選択の情報を取得し、通信部40がこの選択の情報をサーバ13に送信する。
ステップS123において、サーバ13の通信部67は、端末12により選択された畑のレベルの情報を受信する。ステップS124において、ステップS106で端末12により選択されたレベルの畑のリストを作成し、出力する処理が行われる。つまり、協生農法(登録商標)CMS71は、座標DBを検索することで、ステップS123で受信したレベルの畑のリストを生成し、通信部67がそのリストを端末12に送信する。
ステップS107においてリストを受信し、表示する処理が行われる。すなわち、サーバ13から出力されたリストが端末12の通信部40により受信され、表示制御部52がそのリストを表示部35に表示する。
ユーザは、操作部34を操作して、表示されたリストの中から、記録対象とする畑を選択する。ステップS108において、通信部40は、リストから選択された畑の情報を、サーバ13に送信する。
ステップS125において、サーバ13の通信部67は、端末12により選択された畑の情報を受信する。
ステップS126において、協生農法(登録商標)CMS71は、ステップS125において受信された畑の情報が登録されているDBを、協生農法(登録商標)DBから検索する。
つまりユーザが指定したレベルの畑が関係するDBが、協生農法(登録商標)DBから検索される。ステップS127において、検索されたDBの一覧を出力する処理が行われる。つまり、協生農法(登録商標)CMS71は、検索結果に基づいて、ユーザが指定したレベルの畑に関係するDBの一覧を作成し、通信部67がその一覧を端末12に送信する。
ステップS109において、端末12の通信部40は、サーバ13からのDBの一覧を受信する。ステップS110において、表示制御部52は、サーバ13からのDBの一覧を表示部35に表示する。
ユーザは、操作部34を操作して、表示された一覧を参照し、キーイベントにリンクするDBと畑の座標を入力する。ステップS111において、取得部51は、この入力された、キーイベントとリンクするDB及び畑の座標の情報を取得する。ステップS112において、通信部40は、ステップS111で取得された情報を、サーバ13に送信する。
ステップS128において、サーバ13の通信部67は、端末12より送信された情報を受信する。ステップS129において、協生農法(登録商標)CMS71は、協生農法(登録商標)DBのうちの、指定されたDBから、指定された座標の畑の情報を読み出す。すなわち、ユーザにより入力されたDBから、同じくユーザにより入力された座標の畑の情報が読み出される。ステップS130において、通信部67は、読み出された畑の情報を、端末12に送信する。
ステップS113において、端末12の通信部40は、読み出された畑の情報を受信する。この情報は、表示部35に表示される。ユーザは、この表示を見て、ユーザが指定(入力)した畑がキーイベントにリンクさせる畑であることを確認する。この確認を行った後、ユーザは、操作部34を操作して、ユーザにより指定(入力)されたDBの、ユーザにより指定された畑の情報と、キーイベントとをリンクさせるように指示する。この指示に基づいて、ステップS114において、通信部40は、リンクのためのコマンドを、サーバ13に送信する。
ステップS131において、サーバ13の通信部67は、端末12から送信されたリンクのコマンドを受信する。ステップS132において、協生農法(登録商標)CMS71は、新規に記録されたキーイベントを指定された畑の情報にリンクする。すなわち、ステップS122でメタDBに新規に記録されたキーイベントが、ステップS111でユーザにより指定された畑の情報にリンクされる。
以上のように、キーイベントが畑の情報にリンクされた後は、ユーザは、端末12の操作部34を操作することで、キーイベントから、そのキーイベントにリンクされた畑の情報を参照することや、畑の情報から、その畑の情報にリンクされたキーイベントにアクセスすることができる。
以下に、キーイベントの具体例としての事象について、キーイベント名、自由言語による記録、キーイベントとリンクされる畑の情報が登録されたDBである関連DBの順に記載する。
キーイベント名:記録防風効果
自由言語による記録:同じ土地条件であっても、周囲に塀などの風を遮る構造がある場所には、野菜の生長が高まる。
関連DB:座標DB、収量DB、管理記録DB、植生DB、フェノロジーDB
キーイベント名:土壌形成とレタスの発芽率の低下
自由言語による記録:レタスは耕された土地では良く発芽するが、不耕起を続けて土壌構造が形成されて来ると、発芽しにくくなる。
関連DB:種まきDB、管理記録DB、植生DB、フェノロジーDB
キーイベント名:競合成長
自由言語による記録:土中の栄養分が同じでも、他の植生と競合することで野菜がより大きく生長する。
関連DB:植生DB、フェノロジーDB、収量DB
なお、競合成長の具体例としては、イヌホオズキと競合して大きくなったニンジンの例、夏草を刈らなかった畝で発芽率は悪いが個々の野菜の生長は大きくなった例などがある。
キーイベント名:ロゼット化:
自由言語による記録:冬期に野菜種によっては地表に平たく這いつくばるような形態に変化し、寒さでも枯れない形状で春まで生き延びる。この形態でも収穫可能である。
関連DB:植生DB、フェノロジーDB、収量DB、気象DB
キーイベント名:紅葉
自由言語による記録:冬期に、ニンジンやキャベツなどの野菜が紅葉することがある。
紅葉しても収穫可能。
関連DB:植生DB、フェノロジーDB、収量DB、気象DB
キーイベント名:遅霜
自由言語による記録:春の発芽直後に地表が4℃以下になると、遅霜で双葉が全滅するため、全面追い蒔きや苗の定植で対応する必要がある。
関連DB:種まきDB、管理記録DB、植生DB、フェノロジーDB、気象DB
<関係グラフ>
図24は、サーバ13のグラフ表示制御部72(又は端末12の取得部51)で生成される関係グラフを説明する図である。
任意のDBにおいて、あるカテゴリ(集合)の情報i1と、他のカテゴリの情報i2とが関連付けられている場合、情報i2を尺度(定規)として、情報i1どうしの関係を表すグラフ(ネットワーク関係図)である関係グラフを生成することができる。
ここで、情報i1とi2とが関連付けられているDBについては、上述の場合とは逆に、情報i1を尺度として、情報i2どうしの関係を表す関係グラフも生成することもできる。
また、関係グラフの生成には、情報i1とi2とが明示的に関連付けられているDBの他、情報i1とi2とが暗黙的に関連付けられているDBも用いることができる。
ここで、例えば、情報i1が、観測された植生(の植生名)であり、情報i2が、植生が観測された圃場(の圃場名)である場合、情報i1とi2とが明示的に関連付けられているDBとは、植生と、その植生が観測された圃場とが、対応付けられて登録されているDBである。
また、情報i1とi2とが暗黙的に関連付けられているDBとは、例えば、「植生#1が圃場#1で観測された」といった自然言語が登録されたDBである。
グラフ表示制御部72は、情報i1とi2とが関連付けられているDBから、マルチパータイトグラフとしての、例えば、バイパータイトグラフ(2部グラフ)を生成し、そのバイパータイトグラフから関係グラフを生成する。
図24は、DBから生成されるバイパータイトグラフの例を示す図である。
図24では、DBとして、植生と、その植生が観測された圃場とが関連付けられている植生/圃場DBが採用されている。
図24のバイパータイトグラフは、植生#1が圃場#1ないし#4で観測されたこと、植生#2が圃場#1ないし#4で観測されたこと、植生#3が圃場#3及び#4で観測されたこと、及び、植生#4ないし#6のそれぞれが圃場#4で観測されたこと、を表している。
以上のようなバイパータイトグラフから、関係グラフを生成するにあたっては、圃場#kを尺度として、植生#iと#jとの関係性(の強さ)を表す関係スコアが求められる(i≠j)。
図25は、図24の植生/圃場DBのバイパータイトグラフから求められる関係スコアの例を示す図である。
植生#iと他の植生#jとの関係スコアとしては、植生#i及び#jの両方に関連付けられた圃場の数、すなわち、植生#i及び#jの両方が観測された圃場の数に対応する値(例えば、比例する値)を採用することができる。
図25では、植生#iと他の植生#jとの関係スコアとして、植生#i及び#jの両方が観測された圃場の数を、圃場の総数(ここでは4)で除算した値が採用されている。
図24のバイパータイトグラフによれば、例えば、植生#1については、図25上側に示すように、植生#2とともに観測された圃場が、圃場#1ないし#3の3個であり、植生#3とともに観測された圃場が、圃場#3の1個であり、植生#4ないし#6とともに観測された圃場は0個である。
したがって、植生#1については、植生#2との関係スコアは3/4になり、植生#3との関係スコアは1/4になる。さらに、植生#1については、植生#4ないし#6それぞれとの関係スコアは、いずれも0になる。
同様にして、例えば、図24の植生#3については、図25下側に示すように、植生#1との関係スコアは1/4になり、植生#2との関係スコアは2/4(=1/2)になる。さらに、植生#3については、植生#4ないし#6それぞれとの関係スコアは、いずれも、1/4になる。
グラフ表示制御部72は、バイパータイトグラフから関係スコアを求め、その関係スコアを用いて、関係グラフを生成し、その関係グラフを表示したグラフ表示画面を生成する。
図26は、図24のバイパータイトグラフ、及び、図25の関係スコアを用いて生成される関係グラフが表示されたグラフ表示画面の例を示す図である。
関係グラフは、図中丸印で示されるノードと、ノードどうしを接続する線分で示されるリンクとで構成される。
図26において、ノードは、植生に対応し、リンクは、ノードどうし、すなわち、ここでは、植生どうしの関係性を表す。
図26の関係グラフは、植生#1のノード(植生#1に対応するノード)を、注目している注目ノードとして、その注目ノードが表す植生#1と、他の植生#2ないし#6それぞれとの関係を表している。
グラフ表示画面において、関係グラフは、例えば、注目ノード、すなわち、ここでは、植生#1のノードが画面の(ほぼ)中央に位置するように配置される。
また、関係グラフにおいて、注目ノードである植生#1のノードと、他の植生#2ないし#6のノードとの間のリンクの長さは、図25に示した、植生#1と、植生#2ないし#6それぞれとの関係スコアに対応する長さになっている。
すなわち、注目ノードである植生#1のノードと、他の植生#jのノードとの間のリンクの長さは、植生#1と#jとの関係スコアが大きいほど、つまり、植生#1と#jとの関係性が強いほど、短くなっている。
いまの場合、植生#1と#jとの関係性が強いことは、植生#1と#jとの両方が観測された圃場の数が多いことに相当する。
したがって、注目ノードである植生#1のノードに近い位置にあるノードが表す植生#jは、植生#1と共生関係にあると推定することができ、図26の関係グラフを見たユーザは、植生#1と混生密生状態を構築するのに適した植生を、容易に認識(予測)(推定)することができる。
その結果、図26の関係グラフによれば、生態系活用の支援の1つとして、植生設計を支援することができる。
図26では、植生#1のノードを注目ノードとしたが、グラフ表示画面では、任意のノードを注目ノードに選択することができる。
すなわち、端末12において、表示部35にグラフ表示画面が表示されている場合において、ユーザが、操作部34を操作して、例えば、植生#3のノードを選択すると、表示制御部52は、植生#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面を表示する。
図27は、植生#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面の例を示す図である。
図27のグラフ表示画面では、関係グラフは、注目ノードである植生#3のノードが画面の中央に位置するように配置されている。
また、関係グラフにおいて、注目ノードである植生#3のノードと、他の植生#1,#2,#4ないし#6のノードとの間のリンクの長さは、図25に示した、植生#3と、植生#1,#2,#4ないし#6それぞれとの関係スコアに対応する長さになっている。
情報i2を尺度とする情報i1どうしの関係を表す関係グラフでは、情報i1どうしの関係の他、情報i1と、その情報i1に関連付けられた情報i2との関係をも表すことができる。
すなわち、例えば、図24で説明した植生/圃場DBから生成される関係グラフでは、植生どうしの関係の他、植生と、その植生に関連付けられた圃場との関係をも表すことができる。
図28は、植生どうしの関係の他に、植生と、その植生に関連付けられた圃場との関係が表された関係グラフが表示されたグラフ表示画面の例を示す図である。
図28の関係グラフでは、図26の関係グラフに、植生に関連付けられた圃場のノード(図中、三角形で示す部分)と、植生と圃場との関係を表すリンク(図中、点線で示す部分)とが追加されている。
すなわち、図28の関係グラフでは、図26の関係グラフに、注目ノードが表す植生#1が観測された圃場#1ないし#3それぞれのノード、及び、それらのノードそれぞれと、注目ノードである植生#1のノードとを結ぶリンクが追加されている。
図28の関係グラフによれば、ユーザは、図26の場合と同様に、植生#1と混生密生状態を構築するのに適した植生を、容易に認識することができる他、植生#1が観測された圃場を、容易に認識することができる。
この場合、ユーザは、植生#1が観測された圃場の環境を、協生農法(登録商標)DBにアクセスして調べることにより、植生#1が観測される環境を推定することができる。
ここで、関係グラフに、植生と圃場のような、異なるカテゴリの情報のノードを表す場合には、植生のノードと圃場のノードとを区別することができるように、ノードを表示することができる。
すなわち、植生のノードと圃場のノードとは、例えば、色や、大きさ、形状、模様等として異なるものを採用して表示することができる。
図28に示したように、植生どうしの関係の他に、植生と、その植生に関連付けられた圃場との関係が表された関係グラフが表示されたグラフ表示画面については、図27で説明したように、注目ノードとして、植生のノードを選択することができる他、圃場のノードを選択することができる。
すなわち、端末12において、表示部35に、図28のグラフ表示画面が表示されている場合において、ユーザが、操作部34を操作して、圃場のノードを選択すると、表示制御部52は、ユーザが選択した圃場のノードを注目ノードとした関係グラフが表示されたグラフ表示画面を表示する。
圃場のノードを注目ノードとした関係グラフは、植生/圃場DBにおいて圃場に関連付けられた植生を尺度として、圃場どうしの関係を表す。そのため、圃場のノードを注目ノードとした関係グラフが表示されたグラフ表示画面が表示される場合には、植生#kを尺度として、圃場#iと#jとの関係性を表す関係スコアが求められる(i≠j)。
図29は、図24のバイパータイトグラフから求められる関係スコアの例を示す図である。
なお、図25では、植生どうしの関係スコアを示したが、図29は、圃場どうしの関係スコアを示している。
圃場#iと他の圃場#jとの関係スコアとしては、圃場#i及び#jの両方に関連付けられた植生の数、すなわち、圃場#i及び#jの両方で観測された植生の数に対応する値(例えば、比例する値)を採用することができる。
図29では、圃場#iと他の圃場#jとの関係スコアとして、圃場#i及び#jの両方で観測された植生の数を、植生の総数(ここでは6)で除算した値が採用されている。
図24のバイパータイトグラフによれば、例えば、圃場#1については、図29上側に示すように、圃場#1及び#2の両方で観測された植生が、植生#1及び#2の2個であり、圃場#1及び#3の両方で観測された植生が、植生#1の1個であり、圃場#1及び#4の両方で観測された植生は0個である。
したがって、圃場#1については、圃場#2との関係スコアは2/6(=1/3)になり、圃場#3との関係スコアは1/6になる。さらに、圃場#1については、圃場#4との関係スコアは0になる。
同様にして、例えば、図24の圃場#3については、図29下側に示すように、圃場#1,#2,#4それぞれとの関係スコアは、いずれも、2/6になる。
グラフ表示制御部72は、バイパータイトグラフから関係スコアを求め、その関係スコアを用いて、関係グラフを生成し、その関係グラフを表示したグラフ表示画面を生成する。
図30は、図29の関係スコアを用いて生成される関係グラフが表示されたグラフ表示画面の例を示す図である。
すなわち、図30は、例えば、図28の関係グラフにおいて、ユーザが、圃場#1のノードを注目ノードに選択した場合に表示される関係グラフのグラフ表示画面の例を示している。
図30の関係グラフでは、圃場#1のノードを注目ノードとして、その注目ノードが表す圃場#1と、他の圃場#2ないし#4それぞれとの関係が表されている。
グラフ表示画面において、関係グラフは、図26で説明したように、注目ノードである圃場#1のノードが画面の中央に位置するように配置されている。
また、図30の関係グラフにおいて、注目ノードである圃場#1のノードと、他の圃場#2ないし#4それぞれのノードとの間のリンクの長さは、図29に示した、圃場#1と、圃場#2ないし#4それぞれとの関係スコアに対応する長さになっている。
すなわち、注目ノードである圃場#1のノードと、他の圃場#jのノードとの間のリンクの長さは、圃場#1と#jとの関係スコアが大きいほど、つまり、圃場#1と#jとの関係性が強いほど、短くなっている。
いまの場合、圃場#1と#jとの関係性が強いことは、圃場#1と#jとの両方で観測された植生の数が多いことに相当する。
したがって、注目ノードが表す圃場#1と、その注目ノードに近い位置にあるノードが表す圃場#jとは、それらの圃場#1及び#jの両方で観測された植生に適した環境と多くの事項が共通する環境の圃場であると推定することができる。
その結果、図30の関係グラフによれば、例えば、ユーザは、圃場#1及び#jに共通する環境を、協生農法(登録商標)DBにアクセスして調べることにより、圃場#1及び#jの両方で観測された植生に適した環境を推定することができる。
なお、図30の関係グラフでは、圃場どうしの関係の他、注目ノードが表す圃場#1にリンクする形で、その圃場#1で観測された植生#1及び#2のノードも表示されている。
ユーザは、操作部34を操作して、任意のノードを注目ノードに選択することができる。
いま、図30の関係グラフにおいて、例えば、圃場#3のノードが、注目ノードに選択されると、表示制御部52は、圃場#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面を表示する。
図31は、圃場#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面の例を示す図である。
図31のグラフ表示画面では、関係グラフは、注目ノードである圃場#3のノードが画面の中央に位置するように配置されている。
また、関係グラフにおいて、注目ノードである圃場#3のノードと、他の圃場#1,#2,#4のノードとの間のリンクの長さは、図29に示した、圃場#3と、圃場#1,#2,#4それぞれとの関係スコアに対応する長さになっている。
なお、図31の関係グラフでは、図30と同様に、圃場どうしの関係の他、注目ノードが表す圃場#3にリンクする形で、その圃場#3で観測された植生#1ないし#3のノードも表示されている。
図31の関係グラフにおいて、例えば、植生#1のノードが、注目ノードに新たに選択された場合には、関係グラフは、上述の図28に示したようになる。
以上のような関係グラフによれば、ユーザは、例えば、図28の関係グラフを参照することにより、注目ノードが表す植生#1と共生する他の植生を、容易に認識することができるとともに、注目ノードが表す植生#1が観測される圃場を、容易に認識することができる。
また、ユーザが、図28の関係グラフにおいて、注目ノードとして、植生#1以外の植生のノードを新たに選択した場合には、図26及び図27で説明したように、その新たに選択したノードを注目ノードとする関係グラフが表示されるので、ユーザは、その新たに注目ノードとなったノードが表す植生と共生する他の植生を、容易に認識することができる。
さらに、ユーザが、図28の関係グラフにおいて、注目ノードとして、圃場のノードを選択した場合には、図30に示したような、圃場どうしの関係と、注目ノードが表す圃場で観測された植生を表す関係グラフが表示されるので、ユーザは、注目ノードが表す圃場で観測されるのと同様の植生が多く観測される圃場や、注目ノードが表す圃場で観測される植生を、容易に認識することができる。
図32は、植生/レシピDBから生成されるバイパータイトグラフの例を示す図である。
ここで、植生/レシピDBは、植生と、その植生を材料とする料理のレシピとが関連付けられているDBである。
図32のバイパータイトグラフは、植生#1がレシピ#1ないし#3で観測されたこと(材料になっていること)、植生#2がレシピ#1ないし#3で観測されたこと、植生#3がレシピ#1及び#3で観測されたこと、植生#4及び#5のそれぞれがレシピ#3で観測されたこと、植生#6がレシピ#1ないし#3のいずれでも観測されていないこと、を表している。
以上のようなバイパータイトグラフから、関係グラフを生成するにあたっては、例えば、レシピ#kを尺度として、植生#iと#jとの関係性(の強さ)を表す関係スコアが求められる(i≠j)。
図33は、図32の植生/レシピDBのバイパータイトグラフから求められる関係スコアの例を示す図である。
植生#iと他の植生#jとの関係スコアとしては、植生#i及び#jの両方に関連付けられたレシピの数、すなわち、植生#i及び#jの両方が観測されたレシピの数に対応する値を採用することができる。
図33では、植生#iと他の植生#jとの関係スコアとして、植生#i及び#jの両方が観測されたレシピの数を、レシピの総数(ここでは3)で除算した値が採用されている。
図32のバイパータイトグラフによれば、例えば、植生#1については、植生#2とともに観測されたレシピが、レシピ#1及び#2の2個であり、植生#3とともに観測されたレシピが、レシピ#1及び#3の2個であり、植生#4とともに観測されたレシピが、レシピ#3の1個であり、植生#5とともに観測されたレシピが、レシピ#3の1個であり、レシピ#6とともに観測されたレシピは0個である。
したがって、植生#1については、植生#2及び#3それぞれとの関係スコアは2/3になり、植生#4及び#5それぞれとの関係スコアは1/3になる。さらに、植生#1については、植生#6との関係スコアは0になる。
グラフ表示制御部72は、バイパータイトグラフから関係スコアを求め、その関係スコアを用いて、関係グラフを生成し、その関係グラフを表示したグラフ表示画面を生成する。
図34は、図32のバイパータイトグラフ、及び、図33の関係スコアを用いて生成される関係グラフが表示されたグラフ表示画面の例を示す図である。
図34の関係グラフは、植生#1のノードを、注目ノードとして、その注目ノードが表す植生#1と、他の植生#2ないし#6それぞれとの関係を表している。
図34の関係グラフでは、図28と同様に、植生どうしの関係の他に、植生と、その植生に関連付けられたレシピとの関係も表されている。
さらに、図34の関係グラフでは、上述した植生/圃場DBのバイパータイトグラフから求められた関係グラフと同様に、注目ノードである植生#1のノードと、他の植生#2ないし#6のノードとの間のリンクの長さは、図33に示した、植生#1と、植生#2ないし#6それぞれとの関係スコアに対応する長さになっている。
すなわち、注目ノードである植生#1のノードと、他の植生#jのノードとの間のリンクの長さは、植生#1と#jとの関係スコアが大きいほど、つまり、植生#1と#jとの関係性が強いほど、短くなっている。
いまの場合、植生#1と#jとの関係性が強いことは、植生#1と#jとの両方が観測されたレシピの数が多いことに相当する。
したがって、注目ノードである植生#1のノードに近い位置にあるノードが表す植生#jは、植生#1と一緒に、料理に使われることが多いと推定することができ、図34の関係グラフを見たユーザは、植生#1と一緒に料理に使われることが多い植生を、容易に認識することができる。
なお、例えば、トマトとバジルとは、一緒に料理に使われることが多いが、このように一緒に料理に使われることが多い植生どうしは、共生関係にあることがある。
図34の関係グラフについても、ユーザは、操作部34を操作して、植生#1以外の植生のノードを注目ノードとして選択し、その選択した植生のノードを注目ノードとする関係グラフを表示させることができる。
また、ユーザは、注目ノードとして、レシピのノードを選択し、その選択したレシピのノードを注目ノードとする関係グラフを表示させることができる。
この場合、注目ノードであるレシピのノードに近い位置にあるノードが表すレシピは、注目ノードが表すレシピと一緒に使われる植生が多いことを表す。
関係グラフは、以上のような植生/圃場DBや植生/レシピDB(のバイパータイトグラフ)から生成する他、植生とその他の任意の情報とが関連付けられたDBから生成することができる。
また、関係グラフは、植生以外の(生物)種(species)と、その種以外の他の情報とが関連付けられたDBから生成することができる。
さらに、関係グラフは、植生/圃場DBや植生/レシピDB等の1個のDBから生成する他、第1のDB及び第2のDB等の複数のDBから生成することができる。
図35は、上述の植生/圃場DB及び植生/レシピDBの2個のDBから生成されるバイパータイトグラフの例を示す図である。
図35の関係グラフは、植生#1のノードを、注目ノードとして、その注目ノードが表す植生#1と、他の植生#2ないし#6それぞれとの関係を表している。
図35の関係グラフでは、植生どうしの関係の他に、植生と、その植生に関連付けられた圃場及びレシピそれぞれとの関係も表されている。
図35の関係グラフにおいて、注目ノードである植生#1と、他の植生#2ないし#6それぞれとの関係スコアは、植生/圃場DBにおいて、植生#iと関連付けられている圃場#kを尺度として求めることもできるし、植生/レシピDBにおいて、植生#iと関連付けられているレシピ#kを尺度として求めることもできる。
さらに、注目ノードである植生#1と、他の植生#2ないし#6それぞれとの関係スコアは、植生/圃場DBにおいて、植生#iと関連付けられている圃場#kと、植生/レシピDBにおいて、植生#iと関連付けられているレシピ#kとの両方を尺度として求めることもできる。
注目ノードである植生#1と、他の植生#2ないし#6それぞれとの関係スコアを、圃場#kとレシピ#kとの両方を尺度として求める場合には、例えば、圃場#kを尺度として求められる関係スコアと、レシピ#kを尺度として求められる関係スコアとの平均値等の重み付け加算値を、注目ノードである植生#1と、他の植生#2ないし#6それぞれとの関係スコアとして求めることができる。
なお、注目ノードが表す情報である、例えば、植生#iについては、関係グラフが表す、その植生#iと他の植生#jとの関係、すなわち、植生#iと他の植生#jとの関係スコアに基づいて、植生#iに対して、他の植生#jすべてをランキング付けすることができる。
関係グラフにおいて、注目ノードが表す植生#iに近い他の植生#jほど、ランキングの高い植生となる。
さらに、上述の場合には、例えば、植生/圃場DBについて、植生#i及び#jの両方が観測された圃場の数に対応する値を、植生#i及び#jの関係スコアとして採用したが、植生#i及び#jの関係スコアとしては、その他、例えば、植生#i及び#jの両方が同一の圃場で観測された回数や、植生#iが観測された圃場と植生#jが観測された圃場との近さ等の、植生/圃場DBにおいて、植生と関連付けられている圃場を尺度とする任意の値を採用することができる。
また、関係グラフは、様々なファクタに基づき、表示を制御することができる。
例えば、植生どうしの関係を表す関係グラフにおいては、ランキングの高い植生ほど、その植生のノードと注目ノードとの間のリンクを太く表示することや、そのリンクの色を変えて表示することができる。
さらに、例えば、植生/圃場DBから生成される関係グラフにおいては、注目ノードが表す植生#iが観測された回数が多い圃場#kのノードほど、大きさを大きくすることや、注目ノードに近い位置に配置することができる。
また、植生どうしの関係を表す関係グラフにおいては、観測された回数が多い植生#iほど、その植生#iのノードの大きさを大きくすることができる。
さらに、例えば、植生/レシピDBから生成される関係グラフにおいては、注目ノードが表す植生#iが使用される量が多いレシピのノードほど、大きさを大きくすることや、注目ノードに近い位置に配置することができる。
また、例えば、植生どうしの関係を表す関係グラフにおいては、注目ノードが表す植生#iとの関係性が強い(関係スコアが大きい)植生#jのノードが、注目ノードに近づくとともに、注目ノードが表す植生#iとの関係性が弱い(関係スコアが小さい)植生#j'のノードが、注目ノードから遠ざかるようなアニメーション表示を行うことができる。
さらに、例えば、植生どうしの関係を表す関係グラフにおいては、植生/圃場DBや植生/レシピDBに登録されている植生のノードについては、すべての植生のノードを表示する他、注目ノードである植生#iのノードと、その植生#iとの関係スコアが0より大の植生#jのノード、すなわち、植生#iとともに観測された圃場#kが存在する植生#jのノードとだけを表示することができる。
この場合、関係グラフを構成する植生のノードが制限されるので、植生のノードが多数表示されることによって、関係グラフが見にくくなることを防止することができる。
図36は、グラフ表示制御部72(又は取得部51)で関係グラフを生成するのに用いるDBの例を示す図である。
関係グラフは、サーバ13のストレージ63に登録されている協生農法(登録商標)DB(を構成する各種のDB)を用いて生成することができる。
また、関係グラフは、インターネット24上の、例えば、種と他の情報とが関連付けられたDB等の様々なDBを用いて生成することができる。
すなわち、関係グラフは、インターネット24上の、書籍のDBである書籍DBや、webページで提供されるDBであるウェブDBや、webページ、学術的な情報が登録されたアカデミックDB、栄養学の情報が登録された栄養学DB等の様々なDBを用いて生成することができる。
端末12のユーザは、操作部34を操作することにより、関係グラフを生成するのに用いるDBを選択することができる。
すなわち、操作部34の操作に応じて、例えば、図36に示した複数のDBの中から、関係グラフの生成に用いるDBを選択することができる。
ここで、以上のように、複数のDBの中から、関係グラフの生成に用いるDBを選択することができる場合には、いま表示されている関係グラフが、どのDBの関係グラフであるのか(どのDBを用いて生成された関係グラフであるのか)が、ユーザに分かりにくくなることがあり得る。
そこで、関係グラフの生成に用いるDBの選択(切り替え)に応じて、関係グラフの背景色や、ノードの形状、ノードの色等のうちの1以上を変更することができる。
また、端末12において、関係グラフの生成に用いるDBの選択に応じて、異なる音を、スピーカ36から出力させることができる。
以上により、ユーザは、関係グラフの生成に、どのDBが用いられているのかを認識することができる。
図37は、関係グラフが表示されるグラフ表示画面の構成例を示す図である。
グラフ表示画面は、グラフ表示領域201とリスト表示領域202とで構成することができる。
図37では、グラフ表示画面の左端がリスト表示領域202になっており、残りが、グラフ表示領域201になっている。
グラフ表示領域201には、関係グラフが表示される。
さらに、グラフ表示領域201には、俯瞰表示領域211を設けることができる。
図37では、グラフ表示領域201の右下に、俯瞰表示領域211が設けられている。
俯瞰表示領域211には、関係グラフの生成に用いられた、情報i1と情報i2とが関連付けられたDBに登録された情報i1すべてのノードが存在する関係グラフの全体が表示される。
DBに登録された情報i1すべてのノードが存在する関係グラフの全体は、ノードの数が膨大となることがあり、そのような関係グラフの全体を、グラフ表示領域201に表示したのでは、関係グラフが見にくくなるおそれがある。
そこで、グラフ表示領域201には、関係グラフの全体の一部分を、大きく表示することができる。この場合、俯瞰表示領域211には、その俯瞰表示領域211に表示されている関係グラフの全体のうちの、グラフ表示領域201に表示されている一部分を表す表示枠212を表示することができる。
表示枠212によれば、ユーザは、関係グラフの全体のどの部分が、グラフ表示領域201に表示されているかを、容易に認識することができる。
リスト表示領域202には、ランキングリストが表示される。
ここで、例えば、図35で説明したように、植生#iと他の植生#jとの関係を表す関係グラフ(関係スコア)によれば、植生#iと他の植生#jとの関係、すなわち、植生#iと他の植生#jとの関係スコアに基づいて、植生#iに対して、他の植生#jすべてをランキング付けすることができる。
リスト表示領域202には、そのような植生#jをランキング付けした植生(の植生名)のリストであるランキングリストが表示される。
なお、俯瞰表示領域211の表示や、ランキングリストの表示は、ユーザによる操作部34の操作に応じて、オン/オフすることができる。
以上のようなグラフ表示画面は、例えば、オープンソースソフトウェアパッケージであるGephiを用いて生成することができる。
図38は、Gephiによるグラフ表示画面の例を示す図である。
図38において(後述する図39ないし図41においても同様)、白丸は、植生のノードを表し、黒丸は、圃場のノードを表す。
図38のグラフ表示画面においては、植生/圃場DBを用いて生成された関係グラフが、植生"Diospyros"のノードを注目ノードとして、グラフ表示領域201に表示されている。
また、図38のグラフ表示画面においては、注目ノードが表す植生"Diospyros"に対してランキング付けした他の植生のランキングリストが、リスト表示領域202に表示されている。
なお、リスト表示領域202に表示されるランキングリストにおいては、植生の他に、注目ノードが表す植生"Diospyros"が観測された圃場も表示することができる。
図38では、ランキングリストにおいて、注目ノードが表す植生"Diospyros"が観測された圃場(及び日付)"20120329ise"と"20110402-20110403oiso"が、植生"Apis mellifera Linnaeus, 1758"の直後に表示されている。
図39は、図38の関係グラフにおいて、注目ノードが表す植生"Diospyros"が観測された圃場"20120329ise"を、新たな注目ノードの選択した場合のGephiによるグラフ表示画面の例を示す図である。
図40は、Gephiによるグラフ表示画面の他の例を示す図である。
Gephiの上部には、検索ボックスが設けられており、ユーザが、検索ボックスをクリック(又はタップ)すると、ノードが表す植生と圃場の一覧がプルダウンする形で表示される。ユーザは、その一覧の中から、植生又は圃場を選択することにより、その選択された植生又は圃場のノードを、注目ノードとすることができる。
図41は、Gephiによるグラフ表示画面のさらに他の例を示す図である。
図41では、俯瞰表示領域211に表示された関係グラフの全体のうちの、グラフ表示領域201に表示された関係グラフの部分を示すように、表示枠212が表示されている。
なお、関係グラフについては、端末12のユーザに関するユーザプロファイルを、例えば、端末12のストレージ33等に登録しておき、そのユーザプロファイルに基づいて、関係グラフを変更することができる。
例えば、ユーザプロファイルに基づいて、ユーザが植生等の種(species)に携わっている経験年数(例えば、ユーザが農業に携わっている経験年数等)を認識することができる場合には、その経験年数に基づいて、関係グラフ(の表示)を変更することができる。
具体的には、例えば、経験年数が長い学者レベルのユーザについては、DBに登録された植生すべてのノードを有する関係グラフを表示し、経験年数が浅い(又は)0の初心者レベルのユーザについては、DBに登録された植生のうちの、例えば、ランキングがベスト3の植生(関係スコアが高い上位3位の植生)のノードに限定した関係グラフを表示することができる。初心者レベルのユーザには、多くの植生(のノード)を表示すると、混乱するおそれがあり、その混乱を防止するためである。
また、関係グラフについては、ユーザプロファイルに基づいて、関係グラフを生成するのに用いるDBを選択することができる。
具体的には、例えば、ユーザプロファイルに基づいて、ユーザが主婦であることを認識することができる場合には、関係グラフの生成に、主婦向けのDBとしての、例えば、植生/レシピDBを選択することができる。また、例えば、ユーザプロファイルに基づいて、ユーザが農業従事者であることを認識することができる場合には、関係グラフの生成に、農業従事者向けのDBとしての、例えば、植生/圃場DBを選択することができる。
さらに、関係グラフの生成に用いるDBに登録されている植生等の種に関するコンテンツプロファイルが、例えば、インターネット24上のサイト等に存在する場合には、そのコンテンツプロファイルに基づいて、関係グラフを変更することができる。
例えば、ユーザプロファイルに基づいて、ユーザの経験年数を認識することができるとともに、コンテンツプロファイルに基づいて、DBに登録されている植生の知名度や希少性を認識することができる場合には、経験年数が長い学者レベルのユーザについては、DBに登録されている植生のうちの、知名度が低い植生や希少性が高い植生だけを選択して、その選択した植生のノードに限定した関係グラフを表示することができる。学者レベルのユーザは、知名度が高い植生や、希少性が低い植生には、それほど興味がないと思われるからである。
一方、経験年数が浅い初心者レベルのユーザについては、DBに登録されている植生のうちの、知名度が高い植生や希少性が低い植生だけを選択して、その選択した植生のノードに限定した関係グラフを表示することができる。初心者レベルのユーザは、知名度が低い植生や、希少性が高い植生には、それほど興味がないと思われるからである。
また、植生等の種が登録されたDBを用いて生成される関係グラフについては、ユーザプロファイルやコンテンツプロファイルに基づいて、種どうしの関係、すなわち、関係スコアを補正することができる。
例えば、ユーザプロファイルに基づいて、ユーザの経験年数を認識することができるとともに、コンテンツプロファイルに基づいて、DBに登録されている植生の知名度や希少性を認識することができる場合には、経験年数が長い学者レベルのユーザについては、DBに登録されている植生のうちの、知名度が低い植生や希少性が高い植生の関係スコアを高くするように補正することができる。
この場合、ランキングリストにおいて、知名度が低い植生や希少性が高い植生は、より上位にランキングされ、関係グラフにおいて、注目ノードに近い位置に表示される。
一方、経験年数が浅い初心者レベルのユーザについては、DBに登録されている植生のうちの、知名度が高い植生や希少性が低い植生の関係スコアを高くするように補正することができる。
この場合、ランキングリストにおいて、知名度が高い植生や希少性が低い植生は、より上位にランキングされ、関係グラフにおいて、注目ノードに近い位置に表示される。
図42は、グラフ表示画面を表示する処理の例を説明するフローチャートである。
ステップS201において、端末12のユーザは、操作部34を操作することにより、複数のDBの中から、関係グラフを生成するのに用いるDBである注目DBを選択する。
ステップS202において、端末12の通信部40は、注目DBの情報(注目DBを表す情報)を、サーバ13に送信する。
サーバ13の通信部67は、端末12からの注目DBの情報を受信し、ステップS211において、グラフ表示制御部72は、注目DBにアクセスして、その注目DBからバイパータイトグラフを生成する。
ステップS212において、グラフ表示制御部72は、注目DBのバイパータイトグラフから、関係グラフを表示したグラフ表示画面を生成する。
ステップS213において、通信部67は、グラフ表示制御部72が生成したグラフ表示画面を、端末12に送信する。
ステップS203において、端末12の通信部40は、サーバ13からのグラフ表示画面を受信し、取得部51は、そのグラフ表示画面を取得する。
ステップS204において、端末12の表示制御部52は、取得部51が取得したグラフ表示画面を、表示部35に表示する。
なお、上述の場合には、サーバ13において、注目DBのバイパータイトグラフから、グラフ表示画面を生成し、端末12に送信したが、サーバ13では、注目DBのバイパータイトグラフを、端末12に送信し、端末12では、取得部51において、サーバ13からのバイパータイトグラフから、グラフ表示画面を生成することにより取得することができる。
以上のように、種(species)と種以外の他の情報とが関連付けられたDBから得られる、他の情報を尺度とする種どうしの関係を表す、ノードとリンクで構成される関係グラフを表示する場合には、ユーザは、種どうしの関係を、知識として得て、その知識を、協生農法(登録商標)等の生態系活用に利用することができる。
<ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援の概要>
図43は、ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援の概要を説明する図である。
図1の生態系活用システムでは、端末12において、ARオブジェクトのAR表示/VR表示を行うことができ、このARオブジェクトのAR表示/VR表示を利用して、協生農法(登録商標)の支援を行うことができる。
ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援では、サーバ13は、センサ装置11や端末12から、生態系の様々な情報のサブセットを収集し、そのサブセットを、様々な尺度で整理するとともに、マルチパータイトグラフ等で関連付け、AR表示やVR表示で、端末12のユーザに提供する。
ここで、ARオブジェクトは、現実の実空間、実空間を撮影した撮影実空間(の画像)、又は、実空間をモデル化したVR空間(の画像)を、背景空間(の画像)として、その背景空間に重畳して表示される。
本明細書において、AR表示とは、ユーザがいる、いま現在の場所の実空間、撮影実空間、又は、VR空間を、背景空間として、その背景空間内に、ARオブジェクトを重畳して表示することを意味する。また、VR表示とは、任意の場所(及び必要な日時)を指定して、その指定した場所(及び日時)の撮影実空間、又は、VR空間を、背景空間として、その背景空間内に、ARオブジェクトを重畳して表示することを意味する。
したがって、AR表示は、例えば、端末12として、シースルー型のHMDが用いられる場合において、ユーザがシースルー型のHMDで直接見る実空間を背景空間として行うことができる。
また、AR表示は、例えば、端末12として、没入型のHMDや、スマートフォンが用いられる場合において、その場で実空間を撮影することにより得られる撮影実空間(の画像)や、その場の実空間をモデル化したVR空間(の画像)を、背景空間(の画像)として行うことができる。
一方、VR表示は、例えば、端末12において任意の位置(あるいは、圃場や、地域等)を指定位置として指定し、その指定位置の撮影実空間やVR空間を、背景空間(の画像)として、その背景空間を、サーバ13から取得して行うことができる。
なお、VR表示では、背景空間とする撮影実空間やVR空間の場所の他、日時を、必要に応じて指定することができる。日時として、過去の日時を指定することにより、過去の圃場(の画像)に、ARオブジェクトを重畳して表示することができる。
ここで、以下では、ARオブジェクトをAR表示で表示する表示モードを、ARモードともいい、ARオブジェクトをVR表示で表示する表示モードを、VRモードともいう。
表示モードは、例えば、ユーザの操作や端末12の仕様等によって設定される。例えば、端末12がシースルー型のHMDである場合には、表示モードは、ARモードに設定される。また、例えば、端末12が没入型のHMDである場合には、表示モードは、ユーザの操作等に応じて、VRモード又はARモードに設定することができる。
VRモードでは、サーバ13から端末12に対して、ARオブジェクトと背景空間とを、分けた状態で提供し、端末12において、ARオブジェクトを、背景空間内に重畳して表示することができる。また、VRモードでは、サーバ13において、ARオブジェクトを背景空間内にあらかじめ重畳して、端末12に提供し、端末12では、サーバ13から提供される、ARオブジェクトがあらかじめ重畳された背景空間を表示することができる。
ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援において、端末12を使用するユーザは、大きく、教師ユーザと生徒ユーザとの2種類のユーザに分けることができる。
生徒ユーザは、例えば、圃場で作業を行い、ARオブジェクトのAR表示/VR表示を見ることで、協生農法(登録商標)のアドバイスを受けるユーザである。
教師ユーザは、例えば、圃場から離れた遠隔地で、ARオブジェクトのAR表示/VR表示を見ることで、圃場の状況を認識し、ARオブジェクトの編集を行うことで、生徒ユーザに、協生農法(登録商標)のアドバイスを提供するユーザである。
端末12において、ARオブジェクトが表示されることで、教師ユーザは、生徒データに対して、協生農法(登録商標)の支援を、容易に行うことができ、生徒ユーザは、教師ユーザから、協生農法(登録商標)の支援を、容易に受けることができる。
ここで、生徒ユーザは、教師ユーザになることもあるし、教師ユーザは、生徒ユーザになることもある。
以下、端末12での各種の表示例について説明する。
なお、端末12(図3)では、取得部51が、サーバ13から、生態系オブジェクトや、タスクオブジェクト、背景空間、その他の表示に必要な情報を取得し、表示制御部52が、取得部51によって取得された情報を用いた表示制御を行うことで、以下説明する各種の表示が行われる。
また、端末12では、サーバ13から、所定のARオブジェクトや背景空間を、あらかじめダウンロードしておくことができる。この場合、端末12では、サーバ13からあらかじめダウンロードしたARオブジェクトや背景空間の範囲内において、サーバ13と通信せずに、スタンドアロンで、AR表示/VR表示を行うことができる。
<AR表示/VR表示の表示例>
図44は、端末12でのAR表示の表示例を示す図である。
図44では、ある圃場の実空間又は撮影実空間を背景空間として、その背景空間内に、ARオブジェクトが重畳されて表示されている。
ここで、ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援において用いるARオブジェクトは、そのARオブジェクトが表す対象の違いによって、生態系オブジェクトと、タスクオブジェクトとに分けられる。
生態系オブジェクトは、協生農法(登録商標)が行われる圃場、すなわち、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表し、生態系構成物に付与される。
圃場の生態系を構成する生態系構成物には、例えば、植生や、圃場の気候、昆虫その他の生物、圃場に配置されたセンサ装置11でセンシングされる温度等の圃場の環境の各種のセンサデータ等の、圃場の生態系を構成する様々な要素が該当する。例えば、圃場にある石や、夏至の日陰の到達点、水はけの良い場所/悪い場所等も、生態系構成物に該当する。
タスクオブジェクトは、生態系構成物について行うタスクを表す。生態系構成物について行うタスクとしては、例えば、生態系構成物としての植生の収穫や、植生の植え付け、伐採(除草)等がある。
ARオブジェクトは、以上のように、そのARオブジェクトが表す対象の違いによって、生態系オブジェクトと、タスクオブジェクトとに分けられる他、データのカテゴリによって、例えば、写真(のデータ)、アイコン(のデータ)、及び、センサデータ(を表すシンボル)に分けることができる。
生態系オブジェクトとしては、例えば、写真、アイコン、又は、センサデータが採用され、タスクオブジェクトとしては、例えば、アイコンが採用される。
図44では、端末12において、例えば、実際の圃場の実空間又は撮影実空間を背景空間として、その背景空間内に(存在するように)、生態系オブジェクトとしての写真が表示されている。
図44において、圃場には、マーカとしての画像が印刷された印刷物が設置されている。端末12では、例えば、カメラ37での圃場の撮影により得られる画像からマーカが検出され、そのマーカを基準とする相対的な位置に、写真の生態系オブジェクトが表示される。
写真の生態系オブジェクトが表示される、マーカを基準とする相対的な位置は、例えば、その写真に写っている植生等がある(観察された)位置(の近傍)になっている。
したがって、ユーザは、写真の生態系オブジェクトを見ることにより、その写真に映る植生が、その生態系オブジェクトの位置(付近)にあることを、容易に認識することができる。
また、ユーザは、複数の生態系オブジェクトの位置関係によって、その複数の生態系オブジェクトとしての写真それぞれに映る複数の植生の配置を、容易に認識することができる。
なお、図44では、生態系オブジェクトに、マーカが対応付けられており、生態系オブジェクトは、その生態系オブジェクトに対応付けられているマーカを基準とする相対的な位置に表示される。
1つのマーカは、1つの生態系オブジェクトに対応付けることもできるし、複数の生態系オブジェクトに対応付けることもできる。また、1つの生態系オブジェクトには、複数のマーカを対応付けることができる。
生態系オブジェクトに、複数のマーカを対応付ける場合には、その複数のマーカそれぞれを基準として、生態系オブジェクトを表示する位置を決定することができる。この場合、生態系オブジェクトを、その生態系オブジェクトが付与された生態系構成物、すなわち、その生態系オブジェクトが表す生態系構成物の位置に、精度良く表示することができる。
ここで、圃場に設置されたマーカについては、時の経過により、一部が破損することや傾くこと、成長した植生によって、一部が隠されること等がある。また、マーカは、必ずしも、全体が明瞭に映るように、正面から撮影されるとは限らず、斜め方向から撮影されることがある。
そのため、カメラ37での圃場の撮影により得られる画像にマーカが映っていても、その画像から、マーカが検出されるとは限らず、また、マーカが検出されても、マーカの検出精度が悪い場合がある。
この場合、表示されるべき生態系オブジェクトが表示されないことや、生態系オブジェクトが表示されても、本来表示すべき位置からずれた位置に表示されることがある。
生態系オブジェクトに、複数のマーカを対応付けることにより、上述のように、表示されるべき生態系オブジェクトが表示されないことや、生態系オブジェクトが、本来表示すべき位置からずれた位置に表示されることが生じることを抑制することができる。
図45は、端末12でのAR表示の表示例を示す図である。
図45では、端末12において、例えば、実際のオフィスの一室の実空間又は撮影実空間を背景空間として、その背景空間内に、生態系オブジェクトとしての写真が表示されている。
図45において、オフィスの一室には、マーカとしての印刷物が設置されている。端末12では、図44の圃場の場合と同様に、カメラ37でのオフィスの撮影により得られる画像からマーカが検出され、そのマーカを基準とする相対的な位置に、写真の生態系オブジェクトが表示される。
すなわち、図44で説明したように、生態系オブジェクトには、マーカが対応付けられており、生態系オブジェクトは、その生態系オブジェクトに対応付けられているマーカを基準とする相対的な位置に表示される。
いま、オフィスにおいて、図44の圃場に設置されたマーカと同一内容のマーカを設置することにより、ユーザは、圃場ではなく、圃場から離れた遠隔地のオフィスで、圃場で表示されるのと同様の生態系オブジェクトを見ることができる。
したがって、ユーザは、圃場から離れた遠隔地のオフィスで、例えば、圃場に植え付けされている植生や、圃場での植生の配置を、容易に認識することができる。
これにより、例えば、教師ユーザは、オフィスで、圃場に植え付けされている植生や、圃場での複数の植生の配置を認識した上で、圃場の生徒ユーザに、例えば、植生設計(戦略)のアドバイス等を行うことができる。
さらに、オフィスでは、複数のユーザが、それぞれの端末12を用いて、圃場の生態系オブジェクト(圃場の生態系構成物を表す生態系オブジェクト)を、同時に見ることができる。
したがって、複数のユーザは、オフィスに居ながら、例えば、実際の圃場の植生や、植生の配置を認識した上で、ある植生があることの適否や、植生の配置等について議論を行うことができる。
また、図45では、オフィスに、複数のマーカが設置されている。
オフィスに設置された複数のマーカは、それぞれ、例えば、異なる圃場に設置されたマーカと同一内容のマーカになっている。すなわち、図45において、例えば、マーカMは、ある圃場Fに設置されたマーカと同一内容のマーカになっており、マーカM'は、他の圃場F'に設置されたマーカと同一内容のマーカになっている。
その結果、図45では、オフィスにおいて、圃場Fの生態系オブジェクトと、他の圃場F'の生態系オブジェクトとが表示されている。
したがって、ユーザは、圃場F及びF'から離れた遠隔地のオフィスで、例えば、圃場F及びF'の植生や、植生の配置を、容易に認識し、圃場FとF'との間で、植生や植生の配置を比較することができる。
なお、例えば、圃場Fの生体系オブジェクトには、マーカMを対応付けるとともに、そのマーカMとは異なるマーカであるオフィスマーカを、さらに対応付けることができる。
この場合、オフィスでは、マーカMの他、オフィスマーカを設置することによっても、圃場Fの生態系オブジェクトを表示することができる。
さらに、圃場F'の生体系オブジェクトには、マーカM'を対応付けるとともに、そのマーカMとは異なる、上述のオフィスマーカを、さらに対応付けることができる。
オフィスマーカを、圃場Fの生態系オブジェクト、及び、圃場F'の生態系オブジェクトに対応付けた場合には、オフィスでは、オフィスマーカを設置することにより、圃場Fの生態系オブジェクト、及び、圃場F'の生態系オブジェクトを表示することができる。
なお、生態系オブジェクトを、マーカを利用して表示する場合には、マーカのサイズに応じて、生態系オブジェクトのサイズを変更して表示することができる。この場合、生態系オブジェクトを、例えば、マーカのサイズに比例するサイズで表示することができる。
また、図45では、マーカの正面側に、生態系オブジェクトが配置(表示)されているが、生態系オブジェクトの配置位置は、マーカの正面側に限定されるものではない。すなわち、生態系オブジェクトは、例えば、マーカの背面(裏面)側等の任意の位置に配置することができる。これにより、例えば、ある圃場に展望台がある場合には、その展望台内から撮影可能な位置に、マーカを設置し、展望台から、そのマーカを撮影することにより、展望台がある圃場に付与された生態系オブジェクトすべてを表示することができる。
図46は、端末12でのVR表示の表示例を示す図である。
図46では、ある圃場のVR空間又は撮影実空間を背景空間として、その背景空間内に、植生を表す生態系オブジェクトが重畳されて表示されている。
VR表示でも、AR表示の場合と同様に、背景空間において、マーカを設置し、そのマーカを基準とする相対的な位置に、そのマーカに対応付けられた生態系オブジェクトを表示することができる。
VR表示によれば、ユーザは、端末12を用い、任意の場所、かつ、任意のタイミングで、任意の場所、かつ、任意のタイミングの圃場等をモデル化したVR空間を背景空間として、その圃場の植生等の生態系構成物を表す生態系オブジェクトを見ることができる。
これにより、ユーザは、例えば、任意の場所、かつ、任意のタイミングの圃場の植生や、植生の配置を、容易に認識し、植生設計や、圃場の生徒ユーザへのアドバイスの検討を行うことができる。
なお、背景空間として、VR空間を採用する場合には、生態系オブジェクト(及びタスクオブジェクト)は、背景空間内に、マーカに応じて表示する他、背景空間の構成要素として、背景空間としてのVR空間に、あらかじめ含めておくこと(VR空間に、生態系オブジェクト等を、あらかじめ重畳しておくこと)ができる。
図47は、端末12でのAR表示の表示例を示す図である。
図47では、ある圃場の実空間又は撮影実空間を背景空間として、その背景空間内に、ARオブジェクトが重畳されて表示されている。
すなわち、図47では、図44と同様に、端末12において、例えば、実際の圃場の実空間又は撮影実空間を背景空間として、その背景空間内に(存在するように)、生態系オブジェクトとしての写真が、マーカに応じて表示されている。
さらに、図47では、端末12において、タスクオブジェクトが、圃場の背景空間内に(存在するように)表示されている。
図47では、タスクオブジェクトとして、果実が表示されたアイコンと、矢印形状のアイコンとが表示されている。
タスクオブジェクトとしての果実が表示されたアイコンは、そのタスクオブジェクトに近接する生態系オブジェクトが表す植生を収穫するタスクを表す。
したがって、圃場のユーザは、現実の圃場において、タスクオブジェクトとしての果実が表示されたアイコンを見ることで、そのタスクオブジェクトに近接する生態系オブジェクトが表す植生を収穫すべきことを認識することができる。
タスクオブジェクトとしての矢印形状のアイコンは、タスクオブジェクトとしての果実が表示されたアイコンと同様に、植生を収穫するタスクを表すとともに、その収穫の順番を表す。
圃場のユーザは、現実の圃場において、タスクオブジェクトとしての矢印形状のアイコンを見ることで、植生の収穫を行う順番を認識することができる。
図48は、端末12でのVR表示の表示例を示す図である。
図48では、ある圃場のVR空間を背景空間として、その背景空間内に、センサデータを表す生態系オブジェクトが、マーカに応じて表示されている。
圃場では、センサ装置11によって、例えば、各場所の土壌の硝酸濃度や、導電率、土壌硬度等の、圃場の環境情報がセンシングされ、図48では、そのセンシングにより得られるセンサデータを表す生態系オブジェクトが、マーカに応じて、センサデータが得られた実際の位置に対応する背景空間内の位置に表示されている。
図48では、センサデータの生態系オブジェクトとして、例えば、半球状のシンボルが採用されている。
半球状のシンボルは、例えば、硝酸濃度や、導電率、土壌硬度等のセンサデータの値に応じた大きさや色の濃さで表示することができる。また、半球状のシンボルは、例えば、硝酸濃度や、導電率、土壌硬度等のセンサデータの種類に応じた色で表示することができる。
教師ユーザは、例えば、圃場から離れた遠隔地において、その圃場を背景空間とするセンサデータの生態系オブジェクトを見ることで、圃場の環境を認識し、その環境に適した植生設計や、環境の変更等を、圃場の生徒ユーザにアドバイスすることができる。
なお、以上においては、背景空間において、マーカに対応付けられた生態系オブジェクトを、そのマーカを基準とする相対的な位置に表示することとしたが、生態系オブジェクトには、GPS座標等の絶対的な位置を表す位置情報を対応付けておき、その位置情報が表す絶対的な位置に、生態系オブジェクトを表示することができる。
図49は、端末12での生態系オブジェクトのタイムラプスモードの表示の表示例を示す図である。
タイムラプスモードでは、端末12において、ある圃場等の1の場所(範囲)で撮影された写真の生態系オブジェクトが、1軸に沿って、すなわち、例えば、時間軸に沿って表示される。
図49では、例えば、下から上に向かう方向を、時間の経過として、ログスケールの時間軸が設けられている。
さらに、図49では、所定の位置の圃場を、注目圃場として、その注目圃場のVR空間(の画像)が、時間軸をほぼ2等分する位置に表示されている。
そして、時間軸に沿って、注目圃場で撮影された写真の生態系オブジェクトが、渦巻き状に配置されて表示されている。
ここで、注目圃場としては、例えば、端末12(のユーザ)の現在地、又は、ユーザが端末12を操作することで指定した位置の圃場を採用することができる。また、注目圃場としては、例えば、端末12のユーザが端末12を操作することで指定した生態系オブジェクトとしての写真が撮影された圃場を採用することができる。
いま、注目圃場のVR空間が表示されている時間軸の位置の日付を、注目日付ということとすると、タイムラプスモードの表示では、注目圃場のVR空間が表示されている位置に、注目日付に注目圃場で撮影された写真の生態系オブジェクトが表示される。
そして、注目圃場のVR空間が表示されている位置より下の位置には、注目日付より過去に注目圃場で撮影された写真の生態系オブジェクトが表示される。また、注目圃場のVR空間が表示されている位置より上の位置には、注目日付より未来に注目圃場で撮影された写真の生態系オブジェクトが表示される。
注目日付は、例えば、図49のタイムラプスモードの表示の表示画面を垂直方向にドラッグ(スワイプ)操作することで変更することができる。
また、ユーザは、端末12を操作して、タイムラプスモードで表示された写真の生態系オブジェクトのうちのいずれかの生態系オブジェクトを、選択オブジェクトとして選択することができる。
ここで、サーバ12において、生態系オブジェクトには、その生態系オブジェクトが表す生態系構成物に関連する関連情報をリンクさせておくことができる。関連情報としては、協生農法(登録商標)CMS71がアクセス可能な協生農法(登録商標)DB等のDB(以下、CMSデータベースともいう)に記憶された情報や、関係グラフのノードとなる情報を採用することができる。
端末12において、選択オブジェクトが選択された場合には、その選択オブジェクトにリンクされている関連情報を表示することができる。
また、端末12では、選択オブジェクトが表す生態系構成物が存在する他の圃場(農園)に関する情報を表示することができる。
すなわち、端末12では、例えば、選択オブジェクトが表す生態系構成物が、植生である場合に、その植生と同一の植生が存在する、注目圃場に近い他の圃場の情報を表示する同一植生圃場情報表示を行うことができる。
図50は、端末12で行われる同一植生圃場情報表示の表示例を示す図である。
図50では、注目圃場のVR空間を背景空間として、その背景空間内に、選択オブジェクトとしての写真の生態系オブジェクトが重畳されて表示されている。
すなわち、図50では、図48等と同様に、端末12において、例えば、実際の圃場をモデル化したVR空間を背景空間として、その背景空間内に(存在するように)、生態系オブジェクトとしての写真が、マーカに応じて表示されている。
さらに、図50では、端末12において、注目圃場の選択オブジェクトが表す植生と同一の植生が存在する他の圃場の情報である同一植生圃場情報が、背景空間に重畳されて表示されている。
図50の同一植生圃場情報は、注目圃場の選択オブジェクトが表す植生と同一の植生が存在する、注目圃場に近い他の圃場として、伊勢及び大磯の圃場(農園)があることを表す文字列"Ise"と"Oiso"を含んでいる。さらに、図50の同一植生圃場情報は、伊勢の圃場が、図50の同一植生圃場情報表示の背景空間の左奥方向に位置することを表す矢印と、大磯の圃場が、図50の同一植生圃場情報表示の背景空間の右手前方向に位置することを表す矢印とを含んでいる。
ユーザは、図50の同一植生圃場情報を見ることにより、選択オブジェクトが表す植生と同一の植生が存在する他の圃場を、容易に認識することができる。
ユーザは、端末12を操作することにより、図50の同一植生圃場情報表示で表示されている他の圃場を、選択圃場として選択することができる。
端末12では、ユーザが他の圃場を、選択圃場として選択すると、表示部35の表示が、図50の注目圃場の同一植生圃場情報表示から、所定の遷移表示を経由して、選択圃場の表示に遷移する。
これにより、例えば、ある圃場Aのユーザは、圃場Aに存在する植生と同一の植生が存在する他の圃場Bの状態を、容易に確認することができる。
また、例えば、教師ユーザは、ある圃場Aと、その圃場Aに存在する植生と同一の植生が存在する他の圃場Bとの状態を比較し、植生設計等に役立てることができる。
図51は、端末12で行われる遷移表示の表示例を示す図である。
遷移表示では、図50の注目圃場の表示から、徐々に引いていく画面になり、その後、注目圃場がある国や地球全体を俯瞰する俯瞰画面となる。そして、遷移表示では、俯瞰画面から、徐々に、選択圃場に寄っていく画面になり、最終的には、選択圃場の表示、すなわち、選択圃場のVR空間を背景空間とする表示になる。
図51は、以上のような遷移表示の1シーンである俯瞰画面の例を示している。
図51の俯瞰画面では、日本全体(とユーラシア大陸の一部)が表示されている。さらに、俯瞰画面では、その俯瞰画面に映る各地域の位置に、その地域の気温や降水量等の環境情報が、棒グラフや色によって表示されている。
したがって、ユーザは、遷移表示を見ることにより、例えば、注目圃場及び選択圃場の環境や、注目圃場から選択圃場に至るまでの間の地域の環境の概略を、視覚的に把握することができる。
なお、遷移表示には、例えば、グーグル社が提供するグーグルアース(登録商標)を利用することができる。
図52は、図51の遷移表示を経由して最終的に到達する選択圃場の表示の表示例を示す図である。
すなわち、端末12でのVR表示の表示例を示す図である。
図52では、選択圃場のVR空間を背景空間として、その背景空間内に、生態系オブジェクトE1,E2,E3,E4,E5が、マーカに応じて表示されている。
生態系オブジェクトE1は、例えば、生態系構成物としての植生を撮影した写真の生態系オブジェクトであり、その植生の位置に表示されている。
生態系オブジェクトE2及びE3は、例えば、生態系構成物としての土壌の質(例えば、植生が育ち易いや、育ちにくい等)を表すアイコンの生態系オブジェクトであり、該当する土壌の位置に表示されている。
生態系オブジェクトE4は、例えば、生態系構成物としての蜂の巣を表すアイコンの生態系オブジェクトであり、蜂の巣がある位置に表示されている。
生態系オブジェクトE5は、例えば、生態系構成物としての、圃場の危険なエリアや警戒すべきエリアを表すアイコンの生態系オブジェクトであり、危険なエリア(危険エリア)や警戒すべきエリア(警戒エリア)の位置(範囲)に表示されている。
図52では、生態系オブジェクトE4が表す蜂の巣を中心とする円状のエリアが、生態系オブジェクトE5が表す危険エリア、及び、警戒エリアになっている。
なお、危険エリアと警戒エリアとでは、危険エリアの方が、警戒エリアよりも、危険度が高い。
図52では、生態系オブジェクトE4が表す蜂の巣を中心とする円状のエリアのうちの、外周部分のドーナツ形状のエリアが、警戒エリアになっており、中心部分の円状のエリアが、危険エリアになっている。
なお、図52では、VR表示を行うこととしたが、図52の生態系オブジェクトE1ないしE5は、選択圃場において、AR表示を行うことができる。
この場合、選択圃場で実際に作業しているユーザは、例えば、土壌の質を表す生態系オブジェクトE2及びE3を見ることで、植生を植え付ける場所を検討することができる。
さらに、ユーザは、例えば、蜂の巣を表す生態系オブジェクトE4や、危険エリア及び警戒エリアを表す生態系オブジェクトE5を見ることで、蜂を避けて、安全に作業を行うことができる。
なお、端末12のユーザが、選択圃場で実際に作業をしている場合において、ユーザが、蜂の巣を表す生態系オブジェクトE4や、危険エリア及び警戒エリアを表す生態系オブジェクトE5に気づかずに、危険エリア又は警戒エリアに侵入したときには、端末12は、音やバイブレーションで、危険エリア又は警戒エリアに侵入したことを、ユーザに報知することができる。
図53は、端末12での関連情報の表示例を示す図である。
図49で説明したように、生態系オブジェクトは、協生農法(登録商標)DB等のCMSデータベースの情報のうちの、その生態系オブジェクトが表す生態系構成物に関連する関連情報にリンクさせておくことができる。
そして、図49のタイムラプスモードの表示において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択した場合には、端末12では、その選択オブジェクトにリンクされている関連情報を表示することができる。
図53は、以上のようにして端末12で表示される関連情報の表示例を示している。
図53では、関連情報の一覧が、webページの形で表示されている。
図54は、端末12でのセンサデータの解析結果の表示例を示す図である。
端末12は、例えば、ユーザの操作に応じて、センサデータの各種の解析を、サーバ13に要求することができる。
サーバ13(図4)では、解析部76が、端末12からの要求等に応じて、センサデータの解析を行い、その解析結果を、端末12に提供(送信)する。
端末12では、サーバ13から提供される、センサデータの解析結果が表示される。
サーバ13において、解析部76では、例えば、気温等の環境の情報に応じて、1年を、例えば、3シーズンや、4シーズン、5シーズン等に分ける解析等を行うことができ、図54は、そのような解析の解析結果の表示例を示している。
<生態系オブジェクトのコピー>
図55は、生態系オブジェクトのコピーを説明する図である。
サーバ13(図4)では、編集部75において、ユーザによる端末12の操作に応じて、ストレージ63に登録されたARオブジェクトの編集を行うことができる。
ARオブジェクトの編集としては、例えば、生態系オブジェクトのコピーがある。生態系オブジェクトのコピーでは、例えば、ある圃場Aの生態系オブジェクトが、他の圃場Bにコピーされる。
生態系オブジェクトのコピーを行う場合、端末12では、複数としての、例えば、2つの圃場A及びBのVR空間のそれぞれを背景空間として、VR表示が行われる。
図55において、圃場Aでは、生態系構成物としての白菜、ヨモギ、ニラ、及び、蜂が観察され、それぞれの生態系構成物が観察された圃場Aの背景空間の位置に、それぞれの生態系構成物を表す生態系オブジェクトが配置されている。
一方、圃場Bには、まだ、生態系オブジェクトが付与されておらず、そのため、圃場Bの背景空間には、生態系オブジェクトが配置されていない。
サーバ13において、生態系オブジェクトのコピーは、例えば、以上のように、端末12で、2つの圃場A及びB等の2以上の圃場がVR表示された状態で、端末12のユーザの操作に従って行われる。
すなわち、端末12のユーザは、コピーの対象となる生態系オブジェクトを指定するとともに、その生態系オブジェクトのコピー先の位置を指定するコピー操作を行う。
例えば、圃場Aの生態系オブジェクトのうちの、ヨモギを表す生態系オブジェクトを、圃場Bにコピーする場合には、端末12のユーザは、圃場Aのヨモギを表す生態系オブジェクトを、圃場Bの背景空間にドラッグすることで、コピーの対象となる生態系オブジェクトを指定するとともに、その生態系オブジェクトのコピー先の位置を指定することができる。
すなわち、この場合、端末12では、ドラッグがされた圃場Aのヨモギを表す生態系オブジェクトが、コピーの対象となる生態系オブジェクトとして認識され、ドラッグが終了された圃場Bの背景空間内の位置が、生態系オブジェクトのコピー先の位置として認識される。
例えば、圃場Bのユーザが、圃場Bにおいて、ヨモギを観察した場合、圃場Aの生態系オブジェクトのうちの、ヨモギを表す生態系オブジェクトを、圃場Bのヨモギを観察した位置にコピーすることができる。この場合、圃場Bのユーザは、圃場Bのヨモギに、そのヨモギを表す生態系オブジェクトを、容易に付与することができる。
また、例えば、教師ユーザが、例えば、圃場Bで作業を行う生徒ユーザに、植生設計のアドバイスとして、ヨモギの植え付けを指示する場合、圃場Aの生態系オブジェクトのうちの、ヨモギを表す生態系オブジェクトを、ヨモギを植え付けるべき圃場Bの位置にコピーすることができる。この場合、教師ユーザは、生徒ユーザに、ヨモギの植え付けを、容易にアドバイスすることができる。
ここで、例えば、上述のように、教師ユーザが生徒データにアドバイスを行うために、生態系オブジェクトのコピーを行う場合、サーバ13では、そのコピーの対象の生態系オブジェクトが表す生態系構成物について行うべきタスクを表すタスクオブジェクトを追加(登録)することができる。
すなわち、例えば、圃場Bに、ヨモギを表す生態系オブジェクトが付与されていない場合において、圃場Aのヨモギを表す生態系オブジェクトが、圃場Bにコピーされたときには、サーバ13において、編集部75は、圃場Bにコピーがされた生態系オブジェクト(以下、コピーオブジェクトともいう)が表すヨモギについて行うべきタスクを特定する。
そして、編集部75は、ヨモギについて行うべきタスクを表すタスクオブジェクトを生成し(生成部73にタスクオブジェクトを生成させ)、ストレージ63に登録する。
さらに、サーバ13では、AR/VR表示制御部74が、ストレージ63に登録されたタスクオブジェクトを、端末12に表示させる。
これにより、端末12では、圃場Bのヨモギを表すコピーオブジェクトとしての生態系オブジェクトの近くに、そのヨモギについて行うべきタスクを表すタスクオブジェクトが表示される。
図55では、ヨモギについて行うべきタスクとして、ヨモギの植え付けを表すタスクオブジェクトが表示されている。
以上のように、圃場Bに付与された、ヨモギを表すコピーオブジェクトとしての生態系オブジェクト、及び、植え付けを表すタスクオブジェクトは、圃場Bのユーザが、圃場Bで実際に作業をするときに、圃場Bのユーザの端末12でAR表示することができる。
この場合、圃場Bのユーザは、ヨモギを表すコピーオブジェクトとしての生態系オブジェクト、及び、植え付けを表すタスクオブジェクトを見て、ヨモギを表すコピーオブジェクトが表示された位置に、ヨモギの植え付けを行うべきことを、容易に認識することができる。
なお、図55では、圃場Aの生態系オブジェクトを、他の圃場Bにコピーする場合を説明したが、生態系オブジェクトのコピーとしては、その他、例えば、圃場Aのある位置の生態系オブジェクトを、圃場Aの他の位置にコピーすること等が可能である。
<表示スケールの変更>
図56は、端末12での背景空間の表示スケールの変更の例を示す図である。
端末12において、撮影実空間又はVR空間を背景空間として、AR表示、又は、VR表示が行われる場合には、背景空間(の画像)については、表示スケールを、ユーザの操作等に応じて変更することができる。
図56は、表示スケールとしての縮尺を小さくした背景空間Baと、縮尺を大きくした背景空間Bbとの例を示している。
図56において、背景空間Baは、ある圃場を俯瞰するような画像になっており、背景空間Bbは、背景空間Baの一部を拡大した画像になっている。
図57は、端末12での背景空間の表示スケールの変更に伴う、ARオブジェクトの表示の変更の例を示す図である。
図57では、ARオブジェクト(生態系オブジェクト、タスクオブジェクト)が、図56と同一の背景空間BaやBbに重畳されて表示されている。
ここで、ある圃場を俯瞰したような画像である背景空間Baに重畳して、その圃場に付与されたARオブジェクトすべてを表示した場合には、ARオブジェクトの数が多すぎて、表示が見にくくなることがある。
そこで、表示スケールとしての縮尺が小さい場合、すなわち、例えば、ある圃場を俯瞰したような画像である背景空間Baが表示される場合には、その背景空間Baに映っている圃場に付与されたARオブジェクトを間引いて表示することができる。
また、表示スケールとしての縮尺が大きい場合、すなわち、例えば、背景空間Baの一部を拡大した画像である背景空間Bbが表示される場合には、その背景空間Bbに映っている圃場に付与されたARオブジェクトを間引かずに表示することができる。
以上のように、表示スケールとしての縮尺が小さい場合に、ARオブジェクトを間引いて表示することで、ARオブジェクトの数が多すぎて、表示が見にくくなることを防止することができる。
なお、ARオブジェクトを、どの程度間引くかは、例えば、表示スケールや、背景空間に映る圃場に付与されたARオブジェクトの数に応じて設定することができる。
また、ARオブジェクトの間引きについては、1画面に表示するARオブジェクトの最大数を設定しておき、その最大数以下の数になるように、ARオブジェクトの間引きを行うことができる。
<複数の圃場それぞれを背景空間とするVR表示>
図58は、複数の圃場それぞれを背景空間とするVR表示の例を示す図である。
図55での生態系オブジェクトのコピーで説明したように、端末12では、2つの圃場のVR空間のそれぞれを背景空間として、VR表示を行うことができる。
さらに、端末12では、2つに限らず、3つ以上の圃場のVR空間のそれぞれを背景空間として、VR表示を同時に行うことができる。
端末12において、複数の圃場のVR空間のそれぞれを背景空間として、VR表示を行う場合には、その複数の圃場それぞれのVR表示は、並べて表示することができる。
図58では、2つの圃場それぞれが映る背景空間Bb及びBcが、並べてVR表示されている。
端末12では、以上のように、複数の圃場それぞれのVR表示を並べて表示する他、例えば、複数の圃場それぞれのVR表示を、所定の透過度で重ねて表示することができる。
端末12において、複数の圃場のVR空間のそれぞれを背景空間として、VR表示を行うことにより、例えば、その複数の圃場それぞれに存在する植生等を比較することを、容易に行うことができる。
なお、複数の圃場それぞれが映る背景空間(にARオブジェクトを重畳したVR表示)の表示スケールは、図56及び図57で説明したように変更することができる。
表示スケールの変更により、広い圃場と狭い圃場とを、表示上のサイズが一致するように表示することで、例えば、広い圃場の植生分布と、狭い圃場の植生分布とを比較することを、容易に行うことができる。
また、複数の圃場それぞれを背景空間とするVR表示(以下、複数圃場表示ともいう)を同時に行う場合には、その複数圃場表示の対象とする複数の圃場として、位置(場所)が異なる圃場は勿論、位置は同一であるが時刻が異なる圃場を採用することができる。
すなわち、複数圃場表示では、例えば、ある圃場の現在の状態と、その圃場の過去の状態とのそれぞれを背景空間とするVR表示を行うことができる。また、例えば、ある圃場のある過去の時点の状態と、その圃場の他の過去の時点の状態とのそれぞれを背景空間とするVR表示を行うことができる。
この場合、例えば、ある圃場の異なる時点での植生どうしを比較することを、容易に行うことができる。
<生態系オブジェクトへのマーカの対応付け>
図59は、生態系オブジェクトへのマーカの対応付けの例を説明する図である。
サーバ13において、生成部73は、例えば、ユーザによる端末12の操作に従って、生態系オブジェクトを生成し、必要に応じて、その生態系オブジェクトに、マーカを対応付ける。
図44等で説明したように、端末12において、生態系オブジェクトは、その生態系オブジェクトに対応付けられているマーカを基準とする相対的な背景空間内の位置に表示(配置)することができる。
図59に示すように、1個のマーカM1は、1個の生態系オブジェクトobj1に対応付けることができる。
さらに、1個のマーカは、複数の生態系オブジェクトに対応付けることができる。すなわち、例えば、図59に示すように、1個のマーカM1は、複数としての3個の生態系オブジェクトobj1,obj2,obj3に対応付けることができる。
マーカM1が、1個の生態系オブジェクトobj1に対応付けられている場合、端末12において、カメラ37での撮影により得られる画像からマーカM1が検出されると、そのマーカM1を基準とする相対的な位置に、マーカM1に対応付けられている1個の生態系オブジェクトobj1が表示される。
また、マーカM1が、3個の生態系オブジェクトobj1ないしobj3に対応付けられている場合、端末12において、カメラ37での撮影により得られる画像からマーカM1が検出されると、そのマーカM1を基準とする相対的な位置に、マーカM1に対応付けられている3個の生態系オブジェクトobj1ないしobj3が表示される。
生態系オブジェクトobj1ないしobj3を表示する、マーカM1を基準とする相対的な位置は、生態系オブジェクトobj1ないしobj3それぞれごとに、別個に設定することができる。
以上のように、1個のマーカは、複数の生態系オブジェクトに対応付けることができるので、例えば、1個のマーカは、1つの圃場に付与された生態系オブジェクトの一部又は全部に対応付けること等ができる。
図60は、生態系オブジェクトへのマーカの対応付けの例を説明する図である。
1個の生態系オブジェクトには、複数の異なるマーカを対応付けることができる。
図60では、生態系オブジェクトobj1ないしobj3のそれぞれに、マーカM1及びM2のそれぞれが対応付けられている。
生態系オブジェクトobj#i(ここでは、i=1,2,3)に、マーカM1及びM2のそれぞれを対応付ける場合、マーカM1を基準とする、生態系オブジェクトobj#iを表示する相対的な位置と、マーカM2を基準とする、生態系オブジェクトobj#iを表示する相対的な位置とは、同一位置に設定されるが、異なる位置に設定することもできる。
以上のように、生態系オブジェクトobj#iに、マーカM1及びM2のそれぞれを対応付ける場合には、マーカM1及びM2のうちの一方である、例えば、マーカM1を、生態系オブジェクトobj#iが表す生態系構成物が存在する圃場に設置し、その圃場において、生態系オブジェクトobj#iをAR表示することができる。
さらに、マーカM1及びM2のうちの他方であるマーカM2については、例えば、教師ユーザが、任意の場所にマーカM2を設置することにより、その任意の場所において、生態系オブジェクトobj#iをAR表示することができる。
したがって、教師ユーザは、生態系オブジェクトobj#iが表す生態系構成物が存在する圃場から離れた遠隔地において、その農園に存在する生態系構成物を表す生態系オブジェクトobj#iを見ることができる。
これにより、教師ユーザは、圃場から離れた遠隔地において、圃場に植え付けされている植生や、圃場での植生の配置を、容易に認識し、圃場の生徒ユーザに、例えば、植生設計のアドバイス等を行うことができる。
なお、生態系オブジェクトには、2個の異なるマーカを対応付ける他、3個以上の異なるマーカを対応付けることができる。
図61は、マーカの設置位置の変更を説明する図である。
図44等で説明したように、端末12において、生態系オブジェクトは、その生態系オブジェクトに対応付けられているマーカを基準とする相対的な背景空間内の位置に表示(配置)される。
図61では、マーカの位置Paを基準として、ベクトルVaだけ離れた位置Pbに、生態系オブジェクトが表示されている。
以上のように、生態系オブジェクトは、マーカを基準とする相対的な位置に表示されるので、マーカが移動されると、生態系オブジェクトが表示される絶対的な位置も、マーカの移動に応じて移動する。
ところで、例えば、圃場では、マーカの設置後に、そのマーカの設置位置を移動したい場合がある。
しかしながら、マーカを移動すると、上述のように、マーカの移動に応じて、生態系オブジェクトが表示される位置が移動する。この場合、例えば、現実の圃場を背景空間とするAR表示において、生態系オブジェクトが、その生態系オブジェクトが表す生態系構成物とは関係ない位置に表示される。
そこで、マーカの移動は、マーカの移動前と移動後とで、そのマーカが対応付けられている生態系オブジェクトが表示される(絶対的な)位置が変更されない位置不変モードで行うことができる。
いま、上述したように、移動前のマーカに対しては、マーカの位置Paを基準として、ベクトルVaだけ離れた位置Pbに、生態系オブジェクトが表示されることとする。
位置不変モードで、マーカが、位置Paから、ベクトルVbだけ離れた位置Pcに移動された場合、移動後のマーカに対しては、移動後の位置Pcを基準として、ベクトルVc=Va-Vbだけ離れた位置に、生態系オブジェクトが表示される。
マーカの移動後の位置Pc(=Pa+Vb)から、ベクトルVc(=Va-Vb)だけ離れた位置Pc+Vc=(Pa+Vb)+(Va-Vb)は、マーカの移動前の位置Paから、ベクトルVaだけ離れた位置Pb=Pa+Vaであるので、マーカに対応付けられている生態系オブジェクトは、マーカの移動後も、マーカの移動前と同一の位置Pbに表示される。
したがって、位置不変モードによれば、マーカの移動に起因して、例えば、現実の圃場を背景空間とするAR表示において、生態系オブジェクトが、その生態系オブジェクトが表す生態系構成物とは関係ない位置に表示されることを防止することができる。
なお、位置不変モードでは、サーバ13において、移動後のマーカの位置Pcを基準とする、生態系オブジェクトを表示する位置としてのベクトルVc=Va-Vbが求められる。そして、生態系オブジェクトは、移動後のマーカの位置Pcを基準として、ベクトルVcだけ離れた位置、すなわち、移動前のマーカに対する場合と同一の位置Pbに表示される。
<圃場全体に関する生態系構成物を表す生態系オブジェクトの表示>
図62は、圃場全体に関する生態系構成物を表す生態系オブジェクトの表示例を示す図である。
図62では、ある圃場A(の実空間、撮影実空間、又は、VR空間)を背景空間として、生態系オブジェクトが表示されている。
さらに、図62では、白菜、ヨモギ、ニラ、蜂の巣、圃場Aの硝酸濃度、含有水分量、及び、気候それぞれを表す生態系オブジェクトが表示されている。
白菜、ヨモギ、ニラ、蜂の巣の生態系オブジェクトは、圃場Aにおいて、白菜、ヨモギ、ニラ、蜂の巣が存在する位置(付近)に表示されている。
一方、圃場Aの硝酸濃度、含有水分量、及び、気候それぞれを表す生態系オブジェクトは、圃場Aの全体に関する生態系構成物を表す生態系オブジェクト(以下、全体オブジェクトともいう)であるため、圃場Aの背景空間が表示される表示部35の表示画面の固定の位置(図62では、表示画面の右端の位置)に表示されている。
いま、例えば、端末12がシースルー型のHMDであり、そのシースルー型のHMDにおいて、圃場Aの実空間を背景空間として、その背景空間に、生態系オブジェクトが重畳されてAR表示されていることとする。この場合、ユーザが、端末12としてのシースルー型のHMDを装着したまま、例えば、右方向に、首を傾けると、表示画面に映る(ユーザの視界に入る)背景空間は、ユーザが首を傾ける前よりも、圃場Aの右側の範囲に移動する。
その結果、ユーザが首を傾けた後の表示画面に映る背景空間において、白菜、ヨモギ、ニラ、蜂の巣が存在する位置は、ユーザが首を傾ける前よりも、左側に移動する。そのため、それらの白菜、ヨモギ、ニラ、及び、蜂の巣それぞれを表す生態系オブジェクトが表示される位置も、左側に移動する。
一方、圃場Aの硝酸濃度、含有水分量、及び、気候それぞれを表す全体オブジェクトは、表示画面の固定の位置に表示されるため、ユーザが首を傾けた後も、ユーザが首を傾ける場合と同一の位置、すなわち、図62では、表示画面の右端の位置に表示される。
以上のように、端末12(の表示制御部52)において、圃場Aを背景空間として、AR表示又はVR表示が行われる場合には、その圃場Aの全体に関する生態系構成物を表す全体オブジェクトを、表示画面の固定の位置に表示することができる。
これにより、圃場Aを背景空間として、AR表示又はVR表示が行われる場合、ユーザは、圃場Aの全体に関する生態系構成物としての、例えば、硝酸濃度、含有水分量、及び、気候等については、任意のタイミングで認識することができる。
なお、全体オブジェクトについては、例えば、ユーザの操作に応じて、その表示をオン/オフさせることができる。
<関連情報の表示>
図63は、端末12での関連情報の表示を説明する図である。
図49で説明したように、生態系オブジェクトは、その生態系オブジェクトが表す生態系構成物に関連する関連情報にリンクさせておくことができる。関連情報としては、例えば、協生農法(登録商標)CMS71がアクセス可能な協生農法(登録商標)DB等のCMSデータベースに記憶された情報や、図24ないし図41で説明した関係グラフのノードとなる情報等を採用することができる。
そして、例えば、図53で説明したように、図49のタイムラプスモードの表示において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択した場合には、端末12では、その選択オブジェクトにリンクされている関連情報を表示することができる。
図63では、端末12において、ユーザの操作に応じて、タイムラプスモードの表示(図49)の中から、ある生態系オブジェクトが、選択オブジェクトとして選択されている。
図63では、選択オブジェクトが、ある植生を表す生態系オブジェクトになっている。
端末12は、選択オブジェクトを、例えば、ユーザの操作等に応じて、サーバ13に送信し、サーバ13は、端末12からの選択オブジェクトが表す植生に関連する関連情報としての植生(以下、関連植生ともいう)を、関係グラフから特定する。
すなわち、サーバ13では、グラフ表示制御部72が、例えば、関係グラフ(バイパータイトグラフ)等のマルチパータイトグラフにおいて、選択オブジェクトが表す植生(のノード)とリンクされている(ノードの)植生を、関連植生として特定する。
さらに、サーバ13では、協生農法(登録商標)CMS71が、CMSデータベースから、関連植生の情報、すなわち、例えば、関連植生の写真や名称等を検索し、webページの形で、端末12に送信する。
これにより、端末12では、図53で説明したように、関連植生の一覧が、その関連植生の情報(写真等)とともに、webページの形で表示される。
したがって、端末12のユーザは、選択オブジェクトを選択するだけで、その選択オブジェクトが表す植生に関連する植生の情報を、容易に入手することができる。
<AR表示又はVR表示を行うARオブジェクトの選択>
図64は、AR表示又はVR表示を行うARオブジェクトの選択の例を説明する図である。
端末12において、表示部35の表示画面に、背景空間と重畳してAR表示又はVR表示を行うARオブジェクト(以下、表示対象オブジェクトともいう)は、適宜、選択すること、すなわち、変更することができる。
例えば、端末12では、その端末12のユーザの協生農法(登録商標)に対する熟練度に応じて、表示対象オブジェクトを選択(変更)することができる。
ここで、端末12のユーザの熟練度は、ユーザに、そのユーザのプロファイルをあらかじめ入力してもらい、端末12やサーバ13に登録しておくことで、そのプロファイルに基づいて認識することができる。
図64のAは、初心者のユーザ向けのAR表示又はVR表示の表示例を示している。
図64のAでは、ある圃場Aを背景空間として、生態系オブジェクトobjES1,objES2,objES3、及び、objES4、並びに、タスクオブジェクトobjT1,objT2,objT3,objT12、及び、objT23が表示されている。
生態系オブジェクトobjES1及びobjES3は、白菜を表す。生態系オブジェクトobjES2は、ニラを表し、生態系オブジェクトobjES4は、ヨモギを表す。
タスクオブジェクトobjT1ないしobjT3は、植生の収穫を表し、タスクオブジェクトobjT12及びobjT23は、収穫の順番を表す。
初心者のユーザは、生態系オブジェクトobjES1ないしobjES4を見ることにより、その生態系オブジェクトobjES1ないしobjES4それぞれが表す白菜等の植生が存在する圃場A内の位置を、容易に認識することができる。さらに、初心者のユーザは、タスクオブジェクトobjT1ないしobjT3、及び、タスクオブジェクトobjT12及びobjT23により、生態系オブジェクトobjES1が表す白菜、生態系オブジェクトobjES2が表すニラ、及び、生態系オブジェクトobjES3が表す白菜を、その順番で収穫すべきことを、容易に認識することができる。
以上のように、初心者のユーザ向けのAR表示又はVR表示では、初心者に、いわば手取り足取りして、協生農法(登録商標)を教え込むために、専門性が高くない生態系構成物を表す生態系オブジェクトや、生態系構成物について行うタスクを丁寧に表すタスクオブジェクト等が、表示対象オブジェクトとして選択されて表示される。
図64のBは、熟練者のユーザ向けのAR表示又はVR表示の表示例を示している。
図64のBでは、ある圃場Aを背景空間として、生態系オブジェクトobjES1,objES2,objES3、及び、objES4、並びに、タスクオブジェクトobjT1,objT2、及び、objT3が表示されている。
したがって、図64のBのAR表示又はVR表示は、タスクオブジェクトobjT12、及び、objT23が表示対象オブジェクトとして表示されていない点で、タスクオブジェクトobjT12、及び、objT23が表示対象オブジェクトとして選択されて表示されている図64のAの初心者向けのAR表示又はVR表示と異なっている。
熟練者のユーザは、例えば、既に、白菜とニラの収穫を、生態系オブジェクトobjES1が表す白菜、生態系オブジェクトobjES2が表すニラ、及び、生態系オブジェクトobjES3が表す白菜の順番で行うべきことを知識として獲得している。
そのため、熟練者のユーザにとって、白菜とニラの収穫の順番を表すタスクオブジェクトobjT12及びobjT23は、冗長な情報であり、そのようなタスクオブジェクトobjT12及びobjT23の表示は、熟練者のユーザに、煩わしさを感じさせることがある。
そこで、図64のBの熟練者向けのAR表示又はVR表示では、生態系オブジェクトobjES1ないしobjES4、並びに、タスクオブジェクトobjT1ないしobjT3,objT12、及び、objT23のうちの、タスクオブジェクトobjT12及びobjT23を除く、生態系オブジェクトobjES1ないしobjES4、及び、タスクオブジェクトobjT1ないしobjT3が、表示対象オブジェクトとして選択されて表示されている。
なお、例えば、図64において背景空間となっている圃場Aに、多くの植生が存在する場合には、その圃場Aに存在するすべての植生それぞれを表す生態系オブジェクト、及び、各植生に対して行うべきタスクを表すタスクオブジェクトのすべてを表示すると、生態系オブジェクトやタスクオブジェクトの数が多くなって見にくくなることがある。
また、例えば、希少な植生は、熟練者のユーザにとって重要なことがあるが、初心者のユーザにとって重要でないことがある。
そこで、植生を表す生態系オブジェクトについては、端末12では、ユーザの熟練度に応じて、例えば、熟練度が高いユーザには、希少な植生を表す生態系オブジェクトだけを表示し、熟練度が低いユーザには、メジャーな植生を表す生態系オブジェクトだけを表示することができる。
なお、熟練度に応じた表示対象オブジェクトの選択は、例えば、ARオブジェクトに、熟練度を表すレベルを割り当てておき、ユーザの熟練度を表すレベルが割り当てられたARオブジェクトを選択することで行うことができる。
図65は、AR表示又はVR表示を行うARオブジェクトの選択の他の例を説明する図である。
表示対象オブジェクトの選択は、図64で説明したように、ユーザの熟練度に応じて行うことができる他、データのカテゴリを指定することにより行うことができる。
すなわち、図44で説明したように、ARオブジェクトは、ARオブジェクトとしてのデータのカテゴリによって、例えば、写真(のデータ)、アイコン(のデータ)、及び、センサデータ(を表すシンボル)に分けることができる。
端末12では、例えば、ユーザの操作に応じて、以上のような写真、アイコン、及び、センサデータのカテゴリの中から、1以上のカテゴリを選択し、そのカテゴリのARオブジェクトを、表示対象オブジェクトに選択することができる。
図65のAは、写真、アイコン、及び、センサデータのカテゴリのすべてのARオブジェクトを、表示対象オブジェクトに選択した場合のAR表示又はVR表示の表示例を示している。
図65のAでは、白菜及びニラそれぞれを表す写真の生態系オブジェクト、白菜やニラの収穫のタスクを表すアイコンのタスクオブジェクト、並びに、硝酸濃度及び水分量それぞれを表すセンサデータの生態系オブジェクトが、表示対象オブジェクトに選択されて表示されている。
図65のBは、写真、アイコン、及び、センサデータのカテゴリのうちの、写真のカテゴリのARオブジェクトのみを、表示対象オブジェクトに選択した場合のAR表示又はVR表示の表示例を示している。
図65のBでは、白菜及びニラそれぞれを表す写真の生態系オブジェクトが、表示対象オブジェクトに選択されて表示されている。
図65のCは、写真、アイコン、及び、センサデータのカテゴリのうちの、センサデータのカテゴリのARオブジェクトのみを、表示対象オブジェクトに選択した場合のAR表示又はVR表示の表示例を示している。
図65のCでは、硝酸濃度及び水分量それぞれを表すセンサデータの生態系オブジェクトが、表示対象オブジェクトに選択されて表示されている。
図65のDは、写真、アイコン、及び、センサデータのカテゴリのうちの、写真及びアイコンのARオブジェクトを、表示対象オブジェクトに選択した場合のAR表示又はVR表示の表示例を示している。
図65のDでは、白菜及びニラそれぞれを表す写真の生態系オブジェクト、並びに、白菜やニラの収穫のタスクを表すアイコンのタスクオブジェクトが、表示対象オブジェクトに選択されて表示されている。
以上のように、端末12では、例えば、ARオブジェクトのカテゴリの中から、1以上のカテゴリを選択し、そのカテゴリのARオブジェクトを、表示対象オブジェクトに選択することができる。したがって、ユーザが必要とするカテゴリのARオブジェクトだけを、AR表示又はVR表示で表示することができる。
<生態系オブジェクトの登録の処理の例>
図66は、図1(図43)の生態系活用システムでの生態系オブジェクトの登録の処理の例を説明するフローチャートである。
ステップS311において、センサ装置11や端末12は、生態系オブジェクトを付与する生態系構成物(以下、注目生態系構成物ともいう)について、登録対象情報を取得する。
すなわち、センサ装置11は、注目生態系構成物としての、例えば、気温や水分等の所定の物理量のセンシングの結果得られるセンサデータを、登録対象情報として取得する。
また、端末12(図3)は、取得部51において、例えば、ユーザの操作に応じて、圃場で撮影した植生等の注目生態系構成物の写真や、ユーザが入力したコメント(例えば、「蜂を見た」や、「この植物は、何?」等)を、登録対象情報として取得する。
ステップS312において、センサ装置11や端末12は、注目生態系構成物の位置情報を取得する。
すなわち、センサ装置11は、例えば、センサ装置11自体の位置を表すGPS座標を、注目生態系構成物の位置情報として取得する。
また、端末12は、例えば、端末12自体の位置を表すGPS座標を、注目生態系構成物の位置情報として取得する。
なお、端末12では、その他、例えば、端末12自体の位置を基準として、注目生態系構成物の相対的な位置を検出し、端末12自体のGPS座標を、注目生態系構成物の相対的な位置で補正することにより得られる座標を、注目生態系構成物の位置情報として取得することができる。
また、端末12では、例えば、ユーザに操作部34を操作して、注目生態系構成物の位置情報を入力してもらうことができる。
ステップS313において、センサ装置11や端末12は、注目生態系構成物について取得した登録対象情報、及び、位置情報を、サーバ13に送信する。
ステップS321において、サーバ13は、センサ装置11や端末12から送信されてくる注目生態系構成物の登録対象情報、及び、位置情報を受信する。
ステップS322において、サーバ13(図4)の生成部73は、注目生態系構成物に付与する生態系オブジェクトを取得する。
すなわち、生成部73は、例えば、注目生態系構成物の登録対象情報に、その注目生態系構成物を撮影した写真が含まれる場合には、その写真を、注目生態系構成物に付与する生態系オブジェクトに採用する。
また、生成部73は、注目生態系構成物の登録対象情報に、センサデータが含まれる場合には、そのセンサデータを表すシンボルを、注目生態系構成物に付与する生態系オブジェクトとして生成する。
生成部73では、その他、例えば、図52で説明した蜂の巣を表すアイコンの生態系オブジェクトや、危険なエリアを表すアイコンの生態系オブジェクト等を、注目生態系構成物に付与する生態系オブジェクトの候補オブジェクトとして、端末12に表示させることができる。
そして、生成部73では、端末12に表示された候補オブジェクトの中から、ユーザが選択した候補オブジェクトを、注目生態系構成物に付与する生態系オブジェクトに採用することができる。
ステップS323において、生成部73は、注目生態系構成物の登録対象情報、位置情報、及び、注目生態系構成物に付与する生態系オブジェクト等を対応付けたオブジェクト情報を生成する。そして、生成部73は、オブジェクト情報を、ストレージ63に記憶された、例えば、オブジェクト情報を登録するためのオブジェクトDBに登録する。
図67は、オブジェクト情報の概要を示す図である。
オブジェクト情報には、図66で説明したように、生態系構成物を表す生態系オブジェクト、生態系構成物の位置情報、及び、登録対象情報が含まれる。
オブジェクト情報には、その他、圃場情報や、マーカ情報、タスクオブジェクト等を含めることができる。
圃場情報は、生態系構成物が観測された圃場(位置情報が表す位置に存在する圃場)に関する情報である。圃場情報には、圃場名や、圃場の住所、圃場の土壌の情報等を含めることができる。
圃場情報によれば、例えば、圃場名をキーワードとして、オブジェクト情報の検索を行うことにより、ある圃場に存在する生態系構成物を表す生態系オブジェクトをピックアップすることができる。
マーカ情報は、生態系オブジェクトを表示するマーカに関する情報である。マーカ情報には、例えば、マーカとしての画像や、マーカを基準として、生態系オブジェクトを表示する相対的な位置を表す相対位置情報等が含まれる。
マーカとしての画像は、例えば、端末12からサーバ13にアップロードすることができる。また、マーカとしての画像は、例えば、サーバ13で生成し、端末12にダウンロードすることができる。
マーカの相対位置情報は、例えば、ユーザに端末12を操作して入力してもらうことや、マーカの設置位置と生態系オブジェクトの位置情報とから計算することができる。
端末12では、カメラ37で撮影された画像から、マーカ情報に含まれるマーカとしての画像が検出された場合、そのマーカを基準とする、マーカ情報に含まれる相対位置情報が表す位置に、生態系オブジェクトが表示される。
なお、位置情報が近い複数のオブジェクト情報については、マーカ情報に含めるマーカとしての画像として、同一の画像を採用することができる。この場合、1のマーカを、複数の生態系オブジェクトに対応付け、その1のマーカによって、近い位置にある複数の生態系構成物をそれぞれ表す複数の生態系オブジェクトを表示することができる。
オブジェクト情報において、タスクオブジェクトは、そのオブジェクト情報に含まれる生態系オブジェクトが表す生態系構成物について行うタスクを表す。
<ARオブジェクトの表示の処理の例>
図68は、図1(図43)の生態系活用システムでのARモードでのARオブジェクトの表示の処理の例を説明するフローチャートである。
ステップS331において、端末12(図3)の取得部51は、背景空間となる実空間、撮影実空間、又は、VR空間を取得する。
すなわち、例えば、端末12が、没入型のHMDやスマートフォンである場合、カメラ37で実空間を撮影することにより得られる撮影実空間、又は、その実空間をモデル化したVR空間(の画像)が、背景空間(の画像)として取得される。
また、例えば、端末12が、シースルー型のHMDである場合、端末12のユーザがシースルーで見える実空間が、そのまま背景空間として用いられる。
ステップS332において、端末12の取得部51は、背景空間に配置する生態系オブジェクト及びタスクオブジェクトを要求するオブジェクト要求を、(通信部40を介して)サーバ13に送信する。
すなわち、取得部51は、例えば、背景空間からマーカを検出し、そのマーカとともに、オブジェクト要求を、サーバ13に送信する。あるいは、取得部51は、端末12の現在地を取得し、その現在地とともに、オブジェクト要求を、サーバ13に送信する。
ステップS341において、サーバ13(図4)のAR/VR表示制御部74は、端末12から送信されてくるオブジェクト要求に応じて、生態系オブジェクト及びタスクオブジェクトを、(通信部67を介して)端末12に送信する。
すなわち、AR/VR表示制御部74は、端末12から、オブジェクト要求とともに送信されてくるマーカを含むオブジェクト情報、又は、オブジェクト要求とともに送信されてくる端末12の現在地に近い位置を表す位置情報(以下、絶対位置情報ともいう)を含むオブジェクト情報を、注目オブジェクト情報として、ストレージ63に記憶されたオブジェクトDBから検索する。
そして、AR/VR表示制御部74は、注目オブジェクト情報に含まれる生態系オブジェクトと、マーカの相対位置情報、又は、絶対位置情報(以下、両方含めて、オブジェクト位置情報ともいう)とを、端末12に送信する。
さらに、AR/VR表示制御部74は、注目オブジェクト情報に、タスクオブジェクトが含まれる場合には、そのタスクオブジェクトを、端末12に送信する。
ステップS333において、端末12の取得部51は、サーバ13から送信されてくる生態系オブジェクトや、タスクオブジェクト、オブジェクト位置情報を受信することにより取得する。
ステップS334において、端末12の表示制御部52は、取得部51で取得された生態系オブジェクトを、ステップS331で取得した背景空間の、オブジェクト位置情報が表す位置に重畳してAR表示する。
さらに、取得部51がタスクオブジェクトを取得している場合には、表示制御部52は、生態系オブジェクトの近傍に、取得部51で取得されたタスクオブジェクトを、背景空間に重畳してAR表示する。
以上により、端末12では、例えば、上述した図44や図45等で説明したAR表示が行われる。
なお、端末12では、端末12の現在地に近い位置を表す絶対位置情報を含むオブジェクト情報を、常時、サーバ13からダウンロードすることができる。
この場合、端末12では、サーバ13からのダウンロード済みのオブジェクト情報に含まれる生態系オブジェクトやタスクオブジェクトについては、サーバ13にオブジェクト要求を行わずに、すなわち、サーバ13と通信を行わずに、表示することができる。
図69は、図1(図43)の生態系活用システムでのVRモードでのARオブジェクトの表示の処理の例を説明するフローチャートである。
ステップS351において、端末12は、ユーザが、所定の位置を、指定位置として指定するのを待って、その指定位置を、サーバ13に送信する。
ステップS361において、サーバ13は、端末12からの指定位置を受信する。
ステップS362において、サーバ13は、端末12からの指定位置を含む所定の範囲の実空間を撮影した撮影実空間、又は、その実空間をモデル化したVR空間(の画像)を、端末12に送信する。
すなわち、サーバ13において、ストレージ63には、実空間を撮影した撮影実空間、及び、実空間をモデル化したVR空間が記憶されている。そして、サーバ13では、AR/VR表示制御部74が、ストレージ63に記憶された撮影実空間又はVR空間から、指定位置を含む実空間を撮影した撮影実空間、又は、その実空間をモデル化したVR空間を読み出し、端末12に送信する。
ステップS352において、端末12の取得部51は、サーバ13からの撮影実空間、又はVR空間を、背景空間として取得する。
ステップS353において、端末12の取得部51は、背景空間に配置する生態系オブジェクト及びタスクオブジェクトを要求するオブジェクト要求を、サーバ13に送信する。
すなわち、取得部51は、背景空間からマーカを検出し、そのマーカとともに、オブジェクト要求を、サーバ13に送信する。あるいは、取得部51は、指定位置とともに、オブジェクト要求を、サーバ13に送信する。
ステップS363において、サーバ13のAR/VR表示制御部74は、端末12から送信されてくるオブジェクト要求に応じて、生態系オブジェクト及びタスクオブジェクトを、端末12に送信する。
すなわち、AR/VR表示制御部74は、端末12から、オブジェクト要求とともに送信されてくるマーカを含むオブジェクト情報、又は、オブジェクト要求とともに送信されてくる指定位置に近い位置を表す絶対位置情報を含むオブジェクト情報を、注目オブジェクト情報として、ストレージ63に記憶されたオブジェクトDBから検索する。
そして、AR/VR表示制御部74は、注目オブジェクト情報に含まれる生態系オブジェクトと、オブジェクト位置情報としてのマーカの相対位置情報、又は、絶対位置情報とを、端末12に送信する。
さらに、AR/VR表示制御部74は、注目オブジェクト情報に、タスクオブジェクトが含まれる場合には、そのタスクオブジェクトを、端末12に送信する。
以下、ステップS354及びS355において、端末12では、図68のステップS333及びS334とそれぞれ同様の処理が行われ、これにより、ステップS352で取得された背景空間としての撮影実空間又はVR空間に、生態系オブジェクトやタスクオブジェクトが重畳されてVR表示される。
以上により、端末12では、例えば、上述した図46や図48等で説明したVR表示が行われる。
なお、図69では、端末12において、背景空間に、生態系オブジェクトやタスクオブジェクトを重畳してVR表示することとしたが、その他、例えば、サーバ13において、背景空間に、生態系オブジェクトやタスクオブジェクトを重畳した画像を生成して、端末12に送信し、端末12では、サーバ13から送信されてくる、背景空間に生態系オブジェクトやタスクオブジェクトが重畳された画像を表示することができる。
<ARオブジェクトの編集の処理の例>
図70は、図1(図43)の生態系活用システムでのARオブジェクトの編集の処理の例を説明するフローチャートである。
すなわち、図70は、ARオブジェクトの編集として、例えば、生態系オブジェクトに対してコメントを入力することや、生態系オブジェクトが表す生態系構成物について行うタスクを表すタスクオブジェクトを、その生態系オブジェクトに対応付けることを行う場合の処理の例を示している。
ステップS371において、端末12は、図68又は図69で説明したようにして、ARモード又はVRモードでのARオブジェクトの表示を行う。
ステップS372において、端末12の取得部51は、ステップS371で表示されたARオブジェクトの編集として、ユーザが編集情報を入力する操作を行うのを待って、その編集情報を受け付ける。
すなわち、ユーザが、ARオブジェクトの編集として、例えば、生態系オブジェクトに対して、コメントを入力する操作を行った場合には、取得部51は、そのコメントを、編集情報として受け付ける。また、ユーザが、ARオブジェクトの編集として、生態系オブジェクトに、その生態系オブジェクトが表す生態系構成物について行うタスクを表すタスクオブジェクトを対応付ける操作を行った場合には、取得部51は、そのタスクオブジェクトを、編集情報として受け付ける。
ここで、生態系オブジェクトに、タスクオブジェクトを対応付ける場合には、端末12では、例えば、生態系オブジェクトに対応付けることができるタスクオブジェクトの候補を表示することができる。ユーザは、端末12に表示されたタスクオブジェクトの候補の中から、生態系オブジェクトに対応付けるタスクオブジェクトを選択することができる。
端末12において、タスクオブジェクトの候補は、例えば、サーバ13から取得することができる。
ステップS373において、端末12の取得部51は、ステップS372で受け付けた編集情報を、対応するARオブジェクトを識別する識別情報とともに、サーバ13に送信する。
ここで、例えば、ARオブジェクトには、そのARオブジェクトを識別するための識別情報が割り当てられている。ステップS373において、端末12は、コメントが入力された生態系オブジェクトや、タスクオブジェクトが対応付けられた生態系オブジェクトの識別情報とともに、編集情報を送信する。
ステップS381において、サーバ13の編集部75は、端末12から送信されてくる識別情報及び編集情報を受信する。
ステップS382において、サーバ13の編集部75は、端末12からの編集情報に応じて、ARオブジェクトを編集する。
すなわち、例えば、編集情報がコメントである場合、編集部75は、その編集情報とともに端末12から送信されてきた識別情報によって識別される生態系オブジェクトを含むオブジェクト情報(図67)に、編集情報としてのコメントを追加する。
また、例えば、編集情報がタスクオブジェクトである場合、編集部75は、その編集情報とともに端末12から送信されてきた識別情報によって識別される生態系オブジェクトを含むオブジェクト情報に、編集情報としてのタスクオブジェクトを追加する。
その後、ステップS374において、端末12は、図68又は図69で説明したようにして、ARモード又はVRモードでのARオブジェクトの再表示を行う。
すなわち、端末12では、取得部51が、編集後のARオブジェクトを、サーバ13から取得し直し、表示制御部52が、その編集後のARオブジェクトを表示させる。
その結果、例えば、ユーザが、生態系オブジェクトに対して、コメントを入力する操作を行った場合には、ステップS374では、生態系オブジェクトが、ユーザが入力したコメントとともに表示される。
また、例えば、ユーザが、生態系オブジェクトに、タスクオブジェクトを対応付ける操作を行った場合には、ステップS374では、生態系オブジェクトが、ユーザが対応付けたタスクオブジェクトとともに表示される。
なお、生態系オブジェクトに対するコメントの表示は、ユーザの操作に応じてオン/オフすることができる。
また、図70では、生態系オブジェクトの編集を行う場合について説明したが、ARオブジェクトの編集としては、生態系オブジェクトの編集の他、タスクオブジェクトの編集、すなわち、タスクオブジェクトに対するコメントの入力等を行うことが可能である。
図71は、図1(図43)の生態系活用システムでのARオブジェクトの編集の処理の他の例を説明するフローチャートである。
すなわち、図70は、ARオブジェクトの編集として、例えば、生態系オブジェクトのコピーを行う場合の処理の例を示している。
ステップS391において、端末12は、例えば、2つの圃場A及びBそれぞれについて、図69で説明したようにして、VRモードでのARオブジェクトの表示を行う。
すなわち、端末12は、ユーザが、2つの圃場A及びBを指定するのを待って、例えば、図55に示したように、ユーザが指定した2つの圃場A及びBのVR空間のそれぞれを背景空間として、VR表示を行う。
ステップS392において、端末12の取得部51は、ステップS391で表示されたARオブジェクトの編集として、ユーザがコピー情報を入力する操作を行うのを待って、そのコピー情報を受け付ける。
すなわち、ユーザは、例えば、図55で説明したように、圃場Aの背景空間内に表示された、ある生態系オブジェクトをコピーの対象として、圃場Bの背景空間内の所望の位置に、コピーの対象の生態系オブジェクトをコピーすることができる。
取得部51は、コピーの対象の生態系オブジェクトであるコピーオブジェクトと、そのコピーオブジェクトをコピーするコピー先の圃場及び位置とを、コピー情報として受け付ける。
ステップS393において、端末12の取得部51は、ステップS392で受け付けたコピー情報を、サーバ13に送信する。
ステップS401において、サーバ13の編集部75は、端末12から送信されてくるコピー情報を受信する。
ステップS402において、サーバ13の編集部75は、端末12からのコピー情報に応じて、生態系オブジェクトをコピーする。
すなわち、編集部75は、コピー情報に含まれるコピーオブジェクトを含む新たなオブジェクト情報を、コピー情報に含まれるコピー先の圃場のオブジェクト情報として生成する。さらに、編集部75は、新たなオブジェクト情報の(絶対)位置情報として、コピー情報に含まれるコピー先の位置を表す位置情報を設定し、新たなオブジェクト情報を、ストレージ63のオブジェクトDBに(追加)登録する。
ステップS403において、編集部75は、コピーオブジェクトが表す生態系構成物について行うべきタスクを判定する。
例えば、コピーオブジェクトが表す生態系構成物が、蜂の巣である場合には、編集部75は、コピーオブジェクトが表す生態系構成物について行うべきタスクがないと判定する。この場合、サーバ13では、以降の処理は行われない。
また、例えば、コピーオブジェクトが表す生態系構成物が、植生である場合には、編集部75は、その植生の植え付けを、コピーオブジェクトが表す生態系構成物について行うべきタスクとして判定する。
この場合、編集部75は、ステップS402でオブジェクトDBに追加登録した新たなオブジェクト情報に、植え付けを表すタスクオブジェクトを含め(登録し)、これにより、新たなオブジェクト情報に含まれるコピーオブジェクトに、タスクオブジェクトが対応付けられる。
その後、ステップS394において、端末12は、図69で説明したようにして、VRモードでのARオブジェクトの再表示を行う。
すなわち、端末12では、取得部51が、編集後のARオブジェクトを、サーバ13から取得し直し、表示制御部52が、その編集後のARオブジェクトを表示させる。
その結果、例えば、圃場Aの背景空間内に表示された、ある生態系オブジェクトをコピーオブジェクトとして、圃場Bの背景空間内の所望の位置に、コピーオブジェクトをコピーした場合には、ステップS394では、圃場Bの背景空間内の所望の位置に、コピーオブジェクトが表示される。
さらに、サーバ13において、コピーオブジェクトに、タスクオブジェクトが対応付けられた場合には、ステップS394では、コピーオブジェクトとともに、そのコピーオブジェクトに対応付けられたタスクオブジェクトも表示される。
<端末12の表示画面の遷移例>
図72は、端末12においてARオブジェクトの登録や編集等を行う場合の、表示部35の表示画面の遷移の例を示す図である。
端末12は、サーバ13との間で、必要な情報をやりとりすることで、表示部35の表示画面を、図72に示すように遷移させる。
端末12において、ユーザが所定の操作を行うと、"Main Menu"画面が、表示部35の表示画面に表示される。
"Main Menu"画面は、[Camera Capture]ボタンと、[Edit Object]ボタンとを有する。
"Main Menu"画面の[Camera Capture]ボタンが操作されると、表示部35の表示画面には、[撮影]ボタンを有する「撮影」画面が表示される。
「撮影」画面の[撮影]ボタンが操作されると、端末12では、カメラ37により写真が撮影され、その撮影時のGPS座標(位置情報)が取得される。そして、表示部35の表示画面には、その写真に対するコメントを入力する「コメント記入」画面が表示される。
「コメント記入」画面は、[登録]ボタンを有し、ユーザがコメントを入力して、[登録]ボタンを操作すると、表示部35の表示画面には、[完了]ボタンを有する「登録完了」画面が表示される。
「登録完了」画面の[完了]ボタンが操作されると、ユーザが、「撮影」画面で撮影した写真と、「コメント記入」画面で入力したコメントとが、図66で説明した登録対象情報として、端末12からサーバ13に送信される。さらに、写真の撮影時に取得されたGPS座標が、図66で説明した位置情報として、端末12からサーバ13に送信される。そして、サーバ13では、端末12からの位置情報と登録対象情報とを含むオブジェクト情報が登録される。
その後、表示部35の表示画面は、「撮影」画面に戻る。
"Main Menu"画面の[Edit Object]ボタンが操作されると、表示部35の表示画面には、「アクション一覧」画面が表示される。
「アクション一覧」画面は、[生成]ボタン、[閲覧]ボタン、[タスク生成]ボタン、[タスク一覧]ボタン、[データインポート]ボタン、及び、[登録データ]ボタンを有する。
「アクション一覧」画面において、[生成]ボタンが操作されると、表示部35の表示画面には、[指定]ボタンを有する「座標指定」画面が表示される。
「座標指定」画面において、ユーザが座標を入力し、[指定ボタン]を操作すると、表示部35の表示画面には、[登録]ボタンを有する「コメント記入」画面が表示される。
「コメント記入」画面において、ユーザがコメントを入力して、[登録]ボタンを操作すると、表示部35の表示画面には、[完了]ボタンを有する「登録完了」画面が表示される。
「登録完了」画面の[完了]ボタンが操作されると、ユーザが、「座標指定」画面で入力した座標が、図66で説明した位置情報として、端末12からサーバ13に送信される。さらに、ユーザが、「コメント記入」画面で入力したコメントが、図66で説明した登録対象情報として、端末12からサーバ13に送信される。そして、サーバ13では、端末12からの位置情報と登録対象情報とを含むオブジェクト情報が登録される。すなわち、この場合、生態系オブジェクトとしての写真がないオブジェクト情報、言い換えれば、いわば、空っぽの写真を含むオブジェクト情報が登録される。
その後、表示部35の表示画面は、「座標指定」画面に戻る。
「アクション一覧」画面において、[閲覧]ボタンが操作されると、表示部35の表示画面には、[選択]ボタンを有する「オブジェクト選択」画面が表示される。
「オブジェクト選択」画面には、例えば、サーバ13のオブジェクトDBに生態系オブジェクトとして登録された写真の一覧が表示される。
「オブジェクト選択」画面において、ユーザが、ある生態系オブジェクトとしての写真を選択し、[選択]ボタンを操作すると、表示部35の表示画面には、"Time Lapse- Relation Record"画面が表示される。
"Time Lapse- Relation Record"画面では、「オブジェクト選択」画面でユーザが選択した生態系オブジェクトが表す生態系構成物が観測された圃場(ユーザが選択した生態系オブジェクトのオブジェクト情報(図67)に含まれる圃場情報が表す圃場)を、注目圃場として、図49で説明した、生態系オブジェクトのタイムラプスモードの表示が行われる。
"Time Lapse- Relation Record"画面は、[オブジェクト選択]ボタン、[他農園名選択]ボタン、[撮影]ボタン、[コメント編集]ボタン、及び、[消去]ボタンを有する。
"Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[オブジェクト選択]ボタンを操作すると、サーバ13は、その選択オブジェクトが表す生態系構成物のノードを注目ノードとする関係グラフ(図26等)を生成し、その関係グラフを有する「Gephiグラフモデル探索」画面を、Gephiを利用して、端末12の表示部35の表示画面に表示させる。
「Gephiグラフモデル探索」画面は、[URL選択]ボタンを有し、「Gephiグラフモデル探索」画面において、ユーザが、関係グラフのノードを選択して、[URL選択]ボタンを操作すると、表示部35の表示画面には、「CMSデータベース探索」画面が表示される。
「CMSデータベース探索」画面では、例えば、図53で説明したように、「Gephiグラフモデル探索」画面でユーザが選択したノードが表す植生等に関連する関連情報が、サーバ13のCMSデータベースから検索されて表示される。
"Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[他農場名選択]ボタンを操作すると、表示部35の表示画面には、例えば、図50に示した同一植生圃場情報表示が表示される。
そして、ユーザが、図50の同一植生圃場情報表示において、選択オブジェクトが表す生態系構成物が存在する注目圃場以外の他の圃場を、選択圃場として選択すると、表示部35の表示画面は、例えば、図51に示した、グーグルアースを利用した遷移表示を経由して、「対象農園対象オブジェクト」画面に切り替わる。
「対象農園対象オブジェクト」画面では、例えば、図52に示したような選択圃場の表示が行われる。
"Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[撮影]ボタンを操作すると、表示部35の表示画面には、「コメント記入」画面が表示される。
「コメント記入」画面では、ユーザは、選択オブジェクトとしての写真(空っぽの写真を含む)を、他の写真に差し替える操作を行うことができる。
「コメント記入」画面は、[登録]ボタンを有する。「コメント記入」画面において、ユーザが、選択オブジェクトとしての写真を、他の写真に差し替え、[登録]ボタンを操作すると、サーバ13では、オブジェクト情報(図67)に含まれる選択オブジェクトとしての写真が差し替えられる。
そして、表示部35の表示画面には、選択オブジェクトとしての写真の差し替えの完了を表す「登録完了」画面が表示される。
"Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[コメント編集]ボタンを操作すると、表示部35の表示画面には、「編集」画面が表示される。
「編集」画面では、ユーザは、選択オブジェクトのオブジェクト情報(図67)に含まれるコメントを編集する操作を行うことができる。
「編集」画面は、[登録]ボタンを有する。「編集」画面において、ユーザが、選択オブジェクトのオブジェクト情報に含まれるコメントを編集し、[登録]ボタンを操作すると、サーバ13では、オブジェクト情報(図67)に、コメントの編集結果が反映される。
そして、表示部35の表示画面には、コメントの編集の完了を表す「登録完了」画面が表示される。
"Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[消去]ボタンを操作すると、表示部35の表示画面には、「消去確認」画面が表示される。
「消去確認」画面は、[消去]ボタンを有する。「消去確認」画面において、ユーザが、[消去]ボタンを操作すると、サーバ13では、選択オブジェクトのオブジェクト情報(図67)が消去される。
そして、表示部35の表示画面には、オブジェクト情報の消去の完了を表す「消去完了」画面が表示される。
「アクション一覧」画面において、[タスク生成]ボタンが操作されると、表示部35の表示画面には、「アイコン一覧」画面が表示される。
「アイコン一覧」画面は、生態系構成物について行うことが可能なタスクに対応するボタンを有する。
図72では、説明を簡単にするため、生態系構成物について行うことが可能なタスクとして、収穫及び伐採の2つのタスクが採用されており、「アイコン一覧」画面は、収穫を表す[Harvest]ボタンと、伐採を表す[Weed Control]ボタンとを有する。
「アイコン一覧」画面において、ユーザが、[Harvest]ボタンを操作すると、表示部35の表示画面には、「指定」ボタンを有する「オブジェクト指定」画面が表示される。
この「オブジェクト指定」画面では、[Harvest]ボタンに対応するタスクである収穫の対象となることが可能な生態系構成物を表す生態系オブジェクトが表示される。かかる「オブジェクト指定」画面において、ユーザが、生態系オブジェクトを選択し、「指定」ボタンを操作すると、表示部35の表示画面には、[登録]ボタンを有する「コメント編集」画面が表示される。
この「コメント編集」画面では、ユーザは、「オブジェクト指定」画面で選択した生態系オブジェクトに対応付ける、[Harvest]ボタンに対応するタスクを表すタスクオブジェクト(以下、収穫オブジェクトともいう)に対するコメントを入力することができる。
「コメント編集」画面において、ユーザが、収穫オブジェクトに対するコメントを入力し、[登録]ボタンを操作すると、サーバ13では、「オブジェクト指定」画面でユーザが選択した生態系オブジェクトのオブジェクト情報(図67)に、収穫オブジェクトと、ユーザが入力したコメントとが(追加)登録される。
そして、表示部35の表示画面には、収穫オブジェクトの登録の完了を表す「登録完了」画面が表示される。
この「登録完了」画面は、[完了]ボタンを有し、ユーザが、その[完了]ボタンを操作すると、表示部35の表示画面は、「アイコン一覧」画面に戻る。
「アイコン一覧」画面において、ユーザが、[Weed Control]ボタンを操作すると、表示部35の表示画面には、「指定」ボタンを有する「オブジェクト指定」画面が表示される。
この「オブジェクト指定」画面では、[Weed Control]ボタンに対応するタスクである伐採の対象となることが可能な生態系構成物を表す生態系オブジェクトが表示される。かかる「オブジェクト指定」画面において、ユーザが、生態系オブジェクトを選択し、「指定」ボタンを操作すると、表示部35の表示画面には、[登録]ボタンを有する「コメント編集」画面が表示される。
この「コメント編集」画面では、ユーザは、「オブジェクト指定」画面で選択した生態系オブジェクトに対応付ける、[Weed Control]ボタンに対応するタスクを表すタスクオブジェクト(以下、伐採オブジェクトともいう)に対するコメントを入力することができる。
「コメント編集」画面において、ユーザが、伐採オブジェクトに対するコメントを入力し、[登録]ボタンを操作すると、サーバ13では、「オブジェクト指定」画面でユーザが選択した生態系オブジェクトのオブジェクト情報(図67)に、伐採オブジェクトと、ユーザが入力したコメントとが(追加)登録される。
そして、表示部35の表示画面には、伐採オブジェクトの登録の完了を表す「登録完了」画面が表示される。
この「登録完了」画面は、[完了]ボタンを有し、ユーザが、その[完了]ボタンを操作すると、表示部35の表示画面は、「アイコン一覧」画面に戻る。
「アクション一覧」画面において、[タスク一覧]ボタンが操作されると、表示部35の表示画面には、「登録タスク一覧」画面が表示される。
「登録タスク一覧」画面には、「アクション一覧」画面の、[タスク生成]ボタンが操作されることにより登録されたタスクオブジェクトの一覧が、操作可能なボタンとして表示される。
ここで、上述の「アイコン一覧」画面で説明したように、本実施の形態では、生態系構成物について行うことが可能なタスクとして、収穫及び伐採の2種類があり、その収穫や伐採を表すタスクオブジェクトは、上述の「オブジェクト指定」画面でユーザが選択した生態系オブジェクトに対応付けて登録される。
「登録タスク一覧」画面では、以上のように、生態系オブジェクトに対応付けて登録された、収穫や伐採を表すタスクオブジェクトが、ボタンの形で表示される。
収穫及び伐採を表すタスクオブジェクトのボタンを、便宜上、それぞれ、[Harvest]ボタン及び[Weed Control]ボタンという。
「登録タスク一覧」画面において、ある[Harvest]ボタンが操作されると、表示部35の表示画面には、「収穫指示」画面が表示される。
「収穫指示」画面では、「登録タスク一覧」画面で操作された[Harvest]ボタンが表す収穫について、例えば、図47で説明したような、収穫を表すタスクオブジェクトとしてのアイコンと、収穫の順番を表す矢印形状のアイコン等が表示され、これにより、収穫を、どの場所から開始し、どのような順番で行うべきかが、視覚的に提示される。
なお、端末12で、上述の「アイコン一覧」の[Harvest]ボタンが操作されたときに表示される「オブジェクト指定」画面では、ユーザは、収穫の対象となる生態系構成物を表す生態系オブジェクトを選択するときに、あわせて、生態系構成物の収穫の順番を指定することができる。そして、サーバ13において、収穫の順番を表す矢印形状のアイコンは、ユーザが指定した生態系構成物の収穫の順番に応じて生成することができる。
「収穫指示」画面では、収穫を表すタスクオブジェクトとしてのアイコンが、操作可能な[収穫アイコン]ボタンとして表示される。
「収穫指示」画面において、ある[収穫アイコン]ボタンが操作されると、表示部36の表示画面には、「詳細」画面が表示される。
「詳細」画面には、「収穫指示」画面で操作された[収穫アイコン]ボタンに対応するタスクオブジェクトが表す収穫の詳細情報が表示される。
「詳細」画面に表示される収穫の詳細情報には、例えば、収穫すべき実(植生)の種名や、赤く熟した実から収穫し、青い未熟な実は残す等の、収穫すべき実の選定基準、すべての実を収穫せずに、自家採種用に2割だけ残す等の、他の作業との兼ね合い情報等が含まれる。
これらの詳細情報は、例えば、上述の収穫オブジェクトに対するコメントを入力する「コメント編集」画面において、コメントとして入力することができる。
「登録タスク一覧」画面において、ある[Weed Control]ボタンが操作されると、表示部35の表示画面には、「伐採指示」画面が表示される。
「伐採指示」画面では、「登録タスク一覧」画面で操作された[Weed Control]ボタンが表す伐採について、例えば、伐採を表すタスクオブジェクトとしてのアイコンと、伐採の順番を表す矢印形状のアイコン等が表示され、これにより、伐採を、どの場所の草や木から開始し、どのような順番で行うべきかが、視覚的に提示される。
なお、端末12で、上述の「アイコン一覧」の[Weed Control]ボタンが操作されたときに表示される「オブジェクト指定」画面では、ユーザは、伐採の対象となる生態系構成物を表す生態系オブジェクトを選択するときに、あわせて、生態系構成物の伐採の順番を指定することができる。そして、サーバ13において、伐採の順番を表す矢印形状のアイコンは、ユーザが指定した生態系構成物の伐採の順番に応じて生成することができる。
「伐採指示」画面では、伐採を表すタスクオブジェクトとしてのアイコンが、操作可能な[伐採アイコン]ボタンとして表示される。
「伐採指示」画面において、ある[伐採アイコン]ボタンが操作されると、表示部36の表示画面には、「詳細」画面が表示される。
「詳細」画面には、「伐採指示」画面で操作された[伐採アイコン]ボタンに対応するタスクオブジェクトが表す伐採の詳細情報が表示される。
「詳細」画面に表示される伐採の詳細情報には、例えば、伐採すべき実(植生)の種名や、根こそぎ排除するか、地表で刈るか、野菜の高さで刈るか等の、伐採の方法、その後にどのような植生戦略を行うか等の、他の作業との兼ね合い情報等が含まれる。
これらの詳細情報は、例えば、上述の伐採オブジェクトに対するコメントを入力する「コメント編集」画面において、コメントとして入力することができる。
「アクション一覧」画面において、[データインポート]ボタンが操作されると、表示部35の表示画面には、「インポートデータ一覧」画面が表示される。
「インポートデータ一覧」画面には、協生農法(登録商標)CMS71以外のCMSで管理されているセンサデータの一覧と、[選択]ボタンとが表示される。
「インポートデータ一覧」画面において、ユーザが、あるセンサデータを選択し、[選択]ボタンを操作すると、表示部35の表示画面には、[インポート]画面が表示される。
そして、「インポートデータ一覧」画面でユーザが選択したセンサデータが、サーバ13のストレージ63のオブジェクトDBにインポートされる。
「インポート」画面は、[次へ]ボタンを有し、この[次へ]ボタンが操作されると、表示部35の表示画面には、[登録データ一覧]画面が表示される。
ここで、[登録データ一覧]画面は、「アクション一覧」画面において、[登録データ]ボタンが操作された場合にも表示される。
[登録データ一覧]画面には、例えば、各圃場(の圃場名)と、[Nitric Acid]ボタン、[Electric Conductivity]ボタン、及び、[Soil Hardness]ボタンとが表示される。
[登録データ一覧]画面において、ユーザが、ある圃場を選択し、[Nitric Acid]ボタンが操作すると、表示部35の表示画面には、硝酸濃度の「視覚データ表示」画面が表示される。
硝酸濃度の「視覚データ表示」画面では、[登録データ一覧]画面でユーザが選択した圃場においてセンシングされた硝酸濃度のセンサデータ(のシンボル)が表示される。
[登録データ一覧]画面において、ユーザが、ある圃場を選択し、[Electric Conductivity]ボタンが操作すると、表示部35の表示画面には、導電率の「視覚データ表示」画面が表示される。
導電率の「視覚データ表示」画面では、[登録データ一覧]画面でユーザが選択した圃場においてセンシングされた導電率のセンサデータが表示される。
[登録データ一覧]画面において、ユーザが、ある圃場を選択し、[Soil Hardness]ボタンが操作すると、表示部35の表示画面には、土壌硬度の「視覚データ表示」画面が表示される。
土壌硬度の「視覚データ表示」画面では、[登録データ一覧]画面でユーザが選択した圃場においてセンシングされた土壌硬度のセンサデータが表示される。
ここで、本明細書において、コンピュータ(CPU)がプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。すなわち、本技術は、協生農法(登録商標)の支援の他、一般の生態系マネージメントに適用することができる。
さらに、例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
なお、本技術は、以下のような構成をとることができる。
<1> 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、
前記生態系オブジェクトを、実空間をモデル化したVR(Virtual Reality)空間内の位置にVR表示すると共に、前記タスクオブジェクトを前記VR空間内の位置にVR表示する表示制御を行う表示制御部としてコンピュータを機能させ、
前記生態系オブジェクト、又は、前記タスクオブジェクトは、前記VR表示された状態で、ユーザの操作に応じて編集され、
前記表示制御部は、前記VR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトをVR表示する表示制御を行う
プログラム。
<2> 前記生態系オブジェクトには、所定のマーカ、又は、GPS(Global Positioning System)の位置情報が対応付けられ、
前記表示制御部は、前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の、前記マーカを基準とする相対的な位置、又は、前記位置情報が表す位置に表示する表示制御を行う
<1>に記載のプログラム。
<3> 前記生態系オブジェクトの編集として、1つの圃場の前記生態系オブジェクトの、他の圃場へのコピーが行われる
<1>に記載のプログラム。
<4> 前記他の圃場にコピーされる前記生態系オブジェクトが表す生態系構成物について行うべきタスクを表すタスクオブジェクトが追加される
<3>に記載のプログラム。
<5> 前記背景空間の表示スケールが変更可能である
<1>ないし<4>のいずれかに記載のプログラム。
<6> 2以上の圃場の画像を、前記背景空間として、同時に表示可能である
<1>ないし<5>のいずれかに記載のプログラム。
<7> 1つの前記マーカが、1つの圃場の一部又は全部の前記生態系オブジェクトに対応付けられる
<2>に記載のプログラム。
<8> 異なる2つの前記マーカが、同一の前記生態系オブジェクトに対応付けられる
<2>に記載のプログラム。
<9> 前記生態系オブジェクトに対応付けられる前記マーカは移動可能であり、
前記生態系オブジェクトに対応付けられる前記マーカの移動後、前記生態系オブジェクトは、前記マーカの移動前と同一位置に表示される
<2>に記載のプログラム。
<10> 前記表示制御部は、前記生態系オブジェクトを、1軸に沿って表示する表示制御を、さらに行う
<1>に記載のプログラム。
<11> 前記表示制御部は、前記生態系オブジェクトを、時間軸に沿って表示する表示制御を、さらに行う
<10>に記載のプログラム。
<12> 前記生態系オブジェクトは、前記生態系構成物を撮影した写真、前記生態系構成物をセンシングすることにより得られるセンサデータを表すシンボル、又は、前記生態系構成物を表すアイコンである
<1>ないし<11>のいずれかに記載のプログラム。
<13> 前記表示制御部は、圃場全体に関する前記生態系構成物を表す前記生態系オブジェクトを、固定の位置に表示する表示制御を、さらに行う
<1>ないし<12>のいずれかに記載のプログラム。
<14> 前記生態系オブジェクトには、その生態系オブジェクトが表す前記生態系構成物に関連する関連情報がリンクされ、
前記表示制御部は、前記関連情報を表示する表示制御を、さらに行う
<1>ないし<13>のいずれかに記載のプログラム。
<15> ユーザの熟練度に応じて、表示される前記生態系オブジェクト、又は、前記タスクオブジェクトが変更される
<1>ないし<14>のいずれかに記載のプログラム。
<16> 前記生態系構成物には、圃場の危険なエリア、又は、警戒すべきエリアが含まれる
<1>ないし<15>のいずれかに記載のプログラム。
<17> 複数のカテゴリの中から選択された1以上のカテゴリの前記生態系オブジェクトが表示される
<1>ないし<16>のいずれかに記載のプログラム。
<18> 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得することと、
前記生態系オブジェクトを、実空間をモデル化したVR(Virtual Reality)空間内の位置にVR表示すると共に、前記タスクオブジェクトを前記VR空間内の位置にVR表示する表示制御を行うこととを含み、
前記生態系オブジェクト、又は、前記タスクオブジェクトは、前記VR表示された状態で、ユーザの操作に応じて編集され、
前記VR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトをVR表示する表示制御が行われる
情報処理方法。
<19> 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、
前記生態系オブジェクトを、実空間をモデル化したVR(Virtual Reality)空間内の位置にVR表示すると共に、前記タスクオブジェクトを前記VR空間内の位置にVR表示する表示制御を行う表示制御部とを備え、
前記生態系オブジェクト、又は、前記タスクオブジェクトは、前記VR表示された状態で、ユーザの操作に応じて編集され、
前記表示制御部は、前記VR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトをVR表示する表示制御を行う
情報処理装置。
<20> 第1の情報処理装置と第2の情報処理装置とからなる情報処理システムであって、
前記第1の情報処理装置は、
複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、
前記生態系オブジェクトを、実空間をモデル化したVR(Virtual Reality)空間内の位置にVR表示すると共に、前記タスクオブジェクトを前記VR空間内の位置にVR表示する表示制御を行うVR表示制御部とを備え、
前記第2の情報処理装置は、
前記生態系オブジェクト、及び、前記タスクオブジェクトを取得する取得部と、
前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内にAR表示する表示制御を行うAR表示制御部とを備える
情報処理システム。
10 ネットワーク, 11 センサ装置, 12 端末, 13 サーバ, 21 無線中継装置, 22 無線LAN, 23 携帯電話網, 24 インターネット, 31 CPU, 32 メモリ, 33 ストレージ, 34 操作部, 35 操作部, 36 スピーカ, 37 カメラ, 38 マイク, 39 位置検出部, 40 通信部, 41 外部I/F, 42 ドライブ, 42A リムーバブル記録媒体, 43 センサ, 51 取得部, 52 表示制御部, 61 CPU, 62 メモリ, 63 ストレージ, 64 操作部, 65 表示部, 66 スピーカ, 67 通信部, 68 外部I/F, 69 ドライブ, 69A リムーバブル記録媒体, 71 協生農法(登録商標)CMS, 72 グラフ表示制御部, 73 生成部, 74 AR/VR表示制御部, 75 編集部, 76 解析部, 101ないし104 白菜, 105 ニラ, 106 ダイコン, 107 カリフラワー, 108 コマツナ, 109 ゴボウ, 110 ヨモギ群生地帯, 121 フラグ, 122ないし133 アイコン, 201 グラフ表示領域, 202 リスト表示領域, 211 俯瞰表示領域, 212 表示枠

Claims (20)

  1. 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、
    前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御を行う表示制御部としてコンピュータを機能させ、
    前記生態系オブジェクト、又は、前記タスクオブジェクトは、前記AR表示された状態で、ユーザの操作に応じて編集され、
    前記表示制御部は、前記AR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトを前記AR表示する表示制御を行う
    プログラム。
  2. 前記生態系オブジェクトには、所定のマーカ、又は、GPS(Global Positioning System)の位置情報が対応付けられ、
    前記表示制御部は、前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の、前記マーカを基準とする相対的な位置、又は、前記位置情報が表す位置に表示する表示制御を行う
    請求項1に記載のプログラム。
  3. 前記生態系オブジェクトの編集として、1つの圃場の前記生態系オブジェクトの、他の圃場へのコピーが行われる
    請求項1に記載のプログラム。
  4. 前記他の圃場にコピーされる前記生態系オブジェクトが表す生態系構成物について行うべきタスクを表すタスクオブジェクトが追加される
    請求項3に記載のプログラム。
  5. 前記背景空間の表示スケールが変更可能である
    請求項2に記載のプログラム。
  6. 2以上の圃場の画像を、前記背景空間として、同時に表示可能である
    請求項2に記載のプログラム。
  7. 1つの前記マーカが、1つの圃場の一部又は全部の前記生態系オブジェクトに対応付けられる
    請求項2に記載のプログラム。
  8. 異なる2つの前記マーカが、同一の前記生態系オブジェクトに対応付けられる
    請求項2に記載のプログラム。
  9. 前記生態系オブジェクトに対応付けられる前記マーカは移動可能であり、
    前記生態系オブジェクトに対応付けられる前記マーカの移動後、前記生態系オブジェクトは、前記マーカの移動前と同一位置に表示される
    請求項2に記載のプログラム。
  10. 前記表示制御部は、前記生態系オブジェクトを、1軸に沿って表示する表示制御を、さらに行う
    請求項2に記載のプログラム。
  11. 前記表示制御部は、前記生態系オブジェクトを、時間軸に沿って表示する表示制御を、さらに行う
    請求項10に記載のプログラム。
  12. 前記生態系オブジェクトは、前記生態系構成物を撮影した写真、前記生態系構成物をセンシングすることにより得られるセンサデータを表すシンボル、又は、前記生態系構成物を表すアイコンである
    請求項1ないし11のいずれかに記載のプログラム。
  13. 前記表示制御部は、圃場全体に関する前記生態系構成物を表す前記生態系オブジェクトを、固定の位置に表示する表示制御を、さらに行う
    請求項1ないし12のいずれかに記載のプログラム。
  14. 前記生態系オブジェクトには、その生態系オブジェクトが表す前記生態系構成物に関連する関連情報がリンクされ、
    前記表示制御部は、前記関連情報を表示する表示制御を、さらに行う
    請求項1ないし13のいずれかに記載のプログラム。
  15. ユーザの熟練度に応じて、表示される前記生態系オブジェクト、又は、前記タスクオブジェクトが変更される
    請求項1ないし14のいずれかに記載のプログラム。
  16. 前記生態系構成物には、圃場の危険なエリア、又は、警戒すべきエリアが含まれる
    請求項1ないし15のいずれかに記載のプログラム。
  17. 複数のカテゴリの中から選択された1以上のカテゴリの前記生態系オブジェクトが表示される
    請求項1ないし16のいずれかに記載のプログラム。
  18. 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得することと、
    前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御を行うこととを含み、
    前記生態系オブジェクト、又は、前記タスクオブジェクトは、前記AR表示された状態で、ユーザの操作に応じて編集され、
    前記AR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトを前記AR表示する表示制御が行われる
    情報処理方法。
  19. 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、
    前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御を行う表示制御部とを備え、
    前記生態系オブジェクト、又は、前記タスクオブジェクトは、前記AR表示された状態で、ユーザの操作に応じて編集され、
    前記表示制御部は、前記AR表示された状態で編集された、編集後の前記生態系オブジェクト、又は、前記タスクオブジェクトを前記AR表示する表示制御を行う
    情報処理装置。
  20. 第1の情報処理装置と第2の情報処理装置とからなる情報処理システムであって、
    前記第1の情報処理装置は、
    複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する第1の取得部と、
    前記生態系オブジェクトを、背景空間内の位置にAR(Augmented Reality)表示すると共に、前記タスクオブジェクトを前記背景空間内の位置に前記AR表示する表示制御を行う第1の表示制御部とを備え、
    前記第2の情報処理装置は、
    前記生態系オブジェクト、及び、前記タスクオブジェクトを取得する第2の取得部と、
    前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置に前記AR表示すると共に、前記タスクオブジェクトを前記背景空間内に前記AR表示する表示制御を行う第2の表示制御部とを備える
    情報処理システム。
JP2022063269A 2015-10-08 2022-04-06 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム Active JP7405179B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015199862 2015-10-08
JP2015199862 2015-10-08
JP2021016251A JP7060119B2 (ja) 2015-10-08 2021-02-04 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021016251A Division JP7060119B2 (ja) 2015-10-08 2021-02-04 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2022120848A JP2022120848A (ja) 2022-08-18
JP7405179B2 true JP7405179B2 (ja) 2023-12-26

Family

ID=58487611

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017544447A Active JP6834966B2 (ja) 2015-10-08 2016-09-23 情報処理装置、及び、情報処理方法、並びにプログラム
JP2021016251A Active JP7060119B2 (ja) 2015-10-08 2021-02-04 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム
JP2022063269A Active JP7405179B2 (ja) 2015-10-08 2022-04-06 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2017544447A Active JP6834966B2 (ja) 2015-10-08 2016-09-23 情報処理装置、及び、情報処理方法、並びにプログラム
JP2021016251A Active JP7060119B2 (ja) 2015-10-08 2021-02-04 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム

Country Status (4)

Country Link
US (3) US11058065B2 (ja)
EP (1) EP3361448B1 (ja)
JP (3) JP6834966B2 (ja)
WO (1) WO2017061281A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11058065B2 (en) * 2015-10-08 2021-07-13 Sony Corporation Information processing device and information processing method
JPWO2018198316A1 (ja) * 2017-04-28 2020-04-23 株式会社オプティム 農業生産工程管理(gap)対応情報提供システム、方法及びプログラム
KR102199686B1 (ko) * 2018-10-24 2021-01-07 디에스글로벌(주) 위치정보 및 시간정보 기반의 ar 컨텐츠 제공 방법 및 시스템
US20220189329A1 (en) * 2019-03-07 2022-06-16 3D2Cut Sa System and method for assisting with the pruning of plants
US11212954B2 (en) 2019-05-08 2022-01-04 Deere & Company Apparatus and methods for field operations based on historical field operation data
US11270189B2 (en) * 2019-10-28 2022-03-08 International Business Machines Corporation Cognitive decision platform for honey value chain
US20230135993A1 (en) 2020-03-06 2023-05-04 Sony Group Corporation Information processing apparatus, information processing method, and information processing program
JPWO2021176892A1 (ja) 2020-03-06 2021-09-10
JP7337011B2 (ja) 2020-03-12 2023-09-01 本田技研工業株式会社 情報処理装置、情報提供システムおよび情報処理方法
EP4175459A1 (en) * 2020-07-03 2023-05-10 Signify Holding B.V. Methods and systems for determining the growth stage of a plant
CN117642763A (zh) * 2021-07-20 2024-03-01 索尼集团公司 程序、信息处理设备和信息处理方法
US20230046882A1 (en) * 2021-08-11 2023-02-16 Deere & Company Obtaining and augmenting agricultural data and generating an augmented display
WO2023157687A1 (ja) * 2022-02-21 2023-08-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7300220B1 (ja) * 2022-03-30 2023-06-29 都市緑地株式会社 仮想空間の農園及び現実の農園を介したコミュニケーション方法など
KR20240023297A (ko) * 2022-08-11 2024-02-21 붐앤드림베케이션 주식회사 메타 시공간 제품좌표 생성장치 기반의 메타 시공간 제품 매매장치 및 방법, 메타 시공간 제품 검색 및 접속장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013230088A (ja) 2012-04-27 2013-11-14 Mitsubishi Electric Corp 農業用管理システム
WO2014007109A1 (ja) 2012-07-04 2014-01-09 ソニー株式会社 農作業支援装置および方法、プログラム、記録媒体、並びに農作業支援システム
JP7060119B2 (ja) 2015-10-08 2022-04-26 ソニーグループ株式会社 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699244A (en) * 1994-03-07 1997-12-16 Monsanto Company Hand-held GUI PDA with GPS/DGPS receiver for collecting agronomic and GPS position data
US5566069A (en) * 1994-03-07 1996-10-15 Monsanto Company Computer network for collecting and analyzing agronomic data
US5721679A (en) * 1995-12-18 1998-02-24 Ag-Chem Equipment Co., Inc. Heads-up display apparatus for computer-controlled agricultural product application equipment
US20060106539A1 (en) * 2004-11-12 2006-05-18 Choate Paul H System and method for electronically recording task-specific and location-specific information, including farm-related information
CN107016445A (zh) 2009-02-02 2017-08-04 行星排放管理公司 监测温室气体通量的各系统的系统
US8830267B2 (en) * 2009-11-16 2014-09-09 Alliance For Sustainable Energy, Llc Augmented reality building operations tool
CA2776577C (en) * 2010-10-05 2021-03-30 Bayer Cropscience Lp A system and method establishing an agricultural pedigree for at least one agricultural product
US8511936B2 (en) * 2010-12-02 2013-08-20 Rensselaer Polytechnic Institute Method and apparatus for coastline remediation, energy generation, and vegetation support
US8694454B2 (en) * 2011-02-17 2014-04-08 Superior Edge, Inc. Methods, apparatus and systems for generating, updating and executing a vegetation control plan
US8721337B2 (en) * 2011-03-08 2014-05-13 Bank Of America Corporation Real-time video image analysis for providing virtual landscaping
HUE054486T2 (hu) * 2011-04-15 2021-09-28 Basf Agro Trademarks Gmbh Vizuális információs rendszer és számítógépes mobilitási alkalmazás szántóföldi személyzet számára
EP2752807A4 (en) * 2011-08-30 2015-02-18 Fujitsu Ltd PICTURE DEVICE, PICTURE SUPPORT PROGRAM, INFORMATION PROCESSING, AND INFORMATION PROGRAM
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US8957916B1 (en) * 2012-03-23 2015-02-17 Google Inc. Display method
US8761811B2 (en) * 2012-04-27 2014-06-24 Oracle International Corporation Augmented reality for maintenance management, asset management, or real estate management
KR20130132050A (ko) * 2012-05-25 2013-12-04 한국전자통신연구원 농업용 환경제어 시스템을 위한 플랫폼 장치
US10520482B2 (en) * 2012-06-01 2019-12-31 Agerpoint, Inc. Systems and methods for monitoring agricultural products
US20130321245A1 (en) * 2012-06-04 2013-12-05 Fluor Technologies Corporation Mobile device for monitoring and controlling facility systems
US9113590B2 (en) * 2012-08-06 2015-08-25 Superior Edge, Inc. Methods, apparatus, and systems for determining in-season crop status in an agricultural crop and alerting users
US9129429B2 (en) * 2012-10-24 2015-09-08 Exelis, Inc. Augmented reality on wireless mobile devices
CA2896035A1 (en) * 2012-12-19 2014-06-26 Alan Shulman Methods and systems for automated micro farming
US20140200690A1 (en) * 2013-01-16 2014-07-17 Amit Kumar Method and apparatus to monitor and control conditions in a network - integrated enclosed ecosytem for growing plants
JP6059027B2 (ja) * 2013-01-21 2017-01-11 株式会社クボタ 農作業機と農作業管理プログラム
WO2014146046A1 (en) * 2013-03-15 2014-09-18 Alain Poivet Intelligent energy and space management
US9552675B2 (en) * 2013-06-03 2017-01-24 Time Traveler App Llc Display application and perspective views of virtual space
JP5825328B2 (ja) * 2013-11-07 2015-12-02 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
US10068354B2 (en) * 2014-01-02 2018-09-04 Deere & Company Obtaining and displaying agricultural data
US9928659B2 (en) * 2014-01-08 2018-03-27 Precisionhawk Inc. Method and system for generating augmented reality agricultural presentations
JP6265027B2 (ja) * 2014-04-22 2018-01-24 富士通株式会社 表示装置、位置特定プログラム、および位置特定方法
US9996976B2 (en) * 2014-05-05 2018-06-12 Avigilon Fortress Corporation System and method for real-time overlay of map features onto a video feed
US20150325047A1 (en) * 2014-05-06 2015-11-12 Honeywell International Inc. Apparatus and method for providing augmented reality for maintenance applications
WO2016039176A1 (ja) * 2014-09-11 2016-03-17 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
AR101678A1 (es) 2014-09-11 2017-01-04 Sony Corp Dispositivo de procesamiento de información, método de procesamiento de información y medio de almacenamiento legible por computadora no transitorio de almacenamiento de programa
US9652840B1 (en) * 2014-10-30 2017-05-16 AgriSight, Inc. System and method for remote nitrogen monitoring and prescription
US9667710B2 (en) * 2015-04-20 2017-05-30 Agverdict, Inc. Systems and methods for cloud-based agricultural data processing and management
JP6357140B2 (ja) * 2015-09-18 2018-07-11 Psソリューションズ株式会社 画像判定方法
US10628895B2 (en) * 2015-12-14 2020-04-21 The Climate Corporation Generating digital models of relative yield of a crop based on nitrate values in the soil
US10331931B2 (en) * 2016-02-05 2019-06-25 The Climate Corporation Modeling trends in crop yields

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013230088A (ja) 2012-04-27 2013-11-14 Mitsubishi Electric Corp 農業用管理システム
WO2014007109A1 (ja) 2012-07-04 2014-01-09 ソニー株式会社 農作業支援装置および方法、プログラム、記録媒体、並びに農作業支援システム
JP7060119B2 (ja) 2015-10-08 2022-04-26 ソニーグループ株式会社 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム

Also Published As

Publication number Publication date
JP7060119B2 (ja) 2022-04-26
US20210329846A1 (en) 2021-10-28
EP3361448A1 (en) 2018-08-15
JPWO2017061281A1 (ja) 2018-08-30
JP2021073616A (ja) 2021-05-13
US11058065B2 (en) 2021-07-13
JP2022120848A (ja) 2022-08-18
US20180271027A1 (en) 2018-09-27
WO2017061281A1 (ja) 2017-04-13
EP3361448A4 (en) 2019-02-20
US11793119B2 (en) 2023-10-24
EP3361448B1 (en) 2023-09-06
US20230380349A1 (en) 2023-11-30
JP6834966B2 (ja) 2021-02-24

Similar Documents

Publication Publication Date Title
JP7405179B2 (ja) 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム
JP6512463B2 (ja) 農作業支援方法、農作業支援システム、およびプログラム
JP6760069B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6760068B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
Clifton-Brown et al. Breeding strategies to improve Miscanthus as a sustainable source of biomass for bioenergy and biorenewable products
US20140009600A1 (en) Mobile device, computer product, and information providing method
Wyckhuys et al. Influence of extra-field characteristics to abundance of key natural enemies of Spodoptera frugiperda Smith (Lepidoptera: Noctuidae) in subsistence maize production
WO2016039175A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
Lalrochunga et al. GIS-Based Image Processing for Farmland Site Selection: An Eastern Himalayan Region Perspective
Arshad Mapping simulated Bt cotton productivity in punjab under changing climate scnerios using odeling and GIS tools
Jarrett Understanding communities in complex agroforestry systems: methodological advances and ecological implications
Mosomtai Landscape ecology of coffee pests in smallholdings: influence of landscape fragmentation, farming systems and a warming climate in Murang’a County, Kenya.
ELLIOTT MICHAEL J. BREWER, 1 TAKUJI NOMA1 AND

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220502

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R151 Written notification of patent or utility model registration

Ref document number: 7405179

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151