WO2017061281A1 - 情報処理装置、及び、情報処理方法 - Google Patents

情報処理装置、及び、情報処理方法 Download PDF

Info

Publication number
WO2017061281A1
WO2017061281A1 PCT/JP2016/077941 JP2016077941W WO2017061281A1 WO 2017061281 A1 WO2017061281 A1 WO 2017061281A1 JP 2016077941 W JP2016077941 W JP 2016077941W WO 2017061281 A1 WO2017061281 A1 WO 2017061281A1
Authority
WO
WIPO (PCT)
Prior art keywords
ecosystem
vegetation
field
display
information
Prior art date
Application number
PCT/JP2016/077941
Other languages
English (en)
French (fr)
Inventor
真俊 舩橋
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2017544447A priority Critical patent/JP6834966B2/ja
Priority to EP16853435.2A priority patent/EP3361448B1/en
Priority to US15/765,042 priority patent/US11058065B2/en
Publication of WO2017061281A1 publication Critical patent/WO2017061281A1/ja
Priority to US17/369,786 priority patent/US11793119B2/en
Priority to US18/364,152 priority patent/US20230380349A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B79/00Methods for working soil
    • A01B79/005Precision agriculture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems

Definitions

  • the present technology relates to an information processing apparatus and an information processing method, and more particularly, to an information processing apparatus and an information processing method that can support, for example, cooperative farming (registered trademark).
  • Examples of ecosystem utilization include the use of ladybirds without the use of agricultural chemicals for pest control on agricultural crops, and the symbiotic farming method (registered trademark) based on the symbiotic effects of ecosystems and the use of useful species. synecoculture) etc.
  • symbiotic farming method means no-tillage, no fertilization, no pesticides, and no species other than seeds and seedlings. This is a farming method that achieves high yields based on thinning-out harvesting from dense plants.
  • symbiotic farming method (registered trademark) is affected by various ecosystem components that make up the ecosystem, it is necessary for farmers in the field to master symbiotic farming method (registered trademark). ) Need assistance from skilled workers.
  • This technology has been made in view of such a situation, and makes it possible to easily support the cooperative farming method (registered trademark).
  • the information processing apparatus acquires an ecosystem object that represents an ecosystem component that configures an ecosystem of a field in which a plurality of types of vegetation are mixed, and a task object that represents a task to be performed on the ecosystem component. And the ecosystem object are displayed in an AR (Augmented Reality) at a position in a predetermined background space corresponding to the actual position of the ecosystem component, and the task object is displayed in the AR in the background space.
  • AR Augmented Reality
  • the information processing method of the present technology acquires an ecosystem object that represents an ecosystem component that constitutes an ecosystem of a field in which a plurality of types of vegetation are mixed, and a task object that represents a task to be performed on the ecosystem component.
  • the ecosystem object is displayed in an AR (Augmented Reality) at a position in a predetermined background space corresponding to the actual position of the ecosystem component, and the task object is displayed in the AR in the background space.
  • an ecosystem object representing an ecosystem component that configures an ecosystem of a field in which a plurality of types of vegetation are mixed, and a task to be performed on the ecosystem component are performed.
  • the task object to represent is obtained.
  • the ecosystem object is displayed in AR (Augmented Reality) at a position in a predetermined background space corresponding to the actual position of the ecosystem component, and the task object is displayed in AR in the background space. Is done.
  • the information processing apparatus may be an independent apparatus or an internal block constituting one apparatus.
  • the information processing apparatus can be realized by causing a computer to execute a program.
  • a program to be executed by a computer can be provided by being transmitted through a transmission medium or by being recorded on a recording medium.
  • This technology can support cooperative farming (registered trademark).
  • FIG. 1 is a diagram illustrating a configuration example of a network 10.
  • FIG. 3 is a block diagram illustrating a configuration example of a terminal 12.
  • FIG. 3 is a block diagram illustrating a configuration example of a server 13.
  • FIG. It is a figure which shows the structural example of Kyosei farming method (trademark) DB. It is a figure which shows the structural example of seed sowing DB. It is a figure which shows the structural example of vegetation DB. It is a figure which shows the structural example of yield DB. It is a figure which shows the structural example of management record DB.
  • FIG. 1 It is a figure which shows the example of the site map of the web page as a symbiosis farming method (trademark) page. It is a figure which shows the example of a display of the distribution of the field on the map provided with a symbiosis farming method (trademark) page. It is a flowchart explaining the example of a process in case a user refers to the information of a farm field (field). It is a flowchart explaining the example of the upload process of a photograph. It is a flowchart explaining the example of the process of registration of a key event. It is a figure explaining the relation graph produced
  • FIG. 6 is a diagram illustrating a display example of AR display on a terminal 12.
  • FIG. 6 is a diagram illustrating a display example of AR display on a terminal 12.
  • FIG. 6 is a diagram showing a display example of VR display on the terminal 12.
  • FIG. 6 is a diagram illustrating a display example of AR display on a terminal 12.
  • FIG. 6 is a diagram showing a display example of VR display on the terminal 12.
  • FIG. It is a figure which shows the example of a display of the display of the time lapse mode of the ecosystem object in the terminal 12.
  • FIG. It is a figure which shows the example of a display of the same vegetation field information display performed with the terminal 12.
  • FIG. 6 is a diagram illustrating a display example of transition display performed on the terminal 12.
  • FIG. It is a figure which shows the example of a display of the display of the selection agricultural field which finally arrives via a transition display. It is a figure which shows the example of a display of the relevant information in the terminal 12. It is a figure which shows the example of a display of the analysis result of the sensor data in the terminal 12. It is a figure explaining the copy of an ecosystem object. It is a figure which shows the example of the change of the display scale of the background space in the terminal. It is a figure which shows the example of the change of the display of AR object accompanying the change of the display scale of the background space in the terminal 12.
  • FIG. 6 is a diagram illustrating an example of transition of a display screen of the display unit 35 when registering or editing an AR object in the terminal 12.
  • FIG. 1 is a block diagram showing a configuration example of an embodiment of an ecosystem utilization system to which the present technology is applied.
  • the ecosystem utilization system includes a network 10, one or more sensor devices 11, one or more terminals 12, and one or more servers 13.
  • the ecosystem utilization system collects various information observed in the ecosystem, obtains information for utilizing the ecosystem based on the information, and provides it to the user.
  • the sensor device 11, the terminal 12, and the server 13 are connected to the network 10 by wire or wireless and can communicate with each other.
  • the sensor device 11 has a sensor that senses various physical quantities, and a communication function that transmits sensor data (data representing the sensed physical quantities) obtained as a result of sensing by the sensors. Furthermore, the sensor device 11 includes a position detection function for detecting the position of the sensor device 11 itself using, for example, GPS (Global Positioning System).
  • GPS Global Positioning System
  • Sensor device 11 senses a physical quantity with a sensor. Furthermore, the sensor device 11 transmits sensor data obtained by sensing to the server 13 via the network 10 by a communication function. The sensor data is transmitted from the sensor device 11 to the server 13 together with position information indicating the position of the sensor device 11 detected by the position detection function of the sensor device 11 as necessary.
  • a sensor that senses an electromagnetic wave including light such as a sensor that captures an image by sensing light (an image sensor), or a sensor that senses sound (a microphone) is employed. be able to.
  • the sensor device 11 is installed in a place where observation (sensing) of an ecosystem such as a forest in a region where the ecosystem is to be utilized (hereinafter also referred to as a utilization region), a river, the sea, a lake, a farm (a farm), or the like. .
  • the sensor device 11 can be manually installed at a predetermined position.
  • the sensor device 11 can be installed by, for example, spraying the sensor device 11 while moving on an airplane, a ship, an automobile, or the like.
  • the sensor device 11 in various places in the utilization area, for example, images of plants and insects, sound of wind, sound of insects, sound of rubbing leaves, etc., temperature, soil temperature, humidity, geomagnetism, etc. Sensing is performed, and sensor data obtained by the sensing is transmitted to the server 13 via the network 10.
  • the utilization area may be, for example, a municipality or a part thereof, a prefecture, Japan, or all over the world.
  • the utilization area may be a distant area such as Hokkaido and Kyushu, Japan and the United States, and the like.
  • the terminal 12 is an information processing apparatus used by a user who receives support for ecosystem utilization including the cooperative farming method (registered trademark) and a user who cooperates in ecosystem utilization.
  • the user who receives support for utilizing the ecosystem is, for example, a field worker who practices the cooperative farming method (registered trademark).
  • a user who cooperates in ecosystem utilization is, for example, a collaborator such as a local inhabitant who cooperates in collecting information on the ecosystem of the field, although it is not a farm worker who practices the cooperative farming method (registered trademark).
  • a collaborator such as a scholar who cooperates in sending advice.
  • a portable terminal such as a smartphone, a tablet, an HMD (Head Mounted Display), and a glasses-type wearable device can be employed.
  • a notebook PC Personal Computer
  • desktop PC Personal Computer
  • other devices having a communication function and an information input / output function (interface) for a user can be employed.
  • the HMD as the terminal 12 may be either a see-through type or an immersive (non-transparent) type HMD.
  • the terminal 12 used by the user in the field is a portable terminal so as not to hinder the user's work on the field.
  • the user uses the terminal 12 to perform observation at various places in the utilization area, and transmits an observation value representing the observation result to the server 13 via the network 10.
  • an observed value transmitted from the terminal 12 to the server 13 for example, a certain vegetation, insect, or other species of organism was observed in a certain place, a seed image, or a certain crop was harvested. And crop yield, rosette of Chinese cabbage, and other information obtained by the user observing the ecosystem (images (photos, videos), sound, etc. obtained by the user operating the terminal 12) Can be used).
  • the terminal 12 transmits data other than the observed value to the server 13 via the network 10. Further, the terminal 12 receives necessary data from the server 13 via the network 10. For example, the terminal 12 receives (acquires) information for utilizing the ecosystem from the server 13 and presents it to the user. The presentation of information to the user can be performed, for example, by displaying an image or outputting sound.
  • the server 13 is an information processing apparatus managed by a supporter who supports the utilization of the ecosystem.
  • the server 13 receives and registers sensor data transmitted from the sensor device 11 via the network 10 and observation values transmitted from the terminal 12 via the network 10. Further, the server 13 uses the ecosystem based on sensor data from the sensor device 11 (including positional information of the sensor device 11 as necessary), observation values from the terminal 12, and other necessary information. Information is generated and transmitted to the terminal 12 via the network 10.
  • the terminal 12 receives information transmitted from the server 13 via the network 10 and displays the information from the server 13 to the user by displaying it as an image or outputting it as sound.
  • processing of the terminal 12 and the processing of the server 13 described below can be shared by the terminal 12 and the server 13 as much as possible. Further, the processing performed by the server 13 can be shared by a plurality of servers.
  • FIG. 2 is a diagram illustrating a configuration example of the network 10 in FIG.
  • the network 10 includes an arbitrary number of wireless relay devices 21, an arbitrary number of wireless LAN (Local Area Network) 22, a mobile phone network 23, the Internet 24, and the like.
  • wireless LAN Local Area Network
  • the wireless relay device 21 is a device that performs wireless communication and has a router function.
  • the wireless relay device 21 is installed uniformly in the use area so that the sensor data obtained by the sensor device 11 can be collected.
  • the installation of the wireless relay device 21 can be performed manually, for example, similarly to the installation of the sensor device 11, or by spreading the wireless relay device 21 while moving on an airplane, a ship, an automobile, or the like.
  • the wireless relay device 21 can be installed in a vehicle such as a car (for example, a bus that operates regularly), a movable vehicle such as a motorcycle or a ship.
  • the wireless relay device 21 receives sensor data transmitted from the sensor device 11 by communicating with the sensor device 11.
  • the wireless relay device 21 receives sensor data transmitted from the other wireless relay device 21 by communicating with the other wireless relay device 21. Further, the wireless relay device 21 transmits sensor data to the other wireless relay device 21 by communicating with the other wireless relay device 21.
  • the wireless relay device 21 transmits sensor data received from the sensor device 11 or another wireless relay device 21 to the wireless LAN 22 or the mobile phone network 23 by communicating with the wireless LAN 22 or the mobile phone network 23.
  • the wireless LAN 22 is built at the user's home or any place.
  • the wireless LAN 22 communicates with the terminal 12, the wireless relay device 21, and the Internet 24, thereby transmitting data from the terminal 12 and sensor data from the wireless relay device 21 to the server 13 via the Internet 24. .
  • the wireless LAN 22 receives data transmitted from the server 13 via the Internet 24 and transmits it to the terminal 12.
  • the cellular phone network 23 is, for example, a 3G line or the like, and communicates with the terminal 12, the server 13, the wireless relay device 21, and the Internet 24.
  • the Internet 24 communicates with the terminal 12, the server 13, the wireless LAN 22, and the mobile phone network 23.
  • sensor data transmitted by the wireless relay device 21, data transmitted via the wireless LAN 22, and data transmitted by the terminal 12 are transmitted to the server 13 via one or both of the cellular phone network 23 and the Internet 24. Sent to.
  • the data transmitted by the server 13 is transmitted to the terminal 12 via one or both of the cellular phone network 23 and the Internet 24.
  • the wireless relay device 21 since the wireless relay device 21 has a router function, a certain wireless relay device 21 becomes unable to communicate due to a failure or the like, and the wireless communication path via the wireless relay device 21 cannot be used. Even in this case, the sensor data transmitted from the sensor device 11 can be transmitted to the server 13 using a wireless communication path that passes through another wireless relay device 21.
  • the wireless relay device 21 has a router function
  • sensor data obtained by the sensor device 11 can be transmitted to the server 13 via various wireless communication paths that pass through the wireless relay device 21. Therefore, the server 13 can collect (receive) the sensor data obtained by the sensor device 11 via another wireless relay device 21 even if a certain wireless relay device 21 becomes unable to communicate.
  • a user of an automobile in which the wireless relay device 21 is installed can contribute to collecting information for utilizing the ecosystem simply by traveling on a mountain road or the like in the utilization area.
  • the wireless relay device 21 installed in the automobile can be used together with other wireless relay devices 21 at positions close to the location at various locations. It constitutes a wireless communication path and contributes to collecting sensor data obtained by the sensor device 11 by the server 13.
  • the wireless relay device 21 is one of the short-range wireless network standards, for example, a wireless communication device compliant with ZIGBEE (registered trademark), and other router functions can be mounted, and a certain distance A small-sized and low-power-consumption wireless communication device capable of wireless communication can be employed.
  • ZIGBEE registered trademark
  • FIG. 3 is a block diagram showing a configuration example of the terminal 12 of FIG.
  • the terminal 12 includes a CPU (Central Processing Unit) 31, a memory 32, a storage 33, an operation unit 34, a display unit 35, a speaker 36, a camera 37, a microphone 38, a position detection unit 39, a communication unit 40, an external I / F (Interface). ) 41 and a drive 42.
  • the CPU 31 or the drive 42 is connected to the bus and performs necessary communication with each other.
  • the CPU 31 performs various processes by executing programs installed in the memory 32 and the storage 33.
  • the memory 32 is composed of, for example, a volatile memory, and temporarily stores programs executed by the CPU 31 and necessary data.
  • the storage 33 is composed of, for example, a hard disk or a nonvolatile memory, and stores programs executed by the CPU 31 and necessary data.
  • the operation unit 34 includes physical keys (including a keyboard), a mouse, a touch panel, and the like. In response to a user operation, the operation unit 34 outputs an operation signal corresponding to the operation on the bus.
  • the display unit 35 is composed of, for example, an LCD (Liquid Crystal Display) or the like, and displays an image according to data supplied from the bus.
  • LCD Liquid Crystal Display
  • the touch panel as the operation unit 34 is configured by a transparent member and can be configured integrally with the display unit 35. Thereby, the user can input information in such a manner as to operate an icon, a button, or the like displayed on the display unit 35.
  • Speaker 36 outputs sound according to data supplied from the bus.
  • the camera 37 takes an image (still image (photo), moving image) (senses light) and outputs corresponding image data on the bus.
  • the microphone 38 collects sound (senses sound) and outputs corresponding sound data on the bus.
  • the position detection unit 39 includes, for example, a circuit using a GPS (Global Positioning System), an antenna, and the like, detects the position of the terminal 12 as the position of the user, and outputs position information representing the position on the bus To do.
  • GPS Global Positioning System
  • the communication unit 40 includes a communication circuit and an antenna, and performs communication with the wireless LAN 22, the mobile phone network 23, the Internet 24, and the like.
  • the external I / F 41 is an interface for exchanging data with, for example, headphones or other external devices.
  • the drive 42 can be attached to and detached from a removable recording medium 42A such as a memory card, for example, and drives the removable recording medium 42A attached thereto.
  • a removable recording medium 42A such as a memory card
  • the program executed by the CPU 31 can be recorded in advance in the storage 33 as a recording medium built in the terminal 12.
  • the program can be stored (recorded) in the removable recording medium 42A, provided as so-called package software, and installed on the terminal 12 from the removable recording medium 42A.
  • the program can be downloaded from the Internet 24 via the communication unit 40 and installed in the terminal 12.
  • the CPU 31 functions as an acquisition unit 51 and a display control unit 52 by executing a program installed in the terminal 12.
  • the acquisition unit 51 acquires various information (data) such as an AR (Augmented Reality) object described later.
  • data can be received via the communication unit 40, data can be read from the memory 32, the storage 33, and the removable recording medium 42A.
  • the display control unit 52 performs display control to be presented to the user by causing the display unit 35 to display information acquired by the acquisition unit 51.
  • the terminal 12 is provided with a sensor other than the camera 37 that senses light and the microphone 38 that senses sound, that is, a sensor 43 that senses physical quantities other than light and sound, such as temperature and pressure. it can.
  • a sensor 43 that senses physical quantities other than light and sound, such as temperature and pressure. it can.
  • the terminal 12 can also serve as the sensor device 11.
  • the operation (input) on the terminal 12 can be performed by voice, a gesture, or any other means in addition to the operation of the operation unit 34.
  • FIG. 4 is a block diagram illustrating a configuration example of the server 13 in FIG.
  • the server 13 includes a CPU 61, a memory 62, a storage 63, an operation unit 64, a display unit 65, a speaker 66, a communication unit 67, an external I / F 68, and a drive 69.
  • the CPU 61 to the drive 69 are configured in the same manner as the CPU 31 to the speaker 36 and the communication unit 40 to the drive 42 in FIG.
  • the program executed by the CPU 61 can be recorded in advance in a storage 63 as a recording medium built in the server 13.
  • the program can be stored (recorded) in the removable recording medium 69A, provided as package software, and installed on the server 13 from the removable recording medium 69A.
  • the program can be downloaded from the Internet 24 via the communication unit 67 and installed in the server 13.
  • the CPU 61 executes a program installed in the server 13, so that a cooperative farming method (registered trademark) CMS (Content Management System) 71, a graph display control unit 72, a generation unit 73, an AR / VR display control unit 74, an edit Functions as the unit 75 and the analysis unit 76.
  • CMS Content Management System
  • Kyosai Agricultural Method (registered trademark) CMS71 is a web page (hereinafter also referred to as Kyosei Agricultural Method (registered trademark) page) that exchanges information related to Kyosei Agricultural Method (registered trademark) (text, images, etc.)
  • the layout information and the like are registered and managed in a DB (database) stored in the storage 63.
  • the symbiotic farming method (registered trademark) CMS 71 constructs a symbiotic farming method (registered trademark) page, and transmits the symbiotic farming method (registered trademark) page as a web server on the Internet 24 from the communication unit 67 to the terminal 12 ( To other devices that function as web browsers).
  • the acquisition unit 51 acquires the cooperative farming method (registered trademark) page from the cooperative farming method (registered trademark) CMS 71 via the communication unit 40, and the display control unit 52 performs the cooperation.
  • the raw farming method (registered trademark) page is displayed on the display unit 35.
  • the graph display control unit 72 generates a multi-partite graph (graph model) such as a bipartite graph (bipartite graph) necessary for generating a relation graph described later from the DB recorded in the storage 63 or the like.
  • a multi-partite graph graph model
  • the terminal 12 is caused to generate and display a relation graph from the bipartite graph.
  • the graph display control unit 72 generates a relationship graph from the bipartite graph and transmits the relationship graph to the terminal 12 from the communication unit 67, thereby causing the terminal 12 to display the relationship graph.
  • the acquisition unit 51 acquires the bipartite graph or the relationship graph from the graph display control unit 72 via the communication unit 40.
  • the acquiring unit 51 acquires the relationship graph by generating a relationship graph from the bipartite graph.
  • the display control unit 52 causes the display unit 35 to display the relationship graph acquired by the acquisition unit 51.
  • the generating unit 73 generates an AR object, a VR (virtual reality) space (image) for displaying the AR object in a superimposed manner, and registers (records) it in the storage 63.
  • a VR virtual reality space
  • the AR / VR display control unit 74 displays an AR object in a real space, an imaged real space obtained by photographing the real space (an image thereof), or an AR display for displaying the VR object (an image obtained by modeling the real space) Processing necessary for causing the terminal 12 to perform VR display is performed.
  • the AR / VR display control unit 74 acquires, from the storage 63, information representing an AR object and a photographing real space or VR space as a background space on which the AR object is superimposed and displayed from the communication unit 67. By transmitting to the terminal 12, the terminal 12 is caused to perform AR display or VR display to display the AR object superimposed on the background space.
  • the AR / VR display control unit 74 acquires an AR object from the storage 63 and transmits the AR object to the terminal 12 from the communication unit 67, thereby using the real space as the background space for the terminal 12 and the background space. AR display to display the AR object superimposed on the.
  • the editing unit 75 edits the AR object registered in the storage 63 according to the operation of the terminal 12 by the user.
  • the analysis unit 76 analyzes the sensor data from the sensor device 11.
  • various DBs are registered in the storage 63, and various DBs (hereinafter referred to as “cooperative farming methods” (hereinafter referred to as “cooperative farming methods”) that support the management of the cooperative farming method (registered trademark) as part of the various DBs. (Registered trademark) also called DB).
  • FIG. 5 is a diagram showing a configuration example of a cooperative farming method (registered trademark) DB.
  • the symbiotic farming method (registered trademark) DB is the sowing DB, vegetation DB, yield DB, management record DB, phenology DB, insect flora DB, microbiota DB, climate classification DB, weather DB, coordinate DB, cooperative DB It has a raw farming method (registered trademark) assessment DB, an allelopathy DB, a rotation suitability DB, a plant name DB, a photo record DB, a meta DB, and the like.
  • Kyosei Agricultural Method (registered trademark) DB csv (commavseparated values) files (for example, two-dimensional matrix format files) and image files are stored.
  • the symbiotic farming method (registered trademark) DB and all or part of the DB stored in the storage 63 can be arranged independently of the server 13 and connected to the server 13 via the network 10.
  • FIG. 6 is a diagram showing a configuration example of the seed sowing DB.
  • the seed sowing DB is composed of csv files, for example.
  • recording date, field section, vine number, cocoon section, seed and seedling distinction, crop name, sakumotsumei, quantity, and manufacturer information are recorded. Even if the seeds and seedlings of the same variety are collected and grown depending on the manufacturer, the manufacturer name can also be a kind of cultivation condition, so it is preferable to keep a management record.
  • the fields (plants) in the application area are divided into field sections.
  • a vine is formed in the field section, and the ridge is divided into one or more vine sections.
  • Each kite is given a kite number that identifies the kite.
  • the name of the crop is recorded as “potato” (baron ⁇ ) and the information including the variety, including kanji.
  • the name “Satomotsumeme” does not distinguish the variety from “potato”. Is recorded only in katakana. Such a unified representation of only characters facilitates the search.
  • FIG. 7 is a diagram showing a configuration example of the vegetation DB.
  • Vegetation DB is composed of csv files, for example.
  • the recording date and the position information as the observation section coordinates are recorded.
  • the following observations are recorded at the observation block coordinates NE.
  • germination of broad beans carrots can be harvested, radish can be harvested, leeks have settled, seedling broccoli has settled, seedling cabbage has settled It has been recorded that seedlings of Chinese cabbage are established and can be harvested.
  • FIG. 8 is a diagram showing a configuration example of the yield DB.
  • Yield DB is composed of csv file, for example.
  • the yield of the harvested crop is recorded for each harvested month and day.
  • holonigaletus is harvested 100g on January 14, 2012, and radishes are 1700g on January 24, 4000g on January 29, 1500g on January 30, 740g on January 31, and February 20 Each day, 1500g is harvested.
  • “Muna” is not a common name, but the name given to the plant by the observer.
  • recording of coordinates as position information is omitted, but GPS coordinates or the like can be recorded as position information of fields such as fields and straws where crops are observed.
  • the input information of the seed sowing DB can be used for the input of the yield DB.
  • the yield DB information on the plants managed by the sowing DB can be displayed as it is.
  • FIG. 9 is a diagram showing a configuration example of the management record DB.
  • the management record DB is composed of csv files, for example.
  • the management work performed and the date performed are recorded. For example, on January 19, 2012, January 20, 2012, January 21, 2012, January 22, 2012, January 23, 2012, civil engineering works such as seedling planting and windbreak shelves were made. What has been done is recorded.
  • FIG. 10 is a diagram showing a configuration example of a csv file as a phenology DB.
  • the phenology DB is composed of image files and csv files, for example.
  • FIG. 10 shows an example of a csv file.
  • the contents of the phenology and the recording date and time are recorded in characters. For example, on January 9, 2011, unknown grass seeds were observed, growth was better than others, the lower part of the peas had withered, and places where growth was clearly better than others were observed. Etc. are recorded.
  • FIG. 11 is a diagram showing a configuration example of an image file as a phenology DB.
  • Phenology 1 which is an image taken at Oiso, dated September 22, 2011, field plot NN, basket number 02, fence plot d3, is shown.
  • phenology 1-2 which is an image taken at the same location, is shown with a comment that “NN02d3 has a lot of germination of futaba”.
  • the phenology observed by the operator (user) is recorded as characters and images.
  • FIG. 12 is a diagram showing a configuration example of an insect fauna DB.
  • the insect flora DB is composed of, for example, image files and csv files.
  • FIG. 12A an image of an insect photographed on a field 087 named Ise New Farm on February 18, 2012 is shown.
  • the observation site is Ise New Farm
  • the insects are Coleoptera
  • the family name is Ganodermaceae
  • the classification seems to be Snagidae
  • the group was wintering under the stone Has been.
  • FIG. 12B shows an image of an insect photographed on the field 088 named Ise New Farm on February 18, 2012. As a comment, the same content as in the case of FIG. 12A is recorded.
  • FIG. 12C shows an image of a still life photographed in a field 089 named Ise New Farm on February 18, 2012.
  • the observation site is Ise New Farm
  • the organism is a spider
  • the name is a spider
  • the name is a common spider family
  • the species name is a arachnid spider
  • the most common species of the common spider family It has been recorded that he often wanders around the surface of the earth.
  • FIG. 13 is a diagram showing a configuration example of the weather DB.
  • meteorological information such as atmospheric pressure, precipitation, temperature and humidity in the Tsu region in 2012 is recorded at the beginning, mid and late of each month.
  • the local average atmospheric pressure is 1018.7 hPa
  • the sea level average is 1021.0 hPa.
  • the maximum precipitation is 0.5 mm in 10 minutes, 0.5 mm in 1 hour, 0.5 mm in 1 day, and 0.5 mm in total.
  • the temperature the maximum is 11.6 ° C and the minimum is 0.2 ° C.
  • the average daily maximum is 9.2 ° C, the average minimum is 2.0 ° C, and the daily average is 5.2 ° C.
  • the average humidity is 62% and the minimum is 24%.
  • FIG. 14 is a diagram showing a configuration example of the allelopathic DB.
  • the allelopathic DB is composed of csv files, for example.
  • allelopathies are recorded for leeks, watermelons and melons (Cucurbitaceae), carrots, millet, millet, wheat, pumpkins, watermelon, cucumbers, pumpkins (cucumbers), garlic and onions.
  • Yes. “1” means that a symbiotic interaction (ie, promoting action) is confirmed between the target plants, and “0” means that it is not confirmed.
  • a symbiotic interaction has been confirmed between leek and carrot, but a symbiotic interaction has not been confirmed between leek and wheat.
  • the degree of interaction can be expressed step by step using numbers such as 0 to 10.
  • FIG. 15 is a diagram showing a configuration example of the rotation suitability DB.
  • Rotation aptitude DB is composed of csv files.
  • the suitability of watermelon, melon (Cucurbitaceae) and peanut rotation is recorded. “1” means that good rotation suitability was confirmed in the field among the target plants, and “0” means that it was not confirmed.
  • watermelon and melon (Cucurbitaceae) and peanuts have been confirmed to have good rotation suitability.
  • allelopathic DB and rotation suitability DB are created not only from information known in the literature, but also from other information.
  • sowing DB, vegetation DB, and yield DB the vegetation combination in which the symbiotic state was actually established in the symbiosis plantation or the combination that caused vegetation transition (ie, temporal vegetation change) Can be created in the same format.
  • the microbiota DB is composed of image files and csv files.
  • the microbiota DB records information on microorganisms analyzed from soil samples obtained at Kyosei Farm.
  • the climate classification DB consists of csv files.
  • This climate classification DB is a DB that records information on the climate classification in which the farm (field) is located, and includes classifications such as a laurel forest zone, a deciduous forest zone, a subtropical climate, and a tropical climate.
  • the meteorological DB records for example, image files graphed from meteorological data of meteorological satellites such as AMeDAS, csv files, and various types of meteorological data as sensor data by the sensor device 11 which is an observation device installed in the field.
  • the coordinate DB consists of csv files.
  • the coordinate DB records the GPS coordinates of each vine in the field. This coordinate has an accuracy of about 10 cm.
  • the Kyosai Agricultural Method (registered trademark) assessment DB consists of pdf or image files.
  • the Kyosai Agricultural Law (registered trademark) assessment document is a certificate that the examination as a cooperative farming method (registered trademark) has been cleared, and the server administrator examines the field based on the application from the manager of the field 21 It is issued when it is confirmed that the condition as a cooperative farming method (registered trademark) is satisfied. It is permitted to indicate that crops from farms that have received this issue are based on the Kyosei Agricultural Law (registered trademark).
  • Plant name DB records names and images of various plants.
  • the photo record DB records various photos.
  • the meta DB records key events to be described later.
  • the Kyosai Agricultural Method (registered trademark) DB records various information necessary for obtaining a vegetation design of a plant cultivated by the Kyosei Agricultural Method (registered trademark).
  • FIG. 16 is a flowchart for explaining an example of vegetation design support processing.
  • the ecosystem utilization system in Fig. 1 supports vegetation design for Kyosai Agricultural Method (registered trademark) as one of the support for ecosystem utilization.
  • a vegetation combination suitable for constructing a mixed vegetation state with those crops that is, a vegetation design of Kyosai Agricultural Method (registered trademark) is performed.
  • Searched from allelopathic DB and rotation aptitude DB A spatio-temporal arrangement of vegetation design that is expected to have the lowest cost and high yield is output.
  • Kyosai Agricultural Method (registered trademark) is based on mixed vegetation, it mixes and seeds multiple crop seeds and harvests the grown seeds. What kind of combination can be used to achieve higher density of mixed abundance depends on the plant and the land conditions, and is already known in the field, as well as the interaction between plants already known (allelopathy and aptitude for rotation). It is necessary to expect from both successful combinations.
  • vegetation design Since it is not possible to completely control the ecosystem including the weather etc., not all of the sown seeds and planted seedlings can be harvested, but the vegetation combinations that reduce costs and maximize yield are estimated. This is a challenge for vegetation design. Since vegetation design is conceptually similar to the composition of a portfolio in equity investment, vegetation design can be called a seed portfolio.
  • step S11 the acquisition unit 51 of the terminal 12 acquires the selection of the plant species (vegetation) to be cultivated. That is, when the user operates the operation unit 34 to specify a plant species to be cultivated, this is acquired by the acquisition unit 51.
  • This input may be performed by a method in which the user inputs an arbitrary plant name, or a list of plant names prepared in advance may be displayed on the display unit 35 and a predetermined one may be selected from the list. . Thereby, designation
  • step S ⁇ b> 12 the communication unit 40 transmits the plant species (plant species name) acquired by the acquisition unit 51 to the server 13 via the network 10.
  • step S31 the communication unit 67 of the server 13 receives the plant species transmitted from the terminal 12. That is, the plant species transmitted from the terminal 12 in step S12 is received by the server 13. Thereby, the plant cultivated by the user is accepted by the server 13.
  • step S ⁇ b> 32 in the server 13, the cooperative farming method (registered trademark) CMS 71 searches for a vegetation design including the plant species from the terminal 12. That is, the symbiotic farming method (registered trademark) CMS 71 selects a combination of a plant specified by the user (plant species from the terminal 12) and a vegetation suitable for constructing a mixed vegetative state from at least the allelopathic DB and the rotation suitability DB. Search exhaustively from one side. Note that the plant name DB is also used as necessary to confirm the received plant species.
  • step S33 the cooperative farming method (registered trademark) CMS 71 calculates a symbiosis score of each vegetation design searched in step S32. That is, the symbiosis score of each combination of vegetation suitable for constructing a coexistence state with the plant designated by the user, which is one or more vegetation designs retrieved in step S32, is calculated.
  • the value of the weighting score evaluated as a positive / negative value of the interaction is recorded. That is, the vegetation state of a plant that has been recorded as seeded in the seeding DB is recorded in the vegetation DB, and the yield obtained from the plant is recorded in the yield DB. The weighting score of the plant is added to the seeding DB, the vegetation DB, and the yield DB for each observation, and a combination with a higher yield finally gives a larger weighting score.
  • the rotation suitability DB a large weighting score is recorded for a combination of plants suitable for rotation. A symbiosis score based on them is recorded in the allelopathic DB.
  • the symbiosis score with watermelon which is one of the other plants recorded as a target of combination with peanuts, is the various conditions, results, etc. when both are cultivated in a mixed and dense state
  • the average value of the weighting score for the element is calculated. If the yield is high, the element is assigned a large weighting score, and if the yield is low, a low weighting score is assigned. Their average value is calculated and used as a symbiosis score. The calculation may be performed every time a plant is designated, or may be automatically performed at a predetermined timing.
  • allelopathic DB and rotation aptitude DB are used for the calculation of symbiosis score, the case where plant species that are easy to grow every year due to vegetation transition will be averaged. Therefore, evaluation is possible even with the symbiosis score, which is the average value of variable long-time differences divided into the last several years. Considering this, it is possible to respond to and utilize vegetation transition.
  • step S34 the cooperative farming method (registered trademark) CMS 71 evaluates the symbiosis score of each vegetation design searched in step S31. That is, the symbiosis score of each vegetation design including the plant designated by the user is compared.
  • step S35 the cooperative farming method (registered trademark) CMS 71 selects a vegetation design having a higher symbiosis score. That is, one or more combinations of plant species having a large value of the symbiosis score evaluated in step S34 are selected in descending order.
  • all the vegetation designs searched can be presented to the user as they are.
  • the evaluation process of the symbiosis score and the process of selecting the vegetation design having the higher symbiosis score value can be omitted.
  • the evaluation of the symbiosis score can be performed by the user. In this case, the evaluation process of the symbiosis score and the selection process of the vegetation design having the higher symbiosis score value can be omitted.
  • step S36 the communication unit 67 of the server 13 transmits the selected vegetation design to the terminal 12 that has transmitted the plant species received in step S31 to the server 13 via the network 10.
  • step S13 the acquisition unit 51 of the terminal 12 acquires the vegetation design transmitted from the server 13 by causing the communication unit 40 to receive the vegetation design. Thereby, the vegetation design of the plant designated by the user in Step S11 is acquired.
  • step S ⁇ b> 14 the display control unit 52 causes the display unit 35 to display the vegetation design acquired from the server 13.
  • the user can know each combination of the plant species input in step S11 and the vegetation suitable for constructing the mixed vegetative state.
  • the user can select a predetermined combination from the combinations proposed and displayed from the ecosystem utilization system and actually cultivate it in the field.
  • the displayed combination is a combination of plant species specified by the user and vegetation suitable for building a mixed vegetative state, so it is possible to improve the yield compared to cultivating in a random combination It becomes. As a result, the cost can be reduced compared to the case where plants are cultivated in a random combination.
  • the information presented to the user here is not a prediction. Reference information for prediction based on past empirical rules. The prediction is made by the user based on the reference information.
  • the cooperative farming method since a plurality of types of plants are vegetated in a mixed and dense state, it is possible to disperse the danger as compared with the case where only one type of plant is cultivated. Many yields can be obtained. This is also the reason why the vegetation design of the ecosystem utilization system is called a seed portfolio. Therefore, the user can designate the number of upper combinations to be presented. Of course, a more appropriate number of plants can also be presented. This enables risk management.
  • FIG. 17 is a diagram showing an output example of symbiotic allelopathy.
  • FIG. 17 is a display example in step S14 of FIG.
  • plants that is, companion plants
  • plants suitable for constructing a mixed and dense state with the 10 types of plants shown in the uppermost stage are shown in the lower stage.
  • plants suitable for building a mixed state with corn include watermelons and melons (Cucurbitaceae), pumpkins, legumes, lettuce / salad vegetables, cucurbitaceae, sweet basil, vermicelli, geranium, melon, parsley, soybeans, These are morning glory, Japanese mustard spinach, and leafy vegetables.
  • Plants suitable for building a mixed state with celery are tomatoes, cabbages, Chinese cabbage, turnips, and peas.
  • the plant name shown at the bottom level is displayed as a plant suitable for constructing a mixed and dense state. Therefore, the user can select one or more plants from the display and vegetate together with the designated plants in a mixed and dense state.
  • FIG. 18 is a schematic diagram showing a display example of an AR object.
  • object data (as an image (data)) is superimposed on a predetermined background space such as a real space that the user actually sees, and the object data (as an image (data)) exists in the background space. It is displayed as if
  • object data capable of AR display is also referred to as an AR object.
  • image recognition of the background space is performed, a marker is detected, an AR object is displayed at a position corresponding to the marker, and absolute coordinates such as GPS coordinates are used. There is a way to display an AR object at a position.
  • the marker there are a case where an object originally existing in the background space is used and a printed matter on which an image such as a predetermined pattern is printed.
  • an AR object can be associated with a marker or GPS coordinate
  • AR display can be performed by superimposing the AR object on a position in the background space corresponding to the marker or GPS coordinate.
  • the server 13 associates an AR object representing the species name with a predetermined GPS coordinate, for example, for a vegetable that is actually vegetated at a predetermined GPS coordinate (the position represented by). , Associating an AR object representing seeding and management work information with a predetermined GPS coordinate for a given GPS coordinate trap, and for an indigenous vegetation with a predetermined GPS coordinate, an AR object representing the indigenous vegetation and a predetermined GPS coordinate Can be associated with each other.
  • An AR object associated with the predetermined GPS coordinate can be displayed at a position corresponding to the predetermined GPS coordinate in (image).
  • Chinese cabbage 101 to 104, leek 105, Japanese radish 106, cauliflower 107, komatsuna 108, burdock 109, and mugwort group fabric band 110 are vegetated at positions represented by predetermined GPS coordinates in a certain field, respectively. ing.
  • the AR object of the Chinese cabbage 101 to the mugwort group fabric band 110 is associated with the GPS coordinates of the position where the Chinese cabbage 101 to the mugwort group fabric band 110 is vegetated, and is recorded and managed. .
  • the server 13 displays the name (image to be displayed) input by the user.
  • the AR coordinates are associated with the GPS coordinates where the plant whose name is input by the user is vegetated.
  • the image is displayed on the display unit 35. Further, when a predetermined instruction is input, as shown in FIG. 18, the name of the corresponding AR object, that is, “Chinese cabbage” or the like is superimposed on the image of the actual plant that is vegetated at the GPS coordinate position. Image to be displayed).
  • the mugwort group fabric band 110 is not a plant vegetated as a result of seeding by the user, but is an indigenous plant. In FIG. 18, such an indigenous plant is also given an AR object by the user. .
  • the AR object is displayed using GPS coordinates, but the AR object can be displayed using a marker. That is, the AR object can be associated with a GPS coordinate and displayed at a position in the background space corresponding to the GPS coordinate, or can be associated with a marker and displayed at a position in the background space corresponding to the marker.
  • FIG. 19 is a diagram showing an example of a site map of a web page as a cooperative farming method (registered trademark) page.
  • the server 13 provides the user of the terminal 12 with a cooperative farming method (registered trademark) page, which is a web page in which the cooperative farming method (registered trademark) DB is linked according to the geographical hierarchy shown in FIG.
  • a cooperative farming method (registered trademark) page which is a web page in which the cooperative farming method (registered trademark) DB is linked according to the geographical hierarchy shown in FIG.
  • an icon for selecting the cooperative farming method (registered trademark) DB is displayed on the top page of the cooperative farming method (registered trademark) page.
  • the Kyosai Agricultural Method (registered trademark) page is the top page, the distribution of fields on the map, the entire field information, the entire field information, Consists of a hierarchy of overall information for the ⁇ section.
  • the top page, the field distribution on the map, the entire field information, the entire field section information, and the all-compartment information hierarchy correspond to the geographical hierarchy of the earth, the field, the field section, and the all-compartment section, respectively. Therefore, the display unit 35 of the terminal 12 outputs and displays the fields according to this hierarchical structure. For example, the user can select the screens of field sections # 1-1, # 1-2,...
  • the entire field information is linked to the climate classification DB, the weather DB, the Kyosai Agricultural Method (registered trademark) assessment document DB, the photo record DB, and the coordinate DB that records GPS coordinates as position information.
  • the whole field information is linked to the yield DB, insect flora DB, phenology DB, photo record DB, and coordinate DB.
  • the whole information of the culvert is linked to the sowing DB, vegetation DB, phenology DB, photo record DB, and coordinate DB.
  • FIG. 20 is a diagram showing a display example of field distribution on a map provided on the Kyosei Agricultural Method (registered trademark) page.
  • the position of the field is indicated by a flag 121 on the map of the earth.
  • the icons 122 to 129 correspond to a seeding DB, a vegetation DB, a yield DB, a photo recording DB, a phenology DB, an insect flora DB, a climate classification DB, and a weather DB, and are operated when reading out each.
  • the geographical hierarchy icon 130 is operated, for example, when selecting a field level such as a field section or a fence section.
  • the icon 131 is operated when a search is instructed, the icon 132 is operated when a sort is instructed, and the icon 133 is operated when a key event is instructed.
  • the cooperative farming method (registered trademark) CMS 71 of the server 13 searches all words and file names.
  • Kyosei Agricultural Method (registered trademark) CMS 71 also has a similar word search function.
  • dates such as “April 1, 2011” and “20110401”, “01042011”, “2011/4/1”, “1/4/2011”, “April 1, 2000” Identified.
  • it is possible to perform a collective search in which the kana notation / kanji notation / Japanese name / scientific name / English name / common name of the species name are identified. For example, potatoes and potatoes are equated.
  • the cooperative farming method (registered trademark) CMS 71 sorts all the parameters. For example, the search result can be rearranged for each parameter such as date order or alphabetical order of species name.
  • FIG. 21 is a flowchart for explaining an example of processing when the user refers to information on a farm field (field).
  • step S41 the acquisition unit 51 of the terminal 12 acquires field level information. That is, when referring to the information regarding the field, the user operates the operation unit 34 and selects the icon 130 (see FIG. 20) of the geographical hierarchy. When this operation is performed, the display unit 35 displays a screen for selecting a field level. In other words, the level of the field list is displayed. The user operates the operation unit 34 to select a field to be referred to from the screen.
  • the acquisition unit 51 acquires the selection information
  • the communication unit 40 transmits the selection information to the server 13.
  • step S61 the communication unit 67 of the server 13 receives the field level information selected by the terminal 12.
  • step S62 a process of creating and outputting a list of fields at the level selected by the terminal 12 in step S41 is performed. That is, the cooperative farming method (registered trademark) CMS 71 searches the coordinate DB to generate a list of fields at the level received in step S61, and the communication unit 67 transmits the list to the terminal 12.
  • the cooperative farming method (registered trademark) CMS 71 searches the coordinate DB to generate a list of fields at the level received in step S61, and the communication unit 67 transmits the list to the terminal 12.
  • step S42 a list is received and displayed. That is, the list output from the server 13 is received by the communication unit 40 of the terminal 12, and the display control unit 52 displays the list on the display unit 35.
  • step S43 the communication unit 40 transmits information on the field selected from the list.
  • step S63 the communication unit 67 of the server 13 receives the information on the field selected by the terminal 12.
  • step S64 the cooperative farming method (registered trademark) CMS 71 searches the cooperative farming method (registered trademark) DB for a database related to the field received in step S63.
  • the DB related to the field at the level specified by the user is searched from the Kyosai Farming Method (registered trademark) DB.
  • step S65 processing for outputting a list of searched field DBs is performed. That is, the cooperative farming method (registered trademark) CMS 71 creates a list of related DBs based on the search result, and the communication unit 67 outputs the list to the terminal 12.
  • step S44 the communication unit 40 of the terminal 12 receives a list of searched field DBs.
  • step S45 the display control unit 52 causes the display unit 35 to display a list of field DBs received by the communication unit 40.
  • step S ⁇ b> 46 the acquisition unit 51 acquires the input DB and reference field information.
  • step S47 the communication unit 40 transmits the information acquired in step S46 to the server 13.
  • step S66 the communication unit 67 of the server 13 receives the information transmitted from the terminal 12.
  • step S67 the cooperative farming method (registered trademark) CMS 71 reads the field information of the designated coordinates in the designated DB based on the received information. That is, the field information of the field of coordinates input by the user in the DB received in step S66 is read.
  • step S ⁇ b> 68 the communication unit 67 transmits the read field information to the terminal 12.
  • step S48 the communication unit 40 of the terminal 12 receives the field information read from the DB from the server 13.
  • step S49 the display control unit 52 displays the field information received by the communication unit 40 on the display unit 35.
  • step S50 the acquisition unit 51 acquires the date selection information of the information to be referred to. Then, the date selection information is transmitted to the server 13 by the communication unit 40.
  • step S ⁇ b> 69 the communication unit 67 of the server 13 receives the date selection information of the information to be referred from the terminal 12.
  • the cooperative farming method (registered trademark) CMS 71 reads information on the designated date from the cooperative cooperative farming method (registered trademark) DB.
  • the communication unit 67 reads the information on the read date. To the terminal 12.
  • step S51 the communication unit 40 of the terminal 12 receives the read date information from the server 13.
  • step S52 the display control unit 52 displays the date information received in step S51 on the display unit 35.
  • the field level is selected by the icon 130 of the geographical hierarchy, but the field to be referred to can be directly designated by operating the flag 121.
  • FIG. 22 is a flowchart illustrating an example of a photo upload process.
  • the acquisition unit 51 of the terminal 12 acquires the photograph data in step S81.
  • the photograph data image data
  • step S82 the position detection unit 39 of the terminal 12 detects GPS coordinates as position information. That is, the coordinates of the subject photographed by the terminal 12 are acquired.
  • the coordinates can be the current position of the terminal 12, or the distance and direction from the current position to the subject can be calculated and the current position can be corrected to obtain more accurate subject coordinates.
  • the user can also input coordinates by operating the operation unit 34.
  • step S83 the display control unit 52 displays a list of information on the cooperative farming method (registered trademark) DB to be linked to the photo data on the display unit 35.
  • step S84 the acquisition unit 51 acquires information on selection of information to be linked to the photo data. That is, when the user operates the operation unit 34 to select information to be linked to photo data from the list displayed on the display unit 35, the selection unit 51 acquires the selection information.
  • the user can input information (mainly character information) to be added as a comment to the uploaded photo by operating the operation unit 34.
  • information mainly character information
  • the name “Hakusai” is input as a comment.
  • the acquisition unit 51 acquires information that is used as the input comment.
  • the communication unit 40 transmits the information acquired in steps S81, S82, S84, and S85 to the server 13.
  • step S91 the communication unit 67 of the server 13 receives information transmitted from the terminal 12.
  • step S92 the cooperative farming method (registered trademark) CMS 71 registers the information received in step S91 in the cooperative farming method (registered trademark) DB. That is, the photograph taken by the user is registered in the photograph recording DB together with the comment, and further linked to information on the cooperative farming method (registered trademark) DB selected by the user.
  • the user can upload a predetermined photograph and comment from the terminal 12 to the server 13.
  • the user can refer to the uploaded information later by the process of FIG.
  • FIG. 23 is a flowchart illustrating an example of key event registration processing.
  • the user can register any event as a key event in the Meta DB of Kyosai Agricultural Method (registered trademark) DB.
  • key events events presumed to be important for the management of Kyosai Agricultural Method (registered trademark) can be adopted, and key events are recorded in natural language names and each DB of Kyosei Agricultural Method (registered trademark) DB. Defined by the corresponding item link.
  • step S101 the acquisition unit 51 accepts selection of the key event icon 133.
  • step S102 the acquisition unit 51 acquires photo data and date. That is, for example, when a user photographs a plant or the like as an event to be recorded as a key event with the camera 37 and operates the operation unit 34 to input a date, the information is acquired by the acquisition unit 51.
  • step S103 the position detection unit 39 acquires GPS coordinates as position information. That is, coordinates corresponding to the photographed photograph (GPS coordinates of a plant or the like as an event reflected in the photograph) are acquired.
  • step S104 the acquisition unit 51 acquires an input character. That is, when the user operates the operation unit 34 to input character information as a key event, this is acquired. For example, when a user finds a rosette-like Chinese cabbage, he / she can take a picture of the Chinese cabbage and input “Chinese cabbage rosette” as a key event.
  • step S105 the communication unit 40 transmits the information acquired in steps S102 to S104 to the server 13.
  • step S121 the communication unit 67 of the server 13 receives the information transmitted from the terminal 12.
  • step S122 the cooperative farming method (registered trademark) CMS 71 records the information received by the communication unit 67 in the meta DB. That is, the information acquired by the terminal 12 in steps S102 to S104 is recorded (registered) in the meta DB as the key event DB.
  • step S106 the acquisition unit 51 of the terminal 12 acquires the field level. That is, when recording a key event, the user operates the operation unit 34 to select a geographic hierarchy icon 130 (FIG. 20). When this operation is performed, the display unit 35 displays a screen for selecting a field level. The user operates the operation unit 34 to select a field level to be referred to from the screen. The acquisition unit 51 acquires the selection information, and the communication unit 40 transmits the selection information to the server 13.
  • step S123 the communication unit 67 of the server 13 receives the field level information selected by the terminal 12.
  • step S124 a list of fields at the level selected by the terminal 12 in step S106 is created and output. That is, the cooperative farming method (registered trademark) CMS 71 searches the coordinate DB to generate a list of fields at the level received in step S123, and the communication unit 67 transmits the list to the terminal 12.
  • step S107 a list is received and displayed. That is, the list output from the server 13 is received by the communication unit 40 of the terminal 12, and the display control unit 52 displays the list on the display unit 35.
  • step S ⁇ b> 108 the communication unit 40 transmits the field information selected from the list to the server 13.
  • step S125 the communication unit 67 of the server 13 receives information on the field selected by the terminal 12.
  • step S126 the cooperative farming method (registered trademark) CMS 71 searches the cooperative farming method (registered trademark) DB for the DB in which the field information received in step S125 is registered.
  • the DB related to the field at the level specified by the user is searched from the Kyosai Agricultural Method (registered trademark) DB.
  • step S127 processing for outputting a list of searched DBs is performed. That is, the cooperative farming method (registered trademark) CMS 71 creates a list of DBs related to the field at the level designated by the user based on the search result, and the communication unit 67 transmits the list to the terminal 12.
  • step S109 the communication unit 40 of the terminal 12 receives the DB list from the server 13.
  • step S ⁇ b> 110 the display control unit 52 displays a list of DBs from the server 13 on the display unit 35.
  • step S111 the acquiring unit 51 acquires the input DB and field coordinate information linked to the key event.
  • step S ⁇ b> 112 the communication unit 40 transmits the information acquired in step S ⁇ b> 111 to the server 13.
  • step S1208 the communication unit 67 of the server 13 receives the information transmitted from the terminal 12.
  • the cooperative farming method (registered trademark) CMS 71 reads the field information of the designated coordinates from the designated DB of the cooperative farming method (registered trademark) DB. That is, the field information of the field at the coordinates similarly input by the user is read from the DB input by the user.
  • step S ⁇ b> 130 the communication unit 67 transmits the read field information to the terminal 12.
  • step S113 the communication unit 40 of the terminal 12 receives the read field information. This information is displayed on the display unit 35.
  • the user confirms that the field specified (input) by the user is a field linked to the key event by looking at this display. After this confirmation, the user operates the operation unit 34 to instruct to link the field information specified by the user in the DB specified (input) by the user with the key event. Based on this instruction, in step S ⁇ b> 114, the communication unit 40 transmits a command for a link to the server 13.
  • step S131 the communication unit 67 of the server 13 receives the link command transmitted from the terminal 12.
  • step S132 the cooperative farming method (registered trademark) CMS 71 links the newly recorded key event to the designated field information. That is, the key event newly recorded in the meta DB in step S122 is linked to the field information designated by the user in step S111.
  • the user refers to the field information linked to the key event from the key event by operating the operation unit 34 of the terminal 12.
  • the field information it is possible to access a key event linked to the field information.
  • the event as a specific example of the key event is described in the order of the key event name, the record in free language, and the related DB that is the DB in which the field information linked to the key event is registered.
  • Rosette Records in free language: In winter, some vegetable species change into a flat and crumpled form on the surface of the earth, and survive until spring in a shape that does not wither even in cold weather. This form can also be harvested.
  • Related DB Vegetation DB, Phenology DB, Yield DB, Weather DB
  • Vegetation DB Vegetation DB
  • Phenology DB Phenology DB
  • Yield DB Weather DB
  • Late frost Recording in free language If the ground surface falls below 4 ° C immediately after germination in spring, the foliage will be annihilated by late frost.
  • Related DB Seedling DB, Management Record DB, Vegetation DB, Phenology DB, Weather DB
  • FIG. 24 is a diagram illustrating a relation graph generated by the graph display control unit 72 of the server 13 (or the acquisition unit 51 of the terminal 12).
  • a relation graph representing the relationship between the information i2 can be generated using the information i1 as a scale, contrary to the above case.
  • the DB in which the information i1 and i2 are explicitly associated in addition to the DB in which the information i1 and i2 are explicitly associated, the DB in which the information i1 and i2 are implicitly associated can be used.
  • the information i1 is the observed vegetation (name of vegetation) and the information i2 is the field (name of the field) where vegetation is observed
  • the information i1 and i2 are explicitly associated with each other.
  • the DB that is registered is a DB in which vegetation and a field where the vegetation is observed are registered in association with each other.
  • the DB in which the information i1 and i2 are implicitly associated is, for example, a DB in which a natural language such as “vegetation # 1 was observed in the field # 1” is registered.
  • the graph display control unit 72 generates, for example, a bipartite graph (bipartite graph) as a multipartite graph from the DB in which the information i1 and i2 are associated, and generates a relation graph from the bipartite graph. To do.
  • a bipartite graph bipartite graph
  • FIG. 24 is a diagram showing an example of a bipartite graph generated from the DB.
  • a vegetation / field DB in which vegetation and a field where the vegetation is observed is associated is adopted as the DB.
  • a relationship score representing the relationship (strength) between vegetation #i and #j is obtained using field #k as a scale (i ⁇ j ).
  • FIG. 25 is a diagram illustrating an example of a relation score obtained from the bipartite graph of the vegetation / field DB in FIG.
  • the relationship score between vegetation #i and other vegetation #j is the number of fields associated with both vegetation #i and #j, i.e. the number of fields where both vegetation #i and #j are observed.
  • Corresponding values eg, proportional values
  • the graph display control unit 72 obtains a relationship score from the bipartite graph, generates a relationship graph using the relationship score, and generates a graph display screen displaying the relationship graph.
  • FIG. 26 is a diagram illustrating an example of a graph display screen on which a relation graph generated using the bipartite graph of FIG. 24 and the relation score of FIG. 25 is displayed.
  • the relationship graph is composed of nodes indicated by circles in the figure and links indicated by line segments connecting the nodes.
  • nodes correspond to vegetation
  • links represent nodes, that is, here, relationships between vegetation.
  • the relation graph of FIG. 26 shows that the node of vegetation # 1 (the node corresponding to vegetation # 1) is the attention node of interest, and vegetation # 1 represented by the attention node and the other vegetation # 2 to # 6 respectively. Represents the relationship.
  • the relationship graph is arranged such that, for example, the node of interest, that is, the vegetation # 1 node is located at (approximately) the center of the screen.
  • the length of the link between the node of vegetation # 1 that is the node of interest and the nodes of other vegetation # 2 to # 6 is the vegetation # 1 and the vegetation # shown in FIG.
  • the length corresponds to the relationship score between 2 and # 6.
  • the length of the link between the node of vegetation # 1 which is the attention node and the node of other vegetation #j is larger as the relation score between vegetation # 1 and #j is larger, that is, vegetation # 1 and The stronger the relationship with #j, the shorter.
  • the strong relationship between vegetation # 1 and #j corresponds to the large number of fields where both vegetation # 1 and #j are observed.
  • the vegetation #j represented by the node near the node of the vegetation # 1 that is the node of interest is in a symbiotic relationship with the vegetation # 1, and the user who viewed the relationship graph of FIG. Vegetation suitable for constructing a vegetation # 1 and mixed vegetation state can be easily recognized (predicted) (estimated).
  • vegetation design can be supported as one of the support of ecosystem utilization.
  • the node of vegetation # 1 is the target node, but any node can be selected as the target node on the graph display screen.
  • the display control unit 52 Display the graph display screen that displays the relationship graph with the # 3 node as the target node.
  • FIG. 27 is a diagram showing an example of a graph display screen on which a relation graph with the vegetation # 3 node as a target node is displayed.
  • the relationship graph is arranged so that the node of vegetation # 3, which is the node of interest, is located at the center of the screen.
  • the length of the link between the node of vegetation # 3, which is the node of interest, and the nodes of other vegetation # 1, # 2, # 4 to # 6 is shown in FIG. It has a length corresponding to the relationship score between # 3 and vegetation # 1, # 2, # 4 or # 6.
  • the relationship between the information i1 with the information i2 as a scale the relationship between the information i1 and the information i2 associated with the information i1 can be expressed in addition to the relationship between the information i1.
  • FIG. 28 is a diagram showing an example of a graph display screen on which a relationship graph representing a relationship between vegetation and a field associated with the vegetation is displayed in addition to the relationship between vegetation.
  • the relationship graph of FIG. 26 includes a field node (part indicated by a triangle in the figure) associated with vegetation and a link (part indicated by a dotted line in the figure) indicating the relationship between the vegetation and the field. ) And have been added.
  • the user can easily recognize the vegetation # 1 and the vegetation suitable for constructing the mixed vegetation state.
  • the observed field can be easily recognized.
  • the user can estimate the environment in which vegetation # 1 is observed by accessing the Kyosai Agricultural Method (registered trademark) DB and examining the environment of the field in which vegetation # 1 is observed.
  • the nodes of information of different categories such as vegetation and the field are represented in the relation graph, the nodes can be displayed so that the vegetation node and the field node can be distinguished.
  • the vegetation node and the field node can be displayed by adopting different colors, sizes, shapes, patterns, and the like, for example.
  • the graph display screen on which the relationship graph representing the relationship between vegetation and the field associated with the vegetation is displayed has been described with reference to FIG. 27.
  • a vegetation node can be selected as a node of interest, and a field node can be selected.
  • the display control unit 52 A graph display screen is displayed on which a relation graph with the node of the selected field as the node of interest is displayed.
  • the relationship graph with the node of the field as the target node represents the relationship between the fields using the vegetation associated with the field in the vegetation / field DB as a scale. Therefore, when a graph display screen displaying a relationship graph with the node of the field as the node of interest is displayed, a relationship score representing the relationship between the fields #i and #j is obtained using vegetation #k as a scale. (I ⁇ j).
  • FIG. 29 is a diagram showing an example of a relation score obtained from the bipartite graph of FIG.
  • FIG. 25 the relationship score between vegetation was shown, but FIG. 29 has shown the relationship score between farm fields.
  • the relationship score between field #i and other field #j is the number of vegetation associated with both fields #i and #j, i.e. the number of vegetation observed in both fields #i and #j.
  • Corresponding values eg, proportional values
  • the vegetation observed in both the fields # 1 and # 2 is two vegetation # 1 and # 2.
  • the vegetation observed in both fields # 1 and # 3 is one of vegetation # 1, and zero vegetation is observed in both fields # 1 and # 4.
  • the graph display control unit 72 obtains a relationship score from the bipartite graph, generates a relationship graph using the relationship score, and generates a graph display screen displaying the relationship graph.
  • FIG. 30 is a diagram showing an example of a graph display screen on which a relation graph generated using the relation score of FIG. 29 is displayed.
  • FIG. 30 shows an example of a graph display screen of a relation graph displayed when, for example, the user selects the node of the field # 1 as the target node in the relation graph of FIG.
  • the node of the field # 1 is set as the node of interest, and the relationship between the field # 1 represented by the node of interest and each of the other fields # 2 to # 4 is represented.
  • the relationship graph is arranged so that the node of the field # 1 that is the node of interest is located at the center of the screen, as described in FIG.
  • the length of the link between the node of the field # 1 which is the node of interest and the other nodes of the other fields # 2 to # 4 is the field # 1 shown in FIG. And the length corresponding to the relation score with each of the fields # 2 to # 4.
  • the length of the link between the node of the field # 1 that is the node of interest and the node of the other field #j is larger as the relation score between the fields # 1 and #j is larger, that is, the field # 1 and The stronger the relationship with #j, the shorter.
  • the field # 1 represented by the node of interest and the field #j represented by a node near the node of interest are an environment suitable for vegetation observed in both the fields # 1 and #j and many It can be estimated that the field is a common field.
  • the user accesses the cooperative farming method (registered trademark) DB to check the environment common to the farm fields # 1 and #j, thereby The environment suitable for vegetation observed in both j can be estimated.
  • the cooperative farming method registered trademark
  • the relationship graph of FIG. 30 also displays the nodes of vegetation # 1 and # 2 observed in the field # 1 in a form linked to the field # 1 represented by the node of interest. .
  • the user can select an arbitrary node as a node of interest by operating the operation unit 34.
  • the display control unit 52 displays the graph displaying the relationship graph with the node of the field # 3 as the node of interest. Display the screen.
  • FIG. 31 is a diagram showing an example of a graph display screen on which a relation graph with the node of the field # 3 as a target node is displayed.
  • the relationship graph is arranged so that the node of the field # 3 which is the attention node is located at the center of the screen.
  • the length of the link between the node of the field # 3 that is the target node and the nodes of the other fields # 1, # 2, and # 4 is the same as the field # 3 shown in FIG.
  • the length corresponds to the relationship score with each of the fields # 1, # 2, and # 4.
  • the vegetation # 1 to # 3 observed in the field # 3 are linked to the field # 3 represented by the node of interest. Nodes are also displayed.
  • the relation graph of FIG. 31 for example, when the node of vegetation # 1 is newly selected as the node of interest, the relation graph is as shown in FIG.
  • the user can easily recognize other vegetation that coexists with vegetation # 1 represented by the node of interest by referring to the relationship graph of FIG.
  • the field where vegetation # 1 represented by the node of interest is observed can be easily recognized.
  • the user when the user newly selects a vegetation node other than vegetation # 1 as the attention node in the relationship graph of FIG. 28, as described in FIGS. 26 and 27, the newly selected node Is displayed as the attention node, the user can easily recognize other vegetation that coexists with the vegetation represented by the node that has newly become the attention node.
  • the relationship between the fields and the vegetation observed in the field represented by the target node as shown in FIG. 28 the relationship between the fields and the vegetation observed in the field represented by the target node as shown in FIG. The user can easily recognize the vegetation observed in the field represented by the node of interest and the vegetation observed in the field represented by the node of interest. can do.
  • FIG. 32 is a diagram showing an example of a bipartite graph generated from the vegetation / recipe DB.
  • the vegetation / recipe DB is a DB in which vegetation is associated with a recipe for cooking using the vegetation as a material.
  • the bipartite graph in FIG. 32 shows that vegetation # 1 was observed in recipes # 1 to # 3 (being material), vegetation # 2 was observed in recipes # 1 to # 3, and vegetation # 3 was observed in recipes # 1 and # 3, vegetation # 4 and # 5 were each observed in recipe # 3, and vegetation # 6 was not observed in any of recipes # 1 to # 3 Represents.
  • a relationship score representing the relationship (strength) between vegetation #i and #j is obtained using recipe #k as a scale (i ⁇ j).
  • FIG. 33 is a diagram showing an example of a relation score obtained from the bipartite graph of the vegetation / recipe DB of FIG.
  • the relationship score between vegetation #i and other vegetation #j is the number of recipes associated with both vegetation #i and #j, i.e. the number of recipes where both vegetation #i and #j are observed. Corresponding values can be adopted.
  • the recipes observed with vegetation # 2 are two recipes # 1 and # 2
  • the recipes observed with vegetation # 3 are Two recipes # 1 and # 3
  • the recipe observed with vegetation # 4 is one recipe # 3
  • the recipe observed with vegetation # 5 is one recipe # 3.
  • the relationship score with vegetation # 2 and # 3 is 2/3, and the relationship score with vegetation # 4 and # 5 is 1/3. Furthermore, the vegetation # 1 has a relationship score of 0 with vegetation # 6.
  • the graph display control unit 72 obtains a relationship score from the bipartite graph, generates a relationship graph using the relationship score, and generates a graph display screen displaying the relationship graph.
  • FIG. 34 is a diagram showing an example of a graph display screen on which a relation graph generated using the bipartite graph of FIG. 32 and the relation score of FIG. 33 is displayed.
  • the relationship graph of FIG. 34 represents the relationship between vegetation # 1 represented by the node of interest and the other vegetation # 2 to # 6, with the node of vegetation # 1 as the node of interest.
  • the node of vegetation # 1 which is the attention node and the nodes of other vegetation # 2 to # 6 The length of the link between and vegetation is the length corresponding to the relation score between vegetation # 1 and each of vegetation # 2 to # 6 shown in FIG.
  • the length of the link between the node of vegetation # 1 which is the attention node and the node of other vegetation #j is larger as the relation score between vegetation # 1 and #j is larger, that is, vegetation # 1 and The stronger the relationship with #j, the shorter.
  • the strong relationship between vegetation # 1 and #j corresponds to a large number of recipes in which both vegetation # 1 and #j are observed.
  • the vegetation #j represented by the node near the node of the vegetation # 1 which is the attention node is often used for cooking together with the vegetation # 1, and the relation graph of FIG. Can easily recognize the vegetation that is often used for cooking together with vegetation # 1.
  • tomato and basil are often used together for cooking, but vegetation often used together for cooking may be in a symbiotic relationship.
  • the user operates the operation unit 34 to select a vegetation node other than vegetation # 1 as a target node and display a relation graph having the selected vegetation node as a target node. be able to.
  • the user can select a recipe node as the attention node, and display a relation graph with the selected recipe node as the attention node.
  • the recipe represented by the node close to the node of the recipe that is the attention node indicates that there are many vegetation used together with the recipe represented by the attention node.
  • the relationship graph can be generated from a vegetation / field DB or a vegetation / recipe DB (bipartite graph) as described above, or from a DB in which vegetation is associated with other arbitrary information.
  • relation graph can be generated from a DB in which (biological) species (species) other than vegetation are associated with information other than the species.
  • the relationship graph can be generated from a single DB such as a vegetation / field DB and a vegetation / recipe DB, or from a plurality of DBs such as a first DB and a second DB.
  • FIG. 35 is a diagram illustrating an example of a bipartite graph generated from the two DBs of the vegetation / field DB and the vegetation / recipe DB described above.
  • the relationship graph of FIG. 35 represents the relationship between vegetation # 1 represented by the node of interest and other vegetation # 2 to # 6, with the node of vegetation # 1 as the node of interest.
  • the relationship score between vegetation # 1 that is the node of interest and each of the other vegetation # 2 to # 6 is the scale of field #k associated with vegetation #i in the vegetation / field DB.
  • the recipe #k associated with the vegetation #i in the vegetation / recipe DB can be obtained as a scale.
  • the relationship score between vegetation # 1 which is the attention node and each of the other vegetation # 2 to # 6 is the vegetation / field DB, the field #k associated with vegetation #i, and the vegetation / recipe DB. Both the vegetation #i and the recipe #k associated with the vegetation #i can be obtained as a scale.
  • the relationship graph represents the relationship between vegetation #i and other vegetation #j, that is, Based on the relationship score, all other vegetation #j can be ranked against vegetation #i.
  • the other vegetation #j closer to the vegetation #i represented by the node of interest is the vegetation with the higher ranking.
  • the vegetation / field DB for example, a value corresponding to the number of fields where both vegetation #i and #j are observed is adopted as the relation score of vegetation #i and #j.
  • Other related scores of vegetation #i and #j include, for example, the number of times both vegetation #i and #j were observed in the same field, and the field and vegetation #j where vegetation #i was observed.
  • the vegetation / farm field DB such as the proximity of the farm field, any value with the field associated with the vegetation as a scale can be adopted.
  • the display of the relationship graph can be controlled based on various factors.
  • a relationship graph representing the relationship between vegetation For example, in a relationship graph representing the relationship between vegetation, the higher the ranking of the vegetation, the thicker the link between the vegetation node and the node of interest can be displayed, or the link color can be changed. .
  • a recipe node having a larger amount of vegetation #i represented by the node of interest increases in size or is positioned closer to the node of interest. Can be arranged.
  • the node of vegetation #j that has a strong relationship with vegetation #i represented by the node of interest approaches the node of interest, and the node of interest It is possible to perform an animation display in which the node of vegetation #j ′ having a weak relationship with the vegetation #i to be represented (having a small relation score) moves away from the node of interest.
  • a relationship graph representing the relationship between vegetation for the vegetation nodes registered in the vegetation / field DB and the vegetation / recipe DB, all vegetation nodes are displayed, and the vegetation that is the attention node is displayed. Display only the node of #i and the node of vegetation #j whose relation score with vegetation #i is greater than 0, that is, the node of vegetation #j where the field #k observed with vegetation #i exists be able to.
  • FIG. 36 is a diagram illustrating an example of a DB used to generate a relation graph by the graph display control unit 72 (or the acquisition unit 51).
  • the relationship graph can be generated using the Kyosai Agricultural Method (registered trademark) DB registered in the storage 63 of the server 13 (various DBs constituting the DB).
  • the relationship graph can be generated using various DBs on the Internet 24 such as a DB in which a species and other information are associated with each other.
  • the relationship graph is a book DB that is a DB of books on the Internet 24, a Web DB that is a DB provided on a web page, an academic DB with academic information registered, and a nutritional database. It can be generated using various DBs such as Nutrition DB with registered information.
  • the user of the terminal 12 can select the DB used to generate the relationship graph by operating the operation unit 34.
  • a DB used for generating a relation graph can be selected from a plurality of DBs shown in FIG.
  • a DB to be used for generating a relation graph can be selected from a plurality of DBs, which DB is the relation graph currently displayed ( Which DB is used to create the relation graph) may be difficult for the user to understand.
  • one or more of the background color of the relation graph, the node shape, the node color, and the like can be changed according to the selection (switching) of the DB used to generate the relation graph.
  • the terminal 12 can output different sounds from the speaker 36 in accordance with the selection of the DB used for generating the relationship graph.
  • the user can recognize which DB is used to generate the relationship graph.
  • FIG. 37 is a diagram illustrating a configuration example of a graph display screen on which a relation graph is displayed.
  • the graph display screen can be composed of a graph display area 201 and a list display area 202.
  • the left end of the graph display screen is the list display area 202, and the rest is the graph display area 201.
  • an overhead view display area 211 can be provided in the graph display area 201.
  • an overhead view display area 211 is provided at the lower right of the graph display area 201.
  • the entire relation graph including all the nodes of the information i1 registered in the DB associated with the information i1 and the information i2 used for generating the relation graph is displayed.
  • the entire relation graph in which all the nodes of the information i1 registered in the DB exist may have an enormous number of nodes. If such an entire relation graph is displayed in the graph display area 201, the relation The graph may be difficult to see.
  • a part of the entire relationship graph can be displayed in a large size.
  • a display frame 212 representing a part displayed in the graph display area 201 out of the entire relation graph displayed in the bird's-eye view display area 211 can be displayed.
  • the display frame 212 allows the user to easily recognize which part of the entire relation graph is displayed in the graph display area 201.
  • a ranking list is displayed.
  • the relationship graph (relation score) representing the relationship between vegetation #i and other vegetation #j
  • the relationship between vegetation #i and other vegetation #j That is, all other vegetation #j can be ranked with respect to vegetation #i based on the relationship score between vegetation #i and other vegetation #j.
  • a ranking list which is a list of vegetation (name of vegetation) ranking such vegetation #j is displayed.
  • the display of the overhead view display area 211 and the display of the ranking list can be turned on / off according to the operation of the operation unit 34 by the user.
  • the graph display screen as described above can be generated using Gephi, which is an open source software package, for example.
  • FIG. 38 is a diagram showing an example of a graph display screen by Gephi.
  • the relation graph generated using the vegetation / farm field DB is displayed in the graph display area 201 with the vegetation “Diospyros” node as an attention node.
  • a ranking list of other vegetation ranked with respect to the vegetation “Diospyros” represented by the node of interest is displayed in the list display area 202.
  • a field where the vegetation "Diospyros" represented by the node of interest is observed can be displayed.
  • FIG. 39 is a diagram illustrating an example of a graph display screen by Gephi when the field “20120329ise” in which the vegetation “Diospyros” represented by the node of interest is observed in the relationship graph of FIG. 38 is selected as a new node of interest. .
  • FIG. 40 is a diagram showing another example of the graph display screen by Gephi.
  • a search box is provided at the top of Gephi.
  • the search box When the user clicks (or taps) the search box, a list of vegetation and fields represented by the nodes is displayed in a pull-down form. By selecting a vegetation or a field from the list, the user can set the selected vegetation or field node as a node of interest.
  • FIG. 41 is a diagram showing still another example of the graph display screen by Gephi.
  • a display frame 212 is displayed so as to indicate a portion of the relationship graph displayed in the graph display region 201 out of the entire relationship graph displayed in the overhead view display region 211.
  • a user profile related to the user of the terminal 12 can be registered in, for example, the storage 33 of the terminal 12, and the relationship graph can be changed based on the user profile.
  • the number of years of experience Based on the relationship graph (display) can be changed.
  • a relational graph having all the vegetation nodes registered in the DB is displayed, and for a beginner-level user with a short experience year (or 0) Of the vegetation registered in the DB, for example, it is possible to display a relationship graph limited to the nodes of the best 3 vegetation ranking (the top 3 vegetation having a high relationship score). This is to prevent the user from becoming confused when a user at a beginner level displays many vegetation (nodes).
  • the DB used to generate the relationship graph can be selected based on the user profile.
  • a vegetation / recipe DB is selected as the DB for the housewife in generating the relationship graph.
  • a vegetation / recipe DB is selected as the DB for the housewife in generating the relationship graph.
  • a vegetation / field DB is used to generate the relationship graph. You can choose.
  • the relationship graph is changed based on the content profile. be able to.
  • the years of experience For scholarly level users, select only vegetation registered in the DB that has low visibility or vegetation, and display a relationship graph limited to the selected vegetation nodes. be able to. This is because scholar-level users are not so interested in vegetation with a high degree of recognition or vegetation with a low degree of rarity.
  • the relation between seeds that is, the relation score can be corrected based on the user profile and content profile.
  • the vegetation registered in the DB can be corrected so as to increase the relation score of vegetation with low visibility or vegetation with high rarity.
  • vegetation with a high degree of popularity and vegetation with a low degree of rarity are ranked higher in the ranking list, and are displayed at a position close to the node of interest in the relationship graph.
  • FIG. 42 is a flowchart illustrating an example of processing for displaying a graph display screen.
  • step S201 the user of the terminal 12 operates the operation unit 34 to select the attention DB, which is the DB used to generate the relationship graph, from the plurality of DBs.
  • step S202 the communication unit 40 of the terminal 12 transmits information on the attention DB (information representing the attention DB) to the server 13.
  • the communication unit 67 of the server 13 receives information on the attention DB from the terminal 12, and in step S211, the graph display control unit 72 accesses the attention DB and generates a bipartite graph from the attention DB.
  • step S212 the graph display control unit 72 generates a graph display screen displaying a relation graph from the bipartite graph of the target DB.
  • step S213 the communication unit 67 transmits the graph display screen generated by the graph display control unit 72 to the terminal 12.
  • step S203 the communication unit 40 of the terminal 12 receives the graph display screen from the server 13, and the acquisition unit 51 acquires the graph display screen.
  • step S204 the display control unit 52 of the terminal 12 displays the graph display screen acquired by the acquisition unit 51 on the display unit 35.
  • the server 13 generates a graph display screen from the bipartite graph of the target DB and transmits it to the terminal 12.
  • the server 13 transmits the bipartite graph of the target DB to the terminal 12.
  • the acquisition unit 51 can acquire the graph by generating a graph display screen from the bipartite graph from the server 13.
  • a relation graph composed of nodes and links is obtained from a DB in which species and other information other than species are associated, and represents the relationship between species with other information as a scale.
  • the user can obtain the relationship between the seeds as knowledge, and use the knowledge for ecosystem utilization such as cooperative farming method (registered trademark).
  • FIG. 43 is a diagram for explaining the outline of support for cooperative farming method (registered trademark) using AR display / VR display of AR objects.
  • the AR display / VR display of the AR object can be performed on the terminal 12, and the AR display / VR display of the AR object is used to support the cooperative farming method (registered trademark). It can be performed.
  • the server 13 collects various subsets of ecosystem information from the sensor device 11 or the terminal 12, and the subsets are collected. While organizing with various scales, it associates with a multipartite graph etc., and provides it to the user of the terminal 12 with AR display or VR display.
  • the AR object is an actual real space, a captured real space (image) obtained by photographing the real space, or a VR space (image) obtained by modeling the real space as a background space (image). It is displayed superimposed on the background space.
  • the AR display means that the real space of the current location where the user is present, the real shooting space, or the VR space is used as a background space, and the AR object is superimposed and displayed in the background space.
  • the AR display means that an arbitrary place (and necessary date and time) is designated, and the shooting real space of the designated place (and date and time) or VR space is set as a background space in the background space. This means that AR objects are superimposed and displayed.
  • the AR display can be performed using a real space that the user directly sees with the see-through HMD as the background space.
  • the AR display is a shooting real space (image) obtained by shooting a real space on the spot
  • the VR space (image) obtained by modeling the space can be used as the background space (image).
  • VR display for example, an arbitrary position (or a farm field, a region, or the like) is designated as a designated position on the terminal 12, and a shooting real space or VR space at the designated position is used as a background space (image thereof).
  • the background space can be acquired from the server 13 and performed.
  • the date and time can be specified as necessary in addition to the actual shooting space as the background space and the location of the VR space.
  • the AR object can be displayed superimposed on the past field image.
  • the display mode for displaying an AR object in AR display is also referred to as AR mode
  • the display mode for displaying an AR object in VR display is also referred to as VR mode.
  • the display mode is set by, for example, a user operation or the specification of the terminal 12.
  • the display mode is set to the AR mode.
  • the display mode can be set to the VR mode or the AR mode in accordance with a user operation or the like.
  • the AR object and the background space are provided separately from the server 13 to the terminal 12, and the AR object can be displayed superimposed on the background space on the terminal 12.
  • the server 13 superimposes the AR object in the background space in advance and provides it to the terminal 12.
  • the terminal 12 displays the background space provided from the server 13 and in which the AR object is superimposed in advance. can do.
  • users who use the terminal 12 can be roughly divided into two types of users: teacher users and student users.
  • the student user is a user who receives advice on cooperative farming method (registered trademark) by working on a farm field and viewing AR display / VR display of an AR object, for example.
  • cooperative farming method registered trademark
  • the teacher user recognizes the situation of the field by viewing the AR display / VR display of the AR object at a remote location away from the field, and edits the AR object.
  • This is a user who provides (registered trademark) advice.
  • the teacher user can easily support the cooperative farming method (registered trademark) on the student data, and the student user can receive the cooperation from the teacher user.
  • Support for raw farming (registered trademark) can be easily obtained.
  • the student user may become a teacher user
  • the teacher user may become a student user
  • the acquisition unit 51 acquires the ecosystem object, task object, background space, and other information necessary for display from the server 13, and the display control unit 52 acquires the acquisition unit 51.
  • the display control unit 52 acquires the acquisition unit 51.
  • the terminal 12 can download a predetermined AR object or background space from the server 13 in advance.
  • the terminal 12 can perform the AR display / VR display in a stand-alone manner without communicating with the server 13 within the range of the AR object or background space previously downloaded from the server 13.
  • FIG. 44 is a diagram showing a display example of the AR display on the terminal 12.
  • an AR object is superimposed and displayed in the background space with the real space or the photographed real space of a certain field as the background space.
  • AR objects used in support of cooperative farming method (registered trademark) using AR display / VR display of AR objects are divided into ecosystem objects and task objects depending on the difference of objects represented by the AR objects. .
  • the ecosystem object represents an ecosystem component that constitutes an ecosystem in a field in which cooperative farming (registered trademark) is performed, that is, a field in which a plurality of types of vegetation are mixed, and is given to the ecosystem component.
  • Examples of the ecosystem components constituting the field ecosystem include various sensors of the field environment such as vegetation, field climate, insects and other organisms, and temperature sensed by the sensor device 11 disposed in the field. This includes various elements that make up the ecosystem of the field, such as data. For example, a stone in a farm field, an arrival point in the shade of the summer solstice, a well drained place / a bad place, and the like also correspond to ecosystem components.
  • Task object represents a task to be performed on ecosystem components.
  • Examples of tasks performed on ecosystem components include harvesting vegetation as an ecosystem component, planting vegetation, and cutting (weeding).
  • the AR object is divided into an ecosystem object and a task object according to the difference of the object represented by the AR object, and, for example, a photograph (data), an icon (data), etc. And sensor data (representing symbols).
  • the ecosystem object for example, a photograph, an icon, or sensor data is adopted, and as the task object, for example, an icon is adopted.
  • an actual farm field or a photographed real space is used as a background space, and a photograph as an ecosystem object is displayed in the background space (to exist).
  • a printed matter on which an image as a marker is printed is installed in the field.
  • a marker is detected from an image obtained by photographing a field with the camera 37, and a photograph ecosystem object is displayed at a relative position with the marker as a reference.
  • the relative position with reference to the marker where the ecosystem object of the photograph is displayed is, for example, the position (near the position) where the vegetation or the like shown in the photograph is (observed).
  • the user can easily recognize that the vegetation reflected in the photograph is at the position (near) of the ecosystem object by looking at the ecosystem object of the photograph.
  • the user can easily recognize the arrangement of a plurality of vegetation reflected in each of the photographs as the plurality of ecosystem objects based on the positional relationship between the plurality of ecosystem objects.
  • a marker is associated with an ecosystem object, and the ecosystem object is displayed at a relative position based on the marker associated with the ecosystem object.
  • One marker can be associated with one ecosystem object, or can be associated with a plurality of ecosystem objects. In addition, a plurality of markers can be associated with one ecosystem object.
  • the position where the ecosystem object is displayed can be determined based on each of the plurality of markers.
  • the ecosystem object can be accurately displayed at the position of the ecosystem component to which the ecosystem object is assigned, that is, the ecosystem component represented by the ecosystem object.
  • the markers installed in the field may be broken or tilted over time, and some may be hidden by growing vegetation.
  • the marker is not necessarily photographed from the front so that the whole is clearly visible, and may be photographed from an oblique direction.
  • the ecosystem object to be displayed may not be displayed, or even if the ecosystem object is displayed, it may be displayed at a position deviated from the position to be originally displayed.
  • the ecosystem object to be displayed is not displayed, or the ecosystem object is displayed at a position shifted from the position to be originally displayed. Can be prevented from occurring.
  • FIG. 45 is a diagram illustrating a display example of the AR display on the terminal 12.
  • a real space of an actual office room or a photographed real space is used as a background space, and a photograph as an ecosystem object is displayed in the background space.
  • a printed matter as a marker is installed in one room of the office.
  • a marker is detected from an image obtained by taking an image of the office with the camera 37, and a photo ecosystem object is displayed at a relative position based on the marker. Is done.
  • a marker is associated with an ecosystem object, and the ecosystem object is displayed at a relative position with reference to the marker associated with the ecosystem object. Is done.
  • the user can easily recognize, for example, the vegetation planted in the field and the arrangement of the vegetation in the field at a remote office remote from the field.
  • the teacher user recognizes the vegetation planted in the field or the arrangement of a plurality of vegetation in the field at the office, and, for example, advises the student user on the field, for example, vegetation design (strategy). Etc. can be performed.
  • a plurality of users can use the respective terminals 12 to simultaneously view a field ecosystem object (an ecosystem object representing a field ecosystem component).
  • a plurality of users can discuss whether or not there is a certain vegetation, the arrangement of vegetation, etc. while recognizing the actual vegetation and the arrangement of vegetation while staying in the office. .
  • FIG. 45 a plurality of markers are installed in the office.
  • Each of the plurality of markers installed in the office is a marker having the same content as, for example, a marker installed in a different field. That is, in FIG. 45, for example, the marker M is a marker having the same content as a marker installed in a certain field F, and the marker M ′ is a marker having the same content as a marker installed in another field F ′. It has become.
  • the user can easily recognize, for example, the vegetation of the fields F and F ′ and the arrangement of the vegetation in the remote office away from the fields F and F ′, and between the fields F and F ′. Compare vegetation and vegetation placement.
  • the biological object in the field F can be associated with the marker M, and further can be associated with an office marker that is a marker different from the marker M.
  • the ecosystem object of the field F can be displayed by setting the office marker in addition to the marker M.
  • a marker M ′ is associated with the biological system object in the field F ′, and the above-described office marker different from the marker M can be further associated.
  • the office marker When the office marker is associated with the ecosystem object of the field F and the ecosystem object of the field F ′, the office marker is installed in the office so that the ecosystem object of the field F and the field F 'Ecosystem objects can be displayed.
  • the size of the ecosystem object can be changed and displayed according to the size of the marker.
  • the ecosystem object can be displayed in a size proportional to the size of the marker, for example.
  • the ecosystem object is arranged (displayed) on the front side of the marker, but the arrangement position of the ecosystem object is not limited to the front side of the marker. That is, the ecosystem object can be arranged at an arbitrary position such as the back side (back side) of the marker.
  • the ecosystem object can be arranged at an arbitrary position such as the back side (back side) of the marker.
  • a marker is placed at a position where the image can be photographed from within the observation platform, and the marker is photographed from the observation platform, so that All granted ecosystem objects can be displayed.
  • FIG. 46 is a diagram showing a display example of VR display on the terminal 12.
  • FIG. 46 a VR space or a photographed real space of a certain field is used as a background space, and an ecosystem object representing vegetation is superimposed and displayed in the background space.
  • a marker is placed in the background space, and an ecosystem object associated with the marker can be displayed at a relative position based on the marker.
  • the user can use the terminal 12 as a background space with a VR space that is a model of a field at an arbitrary place and at an arbitrary timing and at an arbitrary timing.
  • Ecosystem objects that represent ecosystem components such as vegetation can be seen.
  • the user can easily recognize, for example, the vegetation of the field and the arrangement of the vegetation at an arbitrary place and at an arbitrary timing, and examine the vegetation design and advice to the student user of the field. it can.
  • FIG. 47 is a diagram showing a display example of the AR display on the terminal 12. As shown in FIG.
  • an AR object is superimposed and displayed in the background space with a real space or a photographed real space of a certain field as a background space.
  • FIG. 47 as in FIG. 44, in the terminal 12, for example, an actual farm field or photographed real space is used as a background space, and as an ecosystem object in the background space (as it exists). Pictures are displayed according to the markers.
  • the task object is displayed in the background space of the field (as it exists).
  • an icon displaying a fruit and an arrow-shaped icon are displayed.
  • the icon displaying the fruit as the task object represents the task of harvesting the vegetation represented by the ecosystem object adjacent to the task object.
  • the user of the field can recognize that the vegetation represented by the ecosystem object adjacent to the task object should be harvested by looking at the icon displaying the fruit as the task object in the actual field. .
  • the arrow-shaped icon as the task object represents the task of harvesting vegetation and the order of harvesting, similar to the icon displaying the fruit as the task object.
  • the user of the farm can recognize the order of harvesting vegetation by looking at the arrow-shaped icon as the task object in the actual farm.
  • FIG. 48 is a diagram illustrating a display example of VR display on the terminal 12.
  • an ecosystem object representing sensor data is displayed in the background space according to the marker.
  • environmental information of the agricultural field such as, for example, the nitric acid concentration, conductivity, and soil hardness of the soil in each place is sensed by the sensor device 11, and in FIG. 48, an ecosystem representing sensor data obtained by the sensing.
  • the object is displayed at a position in the background space corresponding to the actual position where the sensor data is obtained in accordance with the marker.
  • a hemispherical symbol is adopted as an ecosystem object of the sensor data.
  • the hemispherical symbol can be displayed with, for example, a nitric acid concentration, a size or a color intensity according to sensor data values such as conductivity and soil hardness. Moreover, a hemispherical symbol can be displayed with the color according to the types of sensor data, such as nitric acid concentration, electrical conductivity, and soil hardness, for example.
  • the teacher user can recognize the environment of the field by looking at the ecosystem object of the sensor data with the field as the background space in a remote place away from the field, and the vegetation design suitable for the environment, Changes and the like can be advised to student users in the field.
  • the ecosystem object associated with the marker is displayed at a relative position with respect to the marker.
  • the ecosystem object includes absolute coordinates such as GPS coordinates. It is possible to associate position information representing a specific position and display an ecosystem object at an absolute position represented by the position information.
  • FIG. 49 is a diagram showing a display example of the display of the time lapse mode of the ecosystem object on the terminal 12.
  • the ecosystem object of the photograph taken at one place (range) such as a certain field is displayed on the terminal 12 along one axis, that is, along the time axis, for example.
  • a log scale time axis is provided in which the direction from the bottom to the top indicates the passage of time.
  • a field at a predetermined position is set as a field of interest, and a VR space (image thereof) of the field of interest is displayed at a position where the time axis is substantially divided into two equal parts.
  • ecosystem objects of photographs taken in the field of interest are displayed in a spiral arrangement.
  • the field of interest for example, the current location of the terminal 12 (the user) or a field at a position designated by the user operating the terminal 12 can be employed.
  • a field in which a photograph as an ecosystem object designated by the user of the terminal 12 operating the terminal 12 can be employed.
  • the date of attention in the time lapse mode display, pay attention to the date of attention at the position where the VR space of the field of interest is displayed.
  • photographed on the field is displayed.
  • an ecosystem object of a photograph taken in the field of interest in the past from the date of attention is displayed.
  • an ecosystem object of a photograph taken on the target farm in the future from the target date is displayed.
  • the attention date can be changed, for example, by dragging (swiping) the display screen of the time lapse mode display in FIG. 49 in the vertical direction.
  • the user can operate the terminal 12 to select any one of the ecosystem objects of the photograph displayed in the time lapse mode as the selection object.
  • the ecosystem object can be linked with related information related to the ecosystem component represented by the ecosystem object.
  • information stored in a DB such as a cooperative farming method (registered trademark) DB that can be accessed by the cooperative farming method (registered trademark) CMS 71, or information that becomes a node of a relation graph Can be adopted.
  • the terminal 12 can display information on other fields (plants) where the ecosystem component represented by the selected object exists.
  • the same vegetation field information that displays information on another field close to the target field where the same vegetation as the vegetation exists is present. Display can be made.
  • FIG. 50 is a diagram showing a display example of the same vegetation field information display performed on the terminal 12.
  • the VR space of the field of interest is used as a background space, and a photo ecosystem object as a selected object is superimposed and displayed in the background space.
  • a VR space that models an actual farm field is used as a background space, and (as it exists) as an ecosystem object. Pictures are displayed according to the markers.
  • the terminal 12 displays the same vegetation field information, which is information on other fields in which the same vegetation as the vegetation represented by the selected object of the target field is present, superimposed on the background space.
  • the same vegetation field information in FIG. 50 is a character string indicating that there are Ise and Oiso fields (plants) as other fields close to the target field where the same vegetation as the vegetation represented by the selected object of the target field exists. Includes “Ise” and "Oiso”. Further, the same vegetation field information in FIG. 50 includes an arrow indicating that the Ise field is located in the left rear direction of the background space of the same vegetation field information display in FIG. And an arrow indicating that the field information display is located in the right front direction of the background space of the field information display.
  • the user can easily recognize another field in which the same vegetation as the vegetation represented by the selected object exists by looking at the same vegetation field information in FIG.
  • the user can operate the terminal 12 to select another field displayed in the same vegetation field information display in FIG. 50 as the selected field.
  • the display of the display unit 35 is displayed from the same vegetation field information display of the target field in FIG. 50 via the predetermined transition display. Transition to.
  • a user of a certain field A can easily confirm the state of another field B in which the same vegetation as the vegetation existing in the field A exists.
  • the teacher user can compare the state between a certain field A and another field B in which the same vegetation as that vegetation exists, and can be used for vegetation design and the like.
  • FIG. 51 is a diagram showing a display example of the transition display performed on the terminal 12.
  • transition display a screen that is gradually drawn from the display of the target farm field in FIG. 50 is displayed, and thereafter, a bird's-eye view screen that overlooks the country in which the target farm field is located and the entire earth.
  • the screen gradually changes from the bird's-eye view screen to the selected field, and finally, the selected field is displayed, that is, the VR space of the selected field is displayed as the background space.
  • FIG. 51 shows an example of an overhead screen that is one scene of the transition display as described above.
  • the whole of Japan (and a part of the Eurasian continent) is displayed. Furthermore, on the bird's-eye view screen, environmental information such as the temperature and precipitation in the region is displayed in a bar graph and color at the position of each region shown on the bird's-eye view screen.
  • the user can visually grasp, for example, the environment of the target field and the selected field and the outline of the environment of the region from the target field to the selected field by looking at the transition display.
  • Google Earth registered trademark provided by Google Inc.
  • Google Inc. For the transition display, for example, Google Earth (registered trademark) provided by Google Inc. can be used.
  • FIG. 52 is a diagram showing a display example of the display of the selected field that finally arrives via the transition display of FIG.
  • the VR space of the selected field is used as a background space, and ecosystem objects E1, E2, E3, E4, and E5 are displayed in the background space according to the markers.
  • the ecosystem object E1 is, for example, an ecosystem object of a photograph in which vegetation as an ecosystem component is photographed, and is displayed at the position of the vegetation.
  • Ecosystem objects E2 and E3 are, for example, iconic ecosystem objects representing the quality of soil as an ecosystem component (for example, vegetation is easy to grow or difficult to grow), and are displayed at the corresponding soil positions. ing.
  • the ecosystem object E4 is, for example, an ecosystem object with an icon representing a honeycomb as an ecosystem component, and is displayed at a position where the honeycomb is located.
  • the ecosystem object E5 is, for example, an ecosystem object of an icon representing a dangerous area of a farm or an area to be alerted as an ecosystem component, and is a dangerous area (dangerous area) or an area to be alerted (alert area). ) Position (range).
  • a circular area centered on the beehive represented by the ecosystem object E4 is a danger area and a warning area represented by the ecosystem object E5.
  • the donut-shaped area at the outer peripheral portion of the circular area centered on the beehive represented by the ecosystem object E4 is a warning area
  • the circular area at the central portion is the danger area. It has become.
  • VR display is performed.
  • the ecosystem objects E1 to E5 in FIG. 52 can perform AR display in the selected field.
  • the user who is actually working in the selected field can examine the place where the vegetation is to be planted by looking at the ecosystem objects E2 and E3 representing the quality of the soil, for example.
  • the user can work safely while avoiding bees, for example, by looking at the ecosystem object E4 representing the beehive and the ecosystem object E5 representing the danger area and the warning area.
  • the terminal 12 can notify the user that the terminal 12 has entered the danger area or the warning area by sound or vibration.
  • FIG. 53 is a diagram illustrating a display example of related information on the terminal 12.
  • an ecosystem object is linked to related information related to an ecosystem component represented by the ecosystem object in the information of a CMS database such as a cooperative farming method (registered trademark) DB. I can leave.
  • a CMS database such as a cooperative farming method (registered trademark) DB.
  • the terminal 12 can display related information linked to the selected object.
  • FIG. 53 shows a display example of related information displayed on the terminal 12 as described above.
  • a list of related information is displayed in the form of a web page.
  • FIG. 54 is a diagram showing a display example of the sensor data analysis result on the terminal 12.
  • the terminal 12 can request the server 13 to perform various analyzes of sensor data, for example, in accordance with user operations.
  • the analysis unit 76 analyzes the sensor data in response to a request from the terminal 12, and provides (transmits) the analysis result to the terminal 12.
  • the terminal 12 displays the analysis result of the sensor data provided from the server 13.
  • the analysis unit 76 can perform analysis or the like that divides one year into, for example, three seasons, four seasons, five seasons, and the like according to environmental information such as temperature.
  • the display example of the analysis result of such an analysis is shown.
  • FIG. 55 is a diagram for explaining a copy of an ecosystem object.
  • the editing unit 75 can edit the AR object registered in the storage 63 in accordance with the operation of the terminal 12 by the user.
  • AR Examples of editing AR objects include copying ecosystem objects.
  • an ecosystem object for example, an ecosystem object of a certain field A is copied to another field B.
  • the terminal 12 When copying ecosystem objects, the terminal 12 performs VR display using a plurality of, for example, two VR spaces of the two fields A and B as background spaces.
  • the ecosystem object is not yet assigned to the field B, and therefore, no ecosystem object is arranged in the background space of the field B.
  • the ecosystem object is copied in accordance with the operation of the user of the terminal 12 in a state where two or more fields such as the two fields A and B are displayed in VR on the terminal 12. Is called.
  • the user of the terminal 12 performs a copy operation for designating an ecosystem object to be copied and designating a copy destination position of the ecosystem object.
  • the user of the terminal 12 moves the ecosystem object representing the mugwort of the field A to the background of the field B.
  • the ecosystem object to be copied can be specified, and the copy destination position of the ecosystem object can be specified.
  • the terminal 12 recognizes the ecosystem object representing the mugwort of the field A that has been dragged as the ecosystem object to be copied, and the position in the background space of the field B where the drag has ended is determined. It is recognized as the copy destination location of the ecosystem object.
  • the ecosystem object representing mugwort among the ecosystem objects of the farm A can be copied to the position where the mugwort of the farm B is observed.
  • the user of the farm B can easily give an ecosystem object representing the mugwort to the mugwort of the farm B.
  • a teacher user instructs a student user who works in the field B to plant mugwort as advice for vegetation design
  • an ecosystem object representing mugwort among the ecosystem objects in the field A Can be copied to the position of the field B where the mugwort is to be planted.
  • the teacher user can easily advise the student user to plant mugwort.
  • the server 13 uses the ecosystem object represented by the ecosystem object to be copied.
  • Task objects representing tasks to be performed can be added (registered).
  • the editing unit 75 in the server 13 The task to be performed on the mugwort represented by the ecosystem object copied to the field B (hereinafter also referred to as a copy object) is specified.
  • the editing unit 75 generates a task object representing a task to be performed on mugwort (the generation unit 73 generates a task object) and registers it in the storage 63.
  • the AR / VR display control unit 74 causes the terminal 12 to display the task object registered in the storage 63.
  • a task object representing a task to be performed on the mugwort is displayed near the ecosystem object as a copy object representing the mugwort of the field B.
  • a task object representing planting of mugwort is displayed as a task to be performed on mugwort.
  • the ecosystem object as a copy object representing mugwort and the task object representing planting given to the field B are displayed when the user of the field B actually works on the field B.
  • AR display can be performed on the terminal 12 of the user B.
  • the user of the field B should see the ecosystem object as a copy object representing mugwort and the task object representing planting, and plant the mugwort at the position where the copy object representing mugwort is displayed. Can be easily recognized.
  • FIG. 56 is a diagram showing an example of changing the display scale of the background space on the terminal 12.
  • the display scale of the background space (the image thereof) is changed according to the user's operation or the like. can do.
  • FIG. 56 shows an example of a background space Ba with a reduced scale as a display scale and a background space Bb with a larger scale.
  • the background space Ba is an image overlooking a certain farm field
  • the background space Bb is an image obtained by enlarging a part of the background space Ba.
  • FIG. 57 is a diagram illustrating an example of changing the display of the AR object in accordance with the change of the display scale of the background space on the terminal 12.
  • AR objects are displayed superimposed on the same background spaces Ba and Bb as in FIG.
  • the scale as the display scale is small, that is, for example, when the background space Ba that is an image of an overhead view of a certain field is displayed, the AR assigned to the field reflected in the background space Ba Objects can be displayed with thinning out.
  • the display scale is given to the farm field reflected in the background space Bb. AR objects can be displayed without thinning out.
  • how much the AR object is thinned out can be set according to, for example, the display scale and the number of AR objects assigned to the field reflected in the background space.
  • the maximum number of AR objects to be displayed on one screen is set, and thinning out of AR objects can be performed so that the number is equal to or less than the maximum number.
  • FIG. 58 is a diagram illustrating an example of VR display in which each of a plurality of farm fields is used as a background space.
  • the terminal 12 can perform VR display using each of the VR spaces of the two fields as a background space.
  • the terminal 12 can simultaneously perform VR display using not only two but also three or more VR spaces of the field as background spaces.
  • the VR displays of the plurality of fields can be displayed side by side.
  • the terminal 12 can display the VR display of each of the plurality of fields side by side, for example, and can display the VR display of each of the plurality of fields in a superimposed manner with a predetermined transparency.
  • the terminal 12 by performing VR display using each of the VR spaces of a plurality of fields as a background space, it is possible to easily compare, for example, vegetation existing in each of the plurality of fields.
  • the display scale of the background space (VR display with the AR object superimposed thereon) on which each of the plurality of fields is reflected can be changed as described with reference to FIGS.
  • wide fields and narrow fields are displayed so that their display sizes match, making it easy to compare, for example, the distribution of vegetation in a wide field and the distribution of vegetation in a narrow field. Can be done.
  • multiple field display when performing VR display (hereinafter also referred to as “multiple field display”) using each of a plurality of fields as a background space, fields having different positions (locations) are to be used as a plurality of fields to be displayed. Of course, it is possible to adopt a field having the same position but different time.
  • VR display using the current state of a certain field and the past state of the field as background space can be performed. Further, for example, it is possible to perform VR display in which a state at a certain past time point of a certain field and a state at another past time point of the field are used as the background space.
  • FIG. 59 is a diagram for explaining an example of associating markers with ecosystem objects.
  • the generation unit 73 generates an ecosystem object, for example, according to the operation of the terminal 12 by the user, and associates the marker with the ecosystem object as necessary.
  • the ecosystem object can be displayed (arranged) at a position in the relative background space with reference to the marker associated with the ecosystem object. .
  • one marker M1 can be associated with one ecosystem object obj1.
  • one marker can be associated with a plurality of ecosystem objects. That is, for example, as shown in FIG. 59, one marker M1 can be associated with a plurality of three ecosystem objects obj1, obj2, and obj3.
  • the marker M1 When the marker M1 is associated with one ecosystem object obj1, when the marker M1 is detected from an image obtained by photographing with the camera 37 at the terminal 12, the relative to the marker M1 as a reference. One ecosystem object obj1 associated with the marker M1 is displayed at the correct position.
  • the marker M1 is associated with the three ecosystem objects obj1 to obj3, when the marker M1 is detected from an image obtained by photographing with the camera 37 in the terminal 12, the marker M1 is used as a reference.
  • the three ecosystem objects obj1 to obj3 associated with the marker M1 are displayed at the relative positions.
  • the relative positions of the ecosystem objects obj1 to obj3 displayed with reference to the marker M1 can be set separately for each of the ecosystem objects obj1 to obj3.
  • one marker can be associated with a plurality of ecosystem objects, for example, one marker is associated with a part or all of the ecosystem objects assigned to one field, etc. Can do.
  • FIG. 60 is a diagram for explaining an example of associating markers with ecosystem objects.
  • a plurality of different markers can be associated with one ecosystem object.
  • the markers M1 and M2 are associated with the ecosystem objects obj1 to obj3, respectively.
  • the relative position to display the ecosystem object obj # i with respect to the marker M1 is set to the same position, but can be set to a different position.
  • the marker M1 is represented by the ecosystem object obj # i, which is one of the markers M1 and M2.
  • An ecosystem object obj # i can be displayed in an AR display in the field where the ecosystem component exists.
  • the ecosystem object obj # i is displayed in AR at the arbitrary location. can do.
  • the teacher user can see the ecosystem object obj # i representing the ecosystem component existing in the farm at a remote place away from the field where the ecosystem component represented by the ecosystem object obj # i exists. it can.
  • the teacher user can easily recognize the vegetation planted in the field and the arrangement of the vegetation in the field in a remote place away from the field, and provide, for example, vegetation design advice to the field student user. It can be performed.
  • FIG. 61 is a diagram for explaining the change of the marker installation position.
  • the ecosystem object is displayed (arranged) at a position in the relative background space based on the marker associated with the ecosystem object.
  • FIG. 61 an ecosystem object is displayed at a position Pb separated by the vector Va with reference to the marker position Pa.
  • the ecosystem object is displayed at a relative position with respect to the marker. Therefore, when the marker is moved, the absolute position at which the ecosystem object is displayed also corresponds to the movement of the marker. Move.
  • the position where the ecosystem object is displayed moves according to the movement of the marker as described above.
  • the ecosystem object is displayed at a position unrelated to the ecosystem component represented by the ecosystem object.
  • the marker can be moved in the position invariant mode in which the (absolute) position where the ecosystem object associated with the marker is displayed is not changed before and after the movement of the marker.
  • the ecosystem object is displayed at the position Pb separated by the vector Va with reference to the marker position Pa.
  • the ecosystem object is not related to the ecosystem component represented by the ecosystem object. It is possible to prevent display at the position.
  • the ecosystem object is displayed at a position separated by the vector Vc with reference to the marker position Pc after movement, that is, at the same position Pb as that for the marker before movement.
  • FIG. 62 is a diagram showing a display example of an ecosystem object representing an ecosystem component related to the entire field.
  • an ecosystem object is displayed with a certain field A (real space, photographing real space, or VR space) as a background space.
  • FIG. 62 ecosystem objects representing the Chinese cabbage, mugwort, leek, beehive, nitric acid concentration, moisture content, and climate of the field A are displayed.
  • the ecosystem objects of Chinese cabbage, mugwort, leek and honeycomb are displayed in the field A in the vicinity (near) where the Chinese cabbage, mugwort, leek and honeycomb are present.
  • the ecosystem object representing each of the nitrate concentration, the water content, and the climate in the field A is an ecosystem object (hereinafter, also referred to as an entire object) representing an ecosystem component related to the entire field A.
  • the background space of A is displayed at a fixed position on the display screen of the display unit 35 (the rightmost position of the display screen in FIG. 62).
  • the terminal 12 is a see-through type HMD, and in the see-through type HMD, the real space of the field A is used as a background space, and an ecosystem object is superimposed and displayed on the background space.
  • the user tilts his / her neck while wearing the see-through type HMD as the terminal 12, the user tilts his / her head in the background space that appears on the display screen (enters the user ’s field of view). It moves to the range on the right side of the field A than before.
  • the user tilts the head even after the user tilts the neck. They are displayed at the same position, that is, at the right end position of the display screen in FIG.
  • the entire object representing the ecosystem components related to the whole farm field A is displayed.
  • the user when AR display or VR display is performed with the field A as the background space, the user, for example, as the ecosystem component related to the entire field A, for example, about nitric acid concentration, water content, climate, etc. Can be recognized at any timing.
  • the display of the entire object can be turned on / off in accordance with, for example, a user operation.
  • FIG. 63 is a diagram for explaining display of related information on the terminal 12.
  • an ecosystem object can be linked to related information related to the ecosystem component represented by the ecosystem object.
  • the related information includes, for example, information stored in a CMS database such as the cooperative farming method (registered trademark) DB accessible by the cooperative farming method (registered trademark) CMS 71, or the nodes of the relationship graphs described in FIGS. The following information can be employed.
  • the terminal 12 when the user selects a certain ecosystem object as a selection object in the display of the time lapse mode in FIG. 49, the terminal 12 is linked to the selection object. Related information can be displayed.
  • a certain ecosystem object is selected as a selection object from the time-lapse mode display (FIG. 49) in accordance with the user operation.
  • the selected object is an ecosystem object representing a certain vegetation.
  • the terminal 12 transmits the selected object to the server 13 according to, for example, a user operation, and the server 13 uses vegetation (hereinafter referred to as related vegetation) as related information related to the vegetation represented by the selected object from the terminal 12. Is also identified from the relationship graph.
  • vegetation hereinafter referred to as related vegetation
  • the graph display control unit 72 displays the vegetation (of the node) linked to the vegetation (of the node) represented by the selected object in a multipartite graph such as a relation graph (bipartite graph), for example. Identify as related vegetation.
  • the cooperative farming method (registered trademark) CMS 71 searches the CMS database for related vegetation information, that is, for example, a photograph or name of the related vegetation, and transmits it to the terminal 12 in the form of a web page. To do.
  • the list of related vegetation is displayed in the form of a web page together with the information (photographs) of the related vegetation.
  • the user of the terminal 12 can easily obtain vegetation information related to the vegetation represented by the selected object simply by selecting the selected object.
  • FIG. 64 is a diagram for explaining an example of selection of an AR object for performing AR display or VR display.
  • an AR object (hereinafter also referred to as a display target object) that performs AR display or VR display superimposed on the background space on the display screen of the display unit 35 may be appropriately selected, that is, changed. it can.
  • the display target object can be selected (changed) according to the skill level of the user of the terminal 12 with respect to the cooperative farming method (registered trademark).
  • the level of proficiency of the user of the terminal 12 can be recognized based on the profile by having the user input the user's profile in advance and registering it in the terminal 12 or the server 13.
  • 64A shows a display example of AR display or VR display for a novice user.
  • an ecosystem object objES1, objES2, objES3, and objES4 and task objects objT1, objT2, objT3, objT12, and objT23 are displayed with a certain field A as a background space.
  • Ecosystem objects objES1 and objES3 represent Chinese cabbage.
  • Ecosystem object objES2 represents leek, and ecosystem object objES4 represents mugwort.
  • Task objects objT1 to objT3 represent vegetation harvesting, and task objects objT12 and objT23 represent harvesting order.
  • Novice users can easily recognize the position in the field A where the vegetation such as Chinese cabbage represented by each of the ecosystem objects objES1 to objES4 exists by looking at the ecosystem objects objES1 to objES4. Furthermore, the novice user uses the task objects objT1 to objT3 and the task objects objT12 and objT23 to determine the Chinese cabbage represented by the ecosystem object objES1, the leek represented by the ecosystem object objES2, and the Chinese cabbage represented by the ecosystem object objES3. It is easy to recognize what should be harvested in order.
  • the AR display or VR display for novice users represents ecosystem components that are not highly specialized in order to teach beginners the symbiotic farming method (registered trademark).
  • Ecosystem objects, task objects that carefully represent tasks to be performed on ecosystem components, and the like are selected and displayed as display target objects.
  • FIG. 64B shows a display example of AR display or VR display for expert users.
  • an ecosystem object objES1, objES2, objES3, and objES4 and task objects objT1, objT2, and objT3 are displayed with a certain field A as a background space.
  • the AR display or VR display of B in FIG. 64 is displayed by selecting the task objects objT12 and objT23 as display target objects in that the task objects objT12 and objT23 are not displayed as display target objects.
  • 64A which is different from the AR display or VR display for beginners.
  • the expert user already knows, for example, that Chinese cabbage and leek should be harvested in the order of the Chinese cabbage represented by the ecosystem object objES1, the leek represented by the ecosystem object objES2, and the Chinese cabbage represented by the ecosystem object objES3. Have won as.
  • task objects objT12 and objT23 representing the order of harvest of Chinese cabbage and leek are redundant information, and the display of such task objects objT12 and objT23 is bothersome for the expert user. May make you feel.
  • the ecosystem objects objES1 to objES4 and the task objects objT1 to objT3, objT12 and objT23 are excluded from the task objects objT12 and objT23.
  • Ecosystem objects objES1 to objES4 and task objects objT1 to objT3 are selected and displayed as display target objects.
  • rare vegetation may be important for experienced users, but not important for novice users.
  • the terminal 12 displays only the ecosystem object representing rare vegetation for the user with high skill level, for example, according to the skill level of the user, and the skill level is low. Users can only see ecosystem objects that represent major vegetation.
  • the selection of the display target object according to the skill level is performed, for example, by assigning a level representing the skill level to the AR object and selecting the AR object to which the level representing the skill level of the user is assigned. Can do.
  • FIG. 65 is a diagram for explaining another example of selection of an AR object for AR display or VR display.
  • the display target object can be selected according to the skill level of the user or by specifying a data category.
  • AR objects can be divided into, for example, photographs (data), icons (data), and sensor data (representing symbols) according to the category of data as the AR object. it can.
  • one or more categories are selected from the above-described categories of photos, icons, and sensor data in accordance with the user's operation, and the AR object of the category is set as the display target object. You can choose.
  • FIG. 65A shows a display example of AR display or VR display when all AR objects in the categories of photos, icons, and sensor data are selected as display target objects.
  • FIG. 65A a photo ecosystem object representing a Chinese cabbage and leek, an icon task object representing a Chinese cabbage and leek harvesting task, and a sensor data ecosystem object representing each of the nitric acid concentration and water content are shown. Selected and displayed as an object to be displayed.
  • FIG. 65B shows a display example of AR display or VR display when only the AR object of the photo category is selected as the display target object among the photo, icon, and sensor data categories.
  • FIG. 65B a photo ecosystem object representing each of Chinese cabbage and leek is selected and displayed as a display target object.
  • 65C shows a display example of AR display or VR display when only the AR object of the sensor data category is selected as the display target object among the photo, icon, and sensor data categories. .
  • an ecosystem object of sensor data representing each of the nitric acid concentration and the water content is selected and displayed as a display target object.
  • 65D shows a display example of AR display or VR display when an AR object of a photo and an icon among categories of a photo, an icon, and sensor data is selected as a display target object.
  • a photo ecosystem object representing a Chinese cabbage and leek, and an icon task object representing a Chinese cabbage and leek harvesting task are selected and displayed as display target objects.
  • one or more categories can be selected from the categories of AR objects, and the AR objects in the categories can be selected as display target objects. Therefore, only AR objects of a category required by the user can be displayed by AR display or VR display.
  • FIG. 66 is a flowchart for explaining an example of processing for registering an ecosystem object in the ecosystem utilization system of FIG. 1 (FIG. 43).
  • step S311 the sensor device 11 and the terminal 12 acquire registration target information for an ecosystem component to which an ecosystem object is assigned (hereinafter also referred to as an attention ecosystem component).
  • the sensor device 11 acquires sensor data obtained as a result of sensing a predetermined physical quantity such as temperature or moisture as the target ecosystem component as registration target information.
  • the terminal 12 in the acquisition unit 51, for example, in response to the user's operation, a photograph of the ecosystem component of interest such as vegetation photographed on the farm field or a comment (for example, “bee Or “What is this plant?”) Is acquired as registration target information.
  • step S312 the sensor device 11 and the terminal 12 acquire position information of the ecosystem component of interest.
  • the sensor device 11 acquires, for example, GPS coordinates representing the position of the sensor device 11 itself as position information of the ecosystem component of interest.
  • the terminal 12 acquires, for example, GPS coordinates representing the position of the terminal 12 itself as position information of the ecosystem component of interest.
  • the relative position of the ecosystem component of interest is detected on the basis of the position of the terminal 12 itself, and the GPS coordinates of the terminal 12 itself are determined relative to the ecosystem component of interest. Coordinates obtained by correcting the position can be acquired as position information of the ecosystem constituent of interest.
  • the user can operate the operation unit 34 to input the position information of the ecosystem component of interest.
  • step S313 the sensor device 11 and the terminal 12 transmit the registration target information and the position information acquired for the ecosystem component of interest to the server 13.
  • step S321 the server 13 receives the registration target information and position information of the ecosystem component of interest transmitted from the sensor device 11 or the terminal 12.
  • step S322 the generation unit 73 of the server 13 (FIG. 4) acquires an ecosystem object to be given to the ecosystem component of interest.
  • the generation unit 73 assigns the photograph to the target ecosystem constituent. Adopted for system objects.
  • the generation unit 73 when sensor data is included in the registration target information of the target ecosystem constituent, the generation unit 73 generates a symbol representing the sensor data as an ecosystem object to be given to the target ecosystem constituent.
  • the ecosystem object candidate that gives, for example, the ecosystem object of the icon representing the beehive described in FIG. 52, the ecosystem object of the icon representing the dangerous area, or the like to the ecosystem component of interest. It can be displayed on the terminal 12 as an object.
  • the candidate object which the user selected from the candidate objects displayed on the terminal 12 can be employ
  • step S323 the generation unit 73 generates object information that associates the registration target information of the target ecosystem component, the position information, the ecosystem object assigned to the target ecosystem component, and the like. Then, the generation unit 73 registers the object information in the object DB stored in the storage 63, for example, for registering the object information.
  • FIG. 67 is a diagram showing an outline of object information.
  • the object information includes an ecosystem object representing an ecosystem component, location information of the ecosystem component, and registration target information.
  • object information can include field information, marker information, task objects, and the like.
  • the farm field information is information related to the farm field where the ecosystem components are observed (the farm field existing at the position represented by the position information).
  • the field information can include the field name, field address, field soil information, and the like.
  • an ecosystem object representing an ecosystem component existing in a certain field can be picked up.
  • Marker information is information related to markers that display ecosystem objects.
  • the marker information includes, for example, an image as a marker, relative position information indicating a relative position where an ecosystem object is displayed with reference to the marker, and the like.
  • the image as the marker can be uploaded from the terminal 12 to the server 13, for example. Also, an image as a marker can be generated by the server 13 and downloaded to the terminal 12, for example.
  • the relative position information of the marker can be calculated, for example, by having the user input by operating the terminal 12, or from the position of the marker and the position information of the ecosystem object.
  • the ecosystem is located at a position represented by the relative position information included in the marker information with reference to the marker.
  • the object is displayed.
  • the same image can be adopted as an image as a marker included in the marker information.
  • one marker can be associated with a plurality of ecosystem objects, and a plurality of ecosystem objects respectively representing a plurality of ecosystem components at close positions can be displayed by the one marker.
  • the task object represents a task to be performed on the ecosystem component represented by the ecosystem object included in the object information.
  • FIG. 68 is a flowchart for explaining an example of AR object display processing in the AR mode in the ecosystem utilization system of FIG. 1 (FIG. 43).
  • step S331 the acquisition unit 51 of the terminal 12 (FIG. 3) acquires a real space that is a background space, a photographing real space, or a VR space.
  • the terminal 12 when the terminal 12 is an immersive HMD or a smartphone, a shooting real space obtained by shooting a real space with the camera 37, or a VR space (an image thereof) obtained by modeling the real space, Acquired as background space (image).
  • a real space that the user of the terminal 12 can see through is used as a background space as it is.
  • step S332 the acquisition unit 51 of the terminal 12 transmits an object request for requesting an ecosystem object and a task object to be placed in the background space to the server 13 (via the communication unit 40).
  • the acquisition unit 51 detects a marker from the background space, and transmits an object request to the server 13 together with the marker.
  • the acquisition unit 51 acquires the current location of the terminal 12 and transmits an object request to the server 13 together with the current location.
  • step S341 the AR / VR display control unit 74 of the server 13 (FIG. 4) receives the ecosystem object and the task object (via the communication unit 67) in response to the object request transmitted from the terminal 12. 12 to send.
  • the AR / VR display control unit 74 includes object information including a marker transmitted from the terminal 12 together with the object request, or position information (hereinafter referred to as a position close to the current location of the terminal 12 transmitted together with the object request).
  • the object information including the absolute position information) is searched from the object DB stored in the storage 63 as the object information of interest.
  • the AR / VR display control unit 74 displays the ecosystem object included in the target object information and the relative position information of the marker or the absolute position information (hereinafter, also referred to as object position information). 12 to send.
  • the AR / VR display control unit 74 transmits the task object to the terminal 12.
  • step S333 the acquisition unit 51 of the terminal 12 acquires the ecosystem object, task object, and object position information transmitted from the server 13.
  • step S334 the display control unit 52 of the terminal 12 performs AR display by superimposing the ecosystem object acquired by the acquisition unit 51 on the position represented by the object position information in the background space acquired in step S331.
  • the display control unit 52 displays the AR on the task object acquired by the acquisition unit 51 in the vicinity of the ecosystem object, superimposed on the background space.
  • the terminal 12 performs the AR display described with reference to FIGS. 44 and 45 described above, for example.
  • the terminal 12 can always download from the server 13 object information including absolute position information indicating a position close to the current location of the terminal 12.
  • the terminal 12 displays the ecosystem object and the task object included in the downloaded object information from the server 13 without making an object request to the server 13, that is, without communicating with the server 13. can do.
  • FIG. 69 is a flowchart for explaining an example of processing of displaying an AR object in the VR mode in the ecosystem utilization system of FIG. 1 (FIG. 43).
  • step S351 the terminal 12 waits for the user to designate a predetermined position as the designated position, and transmits the designated position to the server 13.
  • step S361 the server 13 receives the designated position from the terminal 12.
  • step S ⁇ b> 362 the server 13 transmits to the terminal 12 a photographing real space in which a real space in a predetermined range including the designated position from the terminal 12 is photographed, or a VR space (an image thereof) that models the real space. .
  • the storage 63 stores a shooting real space in which a real space is shot and a VR space that models the real space.
  • the AR / VR display control unit 74 models the shooting real space obtained by shooting the real space including the designated position from the shooting real space or VR space stored in the storage 63, or the real space.
  • the VR space is read and transmitted to the terminal 12.
  • step S352 the acquisition unit 51 of the terminal 12 acquires the shooting real space or the VR space from the server 13 as the background space.
  • step S353 the acquisition unit 51 of the terminal 12 transmits to the server 13 an object request for requesting an ecosystem object and a task object to be arranged in the background space.
  • the acquisition unit 51 detects a marker from the background space, and transmits an object request to the server 13 together with the marker. Alternatively, the acquisition unit 51 transmits an object request to the server 13 together with the designated position.
  • step S363 the AR / VR display control unit 74 of the server 13 transmits the ecosystem object and the task object to the terminal 12 in response to the object request transmitted from the terminal 12.
  • the AR / VR display control unit 74 includes object information including a marker transmitted from the terminal 12 together with the object request or an object including absolute position information indicating a position close to the designated position transmitted together with the object request. Information is searched from the object DB stored in the storage 63 as the object of interest information.
  • the AR / VR display control unit 74 transmits the ecosystem object included in the target object information and the relative position information of the marker as the object position information or the absolute position information to the terminal 12.
  • the AR / VR display control unit 74 transmits the task object to the terminal 12.
  • steps S354 and S355 the terminal 12 performs the same processing as that in steps S333 and S334 in FIG. 68, respectively, and thereby, in the captured real space or VR space as the background space acquired in step S352, System objects and task objects are superimposed and displayed in VR.
  • the terminal 12 performs, for example, the VR display described with reference to FIGS. 46 and 48 described above.
  • the terminal 12 superimposes the ecosystem object and the task object on the background space and displays the VR, but for example, the server 13 displays the ecosystem object and the task object in the background space.
  • FIG. 70 is a flowchart for explaining an example of processing for editing an AR object in the ecosystem utilization system of FIG. 1 (FIG. 43).
  • FIG. 70 as editing of an AR object, for example, inputting a comment to an ecosystem object, or a task object representing a task to be performed on an ecosystem component represented by the ecosystem object is set as the ecosystem object.
  • the example of the process in the case of performing matching is shown.
  • step S371 the terminal 12 displays the AR object in the AR mode or the VR mode as described with reference to FIG.
  • step S372 the acquisition unit 51 of the terminal 12 accepts the editing information after the user performs an operation of inputting editing information as editing of the AR object displayed in step S371.
  • the acquisition unit 51 receives the comment as editing information.
  • the acquisition unit 51 displays the task.
  • the object is accepted as editing information.
  • the terminal 12 can display, for example, candidate task objects that can be associated with the ecosystem object.
  • the user can select a task object to be associated with the ecosystem object from among the task object candidates displayed on the terminal 12.
  • task object candidates can be acquired from the server 13, for example.
  • step S373 the acquisition unit 51 of the terminal 12 transmits the editing information received in step S372 to the server 13 together with identification information for identifying the corresponding AR object.
  • identification information for identifying the AR object is assigned to the AR object.
  • the terminal 12 transmits the editing information together with the identification information of the ecosystem object to which the comment is input and the ecosystem object associated with the task object.
  • step S381 the editing unit 75 of the server 13 receives the identification information and the editing information transmitted from the terminal 12.
  • step S382 the editing unit 75 of the server 13 edits the AR object according to the editing information from the terminal 12.
  • the editing unit 75 adds the editing information to the object information (FIG. 67) including the ecosystem object identified by the identification information transmitted from the terminal 12 together with the editing information. Add a comment.
  • the editing unit 75 adds the task object as editing information to the object information including the ecosystem object identified by the identification information transmitted from the terminal 12 together with the editing information. Add
  • step S374 the terminal 12 redisplays the AR object in the AR mode or the VR mode as described in FIG. 68 or FIG.
  • the acquisition unit 51 acquires the edited AR object again from the server 13, and the display control unit 52 displays the edited AR object.
  • the ecosystem object is displayed together with the comment input by the user in step S374.
  • step S374 the ecosystem object is displayed together with the task object associated with the user.
  • FIG. 70 the case where the ecosystem object is edited has been described.
  • the task object is edited, that is, a comment is input to the task object. It is possible.
  • FIG. 71 is a flowchart for explaining another example of the editing process of the AR object in the ecosystem utilization system of FIG. 1 (FIG. 43).
  • FIG. 70 shows an example of processing when copying an ecosystem object, for example, as editing of an AR object.
  • step S391 for example, the terminal 12 displays the AR object in the VR mode for each of the two fields A and B as described in FIG.
  • the terminal 12 waits for the user to specify the two fields A and B, and, for example, as shown in FIG. 55, the background of each of the VR spaces of the two fields A and B specified by the user As a space, VR display is performed.
  • step S392 the acquisition unit 51 of the terminal 12 receives the copy information after editing the AR object displayed in step S391 until the user performs an operation for inputting the copy information.
  • the user can copy a certain ecosystem object displayed in the background space of the farm field A to a desired position in the background space of the farm field B as a copy target. You can copy the target ecosystem object.
  • the acquisition unit 51 receives, as copy information, a copy object that is an ecosystem object to be copied, and a field and position of a copy destination where the copy object is copied.
  • step S393 the acquisition unit 51 of the terminal 12 transmits the copy information received in step S392 to the server 13.
  • step S401 the editing unit 75 of the server 13 receives the copy information transmitted from the terminal 12.
  • step S402 the editing unit 75 of the server 13 copies the ecosystem object according to the copy information from the terminal 12.
  • the editing unit 75 generates new object information including the copy object included in the copy information as the object information of the copy destination field included in the copy information. Further, the editing unit 75 sets position information indicating the position of the copy destination included in the copy information as (absolute) position information of the new object information, and adds the new object information to the object DB of the storage 63 (added). )sign up.
  • step S403 the editing unit 75 determines a task to be performed on the ecosystem constituent represented by the copy object.
  • the editing unit 75 determines that there is no task to be performed on the ecosystem component represented by the copy object. In this case, the server 13 does not perform subsequent processing.
  • the editing unit 75 determines the planting of the vegetation as a task to be performed for the ecosystem composition represented by the copy object.
  • the editing unit 75 includes (registers) a task object representing planting in the new object information additionally registered in the object DB in step S402, whereby the task is added to the copy object included in the new object information. Objects are associated.
  • step S394 the terminal 12 re-displays the AR object in the VR mode as described with reference to FIG.
  • the acquisition unit 51 acquires the edited AR object again from the server 13, and the display control unit 52 displays the edited AR object.
  • step S394 A copy object is displayed at a desired position in the background space of the field B.
  • step S394 the task object associated with the copy object is displayed together with the copy object.
  • FIG. 72 is a diagram illustrating an example of transition of the display screen of the display unit 35 when the terminal 12 performs registration or editing of an AR object.
  • the terminal 12 changes the display screen of the display unit 35 as shown in FIG. 72 by exchanging necessary information with the server 13.
  • the “Main Menu” screen is displayed on the display screen of the display unit 35.
  • the “Main Menu” screen has a [Camera Capture] button and an [Edit Object] button.
  • the terminal 12 takes a picture with the camera 37 and acquires the GPS coordinates (position information) at the time of taking the picture. Then, on the display screen of the display unit 35, a “comment entry” screen for inputting a comment on the photograph is displayed.
  • the “comment entry” screen has a “registration” button.
  • the display screen of the display unit 35 has a “registration complete” button. A screen is displayed.
  • the photograph taken by the user on the “Photograph” screen and the comment entered on the “Comment Enter” screen are registered as the registration target information described with reference to FIG. Is transmitted from the terminal 12 to the server 13. Furthermore, the GPS coordinates acquired at the time of taking a picture are transmitted from the terminal 12 to the server 13 as the position information described with reference to FIG. In the server 13, object information including position information from the terminal 12 and registration target information is registered.
  • the “Action List” screen has a [Generate] button, a [Browse] button, a [Create Task] button, a [Task List] button, a [Data Import] button, and a [Registered Data] button.
  • the coordinates input by the user on the “Coordinate Designation” screen are transmitted from the terminal 12 to the server 13 as the position information described with reference to FIG. Further, the comment entered by the user on the “comment entry” screen is transmitted from the terminal 12 to the server 13 as the registration target information described with reference to FIG.
  • object information including position information from the terminal 12 and registration target information is registered. That is, in this case, object information without a photograph as an ecosystem object, in other words, object information including an empty photograph is registered.
  • the display screen of the display unit 35 returns to the “coordinate designation” screen.
  • the “object selection” screen for example, a list of photographs registered as ecosystem objects in the object DB of the server 13 is displayed.
  • the field where the ecosystem component represented by the ecosystem object selected by the user on the “Select Object” screen is observed (the object information of the ecosystem object selected by the user (FIG. 67)).
  • the time-lapse mode display of the ecosystem object described with reference to FIG. 49 is performed with the farm field represented by the farm field information included as the target farm field.
  • the “Time Lapse- Relation Record” screen has an [Select Object] button, [Select Other Farm Name] button, [Shoot] button, [Edit Comment] button, and [Delete] button.
  • the server 13 selects the ecosystem component node represented by the selected object.
  • a relation graph (such as FIG. 26) as a node of interest is generated, and a “Gephi graph model search” screen having the relation graph is displayed on the display screen of the display unit 35 of the terminal 12 using Gephi.
  • the “Gephi graph model search” screen has a [URL selection] button.
  • a display unit is displayed on the “Gephi graph model search” screen.
  • a “CMS database search” screen is displayed on the display screen 35.
  • CMS database search for example, as described with reference to FIG. 53, related information related to vegetation and the like represented by the node selected by the user on the “Gephi graph model search” screen is searched from the CMS database of the server 13. Displayed.
  • the display screen of the display unit 35 displays, for example, FIG. The displayed same vegetation field information display is displayed.
  • the display screen of the display unit 35 is, for example, The screen switches to the “target plantation object” screen via the transition display using Google Earth shown in FIG.
  • the selected farm field as shown in FIG. 52 is displayed.
  • the user can perform an operation of replacing a photo (including an empty photo) as a selected object with another photo.
  • the “Comment entry” screen has a [Register] button.
  • the server 13 displays the photo as the selected object included in the object information (FIG. 67). Replaced.
  • the user can perform an operation of editing a comment included in the object information (FIG. 67) of the selected object.
  • the “Edit” screen has a [Register] button.
  • the server 13 reflects the edited result of the comment on the object information (FIG. 67). .
  • the “Erase Confirmation” screen has an [Erase] button.
  • the server 13 deletes the object information (FIG. 67) of the selected object.
  • an “erase completion” screen indicating completion of deletion of the object information is displayed.
  • the “icon list” screen has buttons corresponding to tasks that can be performed on ecosystem components.
  • FIG. 72 for simplification of explanation, two tasks of harvesting and harvesting are adopted as tasks that can be performed on the ecosystem components, and the “icon list” screen displays harvesting [Harvest] Button and a [Weed Control] button representing logging.
  • an “object designation” screen having a “designation” button is displayed on the display screen of the display unit 35.
  • an ecosystem object representing an ecosystem component that can be harvested which is a task corresponding to the [Harvest] button, is displayed.
  • a “comment edit” screen having a [register] button is displayed on the display screen of the display unit 35.
  • the user inputs a comment for a task object (hereinafter also referred to as “harvest object”) representing a task corresponding to the [Harvest] button, which is associated with the ecosystem object selected on the “Object Specification” screen. be able to.
  • a comment for a task object hereinafter also referred to as “harvest object” representing a task corresponding to the [Harvest] button, which is associated with the ecosystem object selected on the “Object Specification” screen.
  • the server 13 object information of the ecosystem object selected by the user on the “Object Designation” screen (FIG. 67).
  • the harvest object and the comment input by the user are registered (added).
  • This “registration complete” screen has a “complete” button.
  • the display screen of the display unit 35 returns to the “icon list” screen.
  • an ecosystem object representing an ecosystem component that can be a target of logging, which is a task corresponding to the [Weed Control] button, is displayed.
  • a “comment edit” screen having a [register] button is displayed on the display screen of the display unit 35.
  • a “registration completion” screen indicating completion of logging object registration is displayed.
  • This “registration complete” screen has a “complete” button.
  • the display screen of the display unit 35 returns to the “icon list” screen.
  • the task object is registered in association with the ecosystem object selected by the user on the “object designation” screen.
  • buttons of task objects representing harvesting and cutting are called [Harvest] button and [WeedWeControl] button for convenience.
  • the user selects an ecosystem object that represents an ecosystem component to be harvested. At the same time, it is possible to specify the order of harvesting the ecosystem components. And in the server 13, the arrow-shaped icon showing the order of harvesting can be produced
  • an icon as a task object representing harvesting is displayed as an operable [harvest icon] button.
  • the detailed information of the harvest displayed on the “Details” screen includes, for example, the name of the fruit to be harvested (vegetation) and the fruit to be harvested, such as harvesting from the red ripe fruit and leaving the blue immature fruit. Selection criteria, information on balance with other work, such as leaving only 20% for self-seeding without harvesting all fruits, is included.
  • the detailed information can be input as a comment on, for example, the “edit comment” screen for inputting a comment on the harvested object.
  • the user On the “object designation” screen displayed when the [Weed Control] button of the “icon list” described above is operated on the terminal 12, the user represents an ecosystem representing an ecosystem component to be cut.
  • the object it is also possible to specify the order of logging of ecosystem components.
  • the arrow-shaped icon showing the order of logging can be produced
  • an icon as a task object representing logging is displayed as an operable [Logging Icon] button.
  • the detailed information of logging displayed on the “Details” screen includes, for example, the name of the fruit (vegetation) to be logged, whether to remove roots, cut on the ground, or cut at the height of the vegetable. And other vegetation strategies, etc., and other work related information.
  • the [Import] screen is displayed on the display screen of the display unit 35.
  • the sensor data selected by the user on the “import data list” screen is imported into the object DB of the storage 63 of the server 13.
  • the “Import” screen has a [Next] button, and when this [Next] button is operated, a [Registered Data List] screen is displayed on the display screen of the display unit 35.
  • the [Registered Data List] screen is also displayed when the [Registered Data] button is operated on the “Action List” screen.
  • the [Registered Data List] screen displays, for example, each field (name of the field), [Nitric Acid] button, [Electric Conductivity] button, and [Soil Hardness] button.
  • sensor data symbol of the nitrate concentration sensed in the field selected by the user on the [Registered Data List] screen is displayed.
  • the “visual data display” screen for conductivity is displayed on the display screen of the display unit 35.
  • the processing performed by the computer (CPU) according to the program does not necessarily have to be performed in time series in the order described as the flowchart. That is, the processing performed by the computer according to the program includes processing executed in parallel or individually (for example, parallel processing or object processing).
  • the program may be processed by one computer (processor), or may be distributedly processed by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .
  • the embodiments of the present technology are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present technology. That is, the present technology can be applied to general ecosystem management in addition to support of cooperative farming method (registered trademark).
  • the present technology can take a configuration of cloud computing in which one function is shared by a plurality of devices via a network and is jointly processed.
  • each step described in the above flowchart can be executed by one device or can be shared by a plurality of devices.
  • the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.
  • this technique can take the following structures.
  • An acquisition unit that acquires an ecosystem object that represents an ecosystem component that constitutes an ecosystem of a field in which a plurality of types of vegetation coexist, and a task object that represents a task to be performed on the ecosystem component;
  • Display control for displaying the ecosystem object in AR (Augmented Reality) at a position in a predetermined background space corresponding to the actual position of the ecosystem component, and displaying the task object in the background space in AR
  • An information processing apparatus comprising: a display control unit that performs: ⁇ 2> A predetermined marker or GPS (Global Positioning System) position information is associated with the ecosystem object, The said display control part performs the display control which displays the said ecosystem object in the relative position on the basis of the said marker in the said background space, or the position which the said positional information represents.
  • ⁇ 1> Information processing device.
  • ⁇ 3> The information processing apparatus according to ⁇ 1> or ⁇ 2>, wherein the background space is a real real space, a photographing real space in which the real space is photographed, or a VR (Virtual Reality) space that models the real space .
  • the ecosystem object or the task object is edited according to a user operation, The information processing apparatus according to any one of ⁇ 1> to ⁇ 3>, wherein the acquisition unit acquires the ecosystem object after editing and the task object.
  • ⁇ 5> The information processing apparatus according to ⁇ 4>, wherein the ecosystem object is copied to another field as an edit of the ecosystem object.
  • ⁇ 6> The information processing apparatus according to ⁇ 5>, wherein a task object representing a task to be performed on an ecosystem constituent represented by the ecosystem object copied to the other field is added.
  • ⁇ 7> The information processing apparatus according to any one of ⁇ 1> to ⁇ 6>, wherein a display scale of the background space is changeable.
  • ⁇ 8> The information processing apparatus according to any one of ⁇ 1> to ⁇ 7>, wherein two or more farmland images can be simultaneously displayed as the background space.
  • ⁇ 9> The information processing apparatus according to ⁇ 2>, wherein one marker is associated with part or all of the ecosystem object of one field.
  • ⁇ 10> The information processing apparatus according to ⁇ 2>, wherein two different markers are associated with the same ecosystem object.
  • the marker associated with the ecosystem object is movable; The information processing apparatus according to ⁇ 2>, wherein the ecosystem object is displayed at the same position as before the marker is moved after the marker associated with the ecosystem object is moved.
  • the display control unit further performs display control for displaying the ecosystem object along one axis.
  • the display control unit further performs display control for displaying the ecosystem object along a time axis.
  • the ecosystem object is a photograph of the ecosystem component, a symbol representing sensor data obtained by sensing the ecosystem component, or an icon representing the ecosystem component ⁇ 1> to ⁇ 13>
  • the information processing apparatus according to any one of the above.
  • ⁇ 15> The information processing apparatus according to any one of ⁇ 1> to ⁇ 14>, wherein the display control unit further performs display control for displaying the ecosystem object representing the ecosystem constituent relating to the entire field in a fixed position.
  • the ecosystem object is linked with related information related to the ecosystem component represented by the ecosystem object, The information processing apparatus according to any one of ⁇ 1> to ⁇ 15>, wherein the display control unit further performs display control for displaying the related information.
  • ⁇ 17> The information processing apparatus according to any one of ⁇ 1> to ⁇ 16>, wherein the displayed ecosystem object or the task object is changed according to a user's skill level.
  • ⁇ 18> The information processing apparatus according to any one of ⁇ 1> to ⁇ 17>, wherein the ecosystem component includes a dangerous area of a farm field or an area to be alerted.
  • ⁇ 19> The information processing apparatus according to any one of ⁇ 1> to ⁇ 18>, wherein the ecosystem objects of one or more categories selected from a plurality of categories are displayed.
  • ⁇ 20> Obtaining an ecosystem object representing an ecosystem component constituting an ecosystem of a field in which a plurality of types of vegetation coexist, and a task object representing a task to be performed on the ecosystem component; Display control for displaying the ecosystem object in AR (Augmented Reality) at a position in a predetermined background space corresponding to the actual position of the ecosystem component, and displaying the task object in the background space in AR
  • An information processing method including: ⁇ 21> An acquisition unit that acquires an ecosystem object that represents an ecosystem component that constitutes an ecosystem of a field in which a plurality of types of vegetation coexist, and a task object that represents a task to be performed on the ecosystem component; Display control for displaying the ecosystem object in AR (Augmented Reality) at a position in a predetermined background space corresponding to the actual position of the ecosystem component, and displaying the task object in the background space in AR
  • a program that causes a computer to function as a display control unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Marketing (AREA)
  • Environmental Sciences (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Mining & Mineral Resources (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Animal Husbandry (AREA)
  • Agronomy & Crop Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Soil Sciences (AREA)
  • Forests & Forestry (AREA)
  • Ecology (AREA)
  • Botany (AREA)
  • Mechanical Engineering (AREA)
  • Quality & Reliability (AREA)
  • Architecture (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本技術は、協生農法(登録商標)を支援することができるようにする情報処理装置、及び、情報処理方法に関する。 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、生態系構成物について行うタスクを表すタスクオブジェクトが取得され、生態系オブジェクトが、生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示されるとともに、タスクオブジェクトが背景空間内にAR表示される。本技術は、例えば、協生農法(登録商標)を支援する情報を提供する場合等に適用することができる。

Description

情報処理装置、及び、情報処理方法
 本技術は、情報処理装置、及び、情報処理方法に関し、特に、例えば、協生農法(登録商標)を支援することができるようにする情報処理装置、及び、情報処理方法に関する。
 現在、様々な人間活動によって、地球の生態系が破壊され、近い将来、自然資源の採取等が困難になることが予想されている。そこで、最近では、生態系の活用が注目されている。
 生態系(の)活用としては、例えば、農作物に対する害虫の駆除に、農薬を使わずに、テントウムシを活用する方法や生態系の共生効果と有用種の活用に基づく協生農法(登録商標)(synecoculture)等がある。
 ここで、協生農法(登録商標)とは、無耕起、無施肥、無農薬で種と苗以外は一切持ち込まない制約条件の上で、植生配置により自然状態を超える種多様性と、混生密生からの間引き収穫を基本とした、高収量をトータルで実現する農法である。
 協生農法(登録商標)については、作業者が最適な植生の組み合わせを決定することができるように支援を行う装置が提案されている(例えば、特許文献1を参照)。
国際公開第2014/007109号
 協生農法(登録商標)は、生態系を構成する様々な生態系構成物の影響を受けるため、圃場の作業者が協生農法(登録商標)を習熟するには、協生農法(登録商標)の熟練者の支援が必要である。
 しかしながら、熟練者が、各圃場に出向き、その圃場に存在する植生や昆虫等の、その圃場の生態系を構成する生態系構成物を実際に見て、作業者にアドバイスすることは困難である。
 本技術は、このような状況に鑑みてなされたものであり、協生農法(登録商標)の支援を、容易に行うことができるようにするものである。
 本技術の情報処理装置は、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示するとともに、前記タスクオブジェクトを前記背景空間内にAR表示する表示制御を行う表示制御部とを備える情報処理装置である。
 本技術の情報処理方法は、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得することと、前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示するとともに、前記タスクオブジェクトを前記背景空間内にAR表示する表示制御を行うことを含む情報処理方法である。
 本技術の情報処理装置、及び、情報処理方法においては、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトが取得される。そして、前記生態系オブジェクトが、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示されるとともに、前記タスクオブジェクトが前記背景空間内にAR表示される。
 なお、情報処理装置は、独立した装置であっても良いし、1つの装置を構成している内部ブロックであっても良い。
 また、情報処理装置は、コンピュータにプログラムを実行させることにより実現することができる。コンピュータに実行させるプログラムは、伝送媒体を介して伝送することにより、又は、記録媒体に記録して、提供することができる。
 本技術によれば、協生農法(登録商標)を支援することができる。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した生態系活用システムの一実施の形態の構成例を示すブロック図である。 ネットワーク10の構成例を示す図である。 端末12の構成例を示すブロック図である。 サーバ13の構成例を示すブロック図である。 協生農法(登録商標)DBの構成例を示す図である。 種まきDBの構成例を示す図である。 植生DBの構成例を示す図である。 収量DBの構成例を示す図である。 管理記録DBの構成例を示す図である。 文字によるフェノロジーDBの構成例を示す図である。 画像によるフェノロジーDBの構成例を示す図である。 昆虫動物叢DB構成例を示す図である。 気象DBの構成例を示す図である。 アレロパシーDBの構成例を示す図である。 輪作適性DBの構成例を示す図である。 植生設計の支援の処理の例を説明するフローチャートである。 共生的アレロパシーの出力例を示す図である。 ARオブジェクトの表示例を示す模式的な図である。 協生農法(登録商標)ページとしてのwebページのサイトマップの例を示す図である。 協生農法(登録商標)ページで提供される地図上の畑の分布の表示例を示す図である。 ユーザが圃場(畑)の情報を参照する場合の処理の例を説明するフローチャートである。 写真のアップロード処理の例を説明するフローチャートである。 キーイベントの登録の処理の例を説明するフローチャートである。 サーバ13のグラフ表示制御部72(又は端末12の取得部51)で生成される関係グラフを説明する図である。 植生/圃場DBのバイパータイトグラフから求められる関係スコアの例を示す図である。 グラフ表示画面の例を示す図である。 グラフ表示画面の例を示す図である。 グラフ表示画面の例を示す図である。 関係スコアの例を示す図である。 グラフ表示画面の例を示す図である。 圃場#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面の例を示す図である。 植生/レシピDBから生成されるバイパータイトグラフの例を示す図である。 関係スコアの例を示す図である。 グラフ表示画面の例を示す図である。 2個のDBから生成されるバイパータイトグラフの例を示す図である。 関係グラフを生成するのに用いるDBの例を示す図である。 グラフ表示画面の構成例を示す図である。 Gephiによるグラフ表示画面の例を示す図である。 Gephiによるグラフ表示画面の例を示す図である。 Gephiによるグラフ表示画面の他の例を示す図である。 Gephiによるグラフ表示画面のさらに他の例を示す図である。 グラフ表示画面を表示する処理の例を説明するフローチャートである。 ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援の概要を説明する図である。 端末12でのAR表示の表示例を示す図である。 端末12でのAR表示の表示例を示す図である。 端末12でのVR表示の表示例を示す図である。 端末12でのAR表示の表示例を示す図である。 端末12でのVR表示の表示例を示す図である。 端末12での生態系オブジェクトのタイムラプスモードの表示の表示例を示す図である。 端末12で行われる同一植生圃場情報表示の表示例を示す図である。 端末12で行われる遷移表示の表示例を示す図である。 遷移表示を経由して最終的に到達する選択圃場の表示の表示例を示す図である。 端末12での関連情報の表示例を示す図である。 端末12でのセンサデータの解析結果の表示例を示す図である。 生態系オブジェクトのコピーを説明する図である。 端末12での背景空間の表示スケールの変更の例を示す図である。 端末12での背景空間の表示スケールの変更に伴う、ARオブジェクトの表示の変更の例を示す図である。 複数の圃場それぞれを背景空間とするVR表示の例を示す図である。 生態系オブジェクトへのマーカの対応付けの例を説明する図である。 生態系オブジェクトへのマーカの対応付けの例を説明する図である。 マーカの設置位置の変更を説明する図である。 圃場全体に関する生態系構成物を表す生態系オブジェクトの表示例を示す図である。 端末12での関連情報の表示を説明する図である。 AR表示又はVR表示を行うARオブジェクトの選択の例を説明する図である。 AR表示又はVR表示を行うARオブジェクトの選択の他の例を説明する図である。 生態系活用システムでの生態系オブジェクトの登録の処理の例を説明するフローチャートである。 オブジェクト情報の概要を示す図である。 生態系活用システムでのARモードでのARオブジェクトの表示の処理の例を説明するフローチャートである。 生態系活用システムでのVRモードでのARオブジェクトの表示の処理の例を説明するフローチャートである。 生態系活用システムでのARオブジェクトの編集の処理の例を説明するフローチャートである。 生態系活用システムでのARオブジェクトの編集の処理の他の例を説明するフローチャートである。 端末12においてARオブジェクトの登録や編集等を行う場合の、表示部35の表示画面の遷移の例を示す図である。
 <生態系活用システムの一実施の形態>
 図1は、本技術を適用した生態系活用システムの一実施の形態の構成例を示すブロック図である。
 図1において、生態系活用システムは、ネットワーク10、1個以上のセンサ装置11、1個以上の端末12、及び、1個以上のサーバ13で構成される。生態系活用システムは、生態系で観測される様々な情報を収集し、その情報に基づいて、生態系活用を図るための情報を得て、ユーザに提供する。
 センサ装置11、端末12、及び、サーバ13は、ネットワーク10に、有線又は無線で接続され、通信を行うことができる。
 センサ装置11は、各種の物理量をセンシングするセンサと、そのセンサによるセンシングの結果得られるセンサデータ(センシングされた物理量を表すデータ)を送信する通信機能とを有する。さらに、センサ装置11は、例えば、GPS(Global Positioning System)等を利用した、センサ装置11自体の位置を検出する位置検出機能を、必要に応じて含む。
 センサ装置11は、センサによって、物理量をセンシングする。さらに、センサ装置11は、通信機能によって、センシングにより得られたセンサデータを、ネットワーク10を介して、サーバ13に送信する。センサデータは、必要に応じて、センサ装置11の位置検出機能により検出されたセンサ装置11の位置を表す位置情報とともに、センサ装置11からサーバ13に送信される。
 センサ装置11が有するセンサとしては、例えば、光をセンシングすることにより画像を撮影するセンサ(イメージセンサ)等の、光を含む電磁波をセンシングするセンサや、音をセンシングするセンサ(マイク)を採用することができる。さらに、センサ装置11が有するセンサとしては、例えば、温度や、湿度、湿度、地磁気、気圧、におい等の各種の環境の情報としての物理量をセンシングするセンサを採用することができる。
 センサ装置11は、生態系活用を図る地域(以下、活用地域ともいう)の山林や、川、海、湖、圃場(農園)等の生態系の観測(センシング)を行うべき場所に設置される。センサ装置11の設置は、人手によって所定の位置に行うことができる。また、センサ装置11の設置は、その他、例えば、飛行機や、船舶、自動車等で移動しながら、センサ装置11を散布することによって行うことができる。
 センサ装置11によれば、活用地域の様々な場所において、例えば、植物や虫等の画像、風の音や、虫の声、葉がこすれる音等の音響、気温や土の温度、湿度、地磁気等がセンシングされ、そのセンシングにより得られたセンサデータが、ネットワーク10を介して、サーバ13に送信される。
 ここで、活用地域は、例えば、市町村や、その一部であっても良いし、都道府県や、日本全国、世界各国であっても良い。また、活用地域は、例えば、北海道と九州や、日本と米国等のように、離れた地域であっても良い。
 端末12は、協生農法(登録商標)を含む生態系活用の支援を受けるユーザや、生態系活用に協力するユーザが使用する情報処理装置である。
 ここで、生態系活用の支援を受けるユーザとは、例えば、協生農法(登録商標)を実践する圃場の作業者等である。生態系活用に協力するユーザとは、例えば、協生農法(登録商標)を実践する圃場の作業者ではないが、圃場の生態系の情報の収集に協力してくれる近隣住民等の協力者や、アドバイスの発信に協力してくれる学者等の協力者等である。
 端末12としては、例えば、スマートフォンや、タブレット、HMD(Head Mounted Display)、眼鏡型のウェアブルデバイス等の携帯可能な端末を採用することができる。また、端末12としては、例えば、ノートPC(Personal Computer)やデスクトップPC、その他、通信機能と、ユーザに対する情報の入出力機能(インターフェース)とを有する装置を採用することができる。
 なお、端末12としてのHMDは、シースルー型及び没入型(非透過型)のHMDのいずれであっても良い。
 また、ユーザが圃場で使用する端末12は、圃場でのユーザの作業の妨げとならないように、携帯可能な端末であることが望ましい。
 ユーザは、端末12を使用して、活用地域の様々な場所において観測を行い、その観測結果を表す観測値を、ネットワーク10を介して、サーバ13に送信する。
 ここで、端末12からサーバ13に送信する観測値としては、例えば、ある場所で、ある植生や虫、その他の生物の種が観測されたことや、種の画像、ある作物が収穫されたこととその作物の収穫量、白菜がロゼット化したこと、その他の、ユーザが生態系を観測して得られるあらゆる情報(ユーザが端末12を操作して得られる画像(写真、動画)や音響等を含む)を採用することができる。
 端末12は、観測値以外の他のデータを、ネットワーク10を介して、サーバ13に送信する。また、端末12は、サーバ13から、ネットワーク10を介して、必要なデータを受信する。例えば、端末12は、サーバ13から、生態系活用を図るための情報を受信(取得)し、ユーザに提示する。ユーザへの情報の提示は、例えば、画像の表示や、音声の出力等によって行うことができる。
 サーバ13は、生態系活用を支援する支援者が管理する情報処理装置である。
 サーバ13は、センサ装置11からネットワーク10を介して送信されてくるセンサデータや、端末12からネットワーク10を介して送信されてくる観測値を受信して登録する。さらに、サーバ13は、センサ装置11からのセンサデータ(必要に応じて、センサ装置11の位置情報を含む)や、端末12からの観測値、その他の必要な情報に基づき、生態系活用を図るための情報を生成し、ネットワーク10を介して、端末12に送信する。
 端末12は、サーバ13からネットワーク10を介して送信されてくる情報を受信し、画像として表示することや、音声として出力することで、サーバ13からの情報を、ユーザに提示する。
 なお、以下説明する端末12の処理や、サーバ13の処理は、可能な範囲で、端末12とサーバ13とで分担して行うことができる。また、サーバ13が行う処理は、複数のサーバで分担して行うことができる。
 <ネットワーク10の構成例>
 図2は、図1のネットワーク10の構成例を示す図である。
 ネットワーク10は、任意の数の無線中継装置21、任意の数の無線LAN(Local Area Network)22、携帯電話網23、及び、インターネット24等で構成される。
 無線中継装置21は、無線で通信を行う装置であり、ルータ機能を有する。
 無線中継装置21は、センサ装置11で得られたセンサデータを回収することができるように、例えば、活用地域に万遍なく設置される。
 無線中継装置21の設置は、例えば、センサ装置11の設置と同様に、人手によって行うことや、飛行機、船舶、自動車等で移動しながら、無線中継装置21を散布することによって行うことができる。また、無線中継装置21は、自動車(例えば、定期運行しているバス等)や、バイク、船舶等の移動可能な乗り物に設置することができる。
 無線中継装置21は、センサ装置11と通信を行うことにより、センサ装置11から送信されてくるセンサデータを受信する。また、無線中継装置21は、他の無線中継装置21と通信を行うことにより、他の無線中継装置21から送信されてくるセンサデータを受信する。さらに、無線中継装置21は、他の無線中継装置21と通信を行うことにより、他の無線中継装置21に、センサデータを送信する。
 また、無線中継装置21は、無線LAN22や携帯電話網23と通信を行うことにより、センサ装置11や他の無線中継装置21から受信したセンサデータを、無線LAN22や携帯電話網23に送信する。
 無線LAN22は、ユーザ宅や任意の場所に構築されている。無線LAN22は、端末12や、無線中継装置21、インターネット24と通信を行うことにより、端末12からのデータや、無線中継装置21からのセンサデータを、インターネット24を介して、サーバ13に送信する。
 また、無線LAN22は、サーバ13からインターネット24を介して送信されてくるデータを受信し、端末12に送信する。
 携帯電話網23は、例えば、3G回線等であり、端末12や、サーバ13、無線中継装置21、インターネット24と通信を行う。
 インターネット24は、端末12や、サーバ13、無線LAN22、携帯電話網23と通信を行う。
 ここで、無線中継装置21が送信するセンサデータや、無線LAN22を介して送信されてくるデータ、端末12が送信するデータは、携帯電話網23及びインターネット24の一方又は両方を介して、サーバ13に送信される。また、サーバ13が送信するデータは、携帯電話網23及びインターネット24の一方又は両方を介して、端末12に送信される。
 以上のように構成されるネットワーク10では、無線中継装置21がルータ機能を有するので、ある無線中継装置21が故障等によって通信不能になり、その無線中継装置21を経由する無線通信経路が使用不能になっても、他の無線中継装置21を経由する無線通信経路を使用して、センサ装置11から送信されてくるセンサデータを、サーバ13に送信することができる。
 すなわち、無線中継装置21がルータ機能を有することにより、センサ装置11で得られるセンサデータは、無線中継装置21を経由する様々な無線通信経路を介して、サーバ13に送信することができる。そのため、サーバ13では、ある無線中継装置21が通信不能になっても、他の無線中継装置21を経由して、センサ装置11で得られたセンサデータを回収(受信)することができる。
 また、無線中継装置21を設置した自動車のユーザは、例えば、活用地域の山道等を走行するだけで、生態系活用のための情報収集に貢献することができる。
 すなわち、無線中継装置21を設置した自動車で、活用地域を走行することにより、その自動車に設置された無線中継装置21は、様々な場所で、その場所に近い位置の他の無線中継装置21とともに無線通信経路を構成し、センサ装置11で得られたセンサデータをサーバ13で回収することに貢献する。
 なお、無線中継装置21としては、近距離無線ネットワークの標準規格の1つである、例えば、ZIGBEE(登録商標)に準拠した無線通信装置、その他の、ルータ機能の搭載が可能で、ある程度の距離の無線通信が可能な、小型で、低消費電力の無線通信装置を採用することができる。
 <端末12の構成例>
 図3は、図1の端末12の構成例を示すブロック図である。
 端末12は、CPU(Central Processing Unit)31、メモリ32、ストレージ33、操作部34、表示部35、スピーカ36、カメラ37、マイク38、位置検出部39、通信部40、外部I/F(Interface)41、及び、ドライブ42を有する。CPU31ないしドライブ42は、バスに接続されており、相互に、必要な通信を行う。
 CPU31は、メモリ32やストレージ33にインストールされたプログラムを実行することで、各種の処理を行う。
 メモリ32は、例えば、揮発性メモリ等で構成され、CPU31が実行するプログラムや、必要なデータを一時記憶する。
 ストレージ33は、例えば、ハードディスクや不揮発性メモリで構成され、CPU31が実行するプログラムや、必要なデータを記憶する。
 操作部34は、物理的なキー(キーボードを含む)や、マウス、タッチパネル等で構成される。操作部34は、ユーザの操作に応じて、その操作に対応する操作信号を、バス上に出力する。
 表示部35は、例えば、LCD(Liquid Crystal Display)等で構成され、バスから供給されるデータに応じて、画像を表示する。
 ここで、操作部34としてのタッチパネルは、透明な部材で構成され、表示部35と一体的に構成することができる。これにより、ユーザは、表示部35に表示されたアイコンやボタン等を操作するような形で、情報を入力することができる。
 スピーカ36は、バスから供給されるデータに応じて、音響を出力する。
 カメラ37は、画像(静止画(写真)、動画)を撮影し(光をセンシングし)、対応する画像データを、バス上に出力する。
 マイク38は、音響を集音し(音をセンシングし)、対応する音響データを、バス上に出力する。
 位置検出部39は、例えば、GPS(Global Positioning System)を利用する回路及びアンテナ等を含み、端末12の位置を、ユーザ等の位置として検出し、その位置を表す位置情報を、バス上に出力する。
 通信部40は、通信回路とアンテナ等を含み、無線LAN22や、携帯電話網23、インターネット24等との通信を行う。
 外部I/F41は、例えば、ヘッドフォンその他の外部の装置との間で、データをやりとりするためのインターフェースである。
 ドライブ42は、例えば、メモリカード等のリムーバブル記録媒体42Aの着脱が可能になっており、そこに装着されたリムーバブル記録媒体42Aを駆動する。
 以上のように構成される端末12において、CPU31が実行するプログラムは、端末12に内蔵されている記録媒体としてのストレージ33にあらかじめ記録しておくことができる。
 また、プログラムは、リムーバブル記録媒体42Aに格納(記録)して、いわゆるパッケージソフトウエアとして提供し、リムーバブル記録媒体42Aから端末12にインストールすることができる。
 その他、プログラムは、通信部40を介して、インターネット24からダウンロードし、端末12にインストールすることができる。
 CPU31は、端末12にインストールされたプログラムを実行することにより、取得部51、及び、表示制御部52として機能する。
 取得部51は、後述するAR(Augmented Reality)オブジェクト等の各種の情報(データ)を取得する。取得の処理としては、例えば、通信部40を介してデータを受信することや、メモリ32、ストレージ33、リムーバブル記録媒体42Aからデータを読み出す処理等を行うことができる。
 表示制御部52は、取得部51が取得した情報等を、表示部35に表示させることで、ユーザに提示する表示制御を行う。
 なお、端末12には、光をセンシングするカメラ37、及び、音をセンシングするマイク38以外のセンサ、すなわち、光及び音以外の物理量、例えば、温度や圧力等をセンシングするセンサ43を設けることができる。端末12にセンサ43を設ける場合には、端末12は、センサ装置11の役割も果たすことができる。
 また、端末12に対する操作(入力)は、操作部34の操作の他、音声やジェスチャその他の任意の手段で行うことができる。
 <サーバ13の構成例>
 図4は、図1のサーバ13の構成例を示すブロック図である。
 サーバ13は、CPU61、メモリ62、ストレージ63、操作部64、表示部65、スピーカ66、通信部67、外部I/F68、及び、ドライブ69を有する。
 CPU61ないしドライブ69は、図3のCPU31ないしスピーカ36、通信部40ないしドライブ42とそれぞれ同様に構成される。
 サーバ13では、端末12と同様に、CPU61が実行するプログラムは、サーバ13に内蔵されている記録媒体としてのストレージ63にあらかじめ記録しておくことができる。
 また、プログラムは、リムーバブル記録媒体69Aに格納(記録)して、パッケージソフトウエアとして提供し、リムーバブル記録媒体69Aからサーバ13にインストールすることができる。
 その他、プログラムは、通信部67を介して、インターネット24からダウンロードし、サーバ13にインストールすることができる。
 CPU61は、サーバ13にインストールされたプログラムを実行することにより、協生農法(登録商標)CMS(Content Management System)71、グラフ表示制御部72、生成部73、AR/VR表示制御部74、編集部75、及び、解析部76として機能する。
 協生農法(登録商標)CMS71は、協生農法(登録商標)に関する情報の授受を行うwebページ(以下、協生農法(登録商標)ページともいう)を構成するコンテンツ(テキストや画像等)や、レイアウト情報等を、ストレージ63に記憶されたDB(データベース)に登録して管理する。さらに、協生農法(登録商標)CMS71は、協生農法(登録商標)ページを構築し、インターネット24上のwebサーバとして、協生農法(登録商標)ページを、通信部67から、端末12(その他のwebブラウザとして機能する装置)に送信する。
 端末12(図3)では、取得部51が、協生農法(登録商標)CMS71からの協生農法(登録商標)ページを、通信部40を介して取得し、表示制御部52が、その協生農法(登録商標)ページを、表示部35に表示させる。
 グラフ表示制御部72は、ストレージ63等に記録されたDBから、後述する関係グラフの生成に必要なバイパータイトグラフ(bipartite graph)等のマルチパータイトグラフ(Multi-Partite Graph)(グラフモデル)を生成し、通信部67から、端末12に送信することで、端末12に、バイパータイトグラフから関係グラフを生成させて表示させる。あるいは、グラフ表示制御部72は、バイパータイトグラフから関係グラフを生成し、通信部67から、端末12に送信することで、端末12に、関係グラフを表示させる。
 すなわち、端末12(図3)では、取得部51が、グラフ表示制御部72からのバイパータイトグラフ、又は、関係グラフを、通信部40を介して取得する。取得部51は、バイパータイトグラフを取得した場合には、そのバイパータイトグラフから、関係グラフを生成することにより、その関係グラフを取得する。そして、端末12では、表示制御部52が、取得部51によって取得された関係グラフを、表示部35に表示させる。
 生成部73は、ARオブジェクトや、ARオブジェクトを重畳して表示するVR(Virtual Reality)空間(の画像)等を生成し、ストレージ63に登録(記録)する。
 AR/VR表示制御部74は、ARオブジェクトを、実空間、実空間を撮影した撮影実空間(の画像)、又は、実空間をモデル化したVR空間(の画像)内に表示するAR表示やVR表示を、端末12に行わせるのに必要な処理を行う。
 例えば、AR/VR表示制御部74は、ストレージ63から、ARオブジェクトと、そのARオブジェクトを重畳して表示する背景空間となる撮影実空間又はVR空間を表す情報を取得し、通信部67から端末12に送信することで、端末12に、背景空間に重畳してARオブジェクトを表示するAR表示、又は、VR表示を行わせる。
 あるいは、例えば、AR/VR表示制御部74は、ストレージ63から、ARオブジェクトを取得し、通信部67から端末12に送信することで、端末12に、実空間を背景空間として用い、その背景空間に重畳してARオブジェクトを表示するAR表示を行わせる。
 編集部75は、ユーザによる端末12の操作等に応じて、ストレージ63に登録されたARオブジェクトの編集を行う。
 解析部76は、センサ装置11からのセンサデータを解析する。
 ところで、サーバ13では、ストレージ63に、様々なDBが登録されており、その様々なDBの一部として、協生農法(登録商標)のマネージメントを支援する各種のDB(以下、協生農法(登録商標)DBともいう)がある。
 以下、サーバ13のストレージ63に登録された協生農法(登録商標)DBについて説明する。
 <協生農法(登録商標)DBの構成例>
 図5は、協生農法(登録商標)DBの構成例を示す図である。
 図5において、協生農法(登録商標)DBは、種まきDB、植生DB、収量DB、管理記録DB、フェノロジーDB、昆虫動物叢DB、微生物叢DB、気候区分DB、気象DB、座標DB、協生農法(登録商標)査定書DB、アレロパシーDB、輪作適性DB、植物名DB、写真記録DB、及び、メタDB等を有する。
 協生農法(登録商標)DBでは、csv(comma separated values)ファイル(例えば、2次元マトリクス形式のファイル)や、画像ファイルでデータが保存される。協生農法(登録商標)DB、その他、ストレージ63に記憶されるDBの全部又は一部は、サーバ13から独立して配置し、ネットワーク10を介してサーバ13に接続させることができる。
 図6は、種まきDBの構成例を示す図である。
 種まきDBは、例えばcsvファイルにより構成される。この例では、記録年月日、畑区画、畝番号、畝区画、種(seed)と苗の区別、作物名、サクモツメイ、数量、メーカーに関する情報が記録されている。同じ品種の種、苗であっても、メーカーによって採取、生育のさせ方が異なり、メーカー名も一種の栽培条件となり得るので、管理記録しておくことが好ましい。
 ここで、活用地域の畑(農園)は、畑区画に区分されている。畑区画には、畝が形成されており、畝は、1以上の畝区画に区分されている。畝には、その畝を特定する畝番号が付されている。
 例えば2012年1月18日に、畑区画SWの全て(All)の畝には、メーカーA社のジャガイモ(メイクイーン)の苗が0.5Kgだけ植えられたことが記録されている。また、全て(All)の畑区画にC社のレタス(キングクラウン)の種が2袋だけ播かれたことが記録されている。
 なお、作物名には、「ジャガイモ(男爵芋)」と、品種を含む情報が漢字も含んで記録されるが、サクモツメイには、「ジャガイモ」と、品種を区別せず、単に名称の情報だけがカタカナだけで記録されている。このような統一された文字だけの表現は、検索を容易にする。
 図7は、植生DBの構成例を示す図である。
 植生DBは、例えばcsvファイルで構成される。この例では、記録年月日と観測区画座標としての位置情報が記録されている。例えば観測区画座標NEにおいて、次のようなことが観測されたことが記録されている。2012年1月23日には、ソラマメの発芽が定着したこと、ニンジンが収穫可能であること、ダイコンが収穫可能であること、ネギが定着したこと、苗ブロッコリーが定着したこと、苗キャベツが定着したこと、苗白菜が定着し、収穫可能であることが記録されている。
 また、イネ科、キク科、マメ科の雑草が観測されたこと、赤巻チコリが収穫可能であることが記録されている。なお、例えば所定の植物をイネ科よりさらに詳しく分類することも理論的には可能であるが、実用的にはそれ以上詳細に分類しても殆ど意味はない。
 2012年2月25日にも観測区画座標NEにおいて観測された事項が記録されている。
 図8は、収量DBの構成例を示す図である。
 収量DBは、例えばcsvファイルで構成される。この例では、収穫された作物の収量が、収穫された月日毎に記録されている。例えばホロニガレタスは、2012年1月14日に、100g収穫され、大根は、1月24日に1700g、1月29日に4000g、1月30日に1500g、1月31日に740g、2月20日に1500g、それぞれ収穫されている。
 この他、コカブ、W農園のコカブ、イタパセ、サラダニラ、ミント、ローズマリー、小松菜、ムー菜、ネギ、ハツカダイコン、W農園のハツカダイコン、セロリ、ゴボウ、チンゲン菜、春菊、小人参、W農園の小人参、W農園の大中人参、カリフラワー、キャベツ(茎キャベツ)、島ラッキョ、白菜緑菜、フキノトウ等の収量が記録されている。なお、「W農園」は農園の名称であり、「茎キャベツ?」は、観測者(ユーザ)が、そのキャベツが茎キャベツであるのかどうか、正確に識別できなかったことを表している。「ムー菜」とは一般的な名称ではないが、その植物に観測者が名付けた名称である。図8では、位置情報としての座標の記録は省略されているが、作物が観測された畑や畝等の区画の位置情報としてのGPS座標等を記録することができる。
 なお、収量DBの入力には、種まきDBの入力情報を利用することができる。例えば、収量DBの入力を行う場合には、種まきDBにより管理されている植物の情報をそのまま表示することができる。
 図9は、管理記録DBの構成例を示す図である。
 管理記録DBは、例えばcsvファイルで構成される。この例では、行われた管理作業と行われた年月日が記録されている。例えば、2012年1月19日、2012年1月20日、2012年1月21日、2012年1月22日、2012年1月23日に、苗定植と、防風棚作りなどの土木工事が行われたことが記録されている。
 図10は、フェノロジーDBとしてのcsvファイルの構成例を示す図である。
 フェノロジーDBは、例えば画像ファイルとcsvファイルで構成される。図10は、csvファイルの例を示しており、csvファイルには、フェノロジーの内容と記録日時が文字で記録されている。例えば2011年1月9日に、不明な草の種が観測されたこと、他より成長がよいこと、エンドウの下部分が枯れてきたこと、他より明らかに成長がよい箇所が観測されたこと等が記録されている。
 図11は、フェノロジーDBとしての画像ファイルの構成例を示す図である。
 図11の画像ファイルでは、「大磯協生農園」の名称の畑で観測されたフェノロジーが、撮影された写真と付加された簡単なコメントとともに日付毎に記録されている。
 図中左上には、場所がOiso、日付が2011年9月22日、畑区画がNN、畝番号が02、畝区画がd3において撮影された画像であるフェノロジー1が示されている。図中上中央には、同じ場所で撮影された画像であるフェノロジー1-2が、「NN02d3は双葉の発芽がとても多い」というコメントとともに示されている。
 このように、フェノロジーDBには、作業者(ユーザ)が観測したフェノロジーが、文字、画像により記録される。
 図12は、昆虫動物叢DB構成例を示す図である。
 昆虫動物叢DBは、例えば、画像ファイルとcsvファイルにより構成される。図12のAには、2012年2月18日に、伊勢新農園の名称の畑087で撮影された昆虫の画像が示されている。コメントとして、観測地が伊勢新農園であること、昆虫は、目名がコウチュウ目、科名がゴミムシダマシ科、分類がスナゴミムシダマシ類と思われること、石の下で集団越冬していたことが記録されている。
 図12のBには、2012年2月18日に、伊勢新農園の名称の畑088で、撮影された昆虫の画像が示されている。コメントとしては、図12のAにおける場合と同じ内容が記録されている。
 図12のCには、2012年2月18日に、伊勢新農園の名称の畑089で、撮影された静物の画像が示されている。コメントとして、観測地が伊勢新農園であること、生物は、クモ類、目名はクモ目、科名はコモリグモ科、種名はウヅキコモリグモであること、そして、コモリグモ科の最普通種で、地表付近を徘徊しているのを、よく見かけることが記録されている。
 図13は、気象DBの構成例を示す図である。
 この例においては、2012年の津地方における気圧、降水量、気温、湿度等の気象情報が、各月の上旬、中旬、下旬毎に記録されている。例えば、1月上旬においては、現地の平均の気圧は1018.7hPa、海面の平均が1021.0hPaである。降水量は、最大が10分間で0.5mm、1時間で0.5mm、1日で0.5mm、合計で0.5mmとなっている。気温については、最高が11.6℃、最低が0.2℃であり、1日の平均の最高が9.2℃、平均の最低が2.0℃、日の平均が5.2℃となっている。湿度は、平均が62%、最小が24%となっている。
 図14は、アレロパシーDBの構成例を示す図である。
 アレロパシーDBは、例えばcsvファイルにより構成される。この例においては、ネギ、スイカやメロン(ウリ科)、ニンジン、アワ・キビ、ムギ、カボチャ、スイカ・キュウリ・カボチャ(ウリ類)、ニンニクやタマネギについて、アレロパシー(他感作用)が記録されている。「1」は対象となる植物の間で共生的な相互作用(すなわち促進的作用)が確認されたことを意味し、「0」はそれが確認されていないことを意味する。例えば、ネギとニンジンは共生的な相互作用が確認されているが、ネギとムギは共生的な相互作用が確認されていない。なお、0~10などの数字を用いて、相互作用の程度を段階的に表すこともできる。
 図15は、輪作適性DBの構成例を示す図である。
 輪作適性DBは、csvファイルにより構成される。この例においては、スイカ、メロン(ウリ科)と落花生の輪作適性が記録されている。「1」は対象となる植物の間でその畑において良好な輪作適性が確認されたことを意味し、「0」はそれが確認されていないことを意味する。例えば、スイカやメロン(ウリ科)と落花生は良好な輪作適性が確認されている。
 これらのアレロパシーDBや輪作適性DBは、文献などで知られている情報だけでなく、それ以外の情報からも作成される。例えば、種まきDB、植生DB、収量DBを比較参照して、実際に協生農園で混生状態が成立した植生の組み合わせや、植生遷移(すなわち、時間的な植生の変化)が生じた組み合わせからも同じ形式で作成することができる。
 微生物叢DBは、画像ファイルとcsvファイルで構成される。微生物叢DBは、協生農園で取得した土壌サンプルから解析された微生物に関する情報を記録する。
 気候区分DBは、csvファイルで構成される。この気候区分DBは、農園(圃場)が位置している気候区分に関する情報を記録するDBであり、照葉樹林帯、落葉樹林帯、亜熱帯気候、熱帯気候などの区分からなる。
 気象DBは、例えばアメダス等の気象衛星の気象データからグラフ化した画像ファイルと、csvファイル、及び、圃場に設置した観測機器であるセンサ装置11によるセンサデータとしての各種気象データを記録する。
 座標DBは、csvファイルで構成される。座標DBは、畑の畝ごとのGPS座標を記録している。この座標は、10 センチ程度の精度を有している。
 協生農法(登録商標)査定書DBは、pdf もしくは画像ファイルで構成される。協生農法(登録商標)査定書は、協生農法(登録商標)としての審査をクリアしたことの証明書であり、サーバ管理者が、畑21の管理者からの申請に基づいて畑を審査して、協生農法(登録商標)としての条件を満たしていることを確認した場合に発行される。この発行を受けた農園からの作物には、協生農法(登録商標)によるものであることを表記することが認められる。
 植物名DBは、各種の植物の名称と画像を記録する。写真記録DBは、各種の写真を記録する。メタDBは、後述するキーイベントを記録する。
 協生農法(登録商標)DBには、以上の他、協生農法(登録商標)で栽培する植物の植生設計を得るのに必要な各種の情報が記録される。
 <植生設計の支援処理>
 図16は、植生設計の支援の処理の例を説明するフローチャートである。
 図1の生態系活用システムは、生態系活用の支援の1つとして、協生農法(登録商標)の植生設計の支援を行う。生態系活用システムにおいては、ユーザが栽培したい作物(植生)を入力すると、それらの作物と混生密生状態を構築するのに適した植生の組み合わせ、すなわち、協生農法(登録商標)の植生設計が、アレロパシーDBと輪作適性DBから検索される。そして、最もコストが低く収量が高いと予想される植生設計の時空間配列が出力される。
 協生農法(登録商標)では、混生密生を基本とするため、複数の作物の種を混ぜて播種し、育って来たものを収穫する。どのような組み合わせで種をまけばより混生密生度を高く達成できるかは植物同士や土地条件との適正があり、既に知られている植物間相互作用(アレロパシーや輪作適性)と、圃場で実際にうまく行った組み合わせの両方から予想する必要がある。
 気象等を含む生態系を完全にコントロールすることはできないため、播種した種や植えた苗のうち全てが収穫可能とは限らないが、できるだけコストを削減し収量を最大化する植生の組み合わせを推定することが植生設計の課題である。植生設計は株式投資におけるポートフォリオの構成と概念的に相同なため、植生設計はシードポートフォリオ(Seed Portfolio)と呼ぶことができる。
 植生設計の支援の処理では、図16に示すように、ステップS11において、端末12の取得部51は、栽培する植物種(植生)の選択を取得する。すなわち、ユーザが、操作部34を操作して、栽培しようとする植物種を指定すると、これが取得部51により取得される。この入力は、ユーザに任意の植物名を入力させる方法で行ってもよいし、予め用意した植物名のリストを表示部35に表示させ、その中から所定のものを選択させるようにしてもよい。これにより、栽培する植物の指定が受け付けられる。
 ステップS12において、通信部40は、取得部51が取得した植物種(の植物種名)を、ネットワーク10を介して、サーバ13に送信する。
 ステップS31において、サーバ13の通信部67は、端末12から送信された植物種を受信する。つまりステップS12で端末12から送信された植物種がサーバ13により受信される。これによりユーザにより栽培される植物がサーバ13に受け付けられたことになる。ステップS32において、サーバ13においては、協生農法(登録商標)CMS71が、端末12からの植物種を含む植生設計を検索する。すなわち、協生農法(登録商標)CMS71は、ユーザにより指定された植物(端末12からの植物種)と混生密生状態を構築するのに適した植生の組み合わせを、アレロパシーDBと輪作適性DBの少なくとも一方から網羅的に検索する。なお、受信した植物種の確認には、必要に応じて植物名DBも利用される。
 ステップS33において、協生農法(登録商標)CMS71は、ステップS32で検索された各植生設計の共生スコアを計算する。すなわち、ステップS32で検索された1以上の数の植生設計である、ユーザにより指定された植物と混生密生状態を構築するのに適した植生の各組み合わせの共生スコアが計算される。
 共生スコアは、植え合わせたい種の集合が対応するアレロパシーDBと輪作適性DBに記録されている全要素の平均値として定義される。全要素とは、その種の全ての重み付けスコアであり、重み付けスコアとは、各植物の相互作用を正負の数値で評価した値である。つまり、共生スコアSCは、全植物の重み付けスコアの数をn、i(i=1,2,・・・,n)番目の植物の重み付けスコアの値をEiとするとき、式SC=ΣEi/nで表される。なお、重み付けスコアの値Eiは、混生密生状態を構築する適性の程度が大きい程大きな値となる。また、Σは、iを、1~nの整数値に変えてのサメーションを表す。
 共生スコアSCの値が大きいほど共生的な相互作用が強いこと、すなわち共生的な相互作用が強い経験則があることを意味し、数値が小さい(負に大きい)ほど競合的な相互作用が強いことを意味する。
 アレロパシーDBと輪作適性DBには、文献及び圃場のデータから作成した植物種の組み合わせごとに、相互作用が正負の数値で評価された重み付けスコアの値が記録されている。すなわち、種まきDBに種まきされたと記録されている種の植物の植生状態が植生DBに記録され、その植物から得られた収量が収量DBに記録される。そしてその植物の重み付けスコアが観測毎に種まきDB、植生DB、収量DBに追加されていき、最終的に収量が多い組み合わせ程、大きな重み付けスコアが付与される。輪作適性DBについても同様に、輪作に適した植物の組み合わせに大きい重み付けスコアが記録されていく。そしてアレロパシーDBにそれらに基づく共生スコアが記録される。
 例えば落花生が指定された場合、落花生と組み合わせの対象として記録されている他の植物の1つであるスイカとの共生スコアは、両者を混生密生状態として植生した場合の種々の条件、結果等の要素に対する重み付けスコアの平均値が計算される。収量が多ければ、その要素には大きい重み付けスコアが割り当てられ、収量が少なければ、小さい重み付けスコアが割り当てられる。それらの平均値が計算されて、共生スコアとされる。なお、計算は、植物が指定される毎に行ってもよいし、所定のタイミングで自動的に行っておいてもよい。
 共生スコアの計算に、アレロパシーDBと輪作適性DBの全ての積算値を用いると、植生遷移により年度ごとに育ちやすくなる植物種が変化する場合が平均化されてしまう。そこで、直近の過去数年分程度に区切った可変長時間差分の平均値である共生スコアでも評価が可能とされている。これを考慮することで、植生遷移への対応と利用を図ることができる。
 ステップS34において、協生農法(登録商標)CMS71は、ステップS31で検索された各植生設計の共生スコアを評価する。すなわち、ユーザにより指定された植物を含む各植生設計の共生スコアを比較する。
 ステップS35において、協生農法(登録商標)CMS71は、共生スコアが上位の植生設計を選択する。すなわち、ステップS34で評価された共生スコアの値が大きい植物種の組み合わせが大きい順に1以上選択される。
 なお、検索された全ての植生設計は、そのままユーザに提示することができる。この場合、共生スコアの評価、共生スコアの値が上位の植生設計の選択の処理は省略することができる。
 また、共生スコアの評価は、ユーザに行わせることができる。この場合、共生スコアの評価と共生スコアの値が上位の植生設計の選択の処理は省略することができる。
 ステップS36において、サーバ13の通信部67は、選択された植生設計を、ネットワーク10を介して、ステップS31で受信された植物種をサーバ13に送信した端末12に送信する。
 ステップS13において、端末12の取得部51は、サーバ13から送信された植生設計を、通信部40に受信させることにより取得する。これにより、ステップS11でユーザにより指定された植物の植生設計が取得される。ステップS14において、表示制御部52は、サーバ13から取得した植生設計を、表示部35に表示させる。
 これにより、ユーザは、ステップS11で入力した植物種と混生密生状態を構築するのに適した植生の各組み合わせ知ることができる。ユーザは、生態系活用システムから提案され、表示された組み合わせの中から、所定の組み合わせを選択し、実際に畑で栽培することができる。表示された組み合わせは、ユーザが指定した植物種と混生密生状態を構築するのに適した植生の各組み合わせであるから、ランダムな組み合わせで栽培する場合に比較して、収量を向上させることが可能となる。その結果、ランダムな組み合わせで植物を栽培する場合に比べて、コストを安くすることができる。ただここでユーザに提示される情報は予測ではない。過去の経験則に基づく予測の参考情報である。予測はその参考情報に基づいてユーザが行う。
 また、協生農法(登録商標)では、植物を混生密生状態で植生するため、植物毎に栽培区域を分けるモノカルチャー(慣行農法)の場合のように、農作業を幾つかに定式化し、そのいずれかを選択するようにしても、必ずしもいい結果は得ることができない。生態系活用システムでは、ユーザの観測に基づいて、ユーザに対して新たな組み合わせを提案することができるので、例えば、ある植生と昆虫の組み合わせに共生的な相互作用が強いことがユーザにより発見された場合、それを利用する植生設計を行うことが可能となる。
 さらに、協生農法(登録商標)では、複数の種類の植物を混生密生状態で植生するので、1種類の植物だけを栽培する場合に比べて、危険を分散することができ、平均的には多くの収量を得ることが可能となる。これが生態系活用システムの植生設計を、シードポートフォリオと称する理由でもある。そこで、提示する上位の組み合わせの数をユーザに指定させることもできる。もちろん、より適切な植物の数も提示させることもできる。これによりリスク管理が可能となる。
 図17は、共生的アレロパシーの出力例を示す図である。
 この図17は、図16のステップS14での表示例である。図17においては、最上段に示されている10種類の植物と混生密生状態を構築するのに適した植物(すなわちコンパニオンプランツ)が、その下段に示されている。例えば、トウモロコシと混生密生状態を構築するのに適した植物は、スイカやメロン(ウリ科)、カボチャ、マメ類、レタス/サラダ菜、ウリ科、スイートバジル、ツルインゲン、ゼラニウム、メロン、パセリ、大豆、アサガオ、小松菜、葉菜類である。またセロリと混生密生状態を構築するのに適した植物は、トマト、キャベツ類、ハクサイ、カブ、エンドウである。
 つまり、ユーザが最上段の植物名を入力すると、その下段に示されている植物名が、混生密生状態を構築するのに適した植物として表示されることになる。従ってユーザは、表示の中から1つ以上の植物を選択して、指定した植物とともに、混生密生状態で植生することができる。
 なお、図17の例においては、植物名のみが示されているが、対応する共生スコアも合わせて、上位から順番に表示してもよい。
 <ARオブジェクトの表示例>
 図18は、ARオブジェクトの表示例を示す模式的な図である。
 協生農法(登録商標)では、どの野菜を残してどの草を刈るかなど、圃場における植物個体1つ1つの精度での植生管理が究極的には必要になるため、現場で処理すべき情報量が膨大になる。そこで、生態系活用システムにおいては、それだけの情報量を個人の能力差に関わり無く処理すべく、拡張現実(AR:Augmented Reality)技術を採用することができる。
 AR技術を用いたAR表示では、例えば、ユーザが実際に見ている実空間等の所定の背景空間に重畳して、オブジェクトデータ(としての画像(データ))が、その背景空間内に存在するかのように表示される。ここで、AR表示が可能なオブジェクトデータを、ARオブジェクトともいう。
 AR表示を行う方法としては、背景空間(としての画像)の画像認識を行って、マーカを検出し、そのマーカに対応する位置に、ARオブジェクトを表示する方法と、GPS座標等の絶対的な位置に、ARオブジェクトを表示する方法がある。
 また、マーカとしては、背景空間に元から存在する物体が使用される場合と、所定のパターン等の画像が印刷された印刷物が使用される場合とがある。
 生態系活用システムでは、例えば、ARオブジェクトを、マーカやGPS座標と対応付けて、そのマーカやGPS座標に対応する背景空間内の位置に、ARオブジェクトを重畳したAR表示を行うことができる。
 すなわち、生態系活用システムでは、サーバ13において、例えば、所定のGPS座標(が表す位置)に実際に植生されている野菜について、その種名を表すARオブジェクトと所定のGPS座標とを対応付けることや、所定のGPS座標の畝について、種まきや管理作業の情報を表すARオブジェクトと所定のGPS座標とを対応付けること、所定のGPS座標の先住植生について、その先住植生を表すARオブジェクトと所定のGPS座標とを対応付けること等を行うことができる。
 そして、端末12では、図18に示すように、カメラ37による撮影で得られる動画又は静止画の実空間(現実世界)の画像や、ユーザがシースルー型のHMDで直接見る実空間等の背景空間(の画像)内の、所定のGPS座標に対応する位置に、その所定のGPS座標に対応付けられたARオブジェクトを表示することができる。
 図18の表示例では、ユーザが、この場所で2011年8月に草刈りをし、2011年9月に種まきを行っている。何の種がまかれたかの情報は、その種まきのARオブジェクトに付随して、協生農法(登録商標)DBに記録されている。そして、現在においては、この場所に、白菜、ニラ、ダイコン、カリフラワー、コマツナ、ゴボウが植生している。
 図18に示されるように、白菜101ないし104、ニラ105、ダイコン106、カリフラワー107、コマツナ108、ゴボウ109、ヨモギ群生地帯110は、それぞれある畑の所定のGPS座標で表される位置に植生している。協生農法(登録商標)DBにおいて、白菜101ないしヨモギ群生地帯110のARオブジェクトは、その白菜101ないしヨモギ群生地帯110が植生している位置のGPS座標と対応付けられ、記録、管理されている。
 すなわち、ユーザが、ある植物を観測した場合に、例えば、端末12の操作部34を操作して、その植物の名称を入力すると、サーバ13では、ユーザが入力した名称(を表示する画像)をARオブジェクトとして、そのARオブジェクトに、ユーザが名称を入力した植物が植生しているGPS座標が対応付けられる。
 その後、ユーザが畑の所定の植物をカメラ37により撮影すると、その画像が表示部35に表示される。さらに所定の指示が入力されると、図18に示されるように、GPS座標の位置に植生する実際の植物の画像に重畳して、対応するARオブジェクト、すなわち、「白菜」等の名称(を表示する画像)が表示される。
 ここで、ヨモギ群生地帯110は、ユーザが種をまいた結果として植生した植物ではなく、先住植物であるが、図18では、そのような先住植物にも、ユーザによりARオブジェクトが付与されている。
 なお、植生する植物は、時期によって変化するので、ARオブジェクトは年月日を付加して管理することができる。
 また、上述の場合には、ARオブジェクトを、GPS座標を利用して表示することとしたが、ARオブジェクトは、マーカを利用して表示することができる。すなわち、ARオブジェクトは、GPS座標と対応付け、そのGPS座標に対応する背景空間内の位置に表示する他、マーカと対応付け、そのマーカに対応する背景空間内の位置に表示することができる。
 <協生農法(登録商標)ページ>
 図19は、協生農法(登録商標)ページとしてのwebページのサイトマップの例を示す図である。
 サーバ13は、協生農法(登録商標)DBを図19に示される地理的階層に応じてリンクしたwebページである協生農法(登録商標)ページを、端末12のユーザに提供する。端末12のタッチパネルから操作するために、協生農法(登録商標)DBを選択するアイコンが協生農法(登録商標)ページのトップページに表示される。
 協生農法(登録商標)ページは、同図に示されるように、上位の階層から下位の階層の順番に、トップページ、地図上の畑の分布、畑の全体情報、畑区画の全体情報、畝区画の全体情報の階層で構成される。トップページ、地図上の畑の分布、畑の全体情報、畑区画の全体情報、畝区画の全体情報の階層は、それぞれ地球、畑、畑区画、畝区画の地理階層に対応する。したがって、端末12の表示部35は、畑をこの階層構造にしたがって出力表示する。例えばユーザは、畑#1の画面から、その畑#を区分した畑区画#1-1,#1-2,・・・の画面を選択することができ、畑区画#1-1の画面から、その畑区画#1-1にある畝区画#1-1-1,#1-1-2,・・・の画面を選択することができる。なお、この例では、畝の階層は省略されているが、設けてもよい。
 また、畑の全体情報は、気候区分DB、気象DB、協生農法(登録商標)査定書DB、写真記録DB、位置情報としてのGPS座標を記録する座標DBにリンクしている。畑区画の全体情報は、収量DB、昆虫動物叢DB、フェノロジーDB、写真記録DB、座標DBにリンクしている。畝区画の全体情報は、種まきDB、植生DB、フェノロジーDB、写真記録DB、座標DBにリンクしている。
 図20は、協生農法(登録商標)ページで提供される地図上の畑の分布の表示例を示す図である。
 この例においては、地球の地図上に、畑の位置がフラグ121で示されている。アイコン122ないし129は、それぞれ種まきDB、植生DB、収量DB、写真記録DB、フェノロジーDB、昆虫動物叢DB、気候区分DB及び気象DBに対応し、それぞれを読み出すとき操作される。地理階層のアイコン130は、例えば、畑区画や畝区画等の畑のレベルを選択するとき操作される。
 アイコン131は、検索を指示するとき操作され、アイコン132は、ソートを指示するとき操作され、アイコン133は、キーイベントを指示するとき操作される。
 検索のアイコン131が操作されると、サーバ13の協生農法(登録商標)CMS71は、全語句やファイル名を検索する。協生農法(登録商標)CMS71は、類似語検索機能も有する。これにより、日付の異なる様式での一括検索も可能となる。例えば、「2011年4月1日」と「20110401」、「01042011」、「2011/4/1」、「1/4/2011」、「二千十一年四月一日」などの日付は、同一視される。また、種名のカナ表記/漢字表記/和名/学名/英名/通俗名などを同一視した一括検索も可能となる。例えばジャガイモと馬鈴薯は同一視される。
 ソートのアイコン132が操作されると、協生農法(登録商標)CMS71は、全パラメータ毎のソートを行う。例えば、検索結果を、日付順や種名の五十音順などのパラメータ毎に並び替えることができる。
 なお、これらのアイコン122ないし133は、その画面において操作可能なものだけが表示される。
 <圃場の情報を参照する処理>
 図21は、ユーザが圃場(畑)の情報を参照する場合の処理の例を説明するフローチャートである。
 ステップS41において、端末12の取得部51は、畑のレベルの情報を取得する。すなわち、ユーザは、畑に関する情報を参照する場合、操作部34を操作して、地理階層のアイコン130(図20参照)を選択する。この操作が行われると、表示部35は、畑のレベルを選択する画面を表示する。つまり畑の一覧のレベルが表示される。ユーザは操作部34を操作して、その画面から、参照の対象とする畑を選択する。取得部51がこの選択の情報を取得すると、通信部40がこの選択の情報をサーバ13に送信する。
 ステップS61において、サーバ13の通信部67は、端末12により選択された畑のレベルの情報を受信する。ステップS62において、ステップS41で端末12により選択されたレベルの畑のリストを作成し、出力する処理が行われる。つまり、協生農法(登録商標)CMS71は、座標DBを検索することで、ステップS61で受信したレベルの畑のリストを生成し、通信部67がそのリストを端末12に送信する。
 ステップS42においてリストを受信し、表示する処理が行われる。すなわち、サーバ13から出力されたリストが端末12の通信部40により受信され、表示制御部52がそのリストを表示部35に表示する。
 ユーザは、操作部34を操作して、表示されたリストの中から、参照対象とする畑を選択する。ステップS43において、通信部40は、リストから選択された畑の情報を送信する。
 ステップS63において、サーバ13の通信部67は、端末12により選択された畑の情報を受信する。
 ステップS64において、協生農法(登録商標)CMS71は、ステップS63において受信された畑が関係するDBを、協生農法(登録商標)DBから検索する。つまりユーザが指定したレベルの畑が関係するDBが、協生農法(登録商標)DBから検索される。ステップS65において、検索された畑のDBの一覧を出力する処理が行われる。つまり、協生農法(登録商標)CMS71は検索結果に基づいて、関係するDBの一覧を作成し、通信部67がその一覧を端末12に出力する。
 ステップS44において、端末12の通信部40は、検索された畑のDBの一覧を受信する。ステップS45において、表示制御部52は、通信部40が受信した畑のDBの一覧を、表示部35に表示させる。
 ユーザは、操作部34を操作して、表示された一覧の中から参照するDBと畑の座標を入力する。ステップS46において、取得部51は、この入力された、参照するDBと畑の座標の情報を取得する。ステップS47において、通信部40は、ステップS46で取得された情報を、サーバ13に送信する。
 ステップS66において、サーバ13の通信部67は、端末12により送信された情報を受信する。ステップS67において、協生農法(登録商標)CMS71は、受信した情報に基づき、指定されたDBの指定された座標の畑の情報を読み出す。すなわち、ステップS66において受信されたDBの、ユーザにより入力された座標の畑の情報が読み出される。ステップS68において、通信部67は、読み出した畑の情報を端末12に送信する。
 ステップS48において、端末12の通信部40は、サーバ13からの、DBから読み出された畑の情報を受信する。ステップS49において、表示制御部52は、通信部40が受信した畑の情報を、表示部35に表示する。
 ユーザは、表示部35に表示された畑の情報を見て、操作部34を操作して、参照する情報の日付を選択する。取得部51は、ステップS50において、この参照する情報の日付の選択の情報を取得する。そして日付の選択の情報は、通信部40によりサーバ13に送信される。
 ステップS69において、サーバ13の通信部67は、端末12からの、参照する情報の日付の選択の情報を受信する。ステップS70において、協生農法(登録商標)CMS71は、指定された日付の情報を、協生農法(登録商標)DBから読み出し、ステップS71において、通信部67は、読み出された日付の情報を、端末12に送信する。
 ステップS51において、端末12の通信部40は、サーバ13からの、読み出された日付の情報を受信する。ステップS52において、表示制御部52は、ステップS51において受信された日付の情報を、表示部35に表示する。
 以上のようにして、参照したい協生農法(登録商標)DB、畑区画などの座標、並びに日付を指定することで、座標ごとの協生農法(登録商標)DBの情報、例えば、ユーザが指定した過去の圃場や他の圃場等の履歴情報が表示部35に表示され、ユーザはこれを確認することができる。
 なお、以上においては、地理階層のアイコン130により畑のレベルを選択するようにしたが、フラグ121を操作することで、参照する畑を直接指定することもできる。
 <写真のアップロード処理>
 図22は、写真のアップロード処理の例を説明するフローチャートである。
 ユーザが、端末12からサーバ13に写真(としての画像)をアップロードする場合、ステップS81において、端末12の取得部51は、写真データを取得する。ユーザは、例えば、畑において所定の植物を発見(観測)し、その写真をサーバ13にアップロードする場合、カメラ37によりその植物を撮影する。この撮影が行われると、その写真データ(画像データ)が取得部51により取得される。勿論、メモリ等に予め保存された写真データをアップロードする写真データとして取得することも可能である。
 ステップS82において、端末12の位置検出部39は、位置情報としてのGPS座標を検出する。つまり、端末12により撮影された被写体の座標が取得される。この座標は、端末12の現在位置とすることもできるし、現在位置から被写体までの距離と方向を演算し、現在位置を補正することで、より正確な被写体の座標とすることもできる。また、ユーザに操作部34を操作させることで座標を入力させることもできる。
 ステップS83において、表示制御部52は、写真データとリンクさせる協生農法(登録商標)DBの情報のリストを、表示部35に表示する。ステップS84において、取得部51は、写真データとリンクさせる情報の選択の情報を取得する。すなわち、ユーザが操作部34を操作することで、表示部35に表示されたリストの中から、写真データとリンクさせる情報を選択すると、その選択の情報が取得部51により取得される。
 さらに、ユーザは、操作部34を操作することで、アップロードする写真にコメントとして付加する情報(主に文字情報)を入力することができる。例えば、白菜の写真を撮影した場合、コメントとして「ハクサイ」の名称が入力される。なお、この入力には、キーボードからの文字入力だけでなく、予め用意された入力ページから所定の欄を選択する等の方法を用いることができる。ステップS85において、取得部51は、この入力されたコメントとする情報を取得する。ステップS86において、通信部40は、ステップS81,S82,S84,S85で取得された情報を、サーバ13に送信する。
 ステップS91において、サーバ13の通信部67は、端末12から送信されてくる情報を受信する。ステップS92において、協生農法(登録商標)CMS71は、ステップS91で受信された情報を協生農法(登録商標)DBに登録する。すなわち、ユーザが撮影した写真が、コメントとともに、写真記録DBに登録され、さらに、ユーザが選択した協生農法(登録商標)DBの情報にリンクされる。
 以上のようにして、ユーザは、端末12から所定の写真とコメントをサーバ13にアップロードすることができる。ユーザは、上述した図21の処理により、このアップロードした情報を後に参照することができる。
 なお、写真以外の各種の情報をアップロードする場合にも同様の処理が行われる。例えば、所定の畝から白菜が1Kg収穫された場合、アップロードする情報として、「白菜1Kg」が入力される。そして、例えば、収量DBに、所定の畝の座標にリンクする形で、情報「白菜1Kg」が記録される。
 <キーイベントの登録>
 図23は、キーイベントの登録の処理の例を説明するフローチャートである。
 ユーザは、任意の事象を、キーイベントとして、協生農法(登録商標)DBのメタDBに登録することができる。キーイベントとしては、協生農法(登録商標)のマネージメント上重要と推定される事象を採用することができ、キーイベントは、自然言語による名称記録と、協生農法(登録商標)DBの各DBの対応項目とのリンクとにより定義される。
 ユーザは、キーイベントを登録するとき、操作部34を操作して、キーイベントのアイコン133(図20参照)を選択する。このとき、ステップS101において、取得部51は、キーイベントのアイコン133の選択を受け付ける。ステップS102において、取得部51は、写真データと日付を取得する。すなわち、例えば、ユーザが、キーイベントとして記録したい事象としての植物等をカメラ37により撮影し、操作部34を操作して日付を入力すると、これらの情報が取得部51により取得される。
 ステップS103において、位置検出部39は、位置情報としてのGPS座標を取得する。すなわち撮影された写真に対応する座標(写真に映る事象としての植物等のGPS座標)が取得される。
 ステップS104において取得部51は、入力文字を取得する。すなわち、ユーザが操作部34を操作してキーイベントとしての文字情報を入力すると、これが取得される。例えば、ユーザは、ロゼット化した白菜を発見したとき、その白菜の写真を撮影するとともに、「白菜のロゼット化」の文字をキーイベントとして入力することができる。
 ステップS105において、通信部40は、ステップS102ないしS104で取得された情報を、サーバ13に送信する。
 ステップS121において、サーバ13の通信部67は、端末12から送信されてきた情報を受信する。ステップS122において、協生農法(登録商標)CMS71は、通信部67が受信した情報をメタDBに記録する。すなわち、ステップS102ないしS104で端末12により取得された情報がキーイベントDBとしてのメタDBに記録(登録)される。
 ステップS106において、端末12の取得部51は、畑のレベルを取得する。すなわち、ユーザは、キーイベントの記録を行う場合、操作部34を操作して、地理階層のアイコン130(図20)を選択する。この操作が行われると、表示部35は、畑のレベルを選択する画面を表示する。ユーザは、操作部34を操作して、その画面から、参照の対象とする畑のレベルを選択する。取得部51がこの選択の情報を取得し、通信部40がこの選択の情報をサーバ13に送信する。
 ステップS123において、サーバ13の通信部67は、端末12により選択された畑のレベルの情報を受信する。ステップS124において、ステップS106で端末12により選択されたレベルの畑のリストを作成し、出力する処理が行われる。つまり、協生農法(登録商標)CMS71は、座標DBを検索することで、ステップS123で受信したレベルの畑のリストを生成し、通信部67がそのリストを端末12に送信する。
 ステップS107においてリストを受信し、表示する処理が行われる。すなわち、サーバ13から出力されたリストが端末12の通信部40により受信され、表示制御部52がそのリストを表示部35に表示する。
 ユーザは、操作部34を操作して、表示されたリストの中から、記録対象とする畑を選択する。ステップS108において、通信部40は、リストから選択された畑の情報を、サーバ13に送信する。
 ステップS125において、サーバ13の通信部67は、端末12により選択された畑の情報を受信する。
 ステップS126において、協生農法(登録商標)CMS71は、ステップS125において受信された畑の情報が登録されているDBを、協生農法(登録商標)DBから検索する。つまりユーザが指定したレベルの畑が関係するDBが、協生農法(登録商標)DBから検索される。ステップS127において、検索されたDBの一覧を出力する処理が行われる。つまり、協生農法(登録商標)CMS71は、検索結果に基づいて、ユーザが指定したレベルの畑に関係するDBの一覧を作成し、通信部67がその一覧を端末12に送信する。
 ステップS109において、端末12の通信部40は、サーバ13からのDBの一覧を受信する。ステップS110において、表示制御部52は、サーバ13からのDBの一覧を表示部35に表示する。
 ユーザは、操作部34を操作して、表示された一覧を参照し、キーイベントにリンクするDBと畑の座標を入力する。ステップS111において、取得部51は、この入力された、キーイベントとリンクするDB及び畑の座標の情報を取得する。ステップS112において、通信部40は、ステップS111で取得された情報を、サーバ13に送信する。
 ステップS128において、サーバ13の通信部67は、端末12より送信された情報を受信する。ステップS129において、協生農法(登録商標)CMS71は、協生農法(登録商標)DBのうちの、指定されたDBから、指定された座標の畑の情報を読み出す。すなわち、ユーザにより入力されたDBから、同じくユーザにより入力された座標の畑の情報が読み出される。ステップS130において、通信部67は、読み出された畑の情報を、端末12に送信する。
 ステップS113において、端末12の通信部40は、読み出された畑の情報を受信する。この情報は、表示部35に表示される。ユーザは、この表示を見て、ユーザが指定(入力)した畑がキーイベントにリンクさせる畑であることを確認する。この確認を行った後、ユーザは、操作部34を操作して、ユーザにより指定(入力)されたDBの、ユーザにより指定された畑の情報と、キーイベントとをリンクさせるように指示する。この指示に基づいて、ステップS114において、通信部40は、リンクのためのコマンドを、サーバ13に送信する。
 ステップS131において、サーバ13の通信部67は、端末12から送信されたリンクのコマンドを受信する。ステップS132において、協生農法(登録商標)CMS71は、新規に記録されたキーイベントを指定された畑の情報にリンクする。すなわち、ステップS122でメタDBに新規に記録されたキーイベントが、ステップS111でユーザにより指定された畑の情報にリンクされる。
 以上のように、キーイベントが畑の情報にリンクされた後は、ユーザは、端末12の操作部34を操作することで、キーイベントから、そのキーイベントにリンクされた畑の情報を参照することや、畑の情報から、その畑の情報にリンクされたキーイベントにアクセスすることができる。
 以下に、キーイベントの具体例としての事象について、キーイベント名、自由言語による記録、キーイベントとリンクされる畑の情報が登録されたDBである関連DBの順に記載する。
 キーイベント名:記録防風効果
 自由言語による記録:同じ土地条件であっても、周囲に塀などの風を遮る構造がある場所には、野菜の生長が高まる。
 関連DB:座標DB、収量DB、管理記録DB、植生DB、フェノロジーDB
 キーイベント名:土壌形成とレタスの発芽率の低下
 自由言語による記録:レタスは耕された土地では良く発芽するが、不耕起を続けて土壌構造が形成されて来ると、発芽しにくくなる。
 関連DB:種まきDB、管理記録DB、植生DB、フェノロジーDB
 キーイベント名:競合成長
 自由言語による記録:土中の栄養分が同じでも、他の植生と競合することで野菜がより大きく生長する。
 関連DB:植生DB、フェノロジーDB、収量DB
 なお、競合成長の具体例としては、イヌホオズキと競合して大きくなったニンジンの例、夏草を刈らなかった畝で発芽率は悪いが個々の野菜の生長は大きくなった例などがある。
 キーイベント名:ロゼット化:
 自由言語による記録:冬期に野菜種によっては地表に平たく這いつくばるような形態に変化し、寒さでも枯れない形状で春まで生き延びる。この形態でも収穫可能である。
 関連DB:植生DB、フェノロジーDB、収量DB、気象DB
 キーイベント名:紅葉
 自由言語による記録:冬期に、ニンジンやキャベツなどの野菜が紅葉することがある。紅葉しても収穫可能。
 関連DB:植生DB、フェノロジーDB、収量DB、気象DB
 キーイベント名:遅霜
 自由言語による記録:春の発芽直後に地表が4℃以下になると、遅霜で双葉が全滅するため、全面追い蒔きや苗の定植で対応する必要がある。
 関連DB:種まきDB、管理記録DB、植生DB、フェノロジーDB、気象DB
 <関係グラフ>
 図24は、サーバ13のグラフ表示制御部72(又は端末12の取得部51)で生成される関係グラフを説明する図である。
 任意のDBにおいて、あるカテゴリ(集合)の情報i1と、他のカテゴリの情報i2とが関連付けられている場合、情報i2を尺度(定規)として、情報i1どうしの関係を表すグラフ(ネットワーク関係図)である関係グラフを生成することができる。
 ここで、情報i1とi2とが関連付けられているDBについては、上述の場合とは逆に、情報i1を尺度として、情報i2どうしの関係を表す関係グラフも生成することもできる。
 また、関係グラフの生成には、情報i1とi2とが明示的に関連付けられているDBの他、情報i1とi2とが暗黙的に関連付けられているDBも用いることができる。
 ここで、例えば、情報i1が、観測された植生(の植生名)であり、情報i2が、植生が観測された圃場(の圃場名)である場合、情報i1とi2とが明示的に関連付けられているDBとは、植生と、その植生が観測された圃場とが、対応付けられて登録されているDBである。
 また、情報i1とi2とが暗黙的に関連付けられているDBとは、例えば、「植生#1が圃場#1で観測された」といった自然言語が登録されたDBである。
 グラフ表示制御部72は、情報i1とi2とが関連付けられているDBから、マルチパータイトグラフとしての、例えば、バイパータイトグラフ(2部グラフ)を生成し、そのバイパータイトグラフから関係グラフを生成する。
 図24は、DBから生成されるバイパータイトグラフの例を示す図である。
 図24では、DBとして、植生と、その植生が観測された圃場とが関連付けられている植生/圃場DBが採用されている。
 図24のバイパータイトグラフは、植生#1が圃場#1ないし#4で観測されたこと、植生#2が圃場#1ないし#4で観測されたこと、植生#3が圃場#3及び#4で観測されたこと、及び、植生#4ないし#6のそれぞれが圃場#4で観測されたこと、を表している。
 以上のようなバイパータイトグラフから、関係グラフを生成するにあたっては、圃場#kを尺度として、植生#iと#jとの関係性(の強さ)を表す関係スコアが求められる(i≠j)。
 図25は、図24の植生/圃場DBのバイパータイトグラフから求められる関係スコアの例を示す図である。
 植生#iと他の植生#jとの関係スコアとしては、植生#i及び#jの両方に関連付けられた圃場の数、すなわち、植生#i及び#jの両方が観測された圃場の数に対応する値(例えば、比例する値)を採用することができる。
 図25では、植生#iと他の植生#jとの関係スコアとして、植生#i及び#jの両方が観測された圃場の数を、圃場の総数(ここでは4)で除算した値が採用されている。
 図24のバイパータイトグラフによれば、例えば、植生#1については、図25上側に示すように、植生#2とともに観測された圃場が、圃場#1ないし#3の3個であり、植生#3とともに観測された圃場が、圃場#3の1個であり、植生#4ないし#6とともに観測された圃場は0個である。
 したがって、植生#1については、植生#2との関係スコアは3/4になり、植生#3との関係スコアは1/4になる。さらに、植生#1については、植生#4ないし#6それぞれとの関係スコアは、いずれも0になる。
 同様にして、例えば、図24の植生#3については、図25下側に示すように、植生#1との関係スコアは1/4になり、植生#2との関係スコアは2/4(=1/2)になる。さらに、植生#3については、植生#4ないし#6それぞれとの関係スコアは、いずれも、1/4になる。
 グラフ表示制御部72は、バイパータイトグラフから関係スコアを求め、その関係スコアを用いて、関係グラフを生成し、その関係グラフを表示したグラフ表示画面を生成する。
 図26は、図24のバイパータイトグラフ、及び、図25の関係スコアを用いて生成される関係グラフが表示されたグラフ表示画面の例を示す図である。
 関係グラフは、図中丸印で示されるノードと、ノードどうしを接続する線分で示されるリンクとで構成される。
 図26において、ノードは、植生に対応し、リンクは、ノードどうし、すなわち、ここでは、植生どうしの関係性を表す。
 図26の関係グラフは、植生#1のノード(植生#1に対応するノード)を、注目している注目ノードとして、その注目ノードが表す植生#1と、他の植生#2ないし#6それぞれとの関係を表している。
 グラフ表示画面において、関係グラフは、例えば、注目ノード、すなわち、ここでは、植生#1のノードが画面の(ほぼ)中央に位置するように配置される。
 また、関係グラフにおいて、注目ノードである植生#1のノードと、他の植生#2ないし#6のノードとの間のリンクの長さは、図25に示した、植生#1と、植生#2ないし#6それぞれとの関係スコアに対応する長さになっている。
 すなわち、注目ノードである植生#1のノードと、他の植生#jのノードとの間のリンクの長さは、植生#1と#jとの関係スコアが大きいほど、つまり、植生#1と#jとの関係性が強いほど、短くなっている。
 いまの場合、植生#1と#jとの関係性が強いことは、植生#1と#jとの両方が観測された圃場の数が多いことに相当する。
 したがって、注目ノードである植生#1のノードに近い位置にあるノードが表す植生#jは、植生#1と共生関係にあると推定することができ、図26の関係グラフを見たユーザは、植生#1と混生密生状態を構築するのに適した植生を、容易に認識(予測)(推定)することができる。
 その結果、図26の関係グラフによれば、生態系活用の支援の1つとして、植生設計を支援することができる。
 図26では、植生#1のノードを注目ノードとしたが、グラフ表示画面では、任意のノードを注目ノードに選択することができる。
 すなわち、端末12において、表示部35にグラフ表示画面が表示されている場合において、ユーザが、操作部34を操作して、例えば、植生#3のノードを選択すると、表示制御部52は、植生#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面を表示する。
 図27は、植生#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面の例を示す図である。
 図27のグラフ表示画面では、関係グラフは、注目ノードである植生#3のノードが画面の中央に位置するように配置されている。
 また、関係グラフにおいて、注目ノードである植生#3のノードと、他の植生#1,#2,#4ないし#6のノードとの間のリンクの長さは、図25に示した、植生#3と、植生#1,#2,#4ないし#6それぞれとの関係スコアに対応する長さになっている。
 情報i2を尺度とする情報i1どうしの関係を表す関係グラフでは、情報i1どうしの関係の他、情報i1と、その情報i1に関連付けられた情報i2との関係をも表すことができる。
 すなわち、例えば、図24で説明した植生/圃場DBから生成される関係グラフでは、植生どうしの関係の他、植生と、その植生に関連付けられた圃場との関係をも表すことができる。
 図28は、植生どうしの関係の他に、植生と、その植生に関連付けられた圃場との関係が表された関係グラフが表示されたグラフ表示画面の例を示す図である。
 図28の関係グラフでは、図26の関係グラフに、植生に関連付けられた圃場のノード(図中、三角形で示す部分)と、植生と圃場との関係を表すリンク(図中、点線で示す部分)とが追加されている。
 すなわち、図28の関係グラフでは、図26の関係グラフに、注目ノードが表す植生#1が観測された圃場#1ないし#3それぞれのノード、及び、それらのノードそれぞれと、注目ノードである植生#1のノードとを結ぶリンクが追加されている。
 図28の関係グラフによれば、ユーザは、図26の場合と同様に、植生#1と混生密生状態を構築するのに適した植生を、容易に認識することができる他、植生#1が観測された圃場を、容易に認識することができる。
 この場合、ユーザは、植生#1が観測された圃場の環境を、協生農法(登録商標)DBにアクセスして調べることにより、植生#1が観測される環境を推定することができる。
 ここで、関係グラフに、植生と圃場のような、異なるカテゴリの情報のノードを表す場合には、植生のノードと圃場のノードとを区別することができるように、ノードを表示することができる。
 すなわち、植生のノードと圃場のノードとは、例えば、色や、大きさ、形状、模様等として異なるものを採用して表示することができる。
 図28に示したように、植生どうしの関係の他に、植生と、その植生に関連付けられた圃場との関係が表された関係グラフが表示されたグラフ表示画面については、図27で説明したように、注目ノードとして、植生のノードを選択することができる他、圃場のノードを選択することができる。
 すなわち、端末12において、表示部35に、図28のグラフ表示画面が表示されている場合において、ユーザが、操作部34を操作して、圃場のノードを選択すると、表示制御部52は、ユーザが選択した圃場のノードを注目ノードとした関係グラフが表示されたグラフ表示画面を表示する。
 圃場のノードを注目ノードとした関係グラフは、植生/圃場DBにおいて圃場に関連付けられた植生を尺度として、圃場どうしの関係を表す。そのため、圃場のノードを注目ノードとした関係グラフが表示されたグラフ表示画面が表示される場合には、植生#kを尺度として、圃場#iと#jとの関係性を表す関係スコアが求められる(i≠j)。
 図29は、図24のバイパータイトグラフから求められる関係スコアの例を示す図である。
 なお、図25では、植生どうしの関係スコアを示したが、図29は、圃場どうしの関係スコアを示している。
 圃場#iと他の圃場#jとの関係スコアとしては、圃場#i及び#jの両方に関連付けられた植生の数、すなわち、圃場#i及び#jの両方で観測された植生の数に対応する値(例えば、比例する値)を採用することができる。
 図29では、圃場#iと他の圃場#jとの関係スコアとして、圃場#i及び#jの両方で観測された植生の数を、植生の総数(ここでは6)で除算した値が採用されている。
 図24のバイパータイトグラフによれば、例えば、圃場#1については、図29上側に示すように、圃場#1及び#2の両方で観測された植生が、植生#1及び#2の2個であり、圃場#1及び#3の両方で観測された植生が、植生#1の1個であり、圃場#1及び#4の両方で観測された植生は0個である。
 したがって、圃場#1については、圃場#2との関係スコアは2/6(=1/3)になり、圃場#3との関係スコアは1/6になる。さらに、圃場#1については、圃場#4との関係スコアは0になる。
 同様にして、例えば、図24の圃場#3については、図29下側に示すように、圃場#1,#2,#4それぞれとの関係スコアは、いずれも、2/6になる。
 グラフ表示制御部72は、バイパータイトグラフから関係スコアを求め、その関係スコアを用いて、関係グラフを生成し、その関係グラフを表示したグラフ表示画面を生成する。
 図30は、図29の関係スコアを用いて生成される関係グラフが表示されたグラフ表示画面の例を示す図である。
 すなわち、図30は、例えば、図28の関係グラフにおいて、ユーザが、圃場#1のノードを注目ノードに選択した場合に表示される関係グラフのグラフ表示画面の例を示している。
 図30の関係グラフでは、圃場#1のノードを注目ノードとして、その注目ノードが表す圃場#1と、他の圃場#2ないし#4それぞれとの関係が表されている。
 グラフ表示画面において、関係グラフは、図26で説明したように、注目ノードである圃場#1のノードが画面の中央に位置するように配置されている。
 また、図30の関係グラフにおいて、注目ノードである圃場#1のノードと、他の圃場#2ないし#4それぞれのノードとの間のリンクの長さは、図29に示した、圃場#1と、圃場#2ないし#4それぞれとの関係スコアに対応する長さになっている。
 すなわち、注目ノードである圃場#1のノードと、他の圃場#jのノードとの間のリンクの長さは、圃場#1と#jとの関係スコアが大きいほど、つまり、圃場#1と#jとの関係性が強いほど、短くなっている。
 いまの場合、圃場#1と#jとの関係性が強いことは、圃場#1と#jとの両方で観測された植生の数が多いことに相当する。
 したがって、注目ノードが表す圃場#1と、その注目ノードに近い位置にあるノードが表す圃場#jとは、それらの圃場#1及び#jの両方で観測された植生に適した環境と多くの事項が共通する環境の圃場であると推定することができる。
 その結果、図30の関係グラフによれば、例えば、ユーザは、圃場#1及び#jに共通する環境を、協生農法(登録商標)DBにアクセスして調べることにより、圃場#1及び#jの両方で観測された植生に適した環境を推定することができる。
 なお、図30の関係グラフでは、圃場どうしの関係の他、注目ノードが表す圃場#1にリンクする形で、その圃場#1で観測された植生#1及び#2のノードも表示されている。
 ユーザは、操作部34を操作して、任意のノードを注目ノードに選択することができる。
 いま、図30の関係グラフにおいて、例えば、圃場#3のノードが、注目ノードに選択されると、表示制御部52は、圃場#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面を表示する。
 図31は、圃場#3のノードを注目ノードとした関係グラフが表示されたグラフ表示画面の例を示す図である。
 図31のグラフ表示画面では、関係グラフは、注目ノードである圃場#3のノードが画面の中央に位置するように配置されている。
 また、関係グラフにおいて、注目ノードである圃場#3のノードと、他の圃場#1,#2,#4のノードとの間のリンクの長さは、図29に示した、圃場#3と、圃場#1,#2,#4それぞれとの関係スコアに対応する長さになっている。
 なお、図31の関係グラフでは、図30と同様に、圃場どうしの関係の他、注目ノードが表す圃場#3にリンクする形で、その圃場#3で観測された植生#1ないし#3のノードも表示されている。
 図31の関係グラフにおいて、例えば、植生#1のノードが、注目ノードに新たに選択された場合には、関係グラフは、上述の図28に示したようになる。
 以上のような関係グラフによれば、ユーザは、例えば、図28の関係グラフを参照することにより、注目ノードが表す植生#1と共生する他の植生を、容易に認識することができるとともに、注目ノードが表す植生#1が観測される圃場を、容易に認識することができる。
 また、ユーザが、図28の関係グラフにおいて、注目ノードとして、植生#1以外の植生のノードを新たに選択した場合には、図26及び図27で説明したように、その新たに選択したノードを注目ノードとする関係グラフが表示されるので、ユーザは、その新たに注目ノードとなったノードが表す植生と共生する他の植生を、容易に認識することができる。
 さらに、ユーザが、図28の関係グラフにおいて、注目ノードとして、圃場のノードを選択した場合には、図30に示したような、圃場どうしの関係と、注目ノードが表す圃場で観測された植生を表す関係グラフが表示されるので、ユーザは、注目ノードが表す圃場で観測されるのと同様の植生が多く観測される圃場や、注目ノードが表す圃場で観測される植生を、容易に認識することができる。
 図32は、植生/レシピDBから生成されるバイパータイトグラフの例を示す図である。
 ここで、植生/レシピDBは、植生と、その植生を材料とする料理のレシピとが関連付けられているDBである。
 図32のバイパータイトグラフは、植生#1がレシピ#1ないし#3で観測されたこと(材料になっていること)、植生#2がレシピ#1ないし#3で観測されたこと、植生#3がレシピ#1及び#3で観測されたこと、植生#4及び#5のそれぞれがレシピ#3で観測されたこと、植生#6がレシピ#1ないし#3のいずれでも観測されていないこと、を表している。
 以上のようなバイパータイトグラフから、関係グラフを生成するにあたっては、例えば、レシピ#kを尺度として、植生#iと#jとの関係性(の強さ)を表す関係スコアが求められる(i≠j)。
 図33は、図32の植生/レシピDBのバイパータイトグラフから求められる関係スコアの例を示す図である。
 植生#iと他の植生#jとの関係スコアとしては、植生#i及び#jの両方に関連付けられたレシピの数、すなわち、植生#i及び#jの両方が観測されたレシピの数に対応する値を採用することができる。
 図33では、植生#iと他の植生#jとの関係スコアとして、植生#i及び#jの両方が観測されたレシピの数を、レシピの総数(ここでは3)で除算した値が採用されている。
 図32のバイパータイトグラフによれば、例えば、植生#1については、植生#2とともに観測されたレシピが、レシピ#1及び#2の2個であり、植生#3とともに観測されたレシピが、レシピ#1及び#3の2個であり、植生#4とともに観測されたレシピが、レシピ#3の1個であり、植生#5とともに観測されたレシピが、レシピ#3の1個であり、レシピ#6とともに観測されたレシピは0個である。
 したがって、植生#1については、植生#2及び#3それぞれとの関係スコアは2/3になり、植生#4及び#5それぞれとの関係スコアは1/3になる。さらに、植生#1については、植生#6との関係スコアは0になる。
 グラフ表示制御部72は、バイパータイトグラフから関係スコアを求め、その関係スコアを用いて、関係グラフを生成し、その関係グラフを表示したグラフ表示画面を生成する。
 図34は、図32のバイパータイトグラフ、及び、図33の関係スコアを用いて生成される関係グラフが表示されたグラフ表示画面の例を示す図である。
 図34の関係グラフは、植生#1のノードを、注目ノードとして、その注目ノードが表す植生#1と、他の植生#2ないし#6それぞれとの関係を表している。
 図34の関係グラフでは、図28と同様に、植生どうしの関係の他に、植生と、その植生に関連付けられたレシピとの関係も表されている。
 さらに、図34の関係グラフでは、上述した植生/圃場DBのバイパータイトグラフから求められた関係グラフと同様に、注目ノードである植生#1のノードと、他の植生#2ないし#6のノードとの間のリンクの長さは、図33に示した、植生#1と、植生#2ないし#6それぞれとの関係スコアに対応する長さになっている。
 すなわち、注目ノードである植生#1のノードと、他の植生#jのノードとの間のリンクの長さは、植生#1と#jとの関係スコアが大きいほど、つまり、植生#1と#jとの関係性が強いほど、短くなっている。
 いまの場合、植生#1と#jとの関係性が強いことは、植生#1と#jとの両方が観測されたレシピの数が多いことに相当する。
 したがって、注目ノードである植生#1のノードに近い位置にあるノードが表す植生#jは、植生#1と一緒に、料理に使われることが多いと推定することができ、図34の関係グラフを見たユーザは、植生#1と一緒に料理に使われることが多い植生を、容易に認識することができる。
 なお、例えば、トマトとバジルとは、一緒に料理に使われることが多いが、このように一緒に料理に使われることが多い植生どうしは、共生関係にあることがある。
 図34の関係グラフについても、ユーザは、操作部34を操作して、植生#1以外の植生のノードを注目ノードとして選択し、その選択した植生のノードを注目ノードとする関係グラフを表示させることができる。
 また、ユーザは、注目ノードとして、レシピのノードを選択し、その選択したレシピのノードを注目ノードとする関係グラフを表示させることができる。
 この場合、注目ノードであるレシピのノードに近い位置にあるノードが表すレシピは、注目ノードが表すレシピと一緒に使われる植生が多いことを表す。
 関係グラフは、以上のような植生/圃場DBや植生/レシピDB(のバイパータイトグラフ)から生成する他、植生とその他の任意の情報とが関連付けられたDBから生成することができる。
 また、関係グラフは、植生以外の(生物)種(species)と、その種以外の他の情報とが関連付けられたDBから生成することができる。
 さらに、関係グラフは、植生/圃場DBや植生/レシピDB等の1個のDBから生成する他、第1のDB及び第2のDB等の複数のDBから生成することができる。
 図35は、上述の植生/圃場DB及び植生/レシピDBの2個のDBから生成されるバイパータイトグラフの例を示す図である。
 図35の関係グラフは、植生#1のノードを、注目ノードとして、その注目ノードが表す植生#1と、他の植生#2ないし#6それぞれとの関係を表している。
 図35の関係グラフでは、植生どうしの関係の他に、植生と、その植生に関連付けられた圃場及びレシピそれぞれとの関係も表されている。
 図35の関係グラフにおいて、注目ノードである植生#1と、他の植生#2ないし#6それぞれとの関係スコアは、植生/圃場DBにおいて、植生#iと関連付けられている圃場#kを尺度として求めることもできるし、植生/レシピDBにおいて、植生#iと関連付けられているレシピ#kを尺度として求めることもできる。
 さらに、注目ノードである植生#1と、他の植生#2ないし#6それぞれとの関係スコアは、植生/圃場DBにおいて、植生#iと関連付けられている圃場#kと、植生/レシピDBにおいて、植生#iと関連付けられているレシピ#kとの両方を尺度として求めることもできる。
 注目ノードである植生#1と、他の植生#2ないし#6それぞれとの関係スコアを、圃場#kとレシピ#kとの両方を尺度として求める場合には、例えば、圃場#kを尺度として求められる関係スコアと、レシピ#kを尺度として求められる関係スコアとの平均値等の重み付け加算値を、注目ノードである植生#1と、他の植生#2ないし#6それぞれとの関係スコアとして求めることができる。
 なお、注目ノードが表す情報である、例えば、植生#iについては、関係グラフが表す、その植生#iと他の植生#jとの関係、すなわち、植生#iと他の植生#jとの関係スコアに基づいて、植生#iに対して、他の植生#jすべてをランキング付けすることができる。
 関係グラフにおいて、注目ノードが表す植生#iに近い他の植生#jほど、ランキングの高い植生となる。
 さらに、上述の場合には、例えば、植生/圃場DBについて、植生#i及び#jの両方が観測された圃場の数に対応する値を、植生#i及び#jの関係スコアとして採用したが、植生#i及び#jの関係スコアとしては、その他、例えば、植生#i及び#jの両方が同一の圃場で観測された回数や、植生#iが観測された圃場と植生#jが観測された圃場との近さ等の、植生/圃場DBにおいて、植生と関連付けられている圃場を尺度とする任意の値を採用することができる。
 また、関係グラフは、様々なファクタに基づき、表示を制御することができる。
 例えば、植生どうしの関係を表す関係グラフにおいては、ランキングの高い植生ほど、その植生のノードと注目ノードとの間のリンクを太く表示することや、そのリンクの色を変えて表示することができる。
 さらに、例えば、植生/圃場DBから生成される関係グラフにおいては、注目ノードが表す植生#iが観測された回数が多い圃場#kのノードほど、大きさを大きくすることや、注目ノードに近い位置に配置することができる。
 また、植生どうしの関係を表す関係グラフにおいては、観測された回数が多い植生#iほど、その植生#iのノードの大きさを大きくすることができる。
 さらに、例えば、植生/レシピDBから生成される関係グラフにおいては、注目ノードが表す植生#iが使用される量が多いレシピのノードほど、大きさを大きくすることや、注目ノードに近い位置に配置することができる。
 また、例えば、植生どうしの関係を表す関係グラフにおいては、注目ノードが表す植生#iとの関係性が強い(関係スコアが大きい)植生#jのノードが、注目ノードに近づくとともに、注目ノードが表す植生#iとの関係性が弱い(関係スコアが小さい)植生#j'のノードが、注目ノードから遠ざかるようなアニメーション表示を行うことができる。
 さらに、例えば、植生どうしの関係を表す関係グラフにおいては、植生/圃場DBや植生/レシピDBに登録されている植生のノードについては、すべての植生のノードを表示する他、注目ノードである植生#iのノードと、その植生#iとの関係スコアが0より大の植生#jのノード、すなわち、植生#iとともに観測された圃場#kが存在する植生#jのノードとだけを表示することができる。
 この場合、関係グラフを構成する植生のノードが制限されるので、植生のノードが多数表示されることによって、関係グラフが見にくくなることを防止することができる。
 図36は、グラフ表示制御部72(又は取得部51)で関係グラフを生成するのに用いるDBの例を示す図である。
 関係グラフは、サーバ13のストレージ63に登録されている協生農法(登録商標)DB(を構成する各種のDB)を用いて生成することができる。
 また、関係グラフは、インターネット24上の、例えば、種と他の情報とが関連付けられたDB等の様々なDBを用いて生成することができる。
 すなわち、関係グラフは、インターネット24上の、書籍のDBである書籍DBや、webページで提供されるDBであるウェブDBや、webページ、学術的な情報が登録されたアカデミックDB、栄養学の情報が登録された栄養学DB等の様々なDBを用いて生成することができる。
 端末12のユーザは、操作部34を操作することにより、関係グラフを生成するのに用いるDBを選択することができる。
 すなわち、操作部34の操作に応じて、例えば、図36に示した複数のDBの中から、関係グラフの生成に用いるDBを選択することができる。
 ここで、以上のように、複数のDBの中から、関係グラフの生成に用いるDBを選択することができる場合には、いま表示されている関係グラフが、どのDBの関係グラフであるのか(どのDBを用いて生成された関係グラフであるのか)が、ユーザに分かりにくくなることがあり得る。
 そこで、関係グラフの生成に用いるDBの選択(切り替え)に応じて、関係グラフの背景色や、ノードの形状、ノードの色等のうちの1以上を変更することができる。
 また、端末12において、関係グラフの生成に用いるDBの選択に応じて、異なる音を、スピーカ36から出力させることができる。
 以上により、ユーザは、関係グラフの生成に、どのDBが用いられているのかを認識することができる。
 図37は、関係グラフが表示されるグラフ表示画面の構成例を示す図である。
 グラフ表示画面は、グラフ表示領域201とリスト表示領域202とで構成することができる。
 図37では、グラフ表示画面の左端がリスト表示領域202になっており、残りが、グラフ表示領域201になっている。
 グラフ表示領域201には、関係グラフが表示される。
 さらに、グラフ表示領域201には、俯瞰表示領域211を設けることができる。
 図37では、グラフ表示領域201の右下に、俯瞰表示領域211が設けられている。
 俯瞰表示領域211には、関係グラフの生成に用いられた、情報i1と情報i2とが関連付けられたDBに登録された情報i1すべてのノードが存在する関係グラフの全体が表示される。
 DBに登録された情報i1すべてのノードが存在する関係グラフの全体は、ノードの数が膨大となることがあり、そのような関係グラフの全体を、グラフ表示領域201に表示したのでは、関係グラフが見にくくなるおそれがある。
 そこで、グラフ表示領域201には、関係グラフの全体の一部分を、大きく表示することができる。この場合、俯瞰表示領域211には、その俯瞰表示領域211に表示されている関係グラフの全体のうちの、グラフ表示領域201に表示されている一部分を表す表示枠212を表示することができる。
 表示枠212によれば、ユーザは、関係グラフの全体のどの部分が、グラフ表示領域201に表示されているかを、容易に認識することができる。
 リスト表示領域202には、ランキングリストが表示される。
 ここで、例えば、図35で説明したように、植生#iと他の植生#jとの関係を表す関係グラフ(関係スコア)によれば、植生#iと他の植生#jとの関係、すなわち、植生#iと他の植生#jとの関係スコアに基づいて、植生#iに対して、他の植生#jすべてをランキング付けすることができる。
 リスト表示領域202には、そのような植生#jをランキング付けした植生(の植生名)のリストであるランキングリストが表示される。
 なお、俯瞰表示領域211の表示や、ランキングリストの表示は、ユーザによる操作部34の操作に応じて、オン/オフすることができる。
 以上のようなグラフ表示画面は、例えば、オープンソースソフトウェアパッケージであるGephiを用いて生成することができる。
 図38は、Gephiによるグラフ表示画面の例を示す図である。
 図38において(後述する図39ないし図41においても同様)、白丸は、植生のノードを表し、黒丸は、圃場のノードを表す。
 図38のグラフ表示画面においては、植生/圃場DBを用いて生成された関係グラフが、植生"Diospyros"のノードを注目ノードとして、グラフ表示領域201に表示されている。
 また、図38のグラフ表示画面においては、注目ノードが表す植生"Diospyros"に対してランキング付けした他の植生のランキングリストが、リスト表示領域202に表示されている。
 なお、リスト表示領域202に表示されるランキングリストにおいては、植生の他に、注目ノードが表す植生"Diospyros"が観測された圃場も表示することができる。
 図38では、ランキングリストにおいて、注目ノードが表す植生"Diospyros"が観測された圃場(及び日付)"20120329ise"と"20110402-20110403oiso"が、植生"Apis mellifera Linnaeus, 1758"の直後に表示されている。
 図39は、図38の関係グラフにおいて、注目ノードが表す植生"Diospyros"が観測された圃場"20120329ise"を、新たな注目ノードの選択した場合のGephiによるグラフ表示画面の例を示す図である。
 図40は、Gephiによるグラフ表示画面の他の例を示す図である。
 Gephiの上部には、検索ボックスが設けられており、ユーザが、検索ボックスをクリック(又はタップ)すると、ノードが表す植生と圃場の一覧がプルダウンする形で表示される。ユーザは、その一覧の中から、植生又は圃場を選択することにより、その選択された植生又は圃場のノードを、注目ノードとすることができる。
 図41は、Gephiによるグラフ表示画面のさらに他の例を示す図である。
 図41では、俯瞰表示領域211に表示された関係グラフの全体のうちの、グラフ表示領域201に表示された関係グラフの部分を示すように、表示枠212が表示されている。
 なお、関係グラフについては、端末12のユーザに関するユーザプロファイルを、例えば、端末12のストレージ33等に登録しておき、そのユーザプロファイルに基づいて、関係グラフを変更することができる。
 例えば、ユーザプロファイルに基づいて、ユーザが植生等の種(species)に携わっている経験年数(例えば、ユーザが農業に携わっている経験年数等)を認識することができる場合には、その経験年数に基づいて、関係グラフ(の表示)を変更することができる。
 具体的には、例えば、経験年数が長い学者レベルのユーザについては、DBに登録された植生すべてのノードを有する関係グラフを表示し、経験年数が浅い(又は)0の初心者レベルのユーザについては、DBに登録された植生のうちの、例えば、ランキングがベスト3の植生(関係スコアが高い上位3位の植生)のノードに限定した関係グラフを表示することができる。初心者レベルのユーザには、多くの植生(のノード)を表示すると、混乱するおそれがあり、その混乱を防止するためである。
 また、関係グラフについては、ユーザプロファイルに基づいて、関係グラフを生成するのに用いるDBを選択することができる。
 具体的には、例えば、ユーザプロファイルに基づいて、ユーザが主婦であることを認識することができる場合には、関係グラフの生成に、主婦向けのDBとしての、例えば、植生/レシピDBを選択することができる。また、例えば、ユーザプロファイルに基づいて、ユーザが農業従事者であることを認識することができる場合には、関係グラフの生成に、農業従事者向けのDBとしての、例えば、植生/圃場DBを選択することができる。
 さらに、関係グラフの生成に用いるDBに登録されている植生等の種に関するコンテンツプロファイルが、例えば、インターネット24上のサイト等に存在する場合には、そのコンテンツプロファイルに基づいて、関係グラフを変更することができる。
 例えば、ユーザプロファイルに基づいて、ユーザの経験年数を認識することができるとともに、コンテンツプロファイルに基づいて、DBに登録されている植生の知名度や希少性を認識することができる場合には、経験年数が長い学者レベルのユーザについては、DBに登録されている植生のうちの、知名度が低い植生や希少性が高い植生だけを選択して、その選択した植生のノードに限定した関係グラフを表示することができる。学者レベルのユーザは、知名度が高い植生や、希少性が低い植生には、それほど興味がないと思われるからである。
 一方、経験年数が浅い初心者レベルのユーザについては、DBに登録されている植生のうちの、知名度が高い植生や希少性が低い植生だけを選択して、その選択した植生のノードに限定した関係グラフを表示することができる。初心者レベルのユーザは、知名度が低い植生や、希少性が高い植生には、それほど興味がないと思われるからである。
 また、植生等の種が登録されたDBを用いて生成される関係グラフについては、ユーザプロファイルやコンテンツプロファイルに基づいて、種どうしの関係、すなわち、関係スコアを補正することができる。
 例えば、ユーザプロファイルに基づいて、ユーザの経験年数を認識することができるとともに、コンテンツプロファイルに基づいて、DBに登録されている植生の知名度や希少性を認識することができる場合には、経験年数が長い学者レベルのユーザについては、DBに登録されている植生のうちの、知名度が低い植生や希少性が高い植生の関係スコアを高くするように補正することができる。
 この場合、ランキングリストにおいて、知名度が低い植生や希少性が高い植生は、より上位にランキングされ、関係グラフにおいて、注目ノードに近い位置に表示される。
 一方、経験年数が浅い初心者レベルのユーザについては、DBに登録されている植生のうちの、知名度が高い植生や希少性が低い植生の関係スコアを高くするように補正することができる。
 この場合、ランキングリストにおいて、知名度が高い植生や希少性が低い植生は、より上位にランキングされ、関係グラフにおいて、注目ノードに近い位置に表示される。
 図42は、グラフ表示画面を表示する処理の例を説明するフローチャートである。
 ステップS201において、端末12のユーザは、操作部34を操作することにより、複数のDBの中から、関係グラフを生成するのに用いるDBである注目DBを選択する。
 ステップS202において、端末12の通信部40は、注目DBの情報(注目DBを表す情報)を、サーバ13に送信する。
 サーバ13の通信部67は、端末12からの注目DBの情報を受信し、ステップS211において、グラフ表示制御部72は、注目DBにアクセスして、その注目DBからバイパータイトグラフを生成する。
 ステップS212において、グラフ表示制御部72は、注目DBのバイパータイトグラフから、関係グラフを表示したグラフ表示画面を生成する。
 ステップS213において、通信部67は、グラフ表示制御部72が生成したグラフ表示画面を、端末12に送信する。
 ステップS203において、端末12の通信部40は、サーバ13からのグラフ表示画面を受信し、取得部51は、そのグラフ表示画面を取得する。
 ステップS204において、端末12の表示制御部52は、取得部51が取得したグラフ表示画面を、表示部35に表示する。
 なお、上述の場合には、サーバ13において、注目DBのバイパータイトグラフから、グラフ表示画面を生成し、端末12に送信したが、サーバ13では、注目DBのバイパータイトグラフを、端末12に送信し、端末12では、取得部51において、サーバ13からのバイパータイトグラフから、グラフ表示画面を生成することにより取得することができる。
 以上のように、種(species)と種以外の他の情報とが関連付けられたDBから得られる、他の情報を尺度とする種どうしの関係を表す、ノードとリンクで構成される関係グラフを表示する場合には、ユーザは、種どうしの関係を、知識として得て、その知識を、協生農法(登録商標)等の生態系活用に利用することができる。
 <ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援の概要>
 図43は、ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援の概要を説明する図である。
 図1の生態系活用システムでは、端末12において、ARオブジェクトのAR表示/VR表示を行うことができ、このARオブジェクトのAR表示/VR表示を利用して、協生農法(登録商標)の支援を行うことができる。
 ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援では、サーバ13は、センサ装置11や端末12から、生態系の様々な情報のサブセットを収集し、そのサブセットを、様々な尺度で整理するとともに、マルチパータイトグラフ等で関連付け、AR表示やVR表示で、端末12のユーザに提供する。
 ここで、ARオブジェクトは、現実の実空間、実空間を撮影した撮影実空間(の画像)、又は、実空間をモデル化したVR空間(の画像)を、背景空間(の画像)として、その背景空間に重畳して表示される。
 本明細書において、AR表示とは、ユーザがいる、いま現在の場所の実空間、撮影実空間、又は、VR空間を、背景空間として、その背景空間内に、ARオブジェクトを重畳して表示することを意味する。また、VR表示とは、任意の場所(及び必要な日時)を指定して、その指定した場所(及び日時)の撮影実空間、又は、VR空間を、背景空間として、その背景空間内に、ARオブジェクトを重畳して表示することを意味する。
 したがって、AR表示は、例えば、端末12として、シースルー型のHMDが用いられる場合において、ユーザがシースルー型のHMDで直接見る実空間を背景空間として行うことができる。
 また、AR表示は、例えば、端末12として、没入型のHMDや、スマートフォンが用いられる場合において、その場で実空間を撮影することにより得られる撮影実空間(の画像)や、その場の実空間をモデル化したVR空間(の画像)を、背景空間(の画像)として行うことができる。
 一方、VR表示は、例えば、端末12において任意の位置(あるいは、圃場や、地域等)を指定位置として指定し、その指定位置の撮影実空間やVR空間を、背景空間(の画像)として、その背景空間を、サーバ13から取得して行うことができる。
 なお、VR表示では、背景空間とする撮影実空間やVR空間の場所の他、日時を、必要に応じて指定することができる。日時として、過去の日時を指定することにより、過去の圃場(の画像)に、ARオブジェクトを重畳して表示することができる。
 ここで、以下では、ARオブジェクトをAR表示で表示する表示モードを、ARモードともいい、ARオブジェクトをVR表示で表示する表示モードを、VRモードともいう。
 表示モードは、例えば、ユーザの操作や端末12の仕様等によって設定される。例えば、端末12がシースルー型のHMDである場合には、表示モードは、ARモードに設定される。また、例えば、端末12が没入型のHMDである場合には、表示モードは、ユーザの操作等に応じて、VRモード又はARモードに設定することができる。
 VRモードでは、サーバ13から端末12に対して、ARオブジェクトと背景空間とを、分けた状態で提供し、端末12において、ARオブジェクトを、背景空間内に重畳して表示することができる。また、VRモードでは、サーバ13において、ARオブジェクトを背景空間内にあらかじめ重畳して、端末12に提供し、端末12では、サーバ13から提供される、ARオブジェクトがあらかじめ重畳された背景空間を表示することができる。
 ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援において、端末12を使用するユーザは、大きく、教師ユーザと生徒ユーザとの2種類のユーザに分けることができる。
 生徒ユーザは、例えば、圃場で作業を行い、ARオブジェクトのAR表示/VR表示を見ることで、協生農法(登録商標)のアドバイスを受けるユーザである。
 教師ユーザは、例えば、圃場から離れた遠隔地で、ARオブジェクトのAR表示/VR表示を見ることで、圃場の状況を認識し、ARオブジェクトの編集を行うことで、生徒ユーザに、協生農法(登録商標)のアドバイスを提供するユーザである。
 端末12において、ARオブジェクトが表示されることで、教師ユーザは、生徒データに対して、協生農法(登録商標)の支援を、容易に行うことができ、生徒ユーザは、教師ユーザから、協生農法(登録商標)の支援を、容易に受けることができる。
 ここで、生徒ユーザは、教師ユーザになることもあるし、教師ユーザは、生徒ユーザになることもある。
 以下、端末12での各種の表示例について説明する。
 なお、端末12(図3)では、取得部51が、サーバ13から、生態系オブジェクトや、タスクオブジェクト、背景空間、その他の表示に必要な情報を取得し、表示制御部52が、取得部51によって取得された情報を用いた表示制御を行うことで、以下説明する各種の表示が行われる。
 また、端末12では、サーバ13から、所定のARオブジェクトや背景空間を、あらかじめダウンロードしておくことができる。この場合、端末12では、サーバ13からあらかじめダウンロードしたARオブジェクトや背景空間の範囲内において、サーバ13と通信せずに、スタンドアロンで、AR表示/VR表示を行うことができる。
 <AR表示/VR表示の表示例>
 図44は、端末12でのAR表示の表示例を示す図である。
 図44では、ある圃場の実空間又は撮影実空間を背景空間として、その背景空間内に、ARオブジェクトが重畳されて表示されている。
 ここで、ARオブジェクトのAR表示/VR表示を利用した協生農法(登録商標)の支援において用いるARオブジェクトは、そのARオブジェクトが表す対象の違いによって、生態系オブジェクトと、タスクオブジェクトとに分けられる。
 生態系オブジェクトは、協生農法(登録商標)が行われる圃場、すなわち、複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表し、生態系構成物に付与される。
 圃場の生態系を構成する生態系構成物には、例えば、植生や、圃場の気候、昆虫その他の生物、圃場に配置されたセンサ装置11でセンシングされる温度等の圃場の環境の各種のセンサデータ等の、圃場の生態系を構成する様々な要素が該当する。例えば、圃場にある石や、夏至の日陰の到達点、水はけの良い場所/悪い場所等も、生態系構成物に該当する。
 タスクオブジェクトは、生態系構成物について行うタスクを表す。生態系構成物について行うタスクとしては、例えば、生態系構成物としての植生の収穫や、植生の植え付け、伐採(除草)等がある。
 ARオブジェクトは、以上のように、そのARオブジェクトが表す対象の違いによって、生態系オブジェクトと、タスクオブジェクトとに分けられる他、データのカテゴリによって、例えば、写真(のデータ)、アイコン(のデータ)、及び、センサデータ(を表すシンボル)に分けることができる。
 生態系オブジェクトとしては、例えば、写真、アイコン、又は、センサデータが採用され、タスクオブジェクトとしては、例えば、アイコンが採用される。
 図44では、端末12において、例えば、実際の圃場の実空間又は撮影実空間を背景空間として、その背景空間内に(存在するように)、生態系オブジェクトとしての写真が表示されている。
 図44において、圃場には、マーカとしての画像が印刷された印刷物が設置されている。端末12では、例えば、カメラ37での圃場の撮影により得られる画像からマーカが検出され、そのマーカを基準とする相対的な位置に、写真の生態系オブジェクトが表示される。
 写真の生態系オブジェクトが表示される、マーカを基準とする相対的な位置は、例えば、その写真に写っている植生等がある(観察された)位置(の近傍)になっている。
 したがって、ユーザは、写真の生態系オブジェクトを見ることにより、その写真に映る植生が、その生態系オブジェクトの位置(付近)にあることを、容易に認識することができる。
 また、ユーザは、複数の生態系オブジェクトの位置関係によって、その複数の生態系オブジェクトとしての写真それぞれに映る複数の植生の配置を、容易に認識することができる。
 なお、図44では、生態系オブジェクトに、マーカが対応付けられており、生態系オブジェクトは、その生態系オブジェクトに対応付けられているマーカを基準とする相対的な位置に表示される。
 1つのマーカは、1つの生態系オブジェクトに対応付けることもできるし、複数の生態系オブジェクトに対応付けることもできる。また、1つの生態系オブジェクトには、複数のマーカを対応付けることができる。
 生態系オブジェクトに、複数のマーカを対応付ける場合には、その複数のマーカそれぞれを基準として、生態系オブジェクトを表示する位置を決定することができる。この場合、生態系オブジェクトを、その生態系オブジェクトが付与された生態系構成物、すなわち、その生態系オブジェクトが表す生態系構成物の位置に、精度良く表示することができる。
 ここで、圃場に設置されたマーカについては、時の経過により、一部が破損することや傾くこと、成長した植生によって、一部が隠されること等がある。また、マーカは、必ずしも、全体が明瞭に映るように、正面から撮影されるとは限らず、斜め方向から撮影されることがある。
 そのため、カメラ37での圃場の撮影により得られる画像にマーカが映っていても、その画像から、マーカが検出されるとは限らず、また、マーカが検出されても、マーカの検出精度が悪い場合がある。
 この場合、表示されるべき生態系オブジェクトが表示されないことや、生態系オブジェクトが表示されても、本来表示すべき位置からずれた位置に表示されることがある。
 生態系オブジェクトに、複数のマーカを対応付けることにより、上述のように、表示されるべき生態系オブジェクトが表示されないことや、生態系オブジェクトが、本来表示すべき位置からずれた位置に表示されることが生じることを抑制することができる。
 図45は、端末12でのAR表示の表示例を示す図である。
 図45では、端末12において、例えば、実際のオフィスの一室の実空間又は撮影実空間を背景空間として、その背景空間内に、生態系オブジェクトとしての写真が表示されている。
 図45において、オフィスの一室には、マーカとしての印刷物が設置されている。端末12では、図44の圃場の場合と同様に、カメラ37でのオフィスの撮影により得られる画像からマーカが検出され、そのマーカを基準とする相対的な位置に、写真の生態系オブジェクトが表示される。
 すなわち、図44で説明したように、生態系オブジェクトには、マーカが対応付けられており、生態系オブジェクトは、その生態系オブジェクトに対応付けられているマーカを基準とする相対的な位置に表示される。
 いま、オフィスにおいて、図44の圃場に設置されたマーカと同一内容のマーカを設置することにより、ユーザは、圃場ではなく、圃場から離れた遠隔地のオフィスで、圃場で表示されるのと同様の生態系オブジェクトを見ることができる。
 したがって、ユーザは、圃場から離れた遠隔地のオフィスで、例えば、圃場に植え付けされている植生や、圃場での植生の配置を、容易に認識することができる。
 これにより、例えば、教師ユーザは、オフィスで、圃場に植え付けされている植生や、圃場での複数の植生の配置を認識した上で、圃場の生徒ユーザに、例えば、植生設計(戦略)のアドバイス等を行うことができる。
 さらに、オフィスでは、複数のユーザが、それぞれの端末12を用いて、圃場の生態系オブジェクト(圃場の生態系構成物を表す生態系オブジェクト)を、同時に見ることができる。
 したがって、複数のユーザは、オフィスに居ながら、例えば、実際の圃場の植生や、植生の配置を認識した上で、ある植生があることの適否や、植生の配置等について議論を行うことができる。
 また、図45では、オフィスに、複数のマーカが設置されている。
 オフィスに設置された複数のマーカは、それぞれ、例えば、異なる圃場に設置されたマーカと同一内容のマーカになっている。すなわち、図45において、例えば、マーカMは、ある圃場Fに設置されたマーカと同一内容のマーカになっており、マーカM'は、他の圃場F'に設置されたマーカと同一内容のマーカになっている。
 その結果、図45では、オフィスにおいて、圃場Fの生態系オブジェクトと、他の圃場F'の生態系オブジェクトとが表示されている。
 したがって、ユーザは、圃場F及びF'から離れた遠隔地のオフィスで、例えば、圃場F及びF'の植生や、植生の配置を、容易に認識し、圃場FとF'との間で、植生や植生の配置を比較することができる。
 なお、例えば、圃場Fの生体系オブジェクトには、マーカMを対応付けるとともに、そのマーカMとは異なるマーカであるオフィスマーカを、さらに対応付けることができる。
 この場合、オフィスでは、マーカMの他、オフィスマーカを設置することによっても、圃場Fの生態系オブジェクトを表示することができる。
 さらに、圃場F'の生体系オブジェクトには、マーカM'を対応付けるとともに、そのマーカMとは異なる、上述のオフィスマーカを、さらに対応付けることができる。
 オフィスマーカを、圃場Fの生態系オブジェクト、及び、圃場F'の生態系オブジェクトに対応付けた場合には、オフィスでは、オフィスマーカを設置することにより、圃場Fの生態系オブジェクト、及び、圃場F'の生態系オブジェクトを表示することができる。
 なお、生態系オブジェクトを、マーカを利用して表示する場合には、マーカのサイズに応じて、生態系オブジェクトのサイズを変更して表示することができる。この場合、生態系オブジェクトを、例えば、マーカのサイズに比例するサイズで表示することができる。
 また、図45では、マーカの正面側に、生態系オブジェクトが配置(表示)されているが、生態系オブジェクトの配置位置は、マーカの正面側に限定されるものではない。すなわち、生態系オブジェクトは、例えば、マーカの背面(裏面)側等の任意の位置に配置することができる。これにより、例えば、ある圃場に展望台がある場合には、その展望台内から撮影可能な位置に、マーカを設置し、展望台から、そのマーカを撮影することにより、展望台がある圃場に付与された生態系オブジェクトすべてを表示することができる。
 図46は、端末12でのVR表示の表示例を示す図である。
 図46では、ある圃場のVR空間又は撮影実空間を背景空間として、その背景空間内に、植生を表す生態系オブジェクトが重畳されて表示されている。
 VR表示でも、AR表示の場合と同様に、背景空間において、マーカを設置し、そのマーカを基準とする相対的な位置に、そのマーカに対応付けられた生態系オブジェクトを表示することができる。
 VR表示によれば、ユーザは、端末12を用い、任意の場所、かつ、任意のタイミングで、任意の場所、かつ、任意のタイミングの圃場等をモデル化したVR空間を背景空間として、その圃場の植生等の生態系構成物を表す生態系オブジェクトを見ることができる。
 これにより、ユーザは、例えば、任意の場所、かつ、任意のタイミングの圃場の植生や、植生の配置を、容易に認識し、植生設計や、圃場の生徒ユーザへのアドバイスの検討を行うことができる。
 なお、背景空間として、VR空間を採用する場合には、生態系オブジェクト(及びタスクオブジェクト)は、背景空間内に、マーカに応じて表示する他、背景空間の構成要素として、背景空間としてのVR空間に、あらかじめ含めておくこと(VR空間に、生態系オブジェクト等を、あらかじめ重畳しておくこと)ができる。
 図47は、端末12でのAR表示の表示例を示す図である。
 図47では、ある圃場の実空間又は撮影実空間を背景空間として、その背景空間内に、ARオブジェクトが重畳されて表示されている。
 すなわち、図47では、図44と同様に、端末12において、例えば、実際の圃場の実空間又は撮影実空間を背景空間として、その背景空間内に(存在するように)、生態系オブジェクトとしての写真が、マーカに応じて表示されている。
 さらに、図47では、端末12において、タスクオブジェクトが、圃場の背景空間内に(存在するように)表示されている。
 図47では、タスクオブジェクトとして、果実が表示されたアイコンと、矢印形状のアイコンとが表示されている。
 タスクオブジェクトとしての果実が表示されたアイコンは、そのタスクオブジェクトに近接する生態系オブジェクトが表す植生を収穫するタスクを表す。
 したがって、圃場のユーザは、現実の圃場において、タスクオブジェクトとしての果実が表示されたアイコンを見ることで、そのタスクオブジェクトに近接する生態系オブジェクトが表す植生を収穫すべきことを認識することができる。
 タスクオブジェクトとしての矢印形状のアイコンは、タスクオブジェクトとしての果実が表示されたアイコンと同様に、植生を収穫するタスクを表すとともに、その収穫の順番を表す。
 圃場のユーザは、現実の圃場において、タスクオブジェクトとしての矢印形状のアイコンを見ることで、植生の収穫を行う順番を認識することができる。
 図48は、端末12でのVR表示の表示例を示す図である。
 図48では、ある圃場のVR空間を背景空間として、その背景空間内に、センサデータを表す生態系オブジェクトが、マーカに応じて表示されている。
 圃場では、センサ装置11によって、例えば、各場所の土壌の硝酸濃度や、導電率、土壌硬度等の、圃場の環境情報がセンシングされ、図48では、そのセンシングにより得られるセンサデータを表す生態系オブジェクトが、マーカに応じて、センサデータが得られた実際の位置に対応する背景空間内の位置に表示されている。
 図48では、センサデータの生態系オブジェクトとして、例えば、半球状のシンボルが採用されている。
 半球状のシンボルは、例えば、硝酸濃度や、導電率、土壌硬度等のセンサデータの値に応じた大きさや色の濃さで表示することができる。また、半球状のシンボルは、例えば、硝酸濃度や、導電率、土壌硬度等のセンサデータの種類に応じた色で表示することができる。
 教師ユーザは、例えば、圃場から離れた遠隔地において、その圃場を背景空間とするセンサデータの生態系オブジェクトを見ることで、圃場の環境を認識し、その環境に適した植生設計や、環境の変更等を、圃場の生徒ユーザにアドバイスすることができる。
 なお、以上においては、背景空間において、マーカに対応付けられた生態系オブジェクトを、そのマーカを基準とする相対的な位置に表示することとしたが、生態系オブジェクトには、GPS座標等の絶対的な位置を表す位置情報を対応付けておき、その位置情報が表す絶対的な位置に、生態系オブジェクトを表示することができる。
 図49は、端末12での生態系オブジェクトのタイムラプスモードの表示の表示例を示す図である。
 タイムラプスモードでは、端末12において、ある圃場等の1の場所(範囲)で撮影された写真の生態系オブジェクトが、1軸に沿って、すなわち、例えば、時間軸に沿って表示される。
 図49では、例えば、下から上に向かう方向を、時間の経過として、ログスケールの時間軸が設けられている。
 さらに、図49では、所定の位置の圃場を、注目圃場として、その注目圃場のVR空間(の画像)が、時間軸をほぼ2等分する位置に表示されている。
 そして、時間軸に沿って、注目圃場で撮影された写真の生態系オブジェクトが、渦巻き状に配置されて表示されている。
 ここで、注目圃場としては、例えば、端末12(のユーザ)の現在地、又は、ユーザが端末12を操作することで指定した位置の圃場を採用することができる。また、注目圃場としては、例えば、端末12のユーザが端末12を操作することで指定した生態系オブジェクトとしての写真が撮影された圃場を採用することができる。
 いま、注目圃場のVR空間が表示されている時間軸の位置の日付を、注目日付ということとすると、タイムラプスモードの表示では、注目圃場のVR空間が表示されている位置に、注目日付に注目圃場で撮影された写真の生態系オブジェクトが表示される。
 そして、注目圃場のVR空間が表示されている位置より下の位置には、注目日付より過去に注目圃場で撮影された写真の生態系オブジェクトが表示される。また、注目圃場のVR空間が表示されている位置より上の位置には、注目日付より未来に注目圃場で撮影された写真の生態系オブジェクトが表示される。
 注目日付は、例えば、図49のタイムラプスモードの表示の表示画面を垂直方向にドラッグ(スワイプ)操作することで変更することができる。
 また、ユーザは、端末12を操作して、タイムラプスモードで表示された写真の生態系オブジェクトのうちのいずれかの生態系オブジェクトを、選択オブジェクトとして選択することができる。
 ここで、サーバ12において、生態系オブジェクトには、その生態系オブジェクトが表す生態系構成物に関連する関連情報をリンクさせておくことができる。関連情報としては、協生農法(登録商標)CMS71がアクセス可能な協生農法(登録商標)DB等のDB(以下、CMSデータベースともいう)に記憶された情報や、関係グラフのノードとなる情報を採用することができる。
 端末12において、選択オブジェクトが選択された場合には、その選択オブジェクトにリンクされている関連情報を表示することができる。
 また、端末12では、選択オブジェクトが表す生態系構成物が存在する他の圃場(農園)に関する情報を表示することができる。
 すなわち、端末12では、例えば、選択オブジェクトが表す生態系構成物が、植生である場合に、その植生と同一の植生が存在する、注目圃場に近い他の圃場の情報を表示する同一植生圃場情報表示を行うことができる。
 図50は、端末12で行われる同一植生圃場情報表示の表示例を示す図である。
 図50では、注目圃場のVR空間を背景空間として、その背景空間内に、選択オブジェクトとしての写真の生態系オブジェクトが重畳されて表示されている。
 すなわち、図50では、図48等と同様に、端末12において、例えば、実際の圃場をモデル化したVR空間を背景空間として、その背景空間内に(存在するように)、生態系オブジェクトとしての写真が、マーカに応じて表示されている。
 さらに、図50では、端末12において、注目圃場の選択オブジェクトが表す植生と同一の植生が存在する他の圃場の情報である同一植生圃場情報が、背景空間に重畳されて表示されている。
 図50の同一植生圃場情報は、注目圃場の選択オブジェクトが表す植生と同一の植生が存在する、注目圃場に近い他の圃場として、伊勢及び大磯の圃場(農園)があることを表す文字列"Ise"と"Oiso"を含んでいる。さらに、図50の同一植生圃場情報は、伊勢の圃場が、図50の同一植生圃場情報表示の背景空間の左奥方向に位置することを表す矢印と、大磯の圃場が、図50の同一植生圃場情報表示の背景空間の右手前方向に位置することを表す矢印とを含んでいる。
 ユーザは、図50の同一植生圃場情報を見ることにより、選択オブジェクトが表す植生と同一の植生が存在する他の圃場を、容易に認識することができる。
 ユーザは、端末12を操作することにより、図50の同一植生圃場情報表示で表示されている他の圃場を、選択圃場として選択することができる。
 端末12では、ユーザが他の圃場を、選択圃場として選択すると、表示部35の表示が、図50の注目圃場の同一植生圃場情報表示から、所定の遷移表示を経由して、選択圃場の表示に遷移する。
 これにより、例えば、ある圃場Aのユーザは、圃場Aに存在する植生と同一の植生が存在する他の圃場Bの状態を、容易に確認することができる。
 また、例えば、教師ユーザは、ある圃場Aと、その圃場Aに存在する植生と同一の植生が存在する他の圃場Bとの状態を比較し、植生設計等に役立てることができる。
 図51は、端末12で行われる遷移表示の表示例を示す図である。
 遷移表示では、図50の注目圃場の表示から、徐々に引いていく画面になり、その後、注目圃場がある国や地球全体を俯瞰する俯瞰画面となる。そして、遷移表示では、俯瞰画面から、徐々に、選択圃場に寄っていく画面になり、最終的には、選択圃場の表示、すなわち、選択圃場のVR空間を背景空間とする表示になる。
 図51は、以上のような遷移表示の1シーンである俯瞰画面の例を示している。
 図51の俯瞰画面では、日本全体(とユーラシア大陸の一部)が表示されている。さらに、俯瞰画面では、その俯瞰画面に映る各地域の位置に、その地域の気温や降水量等の環境情報が、棒グラフや色によって表示されている。
 したがって、ユーザは、遷移表示を見ることにより、例えば、注目圃場及び選択圃場の環境や、注目圃場から選択圃場に至るまでの間の地域の環境の概略を、視覚的に把握することができる。
 なお、遷移表示には、例えば、グーグル社が提供するグーグルアース(登録商標)を利用することができる。
 図52は、図51の遷移表示を経由して最終的に到達する選択圃場の表示の表示例を示す図である。
 すなわち、端末12でのVR表示の表示例を示す図である。
 図52では、選択圃場のVR空間を背景空間として、その背景空間内に、生態系オブジェクトE1,E2,E3,E4,E5が、マーカに応じて表示されている。
 生態系オブジェクトE1は、例えば、生態系構成物としての植生を撮影した写真の生態系オブジェクトであり、その植生の位置に表示されている。
 生態系オブジェクトE2及びE3は、例えば、生態系構成物としての土壌の質(例えば、植生が育ち易いや、育ちにくい等)を表すアイコンの生態系オブジェクトであり、該当する土壌の位置に表示されている。
 生態系オブジェクトE4は、例えば、生態系構成物としての蜂の巣を表すアイコンの生態系オブジェクトであり、蜂の巣がある位置に表示されている。
 生態系オブジェクトE5は、例えば、生態系構成物としての、圃場の危険なエリアや警戒すべきエリアを表すアイコンの生態系オブジェクトであり、危険なエリア(危険エリア)や警戒すべきエリア(警戒エリア)の位置(範囲)に表示されている。
 図52では、生態系オブジェクトE4が表す蜂の巣を中心とする円状のエリアが、生態系オブジェクトE5が表す危険エリア、及び、警戒エリアになっている。
 なお、危険エリアと警戒エリアとでは、危険エリアの方が、警戒エリアよりも、危険度が高い。
 図52では、生態系オブジェクトE4が表す蜂の巣を中心とする円状のエリアのうちの、外周部分のドーナツ形状のエリアが、警戒エリアになっており、中心部分の円状のエリアが、危険エリアになっている。
 なお、図52では、VR表示を行うこととしたが、図52の生態系オブジェクトE1ないしE5は、選択圃場において、AR表示を行うことができる。
 この場合、選択圃場で実際に作業しているユーザは、例えば、土壌の質を表す生態系オブジェクトE2及びE3を見ることで、植生を植え付ける場所を検討することができる。
 さらに、ユーザは、例えば、蜂の巣を表す生態系オブジェクトE4や、危険エリア及び警戒エリアを表す生態系オブジェクトE5を見ることで、蜂を避けて、安全に作業を行うことができる。
 なお、端末12のユーザが、選択圃場で実際に作業をしている場合において、ユーザが、蜂の巣を表す生態系オブジェクトE4や、危険エリア及び警戒エリアを表す生態系オブジェクトE5に気づかずに、危険エリア又は警戒エリアに侵入したときには、端末12は、音やバイブレーションで、危険エリア又は警戒エリアに侵入したことを、ユーザに報知することができる。
 図53は、端末12での関連情報の表示例を示す図である。
 図49で説明したように、生態系オブジェクトは、協生農法(登録商標)DB等のCMSデータベースの情報のうちの、その生態系オブジェクトが表す生態系構成物に関連する関連情報にリンクさせておくことができる。
 そして、図49のタイムラプスモードの表示において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択した場合には、端末12では、その選択オブジェクトにリンクされている関連情報を表示することができる。
 図53は、以上のようにして端末12で表示される関連情報の表示例を示している。
 図53では、関連情報の一覧が、webページの形で表示されている。
 図54は、端末12でのセンサデータの解析結果の表示例を示す図である。
 端末12は、例えば、ユーザの操作に応じて、センサデータの各種の解析を、サーバ13に要求することができる。
 サーバ13(図4)では、解析部76が、端末12からの要求等に応じて、センサデータの解析を行い、その解析結果を、端末12に提供(送信)する。
 端末12では、サーバ13から提供される、センサデータの解析結果が表示される。
 サーバ13において、解析部76では、例えば、気温等の環境の情報に応じて、1年を、例えば、3シーズンや、4シーズン、5シーズン等に分ける解析等を行うことができ、図54は、そのような解析の解析結果の表示例を示している。
 <生態系オブジェクトのコピー>
 図55は、生態系オブジェクトのコピーを説明する図である。
 サーバ13(図4)では、編集部75において、ユーザによる端末12の操作に応じて、ストレージ63に登録されたARオブジェクトの編集を行うことができる。
 ARオブジェクトの編集としては、例えば、生態系オブジェクトのコピーがある。生態系オブジェクトのコピーでは、例えば、ある圃場Aの生態系オブジェクトが、他の圃場Bにコピーされる。
 生態系オブジェクトのコピーを行う場合、端末12では、複数としての、例えば、2つの圃場A及びBのVR空間のそれぞれを背景空間として、VR表示が行われる。
 図55において、圃場Aでは、生態系構成物としての白菜、ヨモギ、ニラ、及び、蜂が観察され、それぞれの生態系構成物が観察された圃場Aの背景空間の位置に、それぞれの生態系構成物を表す生態系オブジェクトが配置されている。
 一方、圃場Bには、まだ、生態系オブジェクトが付与されておらず、そのため、圃場Bの背景空間には、生態系オブジェクトが配置されていない。
 サーバ13において、生態系オブジェクトのコピーは、例えば、以上のように、端末12で、2つの圃場A及びB等の2以上の圃場がVR表示された状態で、端末12のユーザの操作に従って行われる。
 すなわち、端末12のユーザは、コピーの対象となる生態系オブジェクトを指定するとともに、その生態系オブジェクトのコピー先の位置を指定するコピー操作を行う。
 例えば、圃場Aの生態系オブジェクトのうちの、ヨモギを表す生態系オブジェクトを、圃場Bにコピーする場合には、端末12のユーザは、圃場Aのヨモギを表す生態系オブジェクトを、圃場Bの背景空間にドラッグすることで、コピーの対象となる生態系オブジェクトを指定するとともに、その生態系オブジェクトのコピー先の位置を指定することができる。
 すなわち、この場合、端末12では、ドラッグがされた圃場Aのヨモギを表す生態系オブジェクトが、コピーの対象となる生態系オブジェクトとして認識され、ドラッグが終了された圃場Bの背景空間内の位置が、生態系オブジェクトのコピー先の位置として認識される。
 例えば、圃場Bのユーザが、圃場Bにおいて、ヨモギを観察した場合、圃場Aの生態系オブジェクトのうちの、ヨモギを表す生態系オブジェクトを、圃場Bのヨモギを観察した位置にコピーすることができる。この場合、圃場Bのユーザは、圃場Bのヨモギに、そのヨモギを表す生態系オブジェクトを、容易に付与することができる。
 また、例えば、教師ユーザが、例えば、圃場Bで作業を行う生徒ユーザに、植生設計のアドバイスとして、ヨモギの植え付けを指示する場合、圃場Aの生態系オブジェクトのうちの、ヨモギを表す生態系オブジェクトを、ヨモギを植え付けるべき圃場Bの位置にコピーすることができる。この場合、教師ユーザは、生徒ユーザに、ヨモギの植え付けを、容易にアドバイスすることができる。
 ここで、例えば、上述のように、教師ユーザが生徒データにアドバイスを行うために、生態系オブジェクトのコピーを行う場合、サーバ13では、そのコピーの対象の生態系オブジェクトが表す生態系構成物について行うべきタスクを表すタスクオブジェクトを追加(登録)することができる。
 すなわち、例えば、圃場Bに、ヨモギを表す生態系オブジェクトが付与されていない場合において、圃場Aのヨモギを表す生態系オブジェクトが、圃場Bにコピーされたときには、サーバ13において、編集部75は、圃場Bにコピーがされた生態系オブジェクト(以下、コピーオブジェクトともいう)が表すヨモギについて行うべきタスクを特定する。
 そして、編集部75は、ヨモギについて行うべきタスクを表すタスクオブジェクトを生成し(生成部73にタスクオブジェクトを生成させ)、ストレージ63に登録する。
 さらに、サーバ13では、AR/VR表示制御部74が、ストレージ63に登録されたタスクオブジェクトを、端末12に表示させる。
 これにより、端末12では、圃場Bのヨモギを表すコピーオブジェクトとしての生態系オブジェクトの近くに、そのヨモギについて行うべきタスクを表すタスクオブジェクトが表示される。
 図55では、ヨモギについて行うべきタスクとして、ヨモギの植え付けを表すタスクオブジェクトが表示されている。
 以上のように、圃場Bに付与された、ヨモギを表すコピーオブジェクトとしての生態系オブジェクト、及び、植え付けを表すタスクオブジェクトは、圃場Bのユーザが、圃場Bで実際に作業をするときに、圃場Bのユーザの端末12でAR表示することができる。
 この場合、圃場Bのユーザは、ヨモギを表すコピーオブジェクトとしての生態系オブジェクト、及び、植え付けを表すタスクオブジェクトを見て、ヨモギを表すコピーオブジェクトが表示された位置に、ヨモギの植え付けを行うべきことを、容易に認識することができる。
 なお、図55では、圃場Aの生態系オブジェクトを、他の圃場Bにコピーする場合を説明したが、生態系オブジェクトのコピーとしては、その他、例えば、圃場Aのある位置の生態系オブジェクトを、圃場Aの他の位置にコピーすること等が可能である。
 <表示スケールの変更>
 図56は、端末12での背景空間の表示スケールの変更の例を示す図である。
 端末12において、撮影実空間又はVR空間を背景空間として、AR表示、又は、VR表示が行われる場合には、背景空間(の画像)については、表示スケールを、ユーザの操作等に応じて変更することができる。
 図56は、表示スケールとしての縮尺を小さくした背景空間Baと、縮尺を大きくした背景空間Bbとの例を示している。
 図56において、背景空間Baは、ある圃場を俯瞰するような画像になっており、背景空間Bbは、背景空間Baの一部を拡大した画像になっている。
 図57は、端末12での背景空間の表示スケールの変更に伴う、ARオブジェクトの表示の変更の例を示す図である。
 図57では、ARオブジェクト(生態系オブジェクト、タスクオブジェクト)が、図56と同一の背景空間BaやBbに重畳されて表示されている。
 ここで、ある圃場を俯瞰したような画像である背景空間Baに重畳して、その圃場に付与されたARオブジェクトすべてを表示した場合には、ARオブジェクトの数が多すぎて、表示が見にくくなることがある。
 そこで、表示スケールとしての縮尺が小さい場合、すなわち、例えば、ある圃場を俯瞰したような画像である背景空間Baが表示される場合には、その背景空間Baに映っている圃場に付与されたARオブジェクトを間引いて表示することができる。
 また、表示スケールとしての縮尺が大きい場合、すなわち、例えば、背景空間Baの一部を拡大した画像である背景空間Bbが表示される場合には、その背景空間Bbに映っている圃場に付与されたARオブジェクトを間引かずに表示することができる。
 以上のように、表示スケールとしての縮尺が小さい場合に、ARオブジェクトを間引いて表示することで、ARオブジェクトの数が多すぎて、表示が見にくくなることを防止することができる。
 なお、ARオブジェクトを、どの程度間引くかは、例えば、表示スケールや、背景空間に映る圃場に付与されたARオブジェクトの数に応じて設定することができる。
 また、ARオブジェクトの間引きについては、1画面に表示するARオブジェクトの最大数を設定しておき、その最大数以下の数になるように、ARオブジェクトの間引きを行うことができる。
 <複数の圃場それぞれを背景空間とするVR表示>
 図58は、複数の圃場それぞれを背景空間とするVR表示の例を示す図である。
 図55での生態系オブジェクトのコピーで説明したように、端末12では、2つの圃場のVR空間のそれぞれを背景空間として、VR表示を行うことができる。
 さらに、端末12では、2つに限らず、3つ以上の圃場のVR空間のそれぞれを背景空間として、VR表示を同時に行うことができる。
 端末12において、複数の圃場のVR空間のそれぞれを背景空間として、VR表示を行う場合には、その複数の圃場それぞれのVR表示は、並べて表示することができる。
 図58では、2つの圃場それぞれが映る背景空間Bb及びBcが、並べてVR表示されている。
 端末12では、以上のように、複数の圃場それぞれのVR表示を並べて表示する他、例えば、複数の圃場それぞれのVR表示を、所定の透過度で重ねて表示することができる。
 端末12において、複数の圃場のVR空間のそれぞれを背景空間として、VR表示を行うことにより、例えば、その複数の圃場それぞれに存在する植生等を比較することを、容易に行うことができる。
 なお、複数の圃場それぞれが映る背景空間(にARオブジェクトを重畳したVR表示)の表示スケールは、図56及び図57で説明したように変更することができる。
 表示スケールの変更により、広い圃場と狭い圃場とを、表示上のサイズが一致するように表示することで、例えば、広い圃場の植生分布と、狭い圃場の植生分布とを比較することを、容易に行うことができる。
 また、複数の圃場それぞれを背景空間とするVR表示(以下、複数圃場表示ともいう)を同時に行う場合には、その複数圃場表示の対象とする複数の圃場として、位置(場所)が異なる圃場は勿論、位置は同一であるが時刻が異なる圃場を採用することができる。
 すなわち、複数圃場表示では、例えば、ある圃場の現在の状態と、その圃場の過去の状態とのそれぞれを背景空間とするVR表示を行うことができる。また、例えば、ある圃場のある過去の時点の状態と、その圃場の他の過去の時点の状態とのそれぞれを背景空間とするVR表示を行うことができる。
 この場合、例えば、ある圃場の異なる時点での植生どうしを比較することを、容易に行うことができる。
 <生態系オブジェクトへのマーカの対応付け>
 図59は、生態系オブジェクトへのマーカの対応付けの例を説明する図である。
 サーバ13において、生成部73は、例えば、ユーザによる端末12の操作に従って、生態系オブジェクトを生成し、必要に応じて、その生態系オブジェクトに、マーカを対応付ける。
 図44等で説明したように、端末12において、生態系オブジェクトは、その生態系オブジェクトに対応付けられているマーカを基準とする相対的な背景空間内の位置に表示(配置)することができる。
 図59に示すように、1個のマーカM1は、1個の生態系オブジェクトobj1に対応付けることができる。
 さらに、1個のマーカは、複数の生態系オブジェクトに対応付けることができる。すなわち、例えば、図59に示すように、1個のマーカM1は、複数としての3個の生態系オブジェクトobj1,obj2,obj3に対応付けることができる。
 マーカM1が、1個の生態系オブジェクトobj1に対応付けられている場合、端末12において、カメラ37での撮影により得られる画像からマーカM1が検出されると、そのマーカM1を基準とする相対的な位置に、マーカM1に対応付けられている1個の生態系オブジェクトobj1が表示される。
 また、マーカM1が、3個の生態系オブジェクトobj1ないしobj3に対応付けられている場合、端末12において、カメラ37での撮影により得られる画像からマーカM1が検出されると、そのマーカM1を基準とする相対的な位置に、マーカM1に対応付けられている3個の生態系オブジェクトobj1ないしobj3が表示される。
 生態系オブジェクトobj1ないしobj3を表示する、マーカM1を基準とする相対的な位置は、生態系オブジェクトobj1ないしobj3それぞれごとに、別個に設定することができる。
 以上のように、1個のマーカは、複数の生態系オブジェクトに対応付けることができるので、例えば、1個のマーカは、1つの圃場に付与された生態系オブジェクトの一部又は全部に対応付けること等ができる。
 図60は、生態系オブジェクトへのマーカの対応付けの例を説明する図である。
 1個の生態系オブジェクトには、複数の異なるマーカを対応付けることができる。
 図60では、生態系オブジェクトobj1ないしobj3のそれぞれに、マーカM1及びM2のそれぞれが対応付けられている。
 生態系オブジェクトobj#i(ここでは、i=1,2,3)に、マーカM1及びM2のそれぞれを対応付ける場合、マーカM1を基準とする、生態系オブジェクトobj#iを表示する相対的な位置と、マーカM2を基準とする、生態系オブジェクトobj#iを表示する相対的な位置とは、同一位置に設定されるが、異なる位置に設定することもできる。
 以上のように、生態系オブジェクトobj#iに、マーカM1及びM2のそれぞれを対応付ける場合には、マーカM1及びM2のうちの一方である、例えば、マーカM1を、生態系オブジェクトobj#iが表す生態系構成物が存在する圃場に設置し、その圃場において、生態系オブジェクトobj#iをAR表示することができる。
 さらに、マーカM1及びM2のうちの他方であるマーカM2については、例えば、教師ユーザが、任意の場所にマーカM2を設置することにより、その任意の場所において、生態系オブジェクトobj#iをAR表示することができる。
 したがって、教師ユーザは、生態系オブジェクトobj#iが表す生態系構成物が存在する圃場から離れた遠隔地において、その農園に存在する生態系構成物を表す生態系オブジェクトobj#iを見ることができる。
 これにより、教師ユーザは、圃場から離れた遠隔地において、圃場に植え付けされている植生や、圃場での植生の配置を、容易に認識し、圃場の生徒ユーザに、例えば、植生設計のアドバイス等を行うことができる。
 なお、生態系オブジェクトには、2個の異なるマーカを対応付ける他、3個以上の異なるマーカを対応付けることができる。
 図61は、マーカの設置位置の変更を説明する図である。
 図44等で説明したように、端末12において、生態系オブジェクトは、その生態系オブジェクトに対応付けられているマーカを基準とする相対的な背景空間内の位置に表示(配置)される。
 図61では、マーカの位置Paを基準として、ベクトルVaだけ離れた位置Pbに、生態系オブジェクトが表示されている。
 以上のように、生態系オブジェクトは、マーカを基準とする相対的な位置に表示されるので、マーカが移動されると、生態系オブジェクトが表示される絶対的な位置も、マーカの移動に応じて移動する。
 ところで、例えば、圃場では、マーカの設置後に、そのマーカの設置位置を移動したい場合がある。
 しかしながら、マーカを移動すると、上述のように、マーカの移動に応じて、生態系オブジェクトが表示される位置が移動する。この場合、例えば、現実の圃場を背景空間とするAR表示において、生態系オブジェクトが、その生態系オブジェクトが表す生態系構成物とは関係ない位置に表示される。
 そこで、マーカの移動は、マーカの移動前と移動後とで、そのマーカが対応付けられている生態系オブジェクトが表示される(絶対的な)位置が変更されない位置不変モードで行うことができる。
 いま、上述したように、移動前のマーカに対しては、マーカの位置Paを基準として、ベクトルVaだけ離れた位置Pbに、生態系オブジェクトが表示されることとする。
 位置不変モードで、マーカが、位置Paから、ベクトルVbだけ離れた位置Pcに移動された場合、移動後のマーカに対しては、移動後の位置Pcを基準として、ベクトルVc=Va-Vbだけ離れた位置に、生態系オブジェクトが表示される。
 マーカの移動後の位置Pc(=Pa+Vb)から、ベクトルVc(=Va-Vb)だけ離れた位置Pc+Vc=(Pa+Vb)+(Va-Vb)は、マーカの移動前の位置Paから、ベクトルVaだけ離れた位置Pb=Pa+Vaであるので、マーカに対応付けられている生態系オブジェクトは、マーカの移動後も、マーカの移動前と同一の位置Pbに表示される。
 したがって、位置不変モードによれば、マーカの移動に起因して、例えば、現実の圃場を背景空間とするAR表示において、生態系オブジェクトが、その生態系オブジェクトが表す生態系構成物とは関係ない位置に表示されることを防止することができる。
 なお、位置不変モードでは、サーバ13において、移動後のマーカの位置Pcを基準とする、生態系オブジェクトを表示する位置としてのベクトルVc=Va-Vbが求められる。そして、生態系オブジェクトは、移動後のマーカの位置Pcを基準として、ベクトルVcだけ離れた位置、すなわち、移動前のマーカに対する場合と同一の位置Pbに表示される。
 <圃場全体に関する生態系構成物を表す生態系オブジェクトの表示>
 図62は、圃場全体に関する生態系構成物を表す生態系オブジェクトの表示例を示す図である。
 図62では、ある圃場A(の実空間、撮影実空間、又は、VR空間)を背景空間として、生態系オブジェクトが表示されている。
 さらに、図62では、白菜、ヨモギ、ニラ、蜂の巣、圃場Aの硝酸濃度、含有水分量、及び、気候それぞれを表す生態系オブジェクトが表示されている。
 白菜、ヨモギ、ニラ、蜂の巣の生態系オブジェクトは、圃場Aにおいて、白菜、ヨモギ、ニラ、蜂の巣が存在する位置(付近)に表示されている。
 一方、圃場Aの硝酸濃度、含有水分量、及び、気候それぞれを表す生態系オブジェクトは、圃場Aの全体に関する生態系構成物を表す生態系オブジェクト(以下、全体オブジェクトともいう)であるため、圃場Aの背景空間が表示される表示部35の表示画面の固定の位置(図62では、表示画面の右端の位置)に表示されている。
 いま、例えば、端末12がシースルー型のHMDであり、そのシースルー型のHMDにおいて、圃場Aの実空間を背景空間として、その背景空間に、生態系オブジェクトが重畳されてAR表示されていることとする。この場合、ユーザが、端末12としてのシースルー型のHMDを装着したまま、例えば、右方向に、首を傾けると、表示画面に映る(ユーザの視界に入る)背景空間は、ユーザが首を傾ける前よりも、圃場Aの右側の範囲に移動する。
 その結果、ユーザが首を傾けた後の表示画面に映る背景空間において、白菜、ヨモギ、ニラ、蜂の巣が存在する位置は、ユーザが首を傾ける前よりも、左側に移動する。そのため、それらの白菜、ヨモギ、ニラ、及び、蜂の巣それぞれを表す生態系オブジェクトが表示される位置も、左側に移動する。
 一方、圃場Aの硝酸濃度、含有水分量、及び、気候それぞれを表す全体オブジェクトは、表示画面の固定の位置に表示されるため、ユーザが首を傾けた後も、ユーザが首を傾ける場合と同一の位置、すなわち、図62では、表示画面の右端の位置に表示される。
 以上のように、端末12(の表示制御部52)において、圃場Aを背景空間として、AR表示又はVR表示が行われる場合には、その圃場Aの全体に関する生態系構成物を表す全体オブジェクトを、表示画面の固定の位置に表示することができる。
 これにより、圃場Aを背景空間として、AR表示又はVR表示が行われる場合、ユーザは、圃場Aの全体に関する生態系構成物としての、例えば、硝酸濃度、含有水分量、及び、気候等については、任意のタイミングで認識することができる。
 なお、全体オブジェクトについては、例えば、ユーザの操作に応じて、その表示をオン/オフさせることができる。
 <関連情報の表示>
 図63は、端末12での関連情報の表示を説明する図である。
 図49で説明したように、生態系オブジェクトは、その生態系オブジェクトが表す生態系構成物に関連する関連情報にリンクさせておくことができる。関連情報としては、例えば、協生農法(登録商標)CMS71がアクセス可能な協生農法(登録商標)DB等のCMSデータベースに記憶された情報や、図24ないし図41で説明した関係グラフのノードとなる情報等を採用することができる。
 そして、例えば、図53で説明したように、図49のタイムラプスモードの表示において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択した場合には、端末12では、その選択オブジェクトにリンクされている関連情報を表示することができる。
 図63では、端末12において、ユーザの操作に応じて、タイムラプスモードの表示(図49)の中から、ある生態系オブジェクトが、選択オブジェクトとして選択されている。
 図63では、選択オブジェクトが、ある植生を表す生態系オブジェクトになっている。
 端末12は、選択オブジェクトを、例えば、ユーザの操作等に応じて、サーバ13に送信し、サーバ13は、端末12からの選択オブジェクトが表す植生に関連する関連情報としての植生(以下、関連植生ともいう)を、関係グラフから特定する。
 すなわち、サーバ13では、グラフ表示制御部72が、例えば、関係グラフ(バイパータイトグラフ)等のマルチパータイトグラフにおいて、選択オブジェクトが表す植生(のノード)とリンクされている(ノードの)植生を、関連植生として特定する。
 さらに、サーバ13では、協生農法(登録商標)CMS71が、CMSデータベースから、関連植生の情報、すなわち、例えば、関連植生の写真や名称等を検索し、webページの形で、端末12に送信する。
 これにより、端末12では、図53で説明したように、関連植生の一覧が、その関連植生の情報(写真等)とともに、webページの形で表示される。
 したがって、端末12のユーザは、選択オブジェクトを選択するだけで、その選択オブジェクトが表す植生に関連する植生の情報を、容易に入手することができる。
 <AR表示又はVR表示を行うARオブジェクトの選択>
 図64は、AR表示又はVR表示を行うARオブジェクトの選択の例を説明する図である。
 端末12において、表示部35の表示画面に、背景空間と重畳してAR表示又はVR表示を行うARオブジェクト(以下、表示対象オブジェクトともいう)は、適宜、選択すること、すなわち、変更することができる。
 例えば、端末12では、その端末12のユーザの協生農法(登録商標)に対する熟練度に応じて、表示対象オブジェクトを選択(変更)することができる。
 ここで、端末12のユーザの熟練度は、ユーザに、そのユーザのプロファイルをあらかじめ入力してもらい、端末12やサーバ13に登録しておくことで、そのプロファイルに基づいて認識することができる。
 図64のAは、初心者のユーザ向けのAR表示又はVR表示の表示例を示している。
 図64のAでは、ある圃場Aを背景空間として、生態系オブジェクトobjES1,objES2,objES3、及び、objES4、並びに、タスクオブジェクトobjT1,objT2,objT3,objT12、及び、objT23が表示されている。
 生態系オブジェクトobjES1及びobjES3は、白菜を表す。生態系オブジェクトobjES2は、ニラを表し、生態系オブジェクトobjES4は、ヨモギを表す。
 タスクオブジェクトobjT1ないしobjT3は、植生の収穫を表し、タスクオブジェクトobjT12及びobjT23は、収穫の順番を表す。
 初心者のユーザは、生態系オブジェクトobjES1ないしobjES4を見ることにより、その生態系オブジェクトobjES1ないしobjES4それぞれが表す白菜等の植生が存在する圃場A内の位置を、容易に認識することができる。さらに、初心者のユーザは、タスクオブジェクトobjT1ないしobjT3、及び、タスクオブジェクトobjT12及びobjT23により、生態系オブジェクトobjES1が表す白菜、生態系オブジェクトobjES2が表すニラ、及び、生態系オブジェクトobjES3が表す白菜を、その順番で収穫すべきことを、容易に認識することができる。
 以上のように、初心者のユーザ向けのAR表示又はVR表示では、初心者に、いわば手取り足取りして、協生農法(登録商標)を教え込むために、専門性が高くない生態系構成物を表す生態系オブジェクトや、生態系構成物について行うタスクを丁寧に表すタスクオブジェクト等が、表示対象オブジェクトとして選択されて表示される。
 図64のBは、熟練者のユーザ向けのAR表示又はVR表示の表示例を示している。
 図64のBでは、ある圃場Aを背景空間として、生態系オブジェクトobjES1,objES2,objES3、及び、objES4、並びに、タスクオブジェクトobjT1,objT2、及び、objT3が表示されている。
 したがって、図64のBのAR表示又はVR表示は、タスクオブジェクトobjT12、及び、objT23が表示対象オブジェクトとして表示されていない点で、タスクオブジェクトobjT12、及び、objT23が表示対象オブジェクトとして選択されて表示されている図64のAの初心者向けのAR表示又はVR表示と異なっている。
 熟練者のユーザは、例えば、既に、白菜とニラの収穫を、生態系オブジェクトobjES1が表す白菜、生態系オブジェクトobjES2が表すニラ、及び、生態系オブジェクトobjES3が表す白菜の順番で行うべきことを知識として獲得している。
 そのため、熟練者のユーザにとって、白菜とニラの収穫の順番を表すタスクオブジェクトobjT12及びobjT23は、冗長な情報であり、そのようなタスクオブジェクトobjT12及びobjT23の表示は、熟練者のユーザに、煩わしさを感じさせることがある。
 そこで、図64のBの熟練者けのAR表示又はVR表示では、生態系オブジェクトobjES1ないしobjES4、並びに、タスクオブジェクトobjT1ないしobjT3,objT12、及び、objT23のうちの、タスクオブジェクトobjT12及びobjT23を除く、生態系オブジェクトobjES1ないしobjES4、及び、タスクオブジェクトobjT1ないしobjT3が、表示対象オブジェクトとして選択されて表示されている。
 なお、例えば、図64において背景空間となっている圃場Aに、多くの植生が存在する場合には、その圃場Aに存在するすべての植生それぞれを表す生態系オブジェクト、及び、各植生に対して行うべきタスクを表すタスクオブジェクトのすべてを表示すると、生態系オブジェクトやタスクオブジェクトの数が多くなって見にくくなることがある。
 また、例えば、希少な植生は、熟練者のユーザにとって重要なことがあるが、初心者のユーザにとって重要でないことがある。
 そこで、植生を表す生態系オブジェクトについては、端末12では、ユーザの熟練度に応じて、例えば、熟練度が高いユーザには、希少な植生を表す生態系オブジェクトだけを表示し、熟練度が低いユーザには、メジャーな植生を表す生態系オブジェクトだけを表示することができる。
 なお、熟練度に応じた表示対象オブジェクトの選択は、例えば、ARオブジェクトに、熟練度を表すレベルを割り当てておき、ユーザの熟練度を表すレベルが割り当てられたARオブジェクトを選択することで行うことができる。
 図65は、AR表示又はVR表示を行うARオブジェクトの選択の他の例を説明する図である。
 表示対象オブジェクトの選択は、図64で説明したように、ユーザの熟練度に応じて行うことができる他、データのカテゴリを指定することにより行うことができる。
 すなわち、図44で説明したように、ARオブジェクトは、ARオブジェクトとしてのデータのカテゴリによって、例えば、写真(のデータ)、アイコン(のデータ)、及び、センサデータ(を表すシンボル)に分けることができる。
 端末12では、例えば、ユーザの操作に応じて、以上のような写真、アイコン、及び、センサデータのカテゴリの中から、1以上のカテゴリを選択し、そのカテゴリのARオブジェクトを、表示対象オブジェクトに選択することができる。
 図65のAは、写真、アイコン、及び、センサデータのカテゴリのすべてのARオブジェクトを、表示対象オブジェクトに選択した場合のAR表示又はVR表示の表示例を示している。
 図65のAでは、白菜及びニラそれぞれを表す写真の生態系オブジェクト、白菜やニラの収穫のタスクを表すアイコンのタスクオブジェクト、並びに、硝酸濃度及び水分量それぞれを表すセンサデータの生態系オブジェクトが、表示対象オブジェクトに選択されて表示されている。
 図65のBは、写真、アイコン、及び、センサデータのカテゴリのうちの、写真のカテゴリのARオブジェクトのみを、表示対象オブジェクトに選択した場合のAR表示又はVR表示の表示例を示している。
 図65のBでは、白菜及びニラそれぞれを表す写真の生態系オブジェクトが、表示対象オブジェクトに選択されて表示されている。
 図65のCは、写真、アイコン、及び、センサデータのカテゴリのうちの、センサデータのカテゴリのARオブジェクトのみを、表示対象オブジェクトに選択した場合のAR表示又はVR表示の表示例を示している。
 図65のCでは、硝酸濃度及び水分量それぞれを表すセンサデータの生態系オブジェクトが、表示対象オブジェクトに選択されて表示されている。
 図65のDは、写真、アイコン、及び、センサデータのカテゴリのうちの、写真及びアイコンのARオブジェクトを、表示対象オブジェクトに選択した場合のAR表示又はVR表示の表示例を示している。
 図65のDでは、白菜及びニラそれぞれを表す写真の生態系オブジェクト、並びに、白菜やニラの収穫のタスクを表すアイコンのタスクオブジェクトが、表示対象オブジェクトに選択されて表示されている。
 以上のように、端末12では、例えば、ARオブジェクトのカテゴリの中から、1以上のカテゴリを選択し、そのカテゴリのARオブジェクトを、表示対象オブジェクトに選択することができる。したがって、ユーザが必要とするカテゴリのARオブジェクトだけを、AR表示又はVR表示で表示することができる。
 <生態系オブジェクトの登録の処理の例>
 図66は、図1(図43)の生態系活用システムでの生態系オブジェクトの登録の処理の例を説明するフローチャートである。
 ステップS311において、センサ装置11や端末12は、生態系オブジェクトを付与する生態系構成物(以下、注目生態系構成物ともいう)について、登録対象情報を取得する。
 すなわち、センサ装置11は、注目生態系構成物としての、例えば、気温や水分等の所定の物理量のセンシングの結果得られるセンサデータを、登録対象情報として取得する。
 また、端末12(図3)は、取得部51において、例えば、ユーザの操作に応じて、圃場で撮影した植生等の注目生態系構成物の写真や、ユーザが入力したコメント(例えば、「蜂を見た」や、「この植物は、何?」等)を、登録対象情報として取得する。
 ステップS312において、センサ装置11や端末12は、注目生態系構成物の位置情報を取得する。
 すなわち、センサ装置11は、例えば、センサ装置11自体の位置を表すGPS座標を、注目生態系構成物の位置情報として取得する。
 また、端末12は、例えば、端末12自体の位置を表すGPS座標を、注目生態系構成物の位置情報として取得する。
 なお、端末12では、その他、例えば、端末12自体の位置を基準として、注目生態系構成物の相対的な位置を検出し、端末12自体のGPS座標を、注目生態系構成物の相対的な位置で補正することにより得られる座標を、注目生態系構成物の位置情報として取得することができる。
 また、端末12では、例えば、ユーザに操作部34を操作して、注目生態系構成物の位置情報を入力してもらうことができる。
 ステップS313において、センサ装置11や端末12は、注目生態系構成物について取得した登録対象情報、及び、位置情報を、サーバ13に送信する。
 ステップS321において、サーバ13は、センサ装置11や端末12から送信されてくる注目生態系構成物の登録対象情報、及び、位置情報を受信する。
 ステップS322において、サーバ13(図4)の生成部73は、注目生態系構成物に付与する生態系オブジェクトを取得する。
 すなわち、生成部73は、例えば、注目生態系構成物の登録対象情報に、その注目生態系構成物を撮影した写真が含まれる場合には、その写真を、注目生態系構成物に付与する生態系オブジェクトに採用する。
 また、生成部73は、注目生態系構成物の登録対象情報に、センサデータが含まれる場合には、そのセンサデータを表すシンボルを、注目生態系構成物に付与する生態系オブジェクトとして生成する。
 生成部73では、その他、例えば、図52で説明した蜂の巣を表すアイコンの生態系オブジェクトや、危険なエリアを表すアイコンの生態系オブジェクト等を、注目生態系構成物に付与する生態系オブジェクトの候補オブジェクトとして、端末12に表示させることができる。
 そして、生成部73では、端末12に表示された候補オブジェクトの中から、ユーザが選択した候補オブジェクトを、注目生態系構成物に付与する生態系オブジェクトに採用することができる。
 ステップS323において、生成部73は、注目生態系構成物の登録対象情報、位置情報、及び、注目生態系構成物に付与する生態系オブジェクト等を対応付けたオブジェクト情報を生成する。そして、生成部73は、オブジェクト情報を、ストレージ63に記憶された、例えば、オブジェクト情報を登録するためのオブジェクトDBに登録する。
 図67は、オブジェクト情報の概要を示す図である。
 オブジェクト情報には、図66で説明したように、生態系構成物を表す生態系オブジェクト、生態系構成物の位置情報、及び、登録対象情報が含まれる。
 オブジェクト情報には、その他、圃場情報や、マーカ情報、タスクオブジェクト等を含めることができる。
 圃場情報は、生態系構成物が観測された圃場(位置情報が表す位置に存在する圃場)に関する情報である。圃場情報には、圃場名や、圃場の住所、圃場の土壌の情報等を含めることができる。
 圃場情報によれば、例えば、圃場名をキーワードとして、オブジェクト情報の検索を行うことにより、ある圃場に存在する生態系構成物を表す生態系オブジェクトをピックアップすることができる。
 マーカ情報は、生態系オブジェクトを表示するマーカに関する情報である。マーカ情報には、例えば、マーカとしての画像や、マーカを基準として、生態系オブジェクトを表示する相対的な位置を表す相対位置情報等が含まれる。
 マーカとしての画像は、例えば、端末12からサーバ13にアップロードすることができる。また、マーカとしての画像は、例えば、サーバ13で生成し、端末12にダウンロードすることができる。
 マーカの相対位置情報は、例えば、ユーザに端末12を操作して入力してもらうことや、マーカの設置位置と生態系オブジェクトの位置情報とから計算することができる。
 端末12では、カメラ37で撮影された画像から、マーカ情報に含まれるマーカとしての画像が検出された場合、そのマーカを基準とする、マーカ情報に含まれる相対位置情報が表す位置に、生態系オブジェクトが表示される。
 なお、位置情報が近い複数のオブジェクト情報については、マーカ情報に含めるマーカとしての画像として、同一の画像を採用することができる。この場合、1のマーカを、複数の生態系オブジェクトに対応付け、その1のマーカによって、近い位置にある複数の生態系構成物をそれぞれ表す複数の生態系オブジェクトを表示することができる。
 オブジェクト情報において、タスクオブジェクトは、そのオブジェクト情報に含まれる生態系オブジェクトが表す生態系構成物について行うタスクを表す。
 <ARオブジェクトの表示の処理の例>
 図68は、図1(図43)の生態系活用システムでのARモードでのARオブジェクトの表示の処理の例を説明するフローチャートである。
 ステップS331において、端末12(図3)の取得部51は、背景空間となる実空間、撮影実空間、又は、VR空間を取得する。
 すなわち、例えば、端末12が、没入型のHMDやスマートフォンである場合、カメラ37で実空間を撮影することにより得られる撮影実空間、又は、その実空間をモデル化したVR空間(の画像)が、背景空間(の画像)として取得される。
 また、例えば、端末12が、シースルー型のHMDである場合、端末12のユーザがシースルーで見える実空間が、そのまま背景空間として用いられる。
 ステップS332において、端末12の取得部51は、背景空間に配置する生態系オブジェクト及びタスクオブジェクトを要求するオブジェクト要求を、(通信部40を介して)サーバ13に送信する。
 すなわち、取得部51は、例えば、背景空間からマーカを検出し、そのマーカとともに、オブジェクト要求を、サーバ13に送信する。あるいは、取得部51は、端末12の現在地を取得し、その現在地とともに、オブジェクト要求を、サーバ13に送信する。
 ステップS341において、サーバ13(図4)のAR/VR表示制御部74は、端末12から送信されてくるオブジェクト要求に応じて、生態系オブジェクト及びタスクオブジェクトを、(通信部67を介して)端末12に送信する。
 すなわち、AR/VR表示制御部74は、端末12から、オブジェクト要求とともに送信されてくるマーカを含むオブジェクト情報、又は、オブジェクト要求とともに送信されてくる端末12の現在地に近い位置を表す位置情報(以下、絶対位置情報ともいう)を含むオブジェクト情報を、注目オブジェクト情報として、ストレージ63に記憶されたオブジェクトDBから検索する。
 そして、AR/VR表示制御部74は、注目オブジェクト情報に含まれる生態系オブジェクトと、マーカの相対位置情報、又は、絶対位置情報(以下、両方含めて、オブジェクト位置情報ともいう)とを、端末12に送信する。
 さらに、AR/VR表示制御部74は、注目オブジェクト情報に、タスクオブジェクトが含まれる場合には、そのタスクオブジェクトを、端末12に送信する。
 ステップS333において、端末12の取得部51は、サーバ13から送信されてくる生態系オブジェクトや、タスクオブジェクト、オブジェクト位置情報を受信することにより取得する。
 ステップS334において、端末12の表示制御部52は、取得部51で取得された生態系オブジェクトを、ステップS331で取得した背景空間の、オブジェクト位置情報が表す位置に重畳してAR表示する。
 さらに、取得部51がタスクオブジェクトを取得している場合には、表示制御部52は、生態系オブジェクトの近傍に、取得部51で取得されたタスクオブジェクトを、背景空間に重畳してAR表示する。
 以上により、端末12では、例えば、上述した図44や図45等で説明したAR表示が行われる。
 なお、端末12では、端末12の現在地に近い位置を表す絶対位置情報を含むオブジェクト情報を、常時、サーバ13からダウンロードすることができる。
 この場合、端末12では、サーバ13からのダウンロード済みのオブジェクト情報に含まれる生態系オブジェクトやタスクオブジェクトについては、サーバ13にオブジェクト要求を行わずに、すなわち、サーバ13と通信を行わずに、表示することができる。
 図69は、図1(図43)の生態系活用システムでのVRモードでのARオブジェクトの表示の処理の例を説明するフローチャートである。
 ステップS351において、端末12は、ユーザが、所定の位置を、指定位置として指定するのを待って、その指定位置を、サーバ13に送信する。
 ステップS361において、サーバ13は、端末12からの指定位置を受信する。
 ステップS362において、サーバ13は、端末12からの指定位置を含む所定の範囲の実空間を撮影した撮影実空間、又は、その実空間をモデル化したVR空間(の画像)を、端末12に送信する。
 すなわち、サーバ13において、ストレージ63には、実空間を撮影した撮影実空間、及び、実空間をモデル化したVR空間が記憶されている。そして、サーバ13では、AR/VR表示制御部74が、ストレージ63に記憶された撮影実空間又はVR空間から、指定位置を含む実空間を撮影した撮影実空間、又は、その実空間をモデル化したVR空間を読み出し、端末12に送信する。
 ステップS352において、端末12の取得部51は、サーバ13からの撮影実空間、又はVR空間を、背景空間として取得する。
 ステップS353において、端末12の取得部51は、背景空間に配置する生態系オブジェクト及びタスクオブジェクトを要求するオブジェクト要求を、サーバ13に送信する。
 すなわち、取得部51は、背景空間からマーカを検出し、そのマーカとともに、オブジェクト要求を、サーバ13に送信する。あるいは、取得部51は、指定位置とともに、オブジェクト要求を、サーバ13に送信する。
 ステップS363において、サーバ13のAR/VR表示制御部74は、端末12から送信されてくるオブジェクト要求に応じて、生態系オブジェクト及びタスクオブジェクトを、端末12に送信する。
 すなわち、AR/VR表示制御部74は、端末12から、オブジェクト要求とともに送信されてくるマーカを含むオブジェクト情報、又は、オブジェクト要求とともに送信されてくる指定位置に近い位置を表す絶対位置情報を含むオブジェクト情報を、注目オブジェクト情報として、ストレージ63に記憶されたオブジェクトDBから検索する。
 そして、AR/VR表示制御部74は、注目オブジェクト情報に含まれる生態系オブジェクトと、オブジェクト位置情報としてのマーカの相対位置情報、又は、絶対位置情報とを、端末12に送信する。
 さらに、AR/VR表示制御部74は、注目オブジェクト情報に、タスクオブジェクトが含まれる場合には、そのタスクオブジェクトを、端末12に送信する。
 以下、ステップS354及びS355において、端末12では、図68のステップS333及びS334とそれぞれ同様の処理が行われ、これにより、ステップS352で取得された背景空間としての撮影実空間又はVR空間に、生態系オブジェクトやタスクオブジェクトが重畳されてVR表示される。
 以上により、端末12では、例えば、上述した図46や図48等で説明したVR表示が行われる。
 なお、図69では、端末12において、背景空間に、生態系オブジェクトやタスクオブジェクトを重畳してVR表示することとしたが、その他、例えば、サーバ13において、背景空間に、生態系オブジェクトやタスクオブジェクトを重畳した画像を生成して、端末12に送信し、端末12では、サーバ13から送信されてくる、背景空間に生態系オブジェクトやタスクオブジェクトが重畳された画像を表示することができる。
 <ARオブジェクトの編集の処理の例>
 図70は、図1(図43)の生態系活用システムでのARオブジェクトの編集の処理の例を説明するフローチャートである。
 すなわち、図70は、ARオブジェクトの編集として、例えば、生態系オブジェクトに対してコメントを入力することや、生態系オブジェクトが表す生態系構成物について行うタスクを表すタスクオブジェクトを、その生態系オブジェクトに対応付けることを行う場合の処理の例を示している。
 ステップS371において、端末12は、図68又は図69で説明したようにして、ARモード又はVRモードでのARオブジェクトの表示を行う。
 ステップS372において、端末12の取得部51は、ステップS371で表示されたARオブジェクトの編集として、ユーザが編集情報を入力する操作を行うのを待って、その編集情報を受け付ける。
 すなわち、ユーザが、ARオブジェクトの編集として、例えば、生態系オブジェクトに対して、コメントを入力する操作を行った場合には、取得部51は、そのコメントを、編集情報として受け付ける。また、ユーザが、ARオブジェクトの編集として、生態系オブジェクトに、その生態系オブジェクトが表す生態系構成物について行うタスクを表すタスクオブジェクトを対応付ける操作を行った場合には、取得部51は、そのタスクオブジェクトを、編集情報として受け付ける。
 ここで、生態系オブジェクトに、タスクオブジェクトを対応付ける場合には、端末12では、例えば、生態系オブジェクトに対応付けることができるタスクオブジェクトの候補を表示することができる。ユーザは、端末12に表示されたタスクオブジェクトの候補の中から、生態系オブジェクトに対応付けるタスクオブジェクトを選択することができる。端末12において、タスクオブジェクトの候補は、例えば、サーバ13から取得することができる。
 ステップS373において、端末12の取得部51は、ステップS372で受け付けた編集情報を、対応するARオブジェクトを識別する識別情報とともに、サーバ13に送信する。
 ここで、例えば、ARオブジェクトには、そのARオブジェクトを識別するための識別情報が割り当てられている。ステップS373において、端末12は、コメントが入力された生態系オブジェクトや、タスクオブジェクトが対応付けられた生態系オブジェクトの識別情報とともに、編集情報を送信する。
 ステップS381において、サーバ13の編集部75は、端末12から送信されてくる識別情報及び編集情報を受信する。
 ステップS382において、サーバ13の編集部75は、端末12からの編集情報に応じて、ARオブジェクトを編集する。
 すなわち、例えば、編集情報がコメントである場合、編集部75は、その編集情報とともに端末12から送信されてきた識別情報によって識別される生態系オブジェクトを含むオブジェクト情報(図67)に、編集情報としてのコメントを追加する。
 また、例えば、編集情報がタスクオブジェクトである場合、編集部75は、その編集情報とともに端末12から送信されてきた識別情報によって識別される生態系オブジェクトを含むオブジェクト情報に、編集情報としてのタスクオブジェクトを追加する。
 その後、ステップS374において、端末12は、図68又は図69で説明したようにして、ARモード又はVRモードでのARオブジェクトの再表示を行う。
 すなわち、端末12では、取得部51が、編集後のARオブジェクトを、サーバ13から取得し直し、表示制御部52が、その編集後のARオブジェクトを表示させる。
 その結果、例えば、ユーザが、生態系オブジェクトに対して、コメントを入力する操作を行った場合には、ステップS374では、生態系オブジェクトが、ユーザが入力したコメントとともに表示される。
 また、例えば、ユーザが、生態系オブジェクトに、タスクオブジェクトを対応付ける操作を行った場合には、ステップS374では、生態系オブジェクトが、ユーザが対応付けたタスクオブジェクトとともに表示される。
 なお、生態系オブジェクトに対するコメントの表示は、ユーザの操作に応じてオン/オフすることができる。
 また、図70では、生態系オブジェクトの編集を行う場合について説明したが、ARオブジェクトの編集としては、生態系オブジェクトの編集の他、タスクオブジェクトの編集、すなわち、タスクオブジェクトに対するコメントの入力等を行うことが可能である。
 図71は、図1(図43)の生態系活用システムでのARオブジェクトの編集の処理の他の例を説明するフローチャートである。
 すなわち、図70は、ARオブジェクトの編集として、例えば、生態系オブジェクトのコピーを行う場合の処理の例を示している。
 ステップS391において、端末12は、例えば、2つの圃場A及びBそれぞれについて、図69で説明したようにして、VRモードでのARオブジェクトの表示を行う。
 すなわち、端末12は、ユーザが、2つの圃場A及びBを指定するのを待って、例えば、図55に示したように、ユーザが指定した2つの圃場A及びBのVR空間のそれぞれを背景空間として、VR表示を行う。
 ステップS392において、端末12の取得部51は、ステップS391で表示されたARオブジェクトの編集として、ユーザがコピー情報を入力する操作を行うのを待って、そのコピー情報を受け付ける。
 すなわち、ユーザは、例えば、図55で説明したように、圃場Aの背景空間内に表示された、ある生態系オブジェクトをコピーの対象として、圃場Bの背景空間内の所望の位置に、コピーの対象の生態系オブジェクトをコピーすることができる。
 取得部51は、コピーの対象の生態系オブジェクトであるコピーオブジェクトと、そのコピーオブジェクトをコピーするコピー先の圃場及び位置とを、コピー情報として受け付ける。
 ステップS393において、端末12の取得部51は、ステップS392で受け付けたコピー情報を、サーバ13に送信する。
 ステップS401において、サーバ13の編集部75は、端末12から送信されてくるコピー情報を受信する。
 ステップS402において、サーバ13の編集部75は、端末12からのコピー情報に応じて、生態系オブジェクトをコピーする。
 すなわち、編集部75は、コピー情報に含まれるコピーオブジェクトを含む新たなオブジェクト情報を、コピー情報に含まれるコピー先の圃場のオブジェクト情報として生成する。さらに、編集部75は、新たなオブジェクト情報の(絶対)位置情報として、コピー情報に含まれるコピー先の位置を表す位置情報を設定し、新たなオブジェクト情報を、ストレージ63のオブジェクトDBに(追加)登録する。
 ステップS403において、編集部75は、コピーオブジェクトが表す生態系構成物について行うべきタスクを判定する。
 例えば、コピーオブジェクトが表す生態系構成物が、蜂の巣である場合には、編集部75は、コピーオブジェクトが表す生態系構成物について行うべきタスクがないと判定する。この場合、サーバ13では、以降の処理は行われない。
 また、例えば、コピーオブジェクトが表す生態系構成物が、植生である場合には、編集部75は、その植生の植え付けを、コピーオブジェクトが表す生態系構成物について行うべきタスクとして判定する。
 この場合、編集部75は、ステップS402でオブジェクトDBに追加登録した新たなオブジェクト情報に、植え付けを表すタスクオブジェクトを含め(登録し)、これにより、新たなオブジェクト情報に含まれるコピーオブジェクトに、タスクオブジェクトが対応付けられる。
 その後、ステップS394において、端末12は、図69で説明したようにして、VRモードでのARオブジェクトの再表示を行う。
 すなわち、端末12では、取得部51が、編集後のARオブジェクトを、サーバ13から取得し直し、表示制御部52が、その編集後のARオブジェクトを表示させる。
 その結果、例えば、圃場Aの背景空間内に表示された、ある生態系オブジェクトをコピーオブジェクトとして、圃場Bの背景空間内の所望の位置に、コピーオブジェクトをコピーした場合には、ステップS394では、圃場Bの背景空間内の所望の位置に、コピーオブジェクトが表示される。
 さらに、サーバ13において、コピーオブジェクトに、タスクオブジェクトが対応付けられた場合には、ステップS394では、コピーオブジェクトとともに、そのコピーオブジェクトに対応付けられたタスクオブジェクトも表示される。
 <端末12の表示画面の遷移例>
 図72は、端末12においてARオブジェクトの登録や編集等を行う場合の、表示部35の表示画面の遷移の例を示す図である。
 端末12は、サーバ13との間で、必要な情報をやりとりすることで、表示部35の表示画面を、図72に示すように遷移させる。
 端末12において、ユーザが所定の操作を行うと、"Main Menu"画面が、表示部35の表示画面に表示される。
 "Main Menu"画面は、[Camera Capture]ボタンと、[Edit Object]ボタンとを有する。
 "Main Menu"画面の[Camera Capture]ボタンが操作されると、表示部35の表示画面には、[撮影]ボタンを有する「撮影」画面が表示される。
 「撮影」画面の[撮影]ボタンが操作されると、端末12では、カメラ37により写真が撮影され、その撮影時のGPS座標(位置情報)が取得される。そして、表示部35の表示画面には、その写真に対するコメントを入力する「コメント記入」画面が表示される。
 「コメント記入」画面は、[登録]ボタンを有し、ユーザがコメントを入力して、[登録]ボタンを操作すると、表示部35の表示画面には、[完了]ボタンを有する「登録完了」画面が表示される。
 「登録完了」画面の[完了]ボタンが操作されると、ユーザが、「撮影」画面で撮影した写真と、「コメント記入」画面で入力したコメントとが、図66で説明した登録対象情報として、端末12からサーバ13に送信される。さらに、写真の撮影時に取得されたGPS座標が、図66で説明した位置情報として、端末12からサーバ13に送信される。そして、サーバ13では、端末12からの位置情報と登録対象情報とを含むオブジェクト情報が登録される。
 その後、表示部35の表示画面は、「撮影」画面に戻る。
 "Main Menu"画面の[Edit Object]ボタンが操作されると、表示部35の表示画面には、「アクション一覧」画面が表示される。
 「アクション一覧」画面は、[生成]ボタン、[閲覧]ボタン、[タスク生成]ボタン、[タスク一覧]ボタン、[データインポート]ボタン、及び、[登録データ]ボタンを有する。
 「アクション一覧」画面において、[生成]ボタンが操作されると、表示部35の表示画面には、[指定]ボタンを有する「座標指定」画面が表示される。
 「座標指定」画面において、ユーザが座標を入力し、[指定ボタン]を操作すると、表示部35の表示画面には、[登録]ボタンを有する「コメント記入」画面が表示される。
 「コメント記入」画面において、ユーザがコメントを入力して、[登録]ボタンを操作すると、表示部35の表示画面には、[完了]ボタンを有する「登録完了」画面が表示される。
 「登録完了」画面の[完了]ボタンが操作されると、ユーザが、「座標指定」画面で入力した座標が、図66で説明した位置情報として、端末12からサーバ13に送信される。さらに、ユーザが、「コメント記入」画面で入力したコメントが、図66で説明した登録対象情報として、端末12からサーバ13に送信される。そして、サーバ13では、端末12からの位置情報と登録対象情報とを含むオブジェクト情報が登録される。すなわち、この場合、生態系オブジェクトとしての写真がないオブジェクト情報、言い換えれば、いわば、空っぽの写真を含むオブジェクト情報が登録される。
 その後、表示部35の表示画面は、「座標指定」画面に戻る。
 「アクション一覧」画面において、[閲覧]ボタンが操作されると、表示部35の表示画面には、[選択]ボタンを有する「オブジェクト選択」画面が表示される。
 「オブジェクト選択」画面には、例えば、サーバ13のオブジェクトDBに生態系オブジェクトとして登録された写真の一覧が表示される。
 「オブジェクト選択」画面において、ユーザが、ある生態系オブジェクトとしての写真を選択し、[選択]ボタンを操作すると、表示部35の表示画面には、"Time Lapse- Relation Record"画面が表示される。
 "Time Lapse- Relation Record"画面では、「オブジェクト選択」画面でユーザが選択した生態系オブジェクトが表す生態系構成物が観測された圃場(ユーザが選択した生態系オブジェクトのオブジェクト情報(図67)に含まれる圃場情報が表す圃場)を、注目圃場として、図49で説明した、生態系オブジェクトのタイムラプスモードの表示が行われる。
 "Time Lapse- Relation Record"画面は、[オブジェクト選択]ボタン、[他農園名選択]ボタン、[撮影]ボタン、[コメント編集]ボタン、及び、[消去]ボタンを有する。
 "Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[オブジェクト選択]ボタンを操作すると、サーバ13は、その選択オブジェクトが表す生態系構成物のノードを注目ノードとする関係グラフ(図26等)を生成し、その関係グラフを有する「Gephiグラフモデル探索」画面を、Gephiを利用して、端末12の表示部35の表示画面に表示させる。
 「Gephiグラフモデル探索」画面は、[URL選択]ボタンを有し、「Gephiグラフモデル探索」画面において、ユーザが、関係グラフのノードを選択して、[URL選択]ボタンを操作すると、表示部35の表示画面には、「CMSデータベース探索」画面が表示される。
 「CMSデータベース探索」画面では、例えば、図53で説明したように、「Gephiグラフモデル探索」画面でユーザが選択したノードが表す植生等に関連する関連情報が、サーバ13のCMSデータベースから検索されて表示される。
 "Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[他農場名選択]ボタンを操作すると、表示部35の表示画面には、例えば、図50に示した同一植生圃場情報表示が表示される。
 そして、ユーザが、図50の同一植生圃場情報表示において、選択オブジェクトが表す生態系構成物が存在する注目圃場以外の他の圃場を、選択圃場として選択すると、表示部35の表示画面は、例えば、図51に示した、グーグルアースを利用した遷移表示を経由して、「対象農園対象オブジェクト」画面に切り替わる。
 「対象農園対象オブジェクト」画面では、例えば、図52に示したような選択圃場の表示が行われる。
 "Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[撮影]ボタンを操作すると、表示部35の表示画面には、「コメント記入」画面が表示される。
 「コメント記入」画面では、ユーザは、選択オブジェクトとしての写真(空っぽの写真を含む)を、他の写真に差し替える操作を行うことができる。
 「コメント記入」画面は、[登録]ボタンを有する。「コメント記入」画面において、ユーザが、選択オブジェクトとしての写真を、他の写真に差し替え、[登録]ボタンを操作すると、サーバ13では、オブジェクト情報(図67)に含まれる選択オブジェクトとしての写真が差し替えられる。
 そして、表示部35の表示画面には、選択オブジェクトとしての写真の差し替えの完了を表す「登録完了」画面が表示される。
 "Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[コメント編集]ボタンを操作すると、表示部35の表示画面には、「編集」画面が表示される。
 「編集」画面では、ユーザは、選択オブジェクトのオブジェクト情報(図67)に含まれるコメントを編集する操作を行うことができる。
 「編集」画面は、[登録]ボタンを有する。「編集」画面において、ユーザが、選択オブジェクトのオブジェクト情報に含まれるコメントを編集し、[登録]ボタンを操作すると、サーバ13では、オブジェクト情報(図67)に、コメントの編集結果が反映される。
 そして、表示部35の表示画面には、コメントの編集の完了を表す「登録完了」画面が表示される。
 "Time Lapse- Relation Record"画面において、ユーザが、ある生態系オブジェクトを、選択オブジェクトとして選択し、[消去]ボタンを操作すると、表示部35の表示画面には、「消去確認」画面が表示される。
 「消去確認」画面は、[消去]ボタンを有する。「消去確認」画面において、ユーザが、[消去]ボタンを操作すると、サーバ13では、選択オブジェクトのオブジェクト情報(図67)が消去される。
 そして、表示部35の表示画面には、オブジェクト情報の消去の完了を表す「消去完了」画面が表示される。
 「アクション一覧」画面において、[タスク生成]ボタンが操作されると、表示部35の表示画面には、「アイコン一覧」画面が表示される。
 「アイコン一覧」画面は、生態系構成物について行うことが可能なタスクに対応するボタンを有する。
 図72では、説明を簡単にするため、生態系構成物について行うことが可能なタスクとして、収穫及び伐採の2つのタスクが採用されており、「アイコン一覧」画面は、収穫を表す[Harvest]ボタンと、伐採を表す[Weed Control]ボタンとを有する。
 「アイコン一覧」画面において、ユーザが、[Harvest]ボタンを操作すると、表示部35の表示画面には、「指定」ボタンを有する「オブジェクト指定」画面が表示される。
 この「オブジェクト指定」画面では、[Harvest]ボタンに対応するタスクである収穫の対象となることが可能な生態系構成物を表す生態系オブジェクトが表示される。かかる「オブジェクト指定」画面において、ユーザが、生態系オブジェクトを選択し、「指定」ボタンを操作すると、表示部35の表示画面には、[登録]ボタンを有する「コメント編集」画面が表示される。
 この「コメント編集」画面では、ユーザは、「オブジェクト指定」画面で選択した生態系オブジェクトに対応付ける、[Harvest]ボタンに対応するタスクを表すタスクオブジェクト(以下、収穫オブジェクトともいう)に対するコメントを入力することができる。
 「コメント編集」画面において、ユーザが、収穫オブジェクトに対するコメントを入力し、[登録]ボタンを操作すると、サーバ13では、「オブジェクト指定」画面でユーザが選択した生態系オブジェクトのオブジェクト情報(図67)に、収穫オブジェクトと、ユーザが入力したコメントとが(追加)登録される。
 そして、表示部35の表示画面には、収穫オブジェクトの登録の完了を表す「登録完了」画面が表示される。
 この「登録完了」画面は、[完了]ボタンを有し、ユーザが、その[完了]ボタンを操作すると、表示部35の表示画面は、「アイコン一覧」画面に戻る。
 「アイコン一覧」画面において、ユーザが、[Weed Control]ボタンを操作すると、表示部35の表示画面には、「指定」ボタンを有する「オブジェクト指定」画面が表示される。
 この「オブジェクト指定」画面では、[Weed Control]ボタンに対応するタスクである伐採の対象となることが可能な生態系構成物を表す生態系オブジェクトが表示される。かかる「オブジェクト指定」画面において、ユーザが、生態系オブジェクトを選択し、「指定」ボタンを操作すると、表示部35の表示画面には、[登録]ボタンを有する「コメント編集」画面が表示される。
 この「コメント編集」画面では、ユーザは、「オブジェクト指定」画面で選択した生態系オブジェクトに対応付ける、[Weed Control]ボタンに対応するタスクを表すタスクオブジェクト(以下、伐採オブジェクトともいう)に対するコメントを入力することができる。
 「コメント編集」画面において、ユーザが、伐採オブジェクトに対するコメントを入力し、[登録]ボタンを操作すると、サーバ13では、「オブジェクト指定」画面でユーザが選択した生態系オブジェクトのオブジェクト情報(図67)に、伐採オブジェクトと、ユーザが入力したコメントとが(追加)登録される。
 そして、表示部35の表示画面には、伐採オブジェクトの登録の完了を表す「登録完了」画面が表示される。
 この「登録完了」画面は、[完了]ボタンを有し、ユーザが、その[完了]ボタンを操作すると、表示部35の表示画面は、「アイコン一覧」画面に戻る。
 「アクション一覧」画面において、[タスク一覧]ボタンが操作されると、表示部35の表示画面には、「登録タスク一覧」画面が表示される。
 「登録タスク一覧」画面には、「アクション一覧」画面の、[タスク生成]ボタンが操作されることにより登録されたタスクオブジェクトの一覧が、操作可能なボタンとして表示される。
 ここで、上述の「アイコン一覧」画面で説明したように、本実施の形態では、生態系構成物について行うことが可能なタスクとして、収穫及び伐採の2種類があり、その収穫や伐採を表すタスクオブジェクトは、上述の「オブジェクト指定」画面でユーザが選択した生態系オブジェクトに対応付けて登録される。
 「登録タスク一覧」画面では、以上のように、生態系オブジェクトに対応付けて登録された、収穫や伐採を表すタスクオブジェクトが、ボタンの形で表示される。
 収穫及び伐採を表すタスクオブジェクトのボタンを、便宜上、それぞれ、[Harvest]ボタン及び[Weed Control]ボタンという。
 「登録タスク一覧」画面において、ある[Harvest]ボタンが操作されると、表示部35の表示画面には、「収穫指示」画面が表示される。
 「収穫指示」画面では、「登録タスク一覧」画面で操作された[Harvest]ボタンが表す収穫について、例えば、図47で説明したような、収穫を表すタスクオブジェクトとしてのアイコンと、収穫の順番を表す矢印形状のアイコン等が表示され、これにより、収穫を、どの場所から開始し、どのような順番で行うべきかが、視覚的に提示される。
 なお、端末12で、上述の「アイコン一覧」の[Harvest]ボタンが操作されたときに表示される「オブジェクト指定」画面では、ユーザは、収穫の対象となる生態系構成物を表す生態系オブジェクトを選択するときに、あわせて、生態系構成物の収穫の順番を指定することができる。そして、サーバ13において、収穫の順番を表す矢印形状のアイコンは、ユーザが指定した生態系構成物の収穫の順番に応じて生成することができる。
 「収穫指示」画面では、収穫を表すタスクオブジェクトとしてのアイコンが、操作可能な[収穫アイコン]ボタンとして表示される。
 「収穫指示」画面において、ある[収穫アイコン]ボタンが操作されると、表示部36の表示画面には、「詳細」画面が表示される。
 「詳細」画面には、「収穫指示」画面で操作された[収穫アイコン]ボタンに対応するタスクオブジェクトが表す収穫の詳細情報が表示される。
 「詳細」画面に表示される収穫の詳細情報には、例えば、収穫すべき実(植生)の種名や、赤く熟した実から収穫し、青い未熟な実は残す等の、収穫すべき実の選定基準、すべての実を収穫せずに、自家採種用に2割だけ残す等の、他の作業との兼ね合い情報等が含まれる。
 これらの詳細情報は、例えば、上述の収穫オブジェクトに対するコメントを入力する「コメント編集」画面において、コメントとして入力することができる。
 「登録タスク一覧」画面において、ある[Weed Control]ボタンが操作されると、表示部35の表示画面には、「伐採指示」画面が表示される。
 「伐採指示」画面では、「登録タスク一覧」画面で操作された[Weed Control]ボタンが表す伐採について、例えば、伐採を表すタスクオブジェクトとしてのアイコンと、伐採の順番を表す矢印形状のアイコン等が表示され、これにより、伐採を、どの場所の草や木から開始し、どのような順番で行うべきかが、視覚的に提示される。
 なお、端末12で、上述の「アイコン一覧」の[Weed Control]ボタンが操作されたときに表示される「オブジェクト指定」画面では、ユーザは、伐採の対象となる生態系構成物を表す生態系オブジェクトを選択するときに、あわせて、生態系構成物の伐採の順番を指定することができる。そして、サーバ13において、伐採の順番を表す矢印形状のアイコンは、ユーザが指定した生態系構成物の伐採の順番に応じて生成することができる。
 「伐採指示」画面では、伐採を表すタスクオブジェクトとしてのアイコンが、操作可能な[伐採アイコン]ボタンとして表示される。
 「伐採指示」画面において、ある[伐採アイコン]ボタンが操作されると、表示部36の表示画面には、「詳細」画面が表示される。
 「詳細」画面には、「伐採指示」画面で操作された[伐採アイコン]ボタンに対応するタスクオブジェクトが表す伐採の詳細情報が表示される。
 「詳細」画面に表示される伐採の詳細情報には、例えば、伐採すべき実(植生)の種名や、根こそぎ排除するか、地表で刈るか、野菜の高さで刈るか等の、伐採の方法、その後にどのような植生戦略を行うか等の、他の作業との兼ね合い情報等が含まれる。
 これらの詳細情報は、例えば、上述の伐採オブジェクトに対するコメントを入力する「コメント編集」画面において、コメントとして入力することができる。
 「アクション一覧」画面において、[データインポート]ボタンが操作されると、表示部35の表示画面には、「インポートデータ一覧」画面が表示される。
 「インポートデータ一覧」画面には、協生農法(登録商標)CMS71以外のCMSで管理されているセンサデータの一覧と、[選択]ボタンとが表示される。
 「インポートデータ一覧」画面において、ユーザが、あるセンサデータを選択し、[選択]ボタンを操作すると、表示部35の表示画面には、[インポート]画面が表示される。
 そして、「インポートデータ一覧」画面でユーザが選択したセンサデータが、サーバ13のストレージ63のオブジェクトDBにインポートされる。
 「インポート」画面は、[次へ]ボタンを有し、この[次へ]ボタンが操作されると、表示部35の表示画面には、[登録データ一覧]画面が表示される。
 ここで、[登録データ一覧]画面は、「アクション一覧」画面において、[登録データ]ボタンが操作された場合にも表示される。
 [登録データ一覧]画面には、例えば、各圃場(の圃場名)と、[Nitric Acid]ボタン、[Electric Conductivity]ボタン、及び、[Soil Hardness]ボタンとが表示される。
 [登録データ一覧]画面において、ユーザが、ある圃場を選択し、[Nitric Acid]ボタンが操作すると、表示部35の表示画面には、硝酸濃度の「視覚データ表示」画面が表示される。
 硝酸濃度の「視覚データ表示」画面では、[登録データ一覧]画面でユーザが選択した圃場においてセンシングされた硝酸濃度のセンサデータ(のシンボル)が表示される。
 [登録データ一覧]画面において、ユーザが、ある圃場を選択し、[Electric Conductivity]ボタンが操作すると、表示部35の表示画面には、導電率の「視覚データ表示」画面が表示される。
 導電率の「視覚データ表示」画面では、[登録データ一覧]画面でユーザが選択した圃場においてセンシングされた導電率のセンサデータが表示される。
 [登録データ一覧]画面において、ユーザが、ある圃場を選択し、[Soil Hardness]ボタンが操作すると、表示部35の表示画面には、土壌硬度の「視覚データ表示」画面が表示される。
 土壌硬度の「視覚データ表示」画面では、[登録データ一覧]画面でユーザが選択した圃場においてセンシングされた土壌硬度のセンサデータが表示される。
 ここで、本明細書において、コンピュータ(CPU)がプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
 また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
 さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。すなわち、本技術は、協生農法(登録商標)の支援の他、一般の生態系マネージメントに適用することができる。
 さらに、例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
 また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 なお、本技術は、以下のような構成をとることができる。
 <1>
 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、
 前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示するとともに、前記タスクオブジェクトを前記背景空間内にAR表示する表示制御を行う表示制御部と
 を備える情報処理装置。
 <2>
 前記生態系オブジェクトには、所定のマーカ、又は、GPS(Global Positioning System)の位置情報が対応付けられ、
 前記表示制御部は、前記生態系オブジェクトを、前記背景空間内の、前記マーカを基準とする相対的な位置、又は、前記位置情報が表す位置に表示する表示制御を行う
 <1>に記載の情報処理装置。
 <3>
 前記背景空間は、現実の実空間、前記実空間を撮影した撮影実空間、又は、前記実空間をモデル化したVR(Virtual Reality)空間である
 <1>又は<2>に記載の情報処理装置。
 <4>
 前記生態系オブジェクト、又は、前記タスクオブジェクトは、ユーザの操作に応じて編集され、
 前記取得部は、編集後の前記生態系オブジェクト、及び、前記タスクオブジェクトを取得する
 <1>ないし<3>のいずれかに記載の情報処理装置。
 <5>
 前記生態系オブジェクトの編集として、1つの圃場の前記生態系オブジェクトの、他の圃場へのコピーが行われる
 <4>に記載の情報処理装置。
 <6>
 前記他の圃場にコピーされる前記生態系オブジェクトが表す生態系構成物について行うべきタスクを表すタスクオブジェクトが追加される
 <5>に記載の情報処理装置。
 <7>
 前記背景空間の表示スケールが変更可能である
 <1>ないし<6>のいずれかに記載の情報処理装置。
 <8>
 2以上の圃場の画像を、前記背景空間として、同時に表示可能である
 <1>ないし<7>のいずれかに記載の情報処理装置。
 <9>
 1つの前記マーカが、1つの圃場の一部又は全部の前記生態系オブジェクトに対応付けられる
 <2>に記載の情報処理装置。
 <10>
 異なる2つの前記マーカが、同一の前記生態系オブジェクトに対応付けられる
 <2>に記載の情報処理装置。
 <11>
 前記生態系オブジェクトに対応付けられる前記マーカは移動可能であり、
 前記生態系オブジェクトに対応付けられる前記マーカの移動後、前記生態系オブジェクトは、前記マーカの移動前と同一位置に表示される
 <2>に記載の情報処理装置。
 <12>
 前記表示制御部は、前記生態系オブジェクトを、1軸に沿って表示する表示制御を、さらに行う
 <1>ないし<11>のいずれかに記載の情報処理装置。
 <13>
 前記表示制御部は、前記生態系オブジェクトを、時間軸に沿って表示する表示制御を、さらに行う
 <12>に記載の情報処理装置。
 <14>
 前記生態系オブジェクトは、前記生態系構成物を撮影した写真、前記生態系構成物をセンシングすることにより得られるセンサデータを表すシンボル、又は、前記生態系構成物を表すアイコンである
 <1>ないし<13>のいずれかに記載の情報処理装置。
 <15>
 前記表示制御部は、圃場全体に関する前記生態系構成物を表す前記生態系オブジェクトを、固定の位置に表示する表示制御を、さらに行う
 <1>ないし<14>のいずれかに記載の情報処理装置。
 <16>
 前記生態系オブジェクトには、その生態系オブジェクトが表す前記生態系構成物に関連する関連情報がリンクされ、
 前記表示制御部は、前記関連情報を表示する表示制御を、さらに行う
 <1>ないし<15>のいずれかに記載の情報処理装置。
 <17>
 ユーザの熟練度に応じて、表示される前記生態系オブジェクト、又は、前記タスクオブジェクトが変更される
 <1>ないし<16>のいずれかに記載の情報処理装置。
 <18>
 前記生態系構成物には、圃場の危険なエリア、又は、警戒すべきエリアが含まれる
 <1>ないし<17>のいずれかに記載の情報処理装置。
 <19>
 複数のカテゴリの中から選択された1以上のカテゴリの前記生態系オブジェクトが表示される
 <1>ないし<18>のいずれかに記載の情報処理装置。
 <20>
 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得することと、
 前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示するとともに、前記タスクオブジェクトを前記背景空間内にAR表示する表示制御を行うこと
 を含む情報処理方法。
 <21>
 複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、
 前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示するとともに、前記タスクオブジェクトを前記背景空間内にAR表示する表示制御を行う表示制御部と
 して、コンピュータを機能させるためのプログラム。
 10 ネットワーク, 11 センサ装置, 12 端末, 13 サーバ, 21 無線中継装置, 22 無線LAN, 23 携帯電話網, 24 インターネット, 31 CPU, 32 メモリ, 33 ストレージ, 34 操作部, 35 操作部, 36 スピーカ, 37 カメラ, 38 マイク, 39 位置検出部, 40 通信部, 41 外部I/F, 42 ドライブ, 42A リムーバブル記録媒体, 43 センサ, 51 取得部, 52 表示制御部, 61 CPU, 62 メモリ, 63 ストレージ, 64 操作部, 65 表示部, 66 スピーカ, 67 通信部, 68 外部I/F, 69 ドライブ, 69A リムーバブル記録媒体, 71 協生農法(登録商標)CMS, 72 グラフ表示制御部, 73 生成部, 74 AR/VR表示制御部, 75 編集部, 76 解析部, 101ないし104 白菜, 105 ニラ, 106 ダイコン, 107 カリフラワー, 108 コマツナ, 109 ゴボウ, 110 ヨモギ群生地帯, 121 フラグ, 122ないし133 アイコン, 201 グラフ表示領域, 202 リスト表示領域, 211 俯瞰表示領域, 212 表示枠

Claims (20)

  1.  複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得する取得部と、
     前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示するとともに、前記タスクオブジェクトを前記背景空間内にAR表示する表示制御を行う表示制御部と
     を備える情報処理装置。
  2.  前記生態系オブジェクトには、所定のマーカ、又は、GPS(Global Positioning System)の位置情報が対応付けられ、
     前記表示制御部は、前記生態系オブジェクトを、前記背景空間内の、前記マーカを基準とする相対的な位置、又は、前記位置情報が表す位置に表示する表示制御を行う
     請求項1に記載の情報処理装置。
  3.  前記背景空間は、現実の実空間、前記実空間を撮影した撮影実空間、又は、前記実空間をモデル化したVR(Virtual Reality)空間である
     請求項1に記載の情報処理装置。
  4.  前記生態系オブジェクト、又は、前記タスクオブジェクトは、ユーザの操作に応じて編集され、
     前記取得部は、編集後の前記生態系オブジェクト、及び、前記タスクオブジェクトを取得する
     請求項1に記載の情報処理装置。
  5.  前記生態系オブジェクトの編集として、1つの圃場の前記生態系オブジェクトの、他の圃場へのコピーが行われる
     請求項4に記載の情報処理装置。
  6.  前記他の圃場にコピーされる前記生態系オブジェクトが表す生態系構成物について行うべきタスクを表すタスクオブジェクトが追加される
     請求項5に記載の情報処理装置。
  7.  前記背景空間の表示スケールが変更可能である
     請求項1に記載の情報処理装置。
  8.  2以上の圃場の画像を、前記背景空間として、同時に表示可能である
     請求項1に記載の情報処理装置。
  9.  1つの前記マーカが、1つの圃場の一部又は全部の前記生態系オブジェクトに対応付けられる
     請求項2に記載の情報処理装置。
  10.  異なる2つの前記マーカが、同一の前記生態系オブジェクトに対応付けられる
     請求項2に記載の情報処理装置。
  11.  前記生態系オブジェクトに対応付けられる前記マーカは移動可能であり、
     前記生態系オブジェクトに対応付けられる前記マーカの移動後、前記生態系オブジェクトは、前記マーカの移動前と同一位置に表示される
     請求項2に記載の情報処理装置。
  12.  前記表示制御部は、前記生態系オブジェクトを、1軸に沿って表示する表示制御を、さらに行う
     請求項1に記載の情報処理装置。
  13.  前記表示制御部は、前記生態系オブジェクトを、時間軸に沿って表示する表示制御を、さらに行う
     請求項12に記載の情報処理装置。
  14.  前記生態系オブジェクトは、前記生態系構成物を撮影した写真、前記生態系構成物をセンシングすることにより得られるセンサデータを表すシンボル、又は、前記生態系構成物を表すアイコンである
     請求項1に記載の情報処理装置。
  15.  前記表示制御部は、圃場全体に関する前記生態系構成物を表す前記生態系オブジェクトを、固定の位置に表示する表示制御を、さらに行う
     請求項1に記載の情報処理装置。
  16.  前記生態系オブジェクトには、その生態系オブジェクトが表す前記生態系構成物に関連する関連情報がリンクされ、
     前記表示制御部は、前記関連情報を表示する表示制御を、さらに行う
     請求項1に記載の情報処理装置。
  17.  ユーザの熟練度に応じて、表示される前記生態系オブジェクト、又は、前記タスクオブジェクトが変更される
     請求項1に記載の情報処理装置。
  18.  前記生態系構成物には、圃場の危険なエリア、又は、警戒すべきエリアが含まれる
     請求項1に記載の情報処理装置。
  19.  複数のカテゴリの中から選択された1以上のカテゴリの前記生態系オブジェクトが表示される
     請求項1に記載の情報処理装置。
  20.  複数種類の植生が混生する圃場の生態系を構成する生態系構成物を表す生態系オブジェクト、及び、前記生態系構成物について行うタスクを表すタスクオブジェクトを取得することと、
     前記生態系オブジェクトを、前記生態系構成物の現実の位置に対応する、所定の背景空間内の位置にAR(Augmented Reality)表示するとともに、前記タスクオブジェクトを前記背景空間内にAR表示する表示制御を行うこと
     を含む情報処理方法。
PCT/JP2016/077941 2015-10-08 2016-09-23 情報処理装置、及び、情報処理方法 WO2017061281A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017544447A JP6834966B2 (ja) 2015-10-08 2016-09-23 情報処理装置、及び、情報処理方法、並びにプログラム
EP16853435.2A EP3361448B1 (en) 2015-10-08 2016-09-23 Information processing device and information processing method
US15/765,042 US11058065B2 (en) 2015-10-08 2016-09-23 Information processing device and information processing method
US17/369,786 US11793119B2 (en) 2015-10-08 2021-07-07 Information processing device and information processing method
US18/364,152 US20230380349A1 (en) 2015-10-08 2023-08-02 Information processing device and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-199862 2015-10-08
JP2015199862 2015-10-08

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/765,042 A-371-Of-International US11058065B2 (en) 2015-10-08 2016-09-23 Information processing device and information processing method
US17/369,786 Continuation US11793119B2 (en) 2015-10-08 2021-07-07 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
WO2017061281A1 true WO2017061281A1 (ja) 2017-04-13

Family

ID=58487611

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077941 WO2017061281A1 (ja) 2015-10-08 2016-09-23 情報処理装置、及び、情報処理方法

Country Status (4)

Country Link
US (3) US11058065B2 (ja)
EP (1) EP3361448B1 (ja)
JP (3) JP6834966B2 (ja)
WO (1) WO2017061281A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198316A1 (ja) * 2017-04-28 2018-11-01 株式会社オプティム 農業生産工程管理(gap)対応情報提供システム、方法及びプログラム
KR20200046381A (ko) * 2018-10-24 2020-05-07 디에스글로벌 (주) 위치정보 및 시간정보 기반의 ar 컨텐츠 제공 방법 및 시스템
WO2021177186A1 (ja) 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2021176892A1 (ja) 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2021141855A (ja) * 2020-03-12 2021-09-24 本田技研工業株式会社 情報処理装置、情報提供システムおよび情報処理方法
US11212954B2 (en) * 2019-05-08 2022-01-04 Deere & Company Apparatus and methods for field operations based on historical field operation data
WO2023002658A1 (ja) * 2021-07-20 2023-01-26 ソニーグループ株式会社 プログラム、情報処理装置、及び、情報処理方法
WO2023157687A1 (ja) * 2022-02-21 2023-08-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2023190916A1 (ja) * 2022-03-30 2023-10-05 都市緑地株式会社 仮想空間の農園を介する生産者/販売者との交流方法、サーバ装置及び農園関連商品と仮想空間の連携システム
WO2024135338A1 (ja) * 2022-12-23 2024-06-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2024154382A1 (ja) * 2023-01-16 2024-07-25 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017061281A1 (ja) 2015-10-08 2017-04-13 ソニー株式会社 情報処理装置、及び、情報処理方法
CN113574538A (zh) * 2019-03-07 2021-10-29 立体修剪股份公司 用于辅助植物修剪的系统和方法
US11270189B2 (en) * 2019-10-28 2022-03-08 International Business Machines Corporation Cognitive decision platform for honey value chain
EP4175459A1 (en) * 2020-07-03 2023-05-10 Signify Holding B.V. Methods and systems for determining the growth stage of a plant
US20230046882A1 (en) * 2021-08-11 2023-02-16 Deere & Company Obtaining and augmenting agricultural data and generating an augmented display
KR20240023297A (ko) * 2022-08-11 2024-02-21 붐앤드림베케이션 주식회사 메타 시공간 제품좌표 생성장치 기반의 메타 시공간 제품 매매장치 및 방법, 메타 시공간 제품 검색 및 접속장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013230088A (ja) * 2012-04-27 2013-11-14 Mitsubishi Electric Corp 農業用管理システム
WO2014007109A1 (ja) * 2012-07-04 2014-01-09 ソニー株式会社 農作業支援装置および方法、プログラム、記録媒体、並びに農作業支援システム

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699244A (en) * 1994-03-07 1997-12-16 Monsanto Company Hand-held GUI PDA with GPS/DGPS receiver for collecting agronomic and GPS position data
US5566069A (en) * 1994-03-07 1996-10-15 Monsanto Company Computer network for collecting and analyzing agronomic data
US5721679A (en) * 1995-12-18 1998-02-24 Ag-Chem Equipment Co., Inc. Heads-up display apparatus for computer-controlled agricultural product application equipment
US20060106539A1 (en) * 2004-11-12 2006-05-18 Choate Paul H System and method for electronically recording task-specific and location-specific information, including farm-related information
EP2391881B1 (en) 2009-02-02 2023-07-05 Planetary Emissions Management System of systems for monitoring greenhouse gas fluxes
US8830267B2 (en) * 2009-11-16 2014-09-09 Alliance For Sustainable Energy, Llc Augmented reality building operations tool
CA3108569A1 (en) * 2010-10-05 2012-04-12 Bayer Cropscience Lp A system and method of establishing an agricultural pedigree for at least one agricultural product
US8511936B2 (en) * 2010-12-02 2013-08-20 Rensselaer Polytechnic Institute Method and apparatus for coastline remediation, energy generation, and vegetation support
US8694454B2 (en) * 2011-02-17 2014-04-08 Superior Edge, Inc. Methods, apparatus and systems for generating, updating and executing a vegetation control plan
US8721337B2 (en) * 2011-03-08 2014-05-13 Bank Of America Corporation Real-time video image analysis for providing virtual landscaping
US10699222B2 (en) * 2011-04-15 2020-06-30 Basf Agro Trademarks Gmbh Visual information system and computer mobility application for field personnel
WO2013030965A1 (ja) * 2011-08-30 2013-03-07 富士通株式会社 撮影装置、撮影支援プログラム、情報提供方法、および情報提供プログラム
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device
US8957916B1 (en) * 2012-03-23 2015-02-17 Google Inc. Display method
US8761811B2 (en) * 2012-04-27 2014-06-24 Oracle International Corporation Augmented reality for maintenance management, asset management, or real estate management
KR20130132050A (ko) * 2012-05-25 2013-12-04 한국전자통신연구원 농업용 환경제어 시스템을 위한 플랫폼 장치
US10520482B2 (en) * 2012-06-01 2019-12-31 Agerpoint, Inc. Systems and methods for monitoring agricultural products
US20130321245A1 (en) * 2012-06-04 2013-12-05 Fluor Technologies Corporation Mobile device for monitoring and controlling facility systems
US9113590B2 (en) * 2012-08-06 2015-08-25 Superior Edge, Inc. Methods, apparatus, and systems for determining in-season crop status in an agricultural crop and alerting users
US9129429B2 (en) * 2012-10-24 2015-09-08 Exelis, Inc. Augmented reality on wireless mobile devices
WO2014100502A1 (en) * 2012-12-19 2014-06-26 Alan Shulman Methods and systems for automated micro farming
US20140200690A1 (en) * 2013-01-16 2014-07-17 Amit Kumar Method and apparatus to monitor and control conditions in a network - integrated enclosed ecosytem for growing plants
JP6059027B2 (ja) * 2013-01-21 2017-01-11 株式会社クボタ 農作業機と農作業管理プログラム
WO2014146046A1 (en) * 2013-03-15 2014-09-18 Alain Poivet Intelligent energy and space management
US9552675B2 (en) * 2013-06-03 2017-01-24 Time Traveler App Llc Display application and perspective views of virtual space
JP5825328B2 (ja) * 2013-11-07 2015-12-02 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
US10068354B2 (en) * 2014-01-02 2018-09-04 Deere & Company Obtaining and displaying agricultural data
CA2932744A1 (en) * 2014-01-08 2015-07-16 Precisionhawk Inc. Method and system for generating augmented reality agricultural presentations
JP6265027B2 (ja) * 2014-04-22 2018-01-24 富士通株式会社 表示装置、位置特定プログラム、および位置特定方法
US9996976B2 (en) * 2014-05-05 2018-06-12 Avigilon Fortress Corporation System and method for real-time overlay of map features onto a video feed
US20150325047A1 (en) * 2014-05-06 2015-11-12 Honeywell International Inc. Apparatus and method for providing augmented reality for maintenance applications
AR101678A1 (es) 2014-09-11 2017-01-04 Sony Corp Dispositivo de procesamiento de información, método de procesamiento de información y medio de almacenamiento legible por computadora no transitorio de almacenamiento de programa
EP3193303B1 (en) * 2014-09-11 2024-01-31 Sony Group Corporation System and method for generating a relationship graphs
US9652840B1 (en) * 2014-10-30 2017-05-16 AgriSight, Inc. System and method for remote nitrogen monitoring and prescription
US9667710B2 (en) * 2015-04-20 2017-05-30 Agverdict, Inc. Systems and methods for cloud-based agricultural data processing and management
JP6357140B2 (ja) * 2015-09-18 2018-07-11 Psソリューションズ株式会社 画像判定方法
WO2017061281A1 (ja) 2015-10-08 2017-04-13 ソニー株式会社 情報処理装置、及び、情報処理方法
US10628895B2 (en) * 2015-12-14 2020-04-21 The Climate Corporation Generating digital models of relative yield of a crop based on nitrate values in the soil
US10331931B2 (en) * 2016-02-05 2019-06-25 The Climate Corporation Modeling trends in crop yields

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013230088A (ja) * 2012-04-27 2013-11-14 Mitsubishi Electric Corp 農業用管理システム
WO2014007109A1 (ja) * 2012-07-04 2014-01-09 ソニー株式会社 農作業支援装置および方法、プログラム、記録媒体、並びに農作業支援システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018198316A1 (ja) * 2017-04-28 2018-11-01 株式会社オプティム 農業生産工程管理(gap)対応情報提供システム、方法及びプログラム
KR20200046381A (ko) * 2018-10-24 2020-05-07 디에스글로벌 (주) 위치정보 및 시간정보 기반의 ar 컨텐츠 제공 방법 및 시스템
KR102199686B1 (ko) 2018-10-24 2021-01-07 디에스글로벌(주) 위치정보 및 시간정보 기반의 ar 컨텐츠 제공 방법 및 시스템
US11212954B2 (en) * 2019-05-08 2022-01-04 Deere & Company Apparatus and methods for field operations based on historical field operation data
US11825761B2 (en) 2019-05-08 2023-11-28 Deere & Company Apparatus and methods for field operations based on historical field operation data
WO2021177186A1 (ja) 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
WO2021176892A1 (ja) 2020-03-06 2021-09-10 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2021141855A (ja) * 2020-03-12 2021-09-24 本田技研工業株式会社 情報処理装置、情報提供システムおよび情報処理方法
JP7337011B2 (ja) 2020-03-12 2023-09-01 本田技研工業株式会社 情報処理装置、情報提供システムおよび情報処理方法
WO2023002658A1 (ja) * 2021-07-20 2023-01-26 ソニーグループ株式会社 プログラム、情報処理装置、及び、情報処理方法
WO2023157687A1 (ja) * 2022-02-21 2023-08-24 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2023190916A1 (ja) * 2022-03-30 2023-10-05 都市緑地株式会社 仮想空間の農園を介する生産者/販売者との交流方法、サーバ装置及び農園関連商品と仮想空間の連携システム
WO2024135338A1 (ja) * 2022-12-23 2024-06-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2024154382A1 (ja) * 2023-01-16 2024-07-25 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム

Also Published As

Publication number Publication date
JP7060119B2 (ja) 2022-04-26
EP3361448B1 (en) 2023-09-06
US20180271027A1 (en) 2018-09-27
US11793119B2 (en) 2023-10-24
JP2022120848A (ja) 2022-08-18
US11058065B2 (en) 2021-07-13
EP3361448A1 (en) 2018-08-15
US20210329846A1 (en) 2021-10-28
US20230380349A1 (en) 2023-11-30
JP7405179B2 (ja) 2023-12-26
JPWO2017061281A1 (ja) 2018-08-30
JP6834966B2 (ja) 2021-02-24
EP3361448A4 (en) 2019-02-20
JP2021073616A (ja) 2021-05-13

Similar Documents

Publication Publication Date Title
JP7060119B2 (ja) 情報処理装置、及び、情報処理方法、情報処理システム、並びにプログラム
JP6512463B2 (ja) 農作業支援方法、農作業支援システム、およびプログラム
WO2016039176A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2016039174A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
US20140009600A1 (en) Mobile device, computer product, and information providing method
WO2016039175A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
Wyckhuys et al. Influence of extra-field characteristics to abundance of key natural enemies of Spodoptera frugiperda Smith (Lepidoptera: Noctuidae) in subsistence maize production
Mohapatra et al. NRRI'riceXpert'APP: TAKING RICE TECHNOLOGIESIN THE DOORSTEP OF FARMERS
Rajasekaran et al. Intelligent smart farming and crop visualization
Lalrochunga et al. GIS-Based Image Processing for Farmland Site Selection: An Eastern Himalayan Region Perspective
ELLIOTT MICHAEL J. BREWER, 1 TAKUJI NOMA1 AND

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16853435

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017544447

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15765042

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016853435

Country of ref document: EP