WO2023144899A1 - 携帯情報端末及び情報処理方法 - Google Patents

携帯情報端末及び情報処理方法 Download PDF

Info

Publication number
WO2023144899A1
WO2023144899A1 PCT/JP2022/002740 JP2022002740W WO2023144899A1 WO 2023144899 A1 WO2023144899 A1 WO 2023144899A1 JP 2022002740 W JP2022002740 W JP 2022002740W WO 2023144899 A1 WO2023144899 A1 WO 2023144899A1
Authority
WO
WIPO (PCT)
Prior art keywords
cultivation area
cultivation
area
information
cultivated
Prior art date
Application number
PCT/JP2022/002740
Other languages
English (en)
French (fr)
Inventor
眞弓 中出
保 伊藤
康宣 橋本
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to PCT/JP2022/002740 priority Critical patent/WO2023144899A1/ja
Publication of WO2023144899A1 publication Critical patent/WO2023144899A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining

Definitions

  • the present invention relates to the setting of the type of plant to be cultivated and the place to cultivate the plant, and relates to a mobile information terminal that provides information for supporting the setting and an information processing method used therefor.
  • Patent Document 1 is a method for displaying shadows.
  • Patent Literature 1 discloses a shade distribution map creating apparatus that shades the head of a passerby based on solar position information, three-dimensional map information, and the like.
  • Patent Document 1 the shade distribution in a certain target area at a certain time is displayed on a map.
  • a large target area is assumed, and shade for a small piece of land such as a home garden is not considered.
  • the aforementioned Patent Document 1 is a technique for displaying the shade distribution on a map, and does not consider how the shade distribution affects the cultivation of plants. Specifically, in a small area included in a region, shade formed by obstacles that block sunlight, such as structures such as houses, fences, and roofs that exist near the cultivation area, such as around the cultivation area Considering the above, no mention is made of proposing what kind of plants should be cultivated in the cultivation area or how to select the cultivation area for cultivating the plants.
  • a mobile information terminal includes a position information acquisition unit that acquires position information of a cultivated land, a photographed data acquisition unit that acquires photographed data near the cultivated land photographed by a photographing unit, and Obtained based on the feature information of the obstacles included in the photographed data calculated using the obstacles included in the photographed data and the distance to the obstacle measured by the detection unit, and the position information of the cultivated land. Cultivation for calculating a shaded area formed by the obstacle based on the information indicating the transition of the sun, and estimating the cultivation land environment including the sunshine condition of the cultivated land based on the calculated shaded area.
  • a portable information terminal comprising a plant recommendation processing unit and a recommended plant output unit that presents the output recommended plant to a user.
  • a mobile information terminal includes a position information acquisition unit that acquires position information of a cultivated land, and a photographed data acquisition unit that acquires photographed data of the vicinity of the cultivated land photographed by a photographing unit. , based on the feature information of the obstacles included in the photographed data calculated using the obstacles included in the photographed data and the distance to the obstacle measured by the detection unit, and the position information of the cultivated land Based on the obtained information indicating the transition of the sun, a shaded area formed by the obstacle is calculated, and based on the calculated shaded area, the cultivated land environment including the sunshine condition of the cultivated land is estimated.
  • a cultivation area environment information processing unit for processing the estimated cultivation area environment, and information about the growth environment of plants in the cultivation area, the cultivation area specified by the user from among the cultivation areas in which the cultivation area environment is estimated.
  • a recommended cultivation area output unit for presenting the output recommended cultivation area to a user. It is configured as a portable information terminal.
  • the present invention it is possible to support the setting of the types of plants to be cultivated, taking into consideration the influence of shade formed by obstacles blocking sunlight near the cultivation area.
  • FIG. 1 is an external view showing an example of an HMD used in Example 1.
  • FIG. 2 is a system configuration diagram showing an internal configuration example of the HMD of Example 1.
  • FIG. 3 is a functional block diagram showing an example of functional block configuration in Embodiment 1.
  • FIG. 1 is a diagram of a cultivation area assumed in Example 1.
  • FIG. 4 is a flowchart of cultivation plant selection support processing in Example 1.
  • FIG. 4 is a flowchart of a subroutine cultivation area environment information processing in Embodiment 1.
  • FIG. 4 is a table showing an example of cultivation area environment information in Example 1.
  • FIG. 4 is a flowchart of a subroutine cultivated plant recommendation process in Example 1.
  • FIG. 10 is a diagram showing a display example of presenting a recommended plant name together with a recommendation degree.
  • FIG. 10 is a diagram for explaining an example of displaying recommended plants by designating a plant cultivation area;
  • FIG. 4 is a diagram for explaining a display example of an AR object;
  • FIG. FIG. 14 is a diagram showing an AR object display example in a state where the plant in FIG. 13 has grown;
  • FIG. 11 is a functional block diagram showing an example of functional block configuration in Embodiment 2; 10 is a flow chart of cultivation area selection support processing in Example 2.
  • FIG. 10 is a flowchart of a subroutine cultivation area recommendation process in Example 2.
  • FIG. 10 is a diagram for explaining how a user designates a plant and presents a recommended cultivation area;
  • FIG. 10 is a diagram for explaining how a user designates a plant and presents a recommended cultivation area (when it is not in sight).
  • FIG. 10 is a diagram for explaining how a user designates a plant and presents a recommended cultivation area (when it is not in sight).
  • FIG. 11 is a schematic diagram for explaining the outline of Example 4;
  • FIG. 11 is an external view showing an example of a smart phone used in Example 4;
  • a processor may be the subject of the processing to perform the processing while appropriately using storage resources (eg, memory) and/or interface devices (eg, communication ports).
  • storage resources eg, memory
  • interface devices eg, communication ports
  • a main body of processing executed by executing a program may be a controller having a processor, a device, a system, a computer, or a node.
  • the main body of the processing performed by executing the program may be an arithmetic unit, and may include a dedicated circuit (for example, FPGA (Field-Programmable Gate Array) or ASIC (Application Specific Integrated Circuit)) that performs specific processing. .
  • a dedicated circuit for example, FPGA (Field-Programmable Gate Array) or ASIC (Application Specific Integrated Circuit)
  • a program may be installed on a device such as a computer from a program source.
  • the program source may be, for example, a program distribution server or a computer-readable storage medium.
  • the program distribution server may include a processor and storage resources for storing the distribution target program, and the processor of the program distribution server may distribute the distribution target program to other computers.
  • two or more programs may be implemented as one program, and one program may be implemented as two or more programs.
  • FIG. 1 is a schematic diagram for explaining the outline of this embodiment.
  • the user 10 wears a glasses-shaped transmissive HMD (Head Mounted Display) 1, which is a mobile information terminal, on the front of the head (eyeglasses wearing position).
  • HMD Head Mounted Display
  • FIG. 1 schematically shows a state in which a user 10 wears an HMD 1 and investigates the environmental conditions of a cultivated land (land for cultivating plants) which is a corner lot composed of a fence 12A and a fence 12B. It is a diagram.
  • the global position (latitude, longitude) of the cultivation area 11 and the physical environment near the cultivation area 11 are being investigated.
  • obstacles that block sunlight such as structures such as houses, fences, and roofs that exist near the cultivation area, such as around the cultivation area 11 and around the cultivation area 11, are exemplified as obstacles that block sunlight.
  • the physical environment may include, but is not limited to, various objects that block sunlight.
  • the term “near” includes synonyms such as “near” and "periphery” in addition to "around” and “periphery”.
  • Such surveys can provide information about the environment of the cultivated land.
  • the HMD 1 is also connected via an access point 15 to a network 17 to which a network server 16 is connected.
  • the network server 16 includes a network server that performs various arithmetic processing by a processor, a network server that stores various data, and the like, and can be used by the HMD 1 as necessary.
  • FIG. 2 is an external view showing an example of the HMD 1 used in this embodiment.
  • a display screen 75 is configured at the left and right lens positions of the glasses, and a right camera 711 is arranged at the end of the right lens position of the glasses, and a left camera 712 is arranged at the end of the left lens position of the glasses.
  • the transmissive HMD 1 of this embodiment can visually recognize the real space through the transmissive display screen 75 .
  • the display screen 75 can display augmented reality AR (Augmented Reality) objects. Therefore, the wearer (user 10) of the HMD 1 can visually recognize both the augmented reality AR object displayed on the display screen 75 and the situation in the real space at the same time.
  • augmented reality AR Augmented Reality
  • microphones are not shown, they are arranged near the right camera 711 and near the left camera 712 .
  • a right speaker 821 and a left speaker 822 are arranged at portions corresponding to the tendrils of the glasses.
  • a control device such as a circuit of the HMD 1 is divided and stored in the right housing 121 and the left housing 122 .
  • FIG. 3 is a diagram showing an example of the hardware configuration of the HMD 1 in this embodiment.
  • a main body of the HMD 1 is composed of various hardware described below.
  • the HMD 1 is composed of a CPU 2, a system bus 3, a memory memory 4, a sensor 5, a communication interface (I/F) 6, a video I/F 7, an audio I/F 8, and an operation I/F 9.
  • the CPU2 is a microprocessor unit that controls the entire HMD1 according to a predetermined operating program.
  • the system bus 3 is a data communication path for transmitting and receiving various commands and data between the CPU 2 and each component block within the HMD 1 .
  • the memory memory 4 is used for a program 41 for controlling the operation of the HMD 1, various data 42 such as objects including operation setting values, detection values from sensors, contents, library information downloaded from a library, and operation of various programs. It consists of a rewritable work area 43 .
  • the memory 4 can store an operation program downloaded from a network, various data created by the operation program, and the like. In addition, it is possible to store content such as moving images, still images, and audio downloaded from the network. In addition, it is possible to store data such as moving images and still images taken using the shooting function of the camera. In addition, the memory 4 can store necessary information (set values such as threshold values, image data, etc.) in advance.
  • the memory 4 must retain stored information even when the HMD 1 is not supplied with power from the outside. Therefore, for example, devices such as semiconductor element memories such as flash ROMs and SSDs (Solid State Drives), and magnetic disk drives such as HDDs (Hard Disc Drives) are used.
  • semiconductor element memories such as flash ROMs and SSDs (Solid State Drives), and magnetic disk drives such as HDDs (Hard Disc Drives) are used.
  • HDDs Hard Disc Drives
  • a sensor 5 is a sensor group of various sensors for detecting the state of the HMD 1 .
  • the sensor 5 includes a GPS (Global Positioning System) receiving sensor 51 , a geomagnetic sensor 52 , an acceleration sensor 53 , a gyro sensor 54 and a distance sensor 55 . These sensors make it possible to detect the position, tilt, direction, movement, etc. of the HMD 1 . Also, the distance sensor 55 measures the distance between the HMD 1 and obstacles, and the physical environment around the HMD 1 can be grasped. Furthermore, the HMD 1 may be provided with other sensors such as an illuminance sensor, an altitude sensor, and the like.
  • the communication I/F 6 is composed of a LAN (Local Area Network) communication I/F 61 and a telephone network communication I/F 62 .
  • LAN Local Area Network
  • the LAN communication I/F 61 is connected to a network network 17 such as the Internet via the access point 15 or the like, and transmits and receives data to and from each network server 16 on the Internet network.
  • the connection with the access point 15 or the like is performed by wireless connection such as Wi-Fi (registered trademark).
  • the telephone network communication I/F 62 performs telephone communication (call) and data transmission/reception through wireless communication with the base station of the mobile telephone communication network.
  • Communication with a base station or the like may be performed by the LTE (Long Term Evolution) method, the 5G method (the 5th generation mobile communication system aiming at high-speed, large-capacity, low-delay, and multiple simultaneous connections), or other communication methods. .
  • LTE Long Term Evolution
  • 5G method the 5th generation mobile communication system aiming at high-speed, large-capacity, low-delay, and multiple simultaneous connections
  • the LAN communication I/F 61 and telephone network communication I/F 62 each include an encoding circuit, a decoding circuit, an antenna, and the like. Furthermore, the communication I/F 6 may further include other communication units such as an infrared communication unit.
  • the video I/F 7 is composed of an imaging I/F 71 and a display I/F 72.
  • the imaging I/F 71 uses electronic devices such as CCD (Charge Coupled Device) and CMOS (Complementary Metal Oxide Semiconductor) sensors to convert the light input from the lens into an electrical signal, thereby obtaining image data of nearby objects and obstacles.
  • the input camera In this embodiment, it is composed of a right camera 711 and a left camera 712 .
  • the display I/F 72 is, for example, a transmissive display device using translucent liquid crystal, configures a display screen 75 , and provides the user 10 of the HMD 1 with AR objects, incidental information, and the like.
  • the audio I/F 8 consists of an audio input I/F 81 and an audio output I/F 82
  • the audio input I/F 81 is a microphone that converts sounds in the real space, user's voice, etc. into audio data and inputs them.
  • microphones are arranged near the right camera 711 and the left camera 712, respectively.
  • the audio output I/F 82 is a speaker that outputs audio information necessary for the user.
  • earphones and headphones can also be connected, and it goes without saying that they can be used properly depending on the application.
  • a right speaker 821 and a left speaker 822 are arranged at positions close to the user's ears.
  • the operation input I/F 9 is an interface for inputting operation instructions, requests, and the like to the HMD 1 .
  • an application that inputs an operation instruction by detecting a line of sight, a motion of a finger or the like, an application that inputs an operation instruction based on the voice input by the voice input I / F 82, etc. have been conventionally used.
  • Various known techniques may be used.
  • various input devices may be used without being limited to applications.
  • the hardware configuration example of the HMD 1 shown in FIG. 3 includes many configurations that are not essential to this embodiment, but even if these are not provided, the effects of this embodiment will not be impaired. no. Further, a configuration not shown, such as an electronic money settlement function, may be added.
  • FIG. 4 is a functional block diagram showing an example of the functional block configuration of the HMD 1 of this embodiment.
  • the control unit 21 controls the HMD 1 as a whole. As shown in FIG. 3, the control unit 21 is mainly composed of a CPU 2, a program 41 in the memory 4, and a work area 43. As shown in FIG.
  • the communication processing unit 22 performs communication processing for connecting to the network 17 by the LAN communication I/F 61 of the communication I/F 6 and the telephone network communication I/F 62 of the communication I/F 6.
  • the communication processing unit 22 can connect to various network servers 16 via the network 17 to obtain predetermined data.
  • the position information acquisition unit 23 acquires the global position (latitude and longitude) of the main body of the HMD 1 using the GPS reception sensor 51 of the sensor 5 .
  • the position information storage unit 24 stores the information on the global position (latitude and longitude) of the main body of the HMD 1 acquired by the position information acquisition unit 23 as various data 42 in the memory 4 . From the position information (latitude and longitude) indicating the global position, it is possible to know the time and direction of sunrise, the time and direction of sunset, and the time and elevation of mid-century.
  • the photographed data acquisition unit 25 photographs the vicinity of the cultivated land 11 and acquires photographed data of obstacles that block the sunlight using the imaging I/F 71 (right camera 711, left camera 712) of the video I/F 7.
  • the photographed data acquisition unit 25 performs stereo photography with the right camera 711 and the left camera 712, and acquires the photographed data as three-dimensional video data or image data.
  • the photographed data includes images photographed by the cameras described above.
  • the fences 12A and 12B correspond to obstacles that block sunlight.
  • the obstacle information storage unit 26 stores the photographed data acquired by the photographed data acquisition unit 25 as various data 42 in the memory 4 .
  • the cultivation area environment information processing unit 27 estimates the environmental information of the cultivation area 11 . The details of the cultivation area environment information processing will be described later.
  • the cultivation area environment information storage unit 28 stores the cultivation area environment information obtained by the cultivation area environment information processing unit 27 as various data 42 in the memory 4 .
  • the cultivation area environment information output unit 29 displays the cultivation area environment information stored by the cultivation area environment information storage unit 28 on the display I/F 72 of the video I/F 7 in response to a request from the user 10 .
  • the cultivated plant recommendation processing unit 30 recommends plants that can be cultivated in the cultivation area 11.
  • the recommended plant output unit 31 displays the recommended plants obtained by the cultivated plant recommendation processing unit 30 on the display I/F 72 (specifically, the display screen 75) of the image I/F 7 in response to a request from the user 10. .
  • the AR object display unit 32 displays an augmented reality AR object on the display screen 75 .
  • the AR object display unit 32 allows the wearer (user 10) of the HMD 1 to view both the augmented reality AR object displayed on the display screen 75 and the real space situation at the same time.
  • the AR object is assumed to be a plant to be cultivated.
  • FIG. 5 shows a home building 111, a fence 112 surrounding the home building 111 (in this embodiment, for the sake of simplicity of explanation, a fence made of a mesh fence that has little effect of blocking sunlight is used), and the home building 111.
  • 11 is a schematic diagram schematically showing a cultivated area 113 (113A to 113D) existing between a fence 112 and a fence 112.
  • FIG. 1 it is assumed that the influence of shade by the home building 111 is large, but the influence of shade by the fence 112 is small.
  • the east side cultivation area (cultivation area B) 113B existing between the east side 111B of the home building 111 and the east side fence 112B a certain amount of sunlight can be expected in the morning and daytime, but in the evening, the east side of the home building 111.
  • the influence of shade by the portion 111B is large.
  • the south side cultivation area (cultivation area C) 113C existing between the south side 111C of the home building 111 and the south side fence 112C is less affected by the shade from the south side portion 111C of the home building 111 than the other cultivation areas. .
  • the west side cultivation area (cultivation area D) 113D existing between the west side fence 112D can expect a certain amount of sunshine hours during the day and in the evening, but in the morning on the west side of the house building 111.
  • the influence of shade by the portion 111D is large.
  • Each of these cultivation areas has different sunlight conditions, so it is necessary to take this into consideration when selecting plants to cultivate.
  • FIG. 6 is a flow chart showing the steps of the cultivated plant selection support process ( S400 ) for supporting the selection of plants to be cultivated in this embodiment.
  • the control unit 21 determines whether or not environmental information regarding all cultivated areas (four places in this embodiment) has been stored ( S402).
  • the cultivated land is recognized as cultivated land by the user 10 and is included in the photographed data photographed by the photographed data acquisition unit 25 using the imaging I/F 71 of the video I/F 7 .
  • the imaging I/F 71 of the video I/F 7 it is assumed that there are four cultivated areas 11 in the home building 111 of the user 10, but an arbitrary location photographed by the imaging I/F 71 of the video I/F 7 is specified using the operation input I/F 9. You may select and memorize the place as a cultivation area.
  • control unit 21 determines in the determination process of S402 that the environmental information regarding all cultivated areas has been stored (S402; Yes), it proceeds to the cultivated area selection process (S403) for selecting a cultivated area.
  • control unit 21 determines in the determination process of S402 that the environmental information regarding all cultivated areas has not been stored (S402; No)
  • the control unit 21 proceeds to a subroutine of cultivated area environment information processing ( S420 ).
  • the cultivation area environment information processing ( S420 ) is a process of acquiring information on the plant environment (sunshine hours, amount of precipitation, etc.) in the selected cultivation area.
  • S420 cultivation area environment information processing
  • FIG. 7 is a flow chart showing the processing procedure of the cultivation area environment information processing ( S420 ), which is a subroutine.
  • the cultivation area environment information processing unit 27 reads the cultivation area environment information processing program stored as the program 41 in the memory 4 and sequentially executes it.
  • the cultivation land environment information processing unit 27 selects a cultivation land for which no cultivation land environment information is stored (S422).
  • the cultivation area environment information will be described later with reference to FIG. 10 .
  • the cultivated land environment information processing unit 27 reads the global position (latitude and longitude) of the cultivated land acquired by the position information acquisition unit 23 from the GPS receiving sensor 51, and stores it in the position information storage unit 24 (S423). .
  • the purpose is to obtain the global position (latitude and longitude) of the cultivated area.
  • the difference between the position of the cultivated land and the position of HMD 1 is within the margin of error. Therefore, hereinafter, the global position (latitude/longitude) of the HMD 1 is substituted for the global position (latitude/longitude) of the cultivation area.
  • the cultivated land environment information processing unit 27 acquires the azimuth and elevation angle of the sun at the global position (latitude and longitude) of the cultivated land acquired in S423 (S424).
  • the cultivation area environment information processing unit 27 uses information on the sun at an arbitrary point (sunrise time and direction, sunset time and direction, mid-century Information such as time and altitude (elevation angle) indicating the transition of the position of the sun at the point in a day) is read, and the position of the point is obtained from the read information as the global position of the cultivation area.
  • the information obtained from the network server 16 and the global position (latitude/longitude) of the cultivated land acquired in S423 may not necessarily match.
  • the position of the point closest to the global position of the cultivated land is acquired, and the azimuth and elevation of the sun at the global position of the cultivated land are estimated from the acquired position.
  • a conventionally known technique may be used for the estimation method.
  • other network servers can also be used.
  • the imaging data acquisition unit 25 acquires necessary imaging data (obstacle imaging data) by imaging the vicinity of the cultivated land (S425).
  • the cultivation area environment information processing unit 27 determines whether or not there is an obstacle blocking sunlight (S426).
  • the cultivation area environment information processing unit 27 analyzes the image of the photographed data acquired by the photographed data acquisition unit 25 to determine the presence or absence of the obstacle.
  • the obstacle obtained as a result of the judgment can be regarded as an obstacle that blocks sunlight.
  • the cultivation area environment information processing unit 27 determines in the obstacle presence/absence determination processing (S426) that there is no obstacle blocking the sunlight (S426; No)
  • the process proceeds to the processing for estimating the sunshine duration (S429). .
  • the cultivation area environment information processing unit 27 determines that there is an obstacle blocking the sunlight in the obstacle presence/absence determination process (S426) (S426; Yes), the position and size of the obstacle are calculated and stored. (S427).
  • the cultivation area environment information processing unit 27 uses the obstacles included in the photographed data determined in S426 and the distance to the obstacles measured by the distance sensor 55 of the sensor 5 to determine the obstacles included in the photographed data. Feature information related to obstacles such as the position (arrangement) and size of objects is calculated.
  • the home building 111 is assumed as an obstacle blocking sunlight. Therefore, the imaging I/F 71 of the video I/F 7 stereo-photographs the obstacle (home building 111), and the distance sensor 55 of the sensor 5 measures the distance to the obstacle (home building 111). (home building 111) is converted into three dimensions, and the position and size are calculated.
  • the cultivation area environment information processing unit 27 calculates a sunshine area that is not affected by the obstacle (home building 111) of the position and size calculated in S427 (S428).
  • the altitude (elevation angle) of the sun will be briefly explained.
  • Fig. 8 is a schematic diagram showing the altitude (elevation angle) of the sun during the mid-summer and winter solstices.
  • the altitude (elevation angle) 101A of the sun 100A at the summer solstice (June 21) is 77.8 degrees
  • the altitude (elevation angle) 101B of the sun 100B is 30.9 degrees (2021).
  • a shade distance 103 by an obstacle 102 (height H) blocking sunlight can be obtained by the following equation.
  • the shade distances at the summer and winter solstice along the shape of the obstacle (home building 111)
  • the area where the sun shines other than the shade area in the calculated cultivated land is set as the desired sunshine area (area where the sun shines).
  • the home building 111 has no eaves, but if there is an eaves as an obstacle, it naturally affects the sunshine area.
  • FIG. 9 is a schematic diagram showing how the sun shines at the middle of the summer and winter solstice when the obstacle has a canopy 104 (height H from the ground).
  • An altitude (elevation angle) 101A of the sun 100A at the summer solstice and an altitude (elevation angle) 101B of the sun 100B at the winter solstice are the same as in FIG.
  • a distance 105 where the sun shines due to the eaves 104 (height H), which is an obstacle blocking sunlight, can be obtained in the same manner as in FIG.
  • the distance that the sun shines in any season can be calculated in the same way.
  • the distance that the sun shines during the summer solstice and winter solstice along the shape of the eaves of the obstacle the shadow area and the sunshine area during the summer solstice and winter solstice that are affected by the obstacle formed by the eaves are calculated. can do.
  • the cultivation area environment information processing unit 27 estimates the sunshine duration at the global position (latitude and longitude) of the cultivation area acquired in S423 (S429).
  • the sunshine duration in clear weather is 14 hours and 35 minutes (sunrise time is 4:25, sunset time is 19:00), and the sunshine duration in clear weather during the winter solstice is 9 hours and 45 minutes (sunrise time is 6:47, sunset time). 16:32), and the sunshine duration in fine weather in any season including the vernal equinox and the autumnal equinox can be similarly calculated.
  • the cultivation area environment information processing unit 27 obtains necessary weather information from the network server 16 via the network 17 .
  • the monthly average values (temperature, total precipitation for a month, wind speed/maximum wind direction, total hours of sunshine for a month) at any point published on the various data and materials websites of the Japan Meteorological Agency , total solar radiation, etc.), and obtains various average values related to the weather from the read information.
  • Various average values as of 2021 indicate average values for the past 30 years from 1991 to 2020.
  • the information obtained from the network server 16 and the global position (latitude/longitude) of the cultivated land obtained in S423 may not necessarily match.
  • the sunshine duration may be estimated from the position closest to the global position of the cultivated area.
  • other network servers can also be used.
  • the cultivation area environment information processing unit 27 estimates the change in the amount of sunshine hours in the cultivation area, taking into consideration the shaded areas from obstacles in the cultivation area and the total number of hours of sunshine in a month. It is necessary to select cultivable plants in consideration of the environmental conditions of each cultivation area.
  • the cultivation area environment information processing unit 27 acquires the amount of precipitation, wind speed, and wind direction at the global position (latitude/longitude) of the cultivation area acquired in S423 (S430).
  • the cultivation area environment information processing unit 27 reads various data and information listed on the website of the Japan Meteorological Agency, and acquires information on the total amount of precipitation for a month, wind speed, and maximum wind direction.
  • the information obtained from the Japan Meteorological Agency and the above website may not necessarily match the global position (latitude and longitude) of the cultivated area obtained in S423.
  • the precipitation amount and the wind speed/direction may be estimated from the position closest to the global position of the cultivation area.
  • the network server 16 or the like can also be used.
  • the cultivation area environment information processing unit 27 estimates the amount of rainfall per month at the global position (latitude and longitude) of the cultivation area acquired in S423 (S431). If there are no obstacles (eaves of buildings, eaves, etc.) that affect the amount of rainfall in the cultivation area, the cultivation area environment information processing unit 27 uses the total amount of precipitation for the month acquired in S430 as it is in the cultivation area. It is applied as monthly rainfall. In addition, when there are obstacles (building eaves, eaves, etc.) that affect the amount of rainfall in the cultivation area, the maximum wind direction and average monthly wind speed are taken into account when estimating the amount of rainfall.
  • the cultivation land environment information processing unit 27 determines that the cultivation land 113A shown in FIG. It is considered that the home building 111 shields the wind and rain to a certain extent. Therefore, in such a case, the cultivation area environment information processing unit 27 multiplies the total amount of rainfall for one month by a predetermined percentage (for example, 90%) as the amount of precipitation for one month in the cultivation area. Just guess.
  • a predetermined percentage for example, 90%
  • the cultivation area environment information processing unit 27 determines whether or not acquisition of environmental information regarding all cultivation areas has been completed (S432).
  • the cultivation area environment information processing unit 27 determines in the judgment process of S432 that the acquisition of the environmental information regarding all cultivation areas has not been completed (S432; No), it returns to the cultivation area selection process of S422.
  • the cultivation area environment information processing unit 27 determines that the acquisition of the environment information regarding all cultivation areas has been completed (S432; Yes)
  • the cultivation area environment information storage unit 28 stores the Environmental information is stored (S433).
  • the subroutine of the cultivation area environment information processing ( S420 ) is completed (S434).
  • a cultivation area environment information table is created to grasp the environmental conditions of each cultivation area.
  • the cultivation area environment information table is generated by executing the cultivation area environment information processing shown in FIG. 7 by the cultivation area environment information processing unit 27 .
  • FIG. 10 is a table ( T840 ) showing an example of cultivated land environment information stored in this embodiment.
  • the cultivated land environment information table ( T840 ) in FIG. 10 consists of cultivated land identification items 850 and environment information comparison items 860.
  • the cultivation area identification item 850 indicates each of the four cultivation areas (cultivation area A851, cultivation area B852, cultivation area C853, cultivation area D854).
  • the environmental information comparison item 860 includes position information 861 indicating the global position (latitude and longitude) of each cultivated land (positional information related to the cultivated land stored in the position information storage unit 24), and obstacles blocking sunlight.
  • Obstacle information 862 indicating information (position, size) (obstacle information related to cultivated land stored in the obstacle information storage unit 26), summer solstice indicating sunshine area (summer solstice) under the influence of obstacles Sunshine area 863, winter solstice sunshine area 864 indicating the sunshine area (winter solstice) due to the influence of obstacles, sunshine hours 865 indicating the estimated total sunshine hours (for one month), sunshine conditions in each cultivated land (morning, It is composed of a sunshine condition feature 866 indicating characteristics of sunshine conditions during the daytime and evening), a rainfall amount 867 indicating an estimated value of the total amount of precipitation (for one month), and the like.
  • the cultivation area environment information processing unit 27 determines that the sunshine duration is equal to or greater than a predetermined threshold value TH1 and that a certain amount of sunshine or more can be expected as the sunshine condition feature 866, the cultivation area environment information processing unit 27 identifies " ⁇ " to that effect. set.
  • the cultivation area environment information processing unit 27 determines that the sunshine duration is equal to or greater than a predetermined threshold TH2 which is smaller than the predetermined threshold TH1, and is less than the predetermined threshold TH1, and the sunshine is less than a certain degree and expected to be somewhat expected.
  • the identification information " ⁇ " indicating that is set.
  • the identification information " x” are stored in association with information relating to time zones of the day, such as early morning, daytime, and evening.
  • the information about the time period is, for example, "morning" from sunrise time to a predetermined time (e.g. 10:00 am), and from the predetermined time to a predetermined time (e.g. 3:00 pm) after the Midsummer Time may be defined as "daytime” and "evening" from a predetermined time that has passed after the mid-century time to the sunset time.
  • the cultivation area environment information table ( T840 ) can be presented to the user 10 by the cultivation area environment information output unit 29 . Also, the cultivated land environment information table ( T840 ) can be stored in the network server 16 via the network 17 .
  • the control unit 21 receives selection of the cultivation area to be cultivated from the user 10 ( S403 ).
  • a cultivated plant recommendation process ( S440 ), which is a defined process (subroutine), is performed.
  • the processing (cultivated plant recommendation processing) of S440 which is a subroutine, will be described.
  • FIG. 11 is a flow chart showing the process procedure of the subroutine plant recommendation process ( S440 ). The description of the processing procedure in FIG. 11 will be made with reference to the functional block diagram in FIG.
  • the cultivated plant recommendation processing unit 30 reads out the cultivated plant recommendation processing program stored as the program 41 in the memory 4 and sequentially executes them.
  • the cultivated plant recommendation processing unit 30 reads the cultivated plant environment information table ( T840 ), the environment information of the cultivated land (the cultivated land selected in S403) is obtained (S442).
  • the cultivated plant recommendation processing unit 30 investigates cultivable plants that match the conditions of the cultivated land environment information based on the cultivated land environmental information of the cultivated land selected in the cultivated land selection process (S403) (S443). ).
  • necessary information plants that can be cultivated that match the conditions of the cultivation area environment information
  • the cultivated plant recommendation processing unit 30 includes information on plants published on various data and material websites of the Ministry of the Environment, botanical gardens, etc., and information on sunshine hours, sunshine hours, and precipitation suitable for cultivating the plants (for example, , and information on the growth of plants such that they grow even with an annual rainfall of X mm or less and are resistant to drying) are acquired in association with each other.
  • the cultivated plant recommendation processing unit 30 compares the information acquired from the network server 16 with the cultivation area environment information table (T840 ) shown in FIG.
  • a plant that satisfies the condition that the value of the environmental information comparison item 860 matches (or is close to a certain degree) is read from the information obtained from the network server 16 .
  • the cultivated plant recommendation processing unit 30 uses the result obtained by semantically analyzing the information on the growth and the environment information stored in the cultivation area environment information table ( T840 ).
  • the value included in the comparison item 860 may be determined by determining the degree of semantic similarity.
  • the recommended plant output unit 31 presents (recommends) the cultivable plants obtained in the cultivable plant investigation process (S443) to the user 10 (S444).
  • FIG. 12A is a schematic diagram showing a state in which the user 10 visually recognizes, through the HMD 1, the corner lot of the cultivated land D (113D) composed of the fence 112A on the north side and the fence 112D on the west side.
  • the recommended plant output unit 31 displays the presented (recommended) plant name along with the degree of recommendation on the display screen 75 of the HMD 1 worn by the user 10 .
  • the degree of recommendation may be determined, for example, in descending order of the degree of matching between the value of the environmental information comparison item 860 examined in S443 by the cultivated plant recommendation processing unit 30 and the information acquired from the network server 16 .
  • the recommended plant output unit 31 selects the best plant to grow in the cultivation area D where the sun shines in the afternoon.
  • Kashiwaba Hydrangea which is characterized by scalloped leaves, is recommended with the highest recommendation level A.
  • the recommended plant output unit 31 recommends, as a recommendation level B, Asebi which prefers a slightly dark environment and blooms small flowers like clusters.
  • the recommended plant output unit 31 recommends, as a recommendation degree C, foxgloves, which have bell-shaped spike-like flowers, although their heat resistance is somewhat poor.
  • the degree of recommendation is indicated by the degree of recommendation ABC, but it goes without saying that the degree of recommendation can also be displayed in terms of %, character size, thickness, color, etc. .
  • Plants such as Aoki, Shaga, Janohige, Shuukaodou, etc. are suitable for the dark shaded areas of cultivation area A.
  • Plants such as impatiens, ajiyuga, and astilbe are suitable for the brightly shaded areas of cultivation area A.
  • Plants such as Fatsia, Sigitaris, Ajiyuga, and Achilles are suitable for Cultivation Area B, where the sun shines in the morning.
  • Plants such as gazania, lantana, morning glory, pentas, etc. are suitable for sunny cultivation area C.
  • Plants such as Kashiwaba Hydrangea, Asebi, and Digitalis are suitable for Cultivation Area D, where the sun shines in the afternoon.
  • FIG. 12B is a diagram for explaining how the user designates the cultivated area shown in FIG. 12A and the recommended plants are presented.
  • the user 10 visually recognizes the cultivation area through the display screen 75 of the HMD1.
  • the user 10 is shown visually recognizing the cultivated areas 113C and 113D through the display screen 75 .
  • the user 10 moves the plant through the operation input I/F 9 by, for example, tracing his or her finger F on the display screen 75. Decide where you want to grow.
  • the user designates a range R on the display screen by tracing the visually recognized cultivated land 113D with the finger F.
  • FIG. 12B is a diagram for explaining how the user designates the cultivated area shown in FIG. 12A and the recommended plants are presented.
  • the user 10 visually recognizes the cultivation area through the display screen 75 of the HMD1.
  • the user 10 is shown visually recognizing the cultivated areas 113C and 113D through the display screen 75 .
  • the user 10 moves the plant through the operation input I/F
  • the recommended plant output unit 31 Upon receiving the designation of the range R on the display screen 75, the recommended plant output unit 31 recognizes the range R as a user-desired place for cultivating plants. In this example, the recommended plant output unit 31 recognizes that the cultivation area specified by the user 10 is the cultivation area 113D.
  • the recommended plant output unit 31 displays the location R' of the cultivated land 113D corresponding to the range R on the display screen 75. Furthermore, the recommended plant output unit 31 selects a plant that satisfies the condition that the value of the environmental information comparison item 860 for the cultivation area 113D obtained from the network server 16 matches (or is close to a certain degree) as a recommended plant, It is displayed in a region r near the range R on the display screen 75 .
  • the correspondence between the range R on the display screen 75 and the location R' of the cultivated land 113D may be, for example, as follows.
  • the recommended plant output unit 31 reads the photographed data of the right camera 711 and the left camera 712, and the global position (latitude and longitude) of the main body of the HMD 1 acquired by the GPS receiving sensor 51, and reads the read HMD. It is determined whether or not the global position (latitude and longitude) of one main body is close to (or matches with) the position information 861 of the cultivation area environment information table ( T840 ).
  • the video or image currently displayed on the display screen 75 is stored in the cultivated land environment information table ( T840 ). (in this case, the cultivated area 113D).
  • the display screen 75 representing the cultivated land 113D stored in advance in association with the position information 861 is displayed.
  • the above position object is read out and displayed on the display screen 75 as a location R' of the cultivated land 113D corresponding to the range R described above.
  • the position object is determined in advance so as to have a size corresponding to the size of the cultivated land.
  • the recommended plant output unit 31 places the cultivated land 113D associated with the position information 861 in the area r near the location R' of the cultivated land 113D corresponding to the range R on the display screen 75, and the network Plants that satisfy the condition of matching (or close to a certain degree) the value of the environmental information comparison item 860 acquired from the server 16 are displayed in descending order of recommendation.
  • the lower part of FIG. 12B shows that Zinnia and Kalanchoe are displayed as recommended plants to be cultivated in the cultivation area 113D as a result of such processing.
  • the recommended plant output unit 31 performs such processing in real time. Therefore, for example, when the user 10 is looking at the cultivated land 113D in the state shown in the lower part of FIG. However, if the user moves his/her head or shakes his/her head so that the display screen 75 includes the entire place R' of the cultivated land 113D, the recommended plant output unit 31 , the location R′ of the cultivated land 113D is updated, and the range R′′ not included in the display screen 75 is also displayed on the display screen 75. Thereby, the entire position object can be displayed on the display screen 75, and as a result, the user 10 can grasp the extent of the cultivated land 113D.
  • the recommended plant output unit 31 receives selection of a preferred plant from the presented (recommended) cultivable plants from the user 10 (S404).
  • the user 10 can also select multiple plants.
  • the recommended plant output unit 31 determines whether there is an AR object display request (S405).
  • the AR object is displayed by the AR object display unit 32 (S406).
  • the AR object display unit 32 displays an AR object that predicts how the plant will grow for the plant selected by the user 10 .
  • the cultivated plant selection support process ( S400 ) for supporting cultivated plants ends ( S407 ).
  • FIG. 13 is a diagram schematically showing an example of executing the process of displaying an AR object (S406) in the process procedure of FIG.
  • FIG. 13 is a diagram showing a display example when the AR object 13 is displayed on the display screen 75 in the schematic diagram of FIG.
  • the plants selected in the cultivable plant selection process in S404 are turned into AR objects by the AR object display unit 32 and displayed as AR objects 13 in the cultivation area 11 on the display screen 75.
  • FIG. 13 schematically shows the AR object 13 displayed on the display screen 75 of the HMD 1 when the recommended plant output unit 31 receives from the user 10 designation of "sunflower" around the end of May.
  • the user 10 can visually determine that the AR object 13 ("sunflower" around the end of May) has large leaves and growing stems, but is far from flowering. .
  • FIG. 14 schematically shows the AR object 14 displayed on the display screen 75 of the HMD 1 when the recommended plant output unit 31 receives from the user 10 a specification of "sunflower" around mid-July.
  • the user 10 can visually determine that the AR object 14 ("sunflower" around mid-July) has blossomed and grown to a sufficient size (1 meter in height). can.
  • the AR object can take into account the degree of growth of the plant and display it as a plant (size and shape corresponding to the season) that matches the degree of growth in the season. can visually judge the growth state of plants.
  • information about the degree of growth of plants is obtained from the network server 16 via the network 17.
  • the recommended plant output unit 31 accesses a growing season table 1601 stored in the network server 16 for each plant, which associates the growing season of a plant with an object representing the characteristics of the plant in that growing season.
  • the recommended plant output unit 31 identifies the growing season table 1601 for plants corresponding to the plant specified by the user 10 .
  • the recommended plant output unit 31 selects a season including the season specified by the user 10 (for example, the season “late May”) from the specified growing season table 1601, and selects an object corresponding to the selected season. (eg, object ⁇ , AR object 13) is displayed on the display screen 75 of the HMD 1.
  • the objects for example, the object ⁇ , the AR object 14
  • the display of the HMD 1 is changed. displayed on the screen 75.
  • the recommended plant output unit 31 outputs support information (ideal watering, fertilizer, disease, pest, soil, planting, replanting, how to grow, etc.) may be presented.
  • support information ideal watering, fertilizer, disease, pest, soil, planting, replanting, how to grow, etc.
  • these supporting information are obtained by using the plant (for example, the type of plant) included in the information on the growing environment as a key. It may be obtained from various data/material websites of the Ministry of the Environment, botanical gardens, etc., the network server 16, or the like.
  • the cultivated plant recommendation processing unit 30 determines whether or not the time measured by the timer provided in the HMD 1 (not shown) reaches a predetermined time (for example, a user-desired time such as 10:00 am or 3:00 pm). However, when it is determined that the time has come, the recommended plant output unit 31 may display a message to that effect on the display screen 75 of the HMD 1 (the watering time has come, etc.). As a result, support using a timer (recommended watering times, times, etc.) can be performed. Information about the support using the timer can be obtained from the website or the network server 16 via the network 17 in the same way as the support information described above.
  • the position information acquisition unit (for example, the position information acquisition unit 23) that acquires the position information of the cultivated land and the above-described image captured by the photographing unit (for example, the right camera 711 and the left camera 712)
  • a photographed data acquisition unit (for example, a photographed data acquisition unit 25) that acquires photographed data in the vicinity of the cultivated land, and the obstacles included in the photographed data and the obstacles measured by the detection unit (for example, the distance sensor 55).
  • Obstacle characteristic information for example, the position (arrangement) and size of the obstacle, etc.
  • Obstacle characteristic information included in the photographing data calculated using the distance to the sun obtained based on the position information of the cultivation area calculating a shaded area formed by the obstacle based on the information indicating the transition of the cultivation area, and estimating the cultivated area environment including the sunshine status of the cultivated area based on the calculated shaded area.
  • An information processing unit for example, the cultivated land environment information processing unit 27
  • the estimated cultivated land environment for example, and information on the growing environment of cultivated plants (for example, sunlight hours suitable for plant cultivation obtained from the network server 16
  • a cultivated plant recommendation processing unit for example, a cultivated plant recommendation processing unit 30
  • a recommended plant output unit for example, recommended plant output unit 31
  • it is possible to understand the environmental conditions that affect the cultivation of plants in one's own garden and to provide support for setting the types of plants to be cultivated in places suitable for the environmental conditions from candidate sites for cultivation. can.
  • the cultivated plant recommendation processing unit calculates the degree of matching between the cultivated land environment and the growing environment, and the recommended plant output unit calculates The recommended plants are output in descending order of the degree of matching. Therefore, even a user who has no knowledge about plants can cultivate plants suitable for the environment of the cultivation area.
  • an object display unit for example, an AR object display unit 32. Therefore, the user can intuitively grasp how plants to be cultivated grow in each season.
  • the object display unit changes the object displayed on the screen according to the growing season specified by the user. Therefore, the user can intuitively grasp the plants that grow in accordance with the season by switching the display of the above objects at desired timing.
  • the recommended plant output unit outputs support information necessary for cultivating the plant determined according to the recommended plant (for example, the timing of watering the plant). ), are presented in association with the above recommended plants. Therefore, even a user who does not have knowledge about plants can cultivate plants suitable for the environment of the cultivation area while receiving support as to how to cultivate the plants.
  • Example 2 The basic hardware configuration and software configuration of Example 2 are the same as those of Example 1 described above, and the differences between this example (Example 2) and the above-described example (Example 1) will be described below. Main points will be explained, and common parts will be omitted as much as possible to avoid duplication.
  • Example 1 the purpose was to select plants that are suitable for the cultivation area, but in this example, the purpose is to select a cultivation area that is suitable for the plants to be cultivated. This embodiment will be described below.
  • FIG. 15 is a functional block diagram showing an example of the functional block configuration of the HMD 1 of this embodiment.
  • the functional block of FIG. 15 has functions overlapping with those of the functional block of FIG. 33 and a recommended cultivation area output unit 34 are added.
  • the added cultivation area recommendation processing unit 33 and recommended cultivation area output unit 34 will be described.
  • the cultivation area recommendation processing unit 33 extracts and recommends the optimum (or cultivable) cultivation area for the cultivated plants that the user 10 wants to cultivate.
  • the recommended cultivation area output unit 34 presents the cultivation area recommended by the cultivation area recommendation process to the user 10 .
  • FIG. 16 is a flow chart showing the steps of the cultivation area selection support process ( S460 ) in this embodiment.
  • the processing procedure of the cultivation area selection support processing ( S460 ) in FIG. 16 will be described with reference to the functional block diagram of FIG. 15 .
  • the flowchart showing the procedures of the cultivation area selection support process ( S460 ) in FIG. 16 includes the same process as the flowchart showing the procedures of the cultivated plant selection support process ( S400 ) in FIG. 6 .
  • the difference is that the cultivation area selection process ( S403 ), subroutine cultivation plant recommendation process ( S440 ), and cultivable plant selection process (S404) in the cultivated plant selection support process (S400) of FIG.
  • the support process ( S460 ) is replaced with a cultivated plant designation process (S463), a subroutine cultivation area recommendation process ( S480 ), and a cultivation area selection process (S464).
  • the processing of each of these steps is the processing after the acquisition of the cultivation area environment information is completed, and the processing before the AR object display request judgment processing.
  • the difference from Example 1 is due to the difference in selecting the cultivated plant or the cultivation area.
  • the control unit 21 Upon completion of acquisition of the cultivation area environment information in S420, the control unit 21 accepts designation of plants to be cultivated from the user 10 (S463).
  • the designated plant is a user-desired plant to be cultivated in a cultivation area at an arbitrary location photographed by the imaging I/F 71 of the video I/F 7 .
  • FIG. 17 is a flow chart showing the procedure of the cultivation area recommendation process ( S480 ), which is a subroutine. The description of the processing procedure in FIG. 17 will be made with reference to the functional block diagram in FIG.
  • the cultivation area recommendation processing unit 33 reads the cultivation area recommendation processing program stored as the program 41 in the memory 4 and sequentially executes the programs.
  • the cultivated area recommendation processing unit 33 investigates the growing environment of the cultivated plant specified by the user 10 (S483).
  • the information about the growing environment of the designated cultivated plant is obtained from the network server 16 via the network 17 .
  • the cultivation area recommendation processing unit 33 includes information on plants published on various data and material websites of the Ministry of the Environment, botanical gardens, etc., and information on sunshine hours and sunshine hours suitable for cultivating the plants, and precipitation (for example, , and information on the growth of plants such that they grow even with an annual rainfall of X mm or less and are resistant to drying) are acquired in association with each other.
  • precipitation for example, , and information on the growth of plants such that they grow even with an annual rainfall of X mm or less and are resistant to drying
  • the cultivation area recommendation processing unit 33 compares the information about these growing environments acquired from the network server 16 with the cultivation area environment information table ( T840 ) shown in FIG. Regarding the matching method, for example, the results obtained by semantically analyzing the information about the growing environment by the cultivation area recommendation processing unit 33 and the environment stored in the cultivation area environment information table ( T840 ). The value contained in the information comparison item 860 may be determined by judging the degree of semantic similarity. Then, the cultivation area recommendation processing unit 33 reads the cultivation area that satisfies the condition that it matches (or is close to) the acquired information on the growth environment from the cultivation area environment information table ( T840 ).
  • the recommended cultivation area output unit 34 presents cultivation areas that can be cultivated (S484), and ends the cultivation area recommendation process ( S480 ) (S485).
  • cultivable cultivation area presentation process of S484 several cultivation areas can be ranked and presented (recommended) according to the degree of suitability for the plant.
  • D (113D) is presented as a sub.
  • FIG. 18A is a diagram for explaining how the user designates a plant and presents a recommended cultivation area.
  • the cultivation area recommendation processing unit 33 recognizes the voice of the type of plant uttered by the user 10, or the video or image of the actual plant captured by the user 10 using the right camera 711 or the left camera 712. A case where is recognized will be described as an example.
  • it demonstrates on the premise that the recommended place which grows a plant is in the field of view of the user 10.
  • the user 10 visually recognizes the cultivation area through the display screen 75 of the HMD1.
  • the user 10 is shown visually recognizing the cultivated areas 113C and 113D through the display screen 75 .
  • the cultivated area recommendation processing unit 33 stores the information about the growing environment acquired from the network 16 in descending order of values and contents in the cultivated area environment information table ( T840 ). Read the growing area.
  • the information stored in the cultivation area environment information table ( T840 ) as the cultivation area 113C is closest to the information regarding the growing environment obtained from the network 16 in value and content. Therefore, the recommended cultivation area output unit 34 displays the recommendation degree (88%) in the region rs1 near the location S1 corresponding to the cultivation area 113C on the display screen 75 as the recommendation order 1.
  • the area rs2 in the vicinity of the location S2 corresponding to the cultivation area 113D on the display screen 75 on the display screen 75 is assigned a recommendation degree (70%) as the recommendation order 2. is displayed.
  • the degree of recommendation can be calculated, for example, from the degree of matching between the information stored in the cultivation area environment information table ( T840 ) as the cultivation area 113C and the information regarding the growing environment obtained from the network 16, and , as in the case of the first embodiment, may be displayed in other forms of expression.
  • FIG. 18A describes the case where the recommended place for plant cultivation is within the field of view of the user 10 .
  • a cultivation area with a high degree of recommendation exists in the direction in which the user 10 is located.
  • the cultivation area 113B cannot be directly confirmed.
  • the recommended cultivation area output unit 34 stores the recommended cultivation area environment information table ( T840 ) in an area on the display screen 75 where the recommended order and location are not displayed.
  • An overall object SZ that overlooks the entire cultivated area including the positions of all the cultivated areas is displayed.
  • the overall object may be stored in advance, or may be generated from the position information 861 of the cultivation area environment information table ( T840 ) when the recommended cultivation area output unit 34 displays the overall object on the display screen 75. You may also, instead of the entire object SZ, a previously stored photographic image of the entire cultivation area may be displayed.
  • the recommended cultivation area output unit 34 displays the recommendation degree (88%) as the recommendation order 1 in the region rs1 near the location S1 on the entire object SZ corresponding to the cultivation area 113B.
  • the positional relationship between the cultivated regions is determined from the positional information 861 of all the cultivated regions stored in the cultivated region environment information table ( T840 ). Since it can be calculated, it can be determined based on such information. As a result, the user can easily grasp the location of the cultivation area with the highest degree of recommendation that the user cannot directly visually recognize.
  • the recommended cultivation area output unit 34 may notify the user 10 of the existence of highly recommended cultivation areas in another format when the recommended location for cultivating plants is not within the field of view of the user 10 .
  • FIG. 18C is a diagram showing an example of a screen that presents the user 10 with a recommended place for cultivating a plant that is out of sight of the user 10 .
  • the recommended cultivation area output unit 34 causes the cultivation area recommendation processing unit 33 to generate a cultivation area 113B (FIG. 18C) that is not in the vicinity of the cultivation area 113D visually recognized by the user 10, as in the case of FIG. 18B.
  • the recommended cultivated land output unit 34 displays an arrow indicating position information such as its direction.
  • the identification information SA is displayed on the display screen 75 .
  • the recommended cultivation area output unit 34 displays the recommendation level (88%) for the cultivation area with the highest recommendation level in the area rs1 near the identification information. Thereby, the user can easily grasp in which direction the cultivation area with the highest degree of recommendation is located. Also, by moving the head or shaking the head in the direction indicated by the identification information, the cultivation area with the highest degree of recommendation can be displayed on the display screen 75 .
  • the recommended cultivation area output unit 34 displays the display shown in FIG. 18C. It may be displayed by switching to the screen. As a result, the user can intuitively grasp that the cultivation area with the highest degree of recommendation is approaching, and since the entire object SZ is no longer displayed on the display screen 75, the actual landscape is displayed. The area is larger than in FIG. 12B, making it easier to grasp the surrounding situation.
  • the recommended cultivation area output unit 34 may display the current position on the display screen 75 from the position information 861 . As a result, the position of the cultivated land can be accurately grasped.
  • the processing after S464 is the same as the cultivated plant selection support processing ( S400 ) in FIG. 6, so the explanation here is omitted, but the cultivable plant can be read as the cultivated area and executed.
  • the user 10 can select the cultivation area for his/her favorite plants, so that the plant cultivation support system can be made closer to the taste of the user 10.
  • support information (ideal watering, fertilizer, disease, pests, soil, planting, replanting, how to propagate, planting, replanting, growing method, etc.) is performed in the same manner as in the case of the first embodiment for the plant selected and designated by the user 10 . etc.) may be presented.
  • the recommended cultivation area output unit 34 presents support information related to the cultivation area necessary for cultivating the plant (information for soil preparation such as moisture content and soil temperature suitable for cultivation, etc.).
  • this support information is obtained by using the cultivation area (for example, the type of soil) included in the information concerning the cultivation environment as a key. , the Ministry of the Environment, Botanical Gardens, etc., various data/material websites, the network server 16, and the like. Also, as in the case of the first embodiment, support using a timer may be executed.
  • the position information acquisition unit (for example, the position information acquisition unit 23) that acquires the position information of the cultivated land and the above-described image captured by the photographing unit (for example, the right camera 711 and the left camera 712)
  • a photographed data acquisition unit (for example, a photographed data acquisition unit 25) that acquires photographed data in the vicinity of the cultivated land, and the obstacles included in the photographed data and the obstacles measured by the detection unit (for example, the distance sensor 55).
  • Obstacle characteristic information for example, the position (arrangement) and size of the obstacle, etc.
  • Obstacle characteristic information included in the photographing data calculated using the distance to the sun obtained based on the position information of the cultivation area calculating a shaded area formed by the obstacle based on the information indicating the transition of the cultivation area, and estimating the cultivated area environment including the sunshine status of the cultivated area based on the calculated shaded area.
  • An information processing unit for example, the cultivated land environment information processing unit 27
  • the estimated cultivated land environment for example, information suitable for plant cultivation obtained from the network server 16
  • information on sunshine hours, sunshine hours, and amount of rainfall for example, information suitable for plant cultivation obtained from the network server 16
  • a cultivated area recommended for cultivating the plant specified by the user is output.
  • a cultivation area recommendation processing unit for example, cultivation area recommendation processing unit 33
  • a recommended cultivation area output unit for example, recommended cultivation area output unit 34
  • the cultivation area recommendation processing unit calculates the degree of matching between the cultivation area environment and the growth environment, and the recommended cultivation area output unit calculates the The recommended cultivation areas are output in descending order of the degree of matching. Therefore, even a user who has no knowledge about plants can select a cultivation area with an environment suitable for plants.
  • an object display unit (AR object display unit 32). Therefore, even if the user cannot directly see the cultivation area of the plant, the user can intuitively grasp the cultivation area suitable for the plant to be cultivated.
  • the object display unit displays identification information indicating the direction of the position of the recommended cultivation area.
  • identification information SA such as an arrow
  • the user can intuitively grasp in which direction the cultivation area suitable for the plant to be cultivated is located.
  • the recommended cultivation area output unit presents the support information necessary for the cultivation area for cultivating the plant, which is determined according to the specified plant, in association with the plant. Therefore, even a user who does not have knowledge about cultivation areas can create a cultivation area suitable for plants while receiving support as to how to prepare soil for cultivating plants.
  • Example 3 The basic hardware configuration and software configuration of Example 3 are the same as those of the above-described Examples (Example 1 and Example 2). Differences from (Embodiments 1 and 2) will be mainly described, and descriptions of common parts will be omitted as much as possible to avoid duplication.
  • the cultivation area environment information processing unit 27 calculates the sunshine area that is not affected by the obstacle (home building 111) of the position and size calculated in S427.
  • the shade distance can be calculated based on the formula including the height of the planter.
  • a case where the obstacle has a canopy 104 can be considered in the same way. It can be obtained by the following formula after subtracting h.
  • the user 10 may be presented with support information related to plants and cultivation areas, as in each of the embodiments described above. Further, as in the case of each embodiment described above, support using a timer may be executed.
  • Example 4 The basic hardware configuration and software configuration of Example 4 are the same as those of the above-described examples. , and the common parts are omitted as much as possible to avoid duplication.
  • an HMD was used as the mobile information terminal, but in this embodiment, a smart phone is used as the mobile information terminal. This embodiment will be described below.
  • FIG. 19 is a schematic diagram for explaining the outline of this embodiment. 19, the user 10 holds a smartphone 18 instead of the HMD 1 in FIG. , and is a schematic diagram showing a state of investigation.
  • FIG. 20 is an external view showing an example of a smartphone used in this embodiment.
  • the smartphone 18 has a display screen 181 configured with a touch panel, a smartphone front face 183 having a front camera (also referred to as an in-camera) 182 for taking selfies, and a rear camera (also referred to as an out-camera or simply a camera) 184. It is composed of a smartphone rear surface 185 and a smartphone side surface.
  • An earphone microphone terminal (not shown) is provided on the side of the smartphone 18 in the direction of the front camera lens (the upper side in FIG. 19), and the side opposite to the front camera lens of the smartphone 18 (the lower side in FIG. 20).
  • an external connection terminal (not shown), a power key and a volume key (not shown) on the right side of the smartphone 18 in the direction of the camera lens, and a card tray (not shown) on the left side of the smartphone 18 in the direction of the camera lens. are provided respectively.
  • the user 10 aims the smartphone 18 of FIG.
  • the smartphone 18 of FIG. 20 When the smartphone 18 of FIG. 20 is pointed at the cultivation area 11 and the cultivation area 11 is photographed with the rear camera 184 of the smartphone 18 , a photographed screen of the cultivation area 11 is displayed on the display screen 181 of the smartphone 18 . Then, it is possible to present recommended plant names and recommended cultivation areas on the display screen 181 . In addition, it is also possible to present support information related to cultivated plants and cultivated areas described in each of the above-described embodiments. Also, the growth of plants can be displayed by AR objects.
  • the mobile information terminal is an HMD or a smart phone. It is needless to say that the present invention can be applied also in such cases.
  • the configuration for realizing the technology of the present invention is not limited to the above-described embodiment, and various modifications are conceivable. For example, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, or to add the configuration of another embodiment to the configuration of one embodiment. These all belong to the scope of the present invention.
  • Some or all of the functions and the like of the present invention described above may be realized by hardware, for example, by designing an integrated circuit.
  • the functions may be realized by software, in which a microprocessor unit or the like interprets and executes a program for realizing each function.
  • Hardware and software may be used together.
  • the software may be stored in the HMD 1 or the program 41 of the smartphone 18 in advance at the time of product shipment. It may be obtained from various server devices on the Internet after the product is shipped. Alternatively, the software may be obtained from a memory card, an optical disc, or the like.
  • control lines and information lines shown in the diagram show what is considered necessary for explanation, and do not necessarily show all the control lines and information lines on the product. In fact, it may be considered that almost all configurations are interconnected.
  • 1 HMD 2 CPU, 3 system bus, 4 memory, 5 sensor, 6 communication processing I/F, 7 video processing I/F, 8 audio processing I/F, 9 operation input I /F, 16... network server, 18 ... smart phone, 42... various data, 51... GPS receiving sensor, 55... distance sensor, 71... imaging I/F, 72... display I/F, 75... display screen, 711... right Cameras 712...Left camera, 181...Display screen, 184...Rear camera.

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Agronomy & Crop Science (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Husbandry (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

栽培地の位置情報を取得する位置情報取得部と、撮影部により撮影された栽培地の付近の撮影データを取得する撮影データ取得部と、撮影データに含まれる障害物と検知部により計測された障害物までの距離とを用いて算出した撮影データに含まれる障害物の特徴情報と、栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、障害物により形成される日陰領域を算出し、算出した当該日陰領域に基づいて、栽培地についての日照状況を含む栽培地環境を推定する栽培地環境情報処理部と、推定された栽培地環境と、栽培植物の生育環境に関する情報とに基づいて、栽培植物のなかから栽培地で栽培することが推奨される植物を出力する栽培植物推奨処理部と、出力された推奨される植物をユーザに提示する推奨植物出力部と、を有する。

Description

携帯情報端末及び情報処理方法
 本発明は、栽培する植物の種類や植物を栽培する場所の設定に関し、その設定を支援するための情報を提供する携帯情報端末及びそれに用いる情報処理方法に関する。
 近年、自宅の庭において、家庭菜園やガーデニング等、植物を栽培する趣味が広がっている。植物を栽培するためには、いくつかの環境条件(日照時間、気温、水分量等)を満たす必要がある。しかしながら、自宅の庭の環境条件が、どのような環境条件になっているかを知ることは、非常に困難である。
 最近では、GPS(Global Positioning System)を搭載した携帯情報端末や、小型のカメラを搭載した携帯情報端末の普及が進んできている。GPSにより、携帯情報端末の地球的位置(緯度、経度)が検出できれば、携帯情報端末の地球的位置における太陽の方向と仰角が確定できる。また、小型カメラにより、3次元撮影を行い、携帯情報端末周囲の物理的環境(日光を遮る障害物(塀や建物等)の位置や大きさ)が計測できれば、日陰となる領域(日陰領域)もしくは日陰にならない領域(日照領域)を算出することができる。
 日陰を表示する手法としては、例えば、特許文献1がある。特許文献1には、太陽位置情報と三次元地図情報等から、通行者の頭部が日陰となるような日陰分布地図作成装置が開示されている。
特開2005-258107号公報
 前記特許文献1では、ある時刻のある対象地域における日陰分布を地図上に表示する。しかしながら、前記特許文献1では、大きな対象地域を想定しており、自宅の庭等の小さな土地に対する日陰に対しては考慮されていなかった。また、前記特許文献1は、日陰分布を地図上に表示する技術であり、その日陰分布が、植物の栽培にどのように影響するかについての考察がされていなかった。具体的には、地域に含まれる狭いエリアにおいて、栽培地の周囲や栽培地の周辺といった栽培地付近に存在する家屋、塀、屋根といった構造物等の、日光を遮る障害物により形成される日陰を考慮して、栽培地にどのような植物を栽培したり、あるいは植物を栽培する栽培地をどのように選定するのかについて提案することについては言及されていない。
 本発明の一側面は、栽培地付近の障害物により形成される日陰の影響を考慮して、栽培する植物の種類の設定の支援が可能な技術を提供することを目的とする。また、本発明の一側面は、栽培地付近の障害物により形成される日陰の影響を考慮して、植物を栽培する場所の設定の支援が可能な技術を提供することを目的とする。
 本発明の一態様にかかる携帯情報端末は、栽培地の位置情報を取得する位置情報取得部と、撮影部により撮影された前記栽培地の付近の撮影データを取得する撮影データ取得部と、前記撮影データに含まれる障害物と検知部により計測された前記障害物までの距離とを用いて算出した前記撮影データに含まれる障害物の特徴情報と、前記栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、前記障害物により形成される日陰領域を算出し、算出した当該日陰領域に基づいて、前記栽培地についての日照状況を含む栽培地環境を推定する栽培地環境情報処理部と、推定された前記栽培地環境と、栽培植物の生育環境に関する情報とに基づいて、前記栽培植物のなかから前記栽培地で栽培することが推奨される植物を出力する栽培植物推奨処理部と、出力された前記推奨される植物をユーザに提示する推奨植物出力部と、を有することを特徴とする携帯情報端末として構成される。
 また、本発明の一態様にかかる携帯情報端末は、栽培地の位置情報を取得する位置情報取得部と、撮影部により撮影された前記栽培地の付近の撮影データを取得する撮影データ取得部と、前記撮影データに含まれる障害物と検知部により計測された前記障害物までの距離とを用いて算出した前記撮影データに含まれる障害物の特徴情報と、前記栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、前記障害物により形成される日陰領域を算出し、算出した当該日陰領域に基づいて、前記栽培地についての日照状況を含む栽培地環境を推定する栽培地環境情報処理部と、推定された前記栽培地環境と、栽培地における植物の生育環境に関する情報とに基づいて、前記栽培地環境が推定された栽培地のなかから、ユーザから指定された植物を栽培することが推奨される栽培地を出力する栽培地推奨処理部と、出力された前記推奨される栽培地をユーザに提示する推奨栽培地出力部と、を有することを特徴とする携帯情報端末として構成される。
 本発明の一態様によれば、栽培地付近の日光を遮る障害物により形成される日陰の影響を考慮して、栽培する植物の種類の設定の支援が可能となる。また、本発明の一態様によれば、栽培地付近の日光を遮る障害物により形成される日陰の影響を考慮して、植物を栽培する場所の設定の支援が可能となる。
本実施例の概要を説明するための図である。 実施例1に使用するHMDの一例を示す外観図である。 実施例1のHMDにおける内部構成例を示すシステム構成図である。 実施例1における機能ブロック構成例を示す機能ブロック図である。 実施例1で想定している栽培地の図である。 実施例1における栽培植物選択支援処理のフローチャートである。 実施例1におけるサブルーチン栽培地環境情報処理のフローチャートである。 夏至と冬至の南中時における太陽の高度(仰角)を示した図である。 夏至と冬至の南中時における日の差し込み具合を示した図である。 実施例1における栽培地環境情報の一例を示したテーブルである。 実施例1におけるサブルーチン栽培植物推奨処理のフローチャートである。 お勧め度と共に推奨植物名を提示する表示例を示した図である。 植物の栽培地を指定してお勧めの植物を表示する例を説明するための図である。 ARオブジェクトの表示例を説明するための図である。 図13における植物が生長した状態のARオブジェクト表示例を示した図である。 実施例2における機能ブロック構成例を示す機能ブロック図である。 実施例2における栽培地選択支援処理のフローチャートである。 実施例2におけるサブルーチン栽培地推奨処理のフローチャートである。 ユーザが植物を指定し、推奨する栽培地が提示されるまでの様子を説明するための図である。 ユーザが植物を指定し、推奨する栽培地が提示されるまでの様子を説明するための図である(視界にない場合)。 ユーザが植物を指定し、推奨する栽培地が提示されるまでの様子を説明するための図である(視界にない場合)。 実施例4の概要を説明するための模式図である。 実施例4に使用するスマートフォンの一例を示す外観図である。
 以下、図面を参照して本発明の実施形態を説明する。以下の記載および図面は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施する事が可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。
 図面において示す各構成要素の位置、大きさ、形状、範囲などは、発明の理解を容易にするため、実際の位置、大きさ、形状、範囲などを表していない場合がある。このため、本発明は、必ずしも、図面に開示された位置、大きさ、形状、範囲などに限定されない。
 以下の説明では、「データベース」、「テーブル」、「リスト」等の表現にて各種情報を説明することがあるが、各種情報は、これら以外のデータ構造で表現されていてもよい。データ構造に依存しないことを示すために「XXテーブル」、「XXリスト」等を「XX情報」と呼ぶことがある。識別情報について説明する際に、「識別情報」、「識別子」、「名」、「ID」、「番号」等の表現を用いた場合、これらについてはお互いに置換が可能である。
 同一あるいは同様な機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。ただし、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。
 また、以下の説明では、プログラムを実行して行う処理を説明する場合があるが、プログラムは、プロセッサ(例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit))によって実行されることで、定められた処理を、適宜に記憶資源(例えばメモリ)および/またはインターフェースデバイス(例えば通信ポート)等を用いながら行うため、処理の主体がプロセッサとされてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコントローラ、装置、システム、計算機、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であれば良く、特定の処理を行う専用回路(例えばFPGA(Field-Programmable Gate Array)やASIC(Application Specific Integrated Circuit))を含んでいてもよい。
 プログラムは、プログラムソースから計算機のような装置にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他の計算機に配布してもよい。また、以下の説明において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。
 図1は、本実施例の概要を説明するための模式図である。ユーザ10は、頭部前面(眼鏡装着位置)に、携帯情報端末である眼鏡形状の透過型HMD(Head Mounted Display)1を装着している。
 図1は、ユーザ10がHMD1を装着し、塀12Aと塀12Bとで構成される角地である栽培地(植物を栽培するための土地)の環境条件を、調査している様子を示した模式図である。
 調査手順の詳細については、後述するが、栽培地11の地球的位置(緯度、経度)と、栽培地11付近の物理的環境(日光を遮る障害物(塀や建物等)の位置や大きさ)を調査している。以下では、栽培地11の周囲や栽培地11の周辺といった栽培地付近に存在する家屋、塀、屋根といった構造物等の日光を遮る障害物を、日光を遮る障害物として例示するが、これらに限らず日光を遮る様々な対象物を物理的環境として含めてよい。以下では、付近といった場合、周囲、周辺のほか、近辺、周辺などの同義語を含むものとする。このような調査により、栽培地の環境に関する情報を入手することができる。
 また、HMDは、アクセスポイント15を介して、ネットワークサーバ16が接続されたネットワーク網17に接続している。ネットワークサーバ16には、プロセッサにより各種演算処理を行うネットワークサーバや、各種データを記憶するネットワークサーバなどがあり、必要に応じてHMD1が活用することができる。
 図2は、本実施例で使用されるHMD1の一例を示した外観図である。眼鏡の左右レンズ位置に表示画面75を構成し、眼鏡の右レンズ位置の端に右カメラ711と、眼鏡の左レンズ位置の端に左カメラ712を配置している。
 本実施例の透過型HMD1は、透過型の表示画面75を介して、実空間を視認することができる。また、表示画面75には、拡張現実のAR(Augmented Reality)オブジェクトを表示することができる。従って、HMD1の装着者(ユーザ10)は、表示画面75に表示された拡張現実のARオブジェクトと、実空間の状況との両者を同時に視認することができる。
 また、マイクは図示していないが、右カメラ711の近傍と左カメラ712の近傍に配置している。また、スピーカは、眼鏡の蔓にあたる部分に、右スピーカ821と左スピーカ822を配置している。また、HMD1の回路等の制御装置は、右筐体121と左筐体122に分割して格納している。
[HMDのシステム構成例]
 図3は、本実施例におけるHMDのハードウェア構成の一例を示す図である。HMD1の本体は、以下で説明する種々のハードウェアで構成されている。
 HMD1は、CPU2、システムバス3、メモリメモリ4、センサ5、通信インタフェース(I/F)6、映像I/F7、音声I/F8、操作I/F9で構成される。
 CPU2は、所定の動作プログラムに従ってHMD1全体を制御するマイクロプロセッサユニットである。
 システムバス3は、CPU2とHMD1内の各構成ブロックとの間で各種コマンドやデータなどの送受信を行うためのデータ通信路である。
 メモリメモリ4は、HMD1の動作を制御するためのプログラム41、動作設定値やセンサからの検出値やコンテンツを含むオブジェクトやライブラリからダウンロードしたライブラリ情報などの各種データ42、各種プログラムの動作で使用する書き換え可能なワークエリア43から構成している。
 また、メモリ4は、ネットワーク上からダウンロードした動作プログラムや、前記動作プログラムで作成した各種データ等を記憶可能である。また、ネットワーク上からダウンロードした動画や静止画や音声等のコンテンツを記憶可能である。また、カメラによる撮影機能を使用して撮影した動画や静止画等のデータを記憶可能である。また、メモリ4は、必要な情報(閾値等の設定値や画像データ等)を予め記憶しておくことが可能である。
 また、メモリ4は、HMDに外部から電源が供給されていない状態であっても記憶している情報を保持する必要がある。したがって、例えば、フラッシュROMやSSD(Solid State Drive)などの半導体素子メモリ、HDD(Hard Disc Drive)などの磁気ディスクドライブ、等のデバイスが用いられる。尚、メモリ4に記憶された前記各動作プログラムは、ネットワーク上の各サーバ装置からのダウンロード処理により更新及び機能拡張することが可能である。
 センサ5は、HMDの状態を検出するための各種センサのセンサ群である。センサ5は、GPS(Global Positioning System)受信センサ51、地磁気センサ52、加速度センサ53、ジャイロセンサ54、距離センサ55で構成される。これらのセンサ群により、HMDの位置、傾き、方角、動き、等を検出することが可能となる。また、距離センサ55により、HMDと障害物との距離が計測され、HMD1付近の物理的環境を把握することができる。更に、HMDが、照度センサ、高度センサ等、他のセンサを備えていても良い。
 通信I/F6は、LAN(Local Area Network)通信I/F61、電話網通信I/F62とで構成される。
 LAN通信I/F61は、アクセスポイント15等を介してインターネット等のネットワーク網17と接続され、インターネット網上の各ネットワークサーバ16とデータの送受信を行う。前記アクセスポイント15等との接続は、Wi-Fi(登録商標)等の無線接続で行われている。
 電話網通信I/F62は、移動体電話通信網の基地局等との無線通信により、電話通信(通話)及びデータの送受信を行う。基地局等との通信は、LTE(Long Term Evolution)方式、5G方式(高速大容量、低遅延、多数同時接続を目指した第5世代移動通信システム)、或いはその他の通信方式によって行われて良い。
 LAN通信I/F61、電話網通信I/F62は、それぞれ符号化回路や復号回路やアンテナ等を備える。更に、通信I/F6が、赤外線通信部など、他の通信部を更に備えていても良い。
 映像I/F7は、撮像I/F71、表示I/F72で構成される。
 撮像I/F71は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサ等の電子デバイスを用いてレンズから入力した光を電気信号に変換することにより、付近や障害物の画像データを入力するカメラである。本実施例では、右カメラ711と左カメラ712で構成している。
 表示I/F72は、例えば半透明の液晶による透過型ディスプレイの表示デバイスであり、表示画面75を構成し、ARオブジェクトや付帯情報等をHMDのユーザ10に提供する。
 音声I/F8は、音声入力I/F81、音声出力I/F82とで構成される
 音声入力I/F81は、実空間の音やユーザの音声などを音声データに変換して入力するマイクである。本実施例では、右カメラ711と左カメラ712の近傍にそれぞれマイクを配置している。
 音声出力I/F82は、ユーザに必要な音声情報等を出力するスピーカである。勿論、イヤホンや、ヘッドホンも接続可能であり、用途により使い分けることができることは言うまでない。本実施例では、ユーザの耳に近い位置に、右スピーカ821と左スピーカ822を配置している。
 操作入力I/F9は、HMDに対する操作指示や要求等の入力を行うインタフェースである。当該入力インタフェースとしては、視線検出、指等のモーション検出を行うことで操作指示の入力を行うアプリケーション、音声入力I/F82により入力された音声に基づいて操作指示の入力を行うアプリケーションなど、従来から知られている様々な技術を用いてよい。また、アプリケーションに限らず、様々な入力デバイスを用いてよい。
 なお、図3に示したHMDのハードウェア構成例は、本実施例に必須ではない構成も多数含んでいるが、これらが備えられていない構成であっても本実施例の効果を損なうことはない。また、電子マネー決済機能等、図示していない構成が更に加えられていても良い。
[本実施例の機能ブロック]
 図4は、本実施例のHMDにおける機能ブロック構成の一例を示す機能ブロック図である。
 制御部21は、HMDの全体を制御する。図3に示した通り、制御部21は、主に、CPU2と、メモリ4のプログラム41及びワークエリア43で構成される。
 通信処理部22は、通信I/F6のLAN通信I/F61や、通信I/F6の電話網通信I/F62により、ネットワーク網17に接続するための通信処理を行う。通信処理部22により、ネットワーク網17を介して、各種ネットワークサーバ16に接続し、所定のデータを入手することができる。
 位置情報取得部23は、センサ5のGPS受信センサ51により、HMD本体の地球的位置(緯度・経度)を取得する。
 位置情報記憶部24は、位置情報取得部23で取得したHMD本体の地球的位置(緯度・経度)の情報を、メモリ4の各種データ42として記憶する。地球的位置を示す位置情報(緯度・経度)により、日の出時刻と方向、日の入り時刻と方向、南中時の時刻と仰角を知ることができる。
 撮影データ取得部25は、映像I/F7の撮像I/F71(右カメラ711、左カメラ712)により、栽培地11の付近を撮影したり、日光を遮る障害物の撮影データを取得する。本実施例では、撮影データ取得部25は、右カメラ711と左カメラ712よるステレオ撮影を行い、撮影データを3次元データの映像データまたは画像データとして取得している。上記撮影データには、上述した各カメラにより撮像された画像を含む。
 図1の模式図では、日光を遮る障害物として、塀12Aおよび塀12Bが該当する。障害物情報記憶部26は、撮影データ取得部25で取得した上記撮影データを、メモリ4の各種データ42として記憶する。
 栽培地環境情報処理部27は、栽培地11の環境情報を推測する。栽培地環境情報処理の詳細については、後述する。
 栽培地環境情報記憶部28は、栽培地環境情報処理部27で得られた栽培地環境情報を、メモリ4の各種データ42として記憶する。
 栽培地環境情報出力部29は、栽培地環境情報記憶部28により記憶された栽培地環境情報を、ユーザ10の要求に応じて、映像I/F7の表示I/F72に表示する。
 栽培植物推奨処理部30は、栽培地11に栽培可能な植物を、推奨する。
 推奨植物出力部31は、栽培植物推奨処理部30で得られた推奨植物を、ユーザ10の要求に応じて、映像I/F7の表示I/F72(具体的には表示画面75)に表示する。
 ARオブジェクト表示部32は、拡張現実のARオブジェクトを、表示画面75に表示する。ARオブジェクト表示部32により、HMDの装着者(ユーザ10)は、表示画面75に表示された拡張現実のARオブジェクトと、実空間の状況との両者を同時に視認することができる。本実施例では、ARオブジェクトとして、栽培する植物を想定している。
 ここで、本実施例で想定している栽培地について説明する。
 図5は、自宅建物111と、自宅建物111を囲む柵112(本実施例では、説明を簡略化するため、日光を遮る影響が少ないメッシュフェンスの柵を採用している。)、自宅建物111と柵112の間に存在する栽培地113(113A~113D)を模式的に示した模式図である。本実施例では、自宅建物111による日陰の影響は大きいが、柵112による日陰の影響は少ないと仮定している。
 図5における各栽培地について考察する。自宅建物111の北側111Aで、北側の柵112Aとの間に存在する北側栽培地(栽培地A)113Aは、朝方・夕方の日照時間は一定程度期待できるが、日中は自宅建物111の北側部分111Aによる日陰の影響が大きい。
 自宅建物111の東側111Bで、東側の柵112Bとの間に存在する東側栽培地(栽培地B)113Bは、朝方と日中の日照時間は一定程度期待できるが、夕方は自宅建物111の東側部分111Bによる日陰の影響が大きい。
 自宅建物111の南側111Cで、南側の柵112Cとの間に存在する南側栽培地(栽培地C)113Cは、他の栽培地に比べて、自宅建物111の南側部分111Cによる日陰の影響が少ない。
 自宅建物111の西側111Dで、西側の柵112Dとの間に存在する西側栽培地(栽培地D)113Dは、日中と夕方の日照時間は一定程度期待できるが、朝方は自宅建物111の西側部分111Dによる日陰の影響が大きい。
 これら各栽培地には、それぞれ日照状況に差異があるので、栽培する植物の選択に際して考慮する必要がある。
[本実施例の処理手順]
 図6は、本実施例における栽培する植物の選択を支援する栽培植物選択支援処理(S400)の手順を示すフローチャートである。
 図6の処理手順の説明には、図4の機能ブロック図を参照して説明する。
 本栽培植物選択支援処理(S400)が開始(S401)されると、先ず、制御部21は、全栽培地(本実施例では4か所)に関する環境情報が記憶済みか否かを判定する(S402)。上述のように、栽培地は、ユーザ10が栽培地として認識し、撮影データ取得部25が、映像I/F7の撮像I/F71により撮影した撮影データに含まれる栽培地である。以下では、ユーザ10の自宅建物111に栽培地11が4か所ある前提として進めるが、映像I/F7の撮像I/F71により撮影された任意の場所について、操作入力I/F9を用いて指定した場所を栽培地として選択し、記憶してよい。
 制御部21は、S402の判定処理で、全栽培地に関する環境情報が記憶済みであると判定した場合は(S402;Yes)、栽培地を選択する栽培地選択処理(S403)に移行する。
 制御部21は、S402の判定処理で、全栽培地に関する環境情報が記憶済みでないと判断した場合は(S402;No)、サブルーチンである栽培地環境情報処理(S420)に移行する。
 栽培地環境情報処理(S420)は、選択された栽培地における植物環境(日照時間や降水量等)の情報を取得する処理である。ここで、サブルーチンであるS420の処理(栽培地環境情報処理)について、説明する。
 図7は、サブルーチンである栽培地環境情報処理(S420)の処理手順を示すフローチャートである。
 図7の処理手順の説明には、図4の機能ブロック図を参照して説明する。
 栽培地環境情報処理部27は、メモリ4のプログラム41として格納されている栽培地環境情報処理のプログラムを読み出し、順次実行する。
 S420の処理(栽培地環境情報処理)が開始(S421)されると、先ず、栽培地環境情報処理部27は、栽培地環境情報が記憶されていない栽培地を選択する(S422)。栽培地環境情報については、図10を用いて後述する。
 次に、栽培地環境情報処理部27は、位置情報取得部23がGPS受信センサ51から取得した栽培地の地球的位置(緯度・経度)を読み取り、位置情報記憶部24に記憶する(S423)。
 本実施例では、栽培地における地球的位置(緯度・経度)を取得することを目的としているが、HMDの地球的位置(緯度・経度)であっても、地球的規模で考えた場合、栽培地の位置とHMDの位置との差は誤差の範囲である。したがって、以下では、栽培地における地球的位置(緯度・経度)を、HMDの地球的位置(緯度・経度)にて代用している。
 次に、栽培地環境情報処理部27は、S423で取得した栽培地の地球的位置(緯度・経度)における太陽の方位と仰角を取得する(S424)。
 本実施例では、ネットワーク網17を介して、ネットワークサーバ16から必要な情報を得ている。具体的には、栽培地環境情報処理部27は、国立天文台の暦計算室ウェブサイトで公開されている、任意の地点における太陽に関する情報(日の出時刻と方位、日の入り時刻と方位、南中時の時刻と高度(仰角)などの、当該地点における1日の太陽の位置の推移を示す情報)を読み取り、読み取った情報の中から上記地点の位置を、上記栽培地の地球的位置として取得する。このようにネットワークサーバ16から得られる情報とS423で取得した栽培地の地球的位置(緯度・経度)とは必ずしも一致しない場合がある。その場合は、当該栽培地の地球的位置に最も近い地点の位置を取得し、取得した当該位置から上記栽培地の地球的位置における太陽の方位と仰角を推定すればよい。当該推定の方法については、従来から知られている技術を用いてよい。勿論、他のネットワークサーバを利用することもできることは言うまでもない。
 次に、撮影データ取得部25により、栽培地の付近を撮影し必要な撮影データ(障害物の撮影データ)を取得する(S425)。
 次に、栽培地環境情報処理部27は、日光を遮る障害物が有るか否かを判定する(S426)。障害物があるか否かについては、例えば、栽培地環境情報処理部27が、撮影データ取得部25により取得された撮影データの画像を解析するなどして、障害物の有無を判定し、当該判定の結果得られた障害物を、日光を遮る障害物であるとみなせばよい。 栽培地環境情報処理部27は、障害物有無の判定処理(S426)で、日光を遮る障害物が無いと判定した場合は(S426;No)、日照時間を推定する処理(S429)へ移行する。
 栽培地環境情報処理部27は、障害物有無の判定処理(S426)で、日光を遮る障害物が有ると判定した場合は(S426;Yes)、その障害物の位置と大きさを算出し記憶する(S427)。例えば、栽培地環境情報処理部27は、S426で判定した撮影データに含まれる障害物と、センサ5の距離センサ55により計測された障害物までの距離とを用いて、撮影データに含まれる障害物の位置(配置)や大きさなどの障害物に関する特徴情報を算出する。
 本実施例では、日光を遮る障害物として、自宅建物111を想定している。そのため、映像I/F7の撮像I/F71により、障害物(自宅建物111)をステレオ撮影し、更に、センサ5の距離センサ55により、障害物(自宅建物111)まで距離を計測し、障害物(自宅建物111)を3次元化して位置と大きさを算出している。
 次に、栽培地環境情報処理部27は、S427で算出した位置と大きさの障害物(自宅建物111)に影響されない日照領域を算出する(S428)。ここで、太陽の高度(仰角)について、簡単に説明する。
 図8は、夏至と冬至の南中時における太陽の高度(仰角)を示した模式図である。東京(北緯35.7度、東経139.7度)では、夏至(6月21日)時の太陽100Aの高度(仰角)101Aは77.8度であり、冬至(12月22日)時の太陽100Bの高度(仰角)101Bは、30.9度である(2021年)。
 日光を遮る障害物102(高さH)による日陰距離103は、次式で求めることができる。
  夏至時日陰距離103A=H/tan(77.8°)=0.216H …(式1)
  冬至時日陰距離103B=H/tan(30.9°)=1.67H  …(式2)
 その他、春分や秋分を含む任意の季節における日陰距離を、同様に算出することができる。
 夏至時及び冬至時の日陰距離を障害物(自宅建物111)の形状に沿って算出することにより、当該障害物により影響を受ける夏至時及び冬至時の日陰領域を算出することができる。本実施例では、算出された栽培地における日陰領域以外の日が差し込む領域を、求める日照領域(日が当たる領域)としている。また、本実施例では、説明を簡略化するため、自宅建物111に庇が無い前提になっているが、障害物に庇等があれば、当然日照領域に影響する。
 図9は、障害物に庇104(地面からの高さH)が有る場合の夏至と冬至の南中時における日差しの差し込み具合を示した模式図である。夏至時の太陽100Aの高度(仰角)101Aと、冬至時の太陽100Bの高度(仰角)101Bは、図8と同じである。
 日光を遮る障害物である庇104(高さH)による日の差し込む距離105は、図8と同様に求めることができる。
  夏至時の日が差し込む距離105A=H/tan(77.8°)=0.216H …(式3)
  冬至時の日が差し込む距離105B=H/tan(30.9°)=1.67H  …(式4)
 その他、春分や秋分を含む任意の季節における日が差し込む距離を、同様に算出することができる。夏至時及び冬至時の日が差し込む距離を障害物の庇形状に沿って算出することにより、当該庇が形成された障害物により影響を受ける夏至時及び冬至時の日陰領域と日照領域とを算出することができる。
 ここで、図7で示したサブルーチンである栽培地環境情報処理(S420)の処理手順に戻って、説明を継続する。
 栽培地環境情報処理部27は、日照領域算出処理(S428)の次に、S423で取得した栽培地の地球的位置(緯度・経度)における日照時間を推定する(S429)。
 夏至時の晴天時日照時間は14時間35分(日の出時刻4時25分、日の入り時刻19時00分)、冬至時の晴天時日照時間は9時間45分(日の出時刻6時47分、日の入り時刻16時32分)であり、春分や秋分を含む任意の季節における晴天時日照時間を、同様に算出することができる。
 本実施例では、栽培地環境情報処理部27は、ネットワーク網17を介して、ネットワークサーバ16から必要な気象に関する情報を得ている。具体的には、気象庁の各種データ・資料ウェブサイトで公開されている、任意の地点における月ごとの気象に関する各種平均値(気温、ひと月の降水量合計、風速・最多風向、ひと月の日照時間合計、全天日射量、等)を読み取り、読み取った情報の中から、上記気象に関する各種平均値を取得する。2021年現在の各種平均値は、1991年から2020年までの過去30年間の平均値を示している。
 ネットワークサーバ16から得られる情報とS423で取得した栽培地の地球的位置(緯度・経度)とは必ずしも一致しない場合がある。その場合は、S424の場合と同様、例えば、当該栽培地の地球的位置に最も近い位置から上記日照時間を推定すればよい。勿論、他のネットワークサーバを利用することもできることは言うまでもない。
 本実施例では、栽培地環境情報処理部27は、栽培地における障害物からの日陰領域と、ひと月の日照時間合計を勘案し、栽培地における日照時間の推移を推定している。このような各栽培地の環境状況を鑑み、栽培可能な植物を選定する必要がある。
 次に、栽培地環境情報処理部27は、S423で取得した栽培地の地球的位置(緯度・経度)における降水量、風速・風向を取得する(S430)。本実施例では、栽培地環境情報処理部27は、気象庁の各種データ・資料ウェブサイトに記載された情報を読み取り、ひと月の降水量合計と、風速・最多風向の情報を取得している。
 気象庁や上記ウェブサイトから得られる情報とS423で取得した栽培地の地球的位置(緯度・経度)とは必ずしも一致しない場合がある。その場合は、S424やS429の場合と同様、例えば、当該栽培地の地球的位置に最も近い位置から上記降水量、風速・風向を推定すればよい。勿論、ネットワークサーバ16などを利用することもできることは言うまでもない。
 次に、栽培地環境情報処理部27は、S423で取得した栽培地の地球的位置(緯度・経度)におけるにおける、ひと月の降水量を推定する(S431)。栽培地環境情報処理部27は、栽培地に、降水量に影響を与える障害物(建物の軒や、庇等)が無い場合は、S430で取得したひと月の降水量合計を、そのまま栽培地におけるひと月の降水量として適用している。また、栽培地に、降水量に影響を与える障害物(建物の軒や、庇等)が有る場合は、月間最多風向や月平均の風速等を考慮し、降水量を推定している。例えば、栽培地環境情報処理部27は、S430で取得した風速・最多風向の情報が、所定の閾値(例えば、風速5メートル以上)の南風である場合、図5に示した栽培地113Aは自宅建物111が風雨を一定程度遮ると考えられる。したがって、このような場合は、栽培地環境情報処理部27は、ひと月の降水量合計に対して、所定の割合(例えば、90%)を乗じた値を、当該栽培地のひと月の降水量として推定すればよい。
 次に、栽培地環境情報処理部27は、全栽培地に関する環境情報の取得が完了したか否かを判定する(S432)。
 S432の判定処理で、栽培地環境情報処理部27は、全栽培地に関する環境情報の取得が完了していないと判定した場合は(S432;No)、S422の栽培地選択処理に戻る。
 S432の判定処理で、栽培地環境情報処理部27は、全栽培地に関する環境情報の取得が完了したと判定した場合は(S432;Yes)、栽培地環境情報記憶部28に、全栽培地に関する環境情報を記憶ずる(S433)。以上で、サブルーチンである栽培地環境情報処理(S420)を終了する(S434)。
 ここで、記憶している栽培地環境情報について説明する。本実施例では、栽培地環境情報テーブルを作成し、各栽培地の環境状況を把握している。当該栽培地環境情報テーブルは、栽培地環境情報処理部27が、図7に示した栽培地環境情報処理を実行することにより生成される。
 図10は、本実施例で記憶されている栽培地環境情報の一例を示したテーブル(T840)である。
 図10の栽培地環境情報テーブル(T840)は、栽培地識別項目850と、環境情報比較項目860で構成されている。
 栽培地識別項目850は、4か所の各栽培地(栽培地A851、栽培地B852、栽培地C853、栽培地D854)を示している。
 環境情報比較項目860は、各栽培地の地球的位置(緯度・経度)を示す位置情報861(位置情報記憶部24にて記憶されている、栽培地に関する位置情報)、日光を遮る障害物の情報(位置、大きさ)を示す障害物情報862(障害物情報記憶部26にて記憶されている、栽培地に関する障害物情報)、障害物の影響による日照領域(夏至時)を示す夏至時日照領域863、障害物の影響による日照領域(冬至時)を示す冬至時日照領域864、日照時間合計(1か月分)の推定値を示す日照時間865、各耕作地における日照状況(朝方、日中、夕方の日照状況)の特徴を示す日照状況特徴866、降水量合計(1か月分)の推定値を示す降水量867、等で構成されている。
 環境情報比較項目860として定められたこれらの情報は、これまで説明したように、栽培地環境情報処理部27により取得、算出、推定される。なお、栽培地環境情報処理部27は、日照状況特徴866として、日照時間が所定の閾値TH1以上であり、日照が一定程度以上期待できると判定した場合にはその旨を示す識別情報「○」を設定する。また、栽培地環境情報処理部27は、日照時間が所定の閾値TH1よりも小さい所定の閾値TH2以上であって、所定の閾値TH1未満であり、日照が一定程度より期待値が小さくやや期待できると判定した場合にはその旨を示す識別情報「△」を設定する。また、栽培地環境情報処理部27は、日照時間が所定の閾値TH2よりも小さく、上記「△」を設定した場合よりも日照があまり期待できないと判定した場合にはその旨を示す識別情報「×」を設定する。これらの識別情報は、朝方、日中、夕方といった、一日の時間帯に関する情報に対応付けて記憶される。当該時間帯に関する情報は、例えば、日の出時刻から所定の時刻(例えば午前10時)までを「朝方」、当該所定の時刻から南中時を経て経過した所定の時刻(例えば、午後3時)までを「日中」、当該南中時を経て経過した所定の時刻から日の入り時刻までの「夕方」として定めればよい。
 栽培地環境情報テーブル(T840)は、栽培地環境情報出力部29により、ユーザ10に提示することができる。また、栽培地環境情報テーブル(T840)は、ネットワーク網17を介して、ネットワークサーバ16に記憶することもできる。
 ここで、栽培植物の選択を支援する栽培植物選択支援処理(S400)である図6の処理手順に戻って、説明を継続する。サブルーチンである栽培地環境情報処理(S420)が終了すると、制御部21は、ユーザ10から、栽培しようとしている栽培地の選択を受け付ける(S403)。
 次に、定義済み処理(サブルーチン)である栽培植物推奨処理(S440)を行う。ここで、サブルーチンであるS440の処理(栽培植物推奨処理)について、説明する。
 図11は、サブルーチンである栽培植物推奨処理(S440)の処理手順を示すフローチャートである。図11の処理手順の説明には、図4の機能ブロック図を参照して説明する。
 栽培植物推奨処理部30は、メモリ4のプログラム41として格納されている栽培植物推奨処理のプログラムを読み出し、順次実行する。
 S440の処理(栽培植物推奨処理)が開始(S441)されると、先ず、栽培植物推奨処理部30は、栽培地環境情報記憶部28に各種データ42として記憶されている栽培地環境情報テーブル(T840)から、該当する栽培地(S403で選択された栽培地)の栽培地環境情報を取得する(S442)。
 次に、栽培植物推奨処理部30は、栽培地選択処理(S403)で選択された栽培地の栽培地環境情報に基づき、栽培地環境情報の条件に適合する栽培可能な植物を調査する(S443)。
 本実施例では、ネットワーク網17を介して、ネットワークサーバ16から必要な情報(栽培地環境情報の条件に適合する栽培可能な植物)を得ている。例えば、栽培植物推奨処理部30は、環境省、植物園などの各種データ・資料ウェブサイトで公開されている植物と、当該植物の栽培に適した日照時間や日照時間帯、降水量に関する情報(例えば、年間降水量Xmm以下でも育ち乾燥に強いといった植物の生育に関する情報)とを対応づけて取得する。栽培植物推奨処理部30は、ネットワークサーバ16から取得したこれらの情報と、図10に示した栽培地環境情報テーブル(T840)とを突き合わせ、当該栽培地環境情報テーブル(T840)に記憶されている環境情報比較項目860の値に一致する(あるいは一定程度近い)という条件を満たす植物を、上記ネットワークサーバ16から取得したこれらの情報の中から読み取る。上記突き合わせの方法については、例えば、栽培植物推奨処理部30が、上記生育に関する情報を意味解析するなどして得られた結果と、当該栽培地環境情報テーブル(T840)に記憶されている環境情報比較項目860に含まれる値とが意味的な近似度を判定することにより行えばよい。
 次に、推奨植物出力部31は、栽培可能植物調査処理(S443)で得られた栽培可能植物を、ユーザ10に提示(推奨)する(S444)。
 図12Aは、北側の柵112Aと西側の柵112Dで構成される栽培地D(113D)の角地を、ユーザ10がHMD1を介して視認している状態を表す模式図である。図12Aにおいて、推奨植物出力部31は、ユーザ10が装着したHMDの表示画面75に、提示(推奨)した植物名を、お勧め度と共に表示する。お勧め度は、例えば、栽培植物推奨処理部30がS443で調査した環境情報比較項目860の値と、上記ネットワークサーバ16から取得した情報との一致度が高い順に定めればよい。
 例えば、図12Aでは、推奨植物出力部31は、午後に日が差す栽培地Dにて栽培するのに最適な植物として、本実施例では、丈夫で失敗が少なく、柏に似た形の避けた葉が特徴のカシワバアジサイを最もお勧め度が高いお勧め度Aとして推奨している。
 また、推奨植物出力部31は、お勧め度Bとして、やや暗い環境を好み、房のように小さな花を咲かすアセビを推奨している。
 また、推奨植物出力部31は、お勧め度Cとして、耐暑性にやや難があるが、穂状にベル形の花を咲かすジギタリスを推奨している。
 本実施例では、推奨の度合を、お勧め度ABCで表示しているが、推奨の度合を、%表示や、文字の大きさ・太さ・色等で識別表示することもできることは言うまでもない。
 以下、図12Aに示した植物のほか、それぞれの栽培地における具体的植物の一例を示す。
 栽培地Aの暗い日陰の部分では、アオキ、シャガ、ジャノヒゲ、シュウカオドウ、等の植物が適合する。
 栽培地Aの明るい日陰の部分では、インパチェンス、アジユガ、アスチルベ、等の植物が適合する。
 午前に日が差す栽培地Bでは、ヤツデ、シギタリス、アジユガ、アシチルベ、等の植物が適合する。
 日当たりが良い栽培地Cでは、ガザニア、ランタナ、アサガオ、ペンタス、等の植物が適合する。
 午後に日が差す栽培地Dでは、カシワバアジサイ、アセビ、ジギタリス等の植物が適合する。
 図12Bは、ユーザが図12Aに示した栽培地を指定し、推奨植物が提示されるまでの様子を説明するための図である。図12Bの上段に示すように、ユーザ10は、HMD1の表示画面75を介して栽培地を視認する。この例では、ユーザ10は、表示画面75を介して、栽培地113C、113Dを視認している様子を示している。このような状況のもと、図12Bの中段に示すように、ユーザ10は、自身の指Fを表示画面75上でなぞる動作をするなどして、操作入力I/F9を介して、植物を栽培したい場所を指定する。この例では、ユーザは、視認した栽培地113Dを指Fでなぞった表示画面上における範囲Rを指定している。推奨植物出力部31は、表示画面75に対する上記範囲Rの指定を受け付けると、当該範囲Rを、植物を栽培するユーザ所望の場所であると認識する。この例では、推奨植物出力部31は、ユーザ10が指定した栽培地は栽培地113Dであると認識する。
 そして、図12B下段に示すように、上記範囲Rは栽培地113Dに含まれるため、推奨植物出力部31は、上記範囲Rに対応する栽培地113Dの場所R’を表示画面75に表示する。さらに、推奨植物出力部31は、上記ネットワークサーバ16から取得した、栽培地113Dについての環境情報比較項目860の値に一致する(あるいは一定程度近い)という条件を満たす植物を、推奨する植物として、表示画面75の上記範囲Rの付近の領域rに表示する。
 表示画面75上における上記範囲Rと栽培地113Dの場所R’との対応付けについては、例えば、以下のようにすればよい。まず、推奨植物出力部31は、右カメラ711や左カメラ712の撮影データと、GPS受信センサ51が取得しているHMD本体の地球的位置(緯度・経度)とを読み出し、読み出した当該HMD本体の地球的位置(緯度・経度)が、栽培地環境情報テーブル(T840)の位置情報861に一定程度近い位置(あるいは一致する位置)であるか否かを判定する。
 推奨植物出力部31は、両者が一定程度近い位置(あるいは一致する位置)にあると判定した場合、現在表示画面75に表示している映像や画像は、栽培地環境情報テーブル(T840)に記憶されている栽培地(この場合は栽培地113D)に関するものであると判定する。そして、推奨植物出力部31は、現在表示画面75に表示している映像や画像に対する上記範囲Rの指定を受け付けると、あらかじめ位置情報861に対応付けて記憶した栽培地113Dを代表する表示画面75上における位置オブジェクトを読み出し、上記範囲Rに対応する栽培地113Dの場所R’として表示画面75に表示する。当該位置オブジェクトは、あらかじめ栽培地の広さに応じた大きさとなるように定めておく。
 さらに、推奨植物出力部31は、表示画面75における、上記範囲Rに対応する栽培地113Dの場所R’の付近の領域rに、上記位置情報861に対応付けられた栽培地113Dについて、上記ネットワークサーバ16から取得した、環境情報比較項目860の値に一致する(あるいは一定程度近い)という条件を満たす植物を、お勧め度が高い順に表示する。図12B下段では、このような処理が行われた結果、ジニア、カランコエが、栽培地113Dで栽培するお勧めの植物として表示されていることを示している。
 推奨植物出力部31は、このような処理をリアルタイムで行っている。したがって、例えば、ユーザ10が、図12B下段の状態で栽培地113Dを見ている場合、上記範囲Rに対応する栽培地113Dの場所R’のうち、表示画面75に含まれない範囲R”が存在する。しかし、ユーザが頭を移動させたり首を振るなどして、表示画面75に上記栽培地113Dの場所R’の全体が含まれることとなった場合には、推奨植物出力部31は、上記栽培地113Dの場所R’を更新し、上記表示画面75に含まれない範囲R”についても表示画面75に表示する。これにより、位置オブジェクト全体を表示画面75上に表示することができ、その結果、ユーザ10は、栽培地113Dの広さを把握することができる。
 以上で、サブルーチンである栽培植物推奨処理(S440)を終了する(S445)。ここで、栽培植物を支援する栽培植物選択支援処理(S400)である図6の処理手順に戻って、説明を継続する。
 サブルーチンである栽培植物推奨処理(S440)が終了すると、推奨植物出力部31は、ユーザ10から、提示(推奨)された栽培可能植物の中から、好ましい植物の選択を受け付ける(S404)。勿論、ユーザ10は、複数の植物を選択することもできる。
 次に、推奨植物出力部31は、ARオブジェクトの表示要求が有るかどうかを判断する(S405)。
 S405の判断処理で、推奨植物出力部31がARオブジェクトの表示要求が無いと判断した場合は(S405;No)、栽培植物を支援する栽培植物選択支援処理(S400)を終了する(S407)。
 S405の判断処理で、推奨植物出力部31がARオブジェクトの表示要求が有ると判断した場合は(S405;Yes)、ARオブジェクトを、ARオブジェクト表示部32により表示する(S406)。本実施例では、ARオブジェクト表示部32が、ユーザ10が選択した植物について、その植物が成長する様子が予測されたARオブジェクトを表示している。以上で、栽培植物を支援する栽培植物選択支援処理(S400)を終了する(S407)。
 図13は、図6の処理手順において、ARオブジェクトを表示する処理(S406)を実行した一例を模式的に示した図である。図13は、図1の模式図において、表示画面75上にARオブジェクト13を表示した場合の表示例を示した図である。
 S404の栽培可能植物選択処理で選択した植物は、ARオブジェクト表示部32がARオブジェクト化し、表示画面75上の栽培地11に、ARオブジェクト13として表示している。
 ここで、栽培植物として「ひまわり」を例にし、そのARオブジェクトの様子を図13と図14を用いて説明する。
 図13は、推奨植物出力部31が、ユーザ10から、5月下旬頃の「ひまわり」の指定を受け付けた場合、HMD1の表示画面75に表示するARオブジェクト13を模式的に示している。
 ARオブジェクト13(5月下旬頃の「ひまわり」)は、葉が大きく茎も伸びている状態であるが、開花には程遠い状態であることが、ユーザ10は、視覚的に判断することができる。
 図14は、推奨植物出力部31が、ユーザ10から、7月中旬頃の「ひまわり」の指定を受け付けた場合、HMD1の表示画面75に表示するARオブジェクト14を模式的に示している。
 ARオブジェクト14(7月中旬頃の「ひまわり」)は、開花し、十分な大きさ(高さ1メートル)に成長している状態であることが、ユーザ10は、視覚的に判断することができる。
 このように、ARオブジェクトは、ユーザ10が時季を指定すると、植物の生長度合を勘案し、時季における成長度合いにマッチした植物(時季に対応する大きさや形状)として表示することができ、ユーザ10は、視覚的に植物の生長状態を判断することができる。
 本実施例では、植物の生長度合に関する情報は、ネットワーク網17を介して、ネットワークサーバ16から得ている。例えば、推奨植物出力部31は、ネットワークサーバ16に、植物ごとに記憶された、植物の成長時季と当該成長時季における植物の特徴をあらわすオブジェクトとを対応付けた成長時季テーブル1601にアクセスする。推奨植物出力部31は、ユーザ10から指定された植物に対応する植物についての成長時季テーブル1601を特定する。さらに、推奨植物出力部31は、ユーザ10から指定された時季を含む時季(例えば、時季「5月下旬」)を、特定した当該成長時季テーブル1601から選択し、選択した当該時季に対応するオブジェクト(例えば、オブジェクトα、ARオブジェクト13)を、HMD1の表示画面75に表示する。さらに、ユーザ10が異なる時季(例えば、時季「7月下旬」)を指定した場合には、(例えば、オブジェクトβ、ARオブジェクト14)を、それまで表示していたオブジェクトから切り替えて、HMD1の表示画面75に表示する。
 本実施例では、ユーザ10が選択した植物について、推奨植物出力部31は、当該植物を栽培するために必要な植物に関するサポート情報(理想的な水やり、肥料、病気、害虫、用土、植え付け、植え替え、ふやし方等)を提示してもよい。これらのサポート情報は、栽培植物推奨処理部30が、上述した生育環境に関する情報を取得する際に、当該生育環境に関する情報に含まれる植物(例えば、植物の種類)をキーにするなどして、環境省、植物園などの各種データ・資料ウェブサイトやネットワークサーバ16などから取得すればよい。
 また、栽培植物推奨処理部30が、図示しないHMD1が備えるタイマーが計時する時刻があらかじめ定められた時刻(例えば、午前10時、午後3時などのユーザ所望の時刻)となったか否かを判定し、当該時刻になったと判定した場合、推奨植物出力部31が、HMD1の表示画面75にその旨(水やりの時刻となった旨など)を表示してもよい。これにより、タイマーを利用したサポート(推奨する水やりの時刻や回数等)を実行することができる。タイマーを利用したサポートに関する情報は、上記サポート情報と同様、ネットワーク網17を介して、ウェブサイトやネットワークサーバ16から取得すればよい。
 このように、本実施例では、栽培地の位置情報を取得する位置情報取得部(例えば、位置情報取得部23)と、撮影部(例えば、右カメラ711や左カメラ712)により撮影された上記栽培地の付近の撮影データを取得する撮影データ取得部(例えば、撮影データ取得部25)と、上記撮影データに含まれる障害物と検知部(例えば、距離センサ55)により計測された上記障害物までの距離とを用いて算出した上記撮影データに含まれる障害物の特徴情報(例えば、障害物の位置(配置)や大きさなど)と、上記栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、上記障害物により形成される日陰領域を算出し、算出した当該日陰領域に基づいて、上記栽培地についての日照状況を含む栽培地環境を推定する栽培地環境情報処理部(例えば、栽培地環境情報処理部27)と、推定された上記栽培地環境と、栽培植物の生育環境に関する情報(例えば、ネットワークサーバ16から得られた植物の栽培に適した日照時間や日照時間帯、降水量に関する情報)とに基づいて、上記栽培植物のなかから上記栽培地で栽培することが推奨される植物を出力する栽培植物推奨処理部(例えば、栽培植物推奨処理部30)と、出力された上記推奨される植物をユーザに提示する推奨植物出力部(例えば、推奨植物出力部31)と、を有する。したがって、栽培地付近の障害物(例えば、自宅や塀)により形成される日陰の影響を考慮して、栽培する植物の種類を設定するための支援が可能となる。例えば、自宅の庭における植物の栽培に影響を与える環境条件を把握し、栽培場所となる候補地のなかから環境条件に適した場所に栽培する植物の種類を設定するための支援を行うことができる。
 また、図11や図12A等を用いて説明したように、上記栽培植物推奨処理部が、上記栽培地環境と上記生育環境との一致度を算出し、上記推奨植物出力部が、算出された上記一致度が高い順に、上記推奨される植物を出力する。したがって、植物に関する知識がないユーザであっても、栽培地の環境に適した植物を栽培することができる。
 また、図13等を用いて説明したように、ユーザに提示された上記推奨される植物の成長時季に応じて定められたオブジェクトを、画面上に表示するオブジェクト表示部(例えば、ARオブジェクト表示部32)を有する。したがって、ユーザは、栽培する植物が成長する様子を、時季ごとに直観的に把握することができる。
 また、図13等を用いて説明したように、上記オブジェクト表示部は、ユーザから指定された上記成長時季に応じて、上記画面上に表示した上記オブジェクトを変化させる。したがって、ユーザが望むタイミングで、上記オブジェクトの表示を切り換えるなどして、時季に応じて成長する植物を直観的に把握することができる。
 また、図14等において説明したように、上記推奨植物出力部は、上記推奨される植物に応じて定められた、当該植物を栽培するために必要なサポート情報(例えば、植物の水やりのタイミング)、を、上記推奨される植物に対応付けて提示する。したがって、植物に関する知識がないユーザであっても、どのような方法で植物を栽培すべきかについてのサポートを受けつつ、栽培地の環境に適した植物を栽培することができる。
 以下、実施例2に関して説明する。なお、実施例2の基本的なハードウェア構成及びソフトウェア構成は前述の実施例1と同様であり、以下では、本実施例(実施例2)と前述の実施例(実施例1)との相違点に関して主に説明し、共通する部分は重複を避けるため極力説明を省略する。
 前述の実施例1では、栽培地に適合する植物を選択することを目的としていたが、本実施例では、栽培する植物に適合する栽培地を選択することを目的としている。以下、本実施例について説明する。
[本実施例の機能ブロック]
 図15は、本実施例のHMDにおける機能ブロック構成の一例を示す機能ブロック図である。
 図15の機能ブロックは、図4の機能ブロックと重複する機能を有しており、図4の機能ブロック図の栽培植物推奨処理部30と推奨植物出力部31の代わりに、栽培地推奨処理部33と、推奨栽培地出力部34が追加されている。ここでは、追加された、栽培地推奨処理部33と、推奨栽培地出力部34について説明する。
 栽培地推奨処理部33は、ユーザ10が栽培したい栽培植物に最適(もしくは栽培可能)な栽培地を抽出し推奨する。
 推奨栽培地出力部34は、栽培地推奨処理で推奨された栽培地を、ユーザ10に提示する。
[本実施例の処理手順]
 図16は、本実施例における栽培地選択支援処理(S460)の手順を示すフローチャートである。図16における栽培地選択支援処理(S460)の処理手順の説明には、図15の機能ブロック図を参照して説明する。
 図16の栽培地選択支援処理(S460)の手順を示すフローチャートは、図6の栽培植物選択支援処理(S400)の手順を示すフローチャートと重複する処理を含む。相違点は、図6の栽培植物選択支援処理(S400)における栽培地選択処理(S403)、サブルーチンの栽培植物推奨処理(S440)、栽培可能植物選択処理(S404)が、図16の栽培地選択支援処理(S460)では、栽培植物指定処理(S463)、サブルーチンの栽培地推奨処理(S480)、栽培地選択処理(S464)にそれぞれ置換されている。
 これらの各ステップの処理は、栽培地環境情報が取得完了時点以降の処理であって、ARオブジェクト表示要求判断処理以前の処理である。実施例1と違いは、栽培植物を選択するか、栽培地を選択するかの違いに起因している。
 ここでは、図6の栽培植物選択支援処理(S400)に無い、栽培植物指定処理(S463)と、サブルーチンである栽培地推奨処理(S480)と、栽培地選択処理(S464)についてのみ説明する。
 S420の栽培地環境情報の取得を完了した時点で、制御部21は、ユーザ10から、栽培したい植物の指定を受け付ける(S463)。指定される植物は、映像I/F7の撮像I/F71により撮影された任意の場所の栽培地に栽培する、ユーザ所望の植物である。
 次に、サブルーチンである栽培地推奨処理(S480)の処理を行う。ここで、サブルーチンであるS480の処理(栽培地推奨処理)について、説明する。
 図17は、サブルーチンである栽培地推奨処理(S480)の処理手順を示すフローチャートである。図17の処理手順の説明には、図15の機能ブロック図を参照して説明する。
 栽培地推奨処理部33は、メモリ4のプログラム41として格納されている栽培地推奨処理のプログラムを読み出し、順次実行する。
 S480の処理(栽培地推奨処理)が開始(S481)されると、先ず、栽培地環境情報記憶部28によりメモリ4の各種データ42に記憶されている栽培地環境情報テーブル(T840)を取得する(S482)。
 次に、栽培地推奨処理部33は、ユーザ10により指定された栽培植物の生育環境を調査する(S483)。本実施例では、指定された栽培植物の生育環境に関する情報は、ネットワーク網17を介して、ネットワークサーバ16から得ている。例えば、栽培地推奨処理部33は、環境省、植物園などの各種データ・資料ウェブサイトで公開されている植物と、当該植物の栽培に適した日照時間や日照時間帯、降水量に関する情報(例えば、年間降水量Xmm以下でも育ち乾燥に強いといった植物の生育に関する情報)とを対応づけて取得する。ここでは、S463において指定された植物についての生育環境に関する情報が取得される。
 栽培地推奨処理部33は、ネットワークサーバ16から取得したこれらの生育環境に関する情報と、図10に示した栽培地環境情報テーブル(T840)とを突き合わせる。当該突き合わせの方法については、例えば、栽培地推奨処理部33が、上記生育環境に関する情報を意味解析するなどして得られた結果と、当該栽培地環境情報テーブル(T840)に記憶されている環境情報比較項目860に含まれる値とが意味的な近似度を判定することにより行えばよい。そして、栽培地推奨処理部33は、取得した上記生育環境に関する情報に一致する(あるいは一定程度近い)という条件を満たす栽培地を、上記栽培地環境情報テーブル(T840)の中から読み取る。
 次に、推奨栽培地出力部34は、栽培可能な栽培地を提示し(S484)、栽培地推奨処理(S480)を終了する(S485)。
 S484の栽培可能栽培地提示処理では、いくつかの栽培地を、その植物に適合する度合に応じて、ランク付けして提示(推奨)することができる。
 例えば、ユーザ10が、栽培植物としてガザニアを指定した場合、ガザニアは日当たりと風通しが要求されるので、本実施例では、栽培地C(113C)をメインに、栽培地B(113B)と栽培地D(113D)をサブとして提示している。
 図18Aは、ユーザが植物を指定し、推奨する栽培地が提示されるまでの様子を説明するための図である。以下では、栽培地推奨処理部33が、ユーザ10が発声するなどした植物の種類の音声を認識し、あるいはユーザ10が右カメラ711や左カメラ712を用いて撮影した実物の植物の動画や画像を認識した場合を例にして説明する。また、以下では植物を栽培するお勧め場所がユーザ10の視界にある前提で説明する。
 図18Aの上段に示すように、ユーザ10は、HMD1の表示画面75を介して栽培地を視認する。この例では、ユーザ10は、表示画面75を介して、栽培地113C、113Dを視認している様子を示している。このような栽培地113C、113Dに対して、栽培地推奨処理部33は、ネットワーク16から取得した上記生育環境に関する情報に値や内容が近い順に、栽培地環境情報テーブル(T840)に記憶されている栽培地を読み取る。この例では、栽培地113Cとして栽培地環境情報テーブル(T840)に記憶されている情報が、ネットワーク16から取得した上記生育環境に関する情報に、値や内容が最も近い。したがって、推奨栽培地出力部34は、お勧め順位1として表示画面75上の、栽培地113Cに対応する場所S1の付近の領域rs1に、お勧め度(88%)が表示されている。
 同様に、栽培地Cの次に上記値や内容が近いため、お勧め順位2として表示画面75上の、栽培地113Dに対応する場所S2の付近の領域rs2に、お勧め度(70%)が表示されていることがわかる。当該お勧め度は、例えば、栽培地113Cとして栽培地環境情報テーブル(T840)に記憶されている情報と、ネットワーク16から取得した上記生育環境に関する情報との一致度から算出することができ、また、実施例1の場合と同様、他の表現形式で表示されてもよい。
 図18Aでは、植物を栽培するおすすめの場所がユーザ10の視界にある場合について説明した。しかし、必ずしもユーザ10がいている方向にお勧め度が高い栽培地が存在するとは限らない。例えば、ユーザ10が栽培地113Dの方向を見ているが、最もお勧め度が高い栽培地が栽培地113Dの付近ではない栽培地113Bである場合、ユーザ10は、その状態のまま表示画面75において直接栽培地113Bを確認することができない。
 このような場合には、推奨栽培地出力部34が、図18Bに示すように、表示画面75上のお勧め順位や場所が表示されていない領域に、栽培地環境情報テーブル(T840)に記憶されているすべての栽培地の位置を含む栽培地全体を俯瞰した全体オブジェクトSZを表示する。全体オブジェクトについては、あらかじめ記憶しておいてもよいし、推奨栽培地出力部34が、全体オブジェクトを表示画面75に表示する際に、栽培地環境情報テーブル(T840)の位置情報861などから生成してもよい。また、全体オブジェクトSZにかえて、あらかじめ記憶された栽培地全体の写真画像を表示してもよい。
 そして、推奨栽培地出力部34は、お勧め順位1として栽培地113Bに対応する全体オブジェクトSZ上の場所S1の付近の領域rs1に、お勧め度(88%)を表示する。お勧め順位1となる栽培地113Bの全体オブジェクトSZ上における位置については、栽培地環境情報テーブル(T840)に記憶されているすべての栽培地の位置情報861から、互いの栽培地の位置関係を算出できるため、このような情報に基づいて定めることができる。これにより、ユーザは、自身が直接的に視認できない最もお勧め度が高い栽培地についても、その場所を容易に把握することができる。
 さらに、推奨栽培地出力部34は、植物を栽培するおすすめの場所がユーザ10の視界にない場合において、他の形式でお勧め度が高い栽培地の存在をユーザ10に知らせてもよい。図18Cは、ユーザ10の視界にない植物を栽培するおすすめの場所をユーザ10に提示する画面の一例を示す図である。図18Cに示すように、推奨栽培地出力部34は、図18Bの場合と同様、栽培地推奨処理部33により、ユーザ10が視認している栽培地113Dの付近ではない栽培地113B(図18Cでは、視野外である栽培地113Bの場所S1’)が、最もお勧め度が高い栽培地であると判定されると、推奨栽培地出力部34は、その方向などの位置情報を示す矢印といった識別情報SAを、表示画面75に表示する。また、推奨栽培地出力部34は、当該識別情報の付近の領域rs1に、最もお勧め度が高い栽培地に対するお勧め度(88%)を表示する。これにより、ユーザは、どの方向に最もお勧め度が高い栽培地があるのかを容易に把握することができる。また、上記識別情報により示された方向に頭を移動させたり首を振るなどして、表示画面75に最もお勧め度が高い栽培地が表示させることができる。
 さらに、例えば、図18Bでは、全体オブジェクトSZを表示画面75に表示したが、最もお勧め度が高い栽培地に一定程度近づいた場合には、推奨栽培地出力部34は、図18Cに示した画面に切り替えて表示してもよい。これにより、ユーザは、最もお勧め度が高い栽培地に近づいていることを直観的に把握することができるとともに、全体オブジェクトSZが表示画面75に表示されなくなるため、実際の風景が表示される領域が図12Bとくらべて多くなり、より周辺状況を把握しやすくなる。その他、推奨栽培地出力部34は、位置情報861から現在位置を表示画面75に表示してもよい。これにより、栽培地の位置を正確に把握することができる。
 ここで、栽培地選択を支援する栽培地選択支援処理(S460)である図16の処理手順に戻って、説明を継続する。
 サブルーチンである栽培地推奨処理(S480)が終了すると、ユーザ10は、提示(推奨)された栽培地を選択する(S464)。サブルーチンである栽培地推奨処理(S480)で複数提示された場合は、提示された複数の栽培地の中から一つもしくは複数の栽培地を選択する。
 S464以降の処理は、図6の栽培植物選択支援処理(S400)と同じであるので、ここでの説明は省略するが、栽培可能植物を栽培地に読み替えて実行すればよい。
 本実施例では、ユーザ10が、自分の好みの植物について、栽培地を選択できるので、よりユーザ10の嗜好により近づいた植物栽培支援システムとすることができる。本実施例では、ユーザ10が選択指定した植物について、実施例1の場合と同様の方法で、サポート情報(理想的な水やり、肥料、病気、害虫、用土、植え付け、植え替え、ふやし方、等)を提示してもよい。例えば、推奨栽培地出力部34は、当該植物を栽培するために必要な栽培地に関するサポート情報(栽培を行うために適した水分量や土の温度といった土壌づくりのための情報など)を提示してもよい。これらのサポート情報は、栽培地推奨処理部33が、上述した生育環境に関する情報を取得する際に、当該生育環境に関する情報に含まれる栽培地(例えば、土壌の種類)をキーにするなどして、環境省、植物園などの各種データ・資料ウェブサイトやネットワークサーバ16などから取得すればよい。また、実施例1の場合と同様、タイマーを利用したサポートを実行してもよい。
 このように、本実施例では、栽培地の位置情報を取得する位置情報取得部(例えば、位置情報取得部23)と、撮影部(例えば、右カメラ711や左カメラ712)により撮影された上記栽培地の付近の撮影データを取得する撮影データ取得部(例えば、撮影データ取得部25)と、上記撮影データに含まれる障害物と検知部(例えば、距離センサ55)により計測された上記障害物までの距離とを用いて算出した上記撮影データに含まれる障害物の特徴情報(例えば、障害物の位置(配置)や大きさなど)と、上記栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、上記障害物により形成される日陰領域を算出し、算出した当該日陰領域に基づいて、上記栽培地についての日照状況を含む栽培地環境を推定する栽培地環境情報処理部(例えば、栽培地環境情報処理部27)と、推定された上記栽培地環境と、栽培地における植物の生育環境に関する情報(例えば、ネットワークサーバ16から得られた植物の栽培に適した日照時間や日照時間帯、降水量に関する情報)とに基づいて、上記栽培地環境が推定された栽培地のなかから、ユーザから指定された植物を栽培することが推奨される栽培地を出力する栽培地推奨処理部(例えば、栽培地推奨処理部33)と、出力された上記推奨される栽培地をユーザに提示する推奨栽培地出力部(例えば、推奨栽培地出力部34)と、を有する。したがって、栽培地付近の障害物(例えば、自宅や塀)により形成される日陰の影響を考慮して、植物を栽培する場所の設定の支援が可能となる。例えば、植物を栽培する自宅の庭の環境条件を把握し、栽培場所となる候補地のなかから環境条件に適した植物の栽培場所を設定するための支援を行うことができる。
 また、図17や図18A等を用いて説明したように、上記栽培地推奨処理部は、上記栽培地環境と上記生育環境との一致度を算出し、上記推奨栽培地出力部は、算出された上記一致度が高い順に、上記推奨される栽培地を出力する。したがって、植物に関する知識がないユーザであっても、植物に適した環境の栽培地を選定することができる。
 また、図18B等を用いて説明したように、全体の栽培地における、ユーザに提示された上記推奨される栽培地の位置を示すオブジェクトを、画面上に表示するオブジェクト表示部(ARオブジェクト表示部32)を有する。したがって、ユーザは、植物の栽培地を直接視認できない場合でも、栽培しようとする植物に適した栽培地を直観的に把握することができる。
 また、図18C等を用いて説明したように、上記オブジェクト表示部は、上記画面上に上記推奨される栽培地の位置を含まない場合、上記推奨される栽培地の位置の方向を示す識別情報(例えば、矢印などの識別情報SA)を、上記画面上に表示する。したがって、ユーザは、栽培しようとする植物に適した栽培地がどの方向にあるのかを、直観的に把握することができる。
 また、上記推奨栽培地出力部は、上記指定された植物に応じて定められた、当該植物を栽培するための栽培地に必要なサポート情報を、上記植物に対応付けて提示する。したがって、栽培地に関する知識がないユーザであっても、どのような方法で植物を栽培する土壌づくりを行えばよいのかについてのサポートを受けつつ、植物に適した栽培地をつくることができる。
 以下、実施例3に関して説明する。なお、実施例3の基本的なハードウェア構成及びソフトウェア構成は前述の実施例(実施例1、実施例2)と同様であり、以下では、本実施例(実施例3)と前述の実施例(実施例1、実施例2)との相違点に関して主に説明し、共通する部分は重複を避けるため極力説明を省略する。
 前述の実施例では、栽培地に適合する植物を選択することや、栽培する植物に適合する栽培地を選択することを目的としていたが、本実施例では、栽培地(地面)以外に栽培する場合を目的としている。以下、本実施例について説明する。
 本実施例では、鉢や容器(プランター)を用いて植物を栽培するコンテナガーデンを想定している。前述の実施例における栽培地環境情報処理において、地面である栽培地でなく、鉢や容器(プランター)の場所(栽培場所)に置き換えると、前述の実施例が、そのまま利用できる。
 例えば、栽培地環境情報処理部27は、図7に示したS428において、S427で算出した位置と大きさの障害物(自宅建物111)に影響されない日照領域を算出する際に、鉢や容器(プランター)の高さを含めた算式に基づいて、日陰距離を算出すればよい。
 具体的には、図8を用いて説明した日陰距離103を、鉢や容器(プランター)の高さhを差し引いた次式により、日光を遮る障害物102(高さH)による日陰距離103を求めることができる。
  夏至時日陰距離103A
  =(H-h)/tan(77.8°)=0.216(H-h)…(式5)
  冬至時日陰距離103B
  =(H-h)/tan(30.9°)=1.67(H-h)…(式6)
 障害物に庇104(地面からの高さH)が有る場合も同様に考えることができ、この場合は、図9を用いて説明した日の差し込む距離105を、鉢や容器(プランター)の高さhを差し引いた次式により求めることができる。
  夏至時の日が差し込む距離105A
  =(H-h)/tan(77.8°)=0.216(H-h)…(式7)
  冬至時の日が差し込む距離105B
  =(H-h)/tan(30.9°)=1.67(H-h)…(式8)
 ベランダ等の屋外の環境に近い場所もあるが、屋内等の室内環境の場合、雨を期待することができないので、人工的な水やりが必要である。本実施例では、上述した各実施例の場合と同様、植物や栽培地に関するサポート情報をユーザ10に提示してもよい。また、上述した各実施例の場合と同様、タイマーを利用したサポートを実行してもよい。
 以下、実施例4に関して説明する。なお、実施例4の基本的なハードウェア構成及びソフトウェア構成は前述の実施例と同様であり、以下では、本実施例(実施例4)と前述の実施例(実施例1~実施例3)との相違点に関して主に説明し、共通する部分は重複を避けるため極力説明を省略する。
 前述の実施例では、携帯情報端末として、HMDを採用していたが、本実施例では、携帯情報端末としてスマートフォンを採用している。以下、本実施例について説明する。
 図19は、本実施例の概要を説明するための模式図である。図19は、図1におけるHMDの代わりに、ユーザ10がスマートフォン18を保持し、塀12Aと塀12Bとで構成される角地である栽培地(植物を栽培するための土地)の環境条件を、調査している様子を示した模式図である。
 また、図20は、本実施例で使用するスマートフォンの一例を示す外観図である。
 図20において、スマートフォン18は、タッチパネルで構成された表示画面181および自分撮り用のフロントカメラ(インカメラとも言う)182を有するスマートフォン正面183と、リアカメラ(アウトカメラもしくは単にカメラとも言う)184を有するスマートフォン背面185、及びスマートフォン側面から構成されている。
 スマートフォン18の正面のカメラレンズの方向の側面(図19では上側側面)には、図示せざるイヤフォンマイク端子、スマートフォン18の正面のカメラレンズと逆方向の側面(図20では下側側面)には、図示せざる外部接続端子、スマートフォン18の正面のカメラレンズ方向の右側側面には、図示せざる電源キーや音量キー、スマートフォン18の正面のカメラレンズ方向の左側側面には、図示せざるカードトレイ部、がそれぞれ設けられている。
 ユーザ10は、図20のスマートフォン18を栽培地11に向けて、スマートフォン18に内蔵されている各種センサやアプリケーションソフトにより、栽培地11の環境条件を調査する。
 また、図20のスマートフォン18を栽培地11に向けて、スマートフォン18のリアカメラ184で、栽培地11を撮影すると、スマートフォン18の表示画面181には、栽培地11の撮影画面が表示される。そして、その表示画面181に推奨植物名を提示することや、推奨栽培地を提示することができる。また、上述した各実施例で説明した栽培植物や栽培地に関するサポート情報を提示することもできる。また、植物の生長をARオブジェクトにより表示することもできる。
 以上、本発明の実施形態の例を実施例1~4を用いて説明してきたが、栽培する植物は限定するものではなく、花木、野菜、樹木等、種々の植物について、適用できることは、言うまでない。
 また、前述の実施例では、日光を遮る障害物として、説明を簡素化するため自宅建物のみを想定していたが、自宅建物付近の柵が塀の場合、立木等の樹木が存在する場合、隣家の建物や隣家の塀が存在する場合、近傍に高層ビルが存在する場合等は、個々に考慮する必要があることは、言うまでもない。
 また、前述の実施例では、携帯情報端末として、HMDもしくはスマートフォンを対象として説明したが、同様な機能があれば、HMDやスマートフォン以外の携帯情報端末、例えば、タブレット、ノートパソコンを含むパソコン機器、等においても、本発明が適用できることは言うまでもない。
 上述した各実施例において示した携帯情報端末を用いることにより、日陰か日向等の大まかな判断しかされておらず、影響が大きいと考えられる自宅の複雑な形状や塀、他の植物等の障害物が作る日陰部分や雨に対する考慮されていない、といった従来の植栽例に対する問題を改善することができる。したがって、家屋や塀に囲まれた狭い庭においても、各々の場所の環境に最適な植物の選択や、最適な栽培地を作ることができ、植物が成長する豊かな庭を形成することができる。
 また、本発明の技術を実現する構成は前記実施例に限られるものではなく、様々な変形例が考えられる。例えば、ある実施例の構成の一部を他の実施例の構成と置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。これらは全て本発明の範疇に属するものである。
 また、文中や図中に現れる数値やメッセージ等もあくまでも一例であり、異なるものを用いても本発明の効果を損なうことはない。
 前述した本発明の機能等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。また、マイクロプロセッサユニット等がそれぞれの機能等を実現するプログラムを解釈して実行することによりソフトウェアで実現しても良い。ハードウェアとソフトウェアを併用しても良い。前記ソフトウェアは、製品出荷の時点で、予めHMDやスマートフォン18のプログラム41等に格納された状態であっても良い。製品出荷後に、インターネット上の各種サーバ装置等から取得するものであっても良い。また、メモリカードや光ディスク等で提供される前記ソフトウェアを取得するものであっても良い。
 また、図中に示した制御線や情報線は説明上必要と考えられるものを示しており、必ずしも製品上の全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えても良い。
…HMD、2…CPU、3…システムバス、4…メモリ、5…センサ、6…通信処理I/F、7…映像処理I/F、8…音声処理I/F、9…操作入力I/F、16…ネットワークサーバ、18…スマートフォン、42…各種データ、51…GPS受信センサ、55…距離センサ、71…撮像I/F、72…表示I/F、75…表示画面、711…右カメラ、712…左カメラ、181…表示画面、184…リアカメラ。

Claims (12)

  1.  栽培地の位置情報を取得する位置情報取得部と、
     撮影部により撮影された前記栽培地の付近の撮影データを取得する撮影データ取得部と、
     前記撮影データに含まれる障害物と検知部により計測された前記障害物までの距離とを用いて算出した前記撮影データに含まれる障害物の特徴情報と、前記栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、前記障害物により形成される日陰領域を算出し、算出した当該日陰領域に基づいて、前記栽培地についての日照状況を含む栽培地環境を推定する栽培地環境情報処理部と、
     推定された前記栽培地環境と、栽培植物の生育環境に関する情報とに基づいて、前記栽培植物のなかから前記栽培地で栽培することが推奨される植物を出力する栽培植物推奨処理部と、
     出力された前記推奨される植物をユーザに提示する推奨植物出力部と、
     を有することを特徴とする携帯情報端末。
  2.  前記栽培植物推奨処理部は、前記栽培地環境と前記生育環境との一致度を算出し、
     前記推奨植物出力部は、算出された前記一致度が高い順に、前記推奨される植物を出力する、
     ことを特徴とする請求項1に記載の携帯情報端末。
  3.  ユーザに提示された前記推奨される植物の成長時季に応じて定められたオブジェクトを、画面上に表示するオブジェクト表示部、
     を有することを特徴とする請求項1に記載の携帯情報端末。
  4.  前記オブジェクト表示部は、ユーザから指定された前記成長時季に応じて、前記画面上に表示した前記オブジェクトを変化させる、
     ことを特徴とする請求項3に記載の携帯情報端末。
  5.  前記推奨植物出力部は、前記推奨される植物に応じて定められた、当該植物を栽培するために必要なサポート情報を、前記推奨される植物に対応付けて提示する、
     ことを特徴とする請求項1に記載の携帯情報端末。
  6.  栽培地の位置情報を取得する位置情報取得部と、
     撮影部により撮影された前記栽培地の付近の撮影データを取得する撮影データ取得部と、
     前記撮影データに含まれる障害物と検知部により計測された前記障害物までの距離とを用いて算出した前記撮影データに含まれる障害物の特徴情報と、前記栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、前記障害物により形成される日陰領域を算出し、算出した当該日陰領域に基づいて、前記栽培地についての日照状況を含む栽培地環境を推定する栽培地環境情報処理部と、
     推定された前記栽培地環境と、栽培地における植物の生育環境に関する情報とに基づいて、前記栽培地環境が推定された栽培地のなかから、ユーザから指定された植物を栽培することが推奨される栽培地を出力する栽培地推奨処理部と、
     出力された前記推奨される栽培地をユーザに提示する推奨栽培地出力部と、
     を有することを特徴とする携帯情報端末。
  7.  前記栽培地推奨処理部は、前記栽培地環境と前記生育環境との一致度を算出し、
     前記推奨栽培地出力部は、算出された前記一致度が高い順に、前記推奨される栽培地を出力する、
     ことを特徴とする請求項6に記載の携帯情報端末。
  8.  全体の栽培地における、ユーザに提示された前記推奨される栽培地の位置を示すオブジェクトを、画面上に表示するオブジェクト表示部、
     を有することを特徴とする請求項6に記載の携帯情報端末。
  9.  前記オブジェクト表示部は、前記画面上に前記推奨される栽培地の位置を含まない場合、前記推奨される栽培地の位置の方向を示す識別情報を、前記画面上に表示する、
     ことを特徴とする請求項8に記載の携帯情報端末。
  10.  前記推奨栽培地出力部は、前記指定された植物に応じて定められた、当該植物を栽培するための栽培地に必要なサポート情報を、前記植物に対応付けて提示する、
     ことを特徴とする請求項6に記載の携帯情報端末。
  11.  携帯情報端末により、栽培地での栽培において推奨する植物を提示する情報処理方法であって、
     栽培地の位置情報を取得し、
     撮影部により撮影された前記栽培地の付近の撮影データを取得し、
     前記撮影データに含まれる障害物と検知部により計測された前記障害物までの距離とを用いて算出した前記撮影データに含まれる障害物の特徴情報と、前記栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、前記障害物により形成される日陰領域を算出し、
     算出した当該日陰領域に基づいて、前記栽培地についての日照状況を含む栽培地環境を推定し、
     推定された前記栽培地環境と、栽培植物の生育環境に関する情報とに基づいて、前記栽培植物のなかから前記栽培地で栽培することが推奨される植物を出力し、
     出力された前記推奨される植物をユーザに提示する、
     を有することを特徴とする情報処理方法。
  12.  携帯情報端末により、植物の栽培において推奨する栽培地を提示する情報処理方法であって、
     栽培地の位置情報を取得し、
     撮影部により撮影された前記栽培地の付近の撮影データを取得し、
     前記撮影データに含まれる障害物と検知部により計測された前記障害物までの距離とを用いて算出した前記撮影データに含まれる障害物の特徴情報と、前記栽培地の位置情報に基づいて得られた太陽の推移を示す情報とに基づいて、前記障害物により形成される日陰領域を算出し、
     算出した当該日陰領域に基づいて、前記栽培地についての日照状況を含む栽培地環境を推定し、
     推定された前記栽培地環境と、栽培地における植物の生育環境に関する情報とに基づいて、前記栽培地環境が推定された栽培地のなかから、ユーザから指定された植物を栽培することが推奨される栽培地を出力し、
     出力された前記推奨される栽培地をユーザに提示する、
     を有することを特徴とする情報処理方法。
PCT/JP2022/002740 2022-01-25 2022-01-25 携帯情報端末及び情報処理方法 WO2023144899A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/002740 WO2023144899A1 (ja) 2022-01-25 2022-01-25 携帯情報端末及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/002740 WO2023144899A1 (ja) 2022-01-25 2022-01-25 携帯情報端末及び情報処理方法

Publications (1)

Publication Number Publication Date
WO2023144899A1 true WO2023144899A1 (ja) 2023-08-03

Family

ID=87471190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/002740 WO2023144899A1 (ja) 2022-01-25 2022-01-25 携帯情報端末及び情報処理方法

Country Status (1)

Country Link
WO (1) WO2023144899A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014026378A (ja) * 2012-07-25 2014-02-06 Nec Casio Mobile Communications Ltd 端末装置、サーバ装置、情報処理システム、情報処理方法、およびプログラム
WO2018008182A1 (ja) * 2016-07-06 2018-01-11 田中穂光 花壇受発注システム及び配植計画支援プログラム
JP2020143507A (ja) * 2019-03-07 2020-09-10 三菱電機株式会社 設定システム、設定装置、設定方法及びプログラム
JP2021039753A (ja) * 2019-08-29 2021-03-11 株式会社天地人 土地適性評価装置、土地適性評価方法、及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014026378A (ja) * 2012-07-25 2014-02-06 Nec Casio Mobile Communications Ltd 端末装置、サーバ装置、情報処理システム、情報処理方法、およびプログラム
WO2018008182A1 (ja) * 2016-07-06 2018-01-11 田中穂光 花壇受発注システム及び配植計画支援プログラム
JP2020143507A (ja) * 2019-03-07 2020-09-10 三菱電機株式会社 設定システム、設定装置、設定方法及びプログラム
JP2021039753A (ja) * 2019-08-29 2021-03-11 株式会社天地人 土地適性評価装置、土地適性評価方法、及びプログラム

Similar Documents

Publication Publication Date Title
CA3097163C (en) Presenting integrated building information using three-dimensional building models
CA3095189C (en) Providing simulated lighting information for three-dimensional building models
US11935196B2 (en) Presenting building information using building models
CN102567967B (zh) 用于空间图像的大气和阳光校正的技术
EP2355440B1 (en) System, terminal, server, and method for providing augmented reality
US20190306424A1 (en) Capture, Analysis And Use Of Building Data From Mobile Devices
US8386179B2 (en) Solar access measurement device
US20140176688A1 (en) Photographing apparatus, information providing method, and computer product
CN104702871A (zh) 无人机投影显示方法、系统及装置
AU2022200474B2 (en) Automated exchange and use of attribute information between building images of multiple types
WO2018113173A1 (zh) 一种虚拟现实显示方法及终端
CN114125310B (zh) 拍照方法、终端设备及云端服务器
US20230351067A1 (en) System and method for generating a landscape design
CN106980671A (zh) 基于vr虚拟实景的农作物品种技术网络展示平台
JP2017520278A (ja) 植物生長環境調整方法、装置、プログラム及び記録媒体
JP2017520278A5 (ja)
CN106095774A (zh) 一种无人机图像全景展示方法
CN103763470A (zh) 一种便携式场景拍照装置
JP2019200627A (ja) データ処理プログラム、データ処理方法、および、データ処理装置
JP2013149029A (ja) 情報処理装置、情報処理方法
JP2014026378A (ja) 端末装置、サーバ装置、情報処理システム、情報処理方法、およびプログラム
CN106200935A (zh) 控制方法、控制装置及电子装置
WO2023144899A1 (ja) 携帯情報端末及び情報処理方法
CN204046707U (zh) 一种便携式场景拍照装置
CA3187671A1 (en) Presenting building information using building models

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22923768

Country of ref document: EP

Kind code of ref document: A1