WO2022264258A1 - 作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム - Google Patents

作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム Download PDF

Info

Publication number
WO2022264258A1
WO2022264258A1 PCT/JP2021/022666 JP2021022666W WO2022264258A1 WO 2022264258 A1 WO2022264258 A1 WO 2022264258A1 JP 2021022666 W JP2021022666 W JP 2021022666W WO 2022264258 A1 WO2022264258 A1 WO 2022264258A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
area
information
work time
time
Prior art date
Application number
PCT/JP2021/022666
Other languages
English (en)
French (fr)
Inventor
めぐみ 平川
聡 村田
壮太 坂口
勝平 並木
亮太 久田
隆一 木全
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to EP21945938.5A priority Critical patent/EP4357989A1/en
Priority to JP2023528799A priority patent/JPWO2022264258A1/ja
Priority to PCT/JP2021/022666 priority patent/WO2022264258A1/ja
Publication of WO2022264258A1 publication Critical patent/WO2022264258A1/ja
Priority to US18/536,886 priority patent/US20240112109A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0631Resource planning, allocation, distributing or scheduling for enterprises or organisations
    • G06Q10/06314Calendaring for a resource
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining

Definitions

  • the present invention relates to a work time prediction device, a server device, a terminal device, a work time prediction method, and a program.
  • lawn mowing and mowing may be performed by landscapers (landscapers).
  • Landscapers do this with equipment such as lawn mowers (e.g., US Pat. No. 5,300,000), trimmers or blowers, or manually.
  • the landscaper When a landscaper receives a work request from a client, the landscaper may observe the area to be worked on, predict the work time, and estimate the work cost based on the predicted work time. Therefore, it is desired to improve the prediction accuracy of the work time in order to make an appropriate estimate.
  • the present invention provides a technique for appropriately predicting work time.
  • Acquisition means for acquiring area information about the current work area Work in the current work area based on the area information acquired by the acquisition means and history information in which area information related to past work areas and time information related to work time in the past work areas are associated a prediction means for predicting time;
  • a work time prediction device characterized by:
  • work time can be predicted appropriately.
  • FIG. 4 is a diagram showing an example of a work area for which work time is to be predicted;
  • FIG. 4 is a diagram showing an example of data stored in a storage unit;
  • FIG. 3 is a sequence diagram showing an example of control of a server device and a terminal device;
  • FIG. 4 is a diagram showing an example of a work area for which work time is to be predicted;
  • FIG. 4 is a diagram showing an example of data stored in a storage unit;
  • FIG. 3 is a sequence diagram showing an example of control of a server device and a terminal device;
  • FIG. 4 is a diagram showing an example of a work area for
  • FIG. 5 is a flowchart showing a specific example of the processing in FIG. 4;
  • FIG. 4 The figure which shows the past information regarding a lawn.
  • FIG. 3 is a sequence diagram showing an example of control of a server device and a terminal device;
  • FIG. 10 is a diagram showing an example of a screen displayed on the display unit in determination result confirmation processing; The figure which shows the example of the screen of the display part at the time of the input acceptance of area information.
  • FIG. 5 is a flowchart showing a specific example of the processing in FIG. 4;
  • FIG. FIG. 5 is a flowchart showing a specific example of the processing in FIG. 4;
  • FIG. 5 is a flowchart showing a specific example of the processing in FIG. 4;
  • FIG. 1 is a diagram showing an overview of a work time prediction system SY1 (hereinafter referred to as system SY1) according to one embodiment.
  • the system SY1 is a system for estimating the time required for a landscaper or the like to perform work such as lawn mowing or mowing in a park or garden.
  • System SY1 includes server device 1 and terminal device 2 .
  • the server device 1 and the terminal device 2 are provided so as to be able to communicate via a network NW such as the Internet.
  • the server device 1 functions as a work time prediction device for predicting the time required for work.
  • the server device 1 includes a processing unit 101 , a storage unit 102 and a communication unit 103 .
  • the processing unit 101, the storage unit 102, and the communication unit 103 are connected by a bus (not shown).
  • the processing unit 101 is a processor represented by a CPU, and by executing programs stored in the storage unit 102, implements various functions related to the server device 1 as a work time prediction device.
  • the storage unit 102 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), or an SSD (Solid State Drive). data is stored.
  • a communication unit 103 is a communication interface with an external device.
  • the terminal device 2 is, for example, a terminal operated by a user who performs work.
  • the terminal device 2 may be, for example, a tablet, a smartphone, a PC, or the like.
  • the terminal device 2 includes a processing unit 201 , a storage unit 202 , a communication unit 203 , a display unit 204 and an input unit 205 .
  • the processing unit 201, the storage unit 202, the communication unit 203, the display unit 204, and the input unit 205 are connected by a bus (not shown).
  • the processing unit 201 is a processor represented by a CPU, and realizes various functions related to the terminal device 2 by executing programs stored in the storage unit 202 .
  • the storage unit 202 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), or an SSD (Solid State Drive). data is stored.
  • a communication unit 203 is a communication interface with an external device.
  • the display unit 204 is a user interface that displays various information.
  • the display unit 204 may be a liquid crystal display, an organic EL panel, or the like.
  • An input unit 205 is a user interface that receives input from the user.
  • the input unit 205 may be a touch panel, a pointing device such as a mouse, or hard keys.
  • the server apparatus 1 may be divided into two or more elements as necessary. That is, the server device 1 as a work time prediction device may be configured by combining a plurality of devices. Also, at least part of the functions realized by the server device 1 may be realized by known semiconductor devices such as PLDs (Programmable Logic Devices) and ASICs (Application Specific Integrated Circuits).
  • FIG. 2 is a diagram showing an example of the work area 5 for which work time is to be predicted.
  • the work area 5 of this embodiment is divided into a lawn area 51, a grass area 52, a handheld area 53, and a hedge area 54 according to the content of the work performed by the landscaper.
  • the lawn area 51 is an area where grass is planted.
  • the landscaper mows the lawn using a riding lawn mower 61 or a walking lawn mower (not shown).
  • lawn mowing may be performed by an autonomous robotic lawn mower or the like.
  • trees 58 are planted in the lawn area 51, and the landscaper works while avoiding the trees 58 and their surroundings.
  • the tree 58 and its surrounding area are non-approachable areas for the work machine.
  • the grassland area 52 is an area where grass grows.
  • the landscaper cuts grass using a riding mower 62 or a walking mower.
  • mowing work may be performed by an autonomous robot mower or the like.
  • a pond 55 is arranged in the grassland area 52, and the landscaper works while avoiding the pond 55 and its surroundings.
  • the handheld area 53 is an area where the landscaper performs manual work.
  • the landscaper manually cuts the portion adjacent to the building 56 or the passageway 57 using a handheld work machine 63 or the like such as an edger. work with
  • the hedge area 54 is an area where hedges are planted.
  • a landscaper uses the trimmer 64 to contour a hedge.
  • the method of dividing the work area 5 is convenient according to the work content, and can be set as appropriate.
  • FIG. 3 is a diagram showing an example of data stored in the storage unit 102.
  • a work history database 1021 is constructed in the storage unit 102, and history information related to past work is stored.
  • the history information includes information in which area information about past work areas and time information about past work hours are associated.
  • the history information includes information related to estimation of work costs.
  • the storage unit 102 manages and stores history information for each work area using an area ID.
  • Area information related to past work areas includes work divisions, work area sizes, and coefficients.
  • a work division is a division of an area within the work area according to the work performed by the landscaper. In FIG. 3, lawn, grass, handhelds, and hedges are shown as work divisions to match the work area 5 of FIG.
  • the size of the work area is shown for each work section. For lawn, grass and handheld, the respective areas are shown. Also, for hedges, the surface area of the part to be worked on is shown. Note that the size of the hedge may be indicated by the area of the area where the hedge is planted, for example. However, by expressing the size of the hedge in terms of surface area, the amount of work can be grasped more appropriately.
  • the coefficient is the value that is multiplied by the size of the work area.
  • each coefficient is set to a value between 1 and 2. This coefficient is used to consider not only the size of the work area but also the workability of the work area when predicting the work time, which will be described later. For example, when the work area is sloped or when it is necessary to avoid the waterside of the work area, it is necessary to reduce the movement speed of the work equipment, and the work takes more time. Sometimes. Therefore, if there is a factor in the work area that causes an increase in work time, by using a numerical value obtained by multiplying the size of the work area by a predetermined coefficient to predict the work time, it is possible to reduce the work time in the work area. It is possible to predict the work time in consideration of ease. That is, it can be said that the value of area ⁇ coefficient here is information used for predicting the work time, taking into consideration the ease of work in the work area.
  • the area information regarding past work areas includes coefficients regarding slopes, watersides, objects, and plants. That is, if the work area has a slope, there is a waterfront, there is an object that needs to be avoided, etc., it is considered that the work will take more time, and these factors are set as coefficients. In addition, depending on the type of plant to be mowed in the work area, it may take more time to work due to reasons such as being hard and difficult to mow, so the type of plant is also set as a coefficient. Note that the targets for which coefficients are set are not limited to these, and can be set as appropriate.
  • workability information related to ease of work in a work area includes coefficients related to slopes, watersides, objects, and plants, but workability information may be information other than coefficients.
  • the workability information may be various information related to workability, such as the average slope of the work area, the area of the waterside or the object, the length of the waterside or the perimeter of the object, and the like.
  • the workability information may be information related to the weather, such as the amount of sunshine in the work area, hours of sunshine, temperature, humidity, and amount of precipitation. For example, even for the same plant, the degree of growth varies depending on the amount of sunlight and rainfall, which may affect the working time. Further, for example, if it rains on the day of work or the day before, the working time may be affected by mud in the work area. Therefore, the coefficients described above may be set for these pieces of information.
  • Time information related to past work hours includes actual work hours, number of workers, and number of working machines.
  • the information related to the estimate of work costs includes the amount of fuel consumed by the work machine and the actual costs (actual costs).
  • the time information on past work hours includes information on work hours, information on the number of workers, and information on the number of workers for each work category.
  • FIG. 4 is a sequence diagram showing a control example of the server device 1 and the terminal device 2. As shown in FIG. For example, this sequence is executed when a landscaper (user) predicts the work time for the work area and estimates the cost. In the following description, each step is simply referred to as S1 or the like.
  • the processing unit 201 executes processing for accepting input of area information regarding the current work area.
  • the processing unit 201 commands the input unit 205 to accept user input.
  • FIG. 5 is a diagram showing a screen example of the display unit 204 when accepting input of area information.
  • the input unit 205 receives, as area information, input of size information about the size of the work area and workability information about workability in the work area.
  • the "size” corresponds to the size information
  • the "coefficient" corresponds to the workability information regarding workability.
  • the input unit 205 can accept input of classification information regarding work classification as area information. Then, the input unit 205 receives an input of an area as size information and a coefficient as workability information for each task division.
  • the division of work may include at least one of turf work, grass work, manual labor and hedge work. Further, in the present embodiment, the input unit 205 receives the surface area of the work target portion of the hedge as the width information.
  • the input unit 205 receives the number of workers for each work section and the number of work patterns for which an estimate is to be created as information for creating an estimate.
  • the workability information to be input includes information about the inclination of the work area, the non-entry area of the work machine in the work area, the types of objects placed on the work area, and the plants on the work area. include.
  • the input unit 205 is configured to accept coefficients for each item. Note that the items of coefficients that accept inputs are not limited, and may include at least one of the exemplified items, or may include items other than the exemplified items.
  • the communication unit 203 transmits the area information acquired in S1 to the server device 1 based on the command from the processing unit 201.
  • the processing unit 101 of the server device 1 executes processing for receiving the area information transmitted from the terminal device 2 .
  • the processing unit 101 receives the area information transmitted from the terminal device 2 through the communication unit 103 . That is, the processing unit 101 acquires area information about the current work area by receiving information from the terminal device 2 . Furthermore, the processing unit 101 acquires information input to the terminal device 2 by the user as area information.
  • the processing unit 101 predicts work time.
  • the processing unit 101 performs the work in the current work area based on the area information acquired in S3 and the history information in which the area information related to the past work area and the time information related to the work time in the past work area are associated. The details of this step of estimating the time will be described later.
  • the processing unit 101 generates an estimate of the work cost based on the work time predicted at S4. For example, the processing unit 101 calculates an estimate in consideration of the work hours, the number of workers, the number of work machines, the fuel cost of the work machines, and the like for each work section.
  • the communication unit 103 transmits information on the estimated work time and estimate based on the command from the processing unit 101. That is, the processing unit 101 outputs to the terminal device 2, via the communication unit 103, the work time predicted in S4 and an estimate of the work cost based on the work time. In the present embodiment, the processing unit 101 outputs a plurality of patterns of work cost estimates according to the number of working machines used in the current work (see FIG. 6).
  • the processing unit 201 of the terminal device 2 executes reception processing of the information transmitted from the server device 1.
  • the processing unit 201 receives the information about the predicted work time (prediction result) and the estimate transmitted from the server device 1 through the communication unit 203 .
  • the processing unit 201 executes display processing of the received information.
  • the processing unit 201 commands the display unit 204 to display the information received in S7.
  • FIG. 6 is a diagram showing a screen example of the display unit 204 regarding predicted work time and estimate.
  • the display unit 204 displays three patterns of predicted work times (prediction results) and estimates.
  • pattern 1 is a pattern in which work is performed with the number of workers accepted by the input unit 205 .
  • Pattern 2 is a pattern in which the number of workers and the number of working machines are reduced as much as possible, and pattern 3 is a pattern in which priority is given to shortening the working time.
  • FIG. 7 is a flow chart showing a specific example of step S4.
  • the processing unit 101 selects a target classification for work time prediction. For example, the processing unit 101 selects lawn as the target category.
  • the processing unit 101 extracts data related to past target categories similar to the current target category.
  • FIG. 8 is a diagram showing past information about the lawn.
  • the work history database 1021 manages history information for each work area, but if necessary, it is possible to extract and use data for a specific work section (lawn in the example of FIG. 8). shall be configured to
  • the processing unit 101 extracts data with a section ID of A0001 as data similar to the current target section.
  • the extraction method of similar data can be appropriately set. For example, data matching items with a coefficient exceeding 1 may be extracted as similar data. Data in which the difference in each item is within a predetermined value or within a predetermined ratio may be extracted as similar data. Furthermore, data in which the difference in the value of width ⁇ coefficient is within a predetermined value or within a predetermined ratio may be extracted as similar data.
  • the processing unit 101 extracts one piece of similar data, but the number of pieces of data to be extracted may be two or more. In this case, the processing unit 101 may predefine the number of data to be extracted, such as 2 to 5, or may extract all the data that satisfies a predetermined condition regarding the degree of similarity.
  • the processing unit 101 extracts history information of past work areas similar to the current work area, and predicts the work time in the current work area based on the extracted history information.
  • the average value of these data may be taken, and the current working time may be calculated based on the average value.
  • the processing unit 101 confirms whether or not there is a section for which the predicted time has not been calculated. If there is a section for which the prediction time has not been calculated, the process returns to S401.
  • the processing unit 101 predicts the work time in the current work area based on the history information of past work, so that the work time can be predicted appropriately. .
  • FIG. 9 is a diagram showing an overview of a work time prediction system SY2 (hereinafter referred to as system SY2) according to one embodiment.
  • the system SY2 includes a photographing device 3 that photographs the work area.
  • the same reference numerals are given to the same configurations as in the first embodiment, and the description thereof will be omitted.
  • the photographing device 3 is a device for photographing a photographed image used for estimating the work time in the work area.
  • the photographing device 3 may be, for example, a flying object such as a drone, and may be configured to photograph the work area from above. Further, for example, the photographing device 3 may be a mobile object that can run on the work area.
  • the mobile body may be, for example, a work machine such as an autonomous lawn mower, and a surrounding detection camera provided in the work machine may function as the imaging unit 304 described later. Further, for example, the photographing device 3 may be a monitoring camera or the like. Note that the photographing device 3 may be owned by a landscaper, or may be owned by a work area manager or the like.
  • the photographing device 3 may be a mobile terminal such as a digital camera or a smart phone owned by a general user such as a user of the work area.
  • the imaging device 3 includes a processing unit 301 , a storage unit 302 , a communication unit 303 , an imaging unit 304 and a moving unit 305 .
  • the processing unit 301, the storage unit 302, the communication unit 303, the imaging unit 304, and the moving unit 305 are connected by a bus (not shown).
  • the processing unit 301 is a processor represented by a CPU, and implements various functions related to the terminal device 2 by executing programs stored in the storage unit 302 .
  • the storage unit 302 is, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a HDD (Hard Disk Drive), or an SSD (Solid State Drive). data is stored.
  • a communication unit 303 is a communication interface with an external device.
  • the photographing unit 304 is, for example, a camera, and is configured to be capable of photographing still images or moving images.
  • a moving unit 305 moves the imaging device 3 .
  • the moving unit 305 can be configured by a propeller, a motor for driving the propeller, and the like. Note that the moving unit 305 is omitted when the photographing device 3 is a mobile terminal such as a surveillance camera or a digital camera installed in the work area.
  • the imaging device 3 can be connected to the terminal device 2 by wire or wirelessly through the communication unit 303 .
  • an image of the work area captured by the imaging unit 304 is transmitted to the terminal device 2 by the communication unit 303 .
  • a known technology can be appropriately adopted as the communication method here, but the terminal device 2 and the photographing device 3 may be able to communicate with each other by, for example, Wi-Fi (Wireless Fidelity) or Bluetooth (registered trademark).
  • the photographing device 3 may be capable of communicating with the server device 1 or the terminal device 2 via a network NW such as the Internet. Note that although one photographing device 3 is shown in FIG. 9 , two or more photographing devices 3 may be able to communicate with the terminal device 2 .
  • FIG. 10 is a sequence diagram showing a control example of the server device 1, the terminal device 2, and the photographing device 3.
  • the processing unit 301 controls the photographing unit 304 and the moving unit 305 to photograph the work area.
  • the captured image obtained in this step may be a still image or a moving image.
  • the imaging device 3 is a drone, an autonomous lawnmower, or the like, the imaging device 3 starts imaging the work area based on receiving an instruction to shoot an area from the terminal device 2 or the like.
  • the communication unit 303 transmits the captured image acquired in S21 to the terminal device 2 based on the command from the processing unit 301.
  • the photographed image is transmitted from the photographing device 3 to the terminal device 2 , but the photographed image may be transmitted from the photographing device 3 to the server device 1 .
  • the server device 1 may transmit the captured image to the terminal device 2 upon receiving a request for transmission of the captured image from the terminal device 2 . That is, it is also possible to employ a configuration in which images captured by the imaging device 3 are accumulated in the server device 1 and the terminal device 2 acquires the accumulated captured images from the server device 1 as necessary.
  • the server device 1 may transmit the captured image received from the imaging device 3 to the terminal device 2 as it is, or may extract a captured image required by the terminal device 2 for subsequent processing, or perform predetermined image processing. may be transmitted to the terminal device 2 after applying
  • the processing unit 201 of the terminal device 2 executes reception processing of the captured image transmitted from the imaging device 3 .
  • the processing unit 201 receives the captured image transmitted from the imaging device 3 through the communication unit 203 .
  • the processing unit 201 executes area determination processing using the received captured image. This process is for dividing the photographed work area into work sections. A well-known image processing technique can be appropriately adopted for dividing the work area.
  • FIG. 11 is a diagram showing a screen example displayed on the display unit 204 in the determination result confirmation process.
  • the work area is determined to be a lawn area 71, a grass area determination area 72, a handheld determination area 73, and a hedge. It is divided into hedge determination areas 74 .
  • the tree 58 and its surroundings in the lawn determination area 71 are determined as a non-entering area 76 of the working machine.
  • the pond 55 in the grassland determination area 72 is determined to be the waterside 75 .
  • each judgment area may be configured to be modifiable by the user on the screen of the display unit 204 .
  • FIG. 12 is a diagram showing a screen example of the display unit 204 when accepting input of area information.
  • the numerical values within the thick frame 2041 on the screen are generated by the processing unit 201 . That is, the processing unit 201 determines the size of each of the lawn determination area 71, the grass determination area 72, the handheld determination area 73, and the hedge determination area 74 based on the image captured by the imaging device 3 and the result of the area determination processing in S24. Identify. In addition, by image processing of the photographed image, the slope, waterside, objects to be avoided, plant species, etc. in the work area are specified.
  • the area information is generated based on the captured image of the imaging device 3, it is possible to reduce the user's labor for inputting the information.
  • the user may input the number of workers for each work section and the number of work patterns for which an estimate is to be created.
  • the server device 1 may execute it. By having the server device 1 execute the area determination process, the processing load on the terminal device 2 side can be reduced. In this case, the captured image of the imaging device 3 may be transmitted to the server device 1 in S22. After executing the area determination process, the server device 1 may transmit to the terminal device 2 information necessary for the terminal device 2 to perform the determination result confirmation process in S25.
  • FIG. 13 is a flow chart showing S4 in FIG.
  • the processing unit 101 acquires a work time prediction result by inputting information according to the area information acquired this time to a learned model that has undergone machine learning using history information as teacher data. . That is, in executing this flowchart, a learned model using history information accumulated in the work history database 1021 is generated in advance.
  • the trained model here is a model obtained by a machine learning method such as CNN (Convolutional Neural Network). Details of the learning method are omitted here, and it is assumed that a known method is applicable.
  • a trained model is generated using teacher data in which area information (size, coefficient) related to past work areas included in history information is input data and time information related to past work times is output data. be done. As a result, when the area information of the current work area is input, the predicted work time in the current work area is output.
  • a learned model is generated for each work section. It should be noted that since generation of a trained model requires a heavy load, it is assumed that the trained model is generated in advance and stored in the storage unit 102 of the server device 1 .
  • the processing unit 101 inputs the area information acquired from the terminal device 2 to the learned model. For example, the processing unit 101 inputs the width of the target section and each coefficient to the trained model.
  • the processing unit 101 acquires the output of the trained model as the work time prediction result.
  • the size of the working area and the coefficients are used as the input data for the teacher data of the learned model. That is, the contents of the teacher data can be set appropriately.
  • FIG. 14 is a flow chart showing S4 in FIG.
  • the processing unit 101 uses an arithmetic expression based on history information accumulated in the work history database 1021 to predict the work time required for work in the current work area. That is, in executing this flowchart, a predetermined arithmetic expression is set in advance based on history information accumulated in the work history database 1021 .
  • the arithmetic expression may be, for example, a regression expression obtained by simple regression analysis using the value of area ⁇ coefficient included in the history information as an explanatory variable and the working time as an objective variable.
  • the arithmetic expression may be a regression expression obtained by multiple regression analysis using the extent and each coefficient included in the history information as explanatory variables and the working time as the objective variable.
  • a well-known method can be adopted as a specific analysis method.
  • the processing unit 101 performs calculation based on the area information acquired from the terminal device 2 . For example, the processing unit 101 obtains the predicted work time as the calculation result by substituting the value of width ⁇ coefficient into the calculation formula.
  • the server device 1 functions as the work time prediction device, but the terminal device 2 may function as the work time prediction device.
  • the terminal device 2 may acquire information about the current work area by receiving user input through the input unit 205 .
  • the terminal device 2 may acquire information about the current work area by receiving a captured image from the imaging device 3 and performing area determination processing or the like on the image.
  • the server device 1 may update the learned model and provide the terminal device 2 with the updated learned model on a regular basis. Further, for example, when the terminal device 2 predicts the work time according to the flowchart shown in FIG. The calculated arithmetic expression may be provided to the terminal device 2 . In such a case, the server device 1 may update the arithmetic expression when the information in the work history database 1021 is accumulated, and may provide the terminal device 2 with the updated arithmetic expression periodically.
  • the work time is predicted when the landscaper performs work such as lawn mowing or mowing in a park or garden, but the configuration of the above embodiment is also applied to prediction of other types of work. It is possible.
  • the configuration of the above embodiment can be applied to snow removal work using a snow remover, cultivation work using agricultural machinery, land leveling work using construction machinery, and the like.
  • the work time prediction device (for example, 1) of the above embodiment is Acquisition means (for example, 101, S3) for acquiring area information about the current work area; Work in the current work area based on the area information acquired by the acquisition means and history information in which area information related to past work areas and time information related to work time in the past work areas are associated and prediction means (for example, 101, S4) for predicting time.
  • Acquisition means for example, 101, S3
  • prediction means for example, 101, S4
  • the prediction means predicts the work time in the current work area based on past work history information, so the work time can be predicted appropriately.
  • the area information includes size information about the size of the work area and workability information about workability in the work area.
  • the prediction means predicts the work time based on the ease of work in the work area, so it is possible to improve the prediction accuracy of the work time.
  • the area information includes classification information related to work classification
  • the size information includes information about the area for each division of the work
  • the workability information includes information on workability for each division of the work.
  • the prediction means predicts the work time based on the ease of work for each work category, so it is possible to improve the work time prediction accuracy.
  • the acquisition means acquires information input by a user as the area information.
  • the work time is predicted based on the information input by the user, so it is possible to predict the work time with a simple configuration.
  • the acquisition means acquires, as the area information, information based on an image captured by a device capable of capturing an image of the work area.
  • the acquisition means acquires information based on the captured image as the area information, it is possible to reduce the effort of the user to input the area information.
  • the prediction means extracts the history information of the past work area similar to the current work area, and predicts the work time in the current work area based on the extracted history information.
  • the history information of past work areas similar to the current work area is extracted and used to predict the work time, so it is possible to improve the prediction accuracy of the work time.
  • the prediction means acquires the prediction result of the work time by performing input according to the area information acquired by the acquisition means to a trained model that has undergone machine learning using the history information as teacher data. do.
  • the prediction means predicts the work time required for the work in the current work area using an arithmetic expression based on the history information.
  • the processing for predicting the working time can be simplified.
  • It further comprises output means (for example, 101, S5) for outputting an estimate of work cost based on the work time predicted by the prediction means.
  • an estimate is output according to the estimated work time predicted by the prediction means, so a highly accurate estimate can be provided to the requester of the work.
  • the output means outputs a plurality of patterns of work cost estimates according to the number of working machines used in the current work.
  • multiple patterns of estimates can be provided to the requester of the work.
  • It further comprises storage means (for example, 102) for storing the history information.
  • the prediction means can predict the work time based on the history information stored in the storage means.
  • the workability information is at least selected from the group consisting of an inclination of the work area, a work machine non-entry area in the work area, an object placed on the work area, and a type of plant on the work area. Contains information about one.
  • the prediction means can more appropriately grasp the ease of work, so it is possible to improve the work time prediction accuracy.
  • the extent information includes information about the surface area of the hedge to be worked on.
  • the amount of work can be grasped more appropriately, so the accuracy of predicting work time can be improved.
  • the classification of work includes at least one selected from the group consisting of lawn work, grassland work, manual work and hedge work.
  • the work time can be predicted more appropriately according to the work category.
  • the server device (for example, 1) of the above embodiment has the above 1.
  • ⁇ 14. function as each means (for example, 101) of the work time prediction device.
  • a server device that can appropriately predict work time.
  • the terminal device (for example, 2) of the above embodiment has the above 1.
  • ⁇ 14. function as each means (for example, 201) of the working time prediction device.
  • a terminal device that can appropriately predict work time.
  • the terminal device of the above embodiment is 16 above.
  • sending means for example, 203 for sending area information about the current work area to the server device of Receiving means (for example, 203, S7) for receiving the prediction result of the prediction means from the server device;
  • Display means for example, 204 for displaying the prediction result received by the receiving means.
  • the work time prediction method of the above embodiment includes: an acquisition step (for example, S3) for acquiring area information about the current work area; Work in the current work area based on the area information obtained in the obtaining step and history information in which area information about the past work area and time information about work time in the past work area are associated and a prediction step (for example, S4) of predicting the time.
  • an acquisition step for example, S3
  • a prediction step for example, S4 of predicting the time.
  • the prediction means predicts the work time based on the ease of work in the work area, so it is possible to improve the prediction accuracy of the work time.
  • the program of the above embodiment is the computer, Acquisition means (for example, S3) for acquiring area information about the current work area, Work in the current work area based on the area information acquired by the acquisition means and history information in which area information related to past work areas and time information related to work time in the past work areas are associated Prediction means for predicting time (e.g. S4), function as each means of
  • the prediction means predicts the work time based on the ease of work in the work area, so it is possible to improve the prediction accuracy of the work time.
  • the program of the above embodiment is A program that causes a computer of a terminal device (eg, 2) that can communicate with a server device (eg, 1) to execute a method of displaying an estimated work time,
  • the server device Acquisition means for example, 101, S3 for acquiring area information about the current work area; Work in the current work area based on the area information acquired by the acquisition means and history information in which area information related to past work areas and time information related to work time in the past work areas are associated Prediction means for predicting time (eg 101, S4),
  • the display method is a sending step (for example, S2) of sending area information about the current work area to the server device; a receiving step (for example, S7) of receiving the prediction result of the prediction means from the server device; a display step (for example, S8) of displaying the prediction result received in the reception step.
  • the prediction means predicts the work time based on the ease of work in the work area, so it is possible to improve the prediction accuracy of the work time.

Landscapes

  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Engineering & Computer Science (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

取得手段は、今回の作業エリアに関するエリア情報を取得する。予測手段は、取得手段が取得したエリア情報と、過去の作業エリアに関するエリア情報及び過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、今回の作業エリアでの作業時間を予測する。

Description

作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム
 本発明は、作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラムに関する。
 公園や庭園等において、芝刈りや草刈り等の作業が造園業者(ランドスケーパ)によって行われることがある。造園業者は、芝刈り機(例えば特許文献1)、トリマー又はブロワー等の装置を用いて、或いは手作業で作業を行う。
特開2009-118823号公報
 ランドスケーパは、依頼者から作業の依頼を受けると、作業対象のエリアを観察して作業時間を予測し、予測した作業時間に基づいて作業費用の見積もり等を行うことがある。したがって、適切な見積もりを行うために作業時間の予測精度の向上が望まれる。
 本発明は、作業時間を適切に予測する技術を提供する。
 本発明の一態様によれば、
 今回の作業エリアに関するエリア情報を取得する取得手段と、
 前記取得手段が取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測手段と、を備える、
ことを特徴とする作業時間予測装置が提供される。
 本発明によれば、作業時間を適切に予測することができる。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
一実施形態に係る作業時間予測システムの概要を示す図。 作業時間の予測の対象となる作業エリアの一例を示す図。 記憶部に記憶されるデータの一例を示す図。 サーバ装置及び端末装置の制御例を示すシーケンス図。 エリア情報の入力受付時の表示部の画面例を示す図。 予測作業時間及び見積もりに関する表示部の画面例を示す図。 図4の処理の具体例を示すフローチャート。 芝地に関する過去の情報を示す図。 一実施形態に係る作業時間予測システムの概要を示す図。 サーバ装置及び端末装置の制御例を示すシーケンス図。 判定結果確認処理において表示部に表示される画面例を示す図。 エリア情報の入力受付時の表示部の画面例を示す図。 図4の処理の具体例を示すフローチャート。 図4の処理の具体例を示すフローチャート。
 以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴のうち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
 <第1実施形態>
 <システムの概略>
 図1は、一実施形態に係る作業時間予測システムSY1(以下、システムSY1)の概要を示す図である。システムSY1は、ランドスケーパ等が公園や庭園等において芝刈りや草刈り等の作業を行うにあたり、作業に要する時間を予測するためのシステムである。システムSY1は、サーバ装置1と端末装置2とを含む。サーバ装置1と端末装置2は、インターネット等のネットワークNWを介して通信可能に設けられる。
 サーバ装置1は、作業に要する時間を予測するための作業時間予測装置として機能する。サーバ装置1は、処理部101と、記憶部102と、通信部103とを含む。処理部101と、記憶部102と、通信部103とは不図示のバスにより接続されている。処理部101はCPUに代表されるプロセッサであり、記憶部102に記憶されたプログラムを実行することにより、作業時間予測装置としてのサーバ装置1に係る種々の機能を実現する。記憶部102は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等であり、処理部101が実行するプログラムの他、各種のデータが格納される。通信部103は、外部装置との通信インタフェースである。
 端末装置2は、例えば作業を行うユーザが操作する端末である。端末装置2は、例えばタブレットやスマートフォン、PC等であってもよい。端末装置2は、処理部201と、記憶部202と、通信部203と、表示部204と、入力部205とを含む。処理部201と、記憶部202と、通信部203と、表示部204と、入力部205とは不図示のバスにより接続されている。処理部201はCPUに代表されるプロセッサであり、記憶部202に記憶されたプログラムを実行することにより、端末装置2に係る種々の機能を実現する。記憶部202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等であり、処理部201が実行するプログラムの他、各種のデータが格納される。通信部203は、外部装置との通信インタフェースである。
 表示部204は、各種情報を表示するユーザインタフェースである。例えば、表示部204は、液晶ディスプレイ又は有機ELパネル等であってもよい。また、入力部205は、ユーザからの入力を受け付けるユーザインタフェースである。例えば、入力部205は、タッチパネル、マウス等のポインティングデバイス、又はハードキー等であってもよい。
 なお、図1に1つの端末装置2が示されているが、サーバ装置1に対して2以上の端末装置2が通信可能に構成されてもよい。また、サーバ装置1は必要に応じて2以上の要素に分けられてもよい。すなわち、複数の装置が組み合わされることで作業時間予測装置としてのサーバ装置1が構成されてもよい。また、サーバ装置1が実現する機能の少なくとも一部が、PLD(Programmable Logic Device)、ASIC(Application Specific Integrated Circuit)等、公知の半導体装置により実現されてもよい。
 <作業エリア>
 図2は、作業時間の予測の対象となる作業エリア5の一例を示す図である。本実施形態の作業エリア5は、ランドスケーパによる作業の内容に応じて、芝地エリア51と、草地エリア52と、ハンドヘルドエリア53と、生垣エリア54とに分けられる。
 芝地エリア51は、芝生が植えられているエリアである。例えば、ランドスケーパは、乗用芝刈機61又は歩行用芝刈機(不図示)等によって芝刈作業を行う。或いは、自律型のロボット芝刈機等によって芝刈作業が行われてもよい。本実施形態では芝地エリア51には木58が植えられており、ランドスケーパは木58及びその周囲を避けながら作業を行う。すなわち、木58及びその周囲の領域は、作業機の非進入領域となる。
 草地エリア52は、草が生えているエリアである。例えば、ランドスケーパは、乗用草刈機62又は歩行用草刈機等によって草刈作業を行う。或いは、自律型のロボット草刈機等によって草刈作業が行われてもよい。本実施形態では、草地エリア52には池55が配置されており、ランドスケーパは池55及びその周囲を避けながら作業を行う。
 ハンドヘルドエリア53は、ランドスケーパが手作業を行うエリアである。本実施形態では、建物56又は通路57と隣接している部分は、乗用芝刈機61又は乗用草刈機62等による作業が困難なため、ランドスケーパがエッジャー等のハンドヘルド作業機63等を用いて手作業で作業を行う。
 生垣エリア54は、生垣が植えられているエリアである。例えば、ランドスケーパは、トリマー64を用いて生垣の外形を整える。
 なお、作業エリア5の分け方は作業内容に応じた便宜的なものであり、適宜設定が可能である。
 <データ構成>
 図3は、記憶部102に記憶されるデータの一例を示す図である。本実施形態では、記憶部102には、作業履歴データベース1021が構築され、過去の作業に関する履歴情報を記憶している。本実施形態では、履歴情報は、過去の作業エリアに関するエリア情報と、過去の作業時間に関する時間情報とが関連付けられた情報を含む。また、その他、履歴情報は、作業費用の見積もりに関する情報を含む。本実施形態では、記憶部102は、エリアIDを用いて作業エリア毎に履歴情報を管理して記憶する。
 過去の作業エリアに関するエリア情報は、作業区分と、作業エリアの広さと、係数と、を含む。作業区分は、ランドスケーパが行う作業に応じて作業エリア内の領域を区分けしたものである。図3では、図2の作業エリア5に合わせて、芝地、草地、ハンドヘルド、及び生垣が作業区分として示されている。
 作業エリアの広さは、作業区分ごとにそれぞれ示されている。芝地、草地及びハンドヘルドについては、それぞれの面積が示されている。また、生垣については、作業対象となる部分の表面積が示されている。なお、生垣の広さは、例えば生垣の植えられている領域の面積で示されてもよい。しかしながら、生垣の広さを表面積で表すことにより、作業量をより適切に把握することができる。
 係数は、作業エリアの広さに掛けられる値である。本実施形態では、各係数は1~2の間の値に設定されている。この係数は、後述する作業時間の予測にあたり、作業エリアの広さだけでなく、作業エリアの作業のしやすさも考慮するために用いられる。例えば、作業エリアに傾斜がある場合又は作業エリアの水辺を避けながら作業を行う必要がある場合等においては、作業機の移動速度を低下させる必要がある等の理由により、作業に時間をより要することがある。よって、作業時間の増加の要因となる要素が作業エリア内に存在する場合に、作業エリアの広さに所定の係数を掛けた数値を作業時間の予測に用いることで、作業エリアの作業のしやすさを考慮して作業時間の予測を行うことができる。すなわち、ここでの広さ×係数の値は、作業エリアにおける作業のしやすさを加味した、作業時間の予測に用いる情報であるといえる。
 本実施形態では、過去の作業エリアに関するエリア情報には、傾斜、水辺、物体及び植物に関する係数が含まれている。すなわち、作業エリアに傾斜がある場合、水辺がある場合、避ける必要のある物体がある場合等には、作業により時間を要すると考えられるため、これらの要因が係数として設定されている。また、作業エリアにおいて刈られる対象となる植物の種類によっては、硬くて刈りにくい等の理由により、作業に時間をより要することが考えられるため、植物の種類も係数として設定されている。なお、係数が設定される対象はこれらに限られず、適宜設定可能である。
 なお、本実施形態では、作業エリアにおける作業のしやすさに関する作業性情報として傾斜、水辺、物体及び植物に関する係数が含まれているが、作業性情報は係数以外の情報であってもよい。例えば、作業性情報は、作業エリアの平均斜度、水辺又は物体の面積、水辺又は物体の外周の長さ等、作業性に関する種々の情報であってもよい。また例えば、作業性情報は、作業エリアの日当たり、日照時間、温度、湿度、降水量等、天候に関する情報であってもよい。例えば、同じ植物でも日当たりや降水量等により成長度合いが変わってくるため、これらが作業時間に影響する場合がある。また例えば、作業当日や前日に雨が降った場合には、作業エリアのぬかるみ等が作業時間に影響する場合がある。よって、これらの情報に関して前述した係数が設定されてもよい。
 過去の作業時間に関する時間情報は、実作業時間、作業人数及び作業機台数を含む。また、作業費用の見積もりに関する情報としては、作業機の燃料消費量及び実際の費用(実費)が含まれる。また、本実施形態では、過去の作業時間に関する時間情報には、作業の区分ごとの、作業時間についての情報、作業人数についての情報及び作業台数についての情報が含まれている。
 <制御例>
 図4は、サーバ装置1及び端末装置2の制御例を示すシーケンス図である。例えば、本シーケンスは、ランドスケーパ(ユーザ)が作業エリアの作業時間の予測及び費用の見積もりを行う際に実行される。なお、以下の説明では、各ステップを単にS1等と表記する。
 S1で、処理部201は、今回の作業エリアに関するエリア情報の入力受付処理を実行する。処理部201は、入力部205に、ユーザの入力を受け付けるように命令する。ここで、図5は、エリア情報の入力受付時の表示部204の画面例を示す図である。本実施形態では、入力部205は、エリア情報として、作業エリアの広さに関する広さ情報、及び、作業エリアにおける作業のしやすさに関する作業性情報の入力を受け付ける。ここでは、「広さ」が広さ情報に対応し、「係数」が作業のしやすさに関する作業性情報に対応する。
 また、本実施形態では、入力部205は、エリア情報として、作業の区分に関する区分情報の入力を受付可能である。そして、入力部205は、各作業の区分ごとに広さ情報としての面積及び作業性情報としての係数の入力を受け付ける。作業の区分は、芝地作業、草地作業、手作業及び生垣作業の少なくとも1つを含んでもよい。また、本実施形態では、入力部205は、生垣については、作業対象部分の表面積を広さ情報として受け付ける。
 また、本実施形態では、入力部205は、見積もりを作成するための情報として、作業区分ごとの作業人数、及び、見積もりを作成する作業パターン数を受け付ける。
 また、本実施形態では、入力を受け付ける作業性情報として、作業エリアの傾斜、作業エリアにおける作業機の非進入領域、作業エリア上に配置された物体及び作業エリア上の植物の種類についての情報が含まれている。具体的には、入力部205は、各項目の係数を受付可能に構成されている。なお、入力を受け付ける係数の項目は限定されず、例示されている項目の少なくとも1つを含んでいてもよいし、例示されている項目以外の項目が含まれてもよい。
 S2で、通信部203は、処理部201からの命令に基づき、S1で取得されたエリア情報をサーバ装置1に送信する。
 S3で、サーバ装置1の処理部101は、端末装置2から送信されたエリア情報の受信処理を実行する。処理部101は、通信部103により、端末装置2から送信されたエリア情報を受信する。すなわち、処理部101は、端末装置2からの情報の受信により、今回の作業エリアに関するエリア情報を取得する。さらに言えば、処理部101は、エリア情報として、ユーザが端末装置2に入力した情報を取得する。
 S4で、処理部101は、作業時間を予測する。処理部101は、S3で取得したエリア情報と、過去の作業エリアに関するエリア情報及び過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、今回の作業エリアでの作業時間を予測する本ステップの詳細については後述する。
 S5で、処理部101は、S4で予測された作業時間に基づく作業費用の見積もりを生成する。例えば、処理部101は、各作業区分の作業時間、作業人数、作業機台数、作業機の燃料費等を考慮した見積もりを算出する。
 S6で、通信部103は、処理部101からの命令に基づき、予測作業時間及び見積もりに関する情報を送信する。すなわち、処理部101は、通信部103を介して、S4で予測された作業時間、及び作業時間に基づく作業費用の見積もりを端末装置2に対して出力する。なお、本実施形態では、処理部101は、今回の作業における作業機の使用台数に応じた複数パターンの作業費用の見積もりを出力する(図6参照)。
 S7で、端末装置2の処理部201は、サーバ装置1から送信された情報の受信処理を実行する。処理部201は、通信部203により、サーバ装置1から送信された予測作業時間(予測結果)及び見積もりに関する情報を受信する。
 S8で、処理部201は、受信した情報の表示処理を実行する。処理部201は、表示部204に、S7で受信した情報に関する表示をするよう命令する。図6は、予測作業時間及び見積もりに関する表示部204の画面例を示す図である。表示部204は、3パターンの予測作業時間(予測結果)及び見積もりを表示する。
 具体的には、図6では、各パターンについて、作業区分ごとに、作業人数及び作業機台数に応じた予測作業時間及び見積もりが示されている。例えば、パターン1は、入力部205が受け付けた作業人数で作業をしたパターンである。また、パターン2はなるべく作業人数及び作業機台数を抑えたパターンであり、パターン3は作業時間の短縮を優先したパターンである。このように、複数パターンの予測作業時間及び見積もりが表示されることにより、人員配置や作業機の空き状況等に応じて適切なパターンを選択することができる。
 図7は、S4のステップの具体例を示すフローチャートである。
 S401で、処理部101は、作業時間の予測の対象区分を選択する。例えば、処理部101は、対象区分として、芝地を選択する。
 S402で、処理部101は、今回の対象区分に類似する過去の対象区分に関するデータを抽出する。図8は、芝地に関する過去の情報を示す図である。ここで、本実施形態では、作業履歴データベース1021により作業エリア毎に履歴情報が管理されているが、必要に応じて特定の作業区分(図8の例では芝地)のデータを取り出して使用可能に構成されているものとする。
 例えば、処理部101は、今回の対象区分に類似するデータとして、区分IDがA0001のデータを抽出する。ここで、類似データの抽出方法は適宜設定可能である。例えば、係数が1を超える項目が一致するデータが類似データとして抽出されてもよい。また、各項目の差が所定値以内又は所定割合以内であるデータが類似データとして抽出されてもよい。さらに、広さ×係数の値の差が所定値以内又は所定割合以内であるデータが類似データとして抽出されてもよい。また、本実施形態では処理部101は類似データを1つ抽出したが、抽出するデータの数は2以上であってもよい。この場合、処理部101は、例えば2~5個等、抽出するデータの数を予め規定しておいてもよいし、類似度に関して所定の条件を満たすデータを全て抽出してもよい。
 S403で、処理部101は、予測作業時間を特定する。一例を述べる。まず、処理部101は、端末装置2から受信した情報に基づき、今回の作業エリアの芝地の広さ×係数の値を算出する。本例では、
 450(広さ)×1.3(傾斜係数)×1.4(物体係数)=819
となる。次に、処理部101は、算出した広さ×係数の値と、S402で抽出した過去の類似データに基づいて、芝地の作業時間を予測する。本例では、過去データでは、広さ×係数の値が900、作業人数が1人、作業機台数が1台で、実作業時間が40分である。一方で、今回の芝地では、広さ×係数の値が819、他の条件が同じであるため、広さ×係数の値の差を考慮して、作業時間を
 40(分)×(819/900)=36.4(分)≒36(分)
 このように、処理部101は、今回の作業エリアに類似する過去の作業エリアの履歴情報を抽出し、抽出した履歴情報に基づいて、今回の作業エリアでの作業時間を予測する。なお、S402で、類似データが複数抽出された場合には、これらのデータの平均値をとって、平均値をもとに今回の作業時間を算出してもよい。
 S404で、処理部101は、予測時間を未算出の区分があるか否かを確認し、未算出の区分があればS401に戻り、なければ本フローチャートを終了する。
 以上説明したように、本実施形態によれば、処理部101は、過去の作業の履歴情報に基づいて今回の作業エリアでの作業時間を予測するので、作業時間を適切に予測することができる。
 <第2実施形態>
 図9は、一実施形態に係る作業時間予測システムSY2(以下、システムSY2)の概要を示す図である。第2実施形態では、システムSY2は、作業エリアを撮影する撮影装置3を含む。以下、第1実施形態と同様の構成については同様の符号を付して説明を省略する。
 撮影装置3は、作業エリアでの作業時間の予測に用いる撮影画像を撮影するための装置である。撮影装置3は、例えばドローンのような飛行体であってもよく、上空から作業エリアを撮影可能に構成されてもよい。また例えば、撮影装置3は、作業エリア上を走行可能な移動体であってもよい。移動体は、例えば自律芝刈り機等の作業機であってもよく、作業機に設けられた周辺検知用のカメラが後述する撮影部304として機能してもよい。また例えば、撮影装置3は、監視カメラ等であってもよい。なお、撮影装置3は、ランドスケーパが所有するものでもよいし、作業エリアの管理者等が所有するものでもよい。或いは、撮影装置3は、作業エリアの利用者等の一般ユーザが所有するデジタルカメラやスマートフォン等の携帯端末であってもよい。撮影装置3は、処理部301と、記憶部302と、通信部303と、撮影部304と、移動部305とを含む。処理部301と、記憶部302と、通信部303と、撮影部304と、移動部305とは不図示のバスにより接続されている。
 処理部301はCPUに代表されるプロセッサであり、記憶部302に記憶されたプログラムを実行することにより、端末装置2に係る種々の機能を実現する。記憶部302は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等であり、処理部301が実行するプログラムの他、各種のデータが格納される。通信部303は、外部装置との通信インタフェースである。撮影部304は、例えばカメラであり、静止画又は動画を撮影可能に構成される。移動部305は、撮影装置3を移動させる。例えば、撮影装置3がドローンの場合には、移動部305は、プロペラと、プロペラを駆動させるモータ等により構成され得る。なお、撮影装置3が作業エリアに設置された監視カメラ又はデジタルカメラ等の携帯端末の場合等には、移動部305が省略される。
 本実施形態では、撮影装置3は通信部303により端末装置2と有線又は無線で接続可能である。例えば、撮影部304で撮影された作業エリアの画像が、通信部303により端末装置2に送信される。ここでの通信方式は公知の技術を適宜採用可能であるが、端末装置2と撮影装置3とは、例えばWi‐Fi(Wireless Fidelity)やBluetooth(登録商標)等により通信可能であってもよい。或いは、撮影装置3は、サーバ装置1又は端末装置2インターネット等のネットワークNWを介して通信可能であってもよい。なお、図9では、1つの撮影装置3が示されているが、2以上の撮影装置3が端末装置2と通信可能であってもよい。
 図10は、サーバ装置1、端末装置2及び撮影装置3の制御例を示すシーケンス図である。
 S21で、処理部301は、撮影部304及び移動部305を制御して、作業エリアを撮影する。なお、本ステップで得られる撮影画像は、静止画でもよいし、動画でもよい。例えば、撮影装置3がドローンや自律芝刈り機等の場合、撮影装置3は、端末装置2からエリア撮影の指示等を受信したことに基づいて作業エリアの撮影を開始する。
 S22で、通信部303は、処理部301からの命令に基づき、S21で取得された撮影画像を端末装置2に送信する。
 なお、本実施形態では撮影装置3から端末装置2に撮影画像が送信されるが、撮影装置3からサーバ装置1に撮影画像が送信されてもよい。この場合、サーバ装置1は、端末装置2から撮影画像の送信要求を受け付けると、端末装置2に対して撮影画像を送信してもよい。すなわち、撮影装置3の撮影画像がサーバ装置1に蓄積され、端末装置2が必要に応じてサーバ装置1から蓄積された撮影画像を取得する構成も採用可能である。なお、サーバ装置1は、撮影装置3から受信した撮影画像をそのまま端末装置2に送信してもよいし、端末装置2がその後の処理で必要とする撮影画像を抽出したり、所定の画像処理を施したりした上で端末装置2に送信してもよい。
 S23で、端末装置2の処理部201は、撮影装置3から送信された撮影画像の受信処理を実行する。処理部201は、通信部203により、撮影装置3から送信された撮影画像を受信する。
 S24で、処理部201は、受信した撮影画像を用いて、エリア判定処理を実行する。この処理は、撮影した作業エリアを、作業区分で区分けするための処理である。作業エリアの区分けには、公知の画像処理技術を適宜採用可能である。
 S25で、処理部201は、S24での判定結果の確認処理を実行する。図11は、判定結果確認処理において表示部204に表示される画面例を示す図である。図11では、撮影画像に基づき、作業エリアが、芝地と判定された芝地判定エリア71、草地と判定された草地判定エリア72、ハンドヘルドと判定されたハンドヘルド判定エリア73及び生垣と判定された生垣判定エリア74に区分けされている。また、芝地判定エリア71の木58及びその周囲は、作業機の作業機の非進入領域76と判定されている。さらに、草地判定エリア72の池55は、水辺75と判定されている。ユーザは、表示部204に表示された確認画面をもとに、作業エリアの判定が適切に行われていれば入力部205により確定ボタンを押下する。一方で、作業エリアの判定が適切に行われていない場合には、入力部205により修正ボタンを押下する。修正ボタンが押下された場合、処理部201は、再度S24のエリア判定処理を行ってもよい。或いは、表示部204の画面上で各判定領域がユーザにより修正可能に構成されてもよい。
 S26で、処理部201は、エリア情報の入力受付処理を実行する。図12は、エリア情報の入力受付時の表示部204の画面例を示す図である。本実施形態では、画面の太枠2041内の数値については、処理部201により生成される。すなわち、処理部201は、撮影装置3の撮影画像及びS24のエリア判定処理の結果に基づき、芝地判定エリア71、草地判定エリア72、ハンドヘルド判定エリア73及び生垣判定エリア74のそれぞれの広さを特定する。また、撮影画像の画像処理により、作業エリア内の傾斜、水辺、避けるべき物体又は植物種等を特定する。本実施形態では、撮影装置3の撮影画像に基づいてエリア情報が生成されるので、ユーザによる当該情報の入力の手間を低減することができる。本実施形態では、ユーザは、各作業区分の作業人数及び見積もりを作成する作業パターン数を入力すればよい。
 その後のS2以降のステップは図4と同様のため説明を省略するが、本実施形態では、作業時間予測装置としてのサーバ装置1は、作業エリアに関するエリア情報として、作業エリアを撮影可能な撮影装置3の撮影画像に基づく情報を取得する。したがって、作業時間の予測に際しユーザの手間を低減することができる。
 なお、本実施形態では、S24のエリア判定処理を端末装置2が実行しているが、サーバ装置1が実行してもよい。サーバ装置1がエリア判定処理を実行することで、端末装置2側の処理負荷を低減することができる。この場合、S22において、撮影装置3の撮影画像がサーバ装置1に送信されてもよい。そして、サーバ装置1は、エリア判定処理の実行後に、S25で端末装置2が判定結果の確認処理を実行するのに必要な情報を端末装置2に対して送信してもよい。
 <作業時間の予測の変形例1>
 図13は、図4のS4を示すフローチャートである。本実施形態では、処理部101は、履歴情報を教師データとして用いて機械学習を行った学習済みモデルに、今回取得したエリア情報に応じた入力を行うことで、作業時間の予測結果を取得する。すなわち、本フローチャートを実行するにあたっては、予め、作業履歴データベース1021に蓄積された履歴情報を用いた学習済みモデルを生成しておく。 ここでの学習済みモデルは、CNN(Convolutional Neural Network;畳み込みニューラルネットワーク)などの機械学習の手法により得られるモデルである。学習方法の詳細については、ここでは省略し、公知の方法が適用可能であるとする。本実施形態では、履歴情報に含まれる過去の作業エリアに関するエリア情報(広さ、係数)を入力データ、過去の作業時間に関する時間情報を出力データとした教師データを用いて、学習済みモデルが生成される。これにより、今回の作業エリアのエリア情報を入力すると、今回の作業エリアでの予測作業時間が出力されることとなる。なお、本実施形態では、各作業区分に対して、学習済みモデルが生成されるものとする。なお、学習済みモデルの生成には、大きな負荷がかかるため、予め生成され、サーバ装置1の記憶部102に保持されているものとする。
 S401及びS404は図7のフローチャートと同様のため説明を省略する。
 S412で、処理部101は、端末装置2から取得したエリア情報を学習済みモデルに入力する。例えば、処理部101は、対象区分の広さ及び各係数を学習済みモデルに入力する。
 S413で、処理部101は、学習済みモデルの出力を作業時間の予測結果として取得する。
 本変形例によれば、学習済みモデルを用いることにより、履歴情報に基づきより適切に作業時間を予測することができる。なお、本変形例では、学習済みモデルの教師データの入力データを作業エリアの広さ、係数としたが、例えば撮影装置3が撮影した撮影画像を教師データの入力データとしてもよい。すなわち、教師データの内容は適宜設定可能である。
 <作業時間の予測の変形例2>
 図14は、図4のS4を示すフローチャートである。本実施形態では、処理部101は作業履歴データベース1021に蓄積された履歴情報に基づく演算式を用いて、今回の作業エリアでの作業に要する作業時間を予測する。すなわち、本フローチャートを実行するにあたっては、予め、作業履歴データベース1021に蓄積された履歴情報に基づき所定の演算式を設定しておく。演算式は、例えば、履歴情報に含まれる広さ×係数の値を説明変数、作業時間を目的変数とした単回帰分析によって得られた回帰式であってもよい。或いは、演算式は、履歴情報に含まれる広さ及び各係数を説明変数、作業時間を目的変数とした重回帰分析によって得られた回帰式であってもよい。具体的な分析方法は周知の方法を採用可能である。
 S401及びS404は図7のフローチャートと同様のため説明を省略する。
 S422で、処理部101は、端末装置2から取得したエリア情報に基づく演算を行う。例えば、処理部101は、演算式に広さ×係数の値を代入することにより、演算結果としての予測作業時間を取得する。
 本変形例によれば、演算式を用いて作業時間の予測を行うことができる。また、作業時間の予測時には、作業履歴データベース1021に蓄積された過去のデータの参照等が不要であるため、処理負荷を低減することができる。
 <他の実施形態>
 上記実施形態では、サーバ装置1が作業時間予測装置として機能するが、端末装置2が作業時間予測装置として機能してもよい。この場合、端末装置2は、入力部205によりユーザの入力を受け付けることにより、今回の作業エリアに関する情報を取得してもよい。或いは、端末装置2は、撮影装置3から撮影画像を受信して、その画像に対してエリア判定処理等を行うことにより、今回の作業エリアに関する情報を取得してもよい。
 また、作業時間の予測に関して、例えば、端末装置2が図7に示すフローチャートに従って作業時間の予測を行う場合には、端末装置2の処理部201に過去の作業の履歴情報が記憶されてもよい。また例えば、端末装置2が図13に示すフローチャートに従って作業時間の予測を行う場合には、サーバ装置1が記憶部102に記憶された作業履歴データベース1021の情報を用いて学習済みモデルの生成を行い、生成された学習済みモデルが端末装置2に提供されてもよい。このような場合に、サーバ装置1は、作業履歴データベース1021の情報が蓄積されると、学習済みモデルをアップデートし、定期的にアップデートした学習済みモデルを端末装置2に提供してもよい。また例えば、端末装置2が図14に示すフローチャートに従って作業時間の予測を行う場合には、サーバ装置1が記憶部102に記憶された作業履歴データベース1021の情報を用いて演算式を取得し、取得された演算式が端末装置2に提供されてもよい。このような場合に、サーバ装置1は、作業履歴データベース1021の情報が蓄積されると、演算式アップデートし、定期的にアップデートした演算式を端末装置2に提供してもよい。
 上記実施形態では、ランドスケーパが公園又は庭園等において芝刈りや草刈り等の作業を行う際の作業時間が予測されているが、他の種類の作業の予測に対しても、上記実施形態の構成を適用可能である。例えば、除雪機による除雪作業、農機による耕作作業、建設機械による整地作業等にも上記実施形態の構成を適用可能である。
 <実施形態のまとめ>
 上記実施形態は、以下の作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラムを少なくとも開示する。
 1.上記実施形態の作業時間予測装置(例えば1)は、
 今回の作業エリアに関するエリア情報を取得する取得手段(例えば101,S3)と、
 前記取得手段が取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測手段(例えば101,S4)と、を備える。
 この実施形態によれば、予測手段が過去の作業の履歴情報に基づいて今回の作業エリアでの作業時間を予測するので、作業時間を適切に予測することができる。
 2.上記実施形態によれば、
 前記エリア情報は、前記作業エリアの広さに関する広さ情報と、前記作業エリアにおける作業のしやすさに関する作業性情報と、を含む。
 この実施形態によれば、予測手段が作業エリアの作業のしやすさに基づいて作業時間を予測するので、作業時間の予測精度を向上することができる。
 3.上記実施形態によれば、
 前記エリア情報は、作業の区分に関する区分情報を含み、
 前記広さ情報は、前記作業の区分ごとの面積についての情報を含み、
 前記作業性情報は、前記作業の区分ごとの作業性に関する情報を含む。
 この実施形態によれば、予測手段が作業の区分ごとに作業のしやすさに基づいて作業時間を予測するので、作業時間の予測精度を向上することができる。
 4.上記実施形態によれば、
 前記取得手段は、前記エリア情報として、ユーザが入力した情報を取得する。
 この実施形態によれば、ユーザの入力情報に基づいて作業時間が予測されるので、簡易な構成で作業時間を予測することができる。
 5.上記実施形態によれば、
 前記取得手段は、前記エリア情報として、前記作業エリアを撮影可能な装置の撮影画像に基づく情報を取得する。
 この実施形態によれば、取得手段がエリア情報として撮影画像に基づく情報を取得するので、ユーザがエリア情報を入力する手間を低減することができる。
 6.上記実施形態によれば、
 前記予測手段は、前記今回の作業エリアに類似する前記過去の作業エリアの前記履歴情報を抽出し、抽出した前記履歴情報に基づいて、前記今回の作業エリアでの作業時間を予測する。
 この実施形態によれば、今回の作業エリアに類似する過去の作業エリアの履歴情報を抽出して作業時間の予測に用いるので、作業時間の予測精度を向上することができる。
 7.上記実施形態によれば、
 前記予測手段は、前記履歴情報を教師データとして用いて機械学習を行った学習済みモデルに、前記取得手段が取得した前記エリア情報に応じた入力を行うことで、前記作業時間の予測結果を取得する。
 この実施形態によれば、学習済みモデルを用いることにより、履歴情報に基づきより適切に作業時間を予測することができる。
 8.上記実施形態によれば、
 前記予測手段は、前記履歴情報に基づく演算式を用いて、前記今回の作業エリアでの作業に要する作業時間を予測する。
 この実施形態によれば、演算式により作業時間を予測するので、作業時間の予測に関する処理を簡素化することができる。
 9.上記実施形態によれば、
 前記予測手段により予測された前記作業時間に基づく作業費用の見積もりを出力する出力手段(例えば101,S5)をさらに備える。
 この実施形態によれば、予測手段により予測された作業の予測時間応じて見積もりが出力されるので、精度の高い見積もりを作業の依頼者に提供することができる。
 10.上記実施形態によれば、
 前記出力手段は、今回の作業における作業機の使用台数に応じた複数パターンの前記作業費用の見積もりを出力する。
 この実施形態によれば、複数パターンの見積もりを作業の依頼者に提供することができる。
 11.上記実施形態によれば、
 前記履歴情報を記憶する記憶手段(例えば102)をさらに備える。
 この実施形態によれば、予測手段は、記憶手段に記憶された履歴情報に基づいて、作業時間を予測することができる。
 12.上記実施形態によれば、
 前記作業性情報は、前記作業エリアの傾斜、前記作業エリアにおける作業機の非進入領域、前記作業エリア上に配置された物体及び前記作業エリア上の植物の種類、からなる群から選択される少なくとも1つについての情報を含む。
 この実施形態によれば、予測手段は、作業のしやすさをより適切に把握することができるので、作業時間の予測精度を向上することができる。
 13.上記実施形態によれば、
 前記広さ情報は、作業対象の生垣の表面積についての情報を含む。
 この実施形態によれば、作業量をより適切に把握することができるので、作業時間の予測精度を向上することができる。
 14.上記実施形態によれば、
 前記作業の区分は、芝地作業、草地作業、手作業及び生垣作業、からなる群から選択される少なくとも1つを含む。
 この実施形態によれば、作業の区分に応じてより適切に作業時間の予測を行うことができる。
 15.上記実施形態のサーバ装置(例えば1)は、上記1.~14.の作業時間予測装置の各手段(例えば101)として機能する。
 この実施形態によれば、作業時間を適切に予測することができるサーバ装置が提供される。
 16.上記実施形態の端末装置(例えば2)は、上記1.~14.の作業時間予測装置の各手段(例えば201)として機能する。
 この実施形態によれば、作業時間を適切に予測することができる端末装置が提供される。
 17.上記実施形態の端末装置は、
 上記16.のサーバ装置に対して、今回の作業エリアに関するエリア情報を送信する送信手段(例えば203)と、
 前記予測手段の予測結果を前記サーバ装置から受信する受信手段(例えば203,S7)と、
 前記受信手段が受信した前記予測結果を表示する表示手段(例えば204)と、を備える。
 この実施形態によれば、サーバ装置での作業時間の予測結果を端末装置で確認することができる。
 18.上記実施形態の作業時間予測方法は、
 今回の作業エリアに関するエリア情報を取得する取得工程(例えばS3)と、
 前記取得工程で取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測工程(例えばS4)と、を含む。
 この実施形態によれば、予測手段が作業エリアの作業のしやすさに基づいて作業時間を予測するので、作業時間の予測精度を向上することができる。
 19.上記実施形態のプログラムは、
 コンピュータを、
 今回の作業エリアに関するエリア情報を取得する取得手段(例えばS3)、
 前記取得手段が取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測手段(例えばS4)、
の各手段として機能させる。
 この実施形態によれば、予測手段が作業エリアの作業のしやすさに基づいて作業時間を予測するので、作業時間の予測精度を向上することができる。
 20.上記実施形態のプログラムは、
 サーバ装置(例えば1)と通信可能な端末装置(例えば2)のコンピュータに作業予測時間の表示方法を実行させるプログラムであって、
 前記サーバ装置は、
  今回の作業エリアに関するエリア情報を取得する取得手段(例えば101,S3)と、
  前記取得手段が取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測手段(例えば101,S4)と、を備え、
 前記表示方法は、
  前記サーバ装置に対して、今回の作業エリアに関するエリア情報を送信する送信工程(例えばS2)と、
  前記予測手段の予測結果を前記サーバ装置から受信する受信工程(例えばS7)と、
  前記受信工程で受信した前記予測結果を表示する表示工程(例えばS8)と、を含む。
 この実施形態によれば、予測手段が作業エリアの作業のしやすさに基づいて作業時間を予測するので、作業時間の予測精度を向上することができる。
 発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。
 1:サーバ装置、2:端末装置、101:処理部

Claims (20)

  1.  今回の作業エリアに関するエリア情報を取得する取得手段と、
     前記取得手段が取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測手段と、を備える、
    ことを特徴とする作業時間予測装置。
  2.  請求項1に記載の作業時間予測装置であって、
     前記エリア情報は、前記作業エリアの広さに関する広さ情報と、前記作業エリアにおける作業のしやすさに関する作業性情報と、を含む、
    ことを特徴とする作業時間予測装置。
  3.  請求項2に記載の作業時間予測装置であって、
     前記エリア情報は、作業の区分に関する区分情報を含み、
     前記広さ情報は、前記作業の区分ごとの面積についての情報を含み、
     前記作業性情報は、前記作業の区分ごとの作業性に関する情報を含む、
    ことを特徴とする作業時間予測装置。
  4.  請求項1から3までのいずれか1項に記載の作業時間予測装置であって、
     前記取得手段は、前記エリア情報として、ユーザが入力した情報を取得する、
    ことを特徴とする作業時間予測装置。
  5.  請求項1から3までのいずれか1項に記載の作業時間予測装置であって、
     前記取得手段は、前記エリア情報として、前記作業エリアを撮影可能な装置の撮影画像に基づく情報を取得する、
    ことを特徴とする作業時間予測装置。
  6.  請求項1から5までのいずれか1項に記載の作業時間予測装置であって、
     前記予測手段は、前記今回の作業エリアに類似する前記過去の作業エリアの前記履歴情報を抽出し、抽出した前記履歴情報に基づいて、前記今回の作業エリアでの作業時間を予測する、
    ことを特徴とする作業時間予測装置。
  7.  請求項1から5までのいずれか1項に記載の作業時間予測装置であって、
     前記予測手段は、前記履歴情報を教師データとして用いて機械学習を行った学習済みモデルに、前記取得手段が取得した前記エリア情報に応じた入力を行うことで、前記作業時間の予測結果を取得する、
    ことを特徴とする作業時間予測装置。
  8.  請求項1から5までのいずれか1項に記載の作業時間予測装置であって、
     前記予測手段は、前記履歴情報に基づく演算式を用いて、前記今回の作業エリアでの作業に要する作業時間を予測する、
    ことを特徴とする作業時間予測装置。
  9.  請求項1から8までのいずれか1項に記載の作業時間予測装置であって、
     前記予測手段により予測された前記作業時間に基づく作業費用の見積もりを出力する出力手段をさらに備える、
    ことを特徴とする作業時間予測装置。
  10.  請求項9に記載の作業時間予測装置であって、
     前記出力手段は、今回の作業における作業機の使用台数に応じた複数パターンの前記作業費用の見積もりを出力する、
    ことを特徴とする作業時間予測装置。
  11.  請求項1から10までのいずれか1項に記載の作業時間予測装置であって、
     前記履歴情報を記憶する記憶手段をさらに備える、
    ことを特徴とする作業時間予測装置。
  12.  請求項2に記載の作業時間予測装置であって、
     前記作業性情報は、前記作業エリアの傾斜、前記作業エリアにおける作業機の非進入領域、前記作業エリア上に配置された物体及び前記作業エリア上の植物の種類、からなる群から選択される少なくとも1つについての情報を含む、
    ことを特徴とする作業時間予測装置。
  13.  請求項2に記載の作業時間予測装置であって、
     前記広さ情報は、作業対象の生垣の表面積についての情報を含む、
    ことを特徴とする作業時間予測装置。
  14.  請求項3に記載の作業時間予測装置であって、
     前記作業の区分は、芝地作業、草地作業、手作業及び生垣作業、からなる群から選択される少なくとも1つを含む、
    ことを特徴とする作業時間予測装置。
  15.  請求項1から14までのいずれか1項に記載の作業時間予測装置の各手段として機能するサーバ装置。
  16.  請求項1から14までのいずれか1項に記載の作業時間予測装置の各手段として機能する端末装置。
  17.  請求項15に記載のサーバ装置に対して、今回の作業エリアに関するエリア情報を送信する送信手段と、
     前記予測手段の予測結果を前記サーバ装置から受信する受信手段と、
     前記受信手段が受信した前記予測結果を表示する表示手段と、を備える、
    ことを特徴とする端末装置。
  18.  今回の作業エリアに関するエリア情報を取得する取得工程と、
     前記取得工程で取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測工程と、を含む、
    ことを特徴とする作業時間予測方法。
  19.  コンピュータを、
     今回の作業エリアに関するエリア情報を取得する取得手段、
     前記取得手段が取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測手段、
    の各手段として機能させるためのプログラム。
  20.  サーバ装置と通信可能な端末装置のコンピュータに作業予測時間の表示方法を実行させるプログラムであって、
     前記サーバ装置は、
      今回の作業エリアに関するエリア情報を取得する取得手段と、
      前記取得手段が取得した前記エリア情報と、過去の作業エリアに関するエリア情報及び前記過去の作業エリアでの作業時間に関する時間情報が関連付けられた履歴情報とに基づいて、前記今回の作業エリアでの作業時間を予測する予測手段と、を備え、
     前記表示方法は、
      前記サーバ装置に対して、今回の作業エリアに関するエリア情報を送信する送信工程と、
      前記予測手段の予測結果を前記サーバ装置から受信する受信工程と、
      前記受信工程で受信した前記予測結果を表示する表示工程と、を含む、
    プログラム。
PCT/JP2021/022666 2021-06-15 2021-06-15 作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム WO2022264258A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21945938.5A EP4357989A1 (en) 2021-06-15 2021-06-15 Working hours prediction device, server device, terminal device, working hours prediction method, and program
JP2023528799A JPWO2022264258A1 (ja) 2021-06-15 2021-06-15
PCT/JP2021/022666 WO2022264258A1 (ja) 2021-06-15 2021-06-15 作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム
US18/536,886 US20240112109A1 (en) 2021-06-15 2023-12-12 Work time prediction device, server device, terminal device, work time prediction method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/022666 WO2022264258A1 (ja) 2021-06-15 2021-06-15 作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/536,886 Continuation US20240112109A1 (en) 2021-06-15 2023-12-12 Work time prediction device, server device, terminal device, work time prediction method, and storage medium

Publications (1)

Publication Number Publication Date
WO2022264258A1 true WO2022264258A1 (ja) 2022-12-22

Family

ID=84526865

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022666 WO2022264258A1 (ja) 2021-06-15 2021-06-15 作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム

Country Status (4)

Country Link
US (1) US20240112109A1 (ja)
EP (1) EP4357989A1 (ja)
JP (1) JPWO2022264258A1 (ja)
WO (1) WO2022264258A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118823A (ja) 2007-11-19 2009-06-04 Makita Corp 芝刈機
WO2020136812A1 (ja) * 2018-12-27 2020-07-02 本田技研工業株式会社 支援装置及び支援方法
WO2020136811A1 (ja) * 2018-12-27 2020-07-02 本田技研工業株式会社 情報処理装置及び情報処理方法
JP2020119166A (ja) * 2019-01-23 2020-08-06 株式会社日立製作所 配置最適化システム及び配置最適化方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009118823A (ja) 2007-11-19 2009-06-04 Makita Corp 芝刈機
WO2020136812A1 (ja) * 2018-12-27 2020-07-02 本田技研工業株式会社 支援装置及び支援方法
WO2020136811A1 (ja) * 2018-12-27 2020-07-02 本田技研工業株式会社 情報処理装置及び情報処理方法
JP2020119166A (ja) * 2019-01-23 2020-08-06 株式会社日立製作所 配置最適化システム及び配置最適化方法

Also Published As

Publication number Publication date
EP4357989A1 (en) 2024-04-24
JPWO2022264258A1 (ja) 2022-12-22
US20240112109A1 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
EP3315014B1 (en) A system for forecasting the drying of an agricultural crop
AU2021218100B2 (en) Systems and methods for image capture and analysis of agricultural fields
CA3078119C (en) Disease recognition from images having a large field of view
US20210092912A1 (en) Lawn Monitoring and Maintenance VIA a Robotic Vehicle
US10349584B2 (en) System and method for plant monitoring
US9076105B2 (en) Automated plant problem resolution
US11765542B2 (en) Hybrid vision system for crop land navigation
US20150106434A1 (en) Compositons, methods and systems for retrieval of harvest data
KR102200314B1 (ko) 드론을 이용한 농작물 모니터링 시스템
US20210004594A1 (en) Method for measuring plant planting data, device and system
CN109297467B (zh) 用于检测三维环境数据的系统和传感器模块
JP2019095937A (ja) 農作物育成支援システム、情報収集装置、育成支援サーバ、および農作物販売支援システム
KR20190084148A (ko) 농사 및 농지 관리시스템 및 그 제어방법
JP2018185594A (ja) 牧草管理システム
CN113994389A (zh) 农业作业承包系统以及农业作业承包服务器
Jorgensen et al. Hortibot: A system design of a robotic tool carrier for high-tech plant nursing
JP2018183072A (ja) 牧草管理システム
WO2022264258A1 (ja) 作業時間予測装置、サーバ装置、端末装置、作業時間予測方法及びプログラム
WO2022264259A1 (ja) 情報処理装置、端末装置、情報処理方法及びプログラム
JP2018185593A (ja) 牧草管理システム
Rovira-Más et al. Crop scouting and surrounding awareness for specialty crops
Devi et al. IOT based root rot detection system
AU2021101399A4 (en) An agricultural smart robot device
US11983934B2 (en) Machine-learned obstruction detection in a farming machine
IT202000004561A1 (it) Sistema interattivo per la previsione e la cura di fitopatologie

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21945938

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023528799

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2021945938

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021945938

Country of ref document: EP

Effective date: 20240115