WO2022124258A1 - 圃場マップ生成システム、圃場作業車、圃場マップ生成方法、圃場マップ生成プログラム、及び、記録媒体 - Google Patents

圃場マップ生成システム、圃場作業車、圃場マップ生成方法、圃場マップ生成プログラム、及び、記録媒体 Download PDF

Info

Publication number
WO2022124258A1
WO2022124258A1 PCT/JP2021/044674 JP2021044674W WO2022124258A1 WO 2022124258 A1 WO2022124258 A1 WO 2022124258A1 JP 2021044674 W JP2021044674 W JP 2021044674W WO 2022124258 A1 WO2022124258 A1 WO 2022124258A1
Authority
WO
WIPO (PCT)
Prior art keywords
field
height
crop
map generation
map
Prior art date
Application number
PCT/JP2021/044674
Other languages
English (en)
French (fr)
Inventor
朝田諒
宮下隼輔
江戸俊介
Original Assignee
株式会社クボタ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020205186A external-priority patent/JP7471211B2/ja
Application filed by 株式会社クボタ filed Critical 株式会社クボタ
Priority to KR1020237013990A priority Critical patent/KR20230114263A/ko
Priority to CN202180075313.1A priority patent/CN116456821A/zh
Publication of WO2022124258A1 publication Critical patent/WO2022124258A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D41/00Combines, i.e. harvesters or mowers combined with threshing devices
    • A01D41/12Details of combines
    • A01D41/127Control or measuring arrangements specially adapted for combines
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining

Definitions

  • the present invention relates to a field map generation system for generating a height map showing a crop height, a field work vehicle, a field map generation method, a field map generation program, and a recording medium.
  • a detection device (“imaging unit” in the document) provided in a field work vehicle (“combine” in the document) and a map showing the state of crops in the field based on the detection result of the detection device (literature).
  • a map generation unit (“harvest information generation unit” in the literature) that generates a “yield map” and a “taste map”) is provided.
  • the detection device of Japanese Patent Application Laid-Open No. 2019-008536 is configured to be capable of detecting, for example, the lodging state of the crop, but the configuration of calculating the crop height in the field from the detection result of the detection device is not disclosed. ..
  • precision agriculture in recent years it is desirable to manage the crop height as data in order to grasp the growth status of the crop, but in the conventional technique, there is a technique to acquire the crop height while working with a field work vehicle. I didn't.
  • the present invention is to provide a field map generation system capable of acquiring a crop height while working on a field work vehicle.
  • the position and height of an object provided in the field work vehicle and existing in the front region in front of the traveling direction of the field work vehicle are detected while the field work vehicle is used for working. It is characterized by being provided with a detection device and a map generation unit that generates a height map showing the distribution of crop height in the field based on the detection result of the detection device.
  • the detection device provided in the field work vehicle is configured to be able to detect the position and height of the crop while the work running by the field work vehicle is performed. From this, the detection device can detect the position and height of the crop in the entire field by performing the work running in a state where the field work vehicle covers the field. Then, the crop height in the field is acquired, and for example, the worker or manager of the field can utilize the crop height for the next agricultural plan. This will realize a field map generation system that can acquire the crop height while working with a field work vehicle.
  • the technical features of the field map generation system described above can also be applied to field work vehicles.
  • the crop height in the field is based on the detection device that detects the position and height of the object existing in the front region in front of the traveling direction and the detection result of the detection device while performing the work running. It is characterized by being provided with a map generation unit that generates a height map showing the distribution of the crops.
  • the field map generation method includes a detection step of detecting the position and height of an object existing in the front region in front of the traveling direction of the field work vehicle while performing work traveling by the field work vehicle, and the detection step. It is characterized by comprising a map generation step of generating a height map showing the distribution of crop height in the field based on the detection result in.
  • the technical features of the field map generation system described above can also be applied to the field map generation program.
  • a recording medium such as an optical disk, a magnetic disk, or a semiconductor memory in which a field map generation program having this technical feature is recorded is also included in the configuration of the present invention.
  • the field map generation program has a detection function for detecting the position and height of an object existing in the front region in front of the traveling direction of the field work vehicle while performing work running by the field work vehicle, and the detection function. It is characterized by having a computer execute a map generation function that generates a height map showing the distribution of crop heights in the field based on the detection result by.
  • the map generation unit divides the field into a plurality of micro-compartments and generates the height map so as to indicate the crop height in the micro-compartment units.
  • the distribution map of the crop height in the field can be obtained in units of minute plots, and for example, the workers and managers of the field can utilize the distribution map for the next agricultural plan.
  • the map generation unit calculates the average value of the crop heights of the crops existing in the micro-compartment, and sets the average value as the crop height in the micro-compartment.
  • the map generation unit is configured so that the size of the minute section can be arbitrarily changed.
  • the size of the minute section in the height map can be changed flexibly according to the request of the worker or manager of the field, for example. This makes the height map easy to use, for example, for field workers and managers.
  • the map generation unit generates the height map by dividing the crop height into a plurality of stages.
  • the crop height included in the height map is divided into levels in multiple stages, so for example, field workers and managers can grasp the variation in crop height in the field at a glance.
  • the detection device has an image pickup device that images a field
  • the map generation unit detects the lodging state of the crop based on the image pickup information captured by the image pickup device, and sets the lodging state to the height. It is preferable to reflect it on the map.
  • the map generation unit calculates the average value of the crop height of the crop in the field, detects the collapsed state of the crop based on the ratio of the crop height to the average value, and determines the collapsed state. It is preferable to reflect it in the height map.
  • the detection device has an image pickup device that images the field, and the map generation unit detects weeds in the field based on the image pickup information captured by the image pickup device, and in calculating the average value, the said device. It is preferable to calculate the average value after excluding the data on weeds.
  • This configuration improves the accuracy of calculating the average value of crop height.
  • FIG. 1 is an overall left side view of the combine 1 according to the present embodiment.
  • FIG. 2 is an overall plan view of the combine 1 according to the present embodiment.
  • FIG. 3 is a block diagram showing a configuration of a control system provided in the combine 1.
  • a combine that puts all the culms of the harvested crop into a threshing device a so-called ordinary combine
  • the combine 1 may be a head-feeding combine.
  • the crawler type combine will be described as an example, but a wheel type combine may be used.
  • the combine 1 is provided with a machine body 2 and a pair of left and right crawler type traveling devices 11.
  • the machine 2 is provided with a boarding unit 12, a threshing device 13, a grain tank 14, a harvesting unit 15, a transport device 16, and a grain discharging device 18.
  • front (direction of arrow “F” shown in FIGS. 1 and 2) is forward in the front-rear direction (traveling direction) of the aircraft.
  • rear (direction of arrow “B” shown in FIGS. 1 and 2) means rearward in the front-rear direction (traveling direction) of the aircraft.
  • up (direction of arrow “U” shown in FIG. 1)
  • down (direction of arrow “D” shown in FIG. 1) are positional relationships of the aircraft 2 in the vertical direction (vertical direction). , Shows the relationship at ground height.
  • left (direction of arrow "L” in FIG.
  • the left-right direction of the aircraft and the lateral direction of the aircraft mean the cross-sectional direction (width direction of the aircraft) orthogonal to the front-rear direction of the aircraft.
  • the left-right direction is defined as viewed from the direction of travel of the aircraft.
  • the traveling device 11 is provided at the lower part of the combine 1.
  • the traveling device 11 has a pair of left and right crawler traveling mechanisms, and the combine 1 can travel in the field by the traveling device 11.
  • the field is a work area where the combine 1 performs a work run.
  • the working run means the harvesting work of the combine 1.
  • the boarding unit 12, the threshing device 13, and the grain tank 14 are provided above the traveling device 11, and these are configured as the upper part of the machine body 2.
  • the passenger of the combine 1 and the observer who monitors the work of the combine 1 can board the boarding unit 12.
  • a drive engine (not shown) is provided below the boarding section 12.
  • the grain discharge device 18 is connected to the rear lower portion of the grain tank 14.
  • the harvesting section 15 harvests the planted crops in the field.
  • the planted crop is, for example, a planted culm such as rice or wheat.
  • the combine 1 can perform work traveling by the traveling device 11 while harvesting the planted crops in the field by the harvesting unit 15.
  • the transport device 16 is provided adjacent to the rear side of the harvesting section 15.
  • the harvesting section 15 and the transport device 16 are supported by the front portion of the machine body 2 so as to be able to move up and down by the expansion and contraction operation of the cylinder 15H.
  • the harvesting section 15 is provided with a harvesting frame 15A, a scraping reel 15B, a horizontal feed auger 15C, and a hair clipper-shaped cutting blade 15D.
  • the scraping reel 15B is configured to be rotatable around the lateral axis of the machine body. When harvesting a planted crop from a field, the scraping reel 15B scrapes a portion of the planted crop near the tip toward the rear.
  • the cutting blade 15D cuts the root-side portion of the planted crop that has been scraped backward by the scraping reel 15B.
  • the lateral feed auger 15C is rotationally driven to the lateral axis of the machine body, laterally feeds the harvested crops cut by the cutting blade 15D to the middle side in the left-right direction, collects them, and sends them out to the rear transport device 16.
  • All the culms of the crops (for example, harvested culms) harvested by the harvesting unit 15 are transported to the threshing device 13 by the transport device 16. All the culms of the harvested crops are put into the threshing device 13 and threshed.
  • the grains obtained by the threshing treatment are stored in the grain tank 14. The grains stored in the grain tank 14 are discharged to the outside of the machine by the grain discharging device 18 as needed.
  • a first detection device 21 and a second detection device 22 are provided on the front upper part of the boarding unit 12.
  • the first detection device 21 and the second detection device 22 are the "detection devices" of the present invention.
  • the first detection device 21 is an object position measuring instrument that measures the spatial position of an object.
  • an ultrasonic measurement method, a stereo matching measurement method, a ToF (Time of Flat) measurement method, or the like is used as the measurement method of the first detection device 21, an ultrasonic measurement method, a stereo matching measurement method, a ToF (Time of Flat) measurement method, or the like is used.
  • the first detection device 21 transmits an electromagnetic wave having a wavelength shorter than that of the radio wave toward the front in the traveling direction, and determines the position and height of the object based on the reflected wave reflected by the object. To detect.
  • An electromagnetic wave having a wavelength shorter than that of a radio wave is, for example, an electromagnetic wave having a frequency of 3 million megaHz or less.
  • the first detection device 21 determines the position and height of the object based on the direction in which such an electromagnetic wave is transmitted and the time from the transmission of the electromagnetic wave to the reception of the reflected wave of the electromagnetic wave reflected by the object. Is detected.
  • a two-dimensional scan LiDAR which is a ToF measurement method, is used.
  • a three-dimensional scan LiDAR may be used instead of the two-dimensional scan LiDAR.
  • the second detection device 22 is a so-called camera, which is the "imaging device” of the present invention.
  • the second detection device 22 captures a region in front of the traveling direction of the machine body 2 including at least the detection target range of the first detection device 21 in the field, and acquires an captured image including RGB color information.
  • the front region FR shown in FIGS. 1 and 2 is an unworked region (region of unharvested planted crops) in front of the traveling direction of the aircraft 2 in the field.
  • the front region FR is a detection target of the first detection device 21 and an image pickup target of the second detection device 22.
  • the first detection device 21 detects the position and height of an object existing in the front region FR.
  • the second detection device 22 captures the front region FR.
  • the front region FR in front of the traveling direction of the machine body 2 corresponds to the region in front of the traveling direction of the harvesting unit 15, and corresponds to the region shown by the alternate long and short dash line in FIGS. 1 and 2.
  • FIGS. 1 and 2 show examples of planted crops detected by the first detection device 21.
  • the standard planting crop group Z0 having a reference height in the field
  • the short crop group Z1 having a height lower than the standard planting crop group Z0
  • the lodging planting crop group. Z2 and are shown.
  • a satellite positioning module 80 is provided on the ceiling of the boarding section 12.
  • the satellite positioning module 80 receives a GNSS (Global Navigation Satellite System) signal (including a GPS signal) from the artificial satellite GS and acquires the position of the own vehicle.
  • GNSS Global Navigation Satellite System
  • an inertial navigation unit incorporating a gyro acceleration sensor and a magnetic orientation sensor is incorporated in the satellite positioning module 80.
  • the inertial navigation unit may be arranged at a place different from the satellite positioning module 80 in the combine 1.
  • FIG. 3 shows a block system diagram of the field map generation system of the present invention.
  • the above-mentioned first detection device 21, the above-mentioned second detection device 22, the feature data generation unit 30, the map data generation unit 31, the map management unit 32, and the vehicle position A calculation unit 33, a display device 34, and the above-mentioned satellite positioning module 80 are provided.
  • the map data generation unit 31 and the map management unit 32 are "map generation units" of the present invention.
  • the combine 1 is provided with a control unit (not shown), and the control unit is composed of, for example, an aggregate of a plurality of ECUs.
  • the field map generation system of the present invention includes a control unit of combine 1.
  • a management computer As a part of the field map generation system of the present invention, for example, a management computer is provided.
  • the management computer may be, for example, a server (cloud server or the like) that manages a database, or may be a portable computer or a multifunctional mobile phone carried by a worker or a field supervisor. Then, the control unit of the combine 1 and the management computer are connected to each other via the Internet communication network, and data is communicated with each other.
  • the field map generation system of the present invention includes a control unit of combine 1 and a management computer.
  • the field map generation system may include a control unit of the combine 1, a management computer, and a client terminal connected to the management computer.
  • the feature data generation unit 30, the map data generation unit 31, and the own vehicle position calculation unit 33 are incorporated as a part of the control unit of the combine 1.
  • the map management unit 32 is incorporated as a part of the management computer.
  • the feature data generation unit 30, the map data generation unit 31, and the own vehicle position calculation unit 33 may be incorporated as a part of the management computer, or the map management unit 32 may be incorporated as a part of the control unit of the combine 1. May be.
  • the positioning data output from the satellite positioning module 80 is input to the own vehicle position calculation unit 33.
  • the own vehicle position calculation unit 33 calculates the own vehicle position based on the positioning data from the satellite positioning module 80.
  • the combine 1 can also be automatically steered. In the case of automatic steering, for example, the control unit of the combine 1 controls the steering and the vehicle speed based on the target traveling path set by the control unit of the combine 1 and the own vehicle position calculated by the own vehicle position calculation unit 33. Is performed on the traveling device 11.
  • the image data output from the second detection device 22 is sent to the feature data generation unit 30. Since the captured image contains color information, the feature data generation unit 30 recognizes the planted crop by using a technique such as image recognition including a neural network, and features including color information and orientation of the planted crop. Data can be generated. Color information is included in the image data sent from the second detection device 22. From this image data, the feature data generation unit 30 uses the unharvested planted crop area, the lodging crop area, the lodging direction of the lodging crop (the direction of the lodging), the harvested area, the ridge area, and the weed area (in the crop area). (Including cases where weeds are mixed), etc. are classified. Then, the feature data generation unit 30 generates feature data including the above-mentioned divided regions, the lodging direction, and the like. The feature data generated by the feature data generation unit 30 is sent to the map data generation unit 31.
  • the point cloud data output from the first detection device 21 is sent to the map data generation unit 31.
  • the map data generation unit 31 detects the state of the crop in the front region FR shown in FIGS. 1 and 2 based on the detection result of the first detection device 21 and the detection result of the second detection device 22, and the height is high. Generate a map.
  • the detection result of the first detection device 21 is point cloud data
  • the detection result of the second detection device 22 is the feature data created by the feature data generation unit 30.
  • the map data generation unit 31 obtains the actual height of the pre-harvest planted crop to be planted in front of the traveling direction of the machine 2 using the point cloud data from the first detection device 21. Further, although the details will be described later based on FIG. 4, the map data generation unit 31 adds the feature data generated by the feature data generation unit 30 to the point cloud data. Color information is included in the feature data. The map data generation unit 31 analyzes the point cloud data to which the color information is given to more accurately obtain the height of the tip portion (ear tip or the like) of the planted crop. Then, the map data generation unit 31 generates a height map including detection information regarding crop height, lodging information, weeds, and the like. The generated height map is sent from the map data generation unit 31 to the map management unit 32.
  • the map management unit 32 divides the field into a plurality of minute sections and generates a height map so as to indicate the crop height in each minute section.
  • the minute section is a section per unit traveling amount according to the working width of the combine 1.
  • the map management unit 32 calculates detection information regarding crop height, lodging information, weeds, etc. in small plot units.
  • the display device 34 displays the detection information regarding the crop height, the lodging information, the weeds, etc. in the minute section unit.
  • the display device 34 may be the display of the above-mentioned management computer, or may be a portable computer or a multifunctional mobile phone carried by a worker or a field supervisor. When the display device 34 is a portable computer or a multifunctional mobile phone, the map management unit 32 and the display device 34 are each connected via a wireless Internet communication network, and data is communicated with each other.
  • the map data generation unit 31 detects the crop height and the lodging state based on the detection result of the first detection device 21 and the detection result of the second detection device 22, and generates a height map. ..
  • FIG. 4A shows an example of the detection result of the second detection device 22, that is, the captured image.
  • the right part of the captured image in FIG. 4 (A) includes the planted crop area 61 in which the planted crop (upright culm) grows, and the other part in the captured image contains the collapsed crop.
  • the collapsed crop area 62 is included.
  • the planted crop area 61 shown in FIG. 4 (A) corresponds to the standard planted crop group Z0 or the short crop group Z1 shown in FIGS. 1 and 2.
  • the lodging crop area 62 shown in FIG. 4A corresponds to the lodging planting crop group Z2 shown in FIGS. 1 and 2.
  • boundary portion (boundary area 63) between the planted crop area 61 and the lodging crop area 62, a side portion of the planted crop of the planted crop area 61 that appears due to the lodging of the crop in the lodging crop area 62 and the side portion of the planted crop appear. , A crop with a height between the planted crop and the fallen crop is shown.
  • the feature data generation unit 30 uses a technique such as image recognition including a neural network to obtain an unharvested planted crop area, a fallen crop area, a harvested area, a ridge area, and a weed from the image data. It is configured so that areas and the like can be identified.
  • the feature data generation unit 30 generates feature data by dividing the planted crop area 61 into a lodging crop area 62 and a boundary area 63.
  • the feature data generated based on the captured image shown in FIG. 4A includes a planted crop area 61, a lodging crop area 62, and a boundary area 63.
  • the generated feature data also includes the direction of the fallen crop in the fallen crop area 62.
  • FIG. 4B shows the detection result of the first detection device 21 with the imaging range of the captured image of FIG. 4A as the detection target.
  • FIG. 4B is point cloud data showing an object (top or side of the crop) detected by the two-dimensional scan LiDAR.
  • the point cloud data obtained by the two-dimensional scan LiDAR is the one in which the exposed portion of the detection target is detected. Therefore, the point group data 71 obtained from the field scene corresponding to the planted crop area 61 in the field and the point group data 72 obtained from the field scene corresponding to the lodging crop area 62 in the field are used for each point group.
  • the height information indicating the height of the object based on the data is different from each other.
  • the height information indicating the height of the object based on the point group data 73 obtained from the field scene corresponding to the boundary region 63 in the field also has the height of the object based on the point group data 71 and the point group data 72. It is different from the height information shown.
  • the map data generation unit 31 adds feature data generated based on the captured image shown in FIG. 4A to the point cloud data 71, 72, 73 shown in FIG. 4B. Then, the map data generation unit 31 generates point cloud data 81, 82, 83 to which feature data (color information) is added, as shown in FIG. 4 (C). That is, the point cloud data 81, 82, to which color information is added based on the captured image shown in FIG. 4 (A) and the point cloud data 71, 72, 73 shown in FIG. 4 (B), 83 is shown in FIG. 4 (C).
  • the point cloud data 81 of FIG. 4 (C) has the same height information as the point cloud data 71 and has the same color information as the planted crop area 61. Further, the point cloud data 82 of FIG. 4C has the same height information as the point cloud data 72, and has the same color information as the collapsed crop area 62. Further, the point cloud data 83 of FIG. 4C has the same height information as the point cloud data 73, and has the same color information as the boundary region 63.
  • the height information of each of the point cloud data 81, 82, and 83 may be an absolute value or a relative value.
  • the region where the planted crop grows (the region with a high height) is colored with a yellow base color (yellow base tone) based on the point cloud data 81.
  • the region where the fallen crop grows (the region having a low height) is colored with a blue base color (blue base tone) based on the point cloud data 82.
  • the area where the crop having a height between the height of the planted crop and the height of the fallen crop grows, and the area where the side of the planted crop is visible.
  • the region of the intermediate band is colored with a green base tone (green base tone) color based on the point group data 83.
  • the area where the fallen crops grow (the area where the height is low) is not only the “upright state” and the “downturned state”, but also the “slightly downturned” and “sticky moss” (the extent to which the tip of the ear touches the field scene), which will be described later. It may be colored for each state indicating "the state of lying down”.
  • the map data generation unit 31 can appropriately determine the state in which crops are growing in the field based on the point cloud data 81, 82, 83 to which such color information is added.
  • the detection result of the first detection device 21 is sent to the map data generation unit 31 over time, and the detection result of the second detection device 22 is sent to the feature data generation unit 30 over time.
  • the own vehicle position of the combine 1 is acquired over time by the own vehicle position calculation unit 33.
  • the map data generation unit 31 generates point cloud data 81, 82, 83 to which feature data (color information) is added, and links the position of the own vehicle of the combine 1 to these point cloud data 81, 82, 83. Then, a height map is generated based on the aggregate of the point cloud data 81, 82, 83.
  • the aggregate of the point cloud data 81, 82, 83 for each position of the own vehicle of the combine 1 is stored in the storage device (not shown) of the management computer described above.
  • the point cloud data 81, 82, 83 include the crop state of the field such as crop height, lodging information, detection information on weeds, and the like.
  • the map management unit 32 is provided in the management computer that stores the aggregate of the point cloud data 81, 82, and 83. As described above, the map management unit 32 divides the field into a plurality of micro-compartments and generates a height map so as to indicate the crop height in each micro-compartment.
  • FIG. 5 shows a height map divided into small sections. The minute section is a section per unit traveling amount according to the working width of the combine 1.
  • the crop height map shows the crop height in five levels in small plot units.
  • the lodging map shows the degree of lodging in small sections at three levels (four levels including "upright").
  • the map management unit 32 calculates the average value of the crop heights of the crops existing in the micro-compartment, and sets the average value as the crop height in the micro-compartment.
  • the map management unit 32 calculates the average value of the crop height in each minute section by calculating the average value of the height information of the plurality of point cloud data 81, 82, 83 in each minute section.
  • the height information of the point cloud data 81, 82, 83 is the weed.
  • the height In this case, the point cloud data 81, 82, 83 including the weed detection information is excluded from the calculation of the average value of the height information of the plurality of point cloud data 81, 82, 83 in each minute section. That is, the map data generation unit 31 detects weeds in the field based on the image pickup information captured by the second detection device 22. Further, the map management unit 32 calculates the average value after excluding the data related to weeds in the calculation of the average value of the height information of the plurality of point cloud data 81, 82, 83 in each minute section.
  • the distribution of the average value of the crop height in each minute section is shown at five levels.
  • the five levels may be set according to the ratio of the general crop height of the crop variety to the average crop height in the micro-compartment unit, or the average crop height of the entire field. It may be set according to the ratio of the value and the average value of the crop height in the small section unit.
  • the point cloud data 82 shown in FIG. 4 (C) includes crop lodging information.
  • the map management unit 32 determines the minute division. Judged as a small plot with a fallen crop.
  • the micro-compartment in which the fallen crop exists is hereinafter referred to as "downturned micro-compartment".
  • the map management unit 32 divides the degree of lodging of the lodging crop in the lodging microsection into one of "slightly lodging", “falling”, and “sticky” based on the lodging information of the point cloud data 82.
  • the average value of the crop height in the small section unit has already been calculated by the above-mentioned crop height map.
  • the map management unit 32 calculates the average value of the crop height (the overall average value of the crop height of the planted crop) from all the micro-compartments excluding the lodging micro-compartment in the height map. Next, the map management unit 32 calculates the degree of deviation between the average value of the crop height in the lodging microsection and the overall average value of the crop height of the planted crop.
  • the map management unit 32 reflects the degree of lodging in the lodging minute section unit on the height map based on the degree of deviation.
  • the distribution of the degree of lodging in each of the lodging minute sections is shown at four levels of "upright”, “slightly lodging”, “falling”, and "sticky”.
  • the map data generation unit 31 and the map management unit 32 as the "map generation unit” have the detection results of the first detection device 21 and the second detection device 22, respectively. Generate a height map based on. Further, the map data generation unit 31 detects the collapsed state of the crop based on the captured image (imaging information) captured by the second detection device 22, and the map management unit 32 reflects the collapsed state on the height map. .. In addition, the map data generation unit 31 and the map management unit 32 classify the average value of crop height, the degree of lodging, etc. into a plurality of stages based on the height information and color information of the point cloud data 81, 82, 83. To generate a height map. As a result, the worker, the field supervisor, and the like can intuitively grasp detailed information on the crop height and the lodging state in the field.
  • the map management unit 32 is configured so that the size of the minute section can be arbitrarily changed.
  • a worker, a field supervisor, or the like can operate a management computer, a client terminal connected to the management computer (for example, a personal computer, a multifunctional mobile phone, etc.) to change the size of one side of a minute section.
  • the map management unit 32 calculates the average value of the crop height, the degree of lodging, etc. as shown in FIG. 5 in units of the updated micro-compartment.
  • the worker, the field supervisor, etc. can analyze the height map in a minute section according to the work width of, for example, a rice transplanter, a fertilizer applicator, a tiller, or the like.
  • the feature data generation unit 30 detects the collapsed crop area in the field, and the map management unit 32 reflects the collapsed state on the height map, but the present invention is not limited to this embodiment.
  • the map management unit 32 calculates the average value of the crop heights of the entire field based on the aggregate of the point group data 81, 82, 83, and obtains the height information of the point group data 81, 82, 83.
  • the configuration may be such that the collapsed state of the crop is detected based on the ratio of the average value of the height of the crop in the entire field.
  • the feature data generation unit 30 fails to detect the collapsed crop area, the "average value of the crop height in the minute section unit" with respect to the "average value of the crop height of the entire field". It is possible to detect the collapsed state of the crop based on the degree of divergence.
  • the map management unit 32 is configured to automatically add, for example, a next fertilization plan, a pesticide spraying plan, etc. to a height map created based on an aggregate of point cloud data 81, 82, 83. May be. Specifically, the map management unit 32 sets the planned fertilizer application amount in the next period to be small based on the average value of the crop height in the small section unit of the crop height map and the degree of lodging in the small section unit of the lodging map. The configuration may be calculated for each section.
  • the distribution of the planned fertilization amount of each micro-section is generated as, for example, a fertilization plan map, and the field supervisor can utilize the fertilization plan map for the next fertilization plan.
  • the height map may include work state information such as the cutting height and vehicle speed of the combine 1, and the cutting height information and vehicle speed information may be calculated in units of minute sections.
  • the taste of the harvested product may be measured by a taste measuring device (not shown) of the combine 1 and the taste information of the harvested product may be reflected in the height map.
  • the degree of weed presence in the field may be calculated in small plot units. Further, based on the degree of presence of the weed, the planned spraying amount of the next drug may be calculated in units of minute sections.
  • the "detection device” of the present invention is configured by the first detection device 21 which is a two-dimensional scan LiDAR and the second detection device 22 which is a camera.
  • the "detection device” of the present invention may be composed of a pair of left and right stereo cameras. The distance between the crop and the stereo camera may be calculated based on the difference in the imaging angles of the crop captured by the pair of left and right stereo cameras, and the height of the crop may be calculated.
  • weeds are detected based on the captured image captured by the second detection device 22, but the weeds are not limited to this embodiment.
  • weed heights often differ from crop heights. Since the general crop height of the cultivar is known when the cultivar of the crop is input in advance, the map management unit 32 uses the general crop height of the cultivar and the height of the point group data 81, 82, 83. Weeds may be determined based on the ratio of the information.
  • the combine 1 is exemplified as a field work vehicle, but the field work vehicle is, for example, a field work vehicle (field management machine) that manages growing crops while traveling in the field. Is also good.
  • the detection device provided in the field work vehicle may be configured to detect the position and height of the crop.
  • a planted culm such as rice or wheat is exemplified as a crop, but the crop may be soybean, corn or the like.
  • the height map is configured to be able to be divided into minute sections per unit traveling amount, but the height map may be configured to be divided into only a few sections. However, the configuration may not be divided into sections.
  • the "front region in front of the traveling direction" of the present invention may include the left-right diagonal front of the aircraft.
  • the first detection device 21 detects the position and height of an object existing in the unworked area in front of the left and right sides of the machine
  • the second detection device 22 captures the unworked area in front of the left and right sides of the machine. Is also good.
  • the average value of the crop height is shown in small plot units, but the present invention is not limited to this embodiment.
  • the crop height map may be indicated by contour lines.
  • the present invention can be used in a field map generation system in which a field work vehicle is provided with a detection device for detecting the position and height of crops. Therefore, the technical features of the present invention can be applied to field work machines such as various harvesters and management machines. Therefore, the above-described embodiment can be configured as a field work machine. In addition, the technical features of the field map generation system of the present invention can also be applied to the field map generation method. Therefore, the above-described embodiment can be configured as a field map generation method. In addition, the technical features of the field map generation system of the present invention are also applicable to the field map generation program. Therefore, the above-described embodiment can be configured as a field map generation program. Further, a recording medium such as an optical disk, a magnetic disk, or a semiconductor memory on which a field map generation program having this technical feature is recorded is also included in the configuration of the above-described embodiment.
  • a recording medium such as an optical disk, a magnetic disk, or a semiconductor memory on which a field map generation program having this technical

Abstract

本発明の圃場マップ生成システムに、検出装置とマップ生成部とが備えられている。検出装置は、圃場作業車に設けられ、圃場作業車の進行方向前方の前方領域に存在する物体の位置及び高さを検出する。圃場作業車による作業走行を行いつつ、検出装置は作物の位置及び高さを検出される。マップ生成部は、検出装置の検出結果に基づいて圃場における作物高さの分布を示す高さマップを生成する。

Description

圃場マップ生成システム、圃場作業車、圃場マップ生成方法、圃場マップ生成プログラム、及び、記録媒体
 本発明は、作物高さを示す高さマップを生成する圃場マップ生成システム、圃場作業車、圃場マップ生成方法、圃場マップ生成プログラム、及び、記録媒体に関する。
 例えば特許文献1では、圃場作業車(文献では「コンバイン」)に設けられた検出装置(文献では「撮像部」)と、検出装置の検出結果に基づいて圃場の作物の状態を示すマップ(文献では「収量マップ」、「食味マップ」)を生成するマップ生成部(文献では「収穫情報生成部」)と、が備えられている。
日本国特開2019-008536号公報
 ところで日本国特開2019-008536号公報の検出装置は、例えば作物の倒伏状態を検出可能に構成されているが、検出装置の検出結果から圃場における作物高さを算出する構成は開示されていない。近年の精密農業において、作物の生育状況を把握するために、作物高さをデータとして管理する構成が望ましいが、従来技術では、圃場作業車による作業走行中に作物高さを取得する技術が存在しなかった。
 本発明は、圃場作業車で作業走行しながら作物高さを取得可能な圃場マップ生成システムを提供することにある。
 本発明の圃場マップ生成システムでは、圃場作業車に設けられ、前記圃場作業車による作業走行を行いつつ、前記圃場作業車の進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出装置と、前記検出装置の検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成部と、が備えられていることを特徴とする。
 本発明によると、圃場作業車に設けられた検出装置は、圃場作業車による作業走行が行われる間、作物の位置及び高さを検出可能なように構成されている。このことから、圃場作業車が圃場を網羅する状態で作業走行を行うことによって、検出装置は圃場全体の作物の位置及び高さを検出できる。そして、圃場における作物高さが取得され、例えば圃場の作業者や管理者は作物高さを次期の農業計画に活用できる。これにより、圃場作業車で作業走行しながら作物高さを取得可能な圃場マップ生成システムが実現される。
 上述した圃場マップ生成システムの技術的特徴は、圃場作業車にも適用可能である。この場合における圃場作業車では、作業走行を行いつつ、進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出装置と、前記検出装置の検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成部と、が備えられていることを特徴とする。
 上述した圃場マップ生成システムの技術的特徴は、圃場マップ生成方法にも適用可能である。この場合における圃場マップ生成方法は、前記圃場作業車による作業走行を行いつつ、前記圃場作業車の進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出ステップと、前記検出ステップにおける検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成ステップと、を備えることを特徴とする。
 上述した圃場マップ生成システムの技術的特徴は、圃場マップ生成プログラムにも適用可能である。さらに、この技術的特徴を有する圃場マップ生成プログラムが記録された光ディスクや磁気ディスク、半導体メモリ等の記録媒体も本発明の構成に含まれる。この場合における圃場マップ生成プログラムは、前記圃場作業車による作業走行を行いつつ、前記圃場作業車の進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出機能と、前記検出機能による検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成機能と、をコンピュータに実行させることを特徴とする。
 本発明において、前記マップ生成部は、圃場を複数の微小区画に区分けして、前記微小区画単位で前記作物高さを示すように、前記高さマップを生成すると好適である。
 本構成によって、圃場における作物高さの分布図が微小区画単位で取得可能となり、例えば圃場の作業者や管理者は当該分布図を次期の農業計画に活用できる。
 本発明において、前記マップ生成部は、前記微小区画の範囲内に存在する作物の前記作物高さの平均値を算出し、前記平均値を前記微小区画における前記作物高さとすると好適である。
 微小区画の範囲内に存在する作物の一つ一つの作物高さが高さマップに示されると、例えば圃場の作業者や管理者は、圃場における作物高さのバラツキを直感的に把握し難くなる。本構成であれば、例えば圃場の作業者や管理者は、微小区画単位における作物高さを平均値で管理可能となり、作物の状態や傾向を容易に分析できる。
 本発明において、前記マップ生成部は、前記微小区画の大きさを任意に変更可能に構成されていると好適である。
 本構成によって、高さマップにおける微小区画の大きさが、例えば圃場の作業者や管理者の要望に合わせて臨機応変に変更される。これにより、高さマップが、例えば圃場の作業者や管理者にとって使い易いものとなる。
 本発明において、前記マップ生成部は、前記作物高さを複数の段階にレベル分けして前記高さマップを生成すると好適である。
 本構成であれば、高さマップに含まれる作物高さが複数の段階でレベル分けされるため、例えば圃場の作業者や管理者は、圃場における作物高さのバラツキを一目で把握できる。
 本発明において、前記検出装置は、圃場を撮像する撮像装置を有し、前記マップ生成部は、前記撮像装置で撮像した撮像情報に基づいて作物の倒伏状態を検出し、前記倒伏状態を前記高さマップに反映させると好適である。
 本構成であれば、圃場を撮像する撮像装置によって、色情報を含む撮像情報の取得が可能となって、高さマップに作物の倒伏状態を付加することが可能となる。これにより、例えば圃場の作業者や管理者は、倒伏作物の位置及び高さを、倒伏度合いとして把握でき、倒伏作物の倒伏度合いを次期の農業計画に活用できる。
 本発明において、前記マップ生成部は、圃場における作物の前記作物高さの平均値を算出し、前記作物高さと前記平均値との比率に基づいて作物の倒伏状態を検出し、前記倒伏状態を前記高さマップに反映させると好適である。
 本構成であれば、例えば上述の撮像装置で倒伏作物を検出できなかった場合であっても、圃場のうち当該平均値よりも低い領域において、当該平均値に対する作物高さの乖離度合いに基づいて作物の倒伏状態の検出が可能となる。
 本発明において、前記検出装置は、圃場を撮像する撮像装置を有し、前記マップ生成部は、前記撮像装置で撮像した撮像情報に基づいて圃場における雑草を検出し、前記平均値の算出において前記雑草に関するデータを除外してから前記平均値を算出すると好適である。
 本構成によって、作物高さの平均値の算出精度が向上する。
収穫機の全体側面図である。 収穫機の全体平面図である。 圃場マップ生成システムの制御ブロック図である。 第1検出装置及び第2検出装置の検出結果に関するデータの一例を示す図である。 高さマップの一例を示す模式図である。
 図1は本実施形態に係るコンバイン1の全体左側面図である。図2は本実施形態に係るコンバイン1の全体平面図である。図3はコンバイン1に設けられる制御系の構成を示すブロック図である。なお、以下では、圃場作業車の一例として、収穫された作物の全稈を脱穀装置に投入するコンバイン、いわゆる普通型コンバインを例に挙げて説明する。もちろん、コンバイン1は自脱型コンバインであっても良い。また、本実施形態では、クローラ式のコンバインを例に挙げて説明するが、ホイール式のコンバインであっても良い。コンバイン1に、機体2と、左右一対のクローラ式の走行装置11と、が備えられている。機体2に、搭乗部12と、脱穀装置13と、穀粒タンク14と、収穫部15と、搬送装置16と、穀粒排出装置18と、が備えられている。
 ここで、理解を容易にするために、本実施形態では、特に断りがない限り、『前』(図1及び図2に示す矢印『F』の方向)は機体前後方向(走行方向)における前方を意味し、『後』(図1及び図2に示す矢印『B』の方向)は機体前後方向(走行方向)における後方を意味する。更に、『上』(図1に示す矢印『U』の方向)及び『下』(図1に示す矢印『D』の方向)は、機体2の鉛直方向(垂直方向)での位置関係であり、地上高さにおける関係を示す。また、『左』(図2における矢印『L』の方向)は機体左側、『右』(図2における矢印『R』の方向)は機体右側である。機体左右方向と機体横方向との夫々は、機体前後方向に直交する機体横断方向(機体幅方向)を意味する。機体2の左右方向を定義するときは、機体進行方向視で見た状態で左右を定義する。
 走行装置11は、コンバイン1の下部に備えられている。走行装置11は左右一対のクローラ走行機構を有し、コンバイン1は、走行装置11によって圃場を走行可能である。圃場とは、コンバイン1が作業走行を行う作業地である。本実施形態では、作業走行はコンバイン1の収穫作業を意味する。搭乗部12、脱穀装置13、穀粒タンク14は、走行装置11よりも上側に備えられ、これらは機体2の上部として構成されている。コンバイン1の搭乗者やコンバイン1の作業を監視する監視者が、搭乗部12に搭乗可能である。搭乗部12の下方に駆動用のエンジン(不図示)が備えられている。穀粒排出装置18は、穀粒タンク14の後下部に連結されている。
 収穫部15は圃場の植立作物を収穫する。植立作物は、例えば稲や麦等の植立穀稈である。そして、コンバイン1は、収穫部15によって圃場の植立作物を収穫しながら走行装置11によって走行する作業走行が可能である。搬送装置16は収穫部15よりも後側に隣接して設けられている。収穫部15及び搬送装置16は、シリンダ15Hの伸縮動作によって上下昇降可能なように、機体2の前部に支持されている。
 収穫部15に、収穫フレーム15Aと、掻込リール15Bと、横送りオーガ15Cと、バリカン状の切断刃15Dと、が備えられている。掻込リール15Bは、機体横向き軸芯まわりに回転可能に構成されている。掻込リール15Bは、圃場から植立作物を収穫する際に、植立作物のうちの先端寄りの箇所を後方に向けて掻込む。切断刃15Dは、掻込リール15Bによって後方に掻き込まれた植立作物の株元側部分を切断する。横送りオーガ15Cは、機体横向き軸芯に回転駆動し、切断刃15Dによる切断後の収穫作物を左右方向の中間側に横送りして寄せ集めて後方の搬送装置16に向けて送り出す。
 収穫部15によって収穫された作物(例えば刈取穀稈)の全稈は、搬送装置16によって脱穀装置13へ搬送される。収穫された作物の全稈は脱穀装置13に投入されて脱穀処理される。脱穀処理によって得られた穀粒は、穀粒タンク14に貯留される。穀粒タンク14に貯留された穀粒は、必要に応じて、穀粒排出装置18によって機外に排出される。
 搭乗部12の前上部に第1検出装置21と第2検出装置22とが備えられている。第1検出装置21及び第2検出装置22は、本発明の『検出装置』である。第1検出装置21は物体の空間位置を測定する物体位置計測器である。第1検出装置21の測定方式には、超音波測定方式、ステレオマッチング測定方式、ToF(Time of Flight)測定方式などが用いられる。本実施形態では、第1検出装置21は、進行方向前方に向かって、少なくとも電波よりも波長が短い電磁波を送出し、当該電磁波が物体で反射した反射波に基づいて物体の位置及び高さを検出する。少なくとも電波よりも波長が短い電磁波は、例えば300万メガHz以下の周波数の電磁波である。第1検出装置21は、このような電磁波を送出した方向と、当該電磁波を送出してから物体で反射した電磁波の反射波を受信するまでの時間と、に基づいて、物体の位置及び高さを検出する。このような第1検出装置21は、ToF測定方式である二次元スキャンLiDARが用いられる。もちろん、二次元スキャンLiDARに代えて三次元スキャンLiDARが用いられてもよい。第1検出装置21の検出結果に応じた点群データを演算することで機体前方の植立作物の作物高さ(空間位置)が得られる。
 第2検出装置22は、いわゆるカメラであって、本発明の『撮像装置』である。第2検出装置22は、圃場のうち、少なくとも第1検出装置21の検出対象範囲を含む機体2の進行方向前方の領域を撮影してRGBの色情報を含む撮像画像を取得する。
 図1及び図2に示される前方領域FRは、圃場における機体2の進行方向前方の未作業領域(未収穫植立作物の領域)である。前方領域FRは、第1検出装置21の検出対象であって、第2検出装置22の撮像対象である。第1検出装置21は前方領域FRに存在する物体の位置及び高さを検出する。第2検出装置22は前方領域FRを撮像する。機体2の進行方向前方の前方領域FRとは、本実施形態では収穫部15の進行方向前方の領域が相当し、図1及び図2において、一点鎖線で示される領域が相当する。
 図1及び図2には、第1検出装置21によって検出される植立作物の例が示されている。図1及び図2の例では、その圃場において基準となる高さを有する標準植立作物群Z0と、標準植立作物群Z0よりも高さが低い短尺作物群Z1と、倒伏植立作物群Z2と、が示されている。
 搭乗部12の天井部には、衛星測位モジュール80が設けられる。衛星測位モジュール80は、人工衛星GSからのGNSS(グローバル・ナビゲーション・サテライト・システム)の信号(GPS信号を含む)を受信して、自車位置を取得する。なお、衛星測位モジュール80による衛星航法を補完するために、ジャイロ加速度センサや磁気方位センサを組み込んだ慣性航法ユニットが衛星測位モジュール80に組み込まれている。もちろん、慣性航法ユニットは、コンバイン1において衛星測位モジュール80と別の箇所に配置されても良い。
〔圃場マップ生成システムの構成〕
 図3に、本発明の圃場マップ生成システムのブロック系統図が示される。本発明の圃場マップ生成システムに、上述の第1検出装置21と、上述の第2検出装置22と、特徴データ生成部30と、マップデータ生成部31と、マップ管理部32と、自車位置算出部33と、表示装置34と、上述の衛星測位モジュール80と、が備えられている。マップデータ生成部31及びマップ管理部32は、本発明の『マップ生成部』である。
 コンバイン1に、不図示の制御ユニットが備えられ、当該制御ユニットは、例えば複数のECUの集合体によって構成されている。本発明の圃場マップ生成システムに、コンバイン1の制御ユニットが含まれる。
 本発明の圃場マップ生成システムの一部として、例えば、管理コンピュータが備えられている。管理コンピュータは、例えばデータベースを管理するサーバ(クラウドサーバ等)であっても良いし、作業者や圃場監理者が携帯する携帯型コンピュータや多機能携帯電話であっても良い。そして、コンバイン1の制御ユニットと、管理コンピュータと、の夫々がインターネット通信ネットワークを介して接続され、互いにデータの通信が行われている。
 本発明の圃場マップ生成システムに、コンバイン1の制御ユニットと、管理コンピュータと、が含まれる。なお、圃場マップ生成システムに、コンバイン1の制御ユニットと、管理コンピュータと、に加えて、管理コンピュータに接続するクライアント端末が含まれても良い。本実施形態では、特徴データ生成部30と、マップデータ生成部31と、自車位置算出部33と、はコンバイン1の制御ユニットの一部として組み込まれる。また、本実施形態では、マップ管理部32が管理コンピュータ一部として組み込まれる。なお、特徴データ生成部30とマップデータ生成部31と自車位置算出部33とが管理コンピュータ一部として組み込まれても良いし、マップ管理部32がコンバイン1の制御ユニットの一部として組み込まれても良い。
 衛星測位モジュール80から出力された測位データは、自車位置算出部33に入力される。自車位置算出部33は、衛星測位モジュール80からの測位データに基づいて自車位置を算出する。なお、コンバイン1は自動操舵も可能である。自動操舵の場合、例えばコンバイン1の制御ユニットによって設定された目標走行経路と、自車位置算出部33によって算出された自車位置とに基づいて、コンバイン1の制御ユニットは、操舵や車速に関する制御を走行装置11に対して行う。
 第2検出装置22から出力された画像データは、特徴データ生成部30へ送られる。撮像画像には色情報が含まれているため、特徴データ生成部30は、ニューラルネットワークを含む画像認識等の技術を用いて植立作物を認識し、植立作物の色情報や姿勢を含む特徴データを生成可能である。第2検出装置22から送られる画像データに色情報が含まれる。特徴データ生成部30は、この画像データから、圃場における未収穫植立作物の領域、倒伏作物領域、倒伏作物の倒伏方向(倒伏の向き)、収穫済領域、畦領域、雑草領域(作物領域に雑草が混在する場合も含まれる)等を区分けする。そして特徴データ生成部30は、上述の区分けした領域や倒伏方向等が含まれる特徴データを生成する。特徴データ生成部30によって生成された特徴データは、マップデータ生成部31へ送られる。
 第1検出装置21から出力された点群データは、マップデータ生成部31へ送られる。マップデータ生成部31は、第1検出装置21の検出結果と第2検出装置22の検出結果とに基づいて、図1及び図2に示される前方領域FRの作物の状態を検出し、高さマップを生成する。本実施形態では、第1検出装置21の検出結果は点群データであって、第2検出装置22の検出結果は、特徴データ生成部30によって作成された特徴データである。
 マップデータ生成部31は、第1検出装置21からの点群データを用いて機体2の進行方向前方に植立する収穫前の植立作物の実高さを求める。また、詳細に関しては図4に基づいて後述するが、マップデータ生成部31は、特徴データ生成部30によって生成された特徴データを点群データに付与する。特徴データに色情報が含まれる。マップデータ生成部31は、色情報を付与された点群データを分析して植立作物の先端部(穂先など)の高さをより正確に求める。そしてマップデータ生成部31は、作物高さ、倒伏情報、雑草等に関する検出情報を含む高さマップを生成する。生成された高さマップは、マップデータ生成部31からマップ管理部32へ送られる。
 マップ管理部32は、圃場を複数の微小区画に区分けして、微小区画単位で作物高さを示すように、高さマップを生成する。微小区画は、コンバイン1の作業幅に応じた単位走行量当たりの区画である。微小区画単位の作物高さ、倒伏情報、雑草等に関する検出情報が、マップ管理部32によって算出される。そして、そして、微小区画単位の作物高さ、倒伏情報、雑草等に関する検出情報が表示装置34に表示される。表示装置34は、上述の管理コンピュータのディスプレイであっても良いし、作業者や圃場監理者が携帯する携帯型コンピュータや多機能携帯電話であっても良い。表示装置34が携帯型コンピュータや多機能携帯電話である場合、マップ管理部32と、表示装置34と、の夫々が無線インターネット通信ネットワークを介して接続され、互いにデータの通信が行われる。
〔高さマップの詳細について〕
 本実施形態では、マップデータ生成部31は、第1検出装置21の検出結果と第2検出装置22の検出結果とに基づいて、作物高さ及び倒伏状態を検出し、高さマップを生成する。
 図4の(A)には第2検出装置22の検出結果、すなわち撮像画像の一例が示される。図4の(A)における撮像画像の右側部分には植立作物(直立した穀稈)が生えている植立作物領域61が含まれ、撮像画像におけるそれ以外の部分には倒伏作物が生えている倒伏作物領域62が含まれる。図4の(A)に示される植立作物領域61は、図1及び図2に示される標準植立作物群Z0または短尺作物群Z1に相当する。また、図4の(A)に示される倒伏作物領域62は、図1及び図2に示される倒伏植立作物群Z2に相当する。また、植立作物領域61と倒伏作物領域62との境界部分(境界領域63)には、倒伏作物領域62において作物が倒伏することにより現れた植立作物領域61の植立作物の側部や、植立作物と倒伏作物との間の高さを有する作物が写っている。
 上述したように、特徴データ生成部30は、ニューラルネットワークを含む画像認識等の技術を用いて、画像データから圃場における未収穫植立作物の領域、倒伏作物領域、収穫済領域、畦領域、雑草領域等を識別可能に構成されている。図4の(A)に示される例では、特徴データ生成部30は、植立作物領域61と、倒伏作物領域62と、境界領域63と、に区分け処理して特徴データを生成する。換言すると、図4の(A)に示される撮像画像に基づいて生成された特徴データに、植立作物領域61と、倒伏作物領域62と、境界領域63と、が含まれる。また、この生成された特徴データに、倒伏作物領域62における倒伏作物の倒伏方向も含まれる。
 図4の(B)には、図4の(A)の撮像画像の撮像範囲を検出対象とした第1検出装置21の検出結果が示される。図4の(B)は、二次元スキャンLiDARにより検出された物体(作物の頭頂部や側部)を示す点群データである。二次元スキャンLiDARによる点群データは、検出対象において露出している部分が検出されたものである。このため、圃場における植立作物領域61に相当する圃場面から得られた点群データ71と、圃場における倒伏作物領域62に相当する圃場面から得られた点群データ72とで夫々の点群データに基づく物体の高さを示す高さ情報が互いに異なる。同様に、圃場における境界領域63に相当する圃場面から得られた点群データ73に基づく物体の高さを示す高さ情報も、点群データ71及び点群データ72に基づく物体の高さを示す高さ情報と互いに異なる。
 マップデータ生成部31は、図4の(B)に示される点群データ71,72,73に、図4の(A)に示される撮像画像に基づいて生成された特徴データを付与する。そしてマップデータ生成部31は、図4の(C)に示されるように、特徴データ(色情報)が付与された点群データ81,82,83を生成する。つまり、図4の(A)に示される撮像画像と、図4の(B)に示される点群データ71,72,73とに基づいて、色情報が付与された点群データ81,82,83が図4の(C)に示される。
 図4の(C)の点群データ81は、点群データ71と同じ高さ情報を有し、かつ、植立作物領域61と同じ色情報を有する。また、図4の(C)の点群データ82は、点群データ72と同じ高さ情報を有し、かつ、倒伏作物領域62と同じ色情報を有する。更に、図4の(C)の点群データ83は、点群データ73と同じ高さ情報を有し、かつ、境界領域63と同じ色情報を有する。点群データ81,82,83の夫々が有する高さ情報は、絶対値であっても良いし、相対値であっても良い。
 図4の(C)の例では、植立作物が生えている領域(高さが高い領域)が、点群データ81に基づいて黄色基調(黄基調)の色で着色される。また、図4の(C)の例では、倒伏作物が生えている領域(高さが低い領域)が、点群データ82に基づいて青色基調(青基調)の色で着色される。加えて、図4の(C)の例では、植立作物の高さと倒伏作物の高さとの間の高さを有する作物が生えている領域や、植立作物の側部が見えている領域(中間帯の領域)は、点群データ83に基づいて緑色基調(緑基調)の色で着色される。このような着色は、検出結果に畦が含まれている場合や、作物を刈り取った後の領域が含まれている場合においても、夫々に対応した色で行うと良い。更には、倒伏作物が生えている領域(高さが低い領域)が、「直立状態」及び「倒伏状態」に加え、後述する「やや倒伏」や「べたごけ(穂先が圃場面に接する程度に倒伏した状態)」を示す状態毎に着色されても良い。マップデータ生成部31は、このような色情報が付与された点群データ81,82,83に基づいて、圃場において作物の生えている状態を適切に判定できる。
 第1検出装置21の検出結果は経時的にマップデータ生成部31へ送られ、第2検出装置22の検出結果は経時的に特徴データ生成部30へ送られる。同時に、コンバイン1の自車位置が自車位置算出部33によって経時的に取得される。マップデータ生成部31は、特徴データ(色情報)が付与された点群データ81,82,83を生成し、これら点群データ81,82,83にコンバイン1の自車位置を紐付ける。そして、点群データ81,82,83の集合体に基づいて高さマップが生成される。コンバイン1の自車位置ごとの点群データ81,82,83の集合体が、上述した管理コンピュータの記憶装置(不図示)に記憶される。点群データ81,82,83に、作物高さ、倒伏情報、雑草に関する検出情報、等の圃場の作物状態が含まれる。
 点群データ81,82,83の集合体を記憶する管理コンピュータに、マップ管理部32が備えられている。上述したように、マップ管理部32は、圃場を複数の微小区画に区分けして、微小区画単位で作物高さを示すように、高さマップを生成する。図5に、微小区画に区分けされた高さマップが示される。微小区画は、コンバイン1の作業幅に応じた単位走行量当たりの区画である。
 図5に示される高さマップとして、作物高さマップと、倒伏マップと、が示される。作物高さマップは、微小区画単位で作物高さを5段階のレベルで示すものである。倒伏マップは、微小区画単位の倒伏度合いを3段階(「直立」を含めると4段階)のレベルで示すものである。
 マップ管理部32は、微小区画の範囲内に存在する作物の作物高さの平均値を算出し、当該平均値を微小区画における前記作物高さとする。一つの微小区画に、例えば図4の(C)に示されるような点群データ81,82,83が複数存在する。マップ管理部32は、各微小区画における複数の点群データ81,82,83の高さ情報の平均値を算出することによって、微小区画単位で作物高さの平均値を算出する。
 なお、複数の点群データ81,82,83のうち、雑草の検出情報が含まれる点群データ81,82,83が存在すると、その点群データ81,82,83の高さ情報は雑草の高さである。この場合、各微小区画における複数の点群データ81,82,83の高さ情報の平均値の算出から、雑草の検出情報が含まれる点群データ81,82,83が除外される。つまり、マップデータ生成部31は、第2検出装置22で撮像した撮像情報に基づいて圃場の雑草を検出する。また、マップ管理部32は、各微小区画における複数の点群データ81,82,83の高さ情報の平均値の算出において、雑草に関するデータを除外してから当該平均値を算出する。
 図5の作物高さマップでは、微小区画単位における作物高さの平均値の分布が5段階のレベルで示されている。この5段階のレベルは、作物の品種の一般的な作物高さと、微小区画単位における作物高さの平均値と、の比率に応じて設定されても良いし、圃場全体の作物高さの平均値と、微小区画単位における作物高さの平均値と、の比率に応じて設定されても良い。
 また、図4の(C)に示される点群データ82に、作物の倒伏情報が含まれる。微小区画の範囲内における複数の点群データ81,82,83のうち、倒伏情報を有する点群データ82の割合が予め設定された割合以上であると、マップ管理部32は、その微小区画を倒伏作物の存在する微小区画と判定する。倒伏作物の存在する微小区画を、以下「倒伏微小区画」と称する。
 マップ管理部32は、点群データ82の倒伏情報に基づいて、倒伏微小区画における倒伏作物の倒伏度合いを、「やや倒伏」、「倒伏」、「べたごけ」の何れかに振り分ける。微小区画単位における作物高さの平均値は、上述の作物高さマップで算出済みである。マップ管理部32は、高さマップにおいて倒伏微小区画を除いた全ての微小区画から作物高さの平均値(植立作物の作物高さの全体平均値)を算出する。次にマップ管理部32は、倒伏微小区画における作物高さの平均値と、植立作物の作物高さの全体平均値と、の乖離度合いを算出する。そしてマップ管理部32は、当該乖離度合いに基づいて、倒伏微小区画単位での倒伏度合いを高さマップに反映させる。これにより、倒伏微小区画単位での倒伏度合いの分布が、「直立」、「やや倒伏」、「倒伏」、「べたごけ」の4段階のレベルで示される。
 このように、コンバイン1による収穫走行が行われる際に、『マップ生成部』としてのマップデータ生成部31及びマップ管理部32は、第1検出装置21及び第2検出装置22の夫々の検出結果に基づいて高さマップを生成する。また、マップデータ生成部31は、第2検出装置22で撮像した撮像映像(撮像情報)に基づいて作物の倒伏状態を検出し、マップ管理部32は、当該倒伏状態を高さマップに反映する。加えてマップデータ生成部31及びマップ管理部32は、点群データ81,82,83の高さ情報及び色情報に基づいて、作物高さの平均値、倒伏度合い等を複数の段階にレベル分けして高さマップを生成する。これにより、作業者や圃場監理者等は、圃場における作物高さ及び倒伏状態に関する詳細な情報を直感的に把握できる。
 本実施形態では、マップ管理部32は、前記微小区画の大きさを任意に変更可能に構成されている。例えば、作業者や圃場監理者等が、管理コンピュータ、管理コンピュータと接続するクライアント端末(例えばパーソナルコンピュータや多機能携帯電話等)を操作して、微小区画の一辺の大きさを変更可能である。微小区画の大きさが変更されると、マップ管理部32は、図5に示されるような作物高さの平均値、倒伏度合い等を更新後の微小区画単位で算出する。これにより、作業者や圃場監理者等は、例えば田植機や施肥機、耕耘装置等の作業幅に応じた微小区画で高さマップを分析できる。
〔別実施形態〕
 本発明は、上述の実施形態に例示された構成に限定されるものではなく、以下、本発明の代表的な別実施形態を例示する。
(1)上述の実施形態では、特徴データ生成部30によって圃場における倒伏作物領域が検出され、マップ管理部32は倒伏状態を高さマップに反映させているが、この実施形態に限定されない。例えば、マップ管理部32が、点群データ81,82,83の集合体に基づいて圃場全体の作物高さの平均値を算出して、点群データ81,82,83の高さ情報と、圃場全体の作物高さの平均値と、の比率に基づいて作物の倒伏状態を検出する構成であっても良い。この構成であれば、例えば特徴データ生成部30が倒伏作物領域を検出し損ねた場合であっても、「圃場全体の作物高さの平均値」に対する「微小区画単位における作物高さの平均値」の乖離度合いに基づいて作物の倒伏状態の検出が可能となる。
(2)図5に基づいて上述した高さマップでは、作物高さマップと、倒伏マップと、が示されるが、この実施形態に限定されない。例えば、マップ管理部32は、点群データ81,82,83の集合体に基づいて作成された高さマップに、例えば次期の施肥計画等や農薬散布計画等を自動的に付加する構成であっても良い。具体的には、マップ管理部32は、作物高さマップの微小区画単位における作物高さの平均値と、倒伏マップの微小区画単位における倒伏度合いと、に基づいて、次期における計画施肥量を微小区画単位で算出する構成であっても良い。これにより、各微小区画の計画施肥量の分布が、例えば施肥計画マップとして生成され、圃場の監理者は施肥計画マップを次期の施肥計画に活用できる。また、例えば高さマップに、コンバイン1の刈高さや車速等の作業状態情報等が含まれ、刈高さ情報や車速情報が微小区画単位で算出されても良い。加えて、収穫物の食味がコンバイン1の食味測定装置(不図示)によって測定され、収穫物の食味情報が高さマップに反映されても良い。加えて、圃場のうち雑草の存在する度合いが微小区画単位で算出されても良い。更に、当該雑草の存在する度合いに基づいて、次期の薬剤の計画散布量が微小区画単位で算出されても良い。
(3)上述の実施形態では、二次元スキャンLiDARである第1検出装置21と、カメラである第2検出装置22と、によって本発明の『検出装置』が構成されているが、この実施形態に限定されない。例えば、本発明の『検出装置』は、左右一対のステレオカメラで構成されても良い。左右一対のステレオカメラによって撮像された作物の撮像角度の差分に基づいて、作物とステレオカメラとの距離が算出され、作物高さが算出される構成であっても良い。
(4)上述の実施形態では、第2検出装置22によって撮像された撮像画像に基づいて、雑草が検出されるが、この実施形態に限定されない。一般的に、雑草の高さは作物高さと異なる場合が多い。作物の品種が予め入力されると、その品種の一般的な作物高さが分かるため、マップ管理部32が、その品種の一般的な作物高さと、点群データ81,82,83の高さ情報と、の比率に基づいて雑草判定を行う構成であっても良い。
(5)上述の実施形態では、圃場作業車としてコンバイン1を例示したが、圃場作業車は、例えば、圃場を走行しながら生育中の作物を管理する圃場作業車(圃場管理機)であっても良い。そして、圃場作業車に設けられた検出装置が、作物の位置及び高さを検出する構成であっても良い。また、上述の実施形態では、作物として稲や麦等の植立穀稈が例示されているが、作物は大豆やトウモロコシ等であっても良い。
(6)上述の実施形態では、高さマップは単位走行量当たりの微小区画に分割可能に構成されているが、高さマップは数個程度だけの区画に分割される構成であっても良いし、区画分割されない構成であっても良い。
(7)本発明の『進行方向前方の前方領域』は、機体左右斜前方を含むものであっても良い。例えば、第1検出装置21は機体左右斜前方の未作業領域に存在する物体の位置及び高さを検出し、第2検出装置22は機体左右斜前方の未作業領域を撮像する構成であっても良い。
(8)図5に基づいて上述した作物高さマップでは、微小区画単位で作物高さの平均値が示されているが、この実施形態に限定されない。例えば、作物高さマップは、等高線で示されても良い。
 なお、上述の実施形態(別実施形態を含む、以下同じ)で開示される構成は、矛盾が生じない限り、他の実施形態で開示される構成と組み合わせて適用することが可能である。また、本明細書において開示された実施形態は例示であって、本発明の実施形態はこれに限定されず、本発明の目的を逸脱しない範囲内で適宜改変することが可能である。
 本発明は、圃場作業車に作物の位置及び高さを検出する検出装置が設けられた圃場マップ生成システムに利用できる。このため、本発明の技術的特徴は、種々の収穫機や管理機等の圃場作業機に適用できる。このため、上述の実施形態は圃場作業機として構成できる。加えて、本発明の圃場マップ生成システムの技術的特徴は、圃場マップ生成方法にも適用可能である。このため、上述の実施形態は圃場マップ生成方法として構成できる。加えて、本発明の圃場マップ生成システムの技術的特徴は、圃場マップ生成プログラムにも適用可能である。そのため、上述の実施形態は圃場マップ生成プログラムとして構成できる。さらに、この技術的特徴を有する圃場マップ生成プログラムが記録された光ディスクや磁気ディスク、半導体メモリ等の記録媒体も上述の実施形態の構成に含まれる。
 1     :コンバイン(圃場作業車)
 21    :第1検出装置(検出装置)
 22    :第2検出装置(検出装置、撮像装置)
 31    :マップデータ生成部(マップ生成部)
 32    :マップ管理部(マップ生成部)
 34    :表示装置
 FR    :前方領域

Claims (12)

  1.  圃場作業車に設けられ、前記圃場作業車による作業走行を行いつつ、前記圃場作業車の進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出装置と、
     前記検出装置の検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成部と、が備えられている圃場マップ生成システム。
  2.  前記マップ生成部は、圃場を複数の微小区画に区分けして、前記微小区画単位で前記作物高さを示すように、前記高さマップを生成する請求項1に記載の圃場マップ生成システム。
  3.  前記マップ生成部は、前記微小区画の範囲内に存在する作物の前記作物高さの平均値を算出し、前記平均値を前記微小区画における前記作物高さとする請求項2に記載の圃場マップ生成システム。
  4.  前記マップ生成部は、前記微小区画の大きさを任意に変更可能に構成されている請求項2または3に記載の圃場マップ生成システム。
  5.  前記マップ生成部は、前記作物高さを複数の段階にレベル分けして前記高さマップを生成する請求項1から4の何れか一項に記載の圃場マップ生成システム。
  6.  前記検出装置は、圃場を撮像する撮像装置を有し、
     前記マップ生成部は、前記撮像装置で撮像した撮像情報に基づいて作物の倒伏状態を検出し、前記倒伏状態を前記高さマップに反映させる請求項1から5の何れか一項に記載の圃場マップ生成システム。
  7.  前記マップ生成部は、圃場における作物の前記作物高さの平均値を算出し、前記作物高さと前記平均値との比率に基づいて作物の倒伏状態を検出し、前記倒伏状態を前記高さマップに反映させる請求項1から6の何れか一項に記載の圃場マップ生成システム。
  8.  前記検出装置は、圃場を撮像する撮像装置を有し、
     前記マップ生成部は、前記撮像装置で撮像した撮像情報に基づいて圃場における雑草を検出し、前記平均値の算出において前記雑草に関するデータを除外してから前記平均値を算出する請求項7に記載の圃場マップ生成システム。
  9.  作業走行を行いつつ、進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出装置と、
     前記検出装置の検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成部と、が備えられている圃場作業車。
  10.  前記圃場作業車による作業走行を行いつつ、前記圃場作業車の進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出ステップと、
     前記検出ステップにおける検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成ステップと、を備える圃場マップ生成方法。
  11.  前記圃場作業車による作業走行を行いつつ、前記圃場作業車の進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出機能と、
     前記検出機能による検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成機能と、をコンピュータに実行させる圃場マップ生成プログラム。
  12.  前記圃場作業車による作業走行を行いつつ、前記圃場作業車の進行方向前方の前方領域に存在する物体の位置及び高さを検出する検出機能と、
     前記検出機能による検出結果に基づいて、圃場における作物高さの分布を示す高さマップを生成するマップ生成機能と、をコンピュータに実行させる圃場マップ生成プログラムが記録されている記録媒体。
     
PCT/JP2021/044674 2020-12-10 2021-12-06 圃場マップ生成システム、圃場作業車、圃場マップ生成方法、圃場マップ生成プログラム、及び、記録媒体 WO2022124258A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020237013990A KR20230114263A (ko) 2020-12-10 2021-12-06 포장 맵 생성 시스템, 포장 작업차, 포장 맵 생성 방법, 포장 맵 생성 프로그램, 및 기록 매체
CN202180075313.1A CN116456821A (zh) 2020-12-10 2021-12-06 田地地图生成系统、田地作业车、田地地图生成方法,田地地图生成程序以及记录介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020205186A JP7471211B2 (ja) 2020-12-10 圃場マップ生成システム
JP2020-205186 2020-12-10

Publications (1)

Publication Number Publication Date
WO2022124258A1 true WO2022124258A1 (ja) 2022-06-16

Family

ID=81973269

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/044674 WO2022124258A1 (ja) 2020-12-10 2021-12-06 圃場マップ生成システム、圃場作業車、圃場マップ生成方法、圃場マップ生成プログラム、及び、記録媒体

Country Status (3)

Country Link
KR (1) KR20230114263A (ja)
CN (1) CN116456821A (ja)
WO (1) WO2022124258A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019008536A (ja) * 2017-06-23 2019-01-17 株式会社クボタ コンバイン及び圃場営農マップ生成方法
JP2019175246A (ja) * 2018-03-29 2019-10-10 株式会社トプコン 農業計画作成装置、農業用機具、農業計画作成方法および農業計画作成用プログラム
WO2020031473A1 (ja) * 2018-08-06 2020-02-13 株式会社クボタ 外形形状算出システム、外形形状算出方法、外形形状算出プログラム、及び外形形状算出プログラムが記録されている記録媒体と、圃場マップ作成システム、圃場マップ作成プログラム、圃場マップ作成プログラムが記録されている記録媒体、及び圃場マップ作成方法
US20200364629A1 (en) * 2016-10-31 2020-11-19 Basf Agro Trademarks Gmbh Method for mapping crop yields

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200364629A1 (en) * 2016-10-31 2020-11-19 Basf Agro Trademarks Gmbh Method for mapping crop yields
JP2019008536A (ja) * 2017-06-23 2019-01-17 株式会社クボタ コンバイン及び圃場営農マップ生成方法
JP2019175246A (ja) * 2018-03-29 2019-10-10 株式会社トプコン 農業計画作成装置、農業用機具、農業計画作成方法および農業計画作成用プログラム
WO2020031473A1 (ja) * 2018-08-06 2020-02-13 株式会社クボタ 外形形状算出システム、外形形状算出方法、外形形状算出プログラム、及び外形形状算出プログラムが記録されている記録媒体と、圃場マップ作成システム、圃場マップ作成プログラム、圃場マップ作成プログラムが記録されている記録媒体、及び圃場マップ作成方法

Also Published As

Publication number Publication date
CN116456821A (zh) 2023-07-18
JP2022092392A (ja) 2022-06-22
KR20230114263A (ko) 2023-08-01

Similar Documents

Publication Publication Date Title
KR102618797B1 (ko) 콤바인, 포장 영농 맵 생성 방법, 포장 영농 맵 생성 프로그램 및 포장 영농 맵 생성 프로그램이 기록된 기록 매체
WO2019117094A1 (ja) スリップ判定システム、走行経路生成システム及び圃場作業車
US11567498B2 (en) Agriculture support device and agriculture support system
US20170176595A1 (en) Modular systems and methods for determining crop yields with high resolution geo-referenced sensors
JP6956620B2 (ja) 走行経路生成システム及び圃場作業車
JP7381402B2 (ja) 自動走行システム
EP3616487B1 (en) Agricultural machine with resonance vibration response detection
WO2020218464A1 (ja) 収穫機、障害物判定プログラム、障害物判定プログラムを記録した記録媒体、障害物判定方法、農作業機、制御プログラム、制御プログラムを記録した記録媒体、制御方法
DE102022207537A1 (de) Kartenbasiertes steuersystem mit positionsfehlerkorrektur für landwirtschaftliche maschinen
CN113985764A (zh) 一种作业控制方法及其控制终端、作业服务器、作业系统
WO2022124258A1 (ja) 圃場マップ生成システム、圃場作業車、圃場マップ生成方法、圃場マップ生成プログラム、及び、記録媒体
US20230217857A1 (en) Predictive map generation and control
WO2022123889A1 (ja) 作業車、作物状態検出システム、作物状態検出方法、作物状態検出プログラム、及び作物状態検出プログラムが記録されている記録媒体
CN113766826A (zh) 农用作业机、自动行驶系统、程序、记录有程序的记录介质以及方法
JP7471211B2 (ja) 圃場マップ生成システム
KR20220025701A (ko) 농작업기, 자동 주행 시스템, 프로그램, 프로그램을 기록한 기록 매체, 및 방법
WO2022181067A1 (ja) 走行経路管理システム、走行経路管理プログラム、走行経路管理プログラムを記録した記録媒体、走行経路管理方法
JP2023097980A (ja) 走行管理システム
WO2022071373A1 (ja) 収穫機
KR20230107116A (ko) 주행 제어 시스템
WO2022124001A1 (ja) 農作業機、農作業機制御プログラム、農作業機制御プログラムを記録した記録媒体、農作業機制御方法
JP2023005113A (ja) 作業支援システム
JP2022002476A (ja) 収穫機
JP2023097984A (ja) 走行制御システム
JP2023005114A (ja) 作業支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21903359

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202180075313.1

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21903359

Country of ref document: EP

Kind code of ref document: A1