WO2022123889A1 - 作業車、作物状態検出システム、作物状態検出方法、作物状態検出プログラム、及び作物状態検出プログラムが記録されている記録媒体 - Google Patents

作業車、作物状態検出システム、作物状態検出方法、作物状態検出プログラム、及び作物状態検出プログラムが記録されている記録媒体 Download PDF

Info

Publication number
WO2022123889A1
WO2022123889A1 PCT/JP2021/037264 JP2021037264W WO2022123889A1 WO 2022123889 A1 WO2022123889 A1 WO 2022123889A1 JP 2021037264 W JP2021037264 W JP 2021037264W WO 2022123889 A1 WO2022123889 A1 WO 2022123889A1
Authority
WO
WIPO (PCT)
Prior art keywords
crop
detection
detection device
work
height
Prior art date
Application number
PCT/JP2021/037264
Other languages
English (en)
French (fr)
Inventor
宮下隼輔
江戸俊介
朝田諒
Original Assignee
株式会社クボタ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社クボタ filed Critical 株式会社クボタ
Priority to CN202180075311.2A priority Critical patent/CN116437801A/zh
Priority to KR1020237013633A priority patent/KR20230115976A/ko
Publication of WO2022123889A1 publication Critical patent/WO2022123889A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/01Mowers; Mowing apparatus of harvesters characterised by features relating to the type of cutting apparatus
    • A01D34/02Mowers; Mowing apparatus of harvesters characterised by features relating to the type of cutting apparatus having reciprocating cutters
    • A01D34/24Lifting devices for the cutter-bar
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D41/00Combines, i.e. harvesters or mowers combined with threshing devices
    • A01D41/12Details of combines
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D41/00Combines, i.e. harvesters or mowers combined with threshing devices
    • A01D41/12Details of combines
    • A01D41/127Control or measuring arrangements specially adapted for combines
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D57/00Delivering mechanisms for harvesters or mowers
    • A01D57/01Devices for leading crops to the mowing apparatus
    • A01D57/02Devices for leading crops to the mowing apparatus using reels
    • A01D57/04Arrangements for changing the position of the reels
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D69/00Driving mechanisms or parts thereof for harvesters or mowers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a technique relating to a work vehicle that performs work running in a field.
  • the general-purpose combine described in Patent Document 1 is provided with a grain culm sensor that detects the planting state of the grain culm in front.
  • This grain sensor is equipped with a transmitter that scans the grain in front with a beam of ultrasonic waves or laser light, and a receiver that receives the reflected wave from the grain, and the grain depends on the state of the reflected wave from the grain. It is configured so that it can be determined whether the ridge is upright or lying down.
  • the grain sensor includes a TV camera for photographing the grain in front of the cutting section and an image processing device, and the image processing device includes images from the TV camera and various grain grains stored in advance. It is configured so that the planting state of the grain can be detected by comparing with the image showing the planting state of the grain.
  • Patent Document 1 detects the planted state of the grain culm by comparing the image from the television camera with the image showing the planted state of the grain culm stored in advance.
  • it is necessary to store many images showing the planted state of the culm in advance. Therefore, a large-capacity storage device is required, which causes an increase in cost.
  • the characteristic configuration of the work vehicle according to the present invention is the first detection that detects the position and height of an object existing in the front region while performing work traveling by targeting the front region in front of the traveling direction of the machine in the field. Based on the device, the second detection device that images the front area while performing the work traveling with the front area as the image pickup target, the detection result of the first detection device, and the detection result of the second detection device. The point is that the determination unit for determining the state of the crop in the front region is provided.
  • the state of the crop is accurately determined based not only on the position and height of the object detected by the first detection device but also on the captured image captured by the second detection device. It becomes possible to detect the state of the crop. Further, since it is not necessary to use a large-capacity storage device or a high-performance arithmetic processing device, it can be realized without increasing the cost. Therefore, it is possible to realize a work vehicle capable of accurately detecting the state of the crop with an inexpensive configuration.
  • the determination unit determines the height of the crop as the state of the crop based on the detection result of the first detection device and the detection result of the second detection device.
  • the determination unit determines the collapsed state of the crop as the state of the crop based on the detection result of the first detection device and the detection result of the second detection device.
  • the work can be appropriately performed and the work efficiency can be improved.
  • the determination unit makes a determination using the color information acquired from the detection result of the second detection device as the detection result of the second detection device.
  • the position and height of the object detected by the first detection device are different from each other according to the state of the crop acquired from the captured image captured by the second detection device. Since the color information is given, it is possible to more accurately determine the height of the crop and the state of the crop according to the difference in color.
  • the first detection device emits an electromagnetic wave having a wavelength shorter than that of the radio wave toward the front in the traveling direction, and the position and height of the object are determined based on the reflected wave reflected by the object. It is suitable to detect.
  • the characteristic configuration of the crop state detection system is a crop state detection system that detects the state of the crop that is the work target of the work vehicle in the field where the work vehicle works, and the work in the field.
  • the work is performed by using a first detection device that detects the position and height of an object existing in the front area while performing work traveling with the front area ahead in the traveling direction of the vehicle as a detection target, and the front area as an image pickup target.
  • Judgment to determine the state of the crop in the front region based on the second detection device that captures the image of the front region while traveling, the detection result of the first detection device, and the detection result of the second detection device.
  • the point is to have a part.
  • the crop state detection method is a crop state detection method for detecting the state of the crop that is the work target of the work vehicle in the field where the work vehicle works, and the progress of the work vehicle in the field.
  • the first detection step of detecting the position and height of an object existing in the front region with the first detection device while performing work traveling with the front region in front of the direction as the detection target, and the front region as the imaging target.
  • the front region A determination step for determining the state of the crop is provided.
  • the crop state detection program is a crop state detection program that detects the state of the crop that is the work target of the work vehicle in the field where the work vehicle works, and the progress of the work vehicle in the field.
  • the first detection function that detects the position and height of an object existing in the front area with the first detection device while performing work traveling with the front area in front of the direction as the detection target, and the front area as the image pickup target.
  • the front region Let the computer execute the judgment function to judge the state of the crop.
  • a crop state detection program for detecting the state of the crop to be worked on by the work vehicle is recorded in the field where the work vehicle works.
  • the first detection device detects the position and height of an object existing in the front area of the recording medium while working on the front area of the field in front of the work vehicle in the traveling direction.
  • a crop state detection program for causing a computer to execute a determination function for determining the state of the crop in the front region based on the detection result of the detection device is recorded.
  • the work vehicle according to the present invention is configured to be able to accurately detect the lodging state of the culm.
  • the work vehicle of this embodiment will be described.
  • the combine 1 will be described as an example of a work vehicle.
  • FIG. 1 is an overall left side view of the combine 1 according to the present embodiment.
  • FIG. 2 is an overall plan view of the combine 1 according to the present embodiment.
  • FIG. 3 is a block diagram showing a configuration of a control system provided in the combine 1.
  • the combine 1 of the present embodiment will be described by taking as an example a combine in which all the culms of the harvested crops are put into the threshing device, a so-called ordinary combine.
  • the combine 1 may be a head-feeding combine.
  • the crawler type combine will be described as an example, but a wheel type combine may be used.
  • front means front in the front-rear direction (traveling direction) of the aircraft.
  • rear means rearward in the front-rear direction (traveling direction) of the aircraft.
  • left-right direction or the lateral direction shall mean the airframe crossing direction (airframe width direction) orthogonal to the airframe front-back direction.
  • up (direction of arrow U shown in FIG. 1) and “down” (direction of arrow D shown in FIG. 1) are positional relationships of the aircraft 2 in the vertical direction (vertical direction), and are the height above the ground. It shall show the relationship in.
  • left direction of arrow L in FIG. 2 is the left side of the aircraft
  • right direction of arrow R in FIG. 2 is the right side of the aircraft.
  • the combine 1 is provided with a machine body 2 and a pair of left and right crawler type traveling devices 11.
  • the machine 2 includes a boarding unit 12, a threshing device 13, a grain tank 14, a harvesting unit 15, a transport device 16, and a grain discharging device 18.
  • the traveling device 11 is provided at the lower part of the combine 1.
  • the traveling device 11 has a pair of left and right crawler traveling mechanisms, and the combine 1 can travel in the field by the traveling device 11.
  • the boarding unit 12, the threshing device 13, and the grain tank 14 are provided above the traveling device 11.
  • the boarding unit 12 can be boarded by the passengers of the combine 1 and the observer who monitors the work of the combine 1.
  • a drive engine (not shown) is provided below the boarding section 12.
  • the grain discharge device 18 is connected to the rear lower portion of the grain tank 14.
  • the harvesting section 15 harvests the planted crops in the field.
  • the planted crop is, for example, a planted culm such as rice or wheat, but may be soybean or corn.
  • the combine 1 can be run by the traveling device 11 while harvesting the planted crops in the field by the harvesting unit 15.
  • the transport device 16 is provided adjacent to the rear side of the harvesting section 15.
  • the harvesting section 15 and the transporting device 16 are supported on the front portion of the machine body 2 so as to be able to move up and down.
  • the harvesting section 15 and the transport device 16 are integrally swung up and down by being moved up and down by the header actuator 15H capable of expanding and contracting.
  • the harvesting section 15 is provided with a harvesting frame 15A, a scraping reel 15B, a horizontal feed auger 15C, and a hair clipper-shaped cutting blade 15D.
  • the scraping reel 15B is located above the harvest frame 15A.
  • the reel support arm 15K is swingably supported by the harvest frame 15A, and the reel support arm 15K is swing-operated by a first reel actuator 15J capable of expanding and contracting.
  • the rotary shaft core portion of the suction reel 15B is supported by the free end region of the reel support arm 15K.
  • the suction reel 15B is configured to be able to swing up and down by the expansion and contraction operation of the first reel actuator 15J.
  • the scraping reel 15B is configured to be rotatable around the horizontal axis of the machine while being supported by the reel support arm 15K. Further, the rotation shaft core portion of the suction reel 15B is configured to be slidable along the front-rear direction by the second reel actuator 15L in the free end region of the reel support arm 15K. That is, the scraping reel 15B is configured so that the height can be raised and lowered with respect to the harvesting frame 15A, and the front and rear positions can be changed with respect to the harvesting frame 15A.
  • the scraping reel 15B is equipped with a plurality of tines 15T, and the tines 15T act on the planted crops. When the planted crop is harvested from the field, the scraping reel 15B scrapes the tip side portion of the planted crop backward with the tine 15T.
  • the cutting blade 15D cuts the root side portion of the planted crop that has been scraped backward by the scraping reel 15B.
  • the lateral feed auger 15C is rotationally driven to the lateral axis of the machine body, laterally feeds the harvested crops cut by the cutting blade 15D to the middle side in the left-right direction, collects them, and sends them out to the rear transport device 16.
  • the threshing device 13 has a threshing unit 13A, a sorting processing unit 13B, and a wall insert 13C.
  • the threshing section 13A is shown as a handling cylinder in FIG. 1, it is located around a handling chamber for accommodating the handling cylinder, a dust feed valve arranged at the upper part of the handling chamber, and a lower region of the handling cylinder. The located net is also included in the threshing section 13A.
  • the dust valve guides the processed crops sent into the handling chamber to the rear as the handling cylinder rotates.
  • the threshing unit 13A threshes the crops sent to the handling room by the transport device 16, that is, the processed crops to be processed by the threshing device 13.
  • the sorting processing unit 13B is provided below the threshing unit 13A, and sorts the processed crops into harvested and non-harvested crops while receiving the processed crops threshed by the threshing unit 13A and rocking and transporting them backward. ..
  • the sorting processing unit 13B is provided with a chaf sheave (not shown), and the chaf sheave has a plurality of chaf flips.
  • Each of the chaflip is configured to extend laterally to the fuselage.
  • the plurality of chaflip are arranged along the transport direction (front-back direction) in which the processed crop is transported, and each of the plurality of chaflip is arranged in an inclined posture toward the rear end side and diagonally upward.
  • the leakage opening of each chaflip is configured to be changeable.
  • the changeable leakage opening means that the tilted posture of the chaflip is changed.
  • the wall insert 13C supplies the sorting wind to the sorting processing unit 13B.
  • the grains obtained by the threshing process are stored in the grain tank 14.
  • the grains stored in the grain tank 14 are discharged to the outside of the machine by the grain discharging device 18 as needed.
  • the grain discharging device 18 is configured to be swingable around the vertical axis core at the rear of the machine body. That is, the tip portion of the grain discharge device 18 is set to a discharge state in which the tip portion of the grain discharge device 18 protrudes to the lateral outside of the machine body 2 to discharge crops, and the tip portion of the grain discharge device 18 is set within the range of the machine body width of the machine body 2.
  • the grain discharge device 18 is configured so that it can be switched to a stored state located at the home position.
  • the front region FR in front of the traveling direction of the aircraft 2 in the field is targeted for detection, and the first detection for detecting the position and height of the object existing in the front region FR while performing the work running.
  • the device 21 is provided.
  • the field is a work area where the combine 1 performs the harvesting work.
  • the front region FR on the front side in the traveling direction of the machine body 2 corresponds to the region in front of the traveling direction of the harvesting unit 15, and corresponds to the region shown by the alternate long and short dash line in FIGS. 1 and 2.
  • While performing work running means performing harvesting work.
  • the first detection device 21 is an object position measuring instrument that measures the spatial position of an object. As the measurement method of the first detection device 21, an ultrasonic measurement method, a stereo matching measurement method, a ToF (Time of flight) measurement method, or the like is used.
  • the first detection device 21 transmits an electromagnetic wave having a wavelength shorter than that of the radio wave toward the front in the traveling direction, and determines the position and height of the object based on the reflected wave reflected by the object.
  • "Transmitting an electromagnetic wave having a wavelength shorter than that of a radio wave toward the front in the traveling direction” means transmitting an electromagnetic wave having a frequency of 3 million megaHz or less so that an object existing in the above-mentioned front region FR can be detected.
  • the first detection device 21 determines the position of the object and the time from when the transmitted electromagnetic wave is transmitted until the transmitted electromagnetic wave receives the reflected wave reflected by the object, based on the direction in which such an electromagnetic wave is transmitted. Detect height.
  • a two-dimensional scan LiDAR which is a ToF measurement method
  • a three-dimensional scan LiDAR may be used instead of the two-dimensional scan LiDAR.
  • the height (spatial position) of the planted culm behind the machine body can be obtained by calculating the point cloud data according to the detection result of the first detection device 21.
  • the upper front portion of the boarding unit 12 is provided with a second detection device 22 that captures the front region FR as an image pickup target and captures the front region FR while performing work traveling.
  • the second detection device 22 is a camera that acquires a captured image including color information by photographing at least the area ahead of the traveling direction of the aircraft 2 including the front area FR which is the detection target range of the first detection device 21 in the field. Is equivalent.
  • FIGS. 1 and 2 show examples of planted crops detected by the first detection device 21.
  • the standard planted crop group having a reference height in the field is indicated by the reference numeral Z0
  • the short crop group having a height lower than that of the standard planted crop group is indicated by the reference numeral Z1.
  • the group of lodging planted crops is indicated by reference numeral Z2.
  • a satellite positioning module 80 is provided on the ceiling of the boarding section 12.
  • the satellite positioning module 80 receives a GNSS (Global Navigation Satellite System) signal (including a GPS signal) from the artificial satellite GS and acquires the position of the own vehicle.
  • GNSS Global Navigation Satellite System
  • an inertial navigation unit incorporating a gyro acceleration sensor and a magnetic orientation sensor is incorporated in the satellite positioning module 80.
  • the inertial navigation unit may be arranged at a place different from the satellite positioning module 80 in the combine 1.
  • FIG. 3 is a block diagram showing the control system of the combine 1.
  • the control unit 3 is a core element of the control system of the combine 1, and is shown as an aggregate of a plurality of ECUs.
  • the control unit 3 is provided with a feature data generation unit 30 and a determination unit 31 as functional units related to the determination of the state of the planted crop, and the control unit 3 is provided with the functional unit related to the traveling and work of the combine 1.
  • a control parameter setting unit 34, a travel control unit 35, a work control unit 36, and a vehicle position calculation unit 37 are provided.
  • Point cloud data according to the detection result of the first detection device 21, image data of the captured image captured by the second detection device 22, and positioning data output from the satellite positioning module 80 are transmitted to the control unit 3. .. Further, the harvest height data output from the harvest height detection unit 23, the reel height data output from the reel height detection unit 24a, and the reel front / rear position data output from the reel front / rear position detection unit 24b are also control units. It is transmitted to 3.
  • the harvesting section 15 and the transport device 16 are configured to be vertically swingable, and the harvest height detection section 23 is provided at the swing axis core portion of the transport device 16.
  • the harvest height detecting unit 23 is configured to be able to detect the ground height: CH (see FIGS. 5 and 6) at the lower end portion of the harvesting unit 15 by detecting the swing angle of the transport device 16.
  • the reel height detection unit 24a can detect the height position RH (see FIGS. 5 and 6) of the suction reel 15B with respect to the harvest frame 15A by detecting the swing angle of the reel support arm 15K with respect to the harvest frame 15A. It is composed of.
  • the reel front-rear position detection unit 24b is configured to be able to detect the front-rear position: RL (see FIGS. 5 and 6) of the suction reel 15B by detecting the front-rear slide position of the suction reel 15B with respect to the reel support arm 15K. Will be done.
  • the feature data generation unit 30 uses techniques such as image recognition including a neural network from image data including color information sent from the second detection device 22, to use unharvested crops and harvested plantings in the field. Generates characteristic data such as crop area division and lodging direction of collapsed planted crops. Specifically, the feature data generation unit 30 generates feature data of the planted crop from the image data of the captured image acquired by the second detection device 22. Since the captured image acquired by the second detection device 22 contains color information according to the state of the crop, the characteristic data of the planted crop can be obtained by using the image recognition technique for recognizing the planted crop. It is possible to generate (eg, crop color, orientation, etc.). Therefore, the feature data generation unit 30 generates the feature data of the planted crop from the image data of the captured image acquired by the second detection device 22 and including the color information according to the state of the crop.
  • image recognition including a neural network from image data including color information sent from the second detection device 22, to use unharvested crops and harvested plantings in the field. Generates characteristic data such as crop area division and lodging direction
  • the determination unit 31 determines the state of the crop in the front region FR based on the detection result of the first detection device 21 and the detection result of the second detection device 22.
  • the detection result of the first detection device 21 corresponds to the point cloud data
  • the detection result of the second detection device 22 corresponds to the feature data created by the feature data generation unit 30.
  • the determination unit 31 obtains the actual height of the pre-harvest planted crop to be planted in front of the traveling direction of the machine body 2 by using the point cloud data from the first detection device 21.
  • the height of the tip (tip, etc.) of the planted crop is analyzed by analyzing the point cloud data to which the color information is given by using the feature data generated by the determination unit 31 and the feature data generation unit 30, for example, the color information. Find it more accurately.
  • the determination unit 31 determines the height of the crop and the lodging state of the crop as the state of the crop based on the detection result of the first detection device 21 and the detection result of the second detection device 22. Further, as described above, since the feature data generated by the feature data generation unit 30 is generated by using the color information, in other words, the determination unit 31 determines the detection result of the second detection device 22. It can be said that the determination is made using the color information acquired from the detection result of the second detection device 22. Further, the determination unit 31 can also determine the direction (direction) of the lodging of the crop based on the captured image.
  • FIG. 4A shows an example of the detection result of the second detection device 22, that is, the captured image.
  • the right side portion of the captured image in FIG. 4A includes the region 61 where the upright culm grows, and the other portion of the captured image includes the region 62 where the lying down culm grows. included. Further, at the boundary between the region 61 and the region 62, the side portion of the culm (upright culm) of the region 62 that appears due to the lodging of the culm of the region 62, the upright culm in the region 61, and the culm of the region 61 A culm with a height between the fallen culms in region 62 is shown.
  • reference numeral 63 is attached to a region in which such a side portion or a grain culm is captured in the captured image.
  • FIG. 4B shows the detection result of the first detection device 21 with the imaging range of the captured image of FIG. 4A as the detection target.
  • FIG. 4B is point cloud data showing an object (top or side of the culm) detected by the two-dimensional scan LiDAR.
  • the point cloud data obtained by the two-dimensional scan LiDAR is the one in which the exposed portion of the detection target is detected. Therefore, the point cloud data 71 obtained from the field scene corresponding to the area 61 in the field and the point cloud data 72 obtained from the field scene corresponding to the area 62 in the field are the objects based on the respective point cloud data.
  • the height information indicating the height is different from each other.
  • the height information indicating the height of the object based on the point group data 73 obtained from the field scene corresponding to the area 63 in the field also indicates the height of the object based on the point group data 71 and the point group data 72. Different from height information.
  • the color information extracted from the captured image shown in FIG. 4A is added to the point cloud data shown in FIG. 4B, and the point cloud data to which the color information is added is the point cloud data shown in FIG. It is shown in C).
  • the region where the upright grain stalk grows (the region with a high height) is colored with a yellow base color (yellow base tone).
  • the area where the fallen grain is growing (the area where the height is low) is colored with a blue base color (blue base tone).
  • the area where the culm has a height between the height of the upright culm and the height of the fallen culm, and the area where the side of the upright culm is visible (the area of the middle zone). Is colored with a green-based (green-based) color. Even when the detection result contains ridges or the area after cutting the culm is included in the detection result, it is preferable to perform such coloring with a color corresponding to each. Further, in addition to the "upright state” and the "falling state", coloring may be performed for each state indicating "slightly lying down” or "sticky state (state in which the tip of the ear is lying down to the extent that it touches the field scene)" described later. ..
  • the height of the above region may be set as an absolute value or as a relative value in the height information according to the point cloud data.
  • the determination unit 31 can appropriately determine the state in which the grain culm is growing in the field by making a determination based on the point cloud data to which such color information is added.
  • the control parameter setting unit 34 sets the control parameters of the machine 2 used for the work running based on the determination result by the determination unit 31, that is, the state of the crop.
  • the control parameter setting unit 34 includes a classification unit 34a and a class / parameter table 34b.
  • the classification unit 34a classifies the state of the crop determined by the determination unit 31, specifically, the degree of lodging into a plurality of categories.
  • the class / parameter table 34b includes a table in which the classes (classifications) classified by the classification unit 34a and the control parameters that determine the working state of the equipment constituting the traveling device 11 and the harvesting unit 15 are associated with each other. There is.
  • the class can be set to "upright”, “slightly lodging”, “falling", “sticky”, and the like.
  • the control parameter setting section 34 can adjust the control parameters with reference to this feature data as well. That is, the class / parameter table 34b has a plurality of modes determined by the lodging direction.
  • control parameters are set for each of these classes.
  • control parameters can be set as follows. (1) The lower the crop height (higher degree of lodging), the more the control parameter (reel height parameter) is such that the scraping reel 15B descends, and the higher the crop height (smaller degree of lodging), the lower the crop height. The control parameter is such that the scraping reel 15B rises. (2) The lower the height of the crop (larger degree of lodging), the more the control parameter (front-back position parameter) is such that the suction reel 15B moves forward, and the higher the height of the crop (smaller degree of lodging). , The control parameter is such that the scraping reel 15B moves backward.
  • the control parameter setting unit 34 sets the control parameter using at least one of the above (1) to (4) according to the height (degree of lodging) of the crop.
  • the travel control unit 35 has a vehicle speed control unit 35A and a vehicle height control unit 35B.
  • the current control parameters of the traveling control unit 35 are adjusted based on the control parameters output from the control parameter setting unit 34. If the control parameter output from the control parameter setting unit 34 is a vehicle speed parameter, the vehicle speed control unit 35A adjusts the vehicle speed.
  • the travel control unit 35 has an engine control function, a steering control function, a vehicle speed control function, a vehicle height control function, and the like, and gives a travel control signal to the travel device 11 based on control parameters. In the case of manual steering, the travel control unit 35 generates a control signal and controls the travel device 11 based on the operation by the passenger.
  • Combine 1 can also be automatically steered.
  • the own vehicle position calculation unit 37 calculates the own vehicle position based on the positioning data from the satellite positioning module 80.
  • the travel control unit 35 steers based on the target travel route given by the automatic travel control module (not shown) of the control unit 3 and the vehicle position calculated by the vehicle position calculation unit 37. And the vehicle speed are controlled for the traveling device 11.
  • the work control unit 36 has a header control unit 36A, a reel control unit 36B, and an auger control unit 36C.
  • the current control parameters of the work control unit 36 are adjusted based on the control parameters output from the control parameter setting unit 34.
  • FIGS. 5 when the grain culm is the standard planted crop group Z0
  • FIG. 6 when the grain culm is the inverted planted crop group Z2. Is done.
  • the working state of the harvesting unit 15 mainly depends on the ground height of the harvesting frame 15A, which is the harvest height: CH, the height position of the scraping reel 15B: RH, and the front-rear position of the scraping reel 15B: RL.
  • Ground height of harvest frame 15A: CH can be adjusted by harvest height parameter
  • height position of scraping reel 15B: RH can be adjusted by reel height parameter
  • RL can be adjusted by the reel front-rear position parameter.
  • the height position of the scraping reel 15B with respect to the height of the crop If the RH is too high, it becomes difficult for the scraping reel 15B to scrape the crop. Further, if the height position of the scraping reel 15B: RH is too low with respect to the height of the crop, the crop is likely to be entangled with the scraping reel 15B. Therefore, as shown in FIGS. 5 and 6, when the crop in the field is harvested by the harvesting unit 15, the height of the tine 15T may be adjusted according to the height of the crop.
  • the work control unit 36 uses each parameter set by the control parameter setting unit 34 to target the ground height: CH, height. Position: RH, front-back position: RL is generated to realize the control signal.
  • the working condition in harvesting can be changed depending on the vehicle speed. Therefore, using the vehicle speed parameter, the travel control unit 35 generates a control signal for achieving the target vehicle speed.
  • factors that affect the working condition of the harvesting unit 15 include the rotation speed of the scraping reel 15B and the rotation locus of the tine 15T. It is also possible to configure at least one of these factors to be adjusted according to the height of the crop.
  • the working state of the threshing device 13 may be changed according to the height of the planted crop.
  • the working state of the threshing device 13 can be changed by adjusting the rotation speed of the wall insert 13C and the leakage opening degree of the chaff sheave in the sorting processing unit 13B.
  • the control parameters include the wall insert velocity parameter and the leak opening degree parameter.
  • the map creation unit 39 shows the crop height in the field based on the information indicating the state of the crop obtained from the detection result of the first detection device 21 and the detection result of the second detection device 22.
  • Create a crop height map It is preferable that the crop height map includes, for example, crop height information, lodging information, work state information, and the like in a small section of a field.
  • the control unit 3 transmits the crop height map created by the map creation unit 39 to the server 4 at a remote location via the communication unit 38, and the server 4 records the map information of the managed field.
  • the farm manager can utilize the crop height information, lodging information, work condition information, etc. for the next year's agricultural plan.
  • the first detection device 21 has been described as using the two-dimensional scan LiDAR, but a device different from the two-dimensional scan LiDAR may be used. Further, the device may be a device that detects the position and height of an object by using an electromagnetic wave having a wavelength longer than that of a radio wave.
  • the determination unit 31 determines the height of the crop and the lodging state of the crop as the state of the crop based on the detection result of the first detection device 21 and the detection result of the second detection device 22.
  • the determination unit 31 can also be configured to determine, for example, the spread in the plane direction in the field as the state of the crop.
  • the determination unit 31 has been described as making a determination using the color information acquired from the detection result of the second detection device 22 as the detection result of the second detection device 22, but the determination unit 31 is the second. It is also possible to configure the determination using the detection result itself of the detection device 22 and the detection result of the first detection device 21.
  • the map creating unit 39 indicates the crop height in the field based on the information indicating the state of the crop obtained from the detection result of the first detection device 21 and the detection result of the second detection device 22.
  • the map creation unit 39 is configured to be provided in the server 4 connected via the network. Is also possible.
  • the parameters of the machine 2 used for the work running are set based on the state of the crop, but it is also possible to configure the user to present the recommended setting values of the parameters of the machine 2. ..
  • the determination unit 31 determines the height of the crop and the collapsed state of the crop as the state of the crop based on the detection result of the first detection device 21 and the detection result of the second detection device 22. As described above, the determination unit 31 may be configured to determine at least one of the height of the crop and the lodging state of the crop as the crop state.
  • the control unit 3 is output from the harvest height data output from the harvest height detection unit 23, the reel height data output from the reel height detection unit 24a, and the reel front / rear position detection unit 24b.
  • the reel front-rear position data is transmitted, it is also possible to configure it so as to transmit the auger height data output from the auger height detection unit 25.
  • the auger height detection unit 25 detects the vertical position of the actuator (not shown) that raises and lowers the horizontal feed auger 15C up and down, thereby detecting the height position of the horizontal feed auger 15C: OH (see FIGS. 5 and 6). ) Is detectable. This makes it possible to adjust the height of the lateral feed auger 15C according to the height of the crop.
  • the work vehicle has been described, but it is also possible to configure it as a crop state detection system including each functional unit in the above embodiment.
  • the crop state detection system that detects the state of the crop that is the work target of the work vehicle targets the front region in front of the traveling direction of the work vehicle in the field and works.
  • a first detection device that detects the position and height of an object existing in the front region while traveling, and a second detection that captures the front region while performing the work traveling with the front region as an image pickup target. It is preferable to include an apparatus and a determination unit for determining the state of the crop in the front region based on the detection result of the first detection apparatus and the detection result of the second detection apparatus.
  • the processing performed by each functional unit in the above embodiment is also possible to configure the processing performed by each functional unit in the above embodiment as a crop state detection method for detecting the state of the crop.
  • the crop state detection method for detecting the state of the crop which is the work target of the work vehicle targets the front region in front of the traveling direction of the work vehicle in the field as the detection target.
  • the first detection step of detecting the position and height of an object existing in the front region with the first detection device while traveling, and the second detection device while performing the work travel with the front region as an image pickup target.
  • each functional part in the above embodiment is a crop state detection program for detecting the state of the crop.
  • the crop state detection program that detects the state of the crop that is the work target of the work vehicle targets the front region in front of the traveling direction of the work vehicle in the field and works.
  • the first detection function that detects the position and height of an object existing in the front region with the first detection device while traveling, and the second detection device while performing the work travel with the front region as an image pickup target.
  • a crop state detection program for detecting the state of the crop to be worked on by the work vehicle so as to record it on a recording medium.
  • the present invention can be used for a work vehicle that performs work running in a field.

Abstract

作業車1は、圃場における機体2の進行方向前方の前方領域FRを検出対象とし、作業走行を行いながら、前方領域FRに存在する物体の位置及び高さを検出する第1検出装置21と、前方領域FRを撮像対象として、作業走行を行いながら、前方領域FRを撮像する第2検出装置22と、第1検出装置21の検出結果と第2検出装置22の検出結果とに基づいて、前方領域FRの作物の状態を判定する判定部と、を備える。

Description

作業車、作物状態検出システム、作物状態検出方法、作物状態検出プログラム、及び作物状態検出プログラムが記録されている記録媒体
 本発明は、圃場において作業走行を行う作業車に係る技術に関する。
 従来、圃場において走行しながら作業を行う作業車が利用されてきた。このような作業車に、圃場において収穫作業を行うものがある。収穫対象となる作物には圃場の圃場面に対して立設して生育するものがあり、作業車にあっては収穫作業を行うにあたり、このような作物の高さや作物の生育状態を知ることは重要である。そこで、このような作物の状態(作物の高さや生育状況)を知る技術が利用されてきた(例えば特許文献1)。
 特許文献1に記載の汎用型コンバインは、前方の穀稈の植立状態を検出する穀稈センサが備えられている。この穀稈センサは、前方の穀稈を超音波やレーザー光のビームで走査する発信部と、穀稈からの反射波を受信する受信部とを備え、穀稈からの反射波の状態により穀稈が直立しているか、倒伏しているかを判別することができるように構成されている。また、穀稈センサは、刈取部の前方の穀稈を撮影するテレビカメラと、画像処理装置とを備え、画像処理装置は、テレビカメラからの画像と、予め記憶させておいた種々の穀稈の植立状態を示す画像とを比較して、穀稈の植立状態を検出することができるように構成されている。
特開平11-155340号公報
 特許文献1に記載の技術は、テレビカメラからの画像と、予め記憶させておいた穀稈の植立状態を示す画像とを比較して穀稈の植立状態を検出しているので、精度良く穀稈の植立状態を検出するには、穀稈の植立状態を示す多くの画像を予め記憶させておく必要がある。このため、大容量の記憶装置が必要となり、コストアップの要因となる。
 そこで、安価な構成で、精度良く作物の状態を検出することが可能な作業車に関する技術が求められる。
 本発明に係る作業車の特徴構成は、圃場における機体の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを検出する第1検出装置と、前記前方領域を撮像対象として、前記作業走行を行いながら、前記前方領域を撮像する第2検出装置と、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定部と、を備えている点にある。
 このような特徴構成とすれば、第1検出装置により検出された物体の位置及び高さだけでなく、第2検出装置で撮像された撮像画像に基づいて作物の状態を判定するので、精度良く作物の状態を検出することが可能となる。また、大容量の記憶装置も、高性能な演算処理装置も用いる必要がないので、コストアップすることなく実現できる。したがって、安価な構成で、精度良く作物の状態を検出することが可能な作業車を実現できる。
 また、前記判定部は、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記作物の状態として、前記作物の高さを判定すると好適である。
 このような構成とすれば、判定した作物の高さに関する情報を、例えば作業車の作業に利用することで、適切に作業を行うことができ、作業効率の向上につなげることが可能となる。
 また、前記判定部は、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記作物の状態として、前記作物の倒伏状態を判定すると好適である。
 このような構成とすれば、判定した作物の倒伏状態に関する情報を、例えば作業車の作業に利用することで、適切に作業を行うことができ、作業効率の向上につなげることが可能となる。
 また、前記判定部は、前記第2検出装置の検出結果として、前記第2検出装置の検出結果から取得した色情報を用いて判定すると好適である。
 このような構成とすれば、第1検出装置により検出された物体の位置及び高さに対して、第2検出装置で撮像された撮像画像から取得した作物の状態に応じた互いに異なる色からなる色情報を付与するため、色の違いに応じて作物の高さや作物の状態をより精度良く判定することが可能となる。
 また、前記第1検出装置の検出結果と前記第2検出装置の検出結果とから得られた前記作物の状態を示す情報に基づいて、前記圃場の作物高さを示す作物高さマップを作成すると好適である。
 このような構成とすれば、例えば次に圃場で作業行う際に利用することで、効率良く作業を行うことが可能となる。
 また、前記作物の状態に基づいて、前記作業走行に用いる機体のパラメータを設定すると好適である。
 このような構成とすれば、機体のパラメータの調整に係る手間をかけることなく、作業をより適切に行うことが可能になると共に、作業効率をより向上することが可能となる。
 また、前記第1検出装置は、前記進行方向前方に向かって、少なくとも電波よりも波長が短い電磁波を送出し、当該電磁波が前記物体で反射した反射波に基づいて前記物体の位置及び高さを検出すると好適である。
 このような構成とすれば、高周波の電磁波を利用するので、より精度良く物体の位置及び高さを検出することが可能となる。
 また、本発明に係る作物状態検出システムの特徴構成は、作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出システムであって、前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを検出する第1検出装置と、前記前方領域を撮像対象として、前記作業走行を行いながら、前記前方領域を撮像する第2検出装置と、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定部と、を備える点にある。
 このような作物状態検出システムであれば、作業車が作業する圃場において、作業車の作業対象である作物の状態を検出することが可能である。
 また、本発明に係る作物状態検出方法は、作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出方法であって、前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを第1検出装置で検出する第1検出ステップと、前記前方領域を撮像対象として、前記作業走行を行いながら、第2検出装置で前記前方領域を撮像する第2検出ステップと、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定ステップと、を備える。
 このような作物状態検出方法であれば、作業車が作業する圃場において、作業車の作業対象である作物の状態を検出することが可能である。
 また、本発明に係る作物状態検出プログラムは、作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出プログラムであって、前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを第1検出装置で検出する第1検出機能と、前記前方領域を撮像対象として、前記作業走行を行いながら、第2検出装置で前記前方領域を撮像する第2検出機能と、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定機能と、をコンピュータに実行させる。
 このような作物状態検出プログラムをインストールしたコンピュータに実行させることで、作物の状態を検出することが可能である。
 また、本発明に係る作物状態検出プログラムが記録されている記録媒体は、作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出プログラムが記録されている記録媒体であって、前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを第1検出装置で検出する第1検出機能と、前記前方領域を撮像対象として、前記作業走行を行いながら、第2検出装置で前記前方領域を撮像する第2検出機能と、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定機能と、をコンピュータに実行させる作物状態検出プログラムが記録されている。
 このような記録媒体を介して作物状態検出プログラムをコンピュータにインストールし、当該コンピュータに実現させることで、作物の状態を検出することが可能である。
コンバインの全体左側面図である。 コンバインの全体平面図である。 コンバインの制御系を示すブロック図である。 第1検出装置及び第2検出装置の検出結果と、判定に用いるデータの一例である。 作業パラメータに応じた作業例を示す図である。 作業パラメータに応じた作業例を示す図である。
 本発明に係る作業車は、精度良く穀稈の倒伏状態を検出することができるように構成される。以下、本実施形態の作業車について説明する。なお、以下では作業車として、コンバイン1を例に挙げて説明する。
 図1は本実施形態に係るコンバイン1の全体左側面図である。図2は本実施形態に係るコンバイン1の全体平面図である。図3はコンバイン1に設けられる制御系の構成を示すブロック図である。なお、以下では、本実施形態のコンバイン1について、脱穀装置に、収穫された作物の全稈を投入するコンバイン、所謂普通型コンバインを例に挙げて説明する。もちろん、コンバイン1は自脱型コンバインであっても良い。また、本実施形態では、クローラ式のコンバインを例に挙げて説明するが、ホイール式のコンバインであっても良い。
 ここで、理解を容易にするために、本実施形態では、特に断りがない限り、「前」(図1-図2に示す矢印Fの方向)は機体前後方向(走行方向)における前方を意味し、「後」(図1-図2に示す矢印Bの方向)は機体前後方向(走行方向)における後方を意味するものとする。また、左右方向または横方向は、機体前後方向に直交する機体横断方向(機体幅方向)を意味するものとする。更に、「上」(図1に示す矢印Uの方向)及び「下」(図1に示す矢印Dの方向)は、機体2の鉛直方向(垂直方向)での位置関係であり、地上高さにおける関係を示すものとする。また、「左」(図2における矢印Lの方向)は機体左側、「右」(図2における矢印Rの方向)は機体右側である。
 図1及び図2に示すように、コンバイン1は、機体2と、左右一対のクローラ式の走行装置11とが備えられている。機体2に、搭乗部12と、脱穀装置13と、穀粒タンク14と、収穫部15と、搬送装置16と、穀粒排出装置18とを備えている。
 走行装置11は、コンバイン1の下部に備えられている。走行装置11は左右一対のクローラ走行機構を有し、コンバイン1は、走行装置11によって圃場を走行可能である。搭乗部12、脱穀装置13、穀粒タンク14は、走行装置11よりも上側に備えられる。搭乗部12には、コンバイン1の搭乗者やコンバイン1の作業を監視する監視者が搭乗可能である。搭乗部12の下方には駆動用のエンジン(不図示)が備えられる。穀粒排出装置18は、穀粒タンク14の後下部に連結されている。
 収穫部15は圃場の植立作物を収穫する。植立作物は、例えば稲や麦等の植立穀稈であるが、大豆やトウモロコシ等であっても良い。コンバイン1は、収穫部15によって圃場の植立作物を収穫しながら走行装置11によって走行する作業走行が可能である。搬送装置16は収穫部15よりも後側に隣接して設けられている。収穫部15及び搬送装置16は、機体2の前部に上下昇降可能に支持されている。収穫部15及び搬送装置16は、伸縮動作可能なヘッダ用アクチュエータ15Hによって上下に昇降操作されることによって、一体的に上下揺動する。
 収穫部15に、収穫フレーム15Aと、掻込リール15Bと、横送りオーガ15Cと、バリカン状の切断刃15Dとが備えられている。
 掻込リール15Bは収穫フレーム15Aの上方に位置する。収穫フレーム15Aにリール支持アーム15Kが揺動可能に支持され、リール支持アーム15Kは、伸縮動作可能な第1リールアクチュエータ15Jによって揺動操作される。掻込リール15Bの回転軸芯部分は、リール支持アーム15Kの遊端領域に支持されている。これにより、掻込リール15Bは、第1リールアクチュエータ15Jの伸縮動作によって上下揺動可能に構成される。
 掻込リール15Bは、リール支持アーム15Kに支持された状態で、機体横向き軸芯まわりに回転可能に構成されている。また、掻込リール15Bの回転軸芯部分は、リール支持アーム15Kの遊端領域で、第2リールアクチュエータ15Lにより、前後方向に沿ってスライド可能に構成される。すなわち、掻込リール15Bは、収穫フレーム15Aに対して上下高さ可能に構成されるとともに、収穫フレーム15Aに対して前後位置変更可能に構成される。
 掻込リール15Bに複数のタイン15Tが備えられ、タイン15Tは植立作物に掻込作用する。掻込リール15Bは、圃場から植立作物を収穫する際に、植立作物のうちの穂先側部分をタイン15Tで後方に向けて掻込む。
 切断刃15Dは、掻込リール15Bによって後方に掻き込まれた植立作物の株元側部分を切断する。横送りオーガ15Cは、機体横向き軸芯に回転駆動し、切断刃15Dによる切断後の収穫作物を左右方向の中間側に横送りして寄せ集めて後方の搬送装置16に向けて送り出す。
 収穫部15によって収穫された作物(例えば刈取穀稈)の全稈は、搬送装置16によって脱穀装置13へ搬送される。収穫された作物の全稈は脱穀装置13に投入されて脱穀処理される。脱穀装置13は、脱穀部13Aと選別処理部13Bと唐箕13Cを有する。なお、図1では脱穀部13Aは扱胴として示されているが、この扱胴を収納する扱室、当該扱室の上部に配置された送塵弁、及び扱胴の下側領域の周囲に位置する受網も脱穀部13Aに含まれる。送塵弁は、扱室に送り込まれた処理作物を扱胴の回転に伴って後方へ案内する。脱穀部13Aは、搬送装置16によって扱室に送り込まれた作物、すなわち脱穀装置13の処理対象である処理作物を脱穀処理する。選別処理部13Bは、脱穀部13Aの下方に設けられるとともに、脱穀部13Aによって脱穀処理された処理作物を受け止めて後方へ揺動搬送しながら、処理作物を収穫物と非収穫物とに選別する。
 選別処理部13Bにはチャフシーブ(図示しない)が備えられ、チャフシーブは複数のチャフリップを有する。チャフリップの夫々は機体横方向に延びるように構成されている。複数のチャフリップは処理作物が搬送される搬送方向(前後方向)に沿って並べられ、複数のチャフリップの夫々は、後端側ほど斜め上方に向かう傾斜姿勢で配置されている。チャフリップの夫々の漏下開度は変更可能に構成されている。漏下開度が変更可能とは、チャフリップの傾斜姿勢が変更されることを意味する。具体的には、チャフリップの姿勢が前後方向に対して平行に近くなる程、漏下開度が小さくなり、チャフリップの姿勢が上下方向に対して平行に近くなる程、漏下開度が大きくなる。処理作物は、チャフリップの上で後方へ揺動搬送されながら、収穫物としての穀粒が複数のチャフリップ間の隙間から下方へ漏下する。唐箕13Cは選別処理部13Bに選別風を供給する。
 脱穀処理によって得られた穀粒は、穀粒タンク14に貯留される。穀粒タンク14に貯留された穀粒は、必要に応じて、穀粒排出装置18によって機外に排出される。穀粒排出装置18は機体後部の縦軸芯回りに揺動可能に構成される。すなわち、穀粒排出装置18の先端部が機体2よりも機体横外側へ張り出して作物を排出可能な排出状態と、穀粒排出装置18の先端部が機体2の機体横幅の範囲内に設定されたホーム位置に位置する収納状態とに切換可能なように穀粒排出装置18は構成されている。
 搭乗部12の前上部には、圃場における機体2の進行方向前方の前方領域FRを検出対象とし、作業走行を行いながら、前方領域FRに存在する物体の位置及び高さを検出する第1検出装置21が設けられている。圃場とは、コンバイン1が収穫作業を行う作業地である。機体2の進行方向前方側の前方領域FRとは、本実施形態では収穫部15の進行方向前方の領域が相当し、図1及び図2において、一点鎖線で示される領域が相当する。作業走行を行いながらとは、収穫作業を行うことを意味する。第1検出装置21は物体の空間位置を測定する物体位置計測器である。第1検出装置21の測定方式には、超音波測定方式、ステレオマッチング測定方式、ToF(Time of flight)測定方式などが用いられる。
 本実施形態では、第1検出装置21は、進行方向前方に向かって、少なくとも電波よりも波長が短い電磁波を送出し、当該電磁波が物体で反射した反射波に基づいて物体の位置及び高さを検出する。「進行方向前方に向かって、少なくとも電波よりも波長が短い電磁波を送出する」とは、上述した前方領域FR内に存在する物体を検出できるように、300万メガHz以下の周波数の電磁波を送出することをいう。第1検出装置21は、このような電磁波を送出した方向と、当該電磁波を送出してから、送出した電磁波が物体で反射した反射波を受信するまでの時間とに基づいて、物体の位置及び高さを検出する。このような第1検出装置21は、ToF測定方式である二次元スキャンLiDARが用いられる。もちろん、二次元スキャンLiDARに代えて三次元スキャンLiDARが用いられてもよい。第1検出装置21の検出結果に応じた点群データを演算することで機体後方の植立穀稈の高さ(空間位置)が得られる。
 また、搭乗部12の前上部には、前方領域FRを撮像対象とし、作業走行を行いながら、前方領域FRを撮像する第2検出装置22が備えられている。第2検出装置22は、圃場のうち、少なくとも第1検出装置21の検出対象範囲である前方領域FRを含む機体2の進行方向前方の領域を撮影して色情報を含む撮像画像を取得するカメラが相当する。
 図1及び図2には、第1検出装置21によって検出される植立作物の例が示されている。図1及び図2の例では、その圃場において基準となる高さを有する標準植立作物群が符号Z0で示され、標準植立作物群より高さが低い短尺作物群が符号Z1で示され、倒伏植立作物群が符号Z2で示されている。
 搭乗部12の天井部には、衛星測位モジュール80が設けられる。衛星測位モジュール80は、人工衛星GSからのGNSS(Global Navigation Satellite System)の信号(GPS信号を含む)を受信して、自車位置を取得する。なお、衛星測位モジュール80による衛星航法を補完するために、ジャイロ加速度センサや磁気方位センサを組み込んだ慣性航法ユニットが衛星測位モジュール80に組み込まれている。もちろん、慣性航法ユニットは、コンバイン1において衛星測位モジュール80と別の箇所に配置されても良い。
 図3は、コンバイン1の制御系を示すブロック図である。図3では、制御ユニット3はコンバイン1の制御系の中核要素であり、複数のECUの集合体として示される。植立作物の状態の判定に関係する機能部として、制御ユニット3に、特徴データ生成部30、判定部31が備えられ、コンバイン1の走行や作業に関係する機能部として、制御ユニット3に、制御パラメータ設定部34、走行制御部35、作業制御部36、自車位置算出部37が備えられる。
 制御ユニット3には、第1検出装置21の検出結果に応じた点群データ、第2検出装置22により撮像された撮像画像の画像データ、衛星測位モジュール80から出力された測位データが伝達される。また、収穫高さ検出部23から出力された収穫高さデータ、リール高さ検出部24aから出力されたリール高さデータ、リール前後位置検出部24bから出力されたリール前後位置データも、制御ユニット3に伝達される。
 上述したように、収穫部15及び搬送装置16(図1等参照)は上下揺動可能に構成され、収穫高さ検出部23は搬送装置16の揺動軸芯箇所に設けられる。収穫高さ検出部23は、搬送装置16の揺動角度を検出することにより、収穫部15の下端部における対地高さ:CH(図5及び図6参照)を検出可能に構成される。リール高さ検出部24aは、収穫フレーム15Aに対するリール支持アーム15Kの揺動角度を検出することにより、掻込リール15Bの収穫フレーム15Aに対する高さ位置RH(図5及び図6参照)を検出可能に構成される。リール前後位置検出部24bは、リール支持アーム15Kに対する掻込リール15Bの前後方向スライド位置を検出することにより、掻込リール15Bの前後位置:RL(図5及び図6参照)を検出可能に構成される。
 特徴データ生成部30は、第2検出装置22から送られてくる色情報を含む画像データから、ニューラルネットワークを含む画像認識等の技術を用いて、圃場における未収穫植立作物や収穫済植立作物の領域の区分け、倒伏した植立作物の倒伏方向などの特徴データを生成する。具体的には、特徴データ生成部30は、第2検出装置22で取得された撮像画像の画像データから、植立作物の特徴データを生成する。第2検出装置22で取得された撮像画像には、作物の状態に応じた色情報が含まれているため、植立作物を認識する画像認識技術を利用することで、植立作物の特徴データ(例えば、作物の色や姿勢等)を生成することが可能である。したがって、特徴データ生成部30は、第2検出装置22で取得され、作物の状態に応じた色情報が含まれる撮像画像の画像データから、植立作物の特徴データを生成する。
 判定部31は、第1検出装置21の検出結果と第2検出装置22の検出結果とに基づいて、前方領域FRの作物の状態を判定する。本実施形態では、第1検出装置21の検出結果とは点群データが相当し、第2検出装置22の検出結果とは特徴データ生成部30により作成された特徴データが相当する。判定部31は、第1検出装置21からの点群データを用いて機体2の進行方向前方に植立する収穫前の植立作物の実高さを求める。また、判定部31、特徴データ生成部30によって生成された特徴データ、例えば色情報を利用し、色情報を付与された点群データを分析して植立作物の先端部(穂先など)の高さをより正確に求める。
 本実施形態では、判定部31は、第1検出装置21の検出結果と第2検出装置22の検出結果とに基づいて、作物の状態として、作物の高さ及び作物の倒伏状態を判定する。また、上述したように、特徴データ生成部30により生成された特徴データは、色情報を用いて生成されることから、換言すれば、判定部31は、第2検出装置22の検出結果として、第2検出装置22の検出結果から取得した色情報を用いて判定するといえる。また、判定部31は、撮像画像に基づき作物の倒伏の方向(向き)を判定することも可能である。
 図4の(A)には第2検出装置22の検出結果、すなわち撮像画像の一例が示される。図4の(A)における撮像画像の右側部分には直立した穀稈が生えている領域61が含まれ、撮像画像におけるそれ以外の部分には倒伏している穀稈が生えている領域62が含まれる。また、領域61と領域62との境界部分には、領域62の穀稈が倒伏することにより現れた領域62の穀稈(直立した穀稈)の側部や、領域61における直立した穀稈及び領域62における倒伏している穀稈の間の高さを有する穀稈が写っている。図4の(A)にあっては、撮像画像におけるこのような側部や穀稈が写る領域に符号63が付されている。
 図4の(B)には、図4の(A)の撮像画像の撮像範囲を検出対象とした第1検出装置21の検出結果が示される。図4の(B)は、二次元スキャンLiDARにより検出された物体(穀稈の頭頂部や側部)を示す点群データである。二次元スキャンLiDARによる点群データは、検出対象において露出している部分が検出されたものである。このため、圃場における領域61に相当する圃場面から得られた点群データ71と、圃場における領域62に相当する圃場面から得られた点群データ72とでそれぞれの点群データに基づく物体の高さを示す高さ情報が互いに異なる。同様に、圃場における領域63に相当する圃場面から得られた点群データ73に基づく物体の高さを示す高さ情報も、点群データ71及び点群データ72に基づく物体の高さを示す高さ情報と互いに異なる。
 図4の(A)に示される撮像画像から抽出された色情報を、図4の(B)に示される点群データに付与して、色情報が付与された点群データが図4の(C)に示される。図4の(C)の例では、図4の(B)における点群データのうち、直立した穀稈が生えている領域(高さが高い領域)が黄色基調(黄基調)の色で着色され、倒伏した穀稈が生えている領域(高さが低い領域)が青色基調(青基調)の色で着色される。また、直立した穀稈の高さと倒伏した穀稈の高さとの間の高さを有する穀稈が生えている領域や、直立した穀稈の側部が見えている領域(中間帯の領域)は、緑色基調(緑基調)の色で着色される。このような着色は、検出結果に畦が含まれている場合や、穀稈を刈り取った後の領域が含まれている場合においても、夫々に対応した色で行うと良い。更には、「直立状態」及び「倒伏状態」に加え、後述する「やや倒伏」や「べたごけ(穂先が圃場面に接する程度に倒伏した状態)」を示す状態毎に着色しても良い。また、上記領域の高さは、絶対値で設定しても良いし、点群データに応じた高さ情報における相対値で設定しても良い。判定部31は、このような色情報が付与された点群データに基づき判定することで、圃場における穀稈の生えている状態を適切に判定することが可能となる。
 図3に戻り、制御パラメータ設定部34は、判定部31による判定結果、すなわち作物の状態に基づいて、作業走行に用いる機体2の制御パラメータを設定する。この実施形態では、制御パラメータ設定部34には、クラス分け部34aとクラス/パラメータテーブル34bとが含まれている。クラス分け部34aは、判定部31により判定された作物の状態、具体的には倒伏の度合いを複数の区分にクラス分けする。クラス/パラメータテーブル34bは、クラス分け部34aによりクラス分けされたクラス(区分)と、走行装置11や収穫部15を構成する機器の作業状態を決定する制御パラメータとを関係付けたテーブルを備えている。例えば、クラスは、「直立」、「やや倒伏」、「倒伏」、「べたごけ」等のように設定することが可能である。
 特徴データ生成部30から倒伏した植立作物の倒伏方向が特徴データとして出力されている場合には、制御パラメータ設定部34は、この特徴データも参照して、制御パラメータを調節することができる。つまり、クラス/パラメータテーブル34bは、倒伏方向によって決定される複数のモードを有する。
 クラス/パラメータテーブル34bは、クラス分け部34aにより区分けされるクラス毎に、制御パラメータとして、リール高さパラメータ、リール前後位置パラメータ、収穫高さパラメータ、車速パラメータのパラメータ値を関係付けると好適である。また、これらのクラス毎に制御パラメータが設定される。
 例えば、制御パラメータは以下のように設定することが可能である。
(1)作物の高さが低い(倒伏度合いが大きい)程、掻込リール15Bが降下するような制御パラメータ(リール高さパラメータ)となり、作物の高さが高い(倒伏度合いが小さい)程、掻込リール15Bが上昇するような制御パラメータとなる。
(2)作物の高さが低い(倒伏度合いが大きい)程、掻込リール15Bが前方に移動するような制御パラメータ(前後位置パラメータ)となり、作物の高さが高い(倒伏度合いが小さい)程、掻込リール15Bが後方に移動するような制御パラメータとなる。
(3)作物の高さが低い(倒伏度合いが大きい)程、収穫部15の収穫高さが減少するような制御パラメータ(収穫高さパラメータ)となり、作物の高さが高い(倒伏度合いが小さい)程、収穫部15の収穫高さが増大するような制御パラメータとなる。
(4)作物の高さが低い(倒伏度合いが大きい)程、車速が低下するような制御パラメータ(車速パラメータ)となり、作物の高さが高い(倒伏度合いが小さい)程、車速が上昇するような制御パラメータとなる。
 制御パラメータ設定部34は、作物の高さ(倒伏度合い)に応じて、上記(1)から(4)のうち、少なくとも一つを用いて制御パラメータを設定する。
 走行制御部35は、車速制御部35Aと車高制御部35Bとを有する。制御パラメータ設定部34から出力された制御パラメータに基づいて、現状の走行制御部35の制御パラメータが調整される。制御パラメータ設定部34から出力された制御パラメータが車速パラメータであれば、車速制御部35Aが車速を調節する。
 走行制御部35は、エンジン制御機能、操舵制御機能、車速制御機能、車高制御機能などを有し、制御パラメータに基づいて、走行装置11に走行制御信号を与える。手動操舵の場合、搭乗者による操作に基づいて、走行制御部35が制御信号を生成し、走行装置11を制御する。
 コンバイン1は、自動操舵も可能である。この場合、自車位置算出部37は、衛星測位モジュール80からの測位データに基づいて自車位置を算出する。自動操舵の場合、制御ユニット3の自動走行制御モジュール(非図示)によって与えられる目標走行経路と、自車位置算出部37によって算出された自車位置とに基づいて、走行制御部35は、操舵や車速に関する制御を走行装置11に対して行う。
 作業制御部36は、ヘッダ制御部36Aと、リール制御部36Bと、オーガ制御部36Cとを有する。制御パラメータ設定部34から出力された制御パラメータに基づいて、現状の作業制御部36の制御パラメータが調整される。
 制御パラメータ設定部34により設定される制御パラメータに基づく作業状態例が図5(穀稈が標準植立作物群Z0の場合)及び図6(穀稈が倒伏植立作物群Z2の場合)に示される。収穫部15の作業状態は、主に、収穫高さとなる収穫フレーム15Aの対地高さ:CH、掻込リール15Bの高さ位置:RH、掻込リール15Bの前後位置:RLに依存する。収穫フレーム15Aの対地高さ:CHは、収穫高さパラメータによって調節可能であり、掻込リール15Bの高さ位置:RHは、リール高さパラメータによって調節可能であり、掻込リール15Bの前後位置:RLは、リール前後位置パラメータによって調節可能である。
 作物の高さに対して、掻込リール15Bの高さ位置:RHが高すぎると、掻込リール15Bが作物を掻き込み難くなる。また、作物の高さに対して、掻込リール15Bの高さ位置:RHが低すぎると、作物が掻込リール15Bに絡み付き易くなる。そこで、図5及び図6に示されるように、収穫部15によって圃場の作物を収穫する際に、作物の高さに応じてタイン15Tの高さを調整すると良い。
 本実施形態のコンバイン1は、判定部31の判定結果に基づいて、制御パラメータ設定部34で設定された各パラメータを用いて、作業制御部36が、目標となる対地高さ:CH、高さ位置:RH、前後位置:RLを実現するための制御信号を生成する。
 また、収穫における作業状態は、車速によっても変更できる。したがって、車速パラメータを用いて、走行制御部35が、目標となる車速を実現するための制御信号を生成する。
 対地高さ:CH、高さ位置:RH、前後位置:RL以外に、収穫部15の作業状態に影響を与える要因として、掻込リール15Bの回転速度、タイン15Tの回転軌跡などがある。これらの要因少なくとも1つを、作物の高さに応じて調節するような構成することも可能である。
 更には、植立作物の高さに応じて、脱穀装置13の作業状態が変更されてもよい。脱穀装置13の作業状態は、唐箕13Cの回転速度、選別処理部13Bにおけるチャフシーブの漏下開度の調節により変更することができる。その場合、制御パラメータに、唐箕速度パラメータや漏下開度パラメータが含まれることになる。
 図3に戻り、マップ作成部39は、第1検出装置21の検出結果と第2検出装置22の検出結果とから得られた作物の状態を示す情報に基づいて、圃場の作物高さを示す作物高さマップを作成する。作物高さマップには、例えば、圃場の微小区画における作物の高さ情報、倒伏情報、作業状態情報等を含むと好適である。制御ユニット3は、マップ作成部39により作成された作物高さマップを、通信部38を介して遠隔地のサーバ4に送信し、サーバ4は管理されている圃場のマップ情報に記録する。これにより、圃場の管理者は、作物の高さ情報、倒伏情報、作業状態情報等を次年度の農業計画に活用することが可能となる。
〔その他の実施形態〕
 上記実施形態では、第1検出装置21は二次元スキャンLiDARが用いられるとして説明したが、二次元スキャンLiDARとは異なるデバイスを用いても良い。また、電波よりも波長が長い電磁波を利用して物体の位置及び高さを検出するようなデバイスであっても良い。
 上記実施形態では、判定部31は、第1検出装置21の検出結果と第2検出装置22の検出結果とに基づいて作物の状態として、作物の高さ及び作物の倒伏状態を判定するとして説明したが、判定部31は、作物の状態として例えば圃場における面方向の広がりを判定するように構成することも可能である。
 上記実施形態では、判定部31は、第2検出装置22の検出結果として、第2検出装置22の検出結果から取得した色情報を用いて判定するとして説明したが、判定部31は、第2検出装置22の検出結果そのものと、第1検出装置21の検出結果とを用いて判定するように構成することも可能である。
 上記実施形態では、第1検出装置21の検出結果と第2検出装置22の検出結果とから得られた作物の状態を示す情報に基づいて、マップ作成部39が圃場の作物高さを示す作物高さマップを作成するとして説明したが、マップ作成部39を備えずに構成することも可能であるし、マップ作成部39を、ネットワークを介して接続されたサーバ4に備えるように構成することも可能である。
 上記実施形態では、作物の状態に基づいて、作業走行に用いる機体2のパラメータを設定するとして説明したが、機体2のパラメータの設定推奨値をユーザに提示するように構成することも可能である。
 上記実施形態では、判定部31は、第1検出装置21の検出結果と第2検出装置22の検出結果とに基づいて、作物の状態として、作物の高さ及び作物の倒伏状態を判定するとして説明したが、判定部31は、作物状態として、作物の高さ及び作物の倒伏状態のうち、少なくとも何れか一方を判定するように構成することも可能である。
 上記実施形態では、制御ユニット3に、収穫高さ検出部23から出力された収穫高さデータ、リール高さ検出部24aから出力されたリール高さデータ、リール前後位置検出部24bから出力されたリール前後位置データが伝達されるとして説明したが、オーガ高さ検出部25から出力されたオーガ高さデータを伝達するように構成することも可能である。係る場合、オーガ高さ検出部25は、横送りオーガ15Cを上下昇降させるアクチュエータ(不図示)の上下位置を検出することにより、横送りオーガ15Cの高さ位置:OH(図5及び図6参照)を検出可能に構成される。これにより、作物の高さに応じて、横送りオーガ15Cの高さを調整することが可能である。
 上記実施形態では、作業車について説明したが、上記実施形態における各機能部を備えた作物状態検出システムとして構成することも可能である。この場合、作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出システムは、前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを検出する第1検出装置と、前記前方領域を撮像対象として、前記作業走行を行いながら、前記前方領域を撮像する第2検出装置と、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定部と、を備えると良い。
 また、上記実施形態における各機能部が行う処理を、作物の状態を検出する作物状態検出方法として構成することも可能である。この場合、作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出方法は、前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを第1検出装置で検出する第1検出ステップと、前記前方領域を撮像対象として、前記作業走行を行いながら、第2検出装置で前記前方領域を撮像する第2検出ステップと、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定ステップと、を備えると良い。
 また、上記実施形態における各機能部を作物の状態を検出する作物状態検出プログラムとして構成することも可能である。この場合、作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出プログラムは、前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを第1検出装置で検出する第1検出機能と、前記前方領域を撮像対象として、前記作業走行を行いながら、第2検出装置で前記前方領域を撮像する第2検出機能と、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定機能と、をコンピュータに実行させると良い。
 また、このような作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出プログラムを、記録媒体に記録するように構成することも可能である。
 本発明は、圃場において作業走行を行う作業車に用いることが可能である。
 1:コンバイン(作業車)
 2:機体
 21:第1検出装置
 22:第2検出装置
 31:判定部
 FR:前方領域

Claims (11)

  1.  圃場における機体の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを検出する第1検出装置と、
     前記前方領域を撮像対象として、前記作業走行を行いながら、前記前方領域を撮像する第2検出装置と、
     前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定部と、
    を備える作業車。
  2.  前記判定部は、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記作物の状態として、前記作物の高さを判定する請求項1に記載の作業車。
  3.  前記判定部は、前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記作物の状態として、前記作物の倒伏状態を判定する請求項1又は2に記載の作業車。
  4.  前記判定部は、前記第2検出装置の検出結果として、前記第2検出装置の検出結果から取得した色情報を用いて判定する請求項1から3のいずれか一項に記載の作業車。
  5.  前記第1検出装置の検出結果と前記第2検出装置の検出結果とから得られた前記作物の状態を示す情報に基づいて、前記圃場の作物高さを示す作物高さマップを作成する請求項1から4のいずれか一項に記載の作業車。
  6.  前記作物の状態に基づいて、前記作業走行に用いる機体のパラメータを設定する請求項1から5のいずれか一項に記載の作業車。
  7.  前記第1検出装置は、前記進行方向前方に向かって、少なくとも電波よりも波長が短い電磁波を送出し、当該電磁波が前記物体で反射した反射波に基づいて前記物体の位置及び高さを検出する請求項1から6のいずれか一項に記載の作業車。
  8.  作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出システムであって、
     前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを検出する第1検出装置と、
     前記前方領域を撮像対象として、前記作業走行を行いながら、前記前方領域を撮像する第2検出装置と、
     前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定部と、
    を備える作物状態検出システム。
  9.  作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出方法であって、
     前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを第1検出装置で検出する第1検出ステップと、
     前記前方領域を撮像対象として、前記作業走行を行いながら、第2検出装置で前記前方領域を撮像する第2検出ステップと、
     前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定ステップと、
    を備える作物状態検出方法。
  10.  作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出プログラムであって、
     前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを第1検出装置で検出する第1検出機能と、
     前記前方領域を撮像対象として、前記作業走行を行いながら、第2検出装置で前記前方領域を撮像する第2検出機能と、
     前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定機能と、
    をコンピュータに実行させる作物状態検出プログラム。
  11.  作業車が作業する圃場において、前記作業車の作業対象である作物の状態を検出する作物状態検出プログラムが記録されている記録媒体であって、
     前記圃場における前記作業車の進行方向前方の前方領域を検出対象とし、作業走行を行いながら、前記前方領域に存在する物体の位置及び高さを第1検出装置で検出する第1検出機能と、
     前記前方領域を撮像対象として、前記作業走行を行いながら、第2検出装置で前記前方領域を撮像する第2検出機能と、
     前記第1検出装置の検出結果と前記第2検出装置の検出結果とに基づいて、前記前方領域の作物の状態を判定する判定機能と、
    をコンピュータに実行させる作物状態検出プログラムが記録されている記録媒体。
PCT/JP2021/037264 2020-12-10 2021-10-08 作業車、作物状態検出システム、作物状態検出方法、作物状態検出プログラム、及び作物状態検出プログラムが記録されている記録媒体 WO2022123889A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202180075311.2A CN116437801A (zh) 2020-12-10 2021-10-08 作业车、作物状态检测系统、作物状态检测方法、作物状态检测程序以及记录有作物状态检测程序的记录介质
KR1020237013633A KR20230115976A (ko) 2020-12-10 2021-10-08 작업차, 작물 상태 검출 시스템, 작물 상태 검출 방법, 작물 상태 검출 프로그램 및 작물 상태 검출 프로그램이 기록되어 있는 기록 매체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020205185A JP2022092391A (ja) 2020-12-10 2020-12-10 作業車
JP2020-205185 2020-12-10

Publications (1)

Publication Number Publication Date
WO2022123889A1 true WO2022123889A1 (ja) 2022-06-16

Family

ID=81973568

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/037264 WO2022123889A1 (ja) 2020-12-10 2021-10-08 作業車、作物状態検出システム、作物状態検出方法、作物状態検出プログラム、及び作物状態検出プログラムが記録されている記録媒体

Country Status (4)

Country Link
JP (1) JP2022092391A (ja)
KR (1) KR20230115976A (ja)
CN (1) CN116437801A (ja)
WO (1) WO2022123889A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2610131A (en) * 2021-08-16 2023-02-22 Univ Jiangsu Adaptive device for header capable of performing lodging detection based on laser sensor and control method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004772A (ja) * 2017-06-23 2019-01-17 株式会社クボタ 収穫機
US20190021226A1 (en) * 2017-07-20 2019-01-24 Deere & Company System for optimizing platform settings based on crop state classification
CN110262287A (zh) * 2019-07-14 2019-09-20 南京林业大学 用于收获机械割台高度自动控制的冠层高度在线探测方法
US20190299895A1 (en) * 2018-03-31 2019-10-03 Veoneer Us Inc. Snapshot of interior vehicle environment for occupant safety

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11155340A (ja) 1997-11-25 1999-06-15 Yanmar Agricult Equip Co Ltd 汎用コンバイン

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004772A (ja) * 2017-06-23 2019-01-17 株式会社クボタ 収穫機
US20190021226A1 (en) * 2017-07-20 2019-01-24 Deere & Company System for optimizing platform settings based on crop state classification
US20190299895A1 (en) * 2018-03-31 2019-10-03 Veoneer Us Inc. Snapshot of interior vehicle environment for occupant safety
CN110262287A (zh) * 2019-07-14 2019-09-20 南京林业大学 用于收获机械割台高度自动控制的冠层高度在线探测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HIRAI YASUMARU, HAMAGAMI KUNIHIKO, MORI KEN: "Investigation of a Laser Scanner for Measurement of Lodging Posture of a Wheat Bunch", JOURNAL OF THE FACULTY OF AGRICULTURE KYUSHU UNIVERSITY, KYUSHU DAIGAKU NOGAKUBU, FUKUOKA, JP, vol. 53, no. 1, 28 February 2008 (2008-02-28), JP , pages 89 - 93, XP055920127, ISSN: 0023-6152, DOI: 10.5109/10076 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2610131A (en) * 2021-08-16 2023-02-22 Univ Jiangsu Adaptive device for header capable of performing lodging detection based on laser sensor and control method thereof
GB2610131B (en) * 2021-08-16 2023-11-15 Univ Jiangsu Adaptive device for header capable of performing lodging detection based on laser sensor and control method thereof

Also Published As

Publication number Publication date
KR20230115976A (ko) 2023-08-03
JP2022092391A (ja) 2022-06-22
CN116437801A (zh) 2023-07-14

Similar Documents

Publication Publication Date Title
KR102618797B1 (ko) 콤바인, 포장 영농 맵 생성 방법, 포장 영농 맵 생성 프로그램 및 포장 영농 맵 생성 프로그램이 기록된 기록 매체
CN110352697B (zh) 用于控制收割割台的操作参数的系统以及农业收割机
US9301446B2 (en) Arrangement and method for the anticipatory assessment of plants to be gathered with a harvesting machine
US20230225238A1 (en) Agricultural harvesting machine with pre-emergence weed detection and mitigation system
US11641800B2 (en) Agricultural harvesting machine with pre-emergence weed detection and mitigation system
EP3881666A2 (en) Forward-looking perception and machine control during crop harvesting operations
US20240107943A1 (en) Predictive biomass map generation and control
WO2020218464A1 (ja) 収穫機、障害物判定プログラム、障害物判定プログラムを記録した記録媒体、障害物判定方法、農作業機、制御プログラム、制御プログラムを記録した記録媒体、制御方法
WO2022123889A1 (ja) 作業車、作物状態検出システム、作物状態検出方法、作物状態検出プログラム、及び作物状態検出プログラムが記録されている記録媒体
WO2021261343A1 (ja) 収穫機、収穫機の制御システム、収穫機の制御方法、収穫機の制御プログラム、及び、記録媒体
CN109716917A (zh) 带有云台摄像装置的收割机
US20230217857A1 (en) Predictive map generation and control
WO2020262287A1 (ja) 農作業機、自動走行システム、プログラム、プログラムを記録した記録媒体、及び方法
WO2022071373A1 (ja) 収穫機
WO2020218528A1 (ja) 収穫機等の農作業機
WO2022124258A1 (ja) 圃場マップ生成システム、圃場作業車、圃場マップ生成方法、圃場マップ生成プログラム、及び、記録媒体
JP7423440B2 (ja) 収穫機
JP7471211B2 (ja) 圃場マップ生成システム
JP7423441B2 (ja) 収穫機
JP7433145B2 (ja) 収穫機
WO2022124001A1 (ja) 農作業機、農作業機制御プログラム、農作業機制御プログラムを記録した記録媒体、農作業機制御方法
WO2022181067A1 (ja) 走行経路管理システム、走行経路管理プログラム、走行経路管理プログラムを記録した記録媒体、走行経路管理方法
JP2022002475A (ja) 収穫機
JP2023040743A (ja) 収穫機

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21902993

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21902993

Country of ref document: EP

Kind code of ref document: A1