WO2023243514A1 - 作業車両、および作業車両の制御方法 - Google Patents

作業車両、および作業車両の制御方法 Download PDF

Info

Publication number
WO2023243514A1
WO2023243514A1 PCT/JP2023/021173 JP2023021173W WO2023243514A1 WO 2023243514 A1 WO2023243514 A1 WO 2023243514A1 JP 2023021173 W JP2023021173 W JP 2023021173W WO 2023243514 A1 WO2023243514 A1 WO 2023243514A1
Authority
WO
WIPO (PCT)
Prior art keywords
work vehicle
turning
control device
target point
row
Prior art date
Application number
PCT/JP2023/021173
Other languages
English (en)
French (fr)
Inventor
拓也 玉井
知洋 木下
晃市 黒田
Original Assignee
株式会社クボタ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社クボタ filed Critical 株式会社クボタ
Publication of WO2023243514A1 publication Critical patent/WO2023243514A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders

Definitions

  • the present disclosure relates to a work vehicle and a method of controlling the work vehicle.
  • ICT Information and Communication Technology
  • IoT Internet of Things
  • work vehicles have been put into practical use that use positioning systems such as GNSS (Global Navigation Satellite System) that can perform precise positioning to automatically steer the vehicle.
  • GNSS Global Navigation Satellite System
  • Patent Document 1 discloses an example of a work vehicle that uses LiDAR to automatically travel between rows of crops in a field.
  • SLAM Simultaneous Localization and Mapping
  • a work vehicle autonomously navigates between multiple crop rows.
  • the work vehicle includes an external sensor that outputs sensor data indicating a distribution of features around the work vehicle, and a control device that controls automatic travel of the work vehicle.
  • the control device detects two rows of crops existing on both sides of the work vehicle based on the sensor data, and causes the work vehicle to travel along a route between the two rows of crops.
  • the control device detects an end of at least a side of the crop row corresponding to the turning direction among the two crop rows based on the sensor data while traveling, the control device is configured to detect an end of the crop row on the side corresponding to the turning direction based on the sensor data.
  • a fixed coordinate system and a target point for the turning movement are set. The control device controls the turning movement toward the target point based on the coordinate system.
  • Computer-readable storage media may include volatile storage media or non-volatile storage media.
  • the device may be composed of multiple devices. When a device is composed of two or more devices, the two or more devices may be arranged within one device, or may be arranged separately within two or more separate devices. .
  • FIG. 1 is a side view schematically showing an example of a work vehicle and an implement connected to the work vehicle.
  • FIG. 2 is a block diagram showing an example of the configuration of a work vehicle and an implement. It is a schematic diagram when a LiDAR sensor is seen from the side direction of a work vehicle. It is a schematic diagram when a LiDAR sensor is viewed from vertically above.
  • FIG. 2 is a block diagram showing a configuration example of a LiDAR sensor.
  • FIG. 1 is a diagram schematically showing an example of an environment in which a work vehicle travels.
  • FIG. 2 is a perspective view schematically showing an example of the environment around the work vehicle.
  • FIG. 2 is a diagram schematically showing an example of a travel route of a work vehicle.
  • FIG. 1 is a side view schematically showing an example of a work vehicle and an implement connected to the work vehicle.
  • FIG. 2 is a block diagram showing an example of the configuration of a work vehicle and an implement. It is a schematic
  • FIG. 7 is a diagram schematically showing another example of a travel route of a work vehicle.
  • FIG. 3 is a diagram for explaining a method of controlling the travel of a work vehicle in inter-row travel mode. It is a figure showing an example of an obstacle map.
  • FIG. 7 is a diagram showing another example of an obstacle map.
  • FIG. 3 is a diagram for explaining a process of detecting two tree rows based on an obstacle map.
  • FIG. 3 is a diagram for explaining an example of a method for setting a turning coordinate system and a target point.
  • FIG. 7 is another diagram for explaining an example of a method for setting a turning coordinate system and a target point.
  • FIG. 3 is a diagram for explaining the operation of the work vehicle in the turning mode. 2 is a flowchart showing a specific example of a travel control method by the control device.
  • FIG. 3 is a diagram illustrating an example of a situation where a work vehicle passes through a row of trees. It is a figure which shows an example of the operation
  • FIG. 7 is a diagram for explaining an example of an operation of correcting a target point using an enlarged obstacle map.
  • FIG. 7 is a diagram for explaining another example of an operation for correcting a target point.
  • It is a flow chart which shows an example of operation of a control device when performing correction processing of a target point.
  • FIG. 7 is a diagram illustrating an example in which a turning route is corrected while maintaining a target point. It is a flowchart which shows an example of the method of setting a target point based on an environmental map.
  • work vehicle means a vehicle used to perform work at a work site.
  • a "work site” is any place where work can be performed, such as a field, a forest, or a construction site.
  • a "field” is any place where agricultural operations can be performed, such as an orchard, a field, a rice field, a grain farm, or a pasture.
  • the work vehicle may be an agricultural machine such as a tractor, a rice transplanter, a combine harvester, a riding management machine, or a riding mower, or a vehicle used for purposes other than agriculture, such as a construction work vehicle or a snowplow.
  • the work vehicle may be configured to be able to mount an implement (also referred to as a "work machine” or “work device”) depending on the content of the work on at least one of the front and rear parts of the work vehicle.
  • an implement also referred to as a "work machine” or “work device”
  • work travel The movement of a work vehicle while performing work using an implement is sometimes referred to as "work travel.”
  • Automatic driving means controlling the running of a vehicle by the function of a control device, without manual operation by the driver.
  • automatic driving not only the movement of the vehicle but also the operation of the work (for example, the operation of the implement) may be automatically controlled.
  • the control device can control at least one of steering necessary for running the vehicle, adjustment of running speed, starting and stopping of running.
  • the control device may control operations such as raising and lowering the implement, starting and stopping the operation of the implement, and the like.
  • Driving by automatic driving may include not only driving a vehicle along a predetermined route toward a destination, but also driving the vehicle to follow a tracking target.
  • a vehicle that performs automatic driving may run partially based on instructions from a user. Furthermore, in addition to the automatic driving mode, a vehicle that performs automatic driving may operate in a manual driving mode in which the vehicle travels by manual operation by the driver.
  • ⁇ Automatic steering'' refers to steering a vehicle not manually but by the action of a control device. Part or all of the control device may be external to the vehicle. Communication such as control signals, commands, or data may occur between a control device external to the vehicle and the vehicle.
  • a self-driving vehicle may run autonomously while sensing the surrounding environment without any human involvement in controlling the vehicle's driving. Vehicles that are capable of autonomous driving can run unmanned. Obstacle detection and obstacle avoidance operations may be performed during autonomous driving.
  • the “external world sensor” is a sensor that senses the external state of the work vehicle.
  • external sensors include LiDAR sensors, cameras (or image sensors), laser range finders (also referred to as “range sensors”), ultrasonic sensors, millimeter wave radars, and magnetic sensors.
  • a “crop row” is a row of crops, trees, and other plants that grow in rows in a field such as an orchard or field, or in a forest.
  • "crop row” is a concept that includes “tree row”.
  • the "obstacle map” is local map data that expresses the positions or areas of objects around the work vehicle in a predetermined coordinate system.
  • the coordinate system defining the obstacle map may be, for example, a vehicle coordinate system fixed to the work vehicle or a world coordinate system (eg, a geographic coordinate system) fixed to the earth.
  • the obstacle map may include information other than position (for example, attribute information) regarding objects existing around the work vehicle.
  • Obstacle maps can be represented in various formats, such as grid maps or point cloud maps.
  • the work vehicle is a tractor used for agricultural work in a field such as an orchard.
  • the technology of the present disclosure can be applied not only to tractors but also to other types of agricultural machines, such as rice transplanters, combines, riding management machines, and riding lawn mowers.
  • the technology of the present disclosure can also be applied to work vehicles used for purposes other than agriculture, such as construction work vehicles or snowplows.
  • FIG. 1 is a side view schematically showing an example of a work vehicle 100 and an implement 300 connected to the work vehicle 100.
  • Work vehicle 100 in this embodiment can operate in both manual driving mode and automatic driving mode. In the automatic driving mode, the work vehicle 100 can run unmanned.
  • the work vehicle 100 automatically travels in an environment where a plurality of rows of crops (for example, rows of trees) are planted, such as an orchard such as a vineyard or a field.
  • the work vehicle 100 includes a vehicle body 101, a prime mover (engine) 102, and a transmission 103.
  • the vehicle body 101 is provided with a traveling device including wheels with tires 104 and a cabin 105.
  • the traveling device includes four wheels 104, axles for rotating the four wheels, and a braking device (brake) for braking each axle.
  • the wheels 104 include a pair of front wheels 104F and a pair of rear wheels 104R.
  • a driver's seat 107, a steering device 106, an operation terminal 200, and a group of switches for operation are provided inside the cabin 105.
  • One or both of the front wheel 104F and the rear wheel 104R may be replaced with a plurality of wheels (crawlers) equipped with tracks instead of wheels with tires.
  • the work vehicle 100 includes a plurality of external sensors that sense the surroundings of the work vehicle 100.
  • the external sensors include multiple LiDAR sensors 140, multiple cameras 120, and multiple obstacle sensors 130.
  • the cameras 120 may be provided, for example, on the front, rear, left and right sides of the work vehicle 100. Camera 120 photographs the environment around work vehicle 100 and generates image data. Images acquired by camera 120 may be transmitted to a terminal device for remote monitoring, for example. The image may be used to monitor work vehicle 100 during unmanned operation.
  • the cameras 120 are provided as necessary, and the number thereof is arbitrary.
  • the LiDAR sensor 140 is an example of an external sensor that outputs sensor data indicating the distribution of features around the work vehicle 100.
  • two LiDAR sensors 140 are located on the cabin 105 at the front and rear.
  • the LiDAR sensor 140 may be provided at another location (eg, at the lower front of the vehicle body 101). While the work vehicle 100 is traveling, each LiDAR sensor 140 collects sensor data indicating the distance and direction to each measurement point of an object in the surrounding environment, or the two-dimensional or three-dimensional coordinate value of each measurement point. is output repeatedly.
  • the number of LiDAR sensors 140 is not limited to two, but may be one or three or more.
  • the LiDAR sensor 140 may be configured to output two-dimensional or three-dimensional point cloud data as sensor data.
  • point cloud data broadly means data indicating the distribution of a plurality of reflection points observed by the LiDAR sensor 140.
  • the point cloud data may include, for example, information indicating the coordinate values of each reflection point in a two-dimensional space or three-dimensional space, or the distance and direction of each reflection point.
  • the point cloud data may include information on the brightness of each reflection point.
  • the LiDAR sensor 140 may be configured to repeatedly output point cloud data, for example, at a preset period.
  • the external sensor may include one or more LiDAR sensors 140 that output point cloud data as sensor data.
  • the sensor data output from the LiDAR sensor 140 is processed by a control device that controls automatic travel of the work vehicle 100.
  • the control device can sequentially generate an obstacle map indicating the distribution of objects existing around the work vehicle 100 based on sensor data output from the LiDAR sensor 140 while the work vehicle 100 is traveling.
  • the control device can also use an algorithm such as SLAM to connect obstacle maps during automatic driving to generate an environmental map.
  • the control device can also estimate the position and orientation of work vehicle 100 (ie, self-position estimation) by matching the sensor data and the environmental map.
  • the plurality of obstacle sensors 130 shown in FIG. 1 are provided at the front and rear of the cabin 105. Obstacle sensor 130 may also be placed at other locations. For example, one or more obstacle sensors 130 may be provided at arbitrary positions on the side, front, and rear of the vehicle body 101. Obstacle sensor 130 may include, for example, a laser scanner or an ultrasonic sonar. Obstacle sensor 130 is used to detect surrounding obstacles during automatic driving and to stop work vehicle 100 or take a detour.
  • the work vehicle 100 further includes a GNSS unit 110.
  • GNSS is a general term for satellite positioning systems such as GPS (Global Positioning System), QZSS (Quasi-Zenith Satellite System, such as Michibiki), GLONASS, Galileo, and BeiDou.
  • the GNSS unit 110 receives satellite signals (also referred to as GNSS signals) transmitted from a plurality of GNSS satellites, and performs positioning based on the satellite signals. Although the GNSS unit 110 in this embodiment is provided in the upper part of the cabin 105, it may be provided in another position.
  • GNSS unit 110 includes an antenna for receiving signals from GNSS satellites and processing circuitry.
  • the work vehicle 100 in this embodiment is used in an environment where a plurality of trees grow, such as a vineyard, where it is difficult to use GNSS.
  • positioning is mainly performed using the LiDAR sensor 140.
  • positioning may be performed using the GNSS unit 110.
  • the GNSS unit 110 may include an inertial measurement unit (IMU). Signals from the IMU can be used to supplement the position data.
  • the IMU can measure the tilt and minute movements of the work vehicle 100. By using data acquired by the IMU to supplement position data based on satellite signals, positioning performance can be improved.
  • the prime mover 102 may be, for example, a diesel engine.
  • An electric motor may be used instead of a diesel engine.
  • Transmission device 103 can change the propulsive force and moving speed of work vehicle 100 by shifting. The transmission 103 can also switch the work vehicle 100 between forward movement and reverse movement.
  • the steering device 106 includes a steering wheel, a steering shaft connected to the steering wheel, and a power steering device that assists steering with the steering wheel.
  • the front wheel 104F is a steered wheel, and by changing its turning angle (also referred to as a "steering angle"), the traveling direction of the work vehicle 100 can be changed.
  • the steering angle of the front wheels 104F can be changed by operating the steering wheel.
  • the power steering device includes a hydraulic device or an electric motor that supplies an auxiliary force to change the steering angle of the front wheels 104F. When automatic steering is performed, the steering angle is automatically adjusted by the power of a hydraulic system or an electric motor under control from a control device disposed within work vehicle 100.
  • a coupling device 108 is provided at the rear of the vehicle body 101.
  • the coupling device 108 includes, for example, a three-point support device (also referred to as a "three-point link” or “three-point hitch"), a PTO (Power Take Off) shaft, a universal joint, and a communication cable.
  • the implement 300 can be attached to and detached from the work vehicle 100 by the coupling device 108.
  • the coupling device 108 can change the position or posture of the implement 300 by raising and lowering the three-point link using, for example, a hydraulic device. Further, power can be sent from the work vehicle 100 to the implement 300 via the universal joint.
  • the work vehicle 100 can cause the implement 300 to perform a predetermined work while pulling the implement 300.
  • the coupling device may be provided at the front of the vehicle body 101. In that case, an implement can be connected to the front of the work vehicle 100.
  • the implement 300 shown in FIG. 1 is a sprayer that sprays chemicals on crops, the implement 300 is not limited to a sprayer. Work with any implement, such as a mower, seeder, spreader, rake, baler, harvester, plow, harrow, or rotary. It can be used by connecting to the vehicle 100.
  • the work vehicle 100 shown in FIG. 1 is capable of manned operation, it may also support only unmanned operation. In that case, components necessary only for manned operation, such as the cabin 105, the steering device 106, and the driver's seat 107, may not be provided in the work vehicle 100.
  • the unmanned work vehicle 100 can run autonomously or by remote control by a user.
  • FIG. 2 is a block diagram showing a configuration example of the work vehicle 100 and the implement 300.
  • Work vehicle 100 and implement 300 can communicate with each other via a communication cable included in coupling device 108 .
  • Work vehicle 100 can also communicate with terminal device 400 for remote monitoring via network 80 .
  • the terminal device 400 is any computer such as a personal computer (PC), a laptop computer, a tablet computer, or a smartphone.
  • the work vehicle 100 in the example of FIG. 2 includes a GNSS unit 110, a camera 120, an obstacle sensor 130, a LiDAR sensor 140, and an operation terminal 200, as well as a sensor group 150 that detects the operating state of the work vehicle 100, and a travel control system 160. , a communication device 190, an operation switch group 210, and a drive device 240. These components are communicatively connected to each other via a bus.
  • the GNSS unit 110 includes a GNSS receiver 111, an RTK receiver 112, an inertial measurement unit (IMU) 115, and a processing circuit 116.
  • Sensor group 150 includes a steering wheel sensor 152, a turning angle sensor 154, and an axle sensor 156.
  • Travel control system 160 includes a storage device 170 and a control device 180.
  • the control device 180 includes a plurality of electronic control units (ECUs) 181 to 184.
  • the implement 300 includes a drive device 340, a control device 380, and a communication device 390. Note that FIG. 2 shows components that are relatively highly relevant to the automatic driving operation of the work vehicle 100, and illustration of other components is omitted.
  • the GNSS receiver 111 in the GNSS unit 110 receives satellite signals transmitted from multiple GNSS satellites, and generates GNSS data based on the satellite signals.
  • GNSS data is generated in a predetermined format, such as NMEA-0183 format.
  • GNSS data may include, for example, values indicating the identification number, elevation, azimuth, and reception strength of each satellite from which the satellite signal was received.
  • the GNSS unit 110 may position the work vehicle 100 using RTK (Real Time Kinematic)-GNSS.
  • RTK Real Time Kinematic
  • a correction signal transmitted from a reference station is used in addition to satellite signals transmitted from multiple GNSS satellites.
  • the reference station may be installed near a work site where work vehicle 100 travels for work (for example, within 10 km from work vehicle 100).
  • the reference station generates, for example, a correction signal in RTCM format based on satellite signals received from a plurality of GNSS satellites, and transmits it to the GNSS unit 110.
  • RTK receiver 112 includes an antenna and a modem, and receives the correction signal transmitted from the reference station.
  • the processing circuit 116 of the GNSS unit 110 corrects the positioning result by the GNSS receiver 111 based on the correction signal.
  • RTK-GNSS By using RTK-GNSS, it is possible to perform positioning with an accuracy of a few centimeters, for example.
  • Location information including latitude, longitude, and altitude information is obtained through highly accurate positioning using RTK-GNSS.
  • GNSS unit 110 calculates the position of work vehicle 100 at a frequency of about 1 to 10 times per second, for example.
  • the positioning method is not limited to RTK-GNSS, and any positioning method (interferometric positioning method, relative positioning method, etc.) that can obtain position information with the necessary accuracy can be used.
  • positioning may be performed using VRS (Virtual Reference Station) or DGPS (Differential Global Positioning System).
  • the GNSS unit 110 in this embodiment further includes an IMU 115.
  • IMU 115 may include a 3-axis acceleration sensor and a 3-axis gyroscope.
  • the IMU 115 may include an orientation sensor such as a 3-axis geomagnetic sensor.
  • IMU 115 functions as a motion sensor and can output signals indicating various quantities such as acceleration, speed, displacement, and posture of work vehicle 100.
  • Processing circuit 116 can estimate the position and orientation of work vehicle 100 with higher accuracy based on the signal output from IMU 115 in addition to the satellite signal and correction signal.
  • the signal output from IMU 115 may be used to correct or supplement the position calculated based on the satellite signal and the correction signal.
  • IMU 115 outputs signals more frequently than GNSS receiver 111.
  • the IMU 115 outputs signals at a frequency of about tens to thousands of times per second. Using the high-frequency signal, the processing circuit 116 can measure the position and orientation of the work vehicle 100 at a higher frequency (eg, 10 Hz or more). Instead of the IMU 115, a 3-axis acceleration sensor and a 3-axis gyroscope may be provided separately. IMU 115 may be provided as a separate device from GNSS unit 110.
  • the camera 120 is an imaging device that photographs the environment around the work vehicle 100.
  • the camera 120 includes an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor).
  • Camera 120 may also include an optical system including one or more lenses, and signal processing circuitry.
  • Camera 120 photographs the environment around work vehicle 100 while work vehicle 100 is traveling, and generates image (for example, video) data.
  • the camera 120 can shoot moving images at a frame rate of 3 frames per second (fps) or more, for example.
  • the image generated by camera 120 can be used, for example, when a remote monitor uses terminal device 400 to check the environment around work vehicle 100. Images generated by camera 120 may be used for positioning or obstacle detection. As shown in FIG.
  • a plurality of cameras 120 may be provided at different positions on the work vehicle 100, or a single camera may be provided.
  • a visible camera that generates visible light images and an infrared camera that generates infrared images may be provided separately. Both a visible camera and an infrared camera may be provided as cameras that generate images for surveillance. Infrared cameras can also be used to detect obstacles at night.
  • the obstacle sensor 130 detects objects existing around the work vehicle 100.
  • Obstacle sensor 130 may include, for example, a laser scanner or an ultrasonic sonar. Obstacle sensor 130 outputs a signal indicating that an obstacle exists when an object exists closer than a predetermined distance from obstacle sensor 130 .
  • a plurality of obstacle sensors 130 may be provided at different positions of work vehicle 100. For example, multiple laser scanners and multiple ultrasonic sonars may be placed at different positions on work vehicle 100. By providing such a large number of obstacle sensors 130, blind spots in monitoring obstacles around the work vehicle 100 can be reduced.
  • the steering wheel sensor 152 measures the rotation angle of the steering wheel of the work vehicle 100.
  • the turning angle sensor 154 measures the turning angle of the front wheel 104F, which is a steered wheel. Measured values by the steering wheel sensor 152 and the turning angle sensor 154 can be used for steering control by the control device 180.
  • the axle sensor 156 measures the rotational speed of the axle connected to the wheel 104, that is, the number of rotations per unit time.
  • the axle sensor 156 may be a sensor using a magnetoresistive element (MR), a Hall element, or an electromagnetic pickup, for example.
  • the axle sensor 156 outputs, for example, a numerical value indicating the number of revolutions per minute (unit: rpm) of the axle.
  • Axle sensor 156 is used to measure the speed of work vehicle 100. The measured value by the axle sensor 156 can be used for speed control by the control device 180.
  • the drive device 240 includes various devices necessary for running the work vehicle 100 and driving the implement 300, such as the above-mentioned prime mover 102, transmission device 103, steering device 106, and coupling device 108.
  • Prime mover 102 may include, for example, an internal combustion engine such as a diesel engine.
  • the drive device 240 may include an electric motor for traction instead of or in addition to the internal combustion engine.
  • Storage device 170 includes one or more storage media such as flash memory or magnetic disks.
  • the storage device 170 stores various data generated by the GNSS unit 110, camera 120, obstacle sensor 130, LiDAR sensor 140, sensor group 150, and control device 180.
  • the data stored in the storage device 170 may include an environmental map of the environment in which the work vehicle 100 travels, an obstacle map sequentially generated during travel, and route data for automatic driving.
  • the storage device 170 also stores computer programs that cause each ECU in the control device 180 to execute various operations described below.
  • Such a computer program may be provided to work vehicle 100 via a storage medium (eg, semiconductor memory or optical disk, etc.) or a telecommunications line (eg, the Internet).
  • Such computer programs may be sold as commercial software.
  • the control device 180 includes multiple ECUs.
  • the plurality of ECUs include, for example, an ECU 181 for speed control, an ECU 182 for steering control, an ECU 183 for instrument control, and an ECU 184 for automatic driving control.
  • ECU 181 controls the speed of work vehicle 100 by controlling prime mover 102, transmission 103, and brakes included in drive device 240.
  • the ECU 182 controls the steering of the work vehicle 100 by controlling the hydraulic system or electric motor included in the steering device 106 based on the measured value of the steering wheel sensor 152.
  • the ECU 183 controls the operations of the three-point link, PTO axis, etc. included in the coupling device 108 in order to cause the implement 300 to perform a desired operation. ECU 183 also generates a signal to control the operation of implement 300 and transmits the signal from communication device 190 to implement 300.
  • the ECU 184 performs calculations and controls to realize automatic driving based on data output from the GNSS unit 110, camera 120, obstacle sensor 130, LiDAR sensor 140, and sensor group 150. For example, ECU 184 estimates the position of work vehicle 100 based on data output from at least one of GNSS unit 110, camera 120, and LiDAR sensor 140. In a situation where the reception strength of satellite signals from GNSS satellites is sufficiently high, ECU 184 may determine the position of work vehicle 100 based only on the data output from GNSS unit 110. On the other hand, in an environment such as an orchard where there are obstacles such as trees around the work vehicle 100 that prevent reception of satellite signals, the ECU 184 performs work using data output from the LiDAR sensor 140 or the camera 120.
  • the position of vehicle 100 is estimated.
  • the ECU 184 performs calculations necessary for the work vehicle 100 to travel along the target route based on the estimated position of the work vehicle 100.
  • the ECU 184 sends a speed change command to the ECU 181 and a steering angle change command to the ECU 182.
  • ECU 181 changes the speed of work vehicle 100 by controlling prime mover 102, transmission 103, or brake in response to a speed change command.
  • the ECU 182 changes the steering angle by controlling the steering device 106 in response to a command to change the steering angle.
  • control device 180 realizes automatic driving.
  • control device 180 controls drive device 240 based on the measured or estimated position of work vehicle 100 and the sequentially generated target route. Thereby, the control device 180 can cause the work vehicle 100 to travel along the target route.
  • a plurality of ECUs included in the control device 180 can communicate with each other, for example, according to a vehicle bus standard such as CAN (Controller Area Network). Instead of CAN, a faster communication method such as in-vehicle Ethernet (registered trademark) may be used.
  • CAN Controller Area Network
  • FIG. 2 each of the ECUs 181 to 184 is shown as an individual block, but the functions of each of these may be realized by a plurality of ECUs.
  • An on-vehicle computer that integrates at least some of the functions of the ECUs 181 to 184 may be provided.
  • the control device 180 may include ECUs other than the ECUs 181 to 184, and any number of ECUs may be provided depending on the function.
  • Each ECU includes processing circuitry including one or more processors.
  • the communication device 190 is a device that includes a circuit that communicates with the implement 300 and the terminal device 400.
  • the communication device 190 includes a circuit that transmits and receives signals compliant with the ISOBUS standard, such as ISOBUS-TIM, to and from the communication device 390 of the implement 300. Thereby, it is possible to cause the implement 300 to perform a desired operation or to obtain information from the implement 300.
  • Communication device 190 may further include an antenna and a communication circuit for transmitting and receiving signals to and from terminal device 400 via network 80.
  • Network 80 may include, for example, a cellular mobile communications network such as 3G, 4G or 5G and the Internet.
  • the communication device 190 may have a function of communicating with a mobile terminal used by a supervisor near the work vehicle 100. Communication with such mobile terminals may be conducted in accordance with any wireless communication standard, such as Wi-Fi (registered trademark), cellular mobile communications such as 3G, 4G or 5G, or Bluetooth (registered trademark). I can.
  • the operation terminal 200 is a terminal for a user to perform operations related to the traveling of the work vehicle 100 and the operation of the implement 300, and is also referred to as a virtual terminal (VT).
  • Operating terminal 200 may include a display device such as a touch screen and/or one or more buttons.
  • the display device may be a display such as a liquid crystal or an organic light emitting diode (OLED), for example.
  • OLED organic light emitting diode
  • the operating terminal 200 may be configured to be detachable from the work vehicle 100. A user located away from work vehicle 100 may operate detached operation terminal 200 to control the operation of work vehicle 100.
  • the drive device 340 in the implement 300 shown in FIG. 2 performs operations necessary for the implement 300 to perform a predetermined work.
  • Drive device 340 includes a device depending on the use of implement 300, such as a hydraulic device, an electric motor, or a pump.
  • Control device 380 controls the operation of drive device 340.
  • Control device 380 causes drive device 340 to perform various operations in response to signals transmitted from work vehicle 100 via communication device 390. Further, a signal depending on the state of the implement 300 can be transmitted from the communication device 390 to the work vehicle 100.
  • FIG. 3A is a schematic diagram of LiDAR sensor 140 viewed from the side of work vehicle 100.
  • FIG. 3B is a schematic diagram of the LiDAR sensor 140 viewed from vertically above.
  • 3A and 3B show three mutually orthogonal axes u, v, and w in a sensor coordinate system fixed to the LiDAR sensor 140.
  • 3A and 3B schematically represent the central axis (or traveling direction) of the laser beam emitted from the LiDAR sensor 140.
  • Each laser beam is collimated into parallel light but has a divergence angle of several milliradians (eg, 0.1-0.2 degrees). Therefore, the cross-sectional size (spot diameter) of each laser beam increases in proportion to the distance from the LiDAR sensor 140. For example, a light spot several centimeters in diameter may be formed 20 meters away from the LiDAR sensor 140. In the figure, for simplicity, the spread of the laser beam is ignored and only the central axis of the laser beam is shown.
  • the LiDAR sensor 140 in the example shown in FIG. 3A can emit laser beams at different elevation angles from a plurality of laser light sources arranged in the vertical direction. Elevation angle is defined by the angle with respect to the uv plane. In this example, the uv plane is approximately parallel to the horizontal plane. Note that if the ground (ground surface) is inclined with respect to the horizontal plane, the uv plane and the horizontal plane intersect.
  • FIG. 3A shows how N laser beams L 1 , . . . , L N are emitted.
  • N is an integer of 1 or more, for example, 10 or more, and may be 64 or 100 or more in a high-performance model.
  • the elevation angle of the k-th laser beam from the bottom among the plurality of laser beams is ⁇ k .
  • FIG. 3A shows, as an example, the elevation angle ⁇ N-1 of the N-1th laser beam.
  • the elevation angle of the laser beam directed above the UV plane is defined as a "positive elevation angle”
  • the elevation angle of the laser beam directed below the UV plane is defined as a "negative elevation angle.”
  • a LiDAR sensor in which N is 1 is sometimes referred to as a "two-dimensional LiDAR," and a LiDAR sensor in which N is two or more is sometimes referred to as a “three-dimensional LiDAR.”
  • N is 2 or more
  • the angle formed by the first laser beam and the Nth laser beam is referred to as a "vertical viewing angle.”
  • the vertical viewing angle may be set within a range of about 20° to 60°, for example.
  • the LiDAR sensor 140 can change the emission direction (for example, azimuth angle) of the laser beam, as shown in FIG. 3B.
  • FIG. 3B shows how the emission directions of the plurality of laser beams shown in FIG. 3A are rotated around a rotation axis parallel to the w-axis.
  • the range of the laser beam emission direction (azimuth angle) may be 360°, or may be an angular range smaller than 360° (for example, 210° or 270°).
  • the range of the azimuth angle of the laser beam emission direction is referred to as the "horizontal viewing angle.”
  • the horizontal viewing angle can be set within a range of about 90° to 360°, for example.
  • the LiDAR sensor 140 sequentially emits pulsed laser light (laser pulses) in different azimuth directions while rotating the laser beam emission direction around a rotation axis parallel to the w axis. In this way, it becomes possible to measure the distance to each reflection point using pulsed laser light emitted at different elevation angles and different azimuth angles. Each reflection point corresponds to an individual point included in the point cloud data.
  • the operation of measuring the distance to the reflection point while the azimuth of the laser beam rotates once around the rotation axis is called one scan.
  • Sensor data obtained by one scan includes data measured for each layer associated with a specific elevation angle shown in FIG. 3A. Therefore, as the number of layers increases, the number of points in the point cloud obtained by one scan of the same environment increases.
  • the LiDAR sensor 140 repeats the scanning operation at a frequency of about 1 to 20 times per second, for example. For example, more than 100,000 pulses of laser light can be emitted in different directions during one scan operation.
  • FIG. 4 is a block diagram showing a configuration example of the LiDAR sensor 140.
  • the LiDAR sensor 140 shown in FIG. 4 includes a plurality of laser units 141, an electric motor 144, a control circuit 145, a signal processing circuit 146, and a memory 147.
  • Each laser unit 141 includes a laser light source 142 and a photodetector 143.
  • Each laser unit 141 may include an optical system such as a lens and a mirror, but illustration thereof is omitted.
  • the motor 144 changes the direction of the laser beam emitted from each laser light source 142, for example, by rotating a mirror placed on the optical path of the laser beam emitted from each laser light source 142.
  • the laser light source 142 includes a laser diode, and emits a pulsed laser beam of a predetermined wavelength in response to a command from the control circuit 145.
  • the wavelength of the laser beam may be, for example, a wavelength included in the near-infrared wavelength range (approximately 700 nm to 2.5 ⁇ m).
  • the wavelength used depends on the material of the photoelectric conversion element used in the photodetector 143. For example, when silicon (Si) is used as a material for a photoelectric conversion element, a wavelength of around 900 nm can be mainly used.
  • InGaAs indium gallium arsenide
  • a wavelength of, for example, 1000 nm or more and 1650 nm or less may be used.
  • the wavelength of the laser beam is not limited to the near-infrared wavelength range.
  • wavelengths within the visible range approximately 400 nm to 700 nm
  • the photodetector 143 is a device that detects laser pulses emitted from the laser light source 142 and reflected or scattered by an object.
  • the photodetector 143 includes, for example, a photoelectric conversion element such as an avalanche photodiode (APD).
  • APD avalanche photodiode
  • the motor 144 rotates a mirror placed on the optical path of the laser beam emitted from each laser light source 142 in response to a command from the control circuit 145. Thereby, a scanning operation that changes the emission direction of the laser beam is realized.
  • the control circuit 145 controls the emission of laser pulses by the laser light source 142, the detection of reflected pulses by the photodetector 143, and the rotational operation of the motor 144.
  • Control circuit 145 may be realized by a circuit comprising a processor, such as a microcontroller unit (MCU).
  • MCU microcontroller unit
  • the signal processing circuit 146 is a circuit that performs calculations based on the signal output from the photodetector 143.
  • the signal processing circuit 146 calculates the distance to the object that reflected the laser pulse emitted from each laser light source 142, for example, by the ToF (Time of Flight) method.
  • the ToF method includes a direct ToF method and an indirect ToF method. In the direct ToF method, the distance to the reflection point is calculated by directly measuring the time from when a laser pulse is emitted from the laser light source 142 until the reflected light is received by the photodetector 143.
  • the distance to each reflection point is calculated based on the ratio of the amount of light detected in each exposure period.
  • Either the direct ToF method or the indirect ToF method can be used.
  • the signal processing circuit 146 generates and outputs sensor data indicating, for example, the distance to each reflection point and the direction of the reflection point.
  • the signal processing circuit 146 further calculates the coordinates (u, v) or (u, v, w) in the sensor coordinate system based on the distance to each reflection point and the direction of the reflection point, and calculates the sensor data. It may also be included in the output.
  • control circuit 145 and the signal processing circuit 146 are divided into two circuits in the example of FIG. 4, they may be realized by one circuit.
  • the memory 147 is a storage medium that stores data generated by the control circuit 145 and the signal processing circuit 146.
  • the memory 147 stores, for example, the emission timing of the laser pulse emitted from each laser unit 141, the emission direction, the reflected light intensity, the distance to the reflection point, and the coordinates (u, v) or (u) in the sensor coordinate system. , v, w) are stored.
  • Such data is generated and recorded in memory 147 each time a laser pulse is emitted.
  • the control circuit 145 outputs the data at a predetermined period (for example, the time required to emit a predetermined number of pulses, a half scan period, one scan period, etc.).
  • the output data is recorded in the storage device 170 of the work vehicle 100.
  • the LiDAR sensor 140 outputs sensor data at a frequency of, for example, about 1 to 20 times per second.
  • This sensor data may include coordinates of a plurality of points expressed in a sensor coordinate system and time stamp information. Note that the sensor data may include information on the distance and direction to each reflection point, but may not include coordinate information. In that case, the control device 180 converts the distance and direction information into coordinate information.
  • the distance measurement method is not limited to the ToF method, and other methods such as the FMCW (Frequency Modulated Continuous Wave) method may be used.
  • FMCW Frequency Modulated Continuous Wave
  • the FMCW method light whose frequency is linearly changed is emitted, and the distance is calculated based on the frequency of a beat generated by interference between the emitted light and the reflected light.
  • the LiDAR sensor 140 in this embodiment is a scan type sensor that acquires information on the distance distribution of objects in space by scanning with a laser beam.
  • the LiDAR sensor 140 is not limited to a scan type sensor.
  • the LiDAR sensor 140 may be a flash-type sensor that uses light diffused over a wide range to obtain information on the distance distribution of objects in space.
  • a scan-type LiDAR sensor uses higher intensity light than a flash-type LiDAR sensor, so it can obtain distance information from a longer distance.
  • flash-type LiDAR sensors have a simple structure and can be manufactured at low cost, so they are suitable for applications that do not require strong light.
  • FIG. 5 is a diagram schematically showing an example of the environment in which the work vehicle 100 travels.
  • FIG. 6 is a perspective view schematically showing an example of the environment around work vehicle 100.
  • the work vehicle 100 uses the implement 300 to carry out predetermined work (for example, chemical spraying, grass cutting, pest control, etc.).
  • predetermined work for example, chemical spraying, grass cutting, pest control, etc.
  • the sky is blocked by branches and leaves, making it difficult to drive automatically using GNSS.
  • GNSS In an environment where GNSS cannot be used, it is conceivable to travel while estimating the self-position by matching sensor data with an environmental map created in advance.
  • the external shapes of leaves, fences, etc. of trees and other crops can change significantly depending on the season, making it difficult to continuously use environmental maps created in advance.
  • the control device 180 in this embodiment detects the two rows of crops existing on both sides of the work vehicle 100 based on the sensor data output from the LiDAR sensor 140, and detects the route between the two rows of crops.
  • the work vehicle 100 is made to travel along the line.
  • the control device 180 sets a coordinate system for turning and a target point for turning, and moves the work vehicle 100 to the target point based on the coordinate system. Turn towards the spot.
  • FIG. 7A is a diagram schematically showing an example of the travel route 30 of the work vehicle 100.
  • the work vehicle 100 travels between the rows of trees 20 on a route 30 as shown.
  • line segments included in route 30 are depicted as straight lines, but the route that work vehicle 100 actually travels may include meandering portions.
  • the plurality of tree rows 20 are ordered from the end as a first tree row 20A, a second tree row 20B, a third tree row 20C, a fourth tree row 20D, and so on.
  • FIG. 7A is a diagram schematically showing an example of the travel route 30 of the work vehicle 100.
  • the work vehicle 100 travels between the rows of trees 20 on a route 30 as shown.
  • line segments included in route 30 are depicted as straight lines, but the route that work vehicle 100 actually travels may include meandering portions.
  • the plurality of tree rows 20 are ordered from the end as a first tree row 20A, a second tree row 20B, a third tree row 20C, a fourth tree
  • the work vehicle 100 first travels between the first row of trees 20A and the second row of trees 20B, and when the travel is completed, it turns to the right and moves between the first row of trees 20A and the second row of trees 20B. It runs in the opposite direction between the third row of trees 20C. When the vehicle completes traveling between the second tree row 20B and the third tree row 20C, it further turns to the left and travels between the third tree row 20C and the fourth tree row 20D. Thereafter, by repeating the same operation, the vehicle travels to the end of the route 30 between the last two rows of trees. Note that if the distance between two adjacent tree rows is short, the vehicle may travel every other row as shown in FIG. 7B. In this case, after the last two rows of trees have been completed, an operation may be performed to travel between every other row of trees that has not yet been traveled. Such traveling is automatically performed by the work vehicle 100 based on sensor data output from the LiDAR sensor 140.
  • positioning may be performed based on the GNSS signal at a timing when the GNSS unit 110 can receive the GNSS signal. For example, at the timing of turning on the route 30 shown in FIGS. 7A and 7B, there are no leaves blocking the GNSS signal, so positioning based on the GNSS signal is possible.
  • the control device 180 of the work vehicle 100 in this embodiment operates in an inter-row driving mode in which the work vehicle 100 travels along a route between two adjacent tree rows, and in an inter-row driving mode in which the work vehicle 100 turns in a headland. Operates in turning driving mode.
  • the headland is the area between the end of each row of trees and the orchard boundary.
  • the control device 180 detects two rows of trees existing on both sides of the work vehicle 100 based on sensor data sequentially output from the LiDAR sensor 140, and creates a route between the two rows of trees.
  • the work vehicle 100 is caused to travel along the route while setting.
  • the control device 180 When the control device 180 detects at least the end of the tree row on the side corresponding to the turning direction (right or left) among the two adjacent tree rows, it sets a coordinate system for turning and a turning target point. .
  • the coordinate system for turning travel may be referred to as a "turning coordinate system.”
  • the turning coordinate system is a coordinate system fixed to the ground, and is used in controlling turning travel.
  • the target point is the entrance point for the next inter-row run. After setting the turning coordinate system and the turning target point, when the work vehicle 100 reaches the end of the tree row, it shifts to the turning mode. In the turning travel mode, the control device 180 causes the work vehicle 100 to travel along a turning path set on the turning coordinate system.
  • the control device 180 runs the work vehicle 100 along the turning route while estimating the self-position of the work vehicle 100 on the turning coordinate system based on sensor data sequentially output from the LiDAR sensor 140. let In the turning travel mode, the control device 180 may perform positioning using a signal output from the GNSS receiver 111 and/or a signal output from the IMU 115 in addition to sensor data. When the work vehicle 100 reaches the turning target point, it shifts to the inter-row driving mode again. Thereafter, similar operations are repeated until the last inter-row run is completed. Through the above operations, automatic travel between the plurality of tree rows 20 is realized. The above control is executed by the ECU 184 in the control device 180.
  • FIG. 8 is a diagram for explaining a travel control method for the work vehicle 100 in the inter-row travel mode.
  • the work vehicle 100 scans the surrounding environment with a laser beam using the LiDAR sensor 140 while traveling between two adjacent tree rows 20R and 20L. As a result, data indicating the distance distribution of objects existing in the environment is obtained. The data indicating the distance distribution is converted into, for example, two-dimensional or three-dimensional point group data and output as sensor data.
  • the control device 180 sequentially generates the obstacle map 40 based on the sensor data output from the LiDAR sensor 140.
  • Obstacle map 40 shows the distribution of objects in a vehicle coordinate system fixed to work vehicle 100. Obstacle map 40 has a predetermined length Lh and width Lw. Length Lh is a size in the vertical direction corresponding to the traveling direction of work vehicle 100. The width Lw is a size in the lateral direction perpendicular to both the traveling direction and the vertical direction of the work vehicle 100.
  • the control device 180 detects two tree rows 20R and 20L existing on both sides of the work vehicle 100 based on the obstacle map 40. Specifically, the control device 180 performs processing such as Hough transform on the obstacle map 40 to obtain approximate straight lines (line segments) 41R and 41L of the tree rows 20R and 20L. The control device 180 sets the target route 45 between the approximate straight lines 41R and 41L (for example, at the center). Note that when the plurality of trees in the tree rows 20R and 20L are distributed in a curved line, the control device 180 may obtain an approximate curve instead of an approximate straight line and set the target route 45 between these approximate curves. good.
  • the target route 45 may be set within a relatively short range (for example, a range of several meters) starting from the position of the work vehicle 100.
  • Target route 45 may be defined by multiple waypoints. Each waypoint may include information on the position and direction (or speed) of a point through which work vehicle 100 should pass. The interval between waypoints can be set to, for example, a value on the order of several tens of centimeters (cm) to several meters (m).
  • Control device 180 causes work vehicle 100 to travel along set target route 45. For example, the control device 180 performs steering control of the work vehicle 100 so as to minimize deviations in the position and direction of the work vehicle 100 with respect to the target route 45. Thereby, the work vehicle 100 can be driven along the target route 45.
  • the obstacle map 40 is not limited to the illustrated example, but may be a map (for example, a voxel map) showing a three-dimensional distribution of features existing around the work vehicle 100, for example.
  • the obstacle map 40 may be map data in another format such as a point cloud map.
  • the control device 180 may generate the obstacle map 40 by removing data of points estimated to correspond to unnecessary objects such as the ground and weeds from the sensor data output from the LiDAR sensor 140.
  • the control device 180 selects data whose height from the ground is within a predetermined range (for example, within a range of 0.1 m to 1.5 m) from among the point cloud data. ) may be extracted, and an obstacle map may be generated from the data of the extracted points.
  • a predetermined range for example, within a range of 0.1 m to 1.5 m
  • Such a method makes it possible to generate an obstacle map showing the distribution of trees (mainly trunks).
  • FIG. 9A is a diagram showing an example of an obstacle map 40 generated based on sensor data.
  • the obstacle map 40 shown in FIG. 9A grids in which objects exist are shown in black, and grids in which objects do not exist are shown in white.
  • a black grid represents the presence of objects such as tree trunks or leaves.
  • the obstacle map 40 may be expressed, for example, by data in which a numerical value "1" is assigned to a grid in which an object exists, and a numerical value "0" is assigned to a grid in which an object does not exist.
  • the control device 180 may be configured to sequentially generate an obstacle map 40 as shown in FIG. 9A based on sensor data acquired by the LiDAR sensor 140 in one period of scanning.
  • the obstacle map 40 may be updated every scan period.
  • the obstacle map 40 may include not only two-dimensional position information as illustrated, but also height information from the ground or horizontal plane.
  • the control device 180 may generate the obstacle map 40 showing the distribution of tree rows by extracting only points whose heights are within a predetermined range.
  • the control device 180 may generate one obstacle map 40 by combining sensor data output from the plurality of LiDAR sensors 140.
  • one obstacle map 40 may be generated by combining sensor data output from two LiDAR sensors 140 (see FIG. 1) placed before and after the work vehicle 100.
  • one obstacle map may be generated by combining sensor data for multiple periods.
  • the length Lh and width Lw of the obstacle map 40 are equal, but the length Lh and width Lw may be different.
  • the length Lh of the obstacle map 40 may be longer than the width Lw.
  • the control device 180 Based on the obstacle map 40, the control device 180 detects two tree rows 20R and 20L existing on both sides of the work vehicle 100. For example, as shown in FIG. 9C, the control device 180 calculates two approximate straight lines 41R and 41L (or an approximate curve) from a row of a plurality of points distributed along the traveling direction of the work vehicle 100. Two tree rows 20R and 20L can be detected.
  • the control device 180 While traveling in the inter-row driving mode, if the control device 180 detects at least the end of the tree row on the side corresponding to the turning direction among the two tree rows 20R and 20L based on sensor data, the control device 180 switches to the turning driving mode. Execute the process for migration. For example, when the turning direction is to the right, the control device 180 detects the end of the right tree row 20R, and then executes processing for transitioning to the turning mode. Specifically, when the control device 180 detects the end of the tree row 20R on the side corresponding to the turning direction, it sets a coordinate system for turning (turning coordinate system) and a target point for turning.
  • a coordinate system for turning turning coordinate system
  • the target point of the turning run is the end point of the turning run, and is, for example, the start point of the next inter-row run.
  • the control device 180 determines the position coordinates of the target point in the turning coordinate system based on the interval between the tree rows 20R and 20L and the position of the end of the tree row 20R on the turning direction side. After setting the turning coordinate system and the target point, control device 180 turns work vehicle 100 toward the target point based on the turning coordinate system.
  • FIGS. 10A and 10B are diagrams for explaining an example of a method for setting a turning coordinate system and a target point.
  • the control device 180 estimates the length Lr within the obstacle map 40 of at least the tree row 20R on the side corresponding to the turning direction among the two tree rows 20R and 20L, based on the obstacle map 40. do.
  • the control device 180 can estimate the lengths of the approximate straight lines 41R and 41L of the tree rows 20R and 20L as the lengths Lr and Ll of the tree rows 20R and 20L in the obstacle map 40.
  • the control device 180 detects the end of the tree row 20R based on the difference Le between the length Lh of the obstacle map 40 and the length Lr of the tree row 20R on the turning direction side within the obstacle map 40. For example, the control device 180 detects the end of the tree row 20R when the difference Le between the length Lh of the obstacle map 40 and the length Lr of the tree row 20R in the obstacle map 40 exceeds a threshold value. It can be determined that In other words, in the successively generated obstacle map 40, it can be determined that the end of the tree row 20R has been detected when the length Le of the area where no object exists beyond the tree row 20R exceeds a threshold value. .
  • the threshold value may be set to a value larger than the interval ⁇ L between two adjacent trees in each tree row 20, for example. The interval ⁇ L is set in advance, and the information is recorded in the storage device 170.
  • control device 180 After detecting the end of the tree row 20R on the turning direction side, the control device 180 sets a turning coordinate system. Control device 180 first determines the origin of the turning coordinate system based on the position of work vehicle 100 when the end of tree row 20R on the turning direction side is detected. For example, the control device 180 may set the position of the work vehicle 100 when the end of the tree row 20R is detected as the origin of the turning coordinate system. Alternatively, a position shifted by a predetermined distance in a predetermined direction from the position of the work vehicle 100 when the end of the tree row 20R is detected may be set as the origin of the turning coordinate system.
  • FIG. 10B illustrates a turning coordinate system ⁇ t whose origin is the position of the work vehicle 100 when the end of the tree row 20R is detected.
  • the turning coordinate system ⁇ t in this example is defined by the y-axis extending from the origin in the traveling direction of the work vehicle 100, and the x-axis extending in a direction parallel to the horizontal plane and perpendicular to the y-axis.
  • the control device 180 estimates the interval Lg between the two tree rows 20R and 20L (that is, the interval between the two approximate straight lines 41R and 41L) based on the obstacle map 40, and determines the interval Lg.
  • An integer multiple (excluding 0) is set as the x-coordinate value px of the target point P.
  • the interval Lg between the tree rows may be a fixed value set in advance.
  • the integer n can be set based on, for example, the minimum turning radius of the work vehicle 100 and the interval Lg between the rows of trees.
  • n may be set to an integer of 1 or more.
  • n may be set to an integer of 2 or more.
  • k is an integer greater than or equal to 1 and twice the minimum turning radius is greater than Lg ⁇ (k ⁇ 1) and less than or equal to Lg ⁇ k
  • n may be set to an integer greater than or equal to k.
  • n may be set to an integer of 3 or more. Note that when the work vehicle 100 turns to the left, n is set to a negative integer.
  • the coefficient n can be set in advance by the user, for example.
  • the control device 180 sets the y-coordinate value of the target point P based on the y-coordinate value of the end of the tree row 20R in the turning coordinate system ⁇ t.
  • the control device 180 may set the y-coordinate value of the end of the tree row 20R in the turning coordinate system ⁇ t as the y-coordinate value py of the target point P.
  • a value obtained by adding or subtracting a predetermined amount to the y-coordinate value of the end of the tree row 20R may be set as the y-coordinate value py of the target point P.
  • control device 180 sets the turning coordinate system ⁇ t based on the obstacle map 40, calculates the lengths Lr and Ll of the tree rows 20R and 20L, and the interval Lg between the tree rows, and adjusts these values to Based on this, the target point, which is the entrance of the passage between the rows of trees to be traveled next, is determined.
  • FIG. 11 is a flowchart showing an example of a process for determining the turning coordinate system and the y-coordinate value py of the target point P.
  • FIG. 12 is a flowchart illustrating an example of a process for determining the x-coordinate value px of the target point P.
  • FIG. 13 is a diagram showing an example of parameters used in the process of determining the target point P.
  • the control device 180 first generates the obstacle map 40 based on sensor data in step S101. As described above, the control device 180 generates the obstacle map 40 by extracting a portion in a predetermined spatial range from the sensor data. In the subsequent step S102, the control device 180 performs processing such as Hough transform on the obstacle map 40 to obtain line segments fr(u, v) corresponding to the tree rows on the left and right of the work vehicle 100, as shown in FIG. ) and fl(u,v). Here, (u, v) represents coordinates in the vehicle coordinate system. In subsequent step S103, the control device 180 acquires information regarding the turning direction (right or left). The turning direction (right or left) is set in advance, and the information is stored in the storage device 170.
  • the turning direction (right or left) is set in advance, and the information is stored in the storage device 170.
  • step S104 the control device 180 calculates the difference Le between the length Lh of the obstacle map 40 and the length Lr or Ll of the line segment corresponding to the tree row on the turning direction side (see FIG. 10A).
  • step S105 the control device 180 determines whether the difference Le is larger than a threshold value. If the difference Le is less than or equal to the threshold, the process returns to step S101. If the difference Le is larger than the threshold value, the process advances to step S106.
  • step S106 the control device 180 sets a turning coordinate system ⁇ t whose origin is the position of the work vehicle 100 at that time.
  • step S107 the control device 180 sets the length Lr or Ll of the line segment corresponding to the row of trees on the turning direction side as the y-coordinate value py of the target point P.
  • py is set in consideration of the deviation. In either case, a value greater than or equal to the y-coordinate value of the end of the tree row on the turning direction side can be set as the y-coordinate value of the target point P.
  • the turning coordinate system and the y-coordinate value py of the target point P are determined.
  • FIG. 12 may be performed at any timing before or after the operation shown in FIG. 11.
  • control device 180 first obtains information regarding the turning direction (right or left) and the number of rows ahead (the above-mentioned coefficient n) in step S201.
  • the turning direction (right or left) and the number of rows ahead to turn are set in advance, and the information is stored in the storage device 170.
  • step S202 the control device 180 determines whether the interval Lg between the tree rows has been set. If the interval Lg between the tree rows has been set in advance, the process advances to step S206. If the interval Lg between the tree rows has not been set, the process advances to step S203.
  • step S203 the control device 180 determines line segments fr(u,v) and fl(u,v) corresponding to the left and right tree rows from the obstacle map 40. Note that if the line segments fr(u,v) and fl(u,v) have already been determined in step S102 shown in FIG. 11, step S203 may be omitted.
  • the control device 180 determines the calculation area length Lc and the calculation resolution.
  • the calculation area length Lc is a numerical value indicating how long a range from the current position of the work vehicle 100 in the traveling direction is to be subjected to calculation.
  • the resolution is a numerical value indicating the degree of spatial resolution in which calculation is performed in terms of the calculation area length.
  • the calculation area length Lc and resolution may be fixed values set in advance, or may be set by the user.
  • step S205 the control device 180 calculates the distances (referred to as "lateral distances") between each of the line segments fr (u, v) and fl (u, v) and the reference position of the work vehicle 100 in the calculation area. Average values Lwr and Lwl are calculated by averaging over the length Lc. Further, the control device 180 calculates the sum Lg of Lwr and Lwl, and sets it as the tree row interval.
  • step S207 the control device 180 determines whether the turning direction is right or left. If the turning direction is to the right, the px calculated in step S206 is set as the x-coordinate value of the target point P. If the turning direction is to the left, the process advances to step S208, and the value obtained by multiplying px by -1 is set as the x-coordinate value of the target point P.
  • the x-coordinate value px of the target point P can be determined.
  • the control device 180 After setting the turning coordinate system ⁇ t and the turning target point P in the inter-row driving mode, the control device 180 switches to the turning driving mode. After setting the coordinate system ⁇ t and the target point P, the control device 180 determines whether turning is possible based on the sensor data output from the LiDAR sensor 140. If the control device 180 determines that turning is possible, it switches to the turning mode. For example, after setting the coordinate system ⁇ t and the target point P in the inter-row driving mode, the control device 180 determines, based on sensor data, that there is a space necessary for turning and that the work vehicle 100 (implement 300 is installed) is available. If it is determined that the vehicle (including the implement 300) has passed the end of the tree row 20R on the turning direction side, the mode is switched to the turning mode.
  • FIG. 14 is a diagram for explaining the operation of work vehicle 100 in the turning travel mode.
  • the control device 180 sets the turning route 46 on the turning coordinate system ⁇ t, and estimates the turning route 46 on the coordinate system ⁇ t based on the sensor data sequentially output from the LiDAR sensor 140.
  • the work vehicle 100 is made to travel along.
  • the control device 180 sets, as the turning route 46, an arcuate path connecting a point P0 where the work vehicle 100 passes the end of the row of trees 20R on the turning direction side and a turning target point P.
  • the turning path 46 is defined by a plurality of waypoints. Each waypoint may include location and orientation information.
  • control device 180 causes work vehicle 100 to travel along turning route 46 while estimating the self-position of work vehicle 100 based on the sensor data.
  • an algorithm such as SLAM may be used for self-position estimation.
  • the control device 180 connects the sequentially generated obstacle maps 40 to create an environmental map covering a relatively wide range, and performs matching between the environmental map and sensor data to estimate the self-position of the work vehicle 100 (i.e., position and direction estimation). Matching may be performed using any matching algorithm, such as NDT (Normal Distribution Transform) or ICP (Iterative Closest Point).
  • Control device 180 performs control to reduce the deviation between the position and orientation of work vehicle 100 and the position and orientation of each waypoint on turning path 46. Thereby, the work vehicle 100 turns toward the target point P along the turning path 46. On the other hand, if there is not enough space for turning on the headland 50, the control device 180 may stop the work vehicle 100 or send a warning to the monitoring terminal device 400.
  • FIG. 15 is a flowchart showing a specific example of a travel control method by the control device 180.
  • the control device 180 can cause the work vehicle 100 to automatically travel between a plurality of tree rows by executing the operations from steps S301 to S321 shown in FIG. 15. The operation of each step will be explained below.
  • the work vehicle 100 In the initial state, the work vehicle 100 is assumed to be located at the entrance of the passage between the first rows of trees, as shown in FIG. 7A or FIG. 7B.
  • the control device 180 Upon receiving the command to start automatic travel, the control device 180 starts the operation in step S301.
  • step S301 the control device 180 causes the work vehicle 100 to travel in inter-row travel mode.
  • the control device 180 performs the following operations.
  • the control device 180 generates the obstacle map 40 based on sensor data output from the LiDAR sensor 140.
  • the obstacle map 40 approximate straight lines of two adjacent tree rows located on both sides of the work vehicle 100 are calculated.
  • the approximate straight line can be calculated by, for example, performing a Hough transform on the obstacle map 40 and extracting two line segments that extend in a direction close to the traveling direction in the vicinity of the work vehicle 100.
  • the control device 180 sets a target route by setting a plurality of waypoints at positions equidistant from the two approximate straight lines.
  • control device 180 performs steering control to reduce the deviation. Thereby, the work vehicle 100 can be driven along the target route between the tree rows.
  • the control device 180 may stop the work vehicle 100 or change the target route midway to avoid the obstacle. Good too. At this time, the control device 180 may send a warning to the monitoring terminal device 400.
  • step S302 the control device 180 executes a process of detecting the end of the tree row based on the obstacle map 40.
  • the control device 180 first performs a Hough transform on the obstacle map 40 and obtains the lengths Lr and Ll (see FIG. 10A) of the two extracted approximate straight lines.
  • the control device 180 determines that the difference Le between the length Lh of the obstacle map 40 and the length Lr or Ll of the approximate straight line corresponding to the turning direction among the two approximate straight lines exceeds a preset threshold value. Determine whether it exceeds the limit. If the difference Le exceeds the threshold value, it is determined that the end of the tree row has been detected.
  • the operations of steps S301 and S302 are repeated until the end of the tree row is detected. When the end of the tree row is detected, the process advances to step S303.
  • step S303 the control device 180 determines whether the tree row whose end has been detected is the last tree row. Whether or not a tree row is the last tree row can be determined based on information about the distribution or number of tree rows stored in the storage device 170 in advance. If the tree row whose end has been detected is the last tree row, the control device 180 ends the work travel by the work vehicle 100. If the tree row whose end has been detected is not the last tree row, the process advances to step S304.
  • step S304 the control device 180 sets the turning coordinate system ⁇ t.
  • the position of the work vehicle 100 at the time when the end of the tree row on the turning direction side is detected is the origin, and the x-axis perpendicular to the traveling direction of the work vehicle 100;
  • a coordinate system defined by the y-axis parallel to the traveling direction is set as a turning coordinate system ⁇ t.
  • step S305 the control device 180 sets the coordinates (px, py) of the turning target point P in the turning coordinate system ⁇ t.
  • the x-coordinate value px of the target point P can be set to a value obtained by multiplying the interval Lg between the tree rows by an integer n.
  • the y-coordinate value py of the target point P may be set to the y-coordinate value of the end of the tree row on the turning direction side or a value higher than that.
  • step S306 the control device 180 determines whether the work vehicle 100 has passed through the row of trees on the turning direction side. An example of this determination process will be described with reference to FIG. 16.
  • FIG. 16 shows an example of a situation where the work vehicle 100 passes through a row of trees.
  • the control device 180 moves the vehicle from the rear end of the work vehicle 100 (the rear end of the implement 300 if the implement 300 is installed) to the turning direction side (in the figure). In the example above, the distance Lsr to the object that is located directly next to the right) is calculated.
  • the control device 180 causes the work vehicle 100 to move the tree line on the turning direction side. It can be determined that it has come off.
  • the control device 180 controls the It may be determined that the vehicle 100 has passed through the row of trees on the turning direction side.
  • the work vehicle 100 continues traveling between the tree rows until it passes through the tree row on the turning direction side, and repeats the determination in step S306. If it is determined that the work vehicle 100 has passed through the row of trees on the turning direction side, the process advances to step S307.
  • step S307 the control device 180 determines whether there is a space necessary for turning. This determination may be made based on the obstacle map 40. As shown in FIG. 14, if the headland 50 between the field boundary 48 and the tree row is wide enough to allow turning, and there are no obstacles that impede turning, there is a space large enough for turning. It is determined that The position (for example, latitude and longitude) of the field boundary 48 may be set by the user in advance and recorded in the storage device 170, for example. Control device 180 determines the area required for turning based on, for example, the position of target point P, the position of turning start point P0, and the sizes of work vehicle 100 and implement 300.
  • the controller 180 can determine that there is a space large enough for the turn. If there is not enough space for turning, the process proceeds to step S321, and the control device 180 stops the work vehicle 100. At this time, a warning signal may be transmitted to an external device such as the monitoring terminal device 400. If there is a space necessary for turning, the process advances to step S308.
  • step S308 the control device 180 sets the turning route 46 and shifts from the inter-row driving mode to the turning driving mode.
  • the turning path 46 may be an arcuate path connecting points P0 and P as shown in FIG. 14, or a path having another trajectory.
  • Control device 180 performs steering control of work vehicle 100 so that work vehicle 100 travels along turning path 46 .
  • control device 180 may perform turning control while estimating the position and orientation of work vehicle 100 in turning coordinate system ⁇ t based on sensor data and an already created obstacle map.
  • a signal output from the GNSS receiver 111 and/or a signal output from the IMU 115 may be used to estimate the position and orientation of the work vehicle 100.
  • control device 180 Since there is a possibility that people or other vehicles may pass through the headland 50, in order to avoid contact, the control device 180 sets the traveling speed of the working vehicle 100 during turning to be lower than the traveling speed when traveling between rows. You can keep it low. If an obstacle is detected during turning, control device 180 may stop work vehicle 100 or change turning route 46 midway to avoid the obstacle.
  • step S309 the control device 180 determines whether the work vehicle 100 has reached the target point P. If the work vehicle 100 has not reached the target point, it continues turning. When the work vehicle 100 reaches the target point, the process advances to step S310, and the control device 180 shifts to the inter-row driving mode. Thereafter, the process returns to step S301 and the same operation is repeated.
  • the work vehicle 100 can automatically travel between rows of trees and turn.
  • a turning coordinate system and a target point are set, and travel control along a turning route is performed based on the turning coordinate system. This makes it possible to smoothly turn to change the traveling train.
  • the target point for turning is set in step S305.
  • the target point is maintained until the turning is completed.
  • Such an operation is effective when the ends of all tree rows are aligned in the y direction, as shown in FIG. 14.
  • the target point may need to be corrected after setting. For example, if there is another tree row on or near the turning route toward the target point P, the work vehicle 100 or the implement 300 will come into contact with the other tree row if the target point P is not changed. There are cases. Assuming such a case, after setting the target point P, the control device 180 may perform a process of correcting the target point P based on sensor data as necessary.
  • FIG. 17A is a diagram showing an example of an operation for correcting the target point P.
  • the fan shape in the figure schematically shows an example of the sensing range of the LiDAR sensor 140.
  • the control device 180 modifies the y-coordinate value of the target point P to a value greater than or equal to the y-coordinate value of the end of the other tree row 20C. Accordingly, the control device 180 corrects the turning route from the route indicated by the black circle in the figure to the route indicated by the white circle. Thereby, contact between the work vehicle 100 or the implement 300 and the other tree row 20C can be avoided.
  • FIG. 17B is a diagram showing another example of the operation of correcting the target point P.
  • the control device 180 corrects the y-coordinate value of the target point P to a value greater than or equal to the y-coordinate value of the end of the other tree row 20C during the turn. Accordingly, the control device 180 corrects the turning route 46 from the route indicated by the black circle in the figure to the route indicated by the white circle. Thereby, contact between the work vehicle 100 or the implement 300 and the other tree row 20C can be avoided.
  • the control device 180 may enlarge the size of the obstacle map 40 after setting the turning coordinate system ⁇ t. By enlarging the size of the obstacle map 40, it becomes easier to detect obstacles such as other tree rows 20C.
  • FIG. 18A is a diagram for explaining an example of an operation for correcting the target point P using the enlarged obstacle map 40.
  • the horizontal size of the obstacle map 40 is expanded to 1.5 times the size in the previous example.
  • the size may be expanded not only in the horizontal direction but also in the vertical direction.
  • the magnification rate is not limited to 1.5 times, but may be, for example, 2 times or more.
  • the control device 180 detects objects existing within the range of the obstacle map 40 as obstacles. By enlarging the size of the obstacle map 40, the spatial range of objects detected as obstacles is enlarged.
  • the work vehicle 100 before passing through the end of the nearest tree row 20R on the turning direction side (right side), the work vehicle 100 detects another tree row 20C located to the right based on the obstacle map 40. .
  • the control device 180 extracts line segments corresponding to the tree row 20C by performing processing such as Hough transform on the obstacle map 40. Let the length of this line segment be Lc.
  • the control device 180 is located at a position further away from the position of the work vehicle 100 in the turning direction than the distance Lwr from the tree row 20R closest to the work vehicle 100, and has a length that is approximately parallel to the y-axis and exceeds a predetermined length. If a line segment is detected, the y-coordinate value py of the target point P is updated.
  • control device 180 sets the value obtained by adding the length Lc of the detected line segment to the travel distance Lt of the work vehicle 100 from the origin in the turning coordinate system ⁇ t as the y-coordinate value of the target point P. do. Thereby, the target point P is appropriately corrected.
  • FIG. 18B is a diagram for explaining another example of the operation of correcting the target point.
  • the work vehicle 100 corrects the target point P when detecting another tree row 20C while turning.
  • the control device 180 creates a line segment with a length exceeding a predetermined length in the obstacle map 40 at a position where the x-coordinate value in the turning coordinate system ⁇ t is smaller than the x-coordinate value px of the target point P. If detected, the y-coordinate value py of the target point P is updated.
  • the control device 180 converts the position coordinates (u1, v1) of the end of the line segment in the obstacle map 40 expressed in the vehicle coordinate system into the position coordinates (x1, y1) in the turning coordinate system ⁇ t. Convert.
  • the control device 180 corrects the y-coordinate value py of the target point P to a value greater than or equal to the y-coordinate value y1 of the end of the tree row 20C. Thereby, the target point P is appropriately corrected.
  • FIG. 19 is a flowchart illustrating an example of the operation of the control device 180 when performing the correction process for the target point P described above.
  • the flowchart shown in FIG. 19 is the same as the flowchart shown in FIG. 15 except that steps S331, S332, S341, and S342 are added.
  • step S331 the control device 180 determines whether there is another row of trees that impedes turning based on the obstacle map. If there are no other tree rows that impede turning, the process returns to step S306. If there are other tree rows that impede turning, the process advances to step S332.
  • step S332 control device 180 modifies the target point.
  • the determination method in step S331 and the target point correction method in step S332 are as described with reference to FIGS. 17A and 18A. By adding the processes of steps S331 and S332, the y-coordinate value of the target point can be corrected as necessary before turning.
  • step S341 the control device 180 determines whether there is another row of trees that impedes turning based on the obstacle map. If there are no other tree rows that impede turning, the process advances to step S309. If there are other tree rows that impede turning, the process advances to step S342.
  • step S342 control device 180 corrects the target point.
  • the determination method in step S341 and the target point correction method in step S342 are as described with reference to FIG. 17B and FIG. 18B.
  • the control device 180 also corrects the turning route as the position of the target point is corrected. By adding the processes of steps S341 and S342, the y-coordinate value of the target point can be corrected as necessary during turning, and the work vehicle 100 or the implement 300 can be prevented from coming into contact with other tree rows. can.
  • the position of the target point P may be corrected according to the positional relationship between the ends of other tree rows and the target point P.
  • the control device 180 detects the end of another row of trees based on sensor data during turning, and in the turning coordinate system ⁇ t, the x-coordinate value of the end of the other row of trees is the x-coordinate of the target point.
  • the y-coordinate value of the end of another tree row is larger than the y-coordinate value of the target point, update the y-coordinate value of the target point with a value that is greater than or equal to the y-coordinate value of the end of the other tree row. You may.
  • the target point P is modified, but contact with other tree rows may be avoided by modifying the turning route 46 without modifying the target point P.
  • the control device 180 may detect a tree row other than two adjacent tree rows based on the sensor data, and then control the , the turning path may be modified.
  • FIG. 20 is a diagram showing an example in which the turning route 46 is corrected while maintaining the target point P.
  • the controller 180 corrects the turning route 46 without correcting the target point P.
  • contact between the work vehicle 100 and the other tree rows 20C can be avoided by simply modifying the turning route 46 without modifying the target point P. . In that case, it is effective to apply the operation shown in FIG. 20.
  • the method of setting the target point for turning travel is not limited to the above method, and other methods may be adopted. For example, if the height of the crop row is low and the surrounding environment of the turning destination road can be sensed using the LiDAR sensor 140, an environmental map is generated based on the sensor data, and the target point is determined based on the environmental map. May be set. An example of such an operation will be described below.
  • FIG. 21 is a flowchart illustrating an example of a method for setting a target point based on an environmental map.
  • steps S106 and S107 in the flowchart shown in FIG. 11 are replaced with steps S406, S407, and S408.
  • the operations in steps S101 to S105 are the same as the operations in the corresponding steps in FIG.
  • control device 180 sets a turning coordinate system having the position of work vehicle 100 as its origin, and starts generating an environmental map.
  • the environment map may be a point cloud map or an occupancy grid map expressed in a rotating coordinate system.
  • the environmental map can be generated by processing sequentially generated sensor data (or obstacle maps) that undergoes coordinate transformation and then is stitched together. For example, an algorithm such as SLAM may be used to generate the environmental map.
  • step S407 the control device 180 determines whether the work vehicle 100 has passed the end of the row of trees on the turning direction side. This determination process is the same as the process shown in step S306 shown in FIG. 15. Until it is determined that the work vehicle 100 has passed the end of the tree row on the turning direction side, the work vehicle 100 continues to generate an environmental map based on sensor data while traveling between the tree rows. If it is determined that the work vehicle 100 has passed the end of the row of trees on the turning direction side, the process advances to step S408.
  • step S408 the control device 180 sets the position (px, py) of the target point based on the environmental map expressed in the rotation coordinate system. For example, the control device 180 determines the x-coordinate value px of the target point based on information regarding a preset turning direction and how many rows ahead (n) to turn, and the spacing between tree rows estimated from the environmental map. can be set. The control device 180 can further set the y-coordinate value py of the target point based on the distribution of tree rows shown on the environmental map.
  • the y-coordinate value py of the target point is set to a value greater than or equal to the y-coordinate value of the tip of the row of trees that is located on the side of the work vehicle 100 and closest to the travel route when viewed from the travel route for the next inter-row run. can be done.
  • control device 180 sets a turning route from the current position of the work vehicle 100 to the target point position (px, py), and causes the work vehicle 100 to travel along the turning route.
  • control device 180 performs steering control to minimize the deviation between the position and orientation of work vehicle 100 and the turning route while estimating its own position by matching sensor data with an environmental map. Thereby, the work vehicle 100 can be turned toward the target point.
  • the one or more external sensors provided in the work vehicle are LiDAR sensors that output two-dimensional or three-dimensional point cloud data as sensor data by scanning with a laser beam.
  • external sensors are not limited to such LiDAR sensors.
  • other types of sensors such as flash-type LiDAR sensors or image sensors may be utilized.
  • Such other types of sensors may also be utilized in combination with scanning LiDAR sensors.
  • the work vehicle automatically travels between a plurality of rows of trees in an orchard, but the work vehicle may also be used to automatically travel between rows of crops other than rows of trees.
  • the technology of the present disclosure may be applied to a work vehicle such as a tractor that automatically moves between multiple rows of crops in a field.
  • the device that executes the processes necessary for automatic travel of the work vehicle in the above embodiments can also be later attached to a work vehicle that does not have these functions.
  • a control unit that controls the operation of a work vehicle that travels between a plurality of crop rows can be used by being attached to the work vehicle.
  • the present disclosure includes the work vehicle and the method of controlling the work vehicle described in the following items.
  • a work vehicle that automatically travels between multiple rows of crops, an external sensor that outputs sensor data indicating a distribution of features around the work vehicle; a control device that controls automatic travel of the work vehicle; Equipped with The control device includes: detecting two rows of crops existing on both sides of the work vehicle based on the sensor data; driving the work vehicle along a path between the two crop rows; When the end of at least one of the two crop rows corresponding to the turning direction is detected based on the sensor data while traveling, a coordinate system fixed to the ground for turning travel; , and setting a target point for the turning run; controlling the turning movement toward the target point based on the coordinate system; work vehicle.
  • the control device includes: While the work vehicle is traveling between the two crop rows, sequentially generating an obstacle map having a predetermined length and width based on the sensor data, Based on the obstacle map, estimating the length of the crop row on the side corresponding to the turning direction among the two crop rows within the obstacle map; detecting an end of the crop row based on a difference between a length of the obstacle map and a length of the crop row within the obstacle map; Work vehicle described in item 1.
  • control device determines that an end of the crop row has been detected when a difference between the length of the obstacle map and the length of the crop row in the obstacle map exceeds a threshold. Work vehicle mentioned.
  • the coordinate system is defined by a y-axis extending from the origin in the direction of travel of the work vehicle traveling between the two crop rows, and an x-axis extending in a direction parallel to a horizontal plane and perpendicular to the y-axis.
  • the control device estimates an interval between the two crop rows based on the sensor data, setting an integer multiple of the interval as the x-coordinate value of the target point; Work vehicle described in item 4.
  • the coordinate system is defined by a y-axis extending from the origin in the direction of travel of the work vehicle traveling between the two crop rows, and an x-axis extending in a direction parallel to a horizontal plane and perpendicular to the y-axis.
  • the work vehicle according to item 4 wherein the control device sets the y-coordinate value of the end of the crop row in the coordinate system as the y-coordinate value of the target point.
  • the control device After setting the target point, the control device detects an end of another crop row based on the sensor data, and in the coordinate system, the x-coordinate value of the end of the other crop row is set to the target point. If the x-coordinate value of the point is smaller than the y-coordinate value of the end of the other crop row and the y-coordinate value of the end of the other crop row is larger than the y-coordinate value of the target point, the y-coordinate value of the target point is The work vehicle according to item 8, which is updated with a y-coordinate value.
  • the control device includes: operating in an inter-row driving mode in which the working vehicle travels along a route between the two crop rows, and a turning driving mode in which the working vehicle turns around a headland;
  • the inter-row traveling mode the two rows of crops are detected based on the sensor data sequentially output from the external sensor, and the work vehicle is moved between the two rows of crops while setting the route between the two rows of crops. run along the route
  • the turning mode a turning route is set on the coordinate system, and the vehicle moves along the turning route while estimating its own position on the coordinate system based on the sensor data sequentially output from the external sensor.
  • drive a work vehicle The work vehicle described in any of items 1 to 9.
  • the control device After setting the coordinate system and the target point in the inter-row driving mode, the control device determines whether or not a turn is possible based on the sensor data, and determines that a turn is possible. In this case, the work vehicle according to item 11 switches to the turning mode.
  • the control device After setting the coordinate system and the target point in the inter-row driving mode, the control device determines, based on the sensor data, that there is a space necessary for the turning and that the work vehicle crosses the edge of the crop row.
  • a method for controlling a work vehicle that automatically travels between multiple rows of crops comprising: Detecting two rows of crops existing on both sides of the work vehicle based on sensor data output from an external sensor mounted on the work vehicle; traveling the work vehicle along a path between the two crop rows; When the end of at least one of the two crop rows corresponding to the turning direction is detected based on the sensor data while traveling, a coordinate system fixed to the ground for turning travel; , and setting a target point for the turning trip, and controlling the turning trip toward the target point based on the coordinate system.
  • control methods including.
  • the technology of the present disclosure can be applied to a work vehicle such as a tractor that moves in an environment where multiple rows of crops (for example, rows of trees) exist, such as an orchard, a field, or a mountain forest.
  • a work vehicle such as a tractor that moves in an environment where multiple rows of crops (for example, rows of trees) exist, such as an orchard, a field, or a mountain forest.
  • Signal processing circuit 147... Memory, 150... Sensor group, 152... Steering wheel sensor, 154... Turning angle sensor, 156... Axle sensor, 160... Control system, 170... Storage device, 180... Control device, 181-184... ECU, 190... Communication device, 200... Operation terminal, 210... Operation switch group, 240... - Drive device, 300... Implement, 340... Drive device, 380... Control device, 390... Communication device, 400... Terminal device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Guiding Agricultural Machines (AREA)

Abstract

作業車両は、複数の作物列の間で自動走行を行う。前記作業車両は、前記作業車両の周辺の地物の分布を示すセンサデータを出力する外界センサと、前記作業車両の自動走行を制御する制御装置とを備える。前記制御装置は、前記センサデータに基づいて前記作業車両の両側に存在する2つの作物列を検出し、前記2つの作物列の間の経路に沿って前記作業車両を走行させる。前記制御装置は、走行中、前記センサデータに基づいて、前記2つの作物列のうち、少なくとも旋回方向に対応する側の作物列の端を検出した場合、旋回走行のための、地面に対して固定された座標系、および前記旋回走行の目標地点を設定する。前記制御装置は、前記座標系に基づいて、前記目標地点に向かう前記旋回走行を制御する。

Description

作業車両、および作業車両の制御方法
 本開示は、作業車両、および作業車両の制御方法に関する。
 次世代農業として、ICT(Information and Communication Technology)およびIoT(Internet of Things)を活用したスマート農業の研究開発が進められている。圃場で使用されるトラクタなどの作業車両の自動化および無人化に向けた研究開発も進められている。例えば、精密な測位が可能なGNSS(Global Navigation Satellite System)などの測位システムを利用して自動操舵で走行する作業車両が実用化されてきた。
 一方、LiDAR(Light Detection and Ranging)などの距離センサを利用して自律的に移動する移動体の開発も進められている。例えば特許文献1は、LiDARを利用して圃場における作物列の間を自動走行する作業車両の例を開示している。
特開2019-154379号公報
 ぶどう園(vineyard)などの果樹園、または森林などの、樹木または作物が高い密度で分布する環境では、樹木の上部で生い茂る葉が樹冠(canopy)を形成し、衛星からの電波にとって障害物または多重反射体として働く。このような環境では、GNSSによる正確な測位が困難である。GNSSを利用できない環境においては、位置推定と地図作成とを同時に実行するSLAM(Simultaneous Localization and Mapping)を利用することが考えられる。しかし、SLAMを利用して多数の樹木が存在する環境内を自動で走行する作業車両の実用化には様々な課題が存在する。例えば、季節の変化によって樹木の葉部の分布が大きく変化するため、過去に作成された地図を継続して使用することができないといった課題がある。
 本開示の例示的な実施形態による作業車両は、複数の作物列の間で自動走行を行う。前記作業車両は、前記作業車両の周辺の地物の分布を示すセンサデータを出力する外界センサと、前記作業車両の自動走行を制御する制御装置とを備える。前記制御装置は、前記センサデータに基づいて前記作業車両の両側に存在する2つの作物列を検出し、前記2つの作物列の間の経路に沿って前記作業車両を走行させる。前記制御装置は、走行中、前記センサデータに基づいて、前記2つの作物列のうち、少なくとも旋回方向に対応する側の作物列の端を検出した場合、旋回走行のための、地面に対して固定された座標系、および前記旋回走行の目標地点を設定する。前記制御装置は、前記座標系に基づいて、前記目標地点に向かう前記旋回走行を制御する。
 本開示の包括的または具体的な態様は、装置、システム、方法、集積回路、コンピュータプログラム、もしくはコンピュータが読み取り可能な非一時的記憶媒体、またはこれらの任意の組み合わせによって実現され得る。コンピュータが読み取り可能な記憶媒体は、揮発性の記憶媒体を含んでいてもよいし、不揮発性の記憶媒体を含んでいてもよい。装置は、複数の装置で構成されていてもよい。装置が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されてもよいし、分離した2つ以上の機器内に分かれて配置されていてもよい。
 本開示の実施形態によれば、GNSSによる測位が困難な果樹園または森林等の環境においても、複数の作物列(例えば樹木列)の間で円滑に自動走行を行う作業車両を実現することができる。
作業車両、および作業車両に連結されたインプルメントの例を模式的に示す側面図である。 作業車両およびインプルメントの構成例を示すブロック図である。 LiDARセンサを作業車両の側面方向から見た場合の模式図である。 LiDARセンサを鉛直上方から見た場合の模式図である。 LiDARセンサの構成例を示すブロック図である。 作業車両が走行する環境の一例を模式的に示す図である。 作業車両の周囲の環境の例を模式的に示す斜視図である。 作業車両の走行経路の一例を模式的に示す図である。 作業車両の走行経路の他の例を模式的に示す図である。 列間走行モードにおける作業車両の走行制御方法を説明するための図である。 障害物マップの一例を示す図である。 障害物マップの他の例を示す図である。 障害物マップに基づいて2つの樹木列を検出する処理を説明するための図である。 旋回座標系および目標地点の設定方法の例を説明するための図である。 旋回座標系および目標地点の設定方法の例を説明するための他の図である。 旋回座標系および目標地点のy座標値を決定する処理の一例を示すフローチャートである。 目標地点のx座標値を決定する処理の一例を示すフローチャートである。 目標地点を決定する処理において用いられるパラメータの例を示す図である。 旋回走行モードにおける作業車両の動作を説明するための図である。 制御装置による走行制御方法の具体例を示すフローチャートである。 作業車両が樹木列を抜けた状況の例を示す図である。 目標地点を修正する動作の一例を示す図である。 目標地点を修正する動作の他の例を示す図である。 拡大された障害物マップを用いて目標地点を修正する動作の例を説明するための図である。 目標地点を修正する動作の他の例を説明するための図である。 目標地点の修正処理を行う場合における制御装置の動作の例を示すフローチャートである。 目標地点を維持したまま旋回経路が修正される例を示す図である。 環境地図に基づいて目標地点を設定する方法の一例を示すフローチャートである。
 (用語の定義)
 本開示において「作業車両」は、作業地で作業を行うために使用される車両を意味する。「作業地」は、例えば圃場、山林、または建設現場等の、作業が行われ得る任意の場所である。「圃場」は、例えば果樹園、畑、水田、穀物農場、または牧草地等の、農作業が行われ得る任意の場所である。作業車両は、例えばトラクタ、田植機、コンバイン、乗用管理機、もしくは乗用草刈機などの農業機械、または、建設作業車もしくは除雪車などの、農業以外の用途で使用される車両であり得る。作業車両は、その前部および後部の少なくとも一方に、作業内容に応じたインプルメント(「作業機」または「作業装置」とも呼ばれる。)を装着できるように構成され得る。作業車両がインプルメントを用いて作業を行いながら走行することを「作業走行」と称することがある。
 「自動運転」は、運転者による手動操作によらず、制御装置の働きによって車両の走行を制御することを意味する。自動運転中、車両の走行だけでなく、作業の動作(例えばインプルメントの動作)も自動で制御されてもよい。自動運転によって車両が走行することを「自動走行」と称する。制御装置は、車両の走行に必要な操舵、走行速度の調整、走行の開始および停止の少なくとも一つを制御し得る。インプルメントが装着された作業車両を制御する場合、制御装置は、インプルメントの昇降、インプルメントの動作の開始および停止などの動作を制御してもよい。自動運転による走行には、車両が所定の経路に沿って目的地に向かう走行のみならず、追尾目標に追従する走行も含まれ得る。自動運転を行う車両は、部分的にユーザの指示に基づいて走行してもよい。また、自動運転を行う車両は、自動運転モードに加えて、運転者の手動操作によって走行する手動運転モードで動作してもよい。手動によらず、制御装置の働きによって車両の操舵を行うことを「自動操舵」と称する。制御装置の一部または全部が車両の外部にあってもよい。車両の外部にある制御装置と車両との間では、制御信号、コマンド、またはデータなどの通信が行われ得る。自動運転を行う車両は、人がその車両の走行の制御に関与することなく、周囲の環境をセンシングしながら自律的に走行してもよい。自律的な走行が可能な車両は、無人で走行することができる。自律走行中に、障害物の検出および障害物の回避動作が行われ得る。
 「外界センサ」は、作業車両の外部の状態をセンシングするセンサである。外界センサの例は、LiDARセンサ、カメラ(またはイメージセンサ)、レーザレンジファインダ(「測域センサ」ともいう)、超音波センサ、ミリ波レーダ、および磁気センサを含む。
 「作物列」は、果樹園または畑などの圃場、または森林等において列を成して生えている農作物、樹木、その他の植物の列である。本開示における「作物列」は「樹木列」を含む概念である。
 「障害物マップ」は、作業車両の周辺に存在する物の位置または領域を所定の座標系で表現した局所的な地図のデータである。障害物マップを規定する座標系は、例えば作業車両に固定された車両座標系、または地球に対して固定されたワールド座標系(例えば地理座標系)であり得る。障害物マップは、作業車両の周辺に存在する物について、位置以外の情報(例えば属性情報)を含んでいてもよい。障害物マップは、例えば格子地図または点群地図などの様々な形式で表現され得る。
 (実施形態)
 以下、本開示の実施形態を説明する。ただし、必要以上に詳細な説明は省略することがある。例えば、既によく知られた事項の詳細な説明および実質的に同一の構成に関する重複する説明を省略することがある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、発明者は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。以下の説明において、同一または類似の機能を有する構成要素については、同一の参照符号を付している。
 以下の実施形態は例示であり、本開示の技術は以下の実施形態に限定されない。例えば、以下の実施形態で示される数値、形状、材料、ステップ、ステップの順序などは、あくまでも一例であり、技術的に矛盾が生じない限りにおいて種々の改変が可能である。また、一の態様と他の態様とを組み合わせることが可能である。
 以下、一例として、作業車両が果樹園等の圃場における農作業に用いられるトラクタである場合の実施形態を説明する。本開示の技術は、トラクタに限らず、例えば、田植機、コンバイン、乗用管理機、乗用芝刈り機などの他の種類の農業機械にも適用することができる。本開示の技術は、さらに、建設作業車または除雪車などの、農業以外の用途で使用される作業車両にも適用することができる。
 [1.構成]
 図1は、作業車両100、および作業車両100に連結されたインプルメント300の例を模式的に示す側面図である。本実施形態における作業車両100は、手動運転モードと自動運転モードの両方で動作することができる。自動運転モードにおいて、作業車両100は無人で走行することができる。作業車両100は、例えばぶどう園などの果樹園、または畑のように、複数の作物列(例えば樹木列)が植えられている環境で自動走行を行う。
 図1に示すように、作業車両100は、車体101と、原動機(エンジン)102と、変速装置(トランスミッション)103とを備える。車体101には、タイヤ付き車輪104を含む走行装置と、キャビン105とが設けられている。走行装置は、4つの車輪104と、4つの車輪を回転させる車軸、および各車軸の制動を行う制動装置(ブレーキ)を含む。車輪104は、一対の前輪104Fと一対の後輪104Rとを含む。キャビン105の内部に運転席107、操舵装置106、操作端末200、および操作のためのスイッチ群が設けられている。前輪104Fおよび後輪104Rの一方または両方は、タイヤ付き車輪ではなく無限軌道(track)を装着した複数の車輪(クローラ)に置き換えられてもよい。
 作業車両100は、作業車両100の周囲をセンシングする複数の外界センサを備える。図1の例では、外界センサは、複数のLiDARセンサ140と、複数のカメラ120と、複数の障害物センサ130とを含む。
 カメラ120は、例えば作業車両100の前後左右に設けられ得る。カメラ120は、作業車両100の周囲の環境を撮影し、画像データを生成する。カメラ120が取得した画像は、例えば遠隔監視を行うための端末装置に送信され得る。当該画像は、無人運転時に作業車両100を監視するために用いられ得る。カメラ120は必要に応じて設けられ、その個数は任意である。
 LiDARセンサ140は、作業車両100の周辺の地物の分布を示すセンサデータを出力する外界センサの一例である。図1の例では、2つのLiDARセンサ140が、キャビン105上の前部および後部に配置されている。LiDARセンサ140は、他の位置(例えば、車体101の前面下部など)に設けられていてもよい。各LiDARセンサ140は、作業車両100が走行している間、周囲の環境に存在する物体の各計測点までの距離および方向、または各計測点の2次元もしくは3次元の座標値を示すセンサデータを繰り返し出力する。LiDARセンサ140の個数は2個に限らず、1個または3個以上でもよい。
 LiDARセンサ140は、2次元または3次元の点群データをセンサデータとして出力するように構成され得る。本明細書において「点群データ」は、LiDARセンサ140によって観測される複数の反射点の分布を示すデータを広く意味する。点群データは、例えば、2次元空間または3次元空間における各反射点の座標値、または各反射点の距離および方向を示す情報を含み得る。点群データは、各反射点の輝度の情報を含んでいてもよい。LiDARセンサ140は、例えば予め設定された周期で点群データを繰り返し出力するように構成され得る。このように、外界センサは、点群データをセンサデータとして出力する1つ以上のLiDARセンサ140を含み得る。
 LiDARセンサ140から出力されたセンサデータは、作業車両100の自動走行を制御する制御装置によって処理される。制御装置は、作業車両100の走行中、LiDARセンサ140から出力されるセンサデータに基づいて、作業車両100の周辺に存在する物体の分布を示す障害物マップを逐次生成することができる。制御装置は、例えばSLAMなどのアルゴリズムを利用して、自動走行中に障害物マップを繋ぎ合わせて環境地図を生成することもできる。制御装置は、センサデータと環境地図とのマッチングにより、作業車両100の位置および向きの推定(すなわち自己位置推定)を行うこともできる。
 図1に示す複数の障害物センサ130は、キャビン105の前部および後部に設けられている。障害物センサ130は、他の部位にも配置され得る。例えば、車体101の側部、前部、および後部の任意の位置に、1つまたは複数の障害物センサ130が設けられ得る。障害物センサ130は、例えばレーザスキャナまたは超音波ソナーを含み得る。障害物センサ130は、自動走行時に周囲の障害物を検出して作業車両100を停止したり迂回したりするために用いられる。
 作業車両100は、さらに、GNSSユニット110を備える。GNSSは、GPS(Global Positioning System)、QZSS(Quasi-Zenith Satellite System、例えばみちびき)、GLONASS、Galileo、およびBeiDouなどの衛星測位システムの総称である。GNSSユニット110は、複数のGNSS衛星から送信される衛星信号(GNSS信号とも称する。)を受信し、衛星信号に基づいて測位を行う。本実施形態におけるGNSSユニット110は、キャビン105の上部に設けられているが、他の位置に設けられていてもよい。GNSSユニット110は、GNSS衛星からの信号を受信するアンテナと、処理回路とを備える。本実施形態における作業車両100は、例えばぶどう園のように、複数の樹木が生い茂り、GNSSを利用しにくい環境で使用される。そのような環境では、主にLiDARセンサ140を利用して測位が行われる。しかし、GNSS信号を受信可能な環境ではGNSSユニット110を利用して測位を行ってもよい。LiDARセンサ140による測位とGNSSユニット110による測位とを組み合わせることにより、測位の安定性または精度を向上させることができる。
 GNSSユニット110は、慣性計測装置(IMU)を含み得る。IMUからの信号を利用して位置データを補完することができる。IMUは、作業車両100の傾きおよび微小な動きを計測することができる。IMUによって取得されたデータを用いて、衛星信号に基づく位置データを補完することにより、測位の性能を向上させることができる。
 原動機102は、例えばディーゼルエンジンであり得る。ディーゼルエンジンに代えて電動モータが使用されてもよい。変速装置103は、変速によって作業車両100の推進力および移動速度を変化させることができる。変速装置103は、作業車両100の前進と後進とを切り換えることもできる。
 操舵装置106は、ステアリングホイールと、ステアリングホイールに接続されたステアリングシャフトと、ステアリングホイールによる操舵を補助するパワーステアリング装置とを含む。前輪104Fは操舵輪であり、その切れ角(「操舵角」とも称する。)を変化させることにより、作業車両100の走行方向を変化させることができる。前輪104Fの操舵角は、ステアリングホイールを操作することによって変化させることができる。パワーステアリング装置は、前輪104Fの操舵角を変化させるための補助力を供給する油圧装置または電動モータを含む。自動操舵が行われるときには、作業車両100内に配置された制御装置からの制御により、油圧装置または電動モータの力によって操舵角が自動で調整される。
 車体101の後部には、連結装置108が設けられている。連結装置108は、例えば3点支持装置(「3点リンク」または「3点ヒッチ」とも呼ばれる。)、PTO(Power Take Off)軸、ユニバーサルジョイント、および通信ケーブルを含む。連結装置108によってインプルメント300を作業車両100に着脱することができる。連結装置108は、例えば油圧装置によって3点リンクを昇降させ、インプルメント300の位置または姿勢を変化させることができる。また、ユニバーサルジョイントを介して作業車両100からインプルメント300に動力を送ることができる。作業車両100は、インプルメント300を引きながら、インプルメント300に所定の作業を実行させることができる。連結装置は、車体101の前方に設けられていてもよい。その場合、作業車両100の前方にインプルメントを接続することができる。
 図1に示すインプルメント300は、作物に薬剤を噴霧するスプレイヤであるが、インプルメント300はスプレイヤに限定されない。例えば、モーア(草刈機)、シーダ(播種機)、スプレッダ(施肥機)、レーキ、ベーラ(集草機)、ハーベスタ(収穫機)、プラウ、ハロー、またはロータリなどの、任意の作業機を作業車両100に接続して使用することができる。
 図1に示す作業車両100は、有人運転が可能であるが、無人運転のみに対応していてもよい。その場合には、キャビン105、操舵装置106、および運転席107などの、有人運転にのみ必要な構成要素は、作業車両100に設けられていなくてもよい。無人の作業車両100は、自律走行、またはユーザによる遠隔操作によって走行することができる。
 図2は、作業車両100およびインプルメント300の構成例を示すブロック図である。作業車両100とインプルメント300は、連結装置108に含まれる通信ケーブルを介して互いに通信することができる。作業車両100は、ネットワーク80を介して、遠隔監視のための端末装置400と通信することもできる。端末装置400は、例えばパーソナルコンピュータ(PC)、ラップトップコンピュータ、タブレットコンピュータ、またはスマートフォン等の任意のコンピュータである。
 図2の例における作業車両100は、GNSSユニット110、カメラ120、障害物センサ130、LiDARセンサ140、および操作端末200に加え、作業車両100の動作状態を検出するセンサ群150、走行制御システム160、通信装置190、操作スイッチ群210、および駆動装置240を備える。これらの構成要素は、バスを介して相互に通信可能に接続される。
 GNSSユニット110は、GNSS受信機111と、RTK受信機112と、慣性計測装置(IMU)115と、処理回路116とを備える。センサ群150は、ステアリングホイールセンサ152と、切れ角センサ154、車軸センサ156とを含む。走行制御システム160は、記憶装置170と、制御装置180とを備える。制御装置180は、複数の電子制御ユニット(ECU)181から184を備える。インプルメント300は、駆動装置340と、制御装置380と、通信装置390とを備える。なお、図2には、作業車両100による自動運転の動作との関連性が相対的に高い構成要素が示されており、それ以外の構成要素の図示は省略されている。
 GNSSユニット110におけるGNSS受信機111は、複数のGNSS衛星から送信される衛星信号を受信し、衛星信号に基づいてGNSSデータを生成する。GNSSデータは、例えばNMEA-0183フォーマットなどの所定のフォーマットで生成される。GNSSデータは、例えば、衛星信号が受信されたそれぞれの衛星の識別番号、仰角、方位角、および受信強度を示す値を含み得る。
 GNSSユニット110は、RTK(Real Time Kinematic)-GNSSを利用して作業車両100の測位を行ってもよい。RTK-GNSSによる測位では、複数のGNSS衛星から送信される衛星信号に加えて、基準局から送信される補正信号が利用される。基準局は、作業車両100が作業走行を行う作業地の付近(例えば、作業車両100から10km以内の位置)に設置され得る。基準局は、複数のGNSS衛星から受信した衛星信号に基づいて、例えばRTCMフォーマットの補正信号を生成し、GNSSユニット110に送信する。RTK受信機112は、アンテナおよびモデムを含み、基準局から送信される補正信号を受信する。GNSSユニット110の処理回路116は、補正信号に基づき、GNSS受信機111による測位結果を補正する。RTK-GNSSを用いることにより、例えば誤差数cmの精度で測位を行うことが可能である。緯度、経度、および高度の情報を含む位置情報が、RTK-GNSSによる高精度の測位によって取得される。GNSSユニット110は、例えば1秒間に1回から10回程度の頻度で、作業車両100の位置を計算する。なお、測位方法はRTK-GNSSに限らず、必要な精度の位置情報が得られる任意の測位方法(干渉測位法または相対測位法など)を用いることができる。例えば、VRS(Virtual Reference Station)またはDGPS(Differential Global Positioning System)を利用した測位が行われてもよい。
 本実施形態におけるGNSSユニット110は、さらにIMU115を備える。IMU115は、3軸加速度センサおよび3軸ジャイロスコープを備え得る。IMU115は、3軸地磁気センサなどの方位センサを備えていてもよい。IMU115は、モーションセンサとして機能し、作業車両100の加速度、速度、変位、および姿勢などの諸量を示す信号を出力することができる。処理回路116は、衛星信号および補正信号に加えて、IMU115から出力された信号に基づいて、作業車両100の位置および向きをより高い精度で推定することができる。IMU115から出力された信号は、衛星信号および補正信号に基づいて計算される位置の補正または補完に用いられ得る。IMU115は、GNSS受信機111よりも高い頻度で信号を出力する。例えば、IMU115は、毎秒数十回から数千回程度の頻度で信号を出力する。その高頻度の信号を利用して、処理回路116は、作業車両100の位置および向きをより高い頻度(例えば、10Hz以上)で計測することができる。IMU115に代えて、3軸加速度センサおよび3軸ジャイロスコープを別々に設けてもよい。IMU115は、GNSSユニット110とは別の装置として設けられていてもよい。
 カメラ120は、作業車両100の周囲の環境を撮影する撮像装置である。カメラ120は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサを備える。カメラ120は、他にも、1つ以上のレンズを含む光学系、および信号処理回路を備え得る。カメラ120は、作業車両100の走行中、作業車両100の周囲の環境を撮影し、画像(例えば動画)のデータを生成する。カメラ120は、例えば、3フレーム/秒(fps: frames per second)以上のフレームレートで動画を撮影することができる。カメラ120によって生成された画像は、例えば遠隔の監視者が端末装置400を用いて作業車両100の周囲の環境を確認するときに利用され得る。カメラ120によって生成された画像は、測位または障害物の検出に利用されてもよい。図1に示すように、複数のカメラ120が作業車両100の異なる位置に設けられていてもよいし、単数のカメラが設けられていてもよい。可視光画像を生成する可視カメラと、赤外線画像を生成する赤外カメラとが別々に設けられていてもよい。可視カメラと赤外カメラの両方が監視用の画像を生成するカメラとして設けられていてもよい。赤外カメラは、夜間において障害物の検出にも用いられ得る。
 障害物センサ130は、作業車両100の周囲に存在する物体を検出する。障害物センサ130は、例えばレーザスキャナまたは超音波ソナーを含み得る。障害物センサ130は、障害物センサ130から所定の距離よりも近くに物体が存在する場合に、障害物が存在することを示す信号を出力する。複数の障害物センサ130が作業車両100の異なる位置に設けられていてもよい。例えば、複数のレーザスキャナと、複数の超音波ソナーとが、作業車両100の異なる位置に配置されていてもよい。そのような多くの障害物センサ130を備えることにより、作業車両100の周囲の障害物の監視における死角を減らすことができる。
 ステアリングホイールセンサ152は、作業車両100のステアリングホイールの回転角を計測する。切れ角センサ154は、操舵輪である前輪104Fの切れ角を計測する。ステアリングホイールセンサ152および切れ角センサ154による計測値は、制御装置180による操舵制御に利用され得る。
 車軸センサ156は、車輪104に接続された車軸の回転速度、すなわち単位時間あたりの回転数を計測する。車軸センサ156は、例えば磁気抵抗素子(MR)、ホール素子、または電磁ピックアップを利用したセンサであり得る。車軸センサ156は、例えば、車軸の1分あたりの回転数(単位:rpm)を示す数値を出力する。車軸センサ156は、作業車両100の速度を計測するために使用される。車軸センサ156による計測値は、制御装置180による速度制御に利用され得る。
 駆動装置240は、前述の原動機102、変速装置103、操舵装置106、および連結装置108などの、作業車両100の走行およびインプルメント300の駆動に必要な各種の装置を含む。原動機102は、例えばディーゼル機関などの内燃機関を備え得る。駆動装置240は、内燃機関に代えて、あるいは内燃機関とともに、トラクション用の電動モータを備えていてもよい。
 記憶装置170は、フラッシュメモリまたは磁気ディスクなどの1つ以上の記憶媒体を含む。記憶装置170は、GNSSユニット110、カメラ120、障害物センサ130、LiDARセンサ140、センサ群150、および制御装置180が生成する各種のデータを記憶する。記憶装置170が記憶するデータには、作業車両100が走行する環境内の環境地図、走行中に逐次生成される障害物マップ、および自動運転のための経路データが含まれ得る。記憶装置170は、制御装置180における各ECUに、後述する各種の動作を実行させるコンピュータプログラムも記憶する。そのようなコンピュータプログラムは、記憶媒体(例えば半導体メモリまたは光ディスク等)または電気通信回線(例えばインターネット)を介して作業車両100に提供され得る。そのようなコンピュータプログラムが、商用ソフトウェアとして販売されてもよい。
 制御装置180は、複数のECUを含む。複数のECUは、例えば、速度制御用のECU181、ステアリング制御用のECU182、インプルメント制御用のECU183、自動運転制御用のECU184を含む。
 ECU181は、駆動装置240に含まれる原動機102、変速装置103、およびブレーキを制御することによって作業車両100の速度を制御する。
 ECU182は、ステアリングホイールセンサ152の計測値に基づいて、操舵装置106に含まれる油圧装置または電動モータを制御することによって作業車両100のステアリングを制御する。
 ECU183は、インプルメント300に所望の動作を実行させるために、連結装置108に含まれる3点リンクおよびPTO軸などの動作を制御する。ECU183はまた、インプルメント300の動作を制御する信号を生成し、その信号を通信装置190からインプルメント300に送信する。
 ECU184は、GNSSユニット110、カメラ120、障害物センサ130、LiDARセンサ140、およびセンサ群150から出力されたデータに基づいて、自動運転を実現するための演算および制御を行う。例えば、ECU184は、GNSSユニット110、カメラ120、およびLiDARセンサ140の少なくとも1つから出力されたデータに基づいて、作業車両100の位置を推定する。GNSS衛星からの衛星信号の受信強度が十分に高い状況では、ECU184は、GNSSユニット110から出力されたデータのみに基づいて作業車両100の位置を決定してもよい。一方、果樹園のように、作業車両100の周囲に衛星信号の受信を妨げる樹木などの遮蔽物が存在する環境では、ECU184は、LiDARセンサ140またはカメラ120から出力されるデータを利用して作業車両100の位置を推定する。自動運転中、ECU184は、推定された作業車両100の位置に基づいて、目標経路に沿って作業車両100が走行するために必要な演算を行う。ECU184は、ECU181に速度変更の指令を送り、ECU182に操舵角変更の指令を送る。ECU181は、速度変更の指令に応答して原動機102、変速装置103、またはブレーキを制御することによって作業車両100の速度を変化させる。ECU182は、操舵角変更の指令に応答して操舵装置106を制御することによって操舵角を変化させる。
 これらのECUの働きにより、制御装置180は、自動走行を実現する。自動走行時において、制御装置180は、計測または推定された作業車両100の位置と、逐次生成した目標経路とに基づいて、駆動装置240を制御する。これにより、制御装置180は、作業車両100を目標経路に沿って走行させることができる。
 制御装置180に含まれる複数のECUは、例えばCAN(Controller Area Network)などのビークルバス規格に従って、相互に通信することができる。CANに代えて、車載イーサネット(登録商標)などの、より高速の通信方式が用いられてもよい。図2において、ECU181から184のそれぞれは、個別のブロックとして示されているが、これらのそれぞれの機能が、複数のECUによって実現されていてもよい。ECU181から184の少なくとも一部の機能を統合した車載コンピュータが設けられていてもよい。制御装置180は、ECU181から184以外のECUを備えていてもよく、機能に応じて任意の個数のECUが設けられ得る。各ECUは、1つ以上のプロセッサを含む処理回路を備える。
 通信装置190は、インプルメント300および端末装置400と通信を行う回路を含む装置である。通信装置190は、例えばISOBUS-TIM等のISOBUS規格に準拠した信号の送受信を、インプルメント300の通信装置390との間で実行する回路を含む。これにより、インプルメント300に所望の動作を実行させたり、インプルメント300から情報を取得したりすることができる。通信装置190は、さらに、ネットワーク80を介した信号の送受信を、端末装置400との間で実行するためのアンテナおよび通信回路を含み得る。ネットワーク80は、例えば、3G、4Gもしくは5Gなどのセルラー移動体通信網およびインターネットを含み得る。通信装置190は、作業車両100の近くにいる監視者が使用する携帯端末と通信する機能を備えていてもよい。そのような携帯端末との間では、Wi-Fi(登録商標)、3G、4Gもしくは5Gなどのセルラー移動体通信、またはBluetooth(登録商標)などの、任意の無線通信規格に準拠した通信が行われ得る。
 操作端末200は、作業車両100の走行およびインプルメント300の動作に関する操作をユーザが実行するための端末であり、バーチャルターミナル(VT)とも称される。操作端末200は、タッチスクリーンなどの表示装置、および/または1つ以上のボタンを備え得る。表示装置は、例えば液晶または有機発光ダイオード(OLED)などのディスプレイであり得る。ユーザは、操作端末200を操作することにより、例えば自動運転モードのオン/オフの切り替え、およびインプルメント300のオン/オフの切り替えなどの種々の操作を実行することができる。これらの操作の少なくとも一部は、操作スイッチ群210を操作することによっても実現され得る。操作端末200は、作業車両100から取り外せるように構成されていてもよい。作業車両100から離れた場所にいるユーザが、取り外された操作端末200を操作して作業車両100の動作を制御してもよい。
 図2に示すインプルメント300における駆動装置340は、インプルメント300が所定の作業を実行するために必要な動作を行う。駆動装置340は、例えば油圧装置、電動モータ、またはポンプなどの、インプルメント300の用途に応じた装置を含む。制御装置380は、駆動装置340の動作を制御する。制御装置380は、通信装置390を介して作業車両100から送信された信号に応答して、駆動装置340に各種の動作を実行させる。また、インプルメント300の状態に応じた信号を通信装置390から作業車両100に送信することもできる。
 次に、図3Aおよび図3Bを参照して、LiDARセンサ140の構成例を説明する。本実施形態におけるLiDARセンサ140は、レーザビームのスキャンによって空間中の物体の距離分布の情報を取得可能なスキャン型のセンサである。図3Aは、LiDARセンサ140を作業車両100の側面方向から見た場合の模式図である。図3Bは、LiDARセンサ140を鉛直上方から見た場合の模式図である。図3Aおよび図3Bには、LiDARセンサ140に固定されたセンサ座標系における互いに直交する3つの軸u、v、wが示されている。図3Aおよび図3Bにおいて放射状に延びる複数の直線は、LiDARセンサ140から出射されるレーザビームの中心軸(あるいは進行方向)を模式的に表している。各レーザビームは、平行光にコリメートされているが、数ミリラジアン(例えば0.1~0.2度)の拡がり角度を有している。このため、各レーザビームの断面サイズ(スポット径)は、LiDARセンサ140からの距離に比例して拡大する。例えば、LiDARセンサ140から20メートル先で直径が数センチメートルの光スポットが形成され得る。図では、簡単のため、レーザビームの広がりは無視し、レーザビームの中心軸のみが記載されている。
 図3Aに示す例におけるLiDARセンサ140は、縦方向に配列された複数のレーザ光源から、それぞれ、異なる仰角でレーザビームを出射することができる。仰角は、uv面に対する角度によって定義される。この例において、uv面は水平面にほぼ平行である。なお、地面(地表)が水平面に対して傾斜している場合は、uv面と水平面とが交差する。図3Aには、N本のレーザビームL、・・・、Lが出射されている様子が示されている。ここで「N」は、1以上の整数であり、例えば10以上、高性能な機種では64、あるいは100以上であり得る。複数のレーザビームのうち、下からk番目のレーザビームの仰角をθとする。図3Aには、一例として、N-1番目のレーザビームの仰角θN-1が示されている。uv面よりも上方に向かうレーザビームの仰角を「正の仰角」とし、uv面よりも下方に向かうレーザビームの仰角を「負の仰角」とする。
 Nが1であるLiDARセンサを「2次元LiDAR」と称し、Nが2以上であるLiDARセンサを「3次元LiDAR」と称する場合がある。Nが2以上の場合、1番目のレーザビームとN番目のレーザビームとのなす角度を、「垂直視野角」と称する。垂直視野角は、例えば20°から60°程度の範囲内に設定され得る。
 LiDARセンサ140は、図3Bに示すように、レーザビームの出射方向(例えば方位角)を変化させることができる。図3Bには、図3Aに示す複数のレーザビームの出射方向が、w軸に平行な回転軸の周りに回転している様子が示されている。レーザビームの出射方向(方位角)の範囲は360°であってもよいし、360°よりも小さい角度の範囲(例えば210°または270°等)であってもよい。レーザビームの出射方向の方位角の範囲を「水平視野角」と称する。水平視野角は、例えば90°から360°程度の範囲内に設定され得る。LiDARセンサ140は、レーザビームの出射方向をw軸に平行な回転軸の周りに回転させながら、異なる方位角の方向にパルス状のレーザ光(レーザパルス)を順次出射する。こうして、異なる仰角および異なる方位角に出射されるパルス状のレーザ光により、各反射点までの距離を計測することが可能になる。各反射点は、点群データに含まれる個々の点に相当する。レーザビームの方位角が回転軸の周りに一回転する間に反射点までの距離を測定する動作を1スキャンと称する。1スキャンによって得られるセンサデータは、図3Aに示す特定の仰角に対応付けられたレイヤごとに測定されるデータを含む。従って、レイヤの数が増加するほど、同一環境に対する1スキャンによって得られる点群中の点の個数は増加する。LiDARセンサ140は、例えば1秒あたり1回から20回程度の頻度でスキャン動作を繰り返す。1スキャンの動作中に例えば10万パルス以上のレーザ光が異なる方向に出射され得る。
 図4は、LiDARセンサ140の構成例を示すブロック図である。図4に示すLiDARセンサ140は、複数のレーザユニット141と、電動モータ144と、制御回路145と、信号処理回路146と、メモリ147とを備える。各レーザユニット141は、レーザ光源142と、光検出器143とを備える。各レーザユニット141は、レンズおよびミラーなどの光学系を含み得るが、それらの図示は省略されている。モータ144は、例えば、各レーザ光源142から出射されるレーザビームの光路上に配置されたミラーを回転させることにより、各レーザ光源142から出射されるレーザビームの方向を変化させる。
 レーザ光源142は、レーザダイオードを含み、制御回路145からの指令に応答して所定の波長のパルス状のレーザビームを出射する。レーザビームの波長は、例えば近赤外線の波長域(およそ700nmから2.5μm)に含まれる波長であり得る。使用される波長は、光検出器143に使用される光電変換素子の材料に依存する。例えばシリコン(Si)を光電変換素子の材料として用いる場合、900nm前後の波長が主に使用され得る。インジウムガリウム砒素(InGaAs)を光電変換素子の材料として用いる場合、例えば1000nm以上1650nm以下の波長が使用され得る。なお、レーザビームの波長は、近赤外線の波長域に限定されない。環境光の影響が問題にならない用途(例えば夜間用等)においては、可視域(およそ400nmから700nm)に含まれる波長を使用してもよい。用途によっては紫外線の波長域を使用することも可能である。本明細書において、紫外線、可視光、および赤外線の波長域に含まれる放射全般を「光」と称する。
 光検出器143は、レーザ光源142から出射され、物体で反射または散乱されたレーザパルスを検出する装置である。光検出器143は、例えばアバランシェフォトダイオード(APD)などの光電変換素子を備える。光検出器143は、受光量に応じた電気信号を出力する。
 モータ144は、制御回路145からの指令に応答して各レーザ光源142から出射されるレーザビームの光路上に配置されたミラーを回転させる。これにより、レーザビームの出射方向を変化させるスキャン動作が実現される。
 制御回路145は、レーザ光源142によるレーザパルスの出射、光検出器143による反射パルスの検出、およびモータ144による回転動作を制御する。制御回路145は、例えばマイクロコントローラユニット(MCU)などの、プロセッサを備える回路によって実現され得る。
 信号処理回路146は、光検出器143から出力された信号に基づく演算を行う回路である。信号処理回路146は、例えばToF(Time of Flight)法によって各レーザ光源142から出射されたレーザパルスを反射した物体までの距離を計算する。ToF法には、直接ToF法と間接ToF法とがある。直接ToF法においては、レーザ光源142からレーザパルスが出射されてから光検出器143によって反射光が受光されるまでの時間を直接計測することにより、反射点までの距離を計算する。間接ToF法においては、光検出器143に複数の露光期間が設定され、各露光期間で検出された光量の比に基づいて各反射点までの距離が計算される。直接ToF法および間接ToF法のいずれの方法も用いられ得る。信号処理回路146は、例えば、各反射点までの距離と、その反射点の方向とを示すセンサデータを生成して出力する。信号処理回路146は、さらに、各反射点までの距離と、その反射点の方向とに基づいて、センサ座標系における座標(u,v)または(u,v,w)を計算し、センサデータに含めて出力してもよい。
 制御回路145および信号処理回路146は、図4の例では2つの回路に分かれているが、1つの回路によって実現されていてもよい。
 メモリ147は、制御回路145および信号処理回路146によって生成されるデータを記憶する記憶媒体である。メモリ147は、例えば、各レーザユニット141から出射されるレーザパルスの出射タイミングと、出射方向と、反射光強度と、反射点までの距離と、センサ座標系における座標(u,v)または(u,v,w)とを関連付けたデータを記憶する。そのようなデータが、レーザパルスが出射される度に生成され、メモリ147に記録される。制御回路145は、所定の周期(例えば、所定回数のパルス出射に要する時間、半スキャン周期、または1スキャン周期等)で当該データを出力する。出力されたデータは、作業車両100の記憶装置170に記録される。
 LiDARセンサ140は、例えば毎秒1回から20回程度の頻度で、センサデータを出力する。このセンサデータは、センサ座標系で表現された複数の点の座標と、タイムスタンプの情報とを含み得る。なお、センサデータが各反射点までの距離および方向の情報を含み、座標情報を含まない場合もある。その場合は、制御装置180が距離および方向の情報から座標情報への変換を行う。
 距離計測の方法はToF法に限らず、FMCW(Frequency Modulated Continuous Wave)法などの他の方法を用いてもよい。FMCW法においては、周波数を線形的に変化させた光が出射され、出射光と反射光との干渉で生じるビートの周波数に基づいて距離が計算される。
 上記のように、本実施形態におけるLiDARセンサ140は、レーザビームのスキャンによって空間中の物体の距離分布の情報を取得するスキャン型のセンサである。しかし、LiDARセンサ140は、スキャン型のセンサに限定されない。例えば、LiDARセンサ140は、広範囲に拡散する光を利用して空間中の物体の距離分布の情報を取得するフラッシュ型のセンサであってもよい。スキャン型のLiDARセンサは、フラッシュ型のLiDARセンサよりも高い強度の光を使用するため、より遠方の距離情報を取得することができる。一方、フラッシュ型のLiDARセンサは、構造が簡単であり、低いコストで製造できるため、強い光を必要としない用途に適している。
 [2.動作]
 次に、作業車両100の動作を説明する。
 図5は、作業車両100が走行する環境の一例を模式的に示す図である。図6は、作業車両100の周囲の環境の例を模式的に示す斜視図である。この例では、作業車両100は、ぶどう園などの果樹園における複数の樹木列20(すなわち作物列)の間を走行しながら、インプルメント300を用いて所定の作業(例えば、薬剤散布、草刈り、防除、その他)を行う。果樹園では、上空が枝および葉で遮られ、GNSSを用いた自動走行が難しい。GNSSを利用できない環境においては、事前に作成された環境地図とセンサデータとのマッチングによって自己位置推定を行いながら走行することが考えられる。しかし、果樹園等の圃場では、樹木その他の作物の葉または垣根等の外形が季節によって大きく変化し得るため、事前に作成された環境地図を継続的に使用することが難しい。また、従来の自動運転農機においては、作物列の位置、圃場の形状、枕地エリアの位置といった情報が事前に設定され、それらの情報に基づいて自動走行のための経路が生成される。しかし、広大な圃場では、事前に作物列の位置を設定することは重労働である。
 そこで、本実施形態における制御装置180は、LiDARセンサ140から出力されたセンサデータに基づいて作業車両100の両側に存在する2つの作物列を検出し、それらの2つの作物列の間の経路に沿って作業車両100を走行させる。制御装置180は、さらに、センサデータに基づいて作物列の端を検出すると、旋回走行のための座標系と旋回走行の目標地点とを設定し、当該座標系に基づいて、作業車両100を目標地点に向かって旋回させる。このような動作により、上記の課題を解決し、複数の作物列の間の自動走行および旋回を円滑に行うことが可能になる。
 図7Aは、作業車両100の走行経路30の一例を模式的に示す図である。作業車両100は、図示されるような経路30で、樹木列20の間を走行する。図7Aでは、経路30に含まれる線分が直線状に記載されているが、作業車両100が実際に走行する経路は、蛇行部分を含んでいてもよい。ここで、複数の樹木列20を、端から順に第1の樹木列20A、第2の樹木列20B、第3の樹木列20C、第4の樹木列20D、・・・と順序付けする。図7Aの例では、作業車両100は、第1の樹木列20Aと第2の樹木列20Bとの間をまず走行し、その走行が完了すると、右に旋回して第2の樹木列20Bと第3の樹木列20Cとの間を逆向きに走行する。第2の樹木列20Bと第3の樹木列20Cとの間の走行が完了すると、さらに左に旋回して第3の樹木列20Cと第4の樹木列20Dとの間を走行する。以後、同様の動作を繰り返すことにより、最後の2つの樹木列の間の経路30の終端まで走行する。なお、隣り合う2つの樹木列の間隔が短い場合は、図7Bに示すように、1列おきに走行してもよい。この場合、最後の2つの樹木列の間の走行が完了した後、まだ走行していない樹木列間を1列おきに走行する動作が実行され得る。このような走行は、作業車両100がLiDARセンサ140から出力されるセンサデータに基づいて自動で行う。
 なお、GNSSユニット110がGNSS信号を受信できるタイミングにおいては、GNSS信号に基づいて測位を行ってもよい。例えば、図7Aおよび図7Bに示す経路30において方向転換するタイミングでは、GNSS信号を遮る葉が存在しないことから、GNSS信号に基づく測位が可能である。
 本実施形態における作業車両100の制御装置180は、隣り合う2つの樹木列の間の経路に沿って作業車両100を走行させる列間走行モードと、枕地(headland)で作業車両100を旋回させる旋回走行モードとで動作する。枕地は、各樹木列の端と、果樹園の境界との間の領域である。列間走行モードにおいて、制御装置180は、LiDARセンサ140から逐次出力されるセンサデータに基づいて、作業車両100の両側に存在する2つの樹木列を検出し、当該2つの樹木列の間に経路を設定しながら作業車両100を当該経路に沿って走行させる。制御装置180は、隣り合う2つの樹木列のうち、少なくとも旋回方向(右または左)に対応する側の樹木列の端を検出すると、旋回走行のための座標系および旋回の目標地点を設定する。以下、旋回走行のための座標系を「旋回座標系」と称することがある。旋回座標系は、地面に対して固定された座標系であり、旋回走行の制御において用いられる。目標地点は、次の列間走行の入口の地点である。旋回座標系および旋回の目標地点の設定後、作業車両100が樹木列の端まで到達すると、旋回走行モードに移行する。旋回走行モードにおいて、制御装置180は、旋回座標系上に設定した旋回経路に沿って作業車両100を走行させる。具体的には、制御装置180は、LiDARセンサ140から逐次出力されるセンサデータに基づいて、旋回座標系上で作業車両100の自己位置推定を行いながら、旋回経路に沿って作業車両100を走行させる。旋回走行モードにおいて、制御装置180は、センサデータに加えて、GNSS受信機111から出力される信号、および/またはIMU115から出力される信号を利用して測位を行ってもよい。作業車両100が旋回の目標地点に到達すると、再び列間走行モードに移行する。以後、同様の動作が、最後の列間走行が終了するまで繰り返される。以上の動作により、複数の樹木列20間の自動走行が実現される。以上の制御は、制御装置180におけるECU184によって実行される。
 図8は、列間走行モードにおける作業車両100の走行制御方法を説明するための図である。作業車両100は、隣り合う2つの樹木列20R、20Lの間を走行しながら、LiDARセンサ140を用いて周囲の環境をレーザビームでスキャンする。これにより、環境内に存在する物体の距離分布を示すデータが取得される。距離分布を示すデータは、例えば2次元または3次元の点群データに変換されてセンサデータとして出力される。作業車両100の走行中、制御装置180は、LiDARセンサ140から出力されるセンサデータに基づいて障害物マップ40を逐次生成する。障害物マップ40は、作業車両100に固定された車両座標系における物体の分布を示す。障害物マップ40は、所定の長さLhおよび幅Lwを有する。長さLhは、作業車両100の進行方向に対応する縦方向のサイズである。幅Lwは、作業車両100の進行方向および鉛直方向の両方に垂直な横方向のサイズである。
 図8に示す例において、制御装置180は、障害物マップ40に基づいて、作業車両100の両側に存在する2つの樹木列20R、20Lを検出する。具体的には、制御装置180は、障害物マップ40にハフ変換などの処理を行い、樹木列20R、20Lの近似直線(線分)41R、41Lを求める。制御装置180は、それらの近似直線41R、41Lの間(例えば中央)に目標経路45を設定する。なお、樹木列20R、20Lにおける複数の樹木が曲線状に分布している場合、制御装置180は、近似直線ではなく近似曲線を求め、それらの近似曲線の間に目標経路45を設定してもよい。目標経路45は、作業車両100の位置を起点とする比較的短い範囲(例えば数メートル程度の範囲)内に設定され得る。目標経路45は、複数のウェイポイントによって規定され得る。各ウェイポイントは、作業車両100が通過すべき地点の位置および向き(または速度)の情報を含み得る。ウェイポイントの間隔は、例えば、数十センチメートル(cm)から数メートル(m)程度の値に設定され得る。制御装置180は、設定した目標経路45に沿って作業車両100を走行させる。例えば、制御装置180は、目標経路45に対する作業車両100の位置および向きのずれを最小化するように作業車両100の操舵制御を行う。これにより、作業車両100を目標経路45に沿って走行させることができる。
 図8に示す障害物マップ40は、2次元的に配列された複数のグリッドを有する占有格子地図である。図8には16×16=256個のグリッドが例示されているが、グリッド数は任意である。障害物マップ40は、図示される例に限らず、例えば、作業車両100の周辺に存在する地物の3次元分布を示す地図(例えばボクセルマップ)であってもよい。あるいは、障害物マップ40は、点群地図等の他の形式の地図データであってもよい。
 制御装置180は、LiDARセンサ140から出力されたセンサデータから、地面および雑草等の不要な物体に該当すると推定される点のデータを除去することによって障害物マップ40を生成してもよい。3次元点群データがセンサデータとして出力される場合、制御装置180は、当該点群データの中から、地面からの高さが所定の範囲内(例えば0.1mから1.5mの範囲内等)にある点のデータのみを抽出し、抽出した点のデータから障害物マップを生成してもよい。そのような方法により、樹木(主に幹部)の分布を示す障害物マップを生成することができる。
 図9Aは、センサデータに基づいて生成される障害物マップ40の一例を示す図である。図9Aに示す障害物マップ40では、物体が存在するグリッドが黒く、物体が存在しないグリッドが白く表現されている。黒いグリッドは、樹木の幹または葉などの物体が存在することを表している。障害物マップ40は、例えば、物体が存在するグリッドに数値「1」が、物体が存在しないグリッドに数値「0」が付与されたデータによって表現され得る。制御装置180は、LiDARセンサ140が1周期分のスキャンで取得したセンサデータに基づいて、図9Aに示すような障害物マップ40を逐次生成するように構成され得る。1周期のスキャンごとに、障害物マップ40が更新され得る。障害物マップ40は、図示されるような2次元的な位置情報だけでなく、地面または水平面からの高さの情報を含んでいてもよい。制御装置180は、高さが所定の範囲内にある点のみを抽出することによって樹木列の分布を示す障害物マップ40を生成してもよい。制御装置180は、複数のLiDARセンサ140から出力されたセンサデータを合成して1つの障害物マップ40を生成してもよい。例えば、作業車両100の前後に配置された2つのLiDARセンサ140(図1参照)から出力されたセンサデータを合成して1つの障害物マップ40を生成してもよい。あるいは、複数周期分のセンサデータを合成して1つの障害物マップを生成してもよい。図9Aの例では、障害物マップ40の長さLhと幅Lwとが等しいが、長さLhと幅Lwとが異なっていてもよい。例えば図9Bに示す例のように、障害物マップ40の長さLhが幅Lwよりも長くてもよい。
 制御装置180は、障害物マップ40に基づいて、作業車両100の両側に存在する2つの樹木列20R、20Lを検出する。例えば、図9Cに示すように、制御装置180は、作業車両100の進行方向に沿って分布する複数の点の列から、2本の近似直線41R、41L(または近似曲線)を求めることによって2つの樹木列20R、20Lを検出することができる。
 再び図8を参照する。列間走行モードによる走行中、制御装置180は、センサデータに基づいて、2つの樹木列20R、20Lのうち、少なくとも旋回方向に対応する側の樹木列の端を検出した場合、旋回走行モードに移行するための処理を実行する。例えば旋回方向が右である場合、制御装置180は、右側の樹木列20Rの端を検出した後、旋回走行モードに移行するための処理を実行する。具体的には、制御装置180は、旋回方向に対応する側の樹木列20Rの端を検出した場合、旋回走行のための座標系(旋回座標系)および旋回走行の目標地点を設定する。旋回走行の目標地点は、旋回走行の終着地点であり、例えば次の列間走行の開始地点である。制御装置180は、樹木列20R、20Lの間隔と、旋回方向側の樹木列20Rの端の位置とに基づいて、旋回座標系における目標地点の位置座標を決定する。旋回座標系および目標地点の設定後、制御装置180は、旋回座標系に基づいて、作業車両100を目標地点に向かって旋回させる。
 図10Aおよび図10Bは、旋回座標系および目標地点の設定方法の例を説明するための図である。図10Aに示す例において、作業車両100は、樹木列20R、20Lの間の通路を走行すると、右に旋回し、次の樹木列間の通路に向かう。制御装置180は、走行中、障害物マップ40に基づいて、2つの樹木列20R、20Lのうち、少なくとも旋回方向に対応する側の樹木列20Rの障害物マップ40内での長さLrを推定する。制御装置180は、樹木列20R、20Lの近似直線41R、41Lの長さを、樹木列20R、20Lの障害物マップ40内での長さLr、Llとして推定することができる。制御装置180は、障害物マップ40の長さLhと、旋回方向側の樹木列20Rの障害物マップ40内での長さLrとの差Leに基づいて、樹木列20Rの端を検出する。例えば、制御装置180は、障害物マップ40の長さLhと、障害物マップ40内での樹木列20Rの長さLrとの差Leが閾値を超えたとき、樹木列20Rの端が検出されたと判定することができる。言い換えれば、逐次生成される障害物マップ40において、樹木列20Rの先の物体が存在しない領域の長さLeが閾値を超えた時点で、樹木列20Rの端が検出されたと判定することができる。閾値は、例えば各樹木列20における隣り合う2つの樹木の間隔ΔLよりも大きい値に設定され得る。間隔ΔLは、予め設定されており、記憶装置170にその情報が記録されている。
 制御装置180は、旋回方向側の樹木列20Rの端を検出した後、旋回座標系を設定する。制御装置180は、まず、旋回方向側の樹木列20Rの端が検出されたときの作業車両100の位置に基づいて旋回座標系の原点を決定する。例えば、制御装置180は、樹木列20Rの端が検出されたときの作業車両100の位置を旋回座標系の原点として設定してもよい。あるいは、樹木列20Rの端が検出されたときの作業車両100の位置から所定の方向に所定の距離だけシフトした位置を旋回座標系の原点として設定してもよい。
 図10Bには、樹木列20Rの端が検出されたときの作業車両100の位置を原点とする旋回座標系Σtが例示されている。この例における旋回座標系Σtは、原点から、作業車両100の進行方向に延びるy軸と、水平面に平行かつy軸に垂直な方向に延びるx軸とによって規定される。制御装置180は、旋回座標系Σtを設定すると、障害物マップ40に基づいて、2つの樹木列20R、20Lの間隔(すなわち2つの近似直線41R、41Lの間隔)Lgを推定し、間隔Lgの整数倍(ただし0を除く)を、目標地点Pのx座標値pxとして設定する。すなわち、nを0以外の整数として、px=Lg×nの演算を行うことによって目標地点Pのx座標値pxを決定する。なお、樹木列の間隔Lgは予め設定された固定値であってもよい。図10Bの例では、n=2であり、px=2Lgである。n=1の場合、作業車両100は、隣の樹木列間の通路に向かって旋回する。n=2の場合、作業車両100は、2つ隣の樹木列間の通路に向かって旋回する。整数nは、例えば作業車両100の最小旋回半径と、樹木列の間隔Lgとに基づいて設定され得る。最小旋回半径の2倍(直径)が樹木列の間隔Lg以下である場合、nは1以上の整数に設定され得る。最小旋回半径の2倍がLgよりも大きく2Lg以下の場合、nは2以上の整数に設定され得る。このように、kを1以上の整数として、最小旋回半径の2倍が、Lg×(k-1)よりも大きく、Lg×k以下の場合、nはk以上の整数に設定され得る。nは3以上の整数に設定されてもよい。なお、作業車両100が左に旋回する場合、nは負の整数に設定される。係数nは、例えばユーザによって予め設定され得る。
 図10Bの例において、制御装置180は、旋回座標系Σtにおける樹木列20Rの端のy座標値に基づいて、目標地点Pのy座標値を設定する。例えば、制御装置180は、旋回座標系Σtにおける樹木列20Rの端のy座標値を、目標地点Pのy座標値pyとして設定してもよい。あるいは、樹木列20Rの端のy座標値に所定量を加算または減算した値を、目標地点Pのy座標値pyとして設定してもよい。
 このように、制御装置180は、障害物マップ40に基づいて、旋回座標系Σtを設定し、樹木列20R、20Lの長さLr、Llおよび樹木列の間隔Lgを算出し、それらの値に基づいて、次に走行する樹木列間の通路の入口である目標地点を決定する。
 ここで、図11から図13を参照しながら、旋回座標系および目標地点Pの位置を決定する処理をより具体的に説明する。図11は、旋回座標系および目標地点Pのy座標値pyを決定する処理の一例を示すフローチャートである。図12は、目標地点Pのx座標値pxを決定する処理の一例を示すフローチャートである。図13は、目標地点Pを決定する処理において用いられるパラメータの例を示す図である。
 図11の例において、制御装置180は、まずステップS101において、センサデータに基づいて障害物マップ40を生成する。制御装置180は、前述のように、センサデータから、所定の空間範囲の部分を抽出することによって障害物マップ40を生成する。続くステップS102において、制御装置180は、障害物マップ40にハフ変換等の処理を行うことにより、図13に示すように、作業車両100の左右の樹木列に対応する線分fr(u,v)およびfl(u,v)を決定する。ここで(u,v)は、車両座標系における座標を表す。続くステップS103において、制御装置180は、旋回方向(右または左)に関する情報を取得する。旋回方向(右または左)は、予め設定されており、記憶装置170にその情報が格納されている。
 ステップS104において、制御装置180は、障害物マップ40の長さLhと、旋回方向側の樹木列に対応する線分の長さLrまたはLlとの差Leを算出する(図10A参照)。続くステップS105において、制御装置180は、差Leが閾値よりも大きいか否かを判定する。差Leが閾値以下である場合、ステップS101に戻る。差Leが閾値よりも大きい場合、ステップS106に進む。
 ステップS106において、制御装置180は、そのときの作業車両100の位置を原点とする旋回座標系Σtを設定する。続くステップS107において、制御装置180は、旋回方向側の樹木列に対応する線分の長さLrまたはLlを、目標地点Pのy座標値pyとして設定する。なお、障害物マップ40において、作業車両100の位置が障害物マップ40の中央下端部からずれている場合は、そのずれを考慮してpyが設定される。いずれの場合も、旋回方向側にある樹木列の端のy座標値以上の値が、目標地点Pのy座標値として設定され得る。
 以上の動作により、旋回座標系および目標地点Pのy座標値pyが決定される。
 次に、図12を参照しながら、目標地点Pのx座標値pxを決定する方法の具体例を説明する。図12に示す動作は、図11に示す動作の前後のいずれのタイミングで行われてもよい。
 図12の例において、制御装置180は、まずステップS201において、旋回方向(右または左)および何列先に旋回するか(前述の係数n)に関する情報を取得する。旋回方向(右または左)および何列先に旋回するかは、予め設定されており、記憶装置170にその情報が格納されている。
 続くステップS202において、制御装置180は、樹木列の間隔Lgが設定済みであるか否かを判定する。樹木列の間隔Lgが予め設定されている場合は、ステップS206に進む。樹木列の間隔Lgが設定されていない場合は、ステップS203に進む。
 ステップS203において、制御装置180は、障害物マップ40から左右の樹木列に対応する線分fr(u,v)およびfl(u,v)を決定する。なお、図11に示すステップS102において既に線分fr(u,v)およびfl(u,v)が決定されている場合、ステップS203は省略され得る。
 続くステップS204において、制御装置180は、計算エリア長Lcおよび計算の分解能を決定する。計算エリア長Lcは、作業車両100の現在の位置から、進行方向に向かってどの程度の長さの範囲を計算の対象にするかを示す数値である。分解能は、計算エリア長においてどの程度の空間分解能で計算を行うかを示す数値である。計算エリア長Lcおよび分解能は、予め設定された固定値であってもよいし、ユーザによって設定されてもよい。
 ステップS205において、制御装置180は、線分fr(u,v)およびfl(u,v)のそれぞれと、作業車両100の基準位置との距離(「横方向距離」と称する。)を計算エリア長Lcにわたって平均化して平均値Lwr、Lwlを計算する。さらに、制御装置180は、LwrとLwlとの和Lgを計算し、それを樹木列間隔とする。
 ステップS206において、制御装置180は、樹木列間隔Lgに係数nを乗じて、目標地点Pのx座標値pxを計算する。すなわち、px=Lg×nの計算を行い、pxを決定する。
 続くステップS207において、制御装置180は、旋回方向が右であるか左であるかを判定する。旋回方向が右である場合は、ステップS206で計算したpxを目標地点Pのx座標値とする。旋回方向が左である場合は、ステップS208に進み、pxに-1を乗じた値を目標地点Pのx座標値とする。
 以上の動作により、目標地点Pのx座標値pxを決定することができる。
 制御装置180は、列間走行モードにおいて旋回座標系Σtおよび旋回の目標地点Pを設定した後、旋回走行モードに切り替える。制御装置180は、座標系Σtおよび目標地点Pを設定した後、LiDARセンサ140から出力されるセンサデータに基づいて、旋回が可能であるか否かを判定する。制御装置180は、旋回が可能であると判定した場合、旋回走行モードに切り替える。例えば、制御装置180は、列間走行モードにおいて座標系Σtおよび目標地点Pを設定した後、センサデータに基づいて、旋回に必要なスペースがあり、かつ作業車両100(インプルメント300が装着されている場合、インプルメント300も含む)が旋回方向側の樹木列20Rの端を通過したと判定した場合、旋回走行モードに切り替える。
 図14は、旋回走行モードにおける作業車両100の動作を説明するための図である。旋回走行モードにおいて、制御装置180は、旋回座標系Σt上で旋回経路46を設定し、LiDARセンサ140から逐次出力されるセンサデータに基づいて座標系Σt上で自己位置推定を行いながら旋回経路46に沿って作業車両100を走行させる。制御装置180は、例えば、作業車両100が旋回方向側の樹木列20Rの端を抜けた地点P0と、旋回の目標地点Pとを結ぶ円弧状の経路を旋回経路46として設定する。旋回経路46は、複数のウェイポイントによって規定される。各ウェイポイントは、位置および向きの情報を含み得る。
 図14の例では、各樹木列の端と、果樹園の境界48との間の枕地50のスペースが十分に広く、旋回が可能である。このような場合、制御装置180は、センサデータに基づいて作業車両100の自己位置推定を行いながら、旋回経路46に沿って作業車両100を走行させる。自己位置推定には、例えばSLAM等のアルゴリズムが用いられ得る。制御装置180は、逐次生成した障害物マップ40を繋ぎ合わせて比較的広い範囲の環境地図を作成し、環境地図とセンサデータとのマッチングを行うことによって作業車両100の自己位置推定(すなわち位置および向きの推定)を行ってもよい。マッチングは、例えばNDT(Normal Distribution Transform)またはICP(Iterative Closest Point)などの任意のマッチングアルゴリズムを用いて実行され得る。制御装置180は、作業車両100の位置および向きと、旋回経路46における各ウェイポイントの位置および向きとのずれを小さくするように制御する。これにより、作業車両100は、旋回経路46に沿って目標地点Pに向かって旋回する。一方、枕地50に旋回のための十分なスペースがない場合、制御装置180は、作業車両100を停止させたり、監視用の端末装置400に警告を送信したりしてもよい。
 次に、図15を参照しながら、本実施形態における作業車両100の走行制御方法をより詳細に説明する。
 図15は、制御装置180による走行制御方法の具体例を示すフローチャートである。制御装置180は、図15に示すステップS301からS321の動作を実行することにより、作業車両100を複数の樹木列の間で自動走行させることができる。以下、各ステップの動作を説明する。
 初期状態において、作業車両100は、図7Aまたは図7Bに示すように、最初の樹木列間の通路の入口に位置しているものとする。制御装置180は、自動走行開始の指令を受けると、ステップS301の動作を開始する。
 ステップS301において、制御装置180は、列間走行モードで作業車両100を走行させる。列間走行モードにおいて、制御装置180は、以下の動作を実行する。まず、制御装置180は、LiDARセンサ140から出力されるセンサデータに基づいて、障害物マップ40を生成する。次に、障害物マップ40から、作業車両100の両側に位置する隣り合う2つの樹木列の近似直線を算出する。近似直線は、例えば障害物マップ40に対してハフ変換を行い、作業車両100の近傍において進行方向に近い方向に延びる2本の線分を抽出することによって算出され得る。制御装置180は、2つの近似直線から等距離にある位置に複数のウェイポイントを設定することによって目標経路を設定する。なお、作業車両100に装着されたインプルメント300によって作業が行われる位置が左右の一方に偏っている場合は、2つの近似直線から等距離にある位置からシフトした位置に目標経路を設定してもよい。制御装置180は、作業車両100の位置および向きが目標経路の位置および方向からずれている場合には、ずれを小さくするように操舵制御を行う。これにより、樹木列間の目標経路に沿って作業車両100を走行させることができる。なお、走行中に障害物が目標経路上またはその周辺に検出された場合、制御装置180は、作業車両100を停止させたり、障害物を回避するように目標経路を途中で変更したりしてもよい。このとき、制御装置180は、監視用の端末装置400に警告を送信してもよい。
 ステップS302において、制御装置180は、障害物マップ40に基づいて、樹木列端を検出する処理を実行する。制御装置180は、まず、障害物マップ40に対してハフ変換を行って抽出した2つの近似直線の長さLr、Ll(図10A参照)を求める。次に、制御装置180は、障害物マップ40の長さLhと、2つの近似直線のうち、旋回方向に対応する近似直線の長さLrまたはLlとの差Leが、予め設定された閾値を超えるか否かを判定する。差Leが閾値を超える場合、樹木列の端が検出されたと判定される。樹木列の端が検出されるまで、ステップS301、S302の動作が繰り返される。樹木列の端が検出されると、ステップS303に進む。
 ステップS303において、制御装置180は、端が検出された樹木列が最後の樹木列であるか否かを判定する。樹木列が最後の樹木列であるか否かは、予め記憶装置170に記憶された樹木列の分布または列数に関する情報に基づいて判定され得る。端が検出された樹木列が最後の樹木列である場合、制御装置180は、作業車両100による作業走行を終了する。端が検出された樹木列が最後の樹木列でない場合、ステップS304に進む。
 ステップS304において、制御装置180は、旋回座標系Σtを設定する。図10Bおよび図11を参照して説明したように、旋回方向側の樹木列の端が検出された時点の作業車両100の位置を原点として、作業車両100の進行方向に垂直なx軸、および進行方向に平行なy軸によって規定される座標系が旋回座標系Σtとして設定される。
 ステップS305において、制御装置180は、旋回座標系Σtにおける旋回の目標地点Pの座標(px,py)を設定する。図10Bに示すように、目標地点Pのx座標値pxは、樹木列の間隔Lgに整数nを乗じた値に設定され得る。目標地点Pのy座標値pyは、旋回方向側の樹木列の端のy座標値またはそれ以上の値に設定され得る。
 ステップS306において、制御装置180は、作業車両100が旋回方向側の樹木列を抜けたか否かを判定する。図16を参照しながら、この判定処理の例を説明する。図16は、作業車両100が樹木列を抜けた状況の例を示している。制御装置180は、センサデータ(または障害物マップ)に基づいて、作業車両100の後端部(インプルメント300が装着されている場合、インプルメント300の後端部)から、旋回方向側(図の例では右)の真横に存在する物体までの距離Lsrを求める。制御装置180は、Lsrと、旋回方向側の樹木列までの距離Lwrとの差(Lsr-Lwr)が閾値を超える状態が所定距離以上続いたとき、作業車両100が旋回方向側の樹木列を抜けたと判定することができる。あるいは、制御装置180は、障害物マップ40において、作業車両100の後端部のv座標値(図13参照)が旋回方向側の樹木列の先端のv座標値よりも大きくなったとき、作業車両100が旋回方向側の樹木列を抜けたと判定してもよい。作業車両100は、旋回方向側の樹木列を抜けるまで、樹木列間の走行を継続し、ステップS306の判定を繰り返す。作業車両100が旋回方向側の樹木列を抜けたと判定すると、ステップS307に進む。
 ステップS307において、制御装置180は、旋回に必要な広さのスペースがあるか否かを判定する。この判定は、障害物マップ40に基づいて行われ得る。図14に示すように、圃場の境界48と樹木列との間の枕地50が、旋回が可能な程度に広く、旋回を妨げる障害物がない場合、旋回に必要な広さのスペースがあると判定される。圃場の境界48の位置(例えば緯度および経度)は、例えば事前にユーザによって設定され、記憶装置170に記録され得る。制御装置180は、例えば、目標地点Pの位置と、旋回開始地点P0の位置と、作業車両100およびインプルメント300のサイズとに基づいて、旋回に必要な領域を決定する。制御装置180は、その領域が境界48を超えず、かつ当該領域内に障害物が検出されなければ、旋回に必要な広さのスペースがあると判定することができる。旋回に必要な広さのスペースがない場合、ステップS321に進み、制御装置180は、作業車両100を停止させる。このとき、監視用の端末装置400等の外部の装置に警告信号を送信してもよい。旋回に必要な広さのスペースがある場合、ステップS308に進む。
 ステップS308において、制御装置180は、旋回経路46を設定し、列間走行モードから旋回走行モードに移行する。旋回経路46は、図14に示すように点P0と点Pとを結ぶ円弧状の経路でもよいし、他の軌道を有する経路でもよい。制御装置180は、旋回経路46に沿って作業車両100が走行するように作業車両100の操舵制御を行う。例えば、制御装置180は、センサデータと、既に作成された障害物マップとに基づいて、旋回座標系Σtにおける作業車両100の位置および向きを推定しながら旋回の制御を行ってもよい。作業車両100の位置および向きの推定には、GNSS受信機111から出力された信号、および/またはIMU115から出力された信号が利用されてもよい。枕地50では人または他の車両等が通行する可能性があるので、接触を避けるために、制御装置180は、旋回中の作業車両100の走行速度を、列間走行時における走行速度よりも低く抑えてもよい。旋回中に障害物が検出された場合、制御装置180は、作業車両100を停止させたり、障害物を回避するように旋回経路46を途中で変更したりしてもよい。
 ステップS309において、制御装置180は、作業車両100が目標地点Pに到達したか否かを判定する。作業車両100が目標地点に到達していない場合、旋回走行を継続する。作業車両100が目標地点に到達した場合、ステップS310に進み、制御装置180は、列間走行モードに移行する。以後、ステップS301に戻り、同様の動作が繰り返される。
 以上の動作により、作業車両100は、樹木列間の走行および旋回を自動で行うことができる。本実施形態によれば、樹木列の端が検出された場合に、旋回座標系および目標地点が設定され、旋回座標系に基づいて旋回経路に沿った走行制御が行われる。これにより、走行列の変更のための旋回を円滑に行うことが可能になる。果樹園または森林のように、GNSSによる測位が難しい環境、あるいはセンサデータと予め作成された環境地図とのマッチングによる自己位置推定が難しい環境においても、樹木列間の自動走行を円滑に行うことが可能になる。
 図15に示す例では、ステップS305において旋回の目標地点が設定されると、旋回が終了するまで目標地点が維持される。このような動作は、図14に示すように、どの樹木列も端のy方向の位置が揃っている場合に有効である。しかし、樹木列の端のy方向の端が揃っていない場合、設定後に目標地点の修正が必要になる場合がある。例えば、目標地点Pに向かう旋回経路上またはその近傍に他の樹木列が存在する場合、目標地点Pを変更しなければ、作業車両100またはインプルメント300が当該他の樹木列に接触してしまう場合がある。そのような場合を想定して、制御装置180は、目標地点Pの設定後、センサデータに基づいて目標地点Pを必要に応じて修正する処理を行ってもよい。
 図17Aは、目標地点Pを修正する動作の一例を示す図である。図中の扇形は、LiDARセンサ140のセンシングの範囲の例を模式的に示している。この例では、右に位置する樹木列ほど、y方向において樹木が占める領域の範囲が長い。そのため、目標地点Pが設定された後、作業車両100が樹木列20Rの端を抜ける前に、樹木列20Rの右に位置する他の樹木列20Cの端が検出される。このような場合、制御装置180は、目標地点Pのy座標値を、他の樹木列20Cの端のy座標値以上の値に修正する。これに伴い、制御装置180は、旋回経路を、図中の黒丸で示されている経路から、白丸で示されている経路に修正する。これにより、作業車両100またはインプルメント300と他の樹木列20Cとの接触を回避することができる。
 図17Bは、目標地点Pを修正する動作の他の例を示す図である。この例では、目標地点Pが設定され、作業車両100が樹木列20Rの端を超えて旋回を開始した後、樹木列20Rの右に位置する他の樹木列20Cが検出される。この場合、制御装置180は、旋回の途中で、目標地点Pのy座標値を、他の樹木列20Cの端のy座標値以上の値に修正する。これに伴い、制御装置180は、旋回経路46を、図中の黒丸で示されている経路から、白丸で示されている経路に修正する。これにより、作業車両100またはインプルメント300と他の樹木列20Cとの接触を回避することができる。
 図17Aおよび図17Bに示す動作を行うにあたり、制御装置180は、旋回座標系Σtを設定した後、障害物マップ40のサイズを拡大してもよい。障害物マップ40のサイズを拡大することにより、他の樹木列20Cなどの障害物を検出し易くなる。
 図18Aは、拡大された障害物マップ40を用いて目標地点Pを修正する動作の例を説明するための図である。この例では、障害物マップ40の横方向のサイズが前述の例におけるサイズの1.5倍に拡大されている。横方向だけでなく縦方向のサイズも拡大されてもよい。拡大率は1.5倍に限らず、例えば2倍以上であってもよい。制御装置180は、障害物マップ40の範囲内に存在する物体を障害物として検出する。障害物マップ40のサイズを拡大することにより、障害物として検出される物体の空間的な範囲が拡大される。
 図18Aの例では、作業車両100は、旋回方向側(右側)において最も近い樹木列20Rの端を抜ける前に、その右に位置する他の樹木列20Cを障害物マップ40に基づいて検出する。制御装置180は、障害物マップ40にハフ変換等の処理を行うことにより、樹木列20Cに対応する線分を抽出する。この線分の長さをLcとする。制御装置180は、作業車両100の位置から旋回方向側において、作業車両100に最も近い樹木列20Rまでの距離Lwrよりも離れた位置に、y軸にほぼ平行で所定の長さを超える長さの線分を検出した場合、目標地点Pのy座標値pyを更新する。具体的には、制御装置180は、旋回座標系Σtにおける原点からの作業車両100の移動距離Ltに、検出された線分の長さLcを加算した値を、目標地点Pのy座標値とする。これにより、目標地点Pが適切に修正される。
 図18Bは、目標地点を修正する動作の他の例を説明するための図である。この例では、作業車両100は、旋回走行中に他の樹木列20Cを検出した場合に、目標地点Pを修正する。制御装置180は、旋回走行中、障害物マップ40内で、旋回座標系Σtにおけるx座標値が目標地点Pのx座標値pxよりも小さい位置に、所定の長さを超える長さの線分を検出した場合、目標地点Pのy座標値pyを更新する。具体的には、制御装置180は、車両座標系で表される障害物マップ40における当該線分の端の位置座標(u1,v1)を、旋回座標系Σtにおける位置座標(x1,y1)に変換する。制御装置180は、目標地点Pのy座標値pyを、樹木列20Cの端のy座標値y1以上の値に修正する。これにより、目標地点Pが適切に修正される。
 図19は、上記の目標地点Pの修正処理を行う場合における制御装置180の動作の例を示すフローチャートである。図19に示すフローチャートは、ステップS331、S332、S341、S342が追加されている点を除き、図15に示すフローチャートと同じである。
 図19の例では、ステップS306において、樹木列をまだ抜けていないと判定された場合、ステップS331に進む。ステップS331において、制御装置180は、障害物マップに基づいて、旋回を妨げる他の樹木列があるか否かを判定する。旋回を妨げる他の樹木列がない場合、ステップS306に戻る。旋回を妨げる他の樹木列がある場合、ステップS332に進む。ステップS332において、制御装置180は、目標地点を修正する。ステップS331における判定方法およびステップS332における目標地点の修正方法は、図17Aおよび図18Aを参照して説明したとおりである。ステップS331、S332の処理を追加することにより、旋回前に目標地点のy座標値を必要に応じて修正することができる。
 図19の例では、ステップS308において旋回走行モードに移行した後、ステップS341に進む。ステップS341において、制御装置180は、障害物マップに基づいて、旋回を妨げる他の樹木列があるか否かを判定する。旋回を妨げる他の樹木列がない場合、ステップS309に進む。旋回を妨げる他の樹木列がある場合、ステップS342に進む。ステップS342において、制御装置180は、目標地点を修正する。ステップS341における判定方法およびステップS342における目標地点の修正方法は、図17Bおよび図18Bを参照して説明したとおりである。制御装置180は、目標地点の位置の修正に伴い、旋回経路も修正する。ステップS341、S342の処理を追加することにより、旋回中に目標地点のy座標値を必要に応じて修正し、作業車両100またはインプルメント300が他の樹木列に接触することを回避することができる。
 以上のように、制御装置180は、旋回前または旋回走行中にセンサデータに基づいて、作業車両100の両側に位置する2つの樹木列以外の他の樹木列の端を検出した場合に、当該他の樹木列の端と目標地点Pとの位置関係に応じて、目標地点Pの位置を修正してもよい。例えば、制御装置180は、旋回走行中にセンサデータに基づいて他の樹木列の端を検出し、かつ、旋回座標系Σtにおいて、他の樹木列の端のx座標値が目標地点のx座標値よりも小さく、他の樹木列の端のy座標値が目標地点のy座標値よりも大きい場合、目標地点のy座標値を、他の樹木列の端のy座標値以上の値で更新してもよい。
 上記の例では、目標地点Pが修正されるが、目標地点Pを修正することなく、旋回経路46を修正することによって他の樹木列との接触を回避してもよい。例えば、制御装置180は、旋回経路を設定した後、センサデータに基づいて隣接する2つの樹木列以外の他の樹木列を検出した場合、他の樹木列と旋回経路との位置関係に応じて、旋回経路を修正してもよい。
 図20は、目標地点Pを維持したまま旋回経路46が修正される例を示す図である。この例では、制御装置180は、旋回中にセンサデータに基づいて、旋回経路46上またはその近傍に他の樹木列20Cを検出すると、目標地点Pを修正せずに旋回経路46を修正する。他の樹木列20Cと目標地点Pとの位置関係によっては、目標地点Pを修正することなく、旋回経路46の修正だけで作業車両100と他の樹木列20Cとの接触を回避することができる。その場合には、図20に示す動作を適用することが有効である。
 旋回走行の目標地点を設定する方法は、上記の方法に限定されず、他の方法を採用してもよい。例えば、作物列の高さが低く、LiDARセンサ140を用いて旋回先の走行路の周辺環境をセンシングできる場合は、センサデータに基づいて環境地図を生成し、当該環境地図に基づいて目標地点を設定してもよい。以下、そのような動作の例を説明する。
 図21は、環境地図に基づいて目標地点を設定する方法の一例を示すフローチャートである。図21に示すフローチャートは、図11に示すフローチャートにおけるステップS106、S107が、ステップS406、S407、S408に置換されたものである。ステップS101からS105の動作は、図11における対応するステップの動作と同じである。
 図21の例では、ステップS105において障害物マップの長さLhと、旋回方向側の樹木列に対応する線分の長さLrまたはLlとの差Leが閾値よりも大きいと判定されると、ステップS406に進む。ステップS406において、制御装置180は、作業車両100の位置を原点とする旋回座標系を設定し、環境地図の生成を開始する。環境地図は、旋回座標系で表現された点群地図または占有格子地図であり得る。環境地図は、逐次生成されるセンサデータ(または障害物マップ)を座標変換した上でつなぎ合わせる処理によって生成され得る。環境地図の生成には、例えばSLAM等のアルゴリズムが用いられ得る。
 続くステップS407において、制御装置180は、作業車両100が旋回方向側の樹木列の端を抜けたか否かを判定する。この判定処理は、図15に示すステップS306に示す処理と同じである。作業車両100が旋回方向側の樹木列の端を抜けたと判定されるまで、作業車両100は樹木列間を走行しながらセンサデータに基づいて環境地図の生成を継続する。作業車両100が旋回方向側の樹木列の端を抜けたと判定されると、ステップS408に進む。
 ステップS408において、制御装置180は、旋回座標系で表現された環境地図に基づいて目標地点の位置(px,py)を設定する。制御装置180は、例えば、予め設定された旋回方向および何列先に旋回するか(n)に関する情報と、環境地図から推定される樹木列の間隔とに基づいて、目標地点のx座標値pxを設定することができる。制御装置180は、さらに、環境地図が示す樹木列の分布に基づいて、目標地点のy座標値pyを設定することができる。例えば、次の列間走行の走行路から見て、作業車両100の側に位置し、当該走行路に最も近い樹木列の先端のy座標値以上の値に目標地点のy座標値pyが設定され得る。
 ステップS408の後、制御装置180は、そのときの作業車両100の位置から目標地点の位置(px、py)に向かう旋回経路を設定して、作業車両100を旋回経路に沿って走行させる。例えば、制御装置180は、センサデータと、環境地図とのマッチングによって自己位置推定を行いながら、作業車両100の位置および向きと旋回経路とのずれを最小化するように操舵制御を行う。これにより、作業車両100を目標地点に向かって旋回させることができる。
 [3.他の実施形態]
 以上の実施形態において、作業車両が備える1つ以上の外界センサは、レーザビームのスキャンによって2次元または3次元の点群データをセンサデータとして出力するLiDARセンサである。しかし、外界センサはそのようなLiDARセンサに限定されない。例えば、フラッシュ型のLiDARセンサ、またはイメージセンサなどの他の種類のセンサを利用してもよい。そのような他の種類のセンサを、スキャン型のLiDARセンサと組み合せて利用してもよい。
 以上の実施形態では、作業車両は、果樹園における複数の樹木列の間で自動走行を行うが、作業車両は、樹木列以外の作物列の間を自動走行する用途で使用されてもよい。例えば、畑における複数の作物列の間を自動走行するトラクタ等の作業車両に本開示の技術を適用してもよい。
 以上の実施形態における作業車両の自動走行に必要な処理を実行する装置を、それらの機能を有しない作業車両に後から取り付けることもできる。例えば、複数の作物列の間を走行する作業車両の動作を制御する制御ユニットを、当該作業車両に取り付けて使用することができる。
 以上のように、本開示は、以下の項目に記載の作業車両、および作業車両の制御方法を含む。
 [項目1]
 複数の作物列の間で自動走行を行う作業車両であって、
 前記作業車両の周辺の地物の分布を示すセンサデータを出力する外界センサと、
 前記作業車両の自動走行を制御する制御装置と、
を備え、
 前記制御装置は、
 前記センサデータに基づいて前記作業車両の両側に存在する2つの作物列を検出し、
 前記2つの作物列の間の経路に沿って前記作業車両を走行させ、
 走行中、前記センサデータに基づいて、前記2つの作物列のうち、少なくとも旋回方向に対応する側の作物列の端を検出した場合、旋回走行のための、地面に対して固定された座標系、および前記旋回走行の目標地点を設定し、
 前記座標系に基づいて、前記目標地点に向かう前記旋回走行を制御する、
 作業車両。
 [項目2]
 前記制御装置は、
 前記作業車両が前記2つの作物列の間を走行している間、前記センサデータに基づいて、所定の長さおよび幅を有する障害物マップを逐次生成し、
 前記障害物マップに基づいて、前記2つの作物列のうち、前記旋回方向に対応する側の作物列の前記障害物マップ内での長さを推定し、
 前記障害物マップの長さと、前記作物列の前記障害物マップ内での長さとの差に基づいて、前記作物列の端を検出する、
 項目1に記載の作業車両。
 [項目3]
 前記制御装置は、前記障害物マップの長さと、前記作物列の前記障害物マップ内での長さとの差が閾値を超えたとき、前記作物列の端が検出されたと判定する、項目2に記載の作業車両。
 [項目4]
 前記制御装置は、前記作物列の端が検出されたときの前記作業車両の位置に基づいて前記座標系の原点を決定する、項目1から3のいずれかに記載の作業車両。
 [項目5]
 前記座標系は、前記原点から、前記2つの作物列の間を走行する前記作業車両の進行方向に延びるy軸と、水平面に平行かつ前記y軸に垂直な方向に延びるx軸とによって規定され、
 前記制御装置は、前記センサデータに基づいて、前記2つの作物列の間隔を推定し、
 前記間隔の整数倍を、前記目標地点のx座標値として設定する、
 項目4に記載の作業車両。
 [項目6]
 前記座標系は、前記原点から、前記2つの作物列の間を走行する前記作業車両の進行方向に延びるy軸と、水平面に平行かつ前記y軸に垂直な方向に延びるx軸とによって規定され、
 前記制御装置は、前記座標系における前記作物列の端のy座標値を、前記目標地点のy座標値として設定する、項目4に記載の作業車両。
 [項目7]
 前記制御装置は、前記座標系における前記作物列の端のy座標値を、前記目標地点のy座標値として設定する、項目5に記載の作業車両。
 [項目8]
 前記制御装置は、前記目標地点を設定した後、前記センサデータに基づいて他の作物列の端を検出した場合、前記他の作物列の端と前記目標地点との位置関係に応じて、前記目標地点の位置を修正する、項目1から7のいずれかに記載の作業車両。
 [項目9]
 前記制御装置は、前記目標地点を設定した後、前記センサデータに基づいて他の作物列の端を検出し、かつ、前記座標系において、前記他の作物列の端のx座標値が前記目標地点のx座標値よりも小さく、前記他の作物列の端のy座標値が前記目標地点のy座標値よりも大きい場合、前記目標地点のy座標値を、前記他の作物列の端のy座標値で更新する、項目8に記載の作業車両。
 [項目10]
 前記制御装置は、
 前記2つの作物列の間の経路に沿って前記作業車両を走行させる列間走行モードと、枕地で前記作業車両を旋回させる旋回走行モードとで動作し、
 前記列間走行モードにおいて、前記外界センサから逐次出力される前記センサデータに基づいて、前記2つの作物列を検出して前記2つの作物列の間に前記経路を設定しながら前記作業車両を前記経路に沿って走行させ、
 前記旋回走行モードにおいて、前記座標系上で旋回経路を設定し、前記外界センサから逐次出力される前記センサデータに基づいて前記座標系上での自己位置を推定しながら前記旋回経路に沿って前記作業車両を走行させる、
 項目1から9のいずれかに記載の作業車両。
 [項目11]
 前記制御装置は、前記列間走行モードにおいて前記座標系および前記目標地点を設定した後、前記旋回走行モードに切り替える、項目10に記載の作業車両。
 [項目12]
 前記制御装置は、前記列間走行モードにおいて前記座標系および前記目標地点を設定した後、前記センサデータに基づいて、旋回が可能であるか否かを判定し、旋回が可能であると判定した場合、前記旋回走行モードに切り替える、項目11に記載の作業車両。
 [項目13]
 前記制御装置は、前記列間走行モードにおいて前記座標系および前記目標地点を設定した後、前記センサデータに基づいて、前記旋回に必要なスペースがあり、かつ前記作業車両が前記作物列の端を通過したと判定した場合、前記旋回走行モードに切り替える、項目11に記載の作業車両。
 [項目14]
 前記制御装置は、前記目標地点を設定した後、前記センサデータに基づいて他の作物列を検出した場合、前記他の作物列と前記旋回経路との位置関係に応じて、前記旋回経路を修正する、項目10に記載の作業車両。
 [項目15]
 前記外界センサは、点群データを前記センサデータとして出力する1つ以上のLiDARセンサを含む、項目1から14のいずれかに記載の作業車両。
 [項目16]
 複数の作物列の間で自動走行を行う作業車両の制御方法であって、
 前記作業車両に搭載された外界センサから出力されたセンサデータに基づいて前記作業車両の両側に存在する2つの作物列を検出すること、
 前記2つの作物列の間の経路に沿って前記作業車両を走行させること、
 走行中、前記センサデータに基づいて、前記2つの作物列のうち、少なくとも旋回方向に対応する側の作物列の端を検出した場合、旋回走行のための、地面に対して固定された座標系、および前記旋回走行の目標地点を設定すること、および
 前記座標系に基づいて、前記目標地点に向かう前記旋回走行を制御すること、
 を含む制御方法。
 本開示の技術は、例えば果樹園、畑、または山林のように、複数の作物列(例えば樹木列)が存在する環境を移動するトラクタなどの作業車両に適用することができる。
 20・・・樹木列、30・・・目標経路、40・・・障害物マップ、41R、41L・・・樹木列、45・・・目標経路、46・・・旋回経路、48・・・境界、50・・・枕地、80・・・ネットワーク、100・・・作業車両、101・・・車両本体、102・・・原動機、103・・・変速装置、104・・・車輪、105・・・キャビン、106・・・操舵装置、107・・・運転席、108・・・連結装置、110・・・GNSSユニット、115・・・慣性計測装置、116・・・処理回路、120・・・カメラ、130・・・障害物センサ、140・・・LiDARセンサ、141・・・レーザユニット、142・・・レーザ光源、143・・・光検出器、144・・・モータ、145・・・制御回路、146・・・信号処理回路、147・・・メモリ、150・・・センサ群、152・・・ステアリングホイールセンサ、154・・・切れ角センサ、156・・・車軸センサ、160・・・制御システム、170・・・記憶装置、180・・・制御装置、181~184・・・ECU、190・・・通信装置、200・・・操作端末、210・・・操作スイッチ群、240・・・駆動装置、300・・・インプルメント、340・・・駆動装置、380・・・制御装置、390・・・通信装置、400・・・端末装置

Claims (16)

  1.  複数の作物列の間で自動走行を行う作業車両であって、
     前記作業車両の周辺の地物の分布を示すセンサデータを出力する外界センサと、
     前記作業車両の自動走行を制御する制御装置と、
    を備え、
     前記制御装置は、
     前記センサデータに基づいて前記作業車両の両側に存在する2つの作物列を検出し、
     前記2つの作物列の間の経路に沿って前記作業車両を走行させ、
     走行中、前記センサデータに基づいて、前記2つの作物列のうち、少なくとも旋回方向に対応する側の作物列の端を検出した場合、旋回走行のための、地面に対して固定された座標系、および前記旋回走行の目標地点を設定し、
     前記座標系に基づいて、前記目標地点に向かう前記旋回走行を制御する、
     作業車両。
  2.  前記制御装置は、
     前記作業車両が前記2つの作物列の間を走行している間、前記センサデータに基づいて、所定の長さおよび幅を有する障害物マップを逐次生成し、
     前記障害物マップに基づいて、前記2つの作物列のうち、前記旋回方向に対応する側の作物列の前記障害物マップ内での長さを推定し、
     前記障害物マップの長さと、前記作物列の前記障害物マップ内での長さとの差に基づいて、前記作物列の端を検出する、
     請求項1に記載の作業車両。
  3.  前記制御装置は、前記障害物マップの長さと、前記作物列の前記障害物マップ内での長さとの差が閾値を超えたとき、前記作物列の端が検出されたと判定する、請求項2に記載の作業車両。
  4.  前記制御装置は、前記作物列の端が検出されたときの前記作業車両の位置に基づいて前記座標系の原点を決定する、請求項1から3のいずれかに記載の作業車両。
  5.  前記座標系は、前記原点から、前記2つの作物列の間を走行する前記作業車両の進行方向に延びるy軸と、水平面に平行かつ前記y軸に垂直な方向に延びるx軸とによって規定され、
     前記制御装置は、前記センサデータに基づいて、前記2つの作物列の間隔を推定し、
     前記間隔の整数倍を、前記目標地点のx座標値として設定する、
     請求項4に記載の作業車両。
  6.  前記座標系は、前記原点から、前記2つの作物列の間を走行する前記作業車両の進行方向に延びるy軸と、水平面に平行かつ前記y軸に垂直な方向に延びるx軸とによって規定され、
     前記制御装置は、前記座標系における前記作物列の端のy座標値を、前記目標地点のy座標値として設定する、請求項4に記載の作業車両。
  7.  前記制御装置は、前記座標系における前記作物列の端のy座標値を、前記目標地点のy座標値として設定する、請求項5に記載の作業車両。
  8.  前記制御装置は、前記目標地点を設定した後、前記センサデータに基づいて他の作物列の端を検出した場合、前記他の作物列の端と前記目標地点との位置関係に応じて、前記目標地点の位置を修正する、請求項1から3のいずれかに記載の作業車両。
  9.  前記制御装置は、前記目標地点を設定した後、前記センサデータに基づいて他の作物列の端を検出し、かつ、前記座標系において、前記他の作物列の端のx座標値が前記目標地点のx座標値よりも小さく、前記他の作物列の端のy座標値が前記目標地点のy座標値よりも大きい場合、前記目標地点のy座標値を、前記他の作物列の端のy座標値で更新する、請求項8に記載の作業車両。
  10.  前記制御装置は、
     前記2つの作物列の間の経路に沿って前記作業車両を走行させる列間走行モードと、枕地で前記作業車両を旋回させる旋回走行モードとで動作し、
     前記列間走行モードにおいて、前記外界センサから逐次出力される前記センサデータに基づいて、前記2つの作物列を検出して前記2つの作物列の間に前記経路を設定しながら前記作業車両を前記経路に沿って走行させ、
     前記旋回走行モードにおいて、前記座標系上で旋回経路を設定し、前記外界センサから逐次出力される前記センサデータに基づいて前記座標系上での自己位置を推定しながら前記旋回経路に沿って前記作業車両を走行させる、
     請求項1から3のいずれかに記載の作業車両。
  11.  前記制御装置は、前記列間走行モードにおいて前記座標系および前記目標地点を設定した後、前記旋回走行モードに切り替える、請求項10に記載の作業車両。
  12.  前記制御装置は、前記列間走行モードにおいて前記座標系および前記目標地点を設定した後、前記センサデータに基づいて、旋回が可能であるか否かを判定し、旋回が可能であると判定した場合、前記旋回走行モードに切り替える、請求項11に記載の作業車両。
  13.  前記制御装置は、前記列間走行モードにおいて前記座標系および前記目標地点を設定した後、前記センサデータに基づいて、前記旋回に必要なスペースがあり、かつ前記作業車両が前記作物列の端を通過したと判定した場合、前記旋回走行モードに切り替える、請求項11に記載の作業車両。
  14.  前記制御装置は、前記目標地点を設定した後、前記センサデータに基づいて他の作物列を検出した場合、前記他の作物列と前記旋回経路との位置関係に応じて、前記旋回経路を修正する、請求項10に記載の作業車両。
  15.  前記外界センサは、点群データを前記センサデータとして出力する1つ以上のLiDARセンサを含む、請求項1から3のいずれかに記載の作業車両。
  16.  複数の作物列の間で自動走行を行う作業車両の制御方法であって、
     前記作業車両に搭載された外界センサから出力されたセンサデータに基づいて前記作業車両の両側に存在する2つの作物列を検出すること、
     前記2つの作物列の間の経路に沿って前記作業車両を走行させること、
     走行中、前記センサデータに基づいて、前記2つの作物列のうち、少なくとも旋回方向に対応する側の作物列の端を検出した場合、旋回走行のための、地面に対して固定された座標系、および前記旋回走行の目標地点を設定すること、および
     前記座標系に基づいて、前記目標地点に向かう前記旋回走行を制御すること、
     を含む制御方法。
     
PCT/JP2023/021173 2022-06-17 2023-06-07 作業車両、および作業車両の制御方法 WO2023243514A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-097793 2022-06-17
JP2022097793 2022-06-17

Publications (1)

Publication Number Publication Date
WO2023243514A1 true WO2023243514A1 (ja) 2023-12-21

Family

ID=89191081

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/021173 WO2023243514A1 (ja) 2022-06-17 2023-06-07 作業車両、および作業車両の制御方法

Country Status (1)

Country Link
WO (1) WO2023243514A1 (ja)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HIDEYUKI NISHINO, FUKAO TAKANORI: "Development of an Automatic Fruit Harvesting Robot", JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 39, no. 10, 1 December 2021 (2021-12-01), pages 892 - 895, XP093118997 *
HIRAMATSU YUJI, AKAMA SHUN-ICHI, UENOYAMA MASASHI, KANESHIRO TOMOKI, WATANABE TAKAHIRO: "Grape Harvesting Robot", JOURNAL OF THE ROBOTICS SOCIETY OF JAPAN, vol. 39, no. 10, 1 December 2021 (2021-12-01), pages 896 - 900, XP093118999 *
ISHIYAMA KENJI, SHIRO HONDA, HIROHISA IMAI: "Multi-purpose Autonomous Orchard Vehicles, Tree-shaping for Labor Saving, and Vehicle Management IoT System", YAMAHA MOTOR TECHNICAL REVIEW, vol. 56, no. 7, 1 December 2021 (2021-12-01), pages 30 - 37, XP093118994 *
MURAKAMI NORIYUKI: "Vehicles that can run unmanned at agricultural sites without using GPS", HOKKAIDO AGRICULTURAL RESEARCH CENTER 2013 RESULTS INFORMATION, NATIONAL AGRICULTURE AND FOOD RESEARCH ORGANIZATION, 1 January 2013 (2013-01-01), XP093119019, Retrieved from the Internet <URL:https://www.naro.go.jp/project/results/laboratory/harc/2013/harc13_s12.html> [retrieved on 20240112] *
TAKEDA JUN-ICHI: "Development on the autonomous mowing robot for orchard", GRANTS-IN-AID FOR SCIENTIFIC RESEARCH RESEARCH RESULTS REPORT, 18 June 2013 (2013-06-18), pages 1 - 5, XP093119006, Retrieved from the Internet <URL:https://kaken.nii.ac.jp/ja/file/KAKENHI-PROJECT-15K07674/15K07674seika.pdf> [retrieved on 20240112] *

Similar Documents

Publication Publication Date Title
WO2022107588A1 (ja) 移動体、制御ユニット、データ生成ユニット、移動体の動作を制御する方法、およびデータを生成する方法
US20230288942A1 (en) Mobile machine, data generation unit, and method of generating data
US20240338037A1 (en) Path planning system and path planning method for agricultural machine performing self-traveling
WO2023007836A1 (ja) 農業支援システムおよび農業支援方法
WO2023243514A1 (ja) 作業車両、および作業車両の制御方法
WO2024004574A1 (ja) 作業車両、制御方法およびコンピュータプログラム
WO2024004575A1 (ja) 作業車両、および作業車両の制御方法
WO2024135019A1 (ja) 状態推定システムおよび農業機械
WO2024135018A1 (ja) 作物列検出システムおよび農業機械
WO2023234255A1 (ja) センシングシステム、農業機械、およびセンシング装置
WO2023112515A1 (ja) 地図生成システムおよび地図生成方法
WO2024004463A1 (ja) 走行制御システム、走行制御方法およびコンピュータプログラム
US20240337753A1 (en) Agricultural machine, sensing system for use in agricultural machine, and sensing method
WO2023119996A1 (ja) 障害物検出システム、農業機械および障害物検出方法
WO2023238827A1 (ja) 農業管理システム
WO2023248909A1 (ja) 走行制御システム、農業機械および走行制御方法
US20240345253A1 (en) Agricultural machine, sensing system used in agricultural machine, and sensing method
WO2024004486A1 (ja) 作業車両、制御方法および制御システム
WO2022107586A1 (ja) 移動体、制御ユニット、および移動体の動作を制御する方法
WO2023218688A1 (ja) 地図作成システムおよび経路計画システム
US20240341215A1 (en) Agricultural machine, sensing system, sensing method, remote operation system, and control method
WO2023106071A1 (ja) 農道識別システム、制御システムおよび農業機械
US20240138282A1 (en) Management system for agricultural machines
WO2023095856A1 (ja) 自動運転を行う農業機械のための経路計画システム
WO2023243369A1 (ja) 映像表示システムおよび作業車両

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23823806

Country of ref document: EP

Kind code of ref document: A1