WO2024090104A1 - 作業機の遠隔操作支援システム、遠隔装置 - Google Patents

作業機の遠隔操作支援システム、遠隔装置 Download PDF

Info

Publication number
WO2024090104A1
WO2024090104A1 PCT/JP2023/035081 JP2023035081W WO2024090104A1 WO 2024090104 A1 WO2024090104 A1 WO 2024090104A1 JP 2023035081 W JP2023035081 W JP 2023035081W WO 2024090104 A1 WO2024090104 A1 WO 2024090104A1
Authority
WO
WIPO (PCT)
Prior art keywords
work machine
control device
display
sensing
area
Prior art date
Application number
PCT/JP2023/035081
Other languages
English (en)
French (fr)
Inventor
快己 時枝
Original Assignee
株式会社クボタ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社クボタ filed Critical 株式会社クボタ
Publication of WO2024090104A1 publication Critical patent/WO2024090104A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01BSOIL WORKING IN AGRICULTURE OR FORESTRY; PARTS, DETAILS, OR ACCESSORIES OF AGRICULTURAL MACHINES OR IMPLEMENTS, IN GENERAL
    • A01B69/00Steering of agricultural machines or implements; Guiding agricultural machines or implements on a desired track

Definitions

  • the present invention relates to a remote operation support system and remote device for a work machine that supports the remote operation of a mobile work machine.
  • Patent Document 1 discloses a vehicle remote instruction system that allows an operator to remotely instruct a vehicle.
  • This vehicle remote instruction system includes a display unit that displays information to an operator who remotely instructs the vehicle, an image display device connected to the display unit, an external sensor that detects information about the vehicle's external environment, and an internal sensor that detects the vehicle's driving conditions.
  • the external sensor and the internal sensor are provided in the vehicle.
  • the image display device determines the position of the vehicle at a second time that is a predetermined time after the first time based on data detected by the internal sensor at a first time, and displays a monitoring image showing the surroundings of the vehicle on the display unit based on data detected by the external sensor at the first time, and superimposes an object showing the vehicle's position at the second time at a corresponding position on the monitoring image.
  • the present invention aims to allow the operator to easily grasp the positional relationship between the work machine and the object.
  • a remote operation support system for a work machine includes a sensing device, a remote device having a display device that displays sensing information sensed by the sensing device, and a control device that controls the display device, and the control device causes the display device to display a sensing map showing the periphery of the work machine and an attention area of the periphery, and when the sensing information includes an object in the periphery of the work machine, causes the sensing map to display an object object showing the position of the object.
  • the remote device also constitutes the remote device of the present invention.
  • the control device may display, as the attention area, an emergency stop area in which the work machine is brought to an emergency stop if a specific object is present, and a warning area that warns of the approach of the specific object to the work machine, on the sensing map, and vary the display form of the object object depending on whether the object object is in the emergency stop area, the warning area, or outside the emergency stop area and the warning area.
  • the control device may emphasize the display of the object object in the warning area more than the display of the object object outside the emergency stop area and the warning area, and may emphasize the display of the object object in the emergency stop area more than the display of the object object in the warning area.
  • the sensing device may include a plurality of object sensors provided on the work machine to detect the object in front of, behind, to the left of, and to the right of the work machine, and the control device may display on the sensing map the detection area of at least one of the object sensors that detects the object.
  • the remote operation support system for the work machine may include a detection device that detects the state of the work machine, and the control device may vary the display form of the attention area according to the travel speed of the work machine detected by the detection device.
  • the control device may vary the display format of the attention area depending on the specifications of the work device connected to the work machine.
  • the control device may display the attention area in the travel direction of the work machine detected by the detection device on the sensing map.
  • the control device may vary the display position of the attention area according to the steering angle of the work machine detected by the detection device.
  • the control device may estimate the position of the work machine after a predetermined time based on the travel direction and travel speed of the work machine detected by the detection device, and display on the sensing map an estimated work machine object indicating the estimated position of the work machine after the predetermined time, and an actual work machine object indicating the current position of the work machine.
  • the sensing device may include an imaging device that captures images of the surroundings of the work machine, and the control device may cause the display device to display the captured image and the sensing map on a screen.
  • the imaging device may include a plurality of cameras provided on the work machine for imaging the front, rear, left, and right of the work machine, and the control device may cause the display device to display at least one of a plurality of captured images captured by the plurality of cameras and a composite captured image showing an overhead view of the periphery of the work machine obtained by combining the plurality of captured images.
  • the imaging device may include an internal camera that is installed inside a cabin provided on the work machine and captures an image in front of the work machine, and the control device may display an image captured by the internal camera on the display device.
  • the sensing device may include an object sensor that detects the distance from the work machine to the object, and the control device may display a teaching object that teaches the object shown in the captured image, and may vary the display form of the teaching object depending on the distance to the object.
  • the control device may emphasize the display of the teaching object as the distance to the target object taught by the teaching object becomes closer.
  • control device may estimate the position of the target object in the captured image based on detection information from the target object sensor, and display the teaching object according to the estimated position of the target object.
  • the sensing device may include an object sensor that detects the distance from the work machine to the object, and the control device may determine the approach direction of the object to the work machine based on the detection information of the object sensor, display a notification object notifying the approach of the object at a location corresponding to the approach direction on the periphery of the captured image, and vary the display form of the notification object depending on the distance to the object.
  • the control device may display additional information based on map information about the area surrounding the work machine on the sensing map.
  • the remote device may have an input device capable of inputting a display instruction for any of a plurality of pieces of additional information including at least the non-travelable area around the work machine and the elevation difference of the ground, and the control unit may cause the display device to display on a screen any of the additional information indicated by the display instruction and the sensing map.
  • the remote operation support system and remote device for work machines of the present invention allow the operator to easily understand the positional relationship between the work machine and the object.
  • FIG. 1 is a configuration diagram of a remote operation support system for a work machine according to an embodiment of the present invention
  • FIG. 1 is a side view of a tractor, which is an example of a work machine.
  • 4 is a flowchart showing the operation of the work machine and the remote device.
  • FIG. 13 is a diagram showing an example of a remote monitoring screen.
  • FIG. 2 is an enlarged view of a sensing map.
  • FIG. 13 is a diagram showing a modified example of the sensing map.
  • FIG. 13 is a diagram showing a modified example of the sensing map.
  • FIG. 13 is a diagram showing a modified example of the sensing map.
  • FIG. 13 is a diagram showing a modified example of the sensing map.
  • FIG. 13 is a diagram showing a modified example of the sensing map.
  • FIG. 13 is a diagram showing a modified example of the sensing map.
  • FIG. 13 is a diagram showing a modified example of the sensing map.
  • FIG. 13 is a diagram showing an example of a message displayed on a remote monitoring screen.
  • FIG. 13 is a diagram showing an example of a remote monitoring screen.
  • FIG. 13 is a diagram showing an example of a message displayed on a remote monitoring screen.
  • FIG. 13 is a diagram showing an additional information menu displayed on the remote monitoring screen.
  • FIG. 13 is a diagram showing an example of additional information displayed on a remote monitoring screen.
  • FIG. 13 is a diagram showing an example of additional information displayed on a remote monitoring screen.
  • FIG. 1 is a configuration diagram of a remote operation support system 100 for a work machine according to one embodiment of the present invention.
  • the remote operation support system 100 includes a remote device 30.
  • the remote operation support system 100 and the remote device 30 support the remote operation of the work machine 1.
  • the work machine 1 is composed of an agricultural machine capable of traveling autonomously (also called an "autonomous agricultural machine").
  • the work machine 1 is composed of a tractor as shown in FIG. 2.
  • a tractor is an example of an agricultural machine that performs agricultural work in a field.
  • the work machine 1 may be composed of an agricultural machine other than a tractor, a construction machine, or a work vehicle.
  • FIG. 2 is a side view of a tractor, which is an example of the working machine 1.
  • a traveling device 7 is provided on the body 3 of the working machine 1.
  • the traveling devices 7 are provided on both the left and right sides of the body 3, and support the body 3 so that it can travel.
  • the traveling device 7 is a wheeled traveling device having front wheels 7F and rear wheels 7R made of tires.
  • a traveling device in which the front or rear wheels are made of crawlers may be used.
  • the vehicle body 3 is equipped with a prime mover 4, a transmission 5, a braking device 13 (Fig. 1), and a steering device 14 (Fig. 1).
  • the prime mover 4 is composed of an engine (diesel engine, gasoline engine) or an electric motor.
  • the transmission 5 changes the speed to vary the propulsive force of the traveling device 7 and to switch the traveling device 7 between forward and reverse.
  • the braking device 13 brakes the vehicle body 3.
  • the steering device 14 steers the vehicle body 3.
  • a cabin 9 is provided on top of the vehicle body 3.
  • a driver's seat 10 and a control device 11 are provided inside the cabin 9.
  • the work machine 1 is a tractor that can travel (drive) unmanned and perform work using the work device 2, but an operator seated in the driver's seat 10 can operate the control device 11 to travel the work machine 1 and perform work using the work device 2.
  • the cabin 9 protects the driver's seat 10 by surrounding it from the front, rear, above, and to the left and right sides.
  • the direction indicated by arrow A1 in Figure 2 is the front of the work device 2.
  • the direction indicated by arrow A2 is the rear of the work device 2.
  • the direction indicated by arrow Z1 is above the work device 2.
  • the direction indicated by arrow Z2 is below the work device 2.
  • the direction perpendicular to the arrows A1, A2, Z1, and Z2 is the width direction (left-right direction) of the work machine 1.
  • the front side of Figure 2 is the left side of the work machine 1, and the back side is the right side of the work machine 1.
  • a coupling device 8 is provided at the rear of the vehicle body 3.
  • the coupling device 8 is composed of a three-point link mechanism or the like.
  • a working device (such as an implement) 2 can be detachably coupled to the coupling device 8.
  • the work machine 1 vehicle body 3
  • the coupling device 8 can also be used to raise and lower the working device 2 and change the attitude of the working device 2.
  • the working devices 2 include a tilling device for tilling, a fertilizer spreading device for spreading fertilizer, a pesticide spreading device for spreading pesticides, a harvesting device for harvesting, a harvesting device for cutting grass etc., a spreading device for spreading grass etc., a grass collecting device for collecting grass etc., a shaping device for shaping grass etc., etc.
  • the working machine 1 performs agricultural work on the field using the working devices 2.
  • a bonnet 12 is provided in front of the cabin 9.
  • the bonnet 12 is attached to the vehicle body 3.
  • a storage room (reference number omitted) is formed between the bonnet 12 and the vehicle body 3.
  • This storage room contains not only the prime mover 4, but also a cooling fan, a radiator, a battery, and the like (not shown).
  • the work machine 1 has an on-board control device 21, on-board communication device 23, position detection device 24, sensing device 25, state detection device 26, steering device 11, actuator group 27, prime mover 4, running device 7, transmission 5, braking device 13, steering device 14, and coupling device 8.
  • an on-board network such as CAN, LIN, or FlexRay is constructed in the work machine 1.
  • the on-board control device 21 is electrically connected to the on-board communication device 23, position detection device 24, sensing device 25, state detection device 26, steering device 11, actuator group 27, and the work machine 2 coupled to the work machine 1 via the on-board network.
  • the on-board control device 21 is composed of an ECU (electronic control unit) that includes a CPU and memory.
  • the on-board control device 21 is a controller that controls the operation of each part of the work machine 1.
  • the memory of the on-board control device 21 is composed of volatile or non-volatile memory, etc.
  • Various information and data used by the on-board control device 21 to control the operation of each part of the work machine 1 are stored in a readable and writable manner in the memory of the on-board control device 21.
  • the in-vehicle communication device 23 is composed of an antenna, an IC, an electric circuit, etc. for wireless communication via a mobile phone communication network, the Internet, or a wireless LAN.
  • the in-vehicle control device 21 communicates wirelessly with the remote device 30 via the in-vehicle communication device 23.
  • the work machine 1 and the remote device 30 communicate via a mobile phone communication network or the like, but in addition to this, for example, the work machine 1 and the remote device 30 may communicate with a mobile phone communication network or the like via an external device such as a server or a repeater. Also, the work machine 1 and the remote device 30 may communicate directly using a short-range wireless signal such as a BLU (Bluetooth (registered trademark) Low Energy) signal or a UHF (Ultra High Frequency) signal. In this case, it is sufficient that the in-vehicle communication device 23 and the remote device 30 are each provided with an interface for short-range wireless communication.
  • a BLU Bluetooth (registered trademark) Low Energy) signal
  • UHF Ultra High Frequency
  • the position detection device 24 is installed, for example, on the top of the cabin 9 ( Figure 2) (details not shown).
  • the installation location of the position detection device 24 is not limited to the top of the cabin 9, and may be another location on the vehicle body 3 or a specified location on the work device 2.
  • the position detection device 24 detects its own position (positioning information including latitude and longitude) using a satellite positioning system. That is, the position detection device 24 receives signals transmitted from positioning satellites (position of the positioning satellite, transmission time, correction information, etc.) and detects its own position based on the signals.
  • the position detection device 24 may detect its own position as a position corrected based on signals such as corrections from a base station (reference station) that can receive signals from the positioning satellites.
  • the position detection device 24 may also have an inertial measurement device such as a gyro sensor or an acceleration sensor. In this case, the position detection device 24 may correct the position (latitude, longitude) detected based on the signal received from the positioning satellite using the inertial measurement device, and detect the corrected position as its own position. The position detection device 24 considers its own detected position to be the position of the work machine 1. Alternatively, the position detection device 24 may calculate the position of the work machine 1 based on its own detected position and pre-stored external information of the work machine 1. The position detection device 24 may also calculate the position of the work machine 2 based on its own detected position, pre-stored external information of the work machine 2, and the mounting position of the work machine 2 relative to the vehicle body 3.
  • an inertial measurement device such as a gyro sensor or an acceleration sensor.
  • the position detection device 24 may correct the position (latitude, longitude) detected based on the signal received from the positioning satellite using the inertial measurement device, and detect the corrected position as its own position.
  • the sensing device 25 senses (monitors) the surroundings of the work machine 1. More specifically, the sensing device 25 has a laser sensor 25a, an ultrasonic sensor 25b, a camera 25c, and an object detection unit 25d.
  • the laser sensor 25a and the ultrasonic sensor 25b are installed at appropriate locations such as the front, rear, left and right sides of the work machine 1 (details not shown), and detect the surrounding conditions such as the front, rear, left and right sides of the work machine 1, and objects in the surroundings.
  • the laser sensor 25a and the ultrasonic sensor 25b are installed at predetermined positions on the vehicle body 3 where they can detect objects that are within a predetermined target detection distance from the work machine 1 and that are lower than the vehicle body 3.
  • the laser sensor 25a and the ultrasonic sensor 25b are examples of object sensors. Note that at least one of the laser sensor 25a and the ultrasonic sensor 25b may be provided in multiple numbers in the sensing device 25 as object sensors. Also, multiple other object sensors may be provided in the sensing device 25.
  • the laser sensor 25a is composed of an optical sensor such as LiDAR (Light Detection And Ranging).
  • the laser sensor 25a emits pulsed measurement light (laser light) millions of times per second from a light source such as a laser diode, and scans the measurement light in the horizontal or vertical direction by reflecting it off a rotating mirror, projecting it onto a predetermined detection range (sensing range).
  • the laser sensor 25a then receives the light reflected by the object of measurement light with a light receiving element.
  • the object detection unit 25d is composed of an electric circuit or IC that detects the presence or absence of an object, the position of the object, and the type of object based on the light receiving signal output from the light receiving element of the laser sensor 25a.
  • the object detection unit 25d detects the distance to the object based on the time between when the laser sensor 25a emits measurement light and when it receives the reflected light (TOF (Time of Flight) method).
  • TOF Time of Flight
  • Objects detected by the object detection unit 25d include the site where the work machine 1 travels and works, the field, crops in the field, the ground, the road surface, other objects, and people.
  • the ultrasonic sensor 25b is composed of an airborne ultrasonic sensor such as a sonar.
  • the ultrasonic sensor 25b transmits measurement waves (ultrasound waves) to a specified detection range using a transmitter, and receives the reflected waves reflected by an object using a receiver.
  • the object detection unit 25d detects the presence or absence of an object, the position of the object, the type of object, etc. based on the signal output from the receiver of the ultrasonic sensor 25b.
  • the object detection unit 25d also detects the distance to the object based on the time from when the ultrasonic sensor 25b transmits the measurement wave to when it receives the reflected wave (TOF method).
  • Camera 25c is composed of a CCD camera equipped with a CCD (Charge Coupled Devices) image sensor, or a CMOS camera equipped with a CMOS (Complementary Metal Oxide Semiconductor) image sensor. Camera 25c is installed at appropriate locations such as the front, rear, left and right sides of work machine 1, and inside cabin 9 (details not shown), captures images of the surroundings such as the front, rear, left and right sides of work machine 1, and outputs data of the captured images. Camera 25c is an example of an imaging device.
  • the internal camera 25c1 installed inside the cabin 9 as shown in FIG. 2 captures an image of the area in front of the work machine 1 from the driver's seat 10. More specifically, the internal camera 25c1 captures an image of the area in front of the work machine 1 with a field of view that is substantially the same as that of an operator seated in the driver's seat 10.
  • the object detection unit 25d can also detect the presence or absence of an object, the position of the object, and the type of object based on the captured image data output from the camera 25c.
  • the sensing device 25 senses (monitors) the surrounding conditions of the work machine 1 and the work device 2 using the laser sensor 25a, ultrasonic sensor 25b, camera 25c, and object detection unit 25d, and outputs sensing information indicating the results to the on-board control device 21.
  • the sensing information includes at least the detection information of the object detection unit 25d and the image data captured by the camera 25c, but in addition to these, the sensing information may also include detection information of the laser sensor 25a and ultrasonic sensor 25b.
  • the state detection device 26 detects the operating states of the work machine 1 and the work devices 2. Specifically, the state detection device 26 includes various sensors installed in each part of the work machine 1 and the work devices 2, and a calculator, and the calculator detects (calculates) the operating states of the work machine 1 and the work devices 2 based on output signals from the various sensors.
  • the state of the work machine 1 detected by the state detection device 26 includes the drive and stop states of each part of the work machine 1, the traveling direction, traveling speed, acceleration, and posture of the work machine 1, etc.
  • the state of the work device 2 detected by the state detection device 26 includes the drive and stop states and posture of each part of the work device 2, etc.
  • the state detection device 26 may acquire the position of the vehicle body 3 (position of the work implement 1) detected by the position detection device 24 at a predetermined cycle, and detect (calculate) the position of the work implement 2 from the position of the vehicle body 3, or detect changes (transitions) in the position of the vehicle body 3.
  • the state detection device 26 may also detect the traveling speed of the vehicle body 3 from changes in the position of the vehicle body 3.
  • a rotation speed sensor may be provided that detects the rotation speed of the wheels 7F, 7R of the traveling device 7 or the rotation speed of the traveling motor that rotates the wheels 7F, 7R, and the state detection device 26 may detect the traveling speed of the vehicle body 3 based on the output signal of the rotation speed sensor.
  • the state detection device 26 generates detection information indicating the detected operating state of the work machine 1 and the work machine 2, and outputs the detection information to the on-board control device 21.
  • the position detection device 24 and the state detection device 26 are examples of detection devices that detect the state of the work machine 1.
  • the position detection device 24 and the status detection device 26 output detection information indicating the results of detection at a predetermined cycle or at a predetermined timing to the in-vehicle control device 21 at any time.
  • the sensing device 25 also outputs sensing information indicating the results of sensing at a predetermined cycle or at a predetermined timing to the in-vehicle control device 21 at any time.
  • the in-vehicle control device 21 stores the detection information and sensing information input from the position detection device 24, the status detection device 26, and the sensing device 25 in its internal memory.
  • the in-vehicle control device 21 also transmits the detection information of the position detection device 24 and the status detection device 26 stored in its internal memory, and the sensing information of the sensing device 25, to the remote device 30 via the in-vehicle communication device 23 at a predetermined timing.
  • the actuator group 27 includes electric or hydraulic motors, cylinders, and control valves for operating each part of the work machine 1, such as the prime mover 4, the traveling device 7, the transmission 5, the braking device 13, and the coupling device 8.
  • the control device 11 includes a steering wheel 11a (FIG. 2), an accelerator pedal, a brake pedal, and a gear shift lever.
  • the on-board control device 21 operates predetermined actuators included in the actuator group 27 according to the operating state of the control device 11 to drive the prime mover 4, the traveling device 7, the transmission 5, the braking device 13, and the steering device 14, and control the traveling and steering of the work machine 1.
  • the on-vehicle control device 21 also communicates with the control unit 2a provided in the work device 2, causing the control unit 2a to control the operation of the work device 2. That is, the on-vehicle control device 21 performs work on the field by controlling the operation of the work device 2 via the control unit 2a. Note that some work devices 2 that can be connected to the work machine 1 do not have a control unit 2a. In this case, the on-vehicle control device 21 controls the attitude of the work device 2 using the coupling device 8, and the work device 2 performs work on the field.
  • the on-board control device 21 controls the travel of the work machine 1, the work performed by the work machine 2, and other operations of the work machine 1 based on the sensing information of the sensing device 25, the detection information of the state detection device 26, the detection information of the position detection device 24, etc. Furthermore, when the on-board control device 21 receives a remote control signal transmitted from the remote device 30 via the on-board communication device 23, it controls the travel of the work machine 1, the work performed by the work machine 2, and other operations of the work machine 1 based on the remote control signal in addition to the above information.
  • the on-board control device 21 determines, from the detection information of the object detection unit 25d, whether or not an object is approaching the work machine 1 or the work device 2 within a predetermined distance and there is a risk of contact. Then, when the on-board control device 21 determines that an object is approaching the work machine 1 or the work device 2 within a predetermined distance and there is a risk of contact, it controls the travel device 7 or the work device 2, etc., to automatically stop the travel or work of the work machine 1 and avoid contact with the object.
  • the remote device 30 is composed of a portable terminal device such as a tablet device or a smartphone, or a stationary computer installed in a base station (not shown).
  • the remote device 30 is composed of a remote operation and monitoring device that remotely operates and monitors the work machine 1. That is, the operator remotely operates the work machine 1 using the remote device 30 and monitors the surrounding conditions of the work machine 1.
  • the remote device 30 may be composed of a remote monitoring device that remotely monitors the work machine 1, and a remote operation device that remotely operates the work machine 1 may be provided separately from the remote device 30.
  • the remote device 30 is provided with a control device 31, a communication device 33, a display device 34, and an operation device 35.
  • the control device 31 is composed of a CPU and the like.
  • the control device 31 is a processor that controls the operation of each part of the remote device 30.
  • the internal memory 32 provided in the control device 31 is a volatile or non-volatile memory. Various types of information and data used by the control device 31 to control the operation of each part of the remote device 30 are stored in a readable and writable manner in the internal memory 32.
  • the communication device 33 is composed of an antenna, an IC, an electric circuit, etc. for wireless communication via a mobile phone network, the Internet, or a wireless LAN.
  • the control device 31 communicates wirelessly with the work machine 1 via the communication device 33.
  • the display device 34 is composed of, for example, a liquid crystal display. Information for remotely operating the work machine 1 is displayed on the display device 34.
  • the operation device 35 is composed of, for example, a touch pad or a hardware switch. By operating the operation device 35, the operator can remotely operate the travel of the work machine 1 or the work performed by the work machine 2, and can also monitor the work machine 1 and the surrounding situation using the display device 34. In addition, the operator can input specified information or instructions to the remote device 30 by operating the operation device 35.
  • the operation device 35 is an example of an input device.
  • the display device 34 and the operation device 35 are also an example of a user interface.
  • a user interface in which a display device and an operation device are integrated, such as a touch panel, may be provided in the remote device 30.
  • the control device 31 When the operator operates the operation device 35 to input an operation instruction for the work machine 1, the control device 31 generates a remote operation signal corresponding to the operation instruction and transmits the remote operation signal to the work machine 1 via the communication device 33.
  • the on-board control device 21 of the work machine 1 receives a remote operation signal from the remote device 30 via the on-board communication device 23, it operates each part of the work machine 1 based on the remote operation signal, the detection information of the position detection device 24, the sensing information of the sensing device 25, and the detection information of the state detection device 26, to control the travel and steering of the work machine 1 and to control the work operation by the work device 2.
  • the on-board control device 21 also transmits the detection information of the position detection device 24 and the status detection device 26, and the sensing information of the sensing device 25 to the remote device 30 via the on-board communication device 23.
  • the control device 31 of the remote device 30 receives the detection information of the position detection device 24 and the status detection device 26, and the sensing information of the sensing device 25 via the communication device 33, it stores this information in the internal memory 32 and displays it on the display device 34.
  • the control device 31 also causes the display device 34 to display a sensing map showing the periphery of the work machine 1 and the attention area of the periphery based on sensing information from the sensing device 25, as described below.
  • the sensing information includes a specific object in the periphery of the work machine 1
  • the control device 31 causes an object object indicating the position of the object to be displayed on the sensing map.
  • the control device 31 also causes the object object to be displayed on the sensing map in a form corresponding to its relative position with respect to the attention area.
  • the control device 31 causes the display device 34 to display images captured by the multiple cameras 25c included in the sensing information on the same screen as the sensing map.
  • FIG 3 is a flowchart showing the operation of the work machine 1 and the remote device 30.
  • the control device 31 transmits a request signal requesting information detected by the work machine 1 to the work machine 1 via the communication device 33 (S1).
  • the on-board control device 21 of the work machine 1 receives the request signal from the remote device 30 via the on-board communication device 23 (S11), it transmits the detection information of the position detection device 24 and status detection device 26, and the sensing information of the sensing device 25 to the remote device 30 via the on-board communication device 23 (S12).
  • control device 31 of the remote device 30 When the control device 31 of the remote device 30 receives the detection information of the position detection device 24 and the status detection device 26 and the sensing information of the sensing device 25 via the communication device 33 (S2), it stores this information in the internal memory 32.
  • the control device 31 also reads the detection information of the position detection device 24 and the status detection device 26, the sensing information of the sensing device 25, the device information indicating the specifications of the work machine 1 and the work machine 2, and the map information of the surroundings of the work machine 1, all stored in the internal memory 32 (S3).
  • the control device 31 displays a remote monitoring screen on the display device 34 based on the detection information of the position detection device 24 and the status detection device 26, the sensing information of the sensing device 25, the device information, and the map information (S4).
  • the internal memory 32 prestores map information for the area where the work machine 1 is located.
  • the control device 31 extracts the position of the work machine 1 from the detection information of the position detection device 24, and regards an area within a predetermined distance from the position of the work machine 1 as the periphery of the work machine 1, and reads map information for that area from the internal memory 32.
  • the control device 31 may receive map information for an area within a predetermined distance from the position of the work machine 1 from an external server via the Internet or the like using the communication device 33, and read the received map information.
  • FIG. 4 is a diagram showing an example of a remote monitoring screen 40 displayed on the display device 34.
  • a sensing map 41 showing the state of the surroundings of the work machine 1, captured images 42a to 42d, and windows 43, 44, and 45 showing the state of the work machine 1 are displayed.
  • FIG. 5 is an enlarged view of an example of the sensing map 41.
  • the control device 31 Based on the sensing information of the sensing device 25 and the image information stored in the internal memory 32, the control device 31 causes the display device 34 to display on the remote monitoring screen 40 an actual work machine object 57 indicating the current position of the work machine 1, and a sensing map 41 showing the periphery of the work machine 1 and the attention areas 52, 53 in the periphery in an overhead view, on the remote monitoring screen 40.
  • the control device 31 also causes object objects 56a to 56c indicating the positions of predetermined objects in the periphery of the work machine 1 to be displayed on the sensing map 41.
  • the predetermined objects include obstacles such as people or objects that impede the travel of the work machine 1 and that the work machine 1 must avoid coming into contact with.
  • the predetermined objects will be referred to as "obstacles”.
  • the control device 31 also displays an emergency stop area 52 and a warning area 53 on the sensing map 41 as attention areas 52, 53.
  • the emergency stop area 52 is an area in which the work machine 1 will automatically make an emergency stop if an obstacle is present.
  • the warning area 53 is an area in which a warning is given of the approach of an obstacle to the work machine 1 if an obstacle is present.
  • the emergency stop area 52 and the warning area 53 are set in advance at positions a predetermined distance away from the work machine 1.
  • the on-board control device 21 of the work machine 1 controls the travel device 7 and braking device 13, etc. to bring the work machine 1 (body 3) to an emergency stop (or to a temporary stop if it is being remotely operated).
  • the on-board control device 21 may sound a horn or buzzer mounted on the work machine 1 to warn of an approaching obstacle to the work machine 1.
  • the display device 34 may display warning information indicating that an obstacle is approaching the work machine 1 on the remote monitoring screen 40, etc.
  • the control device 31 may output the warning information as sound or voice from a speaker provided in the remote device 30, or by the vibration action of a vibrator provided in the remote device 30.
  • the control device 31 of the remote device 30 displays not only the emergency stop area 52 and warning area 53, but also the inner area 51, outer area 54, and detection area 55 on the sensing map 41.
  • the control device 31 determines the area surrounded by a circumference C1 of a predetermined first radius from the center of the work machine 1 (vehicle body 3) as the inner area 51, and displays the actual work machine object 57 in the inner area 51.
  • the area on the circumference C1 is the inner area 51.
  • the working machine 1 Even if the on-board control device 21 applies emergency braking to the working machine 1 while it is moving, in the front and rear parts of the inner area 51 where the working machine 1 can proceed, the working machine 1 may not be able to stop and may proceed to the emergency stop area 52 depending on the traveling speed of the working machine 1.
  • the control device 31 also determines the area surrounded by a circumference C1 of a first radius from the center of the work machine 1 and a circumference C2 of a predetermined second radius larger than the first radius as the emergency stop area 52.
  • the area on circumference C2 is the emergency stop area 52.
  • the control device 31 may set the minimum value of the braking distance when the work machine 1 travels at a predetermined range of travel speeds to the radius of circumference C1, and may set the maximum value of the braking distance to the radius of circumference C2.
  • the control device 31 also determines the area surrounded by a circumference C2 of a second radius from the center of the work machine 1 and a circumference C3 of a predetermined third radius larger than the second radius to be the warning area 53.
  • the area on circumference C3 is the warning area 53.
  • the control device 31 also determines the area surrounded by a circumference C3 of a third radius from the center of the work machine 1 and a circumference C4 of a predetermined fourth radius larger than the third radius to be the outer area 54.
  • the area on circumference C4 is the outer area 54.
  • Information such as the size of the circumferences C1 to C4 that form the outer periphery of each area 51 to 54 is set in advance according to the specifications of the work machine 1, such as its external size and driving performance, and is stored in the internal memory 32 of the remote device 30 and in the memory of the on-board control device 21 of the work machine 1, respectively.
  • the control device 31 also displays the target objects 56a-56c, which indicate the position of an obstacle detected by at least one of the multiple laser sensors 25a and ultrasonic sensors 25b provided on the work machine 1, in a circular shape smaller than the actual work machine object 57 on the sensing map 41.
  • the control device 31 also displays the detection area 55 of at least one of the multiple laser sensors 25a and ultrasonic sensors 25b that detected an obstacle corresponding to the target objects 56a-56c, in a sector shape on the sensing map 41.
  • the control device 31 may also set the maximum distance at which the multiple laser sensors 25a and ultrasonic sensors 25b provided on the work machine 1 can detect an obstacle to the radius of the circumference C4 that constitutes the outer periphery of the outer area 54.
  • the control device 31 also displays each of the regions 51-55 on the sensing map 41 in a different appearance, such as a different color or pattern.
  • each of the regions 51-55 is displayed with hatching, patterns, or white outlines so that they appear different.
  • the control device 31 displays the emergency stop area 52 and the warning area 53 so that the appearance of the emergency stop area 52 is emphasized more than the appearance of the warning area 53.
  • the control device 31 also displays the warning area 53 and the outer area 54 so that the appearance of the warning area 53 is emphasized more than the appearance of the outer area 54.
  • the control device 31 displays the outer area 54, the warning area 53, and the emergency stop area 52 on the sensing map 41 in that order with darker display colors, denser patterns, or higher brightness.
  • the control device 31 displays the detection area 55 transparently so that the other areas 51 to 54 that overlap with the detection area 55 can be seen.
  • the inner area 51 is displayed in white in the example of FIG. 4, but the control device 31 may display the inner area 51 so that the appearance of the inner area 51 is emphasized more than the appearance of the emergency stop area 52.
  • the control device 31 displays the target objects 56a-56c on the sensing map 41 in a form that corresponds to their relative positions with the emergency stop area 52 and the warning area 53.
  • the control device 31 changes the display form of the target objects 56a-56c depending on whether the target objects 56a-56c are in the emergency stop area 52, the warning area 53, or outside the emergency stop area 52 and the warning area 53 (outer area 54).
  • the control device 31 changes the color, pattern, brightness, lightness, saturation, size, shape, etc. of the object objects 56b, 56c so as to emphasize the display of the object object 56b in the warning area 53 more than the display of the object object 56c in the outer area 54.
  • the control device 31 also changes the color, pattern, brightness, lightness, saturation, size, shape, etc. of the object objects 56a, 56b so as to emphasize the display of the object object 56a in the emergency stop area 52 more than the display of the object object 56b in the warning area 53.
  • control device 31 displays the target objects 56a, 56b, and 56c on the sensing map 41 in the order of darker display color, denser pattern, or higher brightness.
  • the control device 31 may display the target object 56a in red, the target object 56b in green (or yellow), and the target object 56c in black (or green).
  • the control device 31 may also change the display form of the emergency stop area 52 and the warning area 53 depending on the travel speed of the work machine 1 contained in the detection information of the state detection device 26. Specifically, for example, as shown in Figures 5 and 6, the control device 31 increases the circumferences C2 and C3 as the travel speed of the work machine 1 increases, thereby increasing the size of the emergency stop area 52 and the warning area 53, respectively.
  • Figure 5 shows the sensing map 41 when the travel speed of the work machine 1 is 0.0 km/h
  • Figure 6 shows the sensing map 41 when the travel speed of the work machine 1 is 10.0 km/h.
  • control device 31 may widen the emergency stop area 52 and the warning area 53 in the traveling direction of the work machine 1 as the traveling speed of the work machine 1 increases. Also, the control device 31 may increase the circumferences C1 and C4 to increase the size of the inner area 51 and the outer area 54, respectively, as the traveling speed of the work machine 1 increases.
  • the control device 31 may change the display form of the emergency stop area 52 and the warning area 53 according to the specifications of the work device 2.
  • the control device 31 checks whether the work device 2 is connected to the work machine 1 based on the detection information of the state detection device 26, and if the work device 2 is connected to the work machine 1, extracts the external size (specifications) of the work device 2 from the device information read from the internal memory 32. Then, the control device 31 displays a work device object 58 indicating the work device 2 together with the actual work machine object 57 on the sensing map 41 according to the external size of the work device 2, as shown in FIG. 7, and changes the display form of the inner area 51, emergency stop area 52, warning area 53, and outer area 54.
  • control device 31 increases the circumferences C1, C2, C3 as the external size of the working device 2 increases, thereby increasing the size of the inner region 51, the emergency stop region 52, and the warning region 53.
  • the control device 31 may also increase the circumference C4 as the external size of the working device 2 increases, thereby increasing the size of the outer region 54.
  • the control device 31 may also change the shape of each region 51-54 depending on the external size of the working device 2.
  • control device 31 may change the shape of each of the areas 51-54 depending on the type of work device 2.
  • the equipped work members may be exposed. Therefore, for example, when a work device 2 with exposed work members is connected to the work machine 1, the control device 31 may make the emergency stop area 52 and the warning area 53 larger than when a work device 2 with unexposed work members is not connected to the work machine 1.
  • the outer periphery (circumferences C1 to C4) of each of the areas 51 to 54 of the sensing map 41 is circular, but this is not limiting.
  • the control device 31 may change the outer periphery shape of each of the areas 51 to 54 based on the specifications of the work machine 1 contained in the device information read from the internal memory 32.
  • control device 31 may display, for example, an emergency stop area 52 and a warning area 53 in the traveling direction of the work machine 1, which are included in the detection information of the state detection device 26, on the sensing map 41, as shown in FIG. 8.
  • the emergency stop area 52, warning area 53, and detection area 55 in a predetermined range ahead where the advancing work machine 1 can travel are displayed as triangles, rectangles, or pentagons on the sensing map 41.
  • the control device 31 may enlarge the emergency stop area 52 and warning area 53 forward as the traveling speed of the work machine 1 increases, as shown in FIG. 8 and FIG. 9.
  • the control device 31 may also change the display positions of the emergency stop area 52 and the warning area 53, as shown in Figures 8 to 10, according to the steering angle ⁇ of the work machine 1 included in the detection information of the state detection device 26.
  • the control device 31 rotates the emergency stop area 52 and the warning area 53 according to the steering angle ⁇ of the front wheels 7F of the work machine 1, and changes the size of the emergency stop area 52 to display the emergency stop area 52 and the warning area 53 so that they face the steering direction of the work machine 1.
  • the control device 31 may also estimate the position of the work machine 1 after a predetermined time based on the travel direction and travel speed of the work machine 1 included in the detection information of the state detection device 26, and display estimated work machine objects 59a, 59b indicating the position of the work machine 1 after a predetermined time on the sensing map 41, for example, as shown in FIG. 11.
  • the estimated work machine objects 59a, 59b indicate the outline of the front of the work machine 1.
  • the estimated work machine object 59a indicates the estimated position of the work machine 1 three seconds later
  • the estimated work machine object 59b indicates the estimated position of the work machine 1 six seconds later.
  • the elapsed time for estimating the position of the work machine 1 and the number of estimated work machine objects 59a, 59b are not limited to the above, and may be appropriately set by the operator operating the operation device 35.
  • the control device 31 causes the display device 34 to display images 42a-42d captured by the multiple cameras 25c provided on the work machine 1 on the remote monitoring screen 40.
  • the control device 31 causes the remote monitoring screen 40 to display image 42a captured by internal camera 25c1 (FIG. 2) which captures an image of the area in front of the work machine 1 from above the driver's seat 10 installed inside the cabin 9.
  • Image 42 reflects part of the interior of the cabin 9, the front of the work machine 1, and the surrounding environment in front of the work machine 1.
  • the control device 31 also displays an image 42b captured by the front camera 25c, which captures an image in front of the work machine 1, on the remote monitoring screen 40.
  • the captured image 42b reflects the front of the work machine 1 and the surrounding environment in front of the work machine 1 (reference numbers omitted).
  • the control device 31 may generate an image based on the image 42a captured by the internal camera 25c1, as if the front of the work machine 1 is being viewed from outside the cabin 9, and display the image on the remote monitoring screen 40.
  • the control device 31 also displays an image 42c captured by the rear camera 25c, which captures an image behind the work machine 1, on the remote monitoring screen 40.
  • the captured image 42c reflects the surrounding environment behind the work machine 1.
  • the control device 31 also synthesizes the captured images of the front, rear, left, and right of the work machine 1 captured by the multiple cameras 25c, and displays a synthesized captured image 42d (a so-called around view monitor) showing an overhead view of the surroundings of the work machine 1 on the remote monitoring screen 40.
  • the captured image 42d reflects the actual work machine object 57 and the surrounding environment of the work machine 1.
  • the control device 31 displays the captured image 42a of the front view from the driver's seat 10 as the largest of the multiple captured images 42a to 42d, and displays the captured image 42d of the bird's-eye view as larger than the captured image 42b of the front view and the captured image 42c of the rear view.
  • the control device 31 also determines the obstacles 61a, 61b, and 61c that appear in the captured images 42a to 42d, and displays teaching objects 62a, 62b, and 62c that teach the obstacles 61a, 61b, and 61c in the captured images 42a to 42d.
  • the teaching objects 62a, 62b, and 62c are so-called bounding boxes.
  • the teaching objects 62a, 62b, and 62c are frame-shaped objects that surround the obstacles 61a, 61b, and 61c, but are not limited to this form.
  • the teaching objects may be configured from objects of other display forms, such as elliptical objects that surround the obstacles 61a, 61b, and 61c, or arrow-shaped objects that point to the obstacles 61a, 61b, and 61c.
  • the target object 56a in the sensing map 41 corresponds to the obstacle 61a
  • the target object 56b corresponds to the obstacle 61b
  • the target object 56c corresponds to the obstacle 61c.
  • the target object 56a represents the obstacle 61a
  • the target object 56b represents the obstacle 61b
  • the target object 56c represents the obstacle 61c.
  • the control device 31 also synchronizes the display forms, such as the colors or patterns, of the target objects 56a to 56c and the teaching objects 62a to 62c, which correspond to the same obstacles 61a to 61c, respectively (matching the display colors or patterns).
  • the control device 31 extracts the distance to the obstacles 61a, 61b, and 61c from the detection information of the laser sensor 25a and the ultrasonic sensor 25b included in the sensing information of the sensing device 25, and changes the display form of the teaching objects 62a, 62b, and 62c according to the distance to the obstacles 61a, 61b, and 61c.
  • the control device 31 emphasizes the display of the teaching objects 62a, 62b, and 62c as the distance to the obstacles 61a, 61b, and 61c surrounded by the teaching objects 62a, 62b, and 62c becomes closer.
  • the control device 31 also displays the teaching objects 62a, 62b, 62c in the captured images 42a to 42d in a form that corresponds to the relative positions of the obstacles 61a, 61b, 61c surrounded by the teaching objects 62a, 62b, 62c, the emergency stop area 52, and the warning area 53.
  • control device 31 changes the color, brightness, lightness, saturation, size, or shape of the teaching objects 62a, 62b so as to emphasize the display of the teaching object 62a that teaches the obstacle 61a at a distance equivalent to the emergency stop area 52 more than the display of the teaching object 62b that teaches the obstacle 61b at a distance equivalent to the warning area 53 from the work machine 1.
  • the control device 31 also changes the color, brightness, lightness, saturation, size, or shape of the teaching objects 62b, 62c so as to emphasize the display of the teaching object 62b that teaches the obstacle 61b at a distance equivalent to the warning area 53 more than the display of the teaching object 62c that teaches the obstacle 61c at a distance equivalent to the outer area 54 from the work machine 1.
  • the control device 31 displays the corresponding teaching objects 62c, 62b, and 62a in darker display colors or with increasing brightness in that order.
  • the control device 31 may display the teaching object 62a in red, the teaching object 62b in green (or yellow), and the teaching object 62c in black (or green).
  • the control device 31 estimates the position of the object 61b in the captured image 42a based on the detection information of the laser sensor 25a and the ultrasonic sensor 25b, and displays a teaching object 62b in the captured image 42a according to the estimated position of the obstacle 61b. At this time, the control device 31 superimposes the teaching object 62b on a part of the work machine 1 shown in the captured image 42a. Furthermore, the control device 31 displays a message 45a indicating that an obstacle is ahead and in the blind spot in window 45 without superimposing it on the sensing map 41, the captured images 42a to 42d, and windows 43 and 44 of the remote monitoring screen 40.
  • the control device 31 estimates the position of an obstacle hidden by part of the work machine 1, and displays a teaching object in the captured image 42a according to the estimated position of the obstacle. Furthermore, when an obstacle is hidden by part of the work device 2 connected to the work machine 1 shown in the captured images 42a to 42d, the control device 31 may similarly estimate the position of the obstacle, display a teaching object according to the estimated position of the obstacle, and display a message in the window 45 indicating that the obstacle is in a blind spot.
  • control device 31 may display a message 45e in the window 45 to warn that an obstacle is approaching the work machine 1.
  • the message 45e also indicates that the obstacle is approaching from the left front.
  • the control device 31 also determines the approaching direction of the obstacle to the work machine 1 based on the detection information of the laser sensor 25a and the ultrasonic sensor 25b included in the sensing information of the sensing device 25. Then, as shown in FIG. 13, for example, the control device 31 displays notification objects 63a, 63b notifying the approach of the obstacles 61a, 61b at locations on the periphery of the captured image 42a that correspond to the approaching direction of the obstacles 61a, 61b.
  • control device 31 displays fan-shaped notification object 63a notifying the approach of obstacle 61a in the lower left corner of captured image 42a, which has the largest display area, and displays fan-shaped notification object 63b notifying the approach of obstacle 61b in the upper left corner of captured image 42a.
  • a notification object 63b notifying the approach of the obstacle 61b may be displayed.
  • the control device 31 also varies the display form of the corresponding notification objects 63a, 63b depending on the distance from the work machine 1 to the target objects 61a, 61b. For example, the control device 31 changes the color, brightness, luminance, saturation, size, shape, etc. of the notification objects 63a, 63b so as to emphasize the display of the notification object 63a corresponding to the obstacle 61a at a distance equivalent to the emergency stop area 52 more than the display of the notification object 63b corresponding to the obstacle 61b at a distance equivalent to the warning area 53 from the work machine 1.
  • the control device 31 may also display the notification object 63a in red and the notification object 63b in green (or yellow).
  • the control device 31 may also display a semicircular or other notification object in the center of the bottom, left, or right end of the captured image 42a corresponding to the approaching direction of the obstacle when, for example, an obstacle is approaching from directly behind or directly beside (left or right) the work machine 1.
  • the control device 31 may also display a notification object corresponding to an obstacle at a distance equivalent to the outer region 54 on the periphery of the captured image 42a.
  • the control device 31 displays the state of the work machine 1 detected by the state detection device 26 in windows 43 and 44 of the remote monitoring screen 40.
  • the window 43 displays that the traveling direction of the traveling device 7 has been switched to the forward direction ("Shuttle: F"), that the sub-speed of the transmission 5 has been switched to a high speed gear ("Sub-speed: High”), that the state of the main speed (continuously variable speed) is 0% (“Main speed: 0%), and that the operation amount of the accelerator pedal is 0% (accelerator pedal memory and cursor).
  • the window 44 also displays that the position detection device 24, the status detection device 26, and the sensing device 25 are monitoring the work machine 1 and its surroundings ("Monitoring"), and that the travel speed of the work machine 1 (body 3) is 0.0 km/h (i.e., stopped state).
  • the information displayed in the windows 43, 44 is not limited to the above-mentioned states of the work machine 1, and the control device 31 may display states of the work machine 1 other than those described above in the windows 43, 44. Furthermore, the number of windows 43, 44 is not limited to two, and may be one or three or more. Furthermore, the control device 31 may display not only the state of the work machine 1, but also whether or not the work device 2 is connected to the work machine 1, the type and posture of the work device 2, etc., in the windows of the remote monitoring screen 40 based on the detection information of the state detection device 26.
  • the control device 31 transmits a remote operation signal corresponding to the operation command to the work machine 1 via the communication device 33 (S5 in FIG. 3: YES), and also transmits a request signal via the communication device 33 to the work machine 1 (S1).
  • the on-board control device 21 of the work machine 1 When the on-board control device 21 of the work machine 1 receives a remote control signal via the on-board communication device 23, it controls the travel of the work machine 1, etc., based on the remote control signal, the detection information from the position detection device 24 and the status detection device 26, and the sensing information from the sensing device 25. Also, as described above, when the on-board control device 21 receives a request signal via the on-board communication device 23 (S11), it transmits the detection information from the position detection device 24 and the status detection device 26, and the sensing information from the sensing device 25 to the remote device 30 via the on-board communication device 23 (S12).
  • the control device 31 executes the processing of steps S3 and S4 as described above. This updates the sensing map 41, captured images 42a to 42d, and display contents of windows 43 to 45 on the remote monitoring screen 40 displayed on the display device 34.
  • the on-board control device 21 detects that an obstacle has entered the emergency stop area 52 based on the sensing information of the sensing device 25, it automatically brings the work machine 1 to an emergency stop to avoid contact between the work machine 1 and the obstacle (S13: YES). Then, the on-board control device 21 transmits the detection information of the position detection device 24 and the status detection device 26, and the sensing information of the sensing device 25 to the remote device 30 via the on-board communication device 23 (S12).
  • the sensing information of the sensing device 25 transmitted to the remote device 30 includes information indicating that an obstacle has been detected in the emergency stop area 52, and the detection information of the status detection device 26 includes information indicating that the work machine 1 has been brought to an emergency stop.
  • control device 31 of the remote device 30 When the control device 31 of the remote device 30 confirms that an obstacle has been detected in the emergency stop area 52 and that the working machine 1 has been brought to an emergency stop based on the sensing information of the sensing device 25 and the detection information of the status detection device 26 received by the communication device 33 in step S2, it displays a message 45b in the window 45 of the remote monitoring screen 40, as shown in FIG. 4, indicating that the working machine 1 has been temporarily stopped (or emergency stopped).
  • the operator may view the sensing map 41 on the remote monitoring screen 40 and/or the captured images 42a to 42d, and may input a stop command to stop the travel of the work machine 1 through the operating device 35, for example, to avoid contact between the work machine 1 (or the work machine 2) and an obstacle.
  • the control device 31 transmits a remote control signal corresponding to an instruction to stop the travel of the work machine 1 via the communication device 33 (S5 in FIG. 3: YES), and further transmits a request signal via the communication device 33 (S1).
  • the on-board control device 21 of the work machine 1 receives a remote control signal corresponding to the stop instruction via the on-board communication device 23, it stops the travel of the work machine 1, and when it further receives a request signal via the on-board communication device 23 (S11), it transmits the detection information of the position detection device 24 and the status detection device 26, and the sensing information of the sensing device 25 via the on-board communication device 23 (S12).
  • the control device 31 may also determine whether an obstacle is in either the inner area 51 or the emergency stop area 52 while the work machine 1 is stopped (when the travel speed is 0.0 km/h) based on the sensing map 41. Then, if an obstacle is not in the inner area 51 or the emergency stop area 52, when the operator inputs a travel instruction for the work machine 1 using the operation device 35, the control device 31 may accept the travel instruction and transmit a remote operation signal corresponding to the travel instruction to the work machine 1.
  • control device 31 may not accept the instruction and may keep the work machine 1 stopped. Furthermore, if the driving instruction is not accepted in this way, the control device 31 may display, for example, a message 45c indicating that an obstacle has been detected ahead and a message 45d indicating that driving of the work machine 1 is prohibited in the window 45 of the remote monitoring screen 40 as shown in FIG. 14.
  • the sensing device 25 may detect it incorrectly, or there may be no risk of contact between the obstacle and the work machine 1.
  • the operator may look at the sensing map 41 and/or the captured images 42a-42d displayed on the remote monitoring screen 40, determine that there is no danger, and input a specified stop release command via the operation device 35, and the control device 31 may permit the work machine 1 to travel by remote control in response to the stop release command and receive the driving command.
  • the control device 31 displays an additional information menu 46 in an empty area of the remote monitoring screen 40 as shown in FIG. 15 (S7 in FIG. 3).
  • the additional information menu 46 displays headings of multiple pieces of additional information that can be added and displayed on the remote monitoring screen 40.
  • the multiple pieces of additional information include information based on map information such as non-travelable areas around the work machine and the elevation difference of the ground, sensing information such as the distance to obstacles 61a-61c, and information detected by the status detection device 26 such as the attitude of the work machine 1 and the travelable distance.
  • the operator operates the operation device 35 to select any additional information from the additional information menu 46, inputting an instruction to display the additional information (S8 in FIG. 3: YES), and the control device 31 causes the additional information to be displayed on the remote monitoring screen 40 (S9).
  • the control device 31 detects the non-traveling areas, which include cliffs and structures on which the work machine 1 cannot travel, based on the map information around the work machine 1. The control device 31 then displays the non-traveling areas 65 on the sensing map 41 displayed on the remote monitoring screen 40 in a form different from the other areas 51 to 55, as shown in FIG. 16.
  • the control device 31 detects the ground elevation difference in the traveling direction (forward) of the work machine 1 based on map information about the area around the work machine 1. The control device 31 then displays the ground elevation difference 66 as shown in FIG. 17 on the sensing map 41 displayed on the remote monitoring screen 40. In the example of FIG. 17, the control device 31 displays the ground gradient (8° uphill) in the traveling direction (forward direction) of the work machine 1 as elevation difference 66 on the sensing map 41.
  • the operator may operate the operation device 35 to set and input a target point in the sensing map 41.
  • the control device 31 may then detect the change in ground gradient or elevation from the current position of the work machine 1 to the target point from the map information, and may display the change in ground gradient or elevation in graph form, superimposed on part of the sensing map 41 or on the additional information menu 46, or displayed in an empty area of the remote monitoring screen 40.
  • control device 31 may display the additional information on the sensing map 41, the additional information menu 46, or in an empty area of the remote monitoring screen 40.
  • the sensing device 25 is provided on the work machine 1, but in addition to this, for example, a sensing device that senses the work machine 1 and its surroundings may be provided at the site where the work machine 1 travels (such as a road or a farm field).
  • the sensing device may be provided with a communication interface that communicates wirelessly, and the sensing information of the sensing device may be transmitted to the on-board communication device 23 of the work machine 1 and the remote device 30 via the communication interface.
  • the remote operation support system 100 for a work machine of this embodiment includes a sensing device 25, a remote device 30 having a display device 34 that displays sensing information sensed by the sensing device 25, and a control device 31 that controls the display device 34.
  • the control device 31 causes the display device 34 to display a sensing map 41 showing the periphery of the work machine 1 and attention areas 52, 53 of the periphery, and when the sensing information includes objects 61a, 61b, 61c located in the periphery of the work machine 1, causes the sensing map 41 to display object objects 56a, 56b, 56c showing the positions of the objects 61a, 61b, 61c.
  • the operator can easily grasp the positional relationship between the work machine 1 and the target objects 56a, 56b, 56c by looking at the sensing map 41 displayed on the display device 34.
  • the operator can also easily determine whether or not the targets 61a, 61b, 61c corresponding to the target objects 56a, 56b, 56c are in the attention areas 52, 53 around the work machine 1, and can easily get a sense of the distance from the work machine 1 to the targets 61a, 61b, 61c.
  • the operator can easily remotely operate the work machine 1 using the remote device 30.
  • the control device 31 displays, as attention areas 52, 53, an emergency stop area 52 in which the work machine 1 is brought to an emergency stop if a specified object (obstacle) is present, and a warning area 53 that warns of the approach of a specified object to the work machine 1, on the sensing map 41, and changes the display form of the target objects 56a, 56b, 56c depending on whether the target objects 56a, 56b, 56c are in the emergency stop area 52, the warning area 53, or outside the emergency stop area 52 and the warning area 53 (outer area 54).
  • the configuration of item 2 above allows the operator to easily determine at a glance whether the objects 61a-61c corresponding to the target objects 56a-56c are in the emergency stop area 52 around the work machine 1, the warning area 53, or the area 54 outside the areas 52 and 53.
  • the emergency stop area 52, the warning area 53, and the outer area 54 are set in that order in the direction away from the work machine 1, so that it is easy to see at a glance whether the objects 61a-61c are in a dangerous position relative to the work machine 1.
  • control device 31 emphasizes the display of the object object 56b in the warning area 53 more than the display of the object object 56c outside the emergency stop area 52 and the warning area 53, and emphasizes the display of the object object 56a in the emergency stop area 52 more than the display of the object object 56b in the warning area 53.
  • the configuration of item 3 above allows the operator to carefully remotely operate the work machine 1 using the remote device 30 by paying more attention to the position of objects in high-risk areas than to the position of objects in low-risk areas.
  • the sensing device 25 includes a plurality of object sensors 25a, 25b (laser sensor 25a, ultrasonic sensor 25b) provided on the work machine 1 and detecting objects 61a, 61b, 61c in front of, behind, to the left, and to the right of the work machine 1, and the control device 31 displays object objects 56a, 56b, 56c indicating the positions of the objects 61a, 61b, 61c detected by at least one of the object sensors 25a, 25b on the sensing map 41, and also displays the detection area 55 of at least one of the object sensors 25a, 25b that detected the objects 61a, 61b, 61c on the sensing map 41.
  • object sensors 25a, 25b laser sensor 25a, ultrasonic sensor 25b
  • the configuration of item 4 above allows the operator to know whether the object sensors 25a and 25b are correctly detecting the objects 61a, 61b, and 61c.
  • the work machine remote operation support system 100 includes detection devices 24, 26 (position detection device 24, state detection device 26) that detect the state of the work machine 1, and the control device 31 changes the display form of the attention areas 52, 53 according to the travel speed of the work machine 1 detected by the detection devices 24, 26.
  • the configuration of item 5 above allows the operator to easily grasp the positional relationship between the attention areas 52, 53 and the objects 61a to 61c according to the travel speed of the work machine 1.
  • the attention areas 52, 53 are enlarged as the travel speed of the work machine 1 increases, so that the operator can grasp whether the objects 61a to 61c are about to enter the attention areas 52, 53.
  • control device 31 changes the display form of the attention areas 52, 53 according to the specifications of the work device 2 connected to the work machine 1.
  • the configuration of item 6 above allows the operator to easily grasp the positional relationship between the attention areas 52, 53 and the objects 61a to 61c according to the specifications of the work device 2.
  • the attention areas 52, 53 are enlarged as the external size of the work device 2 increases, so that the operator can easily grasp the positional relationship between the work device 2 and the objects 61a to 61c.
  • the control device 31 displays, on the sensing map 41, attention areas 52, 53 in the travel direction of the work machine 1 detected by the detection devices 24, 26.
  • control device 31 varies the display positions of the attention areas 52, 53 according to the steering angle ⁇ of the work machine 1 detected by the detection device 26.
  • the control device 31 estimates the position of the work machine 1 after a predetermined time based on the travel direction and travel speed of the work machine 1 detected by the detection devices 24 and 26, and displays on the sensing map 41 estimated work machine objects 59a and 59b indicating the estimated position of the work machine 1 after the predetermined time, and an actual work machine object 57 indicating the current position of the work machine 1.
  • the sensing device 25 includes an imaging device 25c that captures images of the surroundings of the work machine 1, and the control device 31 causes the display device 34 to display the captured images 42a to 42d of the imaging device 25c and the sensing map 41 on the screen (remote monitoring screen) 40.
  • the configuration of item 10 above allows the operator to easily view the sensing map 41 and the captured images 42a-42d around the work machine 1 by looking at the remote monitoring screen 40, enabling the operator to grasp the positional relationship between the work machine 1 and the objects 61a-61c in more detail.
  • the sensing map 41 and the captured images 42a-42d are simultaneously displayed on the remote monitoring screen 40, it is possible to reduce the amount of eye movement of the operator when looking at the sensing map 41 and the captured images 42a-42d, thereby reducing the monitoring burden on the operator.
  • the imaging device 25c includes a plurality of cameras provided on the work machine 1 for imaging the front, rear, left, and right of the work machine 1, respectively, and the control device 31 causes the display device 34 to display at least one of the plurality of captured images respectively captured by the plurality of cameras 25c and a composite captured image 42d showing an overhead view of the periphery of the work machine 1 obtained by combining the plurality of captured images.
  • the configuration of item 11 above allows the operator to easily grasp objects in front of, behind, to the left, and to the right of the work machine 1.
  • multiple captured images 42a-42c of the surroundings of the work machine 1 in multiple directions and a combined captured image 42d showing an overhead view of the surroundings of the work machine 1 are displayed on the remote monitoring screen 40, allowing the operator to grasp in more detail the positional relationship between the work machine 1 and the objects 61a-61c.
  • the imaging device 25c is installed inside the cabin 9 provided on the work machine 1 and includes an internal camera 25c1 that captures an image in front of the work machine 1, and the control device 31 displays the captured image 42a of the internal camera 25c1 on the display device 34.
  • the configuration of item 12 above allows the operator, seated in the driver's seat 10 of the work machine 1, to easily grasp the objects 61a-61c in front of the work machine 1 with his/her line of sight, and allows the operator to easily remotely operate the work machine 1 using the remote device 30 with the feeling of being in the work machine 1.
  • the sensing device 25 includes object sensors 25a, 25b that detect the distance from the work machine 1 to the objects 61a, 61b, 61c, and the control device 31 displays teaching objects 62a, 62b, 62c that teach the objects 61a, 61b, 61c shown in the captured images 42a to 42d, and changes the display form of the teaching objects 62a, 62b, 62c depending on the distance to the objects 61a, 61b, 61c.
  • the configuration of item 13 above allows the operator to grasp the objects 61a, 61b, and 61c around the work machine 1 according to their distance from the work machine 1.
  • the control device 31 emphasizes the display of the teaching objects 62a, 62b, and 62c as the distance to the target object 61a, 61b, and 61c taught by the teaching object 62a, 62b, and 62c becomes closer.
  • the configuration of item 14 above allows the operator to focus more on a dangerous object 61a (or object 61b) that is close to the work machine 1 than on an object 61c that is far away.
  • the control device 31 estimates the position of the object 61b in the captured images 42a to 42d based on the detection information of the object sensors 25a, 25b, and displays the teaching object 62b according to the estimated position of the object 61b.
  • the configuration of item 15 above allows the operator to easily identify objects 61b in blind spots that cannot be captured by the imaging device (camera) 25c.
  • the control device 31 determines the approaching direction of the objects 61a, 61b to the work machine 1 based on the detection information of the object sensors 25a, 25b, displays notification objects 63a, 63b notifying the approach of the objects 61a, 61b at locations corresponding to the approaching direction of the objects 61a, 61b on the periphery of the captured images 42a to 42d, and changes the display form of the notification objects 63a, 63b depending on the distance to the objects 61a, 61b.
  • control device 31 displays additional information based on map information of the area around the work machine 1 on the sensing map 41.
  • the remote device 30 has an input device (operation device) 35 that can input a display instruction for any of a plurality of pieces of additional information including at least the non-travelable area 65 around the work machine 1 and the elevation difference 66 of the ground, and the control device 31 causes the display device 34 to display on the screen 40 any of the additional information indicated by the display instruction and the sensing map 41.
  • the configuration of item 18 above allows the operator to select the necessary additional information and grasp the additional information together with the display contents of the sensing map 41. Also, by displaying the selected additional information on the sensing map 41, it is possible to reduce the amount of eye movement of the operator, thereby reducing the operator's monitoring burden. Furthermore, the operator can easily remotely operate the work machine 1 while grasping the objects 61a to 61c around the work machine 1, the non-travelable areas 65, or the elevation difference 66 of the ground.
  • the remote device 30 of this embodiment is provided in the remote operation support system 100 described in any one of items 1 to 18 above, and is configured as described in any one of items 1 to 18 above.
  • Working machine 2 Working device 9 Cabin 10 Driver's seat 24 Position detection device (detection device) 25 Sensing device 25a Laser sensor (object sensor) 25b Ultrasonic sensor (object sensor) 25c Camera (imaging device) 25c1 Internal camera (imaging device) 26 State detection device (detection device) 30 Remote device 31 Control device 34 Display device 35 Operation device (input device) 40 Remote monitoring screen 41 Sensing map 42a, 42b, 42c Captured image 42d Captured image after synthesis 52 Emergency stop area (attention area) 53 Warning Area (Caution Area) 55 Detection area 56a, 56b, 56c Target object 57 Actual work machine object 59a, 59b Estimated work machine object 61a, 61b, 61c Obstacle (predetermined target object) 62a, 62b, 62c Teaching object 63a, 63b Notification object 65 Travel prohibited area (additional information) 66 Ground elevation difference (additional information) 100 Remote operation support system for work equipment ⁇ Steer

Landscapes

  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Soil Sciences (AREA)
  • Environmental Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Guiding Agricultural Machines (AREA)

Abstract

作業機(1)と対象物との位置関係をオペレータに容易に把握させる。 作業機(1)の遠隔操作支援システム(100)は、センシング装置(25)と、センシング装置(25)がセンシングしたセンシング情報を表示する表示装置(34)及び表示装置(34)を制御する制御装置(31)を有する遠隔装置(30)と、を備え、制御装置(31)は、作業機(1)の周辺と当該周辺の注意領域(52、53)とを示すセンシングマップ(41)を表示装置(34)に表示させ、且つセンシング情報に作業機(1)の周辺にある対象物(61a、61b、61c)が含まれている場合に、対象物(61a、61b、61c)の位置を示す対象物オブジェクト(56a、56b、56c)をセンシングマップ(41)に表示させる。

Description

作業機の遠隔操作支援システム、遠隔装置
 本発明は、走行可能な作業機の遠隔操作を支援する作業機の遠隔操作支援システム及び遠隔装置に関する。
 例えば特許文献1には、オペレータが車両を遠隔指示するための車両遠隔指示システムが開示されている。この車両遠隔指示システムは、車両を遠隔指示するオペレータに情報を表示する表示部と、当該表示部に接続される画像表示装置と、車両の外部環境の情報を検出する外部センサと、車両の走行状況を検出する内部センサと、を含んでいる。外部センサ及び内部センサは、車両に設けられている。画像表示装置は、内部センサにより第1時刻に検出されたデータに基づいて、第1時刻から所定時間経過した第2時刻の車両の位置を決定し、外部センサにより第1時刻に検出されたデータに基づいて、車両の周辺を示す監視画像を表示部に表示させ、第2時刻の車両の位置を示すオブジェクトを監視画像上の対応する位置に重畳表示させる。
日本国公開特許公報「特開2021-18744号公報」
 特許文献1のように、所定時間後の車両の位置を重畳させた監視画像を表示部に表示させた場合、オペレータは監視画像を見ても、対象物が車両に対して危険な位置にあるか否かを判断し難い。
 本発明は、上記問題に鑑み、オペレータに作業機と対象物との位置関係を容易に把握させることを目的とする。
 上記技術的課題を解決するための本発明の技術的手段は、以下に示す点を特徴とする。
 本発明の一態様に係る作業機の遠隔操作支援システムは、センシング装置と、前記センシング装置がセンシングしたセンシング情報を表示する表示装置及び当該表示装置を制御する制御装置を有する遠隔装置と、を備え、前記制御装置は、前記作業機の周辺と当該周辺の注意領域とを示すセンシングマップを前記表示装置に表示させ、且つ前記センシング情報に前記作業機の周辺にある対象物が含まれている場合に、前記対象物の位置を示す対象物オブジェクトを前記センシングマップに表示させる。また、前記遠隔装置は、本発明の遠隔装置を構成する。
 前記制御装置は、前記注意領域として、所定の前記対象物がある場合に前記作業機が緊急停止する緊急停止領域及び前記作業機への所定の前記対象物の接近を警告する警告領域を前記センシングマップに表示させ、前記対象物オブジェクトが前記緊急停止領域、前記警告領域、或いは前記緊急停止領域及び前記警告領域の外側のいずれにあるかに応じて、前記対象物オブジェクトの表示形態を可変してもよい。
 前記制御装置は、前記緊急停止領域及び前記警告領域の外側にある前記対象物オブジェクトの表示よりも、前記警告領域にある前記対象物オブジェクトの表示を強調させ、前記警告領域にある前記対象物オブジェクトの表示よりも、前記緊急停止領域にある前記対象物オブジェクトの表示を強調させてもよい。
 前記センシング装置は、前記作業機に複数設けられ、前記作業機の前方、後方、左方、及び右方にある前記対象物を検出する複数の対象物センサを含み、前記制御装置は、前記対象物を検出した少なくともいずれかの前記対象物センサの検出領域を前記センシングマップに表示させてもよい。
 前記作業機の遠隔操作支援システムにおいて、前記作業機の状態を検出する検出装置を備え、前記制御装置は、前記検出装置により検出された前記作業機の走行速度に応じて、前記注意領域の表示形態を可変してもよい。
 前記制御装置は、前記作業機に連結された作業装置の仕様に応じて、前記注意領域の表示形態を可変してもよい。
 前記制御装置は、前記検出装置により検出された前記作業機の走行方向にある前記注意領域を前記センシングマップに表示させてもよい。
 前記制御装置は、前記検出装置により検出された前記作業機の操舵角に応じて、前記注意領域の表示位置を可変してもよい。
 前記制御装置は、前記検出装置により検出された前記作業機の走行方向及び走行速度に基づいて、所定時間後の前記作業機の位置を推定し、当該推定した所定時間後の前記作業機の位置を示す推定作業機オブジェクトと、前記作業機の現在位置を示す実作業機オブジェクトとを前記センシングマップに表示させてもよい。
 前記センシング装置は、前記作業機の周辺を撮像する撮像装置を含み、前記制御装置は、前記撮像装置の撮像画像と前記センシングマップとを前記表示装置により画面に表示させてもよい。
 前記撮像装置は、前記作業機の前方、後方、左方、及び右方をそれぞれ撮像するために前記作業機に複数設けられたカメラを含み、前記制御装置は、複数の前記カメラによりそれぞれ撮像された複数の撮像画像と、当該複数の撮像画像を合成して得た前記作業機の周辺の俯瞰状態を示す合成後の撮像画像とのうちの少なくともいずれかを、前記表示装置に表示させてもよい。
 前記撮像装置は、前記作業機に設けられたキャビンの内部に設置されて、前記作業機の前方を撮像する内部カメラを含み、前記制御装置は、前記内部カメラの撮像画像を前記表示装置に表示させてもよい。
 前記センシング装置は、前記作業機から前記対象物までの距離を検出する対象物センサを含み、前記制御装置は、前記撮像画像に映る前記対象物を教示する教示オブジェクトを表示させ、且つ前記対象物までの距離に応じて前記教示オブジェクトの表示形態を可変してもよい。
 前記制御装置は、前記教示オブジェクトで教示される前記対象物までの距離が近くなるに連れて、前記教示オブジェクトの表示を強調させてもよい。
 前記制御装置は、前記撮像画像に映る前記作業機又は前記作業機に連結された作業装置の一部で前記対象物が隠れている場合、前記対象物センサの検出情報に基づいて前記撮像画像における前記対象物の位置を推定し、当該推定した前記対象物の位置に応じて前記教示オブジェクトを表示させてもよい。
 前記センシング装置は、前記作業機から前記対象物までの距離を検出する対象物センサを含み、前記制御装置は、前記対象物センサの検出情報に基づいて、前記作業機への前記対象物の接近方向を判断し、前記撮像画像の周縁部における前記接近方向に対応する箇所に、前記対象物の接近を通知する通知オブジェクトを表示させ、且つ前記対象物までの距離に応じて前記通知オブジェクトの表示形態を可変してもよい。
 前記制御装置は、前記作業機の周辺の地図情報に基づく付加情報を前記センシングマップに表示させてもよい。
 前記遠隔装置は、前記作業機の周辺の走行不可領域と地面の高低差とを少なくとも含む複数の前記付加情報のいずれかの表示指示を入力可能な入力装置を有し、前記制御部は、前記表示指示で示されたいずれかの前記付加情報と前記センシングマップとを前記表示装置により画面に表示させてもよい。
本発明の作業機の遠隔操作支援システム及び遠隔装置によれば、オペレータに作業機と対象物との位置関係を容易に把握させることができる。
本発明の一実施形態の作業機の遠隔操作支援システムの構成図である。 作業機の一例であるトラクタの側面図である。 作業機と遠隔装置の動作を示すフローチャートである。 遠隔監視画面の一例を示す図である。 センシングマップの拡大図である。 センシングマップの変形例を示す図である。 センシングマップの変形例を示す図である。 センシングマップの変形例を示す図である。 センシングマップの変形例を示す図である。 センシングマップの変形例を示す図である。 センシングマップの変形例を示す図である。 遠隔監視画面に表示されるメッセージの一例を示す図である。 遠隔監視画面の一例を示す図である。 遠隔監視画面に表示されるメッセージの一例を示す図である。 遠隔監視画面に表示される付加情報メニューを示す図である。 遠隔監視画面に表示される付加情報の一例を示す図である。 遠隔監視画面に表示される付加情報の一例を示す図である。
 図1は、本発明の一実施形態の作業機の遠隔操作支援システム100の構成図である。遠隔操作支援システム100は遠隔装置30を備えている。遠隔操作支援システム100及び遠隔装置30は、作業機1の遠隔操作を支援する。作業機1は、自律して走行可能な農業機械(「自律走行型農業機械」とも言う。)などから構成されている。本実施形態では、作業機1は、図2に示すようなトラクタから構成されている。トラクタは、圃場で農作業を行う農業機械の一例である。なお、作業機1は、トラクタ以外の農業機械、建設機械、又は作業車両から構成されてもよい。
 図2は、作業機1の一例であるトラクタの側面図である。作業機1の車体3には、走行装置7が設けられている。走行装置7は、車体3の左右両側にそれぞれ設けられ、車体3を走行可能に支持している。走行装置7は、タイヤから成る前輪7F及び後輪7Rを有した装輪型の走行装置である。これ以外に、前輪又は後輪がクローラから成る走行装置を用いてもよい。
 車体3には、原動機4、変速装置5、制動装置13(図1)、及び操舵装置14(図1)が搭載されている。原動機4は、エンジン(ディーゼルエンジン、ガソリンエンジン)又は電動モータなどから成る。変速装置5は、変速動作を行うことにより、走行装置7の推進力を可変し、且つ走行装置7の前進、後進の切り換えを行う。制動装置13は車体3を制動する。操舵装置14は車体3を操舵する。
 車体3の上部には、キャビン9が設けられている。キャビン9の内部には、運転席10と操縦装置11が設けられている。作業機1は無人で走行(運転)し、作業装置2により作業することが可能なトラクタであるが、運転席10に着座した作業者が操縦装置11を操作することによって、作業機1を走行させ、作業装置2により作業することも可能である。キャビン9は、運転席10の前方、後方、上方及び左右側方を取り囲むことにより、運転席10を保護する。
 図2に矢印A1で示す方向が、作業装置2の前方である。矢印A2で示す方向が、作業装置2の後方である。矢印Z1で示す方向が、作業装置2の上方である。矢印Z2で示す方向が、作業装置2の下方である。そして、矢印A1、A2、Z1、Z2に対して直行する方向が、作業機1の幅方向(左右方向)である。図2に向かって手前側が作業機1の左方であり、奥側が作業機1の右方である。
 車体3の後部には、連結装置8が設けられている。連結装置8は、3点リンク機構などで構成されている。連結装置8には、作業装置(インプルメント等)2を着脱可能に連結することができる。連結装置8に作業装置2を連結して、走行装置7を駆動することにより、作業機1(車体3)を走行させて、作業装置2を牽引することができる。また、連結装置8により作業装置2を昇降させたり、作業装置2の姿勢を変更したりすることもできる。
 作業装置2は、耕耘する耕耘装置、肥料を散布する肥料散布装置、農薬を散布する農薬散布装置、収穫を行う収穫装置、牧草等の刈取を行う刈取装置、牧草等の拡散を行う拡散装置、牧草等の集草を行う集草装置、牧草等の成形を行う成形装置などから成る。作業機1は、作業装置2により圃場に対して農作業を行う。
 キャビン9の前側には、ボンネット12が設けられている。ボンネット12は、車体3に取り付けられている。ボンネット12と車体3の間には、収容ルーム(符号省略)が形成されている。その収容ルームには、原動機4だけでなく、冷却ファン、ラジエータ、及びバッテリなど(図示省略)が収容されている。
 図1に示すように、作業機1は、車載制御装置21、車載通信装置23、位置検出装置24、センシング装置25、状態検出装置26、操縦装置11、アクチュエータ群27、原動機4、走行装置7、変速装置5、制動装置13、操舵装置14、及び連結装置8を有している。また、作業機1には、CAN、LIN、又はFlexRayなどの車載ネットワークが構築されている。車載制御装置21には、当該車載ネットワークを介して、車載通信装置23、位置検出装置24、センシング装置25、状態検出装置26、操縦装置11、アクチュエータ群27、及び作業機1に連結された作業装置2などが電気的に接続されている。
 車載制御装置21は、CPUとメモリとを含んだECU(電子制御装置)から構成されている。車載制御装置21は、作業機1の各部の動作を制御するコントローラである。車載制御装置21のメモリは、揮発性又は不揮発性のメモリなどから構成されている。車載制御装置21のメモリには、車載制御装置21が作業機1の各部の動作を制御するための各種の情報とデータが読み書き可能に記憶される。
 車載通信装置23は、携帯電話通信網、インターネット、又は無線LANを介して、無線で通信するためのアンテナ、IC、及び電気回路などから構成されている。車載制御装置21は、車載通信装置23により遠隔装置30と無線で通信する。
 なお、本実施形態では、作業機1と遠隔装置30とが携帯電話通信網などを介して通信する例を示しているが、これ以外に、例えば作業機1と遠隔装置30とが携帯電話通信網などと、サーバ又は中継器などの外部装置を介して通信するようにしてもよい。また、作業機1と遠隔装置30とが、例えばBLU(Bluetooth(登録商標) Low Energy)信号又はUHF(Ultra High Frequency)信号などのような近距離無線信号で直接通信してもよい。この場合、車載通信装置23と遠隔装置30とに、近距離無線通信用のインタフェイスがそれぞれ設けられていればよい。
 位置検出装置24は、例えばキャビン9(図2)の上部に設置されている(詳細図示省略)。なお、位置検出装置24の設置位置は、キャビン9の上部に限定せず、車体3の別の箇所又は作業装置2の所定の箇所でもよい。位置検出装置24は、衛星測位システムを利用して、自己の位置(緯度、経度を含む測位情報)を検出する。即ち、位置検出装置24は、測位衛星から送信された信号(測位衛星の位置、送信時刻、補正情報等)を受信し、当該信号に基づいて自己の位置を検出する。位置検出装置24は、測位衛星からの信号を受信可能な基地局(基準局)からの補正等の信号に基づいて補正した位置を、自己の位置として検出してもよい。
 また、位置検出装置24は、ジャイロセンサや加速度センサ等の慣性計測装置を有していてもよい。この場合、位置検出装置24は、測位衛星から受信した信号に基づいて検出した位置(緯度、経度)を、慣性計測装置によって補正して、当該補正後の位置を自己の位置として検出してもよい。位置検出装置24は、検出した自己の位置を作業機1の位置とみなす。又は、位置検出装置24は、検出した自己の位置と、予め記憶された作業機1の外形情報とに基づいて、作業機1の位置を算出してもよい。また、位置検出装置24は、検出した自己の位置と、予め記憶された作業装置2の外形情報と、車体3に対する作業装置2の取り付け位置とに基づいて、作業装置2の位置を算出してもよい。
 センシング装置25は、作業機1の周辺をセンシング(監視)する。詳しくは、センシング装置25は、レーザセンサ25a、超音波センサ25b、カメラ25c、及び対象物検出部25dを有している。レーザセンサ25a及び超音波センサ25bは、作業機1の前部、後部、及び左右側部などの適宜箇所にそれぞれ設置されていて(詳細図示省略)、作業機1の前方、後方、及び左右側方などの周辺状況及び当該周辺にある対象物を検出する。例えば、レーザセンサ25a及び超音波センサ25bは、作業機1から所定の目標検出距離以内で且つ車体3よりも低い位置にある対象物でも検出可能な車体3の所定位置にそれぞれ設置されている。
 レーザセンサ25a及び超音波センサ25bは、対象物センサの一例である。なお、レーザセンサ25a及び超音波センサ25bの少なくともいずれかが、対象物センサとしてセンシング装置25に複数設けられていてもよい。また、他の対象物センサが、センシング装置25に複数設けられていてもよい。
 レーザセンサ25aは、ライダー(LiDAR: Light Detection And Ranging)などの光学式のセンサから構成されている。レーザセンサ25aは、レーザダイオードなどの光源から1秒間に何百万回ものパルス状の測定光(レーザ光)を照射し、当該測定光を回転ミラーで反射することにより水平方向又は鉛直方向に走査して、所定の検出範囲(センシング範囲)に投光する。そして、レーザセンサ25aは、測定光の対象物による反射光を、受光素子で受光する。
 対象物検出部25dは、レーザセンサ25aの受光素子から出力された受光信号に基づいて、対象物の有無、対象物の位置、及び対象物の種類などを検出する電気回路又はICなどから構成されている。対象物検出部25dは、レーザセンサ25aにより測定光を照射してから、反射光を受光するまでの時間に基づいて、対象物までの距離を検出する(TOF(Time of Flight)法)。対象物検出部25dが検出する対象物には、作業機1が走行及び作業を行う現場、圃場、圃場の作物、地面、路面、その他の物体、及び人などが含まれている。
 超音波センサ25bは、ソナーなどの空中超音波センサから構成されている。超音波センサ25bは、送波器により測定波(超音波)を所定の検出範囲に発信し、当該測定波が対象物で反射した反射波を受波器で受信する。対象物検出部25dは、超音波センサ25bの受波器から出力された信号に基づいて、対象物の有無、対象物の位置、及び対象物の種類などを検出する。また、対象物検出部25dは、超音波センサ25bにより測定波を発信してから、反射波を受波するまでの時間に基づいて、対象物までの距離を検出する(TOF法)。
 カメラ25cは、CCD(Charge Coupled Devices:電荷結合素子)イメージセンサを搭載したCCDカメラ、又はCMOS(Complementary Metal Oxide Semiconductor:相補性金属酸化膜半導体)イメージセンサを搭載したCMOSカメラなどから構成されている。カメラ25cは、作業機1の前部、後部、左右側部、及びキャビン9の内部などの適宜箇所にそれぞれ設置されていて(詳細図示省略)、作業機1の前方、後方、及び左右側方などの周辺を撮像して、当該撮像画像のデータを出力する。カメラ25cは、撮像装置の一例である。
 作業機1に設置された複数のカメラ25cのうち、図2に示すようにキャビン9の内部に設置された内部カメラ25c1は、運転席10から作業機1の前方を撮像する。より詳しくは、内部カメラ25c1は、運転席10に着座した作業者と略同様の視野で作業機1の前方を撮像する。対象物検出部25dは、カメラ25cから出力された撮像画像のデータに基づいて、対象物の有無、対象物の位置、及び対象物の種類などを検出することも可能である。
 センシング装置25は、レーザセンサ25a、超音波センサ25b、カメラ25c、及び対象物検出部25dにより、作業機1及び作業装置2の周辺状況をセンシング(監視)し、その結果を示すセンシング情報を車載制御装置21に出力する。センシング情報には、少なくとも対象物検出部25dの検出情報とカメラ25cの撮像画像のデータとが含まれているが、これら以外にレーザセンサ25aと超音波センサ25bの検出情報がセンシング情報に含まれていてもよい。
 状態検出装置26は、作業機1及び作業装置2の動作状態を検出する。具体的には、状態検出装置26には、作業機1及び作業装置2の各部に設置された各種センサと、演算器とが含まれていて、演算器が各種センサからの出力信号に基づいて、作業機1及び作業装置2の動作状態を検出(演算)する。状態検出装置26が検出する作業機1の状態には、作業機1の各部の駆動と停止の状態、作業機1の進行方向、走行速度、加速度、及び姿勢などが含まれている。状態検出装置26が検出する作業装置2の状態には、作業装置2の各部の駆動と停止の状態及び姿勢などが含まれている。
 状態検出装置26は、位置検出装置24により検出された車体3の位置(作業機1の位置)を所定の周期で取得し、当該車体3の位置から作業装置2の位置を検出(算出)したり、車体3の位置の変化(変遷)を検出したりしてもよい。また、状態検出装置26は、車体3の位置の変化から、車体3の走行速度を検出してもよい。他の例として、走行装置7の車輪7F、7Rの回転数又は車輪7F、7Rを転動させる走行モータの回転数を検出する回転数センサを設け、状態検出装置26が当該回転数センサの出力信号に基づいて、車体3の走行速度を検出してもよい。
 状態検出装置26は、検出した作業機1及び作業装置2の動作状態を示す検出情報を生成し、当該検出情報を車載制御装置21に出力する。位置検出装置24及び状態検出装置26は、作業機1の状態を検出する検出装置の一例である。
 位置検出装置24及び状態検出装置26は、所定の周期又は所定のタイミングで検出した結果を示す検出情報を車載制御装置21に随時出力する。また、センシング装置25も、所定の周期又は所定のタイミングでセンシングした結果を示すセンシング情報を車載制御装置21に随時出力する。車載制御装置21は、位置検出装置24、状態検出装置26、及びセンシング装置25から入力された検出情報及びセンシング情報を内部のメモリに記憶させる。また、車載制御装置21は、内部のメモリに記憶させた位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とを、所定のタイミングで車載通信装置23により遠隔装置30に送信する。
 アクチュエータ群27には、作業機1の原動機4、走行装置7、変速装置5、制動装置13、及び連結装置8などの各部を作動させるための電動式若しくは油圧式のモータ、シリンダ、及び制御弁などが含まれている。操縦装置11には、ステアリングハンドル11a(図2)、アクセルペダル、ブレーキペダル、及び変速レバーなどが含まれている。車載制御装置21は、操縦装置11の操作状態に応じて、アクチュエータ群27に含まれる所定のアクチュエータを作動させて、原動機4、走行装置7、変速装置5、制動装置13、及び操舵装置14を駆動し、作業機1の走行と操舵を制御する。
 また、車載制御装置21は、作業装置2に備わる制御部2aと通信して、制御部2aに作業装置2の動作を制御させる。即ち、車載制御装置21は、制御部2aを介して作業装置2の動作を制御することで、圃場に対して作業を行う。なお、作業機1に連結可能な作業装置2には、制御部2aが備わっていないものもある。この場合、車載制御装置21は、連結装置8により作業装置2の姿勢を制御して、作業装置2により圃場に対して作業を行う。
 車載制御装置21は、センシング装置25のセンシング情報と、状態検出装置26の検出情報と、位置検出装置24の検出情報などに基づいて、作業機1の走行、作業装置2による作業、及び作業機1のその他の動作をそれぞれ制御する。また、車載制御装置21は、遠隔装置30から送信された遠隔操作信号を車載通信装置23により受信した場合には、上記各情報に加えて、当該遠隔操作信号に基づいて、作業機1の走行、作業装置2による作業、及び作業機1のその他動作をそれぞれ制御する。
 さらに、車載制御装置21は、作業機1の走行又は作業装置2による作業を制御する際に、対象物検出部25dの検出情報から、対象物が作業機1又は作業装置2に所定距離未満で接近して、接触する危険があるか否かを判断する。そして、車載制御装置21は、対象物が作業機1又は作業装置2に所定距離未満で接近して、接触する危険があると判断した場合に、走行装置7又は作業装置2などを制御して、作業機1の走行又は作業を自動で停止し、対象物との接触を回避する。
 遠隔装置30は、タブレット装置若しくはスマートフォンなどの携帯型の端末装置、又は基地局(図示省略)に設置された据え置き型のコンピュータから構成されている。本実施形態では、遠隔装置30は、作業機1を遠隔で操作及び監視する遠隔操作監視装置から構成されている。即ち、オペレータは遠隔装置30により作業機1を遠隔で操作し、且つ作業機1の周辺状況を監視する。なお、他の例として、遠隔装置30が作業機1を遠隔で監視する遠隔監視装置から構成され、当該遠隔装置30とは別に、作業機1を遠隔で操作する遠隔操作装置が設けられてもよい。
 図1に示すように、遠隔装置30には、制御装置31、通信装置33、表示装置34、及び操作装置35が設けられている。制御装置31は、CPUなどから構成されている。制御装置31は、遠隔装置30の各部の動作を制御するプロセッサである。制御装置31に設けられた内部メモリ32は、揮発性又は不揮発性のメモリである。内部メモリ32には、制御装置31が遠隔装置30の各部の動作を制御するための各種の情報とデータが読み書き可能に記憶される。
 通信装置33は、携帯電話通信網、インターネット、又は無線LANを介して、無線で通信するためのアンテナ、IC、及び電気回路などから構成されている。制御装置31は、通信装置33により作業機1と無線で通信する。
 表示装置34は、例えば液晶ディスプレイなどから構成されている。表示装置34には、作業機1を遠隔で操作するための情報が表示される。操作装置35は、タッチパッド又はハードウェア型のスイッチなどから構成されている。オペレータは、操作装置35を操作することによって、作業機1の走行又は作業装置2による作業を遠隔で操作し、且つ作業機1と周辺の状況を表示装置34により監視することが可能である。また、オペレータは、操作装置35を操作することによって、遠隔装置30に所定の情報又は指示を入力可能である。
 操作装置35は入力装置の一例である。また、表示装置34と操作装置35とは、ユーザインタフェイスの一例である。他の例として、表示装置34と操作装置35とに代えて、タッチパネルのような表示装置と操作装置とが一体になったユーザインタフェイスを、遠隔装置30に設けてもよい。
 オペレータが操作装置35を操作して、作業機1の動作指示を入力すると、制御装置31が、当該動作指示に対応する遠隔操作信号を生成し、当該遠隔操作信号を通信装置33により作業機1に送信する。作業機1の車載制御装置21は、遠隔装置30からの遠隔操作信号を車載通信装置23により受信すると、当該遠隔操作信号と、位置検出装置24の検出情報と、センシング装置25のセンシング情報と、状態検出装置26の検出情報とに基づいて、作業機1の各部を動作させて、作業機1の走行及び操舵を制御したり、作業装置2による作業動作を制御したりする。
 また、車載制御装置21は、位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とを、車載通信装置23により遠隔装置30に送信する。遠隔装置30の制御装置31は、位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とを、通信装置33により受信すると、これらの情報を内部メモリ32に記憶させたり、表示装置34に表示させたりする。
 また、制御装置31は、後述するようにセンシング装置25のセンシング情報などに基づいて、作業機1の周辺と当該周辺の注意領域とを示すセンシングマップを表示装置34に表示させる。また、制御装置31は、センシング情報に作業機1の周辺にある所定の対象物が含まれる場合に、当該対象物の位置を示す対象物オブジェクトをセンシングマップに表示させる。またこの際、制御装置31は、対象物オブジェクトを注意領域との相対位置に応じた形態でセンシングマップに表示させる。さらに、制御装置31は、センシング情報に含まれる複数のカメラ25cの撮像画像を、表示装置34によりセンシングマップと同一画面に表示させる。
 図3は、作業機1と遠隔装置30の動作を示すフローチャートである。遠隔装置30が起動すると、制御装置31が、作業機1で検出された情報を要求するリクエスト信号を、通信装置33により作業機1に送信する(S1)。作業機1の車載制御装置21は、遠隔装置30からのリクエスト信号を車載通信装置23により受信すると(S11)、位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とを、車載通信装置23により遠隔装置30に送信する(S12)。
 遠隔装置30の制御装置31は、位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とを、通信装置33により受信すると(S2)、これらの情報を内部メモリ32に記憶させる。また、制御装置31は、内部メモリ32に記憶された位置検出装置24及び状態検出装置26の検出情報、センシング装置25のセンシング情報、作業機1及び作業装置2の仕様を示す装置情報、並びに作業機1の周辺の地図情報をそれぞれ読み込む(S3)。そして、制御装置31は、位置検出装置24及び状態検出装置26の検出情報、センシング装置25のセンシング情報、装置情報、並びに地図情報に基づいて、遠隔監視画面を表示装置34に表示させる(S4)。
 なお、内部メモリ32には、作業機1がある地域の地図情報が予め記憶されている。制御装置31は、ステップS3で位置検出装置24の検出情報から作業機1の位置を抽出し、当該作業機1の位置から所定距離以内の範囲を作業機1の周辺とみなして、当該範囲の地図情報を内部メモリ32から読み込む。他の例として、制御装置31は、ステップS3で作業機1の位置から所定距離以内の範囲の地図情報を、インターネットなどを介して外部サーバから通信装置33により受信して、当該受信した地図情報を読み込んでもよい。
 図4は、表示装置34に表示される遠隔監視画面40の一例を示す図である。遠隔監視画面40には、作業機1の周辺の状態を示すセンシングマップ41及び撮像画像42a~42dと、作業機1の状態を示すウインドウ43、44、45がそれぞれ表示されている。
 図5は、センシングマップ41の一例の拡大図である。制御装置31は、センシング装置25のセンシング情報と、内部メモリ32に記憶された画像情報などに基づいて、作業機1の現在位置を示す実作業機オブジェクト57と、作業機1の周辺と当該周辺の注意領域52、53とを俯瞰状態で示すセンシングマップ41を、表示装置34により遠隔監視画面40に表示させる。また、制御装置31は、作業機1の周辺にある所定の対象物の位置を示す対象物オブジェクト56a~56cを、センシングマップ41に表示させる。所定の対象物には、作業機1の走行を妨げ且つ作業機1が接触を避ける人又は物体などの障害物が含まれている。以下、所定の対象物のことを「障害物」という。
 また、制御装置31は、注意領域52、53として、緊急停止領域52及び警告領域53をセンシングマップ41に表示させる。緊急停止領域52は、障害物が存在した場合に、作業機1が自動で緊急停止する領域である。警告領域53は、障害物が存在した場合に、作業機1への障害物の接近を警告する領域である。緊急停止領域52及び警告領域53は、作業機1から所定距離離れた位置に予め設定されている。
 作業機1の車載制御装置21は、障害物が緊急停止領域52にあることを対象物検出部25d(図1)により検出したときに、走行装置7及び制動装置13などを制御して、作業機1(車体3)を緊急停止させる(遠隔操作中の場合は一時停止させる)。また、車載制御装置21は、障害物が警告領域53にあることを対象物検出部25dにより検出したときに、作業機1に搭載されたホーン又はブザーなどを鳴動させて、障害物の作業機1への接近を警告するようにしてもよい。
 また、遠隔装置30の制御装置31が、センシング装置25のセンシング情報から障害物が警告領域53にあることを認識したときに、障害物が作業機1に接近していることを示す警告情報を、表示装置34により遠隔監視画面40などに表示してもよい。或いは、制御装置31が、上記警告情報を遠隔装置30に設けられたスピーカから音又は音声で出力したり、遠隔装置30に設けられたバイブレータの振動動作で出力したりしてもよい。
 遠隔装置30の制御装置31は、緊急停止領域52及び警告領域53だけでなく、内側領域51と外側領域54と検出領域55もセンシングマップ41に表示させる。例えば制御装置31は、作業機1(車体3)の中心から所定の第1半径の円周C1で囲まれた領域を内側領域51に決定し、内側領域51に実作業機オブジェクト57を表示させる。円周C1上は内側領域51である。内側領域51のうち、作業機1が進行可能な実作業機オブジェクト57の前方部分と後方部分では、車載制御装置21が走行中の作業機1を緊急で制動しても、作業機1の走行速度によっては、作業機1が停車できず、緊急停止領域52まで進行してしまうことがある。
 また、制御装置31は、作業機1の中心から第1半径の円周C1と、第1半径より大きい所定の第2半径の円周C2とで囲まれた領域を、緊急停止領域52に決定する。円周C2上は緊急停止領域52である。制御装置31は、作業機1が所定範囲の走行速度で走行した場合の制動距離の最小値を円周C1の半径に設定し、当該制動距離の最大値を円周C2の半径に設定してもよい。
 また、制御装置31は、作業機1の中心から第2半径の円周C2と、第2半径より大きい所定の第3半径の円周C3とで囲まれた領域を、警告領域53に決定する。円周C3上は警告領域53である。また、制御装置31は、作業機1の中心から第3半径の円周C3と、第3半径より大きい所定の第4半径の円周C4とで囲まれた領域を、外側領域54に決定する。円周C4上は外側領域54である。
 各領域51~54の外周を構成する円周C1~C4の大きさなどの情報は、作業機1の外形サイズと走行性能などの仕様に応じて予め設定されて、遠隔装置30の内部メモリ32と、作業機1の車載制御装置21のメモリとにそれぞれ記憶されている。
 また、制御装置31は、作業機1に設けられた複数のレーザセンサ25a及び超音波センサ25bのうち、少なくともいずれかのセンサにより検出された障害物の位置を示す対象物オブジェクト56a~56cを、実作業機オブジェクト57より小さい円形でセンシングマップ41に表示させる。また、制御装置31は、複数のレーザセンサ25a及び超音波センサ25bのうち、対象物オブジェクト56a~56cに対応する障害物を検出した少なくともいずれか1つのセンサの検出領域55を、センシングマップ41に扇形で表示させる。また、制御装置31は、作業機1に設けられた複数のレーザセンサ25a及び超音波センサ25bが障害物を検出可能な距離の最大値を、外側領域54の外周を構成する円周C4の半径に設定してもよい。
 また、制御装置31は、各領域51~55をそれぞれ異なる色又は模様などのように、見た目が異なる形態でセンシングマップ41に表示させる。図4の例では、見た目が異なるように、各領域51~55がハッチング、パターン、又は白抜きで表示されている。
 制御装置31は、緊急停止領域52の見た目が、警告領域53の見た目よりも強調されるように、緊急停止領域52及び警告領域53を表示させる。また、制御装置31は、警告領域53の見た目が、外側領域54の見た目よりも強調されるように、警告領域53及び外側領域54を表示させる。具体的には、例えば制御装置31は、外側領域54、警告領域53、及び緊急停止領域52の順で、表示色が濃くなるように、或いは模様が密になるように、或いは輝度が高くなるように、それぞれセンシングマップ41に表示させる。
 制御装置31は、検出領域55と重畳する他の領域51~54が視認可能に、検出領域55を透過表示させる。内側領域51は、図4の例では白抜きで表示されているが、制御装置31は、内側領域51の見た目が、緊急停止領域52の見た目よりも強調されるように、内側領域51を表示させてもよい。
 制御装置31は、対象物オブジェクト56a~56cを緊急停止領域52及び警告領域53との相対位置に応じた形態で、センシングマップ41に表示させる。詳しくは、制御装置31は、対象物オブジェクト56a~56cが緊急停止領域52、警告領域53、或いは緊急停止領域52及び警告領域53の外側(外側領域54)のいずれにあるかに応じて、対象物オブジェクト56a~56cの表示形態を可変する。
 詳しくは、制御装置31は、図4に示すように、外側領域54にある対象物オブジェクト56cの表示よりも、警告領域53にある対象物オブジェクト56bの表示を強調させるように、対象物オブジェクト56b、56cの色、模様、輝度、明度、彩度、大きさ、又は形状などを変える。また、制御装置31は、警告領域53にある対象物オブジェクト56bの表示よりも、緊急停止領域52にある対象物オブジェクト56aの表示を強調させるように、対象物オブジェクト56a、56bの色、模様、輝度、明度、彩度、大きさ、又は形状などを変える。
 より具体的には、例えば制御装置31は、対象物オブジェクト56a、56b、56cの順で、表示色が濃くなるように、或いは模様が密になるように、或いは輝度が高くなるように、それぞれセンシングマップ41に表示させる。例えば制御装置31は、対象物オブジェクト56aを赤色で、対象物オブジェクト56bを緑色(又は黄色)で、対象物オブジェクト56cを黒色(又は緑色)で、それぞれ表示させるようにしてもよい。
 また、制御装置31は、状態検出装置26の検出情報に含まれる作業機1の走行速度に応じて、緊急停止領域52及び警告領域53の表示形態を変えてもよい。具体的には、例えば制御装置31は、図5及び図6に示すように、作業機1の走行速度が速くなるに連れて、円周C2、C3を大きくして、緊急停止領域52及び警告領域53の大きさをそれぞれ大きくする。図5は、作業機1の走行速度が0.0km/hのときのセンシングマップ41を示し、図6は、作業機1の走行速度が10.0km/hのときのセンシングマップ41を示している。
 他の例として、制御装置31は、作業機1の走行速度が速くなるに連れて、作業機1の進行方向対して緊急停止領域52及び警告領域53を広げてもよい。また、制御装置31は、作業機1の走行速度が速くなるに連れて、円周C1、C4を大きくして、内側領域51及び外側領域54の大きさをそれぞれ大きくしてもよい。
 また、例えば作業機1に作業装置2が連結されている場合、制御装置31は、作業装置2の仕様に応じて、緊急停止領域52及び警告領域53の表示形態を変えてもよい。詳しくは、例えば制御装置31は、状態検出装置26の検出情報に基づいて、作業装置2が作業機1に連結されているか否かを確認し、作業装置2が作業機1に連結されていれば、内部メモリ32から読み出した装置情報から作業装置2の外形サイズ(仕様)を抽出する。そして、制御装置31は、作業装置2の外形サイズに応じて、図7に示すように、作業装置2を示す作業装置オブジェクト58を実作業機オブジェクト57と共にセンシングマップ41に表示させ、且つ内側領域51、緊急停止領域52、警告領域53、及び外側領域54の表示形態を変える。
 具体的には、制御装置31は、作業装置2の外形サイズが大きくなるに連れて、円周C1、C2、C3を大きくして、内側領域51、緊急停止領域52、及び警告領域53の大きさをそれぞれ大きくする。また、制御装置31は、作業装置2の外形サイズが大きくなるに連れて、円周C4を大きくして、外側領域54の大きさを大きくしてもよい。また、制御装置31は、作業装置2の外形サイズに応じて、各領域51~54の形を変えてもよい。
 さらに、制御装置31は、作業装置2の種類に応じて、各領域51~54の形を変えてもよい。作業装置2の種類によっては、装備された作業部材が露出していることがある。そのため、例えば制御装置31は、作業部材が露出している作業装置2が作業機1に連結されている場合に、作業部材が露出していない作業装置2が作業機1に連結されていない場合よりも、緊急停止領域52及び警告領域53の大きさをそれぞれ大きくしてもよい。
 図4~図7の例では、センシングマップ41の各領域51~54の外周(円周C1~C4)を円形にした例を示したが、これに限定されない。例えば制御装置31が、内部メモリ32から読み出した装置情報に含まれる作業機1の仕様に基づいて、各領域51~54の外周形状を変えてもよい。
 また、制御装置31は、例えば図8に示すように、状態検出装置26の検出情報に含まれる作業機1の走行方向にある緊急停止領域52及び警告領域53をセンシングマップ41に表示させてもよい。図8の例では、前進している作業機1が走行可能な前方の所定範囲にある緊急停止領域52、警告領域53、及び検出領域55が、センシングマップ41に三角形、矩形、又は五角形で表示されている。この場合も、制御装置31は、図8及び図9に示すように、作業機1の走行速度が速くなるに連れて、緊急停止領域52及び警告領域53を前方に大きくしてもよい。
 また、制御装置31は、状態検出装置26の検出情報に含まれる作業機1の操舵角θに応じて、図8~図10に示すように、緊急停止領域52及び警告領域53の表示位置を変えてもよい。図8~図10の例では、制御装置31は、作業機1の前輪7Fの操舵角θに応じて緊急停止領域52及び警告領域53を回転させ、且つ緊急停止領域52の大きさを変えて、作業機1の操舵方向に緊急停止領域52及び警告領域53を向けるように表示させている。
 また、制御装置31は、状態検出装置26の検出情報に含まれる作業機1の走行方向と走行速度とに基づいて、所定時間後の作業機1の位置を推定し、例えば図11に示すように、所定時間後の作業機1の位置を示す推定作業機オブジェクト59a、59bをセンシングマップ41に表示させてもよい。図11の例では、作業機1が前進しているため、推定作業機オブジェクト59a、59bは、作業機1の前部の外形ラインを示している。また、推定作業機オブジェクト59aは、3秒後の作業機1の推定位置を示し、推定作業機オブジェクト59bは、6秒後の作業機1の推定位置を示している。作業機1の位置を推定する経過時間と推定作業機オブジェクト59a、59bの数は、上記に限定せず、オペレータが操作装置35を操作することで適宜設定可能にしてもよい。
 図4に示すように、制御装置31は、作業機1に設けられた複数のカメラ25cによる撮像画像42a~42dを、表示装置34により遠隔監視画面40に表示させる。詳しくは、制御装置31は、キャビン9の内部に設置された運転席10の上方から作業機1の前方を撮像する内部カメラ25c1(図2)の撮像画像42aを、遠隔監視画面40に表示させる。撮像画像42には、キャビン9内の一部と、作業機1の前部と、作業機1の前方の周辺環境とが映り込んでいる。
 また、制御装置31は、作業機1の前方を撮像する前方カメラ25cの撮像画像42bを、遠隔監視画面40に表示させる。撮像画像42bには、作業機1の前部と、作業機1の前方の周辺環境とが映り込んでいる(符号省略)。他の例として、制御装置31は、内部カメラ25c1の撮像画像42aに基づいて、キャビン9の外側から作業機1の前方を見ているような撮像画像を生成して、当該撮像画像を遠隔監視画面40に表示させてもよい。
 また、制御装置31は、作業機1の後方を撮像する後方カメラ25cの撮像画像42cを、遠隔監視画面40に表示させる。撮像画像42cには、作業機1の後方の周辺環境が映り込んでいる。さらに、制御装置31は、複数のカメラ25cにより撮像された作業機1の前方、後方、左方、及び右方の撮像画像を合成することにより、作業機1の周辺の俯瞰状態を示す合成後の撮像画像(所謂、アラウンドビューモニタ)42dを、遠隔監視画面40に表示させる。撮像画像42dには、実作業機オブジェクト57と、作業機1の周辺環境とが映り込んでいる。
 制御装置31は、複数の撮像画像42a~42dのうち、運転席10から前方の撮像画像42aを最も大きく表示させ、俯瞰状態の撮像画像42dを前方の撮像画像42b及び後方の撮像画像42cよりも大きく表示させる。
 また、制御装置31は、撮像画像42a~42dに映る障害物61a、61b、61cを判断し、当該障害物61a、61b、61cを教示する教示オブジェクト62a、62b、62cを撮像画像42a~42dに表示させる。教示オブジェクト62a、62b、62cは、いわゆるバウンディングボックスである。
 本例では、教示オブジェクト62a、62b、62cは、障害物61a、61b、61cを囲む枠状のオブジェクトであるが、この形態に限定されない。これ以外に、例えば、障害物61a、61b、61cを囲む楕円状のオブジェクト、又は障害物61a、61b、61cを指し示す矢印状のオブジェクトなどのような、他の表示形態のオブジェクトから教示オブジェクトを構成してもよい。
 センシングマップ41の対象物オブジェクト56aは障害物61aと対応し、対象物オブジェクト56bは障害物61bと対応し、対象物オブジェクト56cは障害物61c対応している。つまり、対象物オブジェクト56aは障害物61aを表し、対象物オブジェクト56bは障害物61bを表し、対象物オブジェクト56cは障害物61cを表している。また、制御装置31は、同一の障害物61a~61cにそれぞれ対応する対象物オブジェクト56a~56cと教示オブジェクト62a~62cの色又は模様などの表示形態を同調に対応させる(表示色又は模様を合致させる)。
 制御装置31は、センシング装置25のセンシング情報に含まれるレーザセンサ25a及び超音波センサ25bの検出情報から、障害物61a、61b、61cまでの距離を抽出し、当該障害物61a、61b、61cまでの距離に応じて教示オブジェクト62a、62b、62cの表示形態を変える。詳しくは、制御装置31は、教示オブジェクト62a、62b、62cで囲む障害物61a、61b、61cまでの距離が近くなるに連れて、教示オブジェクト62a、62b、62cの表示を強調させる。
 また、制御装置31は、教示オブジェクト62a、62b、62cで囲む障害物61a、61b、61cと、緊急停止領域52及び警告領域53との相対位置に応じた形態で、教示オブジェクト62a、62b、62cを撮像画像42a~42dに表示させる。
 例えば制御装置31は、作業機1から警告領域53に相当する距離にある障害物61bを教示する教示オブジェクト62bの表示よりも、緊急停止領域52に相当する距離にある障害物61aを教示する教示オブジェクト62aの表示を強調させるように、教示オブジェクト62a、62bの色、輝度、明度、彩度、大きさ、又は形状などを変える。また、制御装置31は、作業機1から外側領域54に相当する距離にある障害物61cを教示する教示オブジェクト62cの表示よりも、警告領域53に相当する距離にある障害物61bを教示する教示オブジェクト62bの表示を強調させるように、教示オブジェクト62b、62cの色、輝度、明度、彩度、大きさ、又は形状などを変える。
 図4の例では、作業機1からの距離が障害物61c、61b、61aの順で短くなっているので、制御装置31は、それに対応する教示オブジェクト62c、62b、62aの順で表示色が濃くなるように、或いは輝度が高くなるように、教示オブジェクト62c、62b、62aを表示させる。例えば制御装置31は、教示オブジェクト62aを赤色で、教示オブジェクト62bを緑色(又は黄色)で、教示オブジェクト62cを黒色(又は緑色)で、それぞれ表示させるようにしてもよい。
 また、制御装置31は、撮像画像42aに映る障害物61bが作業機1のピラーなどの一部で隠れている場合、即ち障害物61bがカメラ25cの死角にある場合、レーザセンサ25a及び超音波センサ25bの検出情報に基づいて、撮像画像42aにおける対象物61bの位置を推定し、当該推定した障害物61bの位置に応じて教示オブジェクト62bを撮像画像42aに表示させる。このとき制御装置31は、教示オブジェクト62bを、撮像画像42aに映る作業機1の一部の上に重畳させる。また、制御装置31は、障害物が前方と死角にあることを示すメッセージ45aを、遠隔監視画面40のセンシングマップ41、撮像画像42a~42d、及びウインドウ43、44と重畳させずに、ウインドウ45に表示させる。
 他の撮像画像42b~42dについても同様に、制御装置31が、作業機1の一部で隠れている障害物の位置を推定し、当該推定した障害物の位置に応じて教示オブジェクトを撮像画像42aに表示させる。また、制御装置31は、撮像画像42a~42dに映る作業機1に連結された作業装置2の一部で障害物が隠れている場合にも、同様に障害物の位置を推定し、当該推定した障害物の位置に応じて教示オブジェクトを表示させ、障害物が死角にあることを示すメッセージを、ウインドウ45に表示させてもよい。
 また、制御装置31は、図12に示すように、警告領域53に障害物61bがあるが、緊急停止領域52に障害物がない場合、作業機1に障害物が接近していることを警告するメッセージ45eを、ウインドウ45に表示させてもよい。メッセージ45eは、障害物の接近方向が左前方であることも示している。
 また、制御装置31は、センシング装置25のセンシング情報に含まれるレーザセンサ25a及び超音波センサ25bの検出情報に基づいて、作業機1への障害物の接近方向を判断する。そして、制御装置31は、例えば図13に示すように、撮像画像42aの周縁部における障害物61a、61bの接近方向に対応する箇所に、障害物61a、61bの接近を通知する通知オブジェクト63a、63bを表示させる。
 図13の例では、撮像画像42dに示すように、作業機1の左後方から障害物61aが接近し、左前方から障害物61bが接近しているが、これらの障害物61a、61bは撮像画像42a~42cに全容が映らない死角にある。このため、制御装置31は、表示面積が最も大きい撮像画像42aの左下角部に、障害物61aの接近を通知する扇形の通知オブジェクト63aを表示し、撮像画像42aの左上角部に、障害物61bの接近を通知する扇形の通知オブジェクト63bを表示している。
 なお、図13の撮像画像42aに示すように、実際に存在する障害物61bが、撮像画像42aにおいて作業機1の構造物(例えば、左ピラー)に隠れて見えないような場合に、障害物61bの接近を通知する通知オブジェクト63bを表示させるようにしてもよい。
 また、制御装置31は、作業機1から対象物61a、61bまでの距離に応じて、対応する通知オブジェクト63a、63bの表示形態を可変する。例えば制御装置31は、作業機1から警告領域53に相当する距離にある障害物61bに対応する通知オブジェクト63bの表示よりも、緊急停止領域52に相当する距離にある障害物61aに対応する通知オブジェクト63aの表示を強調させるように、通知オブジェクト63a、63bの色、輝度、明度、彩度、大きさ、又は形状などを変える。
 また、制御装置31は、通知オブジェクト63aを赤色で表示させ、通知オブジェクト63bを緑色(又は黄色)で表示させるようにしてもよい。また、制御装置31は、例えば障害物が作業機1の真後ろ又は真横(左右)から接近している場合、障害物の接近方向に対応する撮像画像42aの下端部、左端部、又は右端部の中央部分に、半円形などの通知オブジェクトを表示させてもよい。また、制御装置31は、外側領域54に相当する距離にある障害物に対応する通知オブジェクトを、撮像画像42aの周縁部に表示させてもよい。
 制御装置31は、状態検出装置26により検出された作業機1の状態を遠隔監視画面40のウインドウ43、44に表示させる。図4及び図12の例では、走行装置7の進行方向が前進方向に切り換えられていること(「シャトル:F」)、変速装置5の副変速が高速段に切り換えられていること(「副変速:高」)、主変速(無段変速)の状態が0%になっていること(「主変速:0%」)、及びアクセルペダルの操作量が0%であること(アクセルペダルのメモリとカーソル)が、ウインドウ43に表示されている。
 また、位置検出装置24と状態検出装置26とセンシング装置25とにより作業機1及び作業機1の周辺を監視中であることと(「監視中」)、作業機1(車体3)の走行速度が0.0km/hであること(即ち、停止状態)とが、ウインドウ44に表示されている。
 ウインドウ43、44に表示される情報は、上記の作業機1の状態に限定されず、制御装置31が、上記以外の作業機1の状態をウインドウ43、44に表示してもよい。また、ウインドウ43、44の数は2つに限定されず、1つでも3つ以上でもよい。また、制御装置31が、状態検出装置26の検出情報に基づいて、作業機1の状態だけでなく、作業機1への作業装置2の連結の有無、作業装置2の種類及び姿勢などを、遠隔監視画面40のウインドウに表示するようにしてもよい。
 オペレータが遠隔装置30の操作装置35によって作業機1の走行などの動作指示を入力すると、制御装置31は、当該動作指示に対応する遠隔操作信号を通信装置33により作業機1に送信するとともに(図3のS5:YES)、リクエスト信号を通信装置33により作業機1に送信する(S1)。
 作業機1の車載制御装置21は、遠隔操作信号を車載通信装置23により受信すると、当該遠隔操作信号と、位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とに基づいて、作業機1の走行など制御する。また、車載制御装置21は、前述したように、リクエスト信号を車載通信装置23により受信すると(S11)、位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とを、車載通信装置23により遠隔装置30に送信する(S12)。
 作業機1からの検出情報及びセンシング情報が遠隔装置30の操作装置35により受信されると(S2)、制御装置31は、前述したようにステップS3、S4の処理を実行する。これにより、表示装置34に表示された遠隔監視画面40のセンシングマップ41、撮像画像42a~42d、及びウインドウ43~45の表示内容が更新される。
 作業機1が遠隔装置30による遠隔操作で走行しているときに、車載制御装置21は、センシング装置25のセンシング情報に基づいて、障害物が緊急停止領域52に入ったことを検出すると、作業機1と障害物との接触を避けるために作業機1の走行を自動で緊急停止させる(S13:YES)。そして、車載制御装置21は、位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とを車載通信装置23により遠隔装置30に送信する(S12)。このとき、遠隔装置30に送信されるセンシング装置25のセンシング情報には、障害物が緊急停止領域52で検出されたことを示す情報が含まれ、状態検出装置26の検出情報には、作業機1の走行が緊急停止されたことを示す情報が含まれている。
 遠隔装置30の制御装置31は、ステップS2で通信装置33により受信したセンシング装置25のセンシング情報と状態検出装置26の検出情報とに基づいて、障害物が緊急停止領域52で検出されたことと、作業機1の走行が緊急停止されたこととを確認すると、図4に示すように遠隔監視画面40のウインドウ45に、作業機1が一時停止(又は緊急停止)した旨を示すメッセージ45bを表示させる。
 また、作業機1が遠隔装置30による遠隔操作で走行しているときに、オペレータが、遠隔監視画面40のセンシングマップ41及び撮像画像42a~42dの少なくともいずれかを見て、例えば作業機1(又は作業装置2)と障害物との接触を避けるため、作業機1の走行を停止させる停止指示を操作装置35により入力することがある。
 その場合、制御装置31は、作業機1の走行の停止指示に対応する遠隔操作信号を通信装置33により送信し(図3のS5:YES)、さらにリクエスト信号を通信装置33により送信する(S1)。作業機1の車載制御装置21は、上記停止指示に対応する遠隔操作信号を車載通信装置23により受信すると、作業機1の走行を停止させ、さらにリクエスト信号を車載通信装置23により受信すると(S11)、位置検出装置24及び状態検出装置26の検出情報と、センシング装置25のセンシング情報とを車載通信装置23により送信する(S12)。
 また、制御装置31は、作業機1の停止中(走行速度が0.0km/hのとき)に、センシングマップ41に基づいて、障害物が内側領域51及び緊急停止領域52のいずれかにあるか否かを判断してもよい。そして、制御装置31は、障害物が内側領域51及び緊急停止領域52になければ、オペレータが操作装置35により作業機1の走行指示を入力したときに、当該走行指示を受け付けて、当該走行指示に対応する遠隔操作信号を作業機1に送信してもよい。
 対して、制御装置31は、障害物が内側領域51及び緊急停止領域52のいずれかにあれば、オペレータが操作装置35により作業機1の走行指示を入力しても、当該走行指示を受け付けず、作業機1の停止状態を保持してもよい。また、このように走行指示を受け付けなかった場合、制御装置31は、例えば図14に示すように遠隔監視画面40のウインドウ45に、障害物を前方に検出した旨を示すメッセージ45cと、作業機1の走行を禁止する旨を示すメッセージ45dとを表示させてもよい。
 また、障害物が緊急停止領域52及び内側領域51のいずれかにあるとセンシング装置25により検出されたことに応じて、作業機1が自動で緊急停止しても、或いは遠隔装置30が入力された走行指示を受け付けなくても、センシング装置25の検出が誤りであったり、障害物と作業機1とが接触する危険がなかったりする場合がある。このような場合に、オペレータが、遠隔監視画面40に表示されたセンシングマップ41及び撮像画像42a~42dの少なくともいずれかを見て、危険でないと判断して、操作装置35により所定の停止解除指示を入力することで、制御装置31が、当該停止解除指示に応じて作業機1の遠隔操作による走行を許可し、走行指示を受けるようにしてもよい。
 遠隔監視画面40が表示装置34に表示されているときに、オペレータが操作装置35により付加情報の表示指示を入力すると(図3のS6:YES)、制御装置31は、図15に示すように遠隔監視画面40の空き領域に付加情報メニュー46を表示させる(図3のS7)。付加情報メニュー46には、遠隔監視画面40に追加表示可能な複数の付加情報の見出しが表示されている。複数の付加情報には、作業機の周辺の走行不可領域と地面の高低差などの地図情報に基づく情報、障害物61a~61cまでの距離などのセンシング情報、及び作業機1の姿勢と走行可能距離などの状態検出装置26の検出情報が含まれている。
 オペレータが操作装置35を操作して、付加情報メニュー46からいずれかの付加情報を選択することで、当該付加情報の表示指示が入力され(図3のS8:YES)、制御装置31が当該付加情報を遠隔監視画面40に表示させる(S9)。
 例えばオペレータが付加情報メニュー46を見て、走行不可領域の表示指示を入力した場合、制御装置31は、作業機1の周辺の地図情報に基づいて、作業機1が走行できない崖及び構造物などがある走行不可領域を検出する。そして、制御装置31は、遠隔監視画面40に表示されたセンシングマップ41に、図16に示すように走行不可領域65を他の領域51~55とは異なる形態で表示させる。
 また、例えばオペレータが付加情報メニュー46を見て、地面の高低差の表示指示を入力した場合、制御装置31は、作業機1の周辺の地図情報に基づいて、作業機1の走行方向(前方)の地面の高低差を検出する。そして、制御装置31は、遠隔監視画面40に表示されたセンシングマップ41に、図17に示すように地面の高低差66を表示させる。図17の例では、制御装置31は、作業機1の走行方向(前進方向)地面の勾配(登り8°)を、高低差66としてセンシングマップ41に表示させている。
 他の例として、例えば、オペレータが操作装置35を操作することで、センシングマップ41中に目標点を設定入力してもよい。そして、制御装置31が、作業機1の現在位置からその目標点までの地面の勾配又は標高の変化を地図情報から検出し、当該地面の勾配又は標高の変化をグラフ形式で、センシングマップ41の一部又は付加情報メニュー46に重畳表示させたり、遠隔監視画面40の空き領域に表示させたりしてもよい。
 上記以外の付加情報の表示指示が操作装置35により入力された場合も、制御装置31は、当該付加情報をセンシングマップ41、付加情報メニュー46、又は遠隔監視画面40の空き領域に表示させてもよい。
 図3の遠隔装置30及び作業機1の動作、並びに遠隔監視画面40の表示は、遠隔装置30が停止する(電源オフ)まで継続される。
 上述した実施形態では、センシング装置25が作業機1に設けられているが、これ以外に、例えば作業機1が走行する現場(道路又は圃場など)に、作業機1及び作業機1の周辺をセンシングするセンシング装置が設けられていてもよい。またこの場合、例えばセンシング装置に無線で通信する通信インタフェイスを設けて、当該通信インタフェイスによりセンシング装置のセンシング情報を、作業機1の車載通信装置23と遠隔装置30とに送信するようにしてもよい。
 以上説明した本実施形態の作業機の遠隔操作支援システム100及び遠隔装置30は、以下の項目に記載の構成を備え、効果を奏する。
 [項目1]本実施形態の作業機の遠隔操作支援システム100は、センシング装置25と、センシング装置25がセンシングしたセンシング情報を表示する表示装置34及び当該表示装置34を制御する制御装置31を有する遠隔装置30と、を備え、制御装置31は、作業機1の周辺と当該周辺の注意領域52、53とを示すセンシングマップ41を表示装置34に表示させ、且つセンシング情報に作業機1の周辺にある対象物61a、61b、61cが含まれている場合に、対象物61a、61b、61cの位置を示す対象物オブジェクト56a、56b、56cをセンシングマップ41に表示させる。
 上記項目1の構成によれば、オペレータは、表示装置34に表示されたセンシングマップ41を見ることで、作業機1と対象物オブジェクト56a、56b、56cとの位置関係を容易に把握することができる。また、オペレータは、対象物オブジェクト56a、56b、56cに対応する対象物61a、61b、61cが作業機1の周辺の注意領域52、53にあるか否かを容易に判断することができ、作業機1から対象物61a、61b、61cまでの距離感を容易につかむこともできる。そしてこの結果、オペレータは、遠隔装置30により作業機1を容易に遠隔操作することが可能となる。
 [項目2]上記項目1に記載の遠隔操作支援システム100において、制御装置31は、注意領域52、53として、所定の対象物(障害物)がある場合に作業機1が緊急停止する緊急停止領域52及び作業機1への所定の対象物の接近を警告する警告領域53をセンシングマップ41に表示させ、対象物オブジェクト56a、56b、56cが緊急停止領域52、警告領域53、或いは緊急停止領域52及び警告領域53の外側(外側領域54)のいずれにあるかに応じて、対象物オブジェクト56a、56b、56cの表示形態を可変する。
 上記項目2の構成により、オペレータは、対象物オブジェクト56a~56cに対応する対象物61a~61cが、作業機1の周辺の緊急停止領域52、警告領域53、或いは当該領域52、53の外側の領域54にあるか否かを一目で容易に判断することができる。特に、本実施形態では、作業機1から離れる方向に対して、緊急停止領域52、警告領域53、及び外側領域54を順に設定しているので、作業機1に対して対象物61a~61cが危険な位置にあるか否かを一目で容易に把握することができる。
 [項目3]上記項目2に記載の遠隔操作支援システム100において、制御装置31は、緊急停止領域52及び警告領域53の外側にある対象物オブジェクト56cの表示よりも、警告領域53にある対象物オブジェクト56bの表示を強調させ、警告領域53にある対象物オブジェクト56bの表示よりも、緊急停止領域52にある対象物オブジェクト56aの表示を強調させる。
 上記項目3の構成により、オペレータは、危険度の高い領域にある対象物の位置を、危険度の低い領域にある対象物の位置よりも注視して、遠隔装置30により作業機1の遠隔操作を慎重に行うことができる。
 [項目4]上記項目1~3のいずれかに記載の遠隔操作支援システム100において、センシング装置25は、作業機1に複数設けられ、作業機1の前方、後方、左方、及び右方にある対象物61a、61b、61cを検出する複数の対象物センサ25a、25b(レーザセンサ25a、超音波センサ25b)を含み、制御装置31は、対象物センサ25a、25bの少なくともいずれかにより検出された対象物61a、61b、61cの位置を示す対象物オブジェクト56a、56b、56cをセンシングマップ41に表示させ、且つ対象物61a、61b、61cを検出した少なくともいずれかの対象物センサ25a、25bの検出領域55をセンシングマップ41に表示させる。
 上記項目4の構成により、オペレータは、対象物センサ25a、25bにより対象物61a、61b、61cを正しく検出しているか否かを把握することができる。
 [項目5]上記項目1~4のいずれかに記載の遠隔操作支援システム100において、作業機の遠隔操作支援システム100は、作業機1の状態を検出する検出装置24、26(位置検出装置24、状態検出装置26)を備え、制御装置31は、検出装置24、26により検出された作業機1の走行速度に応じて、注意領域52、53の表示形態を可変する。
 上記項目5の構成により、オペレータは、作業機1の走行速度に応じた注意領域52、53と対象物61a~61cとの位置関係を容易に把握することができる。特に、一実施形態では、作業機1の走行速度が速くなるに連れて、注意領域52、53を大きくするので、オペレータは、対象物61a~61cが注意領域52、53に入りそうか否かを把握することができる。
 [項目6]上記項目1~5のいずれかに記載の遠隔操作支援システム100において、制御装置31は、作業機1に連結された作業装置2の仕様に応じて、注意領域52、53の表示形態を可変する。
 上記項目6の構成により、オペレータは、作業装置2の仕様に応じた注意領域52、53と対象物61a~61cとの位置関係を容易に把握することができる。特に、一実施形態では、作業装置2の外形サイズが大きくなるに連れて、注意領域52、53を大きくするので、オペレータは、作業装置2と対象物61a~61cとの位置関係も容易に把握することができる。
 [項目7]上記項目1~6のいずれかに記載の遠隔操作支援システム100において、制御装置31は、検出装置24、26により検出された作業機1の走行方向にある注意領域52、53をセンシングマップ41に表示させる。
 上記項目7の構成により、オペレータは、遠隔操作で作業機1を走行させた場合の、作業機1及び注意領域52、53に対する対象物61a~61cの位置関係を一目で容易に把握することができる。
 [項目8]上記項目7に記載の遠隔操作支援システム100において、制御装置31は、検出装置26により検出された作業機1の操舵角θに応じて、注意領域52、53の表示位置を可変する。
 上記項目8の構成により、オペレータは、作業機1の走行方向にある対象物61a~61cの、作業機1及び注意領域52、53に対する位置関係を一目で容易に把握することができる。
 [項目9]上記項目1~8のいずれかに記載の遠隔操作支援システム100において、制御装置31は、検出装置24、26により検出された作業機1の走行方向及び走行速度に基づいて、所定時間後の作業機1の位置を推定し、当該推定した所定時間後の作業機1の位置を示す推定作業機オブジェクト59a、59bと、作業機1の現在位置を示す実作業機オブジェクト57とをセンシングマップ41に表示させる。
 上記項目9の構成により、オペレータは、所定時間後の作業機1と対象物61a~61cとの位置関係を一目で容易に把握することができる。
 [項目10]上記項目1~9のいずれかに記載の遠隔操作支援システム100において、センシング装置25は、作業機1の周辺を撮像する撮像装置25cを含み、制御装置31は、撮像装置25cの撮像画像42a~42dとセンシングマップ41とを表示装置34により画面(遠隔監視画面)40に表示させる。
 上記項目10の構成により、オペレータは、遠隔監視画面40を見ることで、作業機1の周辺のセンシングマップ41と撮像画像42a~42dとを容易に視認することができ、作業機1と対象物61a~61cとの位置関係をより詳しく把握することが可能となる。また、センシングマップ41と撮像画像42a~42dとが同時に遠隔監視画面40に表示されるので、センシングマップ41と撮像画像42a~42dとを見るときのオペレータの視線移動量を少なくして、オペレータの監視負担を軽減することが可能となる。
 [項目11]上記項目10に記載の遠隔操作支援システム100において、撮像装置25cは、作業機1の前方、後方、左方、及び右方をそれぞれ撮像するために作業機1に複数設けられたカメラを含み、制御装置31は、複数のカメラ25cによりそれぞれ撮像された複数の撮像画像と、当該複数の撮像画像を合成して得た作業機1の周辺の俯瞰状態を示す合成後の撮像画像42dとのうちの少なくともいずれかを、表示装置34に表示させる。
 上記項目11の構成により、オペレータは、作業機1の前方、後方、左方、及び右方にある対象物を容易に把握することができる。特に、本実施形態では、作業機1の複数方向の周辺の複数の撮像画像42a~42cと、作業機1の周辺の俯瞰状態を示す合成後の撮像画像42dとを遠隔監視画面40に表示させるので、オペレータは、作業機1と対象物61a~61cとの位置関係を一層詳しく把握することが可能となる。
 [項目12]上記項目10又は11に記載の遠隔操作支援システム100において、撮像装置25cは、作業機1に設けられたキャビン9の内部に設置されて、作業機1の前方を撮像する内部カメラ25c1を含み、制御装置31は、内部カメラ25c1の撮像画像42aを表示装置34に表示させる。
 上記項目12構成より、オペレータは、作業機1の運転席10に着座した運転者の視線で、作業機1の前方にある対象物61a~61cを容易に把握することができ、作業機1に乗車している感覚で遠隔装置30により作業機1を容易に遠隔操作することが可能となる。
 [項目13]上記項目10~12のいずれかに記載の遠隔操作支援システム100において、センシング装置25は、作業機1から対象物61a、61b、61cまでの距離を検出する対象物センサ25a、25bを含み、制御装置31は、撮像画像42a~42dに映る対象物61a、61b、61cを教示する教示オブジェクト62a、62b、62cを表示させ、且つ対象物61a、61b、61cまでの距離に応じて教示オブジェクト62a、62b、62cの表示形態を可変する。
 上記項目13の構成により、オペレータは、作業機1の周囲にある対象物61a、61b、61cを、作業機1からの距離に応じてそれぞれ把握することができる。
 [項目14]上記項目13に記載の遠隔操作支援システム100において、制御装置31は、教示オブジェクト62a、62b、62cで教示される対象物61a、61b、61cまでの距離が近くなるに連れて、教示オブジェクト62a、62b、62cの表示を強調させる。
 上記項目14の構成により、オペレータは、作業機1の近くにある危険な対象物61a(又は対象物61b)を、遠くにある対象物61cよりも注視することができる。
 [項目15]上記項目13又は14に記載の遠隔操作支援システム100において、制御装置31は、撮像画像42a~42dに映る作業機1又は作業機1に連結された作業装置2の一部で対象物61bが隠れている場合、対象物センサ25a、25bの検出情報に基づいて撮像画像42a~42dにおける対象物61bの位置を推定し、当該推定した対象物61bの位置に応じて教示オブジェクト62bを表示させる。
 上記項目15の構成により、オペレータは、撮像装置(カメラ)25cで撮像できない死角にある対象物61bを容易に把握することができる。
 [項目16]上記項目10~15のいずれかに記載の遠隔操作支援システム100において、制御装置31は、対象物センサ25a、25bの検出情報に基づいて、作業機1への対象物61a、61bの接近方向を判断し、撮像画像42a~42dの周縁部における対象物61a、61bの接近方向に対応する箇所に、対象物61a、61bの接近を通知する通知オブジェクト63a、63bを表示させ、且つ前記対象物61a、61bまでの距離に応じて通知オブジェクト63a、63bの表示形態を可変する。
 上記項目16の構成により、オペレータは、見ている撮像画像に映らない対象物が作業機1に接近していることを容易に把握することができる。
 [項目17]上記項目1~16のいずれかに記載の遠隔操作支援システム100において、制御装置31は、作業機1の周辺の地図情報に基づく付加情報をセンシングマップ41に表示させる。
 上記項目17の構成により、オペレータは、作業機1の周辺の対象物以外の付加情報も把握することができる。
 [項目18]上記項目17に記載の遠隔操作支援システム100において、遠隔装置30は、作業機1の周辺の走行不可領域65と地面の高低差66とを少なくとも含む複数の付加情報のいずれかの表示指示を入力可能な入力装置(操作装置)35を有し、制御装置31は、表示指示で示されるいずれかの付加情報とセンシングマップ41とを表示装置34により画面40に表示させる。
 上記項目18の構成により、オペレータは、必要な付加情報を選択して、当該付加情報をセンシングマップ41の表示内容と共に把握することができる。また、選択された付加情報をセンシングマップ41に表示することで、オペレータの視線移動量を少なくして、オペレータの監視負担を軽減することが可能となる。さらに、オペレータは、作業機1の周辺の対象物61a~61cと、走行不可領域65又は地面の高低差66などを把握しながら、作業機1を容易に遠隔操作することができる。
 [項目19]本実施形態の遠隔装置30は、上記項目1~18のいずれかに記載の遠隔操作支援システム100に備わっていて、上記項目1~18のいずれかに記載のとおり構成されている。
 以上、本発明について説明したが、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
  1  作業機
  2  作業装置
  9  キャビン
 10  運転席
 24  位置検出装置(検出装置)
 25  センシング装置
 25a レーザセンサ(対象物センサ)
 25b 超音波センサ(対象物センサ)
 25c カメラ(撮像装置)
 25c1 内部カメラ(撮像装置)
 26  状態検出装置(検出装置)
 30  遠隔装置
 31  制御装置
 34  表示装置
 35  操作装置(入力装置)
 40  遠隔監視画面
 41  センシングマップ
 42a、42b、42c 撮像画像
 42d 合成後の撮像画像
 52  緊急停止領域(注意領域)
 53  警告領域(注意領域)
 55  検出領域
 56a、56b、56c  対象物オブジェクト
 57  実作業機オブジェクト
 59a、59b  推定作業機オブジェクト
 61a、61b、61c  障害物(所定の対象物)
 62a、62b、62c  教示オブジェクト
 63a、63b  通知オブジェクト
 65  走行不可領域(付加情報)
 66  地面の高低差(付加情報)
 100 作業機の遠隔操作支援システム
  θ  操舵角

Claims (19)

  1.  センシング装置と、
     前記センシング装置がセンシングしたセンシング情報を表示する表示装置及び当該表示装置を制御する制御装置を有する遠隔装置と、を備え、
     前記制御装置は、作業機の周辺と当該周辺の注意領域とを示すセンシングマップを前記表示装置に表示させ、且つ前記センシング情報に前記作業機の周辺にある対象物が含まれている場合に、前記対象物の位置を示す対象物オブジェクトを前記センシングマップに表示させる作業機の遠隔操作支援システム。
  2.  前記制御装置は、
     前記注意領域として、所定の前記対象物がある場合に前記作業機が緊急停止する緊急停止領域及び前記作業機への所定の前記対象物の接近を警告する警告領域を前記センシングマップに表示させ、
     前記対象物オブジェクトが前記緊急停止領域、前記警告領域、或いは前記緊急停止領域及び前記警告領域の外側のいずれにあるかに応じて、前記対象物オブジェクトの表示形態を可変する請求項1に記載の作業機の遠隔操作支援システム。
  3.  前記制御装置は、前記緊急停止領域及び前記警告領域の外側にある前記対象物オブジェクトの表示よりも、前記警告領域にある前記対象物オブジェクトの表示を強調させ、前記警告領域にある前記対象物オブジェクトの表示よりも、前記緊急停止領域にある前記対象物オブジェクトの表示を強調させる請求項2に記載の作業機の遠隔操作支援システム。
  4.  前記センシング装置は、前記作業機に複数設けられ、前記作業機の前方、後方、左方、及び右方にある前記対象物を検出する複数の対象物センサを含み、
     前記制御装置は、前記対象物を検出した少なくともいずれかの前記対象物センサの検出領域を前記センシングマップに表示させる請求項1に記載の作業機の遠隔操作支援システム。
  5.  前記作業機の状態を検出する検出装置を備え、
     前記制御装置は、前記検出装置により検出された前記作業機の走行速度に応じて、前記注意領域の表示形態を可変する請求項1に記載の作業機の遠隔操作支援システム。
  6.  前記制御装置は、前記作業機に連結された作業装置の仕様に応じて、前記注意領域の表示形態を可変する請求項1に記載の作業機の遠隔操作支援システム。
  7.  前記作業機の状態を検出する検出装置を備え、
     前記制御装置は、前記検出装置により検出された前記作業機の走行方向にある前記注意領域を前記センシングマップに表示させる請求項1に記載の作業機の遠隔操作支援システム。
  8.  前記制御装置は、前記検出装置により検出された前記作業機の操舵角に応じて、前記注意領域の表示位置を可変する請求項7に記載の作業機の遠隔操作支援システム。
  9.  前記作業機の状態を検出する検出装置を備え、
     前記制御装置は、前記検出装置により検出された前記作業機の走行方向及び走行速度に基づいて、所定時間後の前記作業機の位置を推定し、当該推定した所定時間後の前記作業機の位置を示す推定作業機オブジェクトと、前記作業機の現在位置を示す実作業機オブジェクトとを前記センシングマップに表示させる請求項1に記載の作業機の遠隔操作支援システム。
  10.  前記センシング装置は、前記作業機の周辺を撮像する撮像装置を含み、
     前記制御装置は、前記撮像装置の撮像画像と前記センシングマップとを前記表示装置により画面に表示させる請求項1に記載の作業機の遠隔操作支援システム。
  11.  前記撮像装置は、前記作業機の前方、後方、左方、及び右方をそれぞれ撮像するために前記作業機に複数設けられたカメラを含み、
     前記制御装置は、複数の前記カメラによりそれぞれ撮像された複数の撮像画像と、当該複数の撮像画像を合成して得た前記作業機の周辺の俯瞰状態を示す合成後の撮像画像とのうちの少なくともいずれかを、前記表示装置に表示させる請求項10に記載の作業機の遠隔操作支援システム。
  12.  前記撮像装置は、前記作業機に設けられたキャビンの内部に設置されて、前記作業機の前方を撮像する内部カメラを含み、
     前記制御装置は、前記内部カメラの撮像画像を前記表示装置に表示させる請求項10に記載の作業機の遠隔操作支援システム。
  13.  前記センシング装置は、前記作業機から前記対象物までの距離を検出する対象物センサを含み、
     前記制御装置は、前記撮像画像に映る前記対象物を教示する教示オブジェクトを表示させ、且つ前記対象物までの距離に応じて前記教示オブジェクトの表示形態を可変する請求項10に記載の作業機の遠隔操作支援システム。
  14.  前記制御装置は、前記教示オブジェクトで教示される前記対象物までの距離が近くなるに連れて、前記教示オブジェクトの表示を強調させる請求項13に記載の作業機の遠隔操作支援システム。
  15.  前記制御装置は、前記撮像画像に映る前記作業機又は前記作業機に連結された作業装置の一部で前記対象物が隠れている場合、前記対象物センサの検出情報に基づいて前記撮像画像における前記対象物の位置を推定し、当該推定した前記対象物の位置に応じて前記教示オブジェクトを表示させる請求項13に記載の作業機の遠隔操作支援システム。
  16.  前記センシング装置は、前記作業機から前記対象物までの距離を検出する対象物センサを含み、
     前記制御装置は、
     前記対象物センサの検出情報に基づいて、前記作業機への前記対象物の接近方向を判断し、
     前記撮像画像の周縁部における前記接近方向に対応する箇所に、前記対象物の接近を通知する通知オブジェクトを表示させ、且つ前記対象物までの距離に応じて前記通知オブジェクトの表示形態を可変する請求項10に記載の作業機の遠隔操作支援システム。
  17.  前記制御装置は、前記作業機の周辺の地図情報に基づく付加情報を前記センシングマップに表示させる請求項1に記載の作業機の遠隔操作支援システム。
  18.  前記遠隔装置は、前記作業機の周辺の走行不可領域と地面の高低差とを少なくとも含む複数の前記付加情報のいずれかの表示指示が入力される入力装置を有し、
     前記制御装置は、前記表示指示で示されたいずれかの前記付加情報と前記センシングマップとを前記表示装置により画面に表示させる請求項17に記載の作業機の遠隔操作支援システム。
  19.  請求項1~18のいずれかに記載の作業機の遠隔操作支援システムに備わる遠隔装置。
PCT/JP2023/035081 2022-10-24 2023-09-27 作業機の遠隔操作支援システム、遠隔装置 WO2024090104A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-170009 2022-10-24
JP2022170009A JP2024062176A (ja) 2022-10-24 2022-10-24 作業機の遠隔操作支援システム、遠隔装置

Publications (1)

Publication Number Publication Date
WO2024090104A1 true WO2024090104A1 (ja) 2024-05-02

Family

ID=90830505

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/035081 WO2024090104A1 (ja) 2022-10-24 2023-09-27 作業機の遠隔操作支援システム、遠隔装置

Country Status (2)

Country Link
JP (1) JP2024062176A (ja)
WO (1) WO2024090104A1 (ja)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004130893A (ja) * 2002-10-09 2004-04-30 Fujitsu Ten Ltd 車両障害物検出確認装置
JP2009217740A (ja) * 2008-03-12 2009-09-24 Panasonic Corp 車両周囲監視装置および車両周囲監視方法
JP2013176024A (ja) * 2012-02-27 2013-09-05 Kyocera Corp 映像処理装置、映像処理方法、および映像表示システム
US20170201617A1 (en) * 2014-05-28 2017-07-13 Samsung Electronics Co., Ltd Mobile device, robot cleaner, and method for controlling the same
WO2017123880A1 (en) * 2016-01-14 2017-07-20 Continental Automotive Systems, Inc. Vehicle-trailer backing system having targetless hitch angle detection and trailer geometry learning
JP2018207289A (ja) * 2017-06-02 2018-12-27 アイシン精機株式会社 周辺表示装置
WO2019049709A1 (ja) * 2017-09-07 2019-03-14 ソニー株式会社 画像処理装置、画像処理方法、および画像表示システム
JP2019175254A (ja) * 2018-03-29 2019-10-10 ヤンマー株式会社 運転支援システム
JP2020035112A (ja) * 2018-08-28 2020-03-05 ヤンマー株式会社 障害物検知システム
JP2020068693A (ja) * 2018-10-30 2020-05-07 ヤンマー株式会社 表示装置、及び、自動走行システム
JP2021065115A (ja) * 2019-10-18 2021-04-30 ヤンマーパワーテクノロジー株式会社 障害物検知システム
EP3928604A1 (de) * 2020-06-23 2021-12-29 Deere & Company Landwirtschaftlicher traktor mit einem system zur erkennung nachfolgender verkehrsteilnehmer

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004130893A (ja) * 2002-10-09 2004-04-30 Fujitsu Ten Ltd 車両障害物検出確認装置
JP2009217740A (ja) * 2008-03-12 2009-09-24 Panasonic Corp 車両周囲監視装置および車両周囲監視方法
JP2013176024A (ja) * 2012-02-27 2013-09-05 Kyocera Corp 映像処理装置、映像処理方法、および映像表示システム
US20170201617A1 (en) * 2014-05-28 2017-07-13 Samsung Electronics Co., Ltd Mobile device, robot cleaner, and method for controlling the same
WO2017123880A1 (en) * 2016-01-14 2017-07-20 Continental Automotive Systems, Inc. Vehicle-trailer backing system having targetless hitch angle detection and trailer geometry learning
JP2018207289A (ja) * 2017-06-02 2018-12-27 アイシン精機株式会社 周辺表示装置
WO2019049709A1 (ja) * 2017-09-07 2019-03-14 ソニー株式会社 画像処理装置、画像処理方法、および画像表示システム
JP2019175254A (ja) * 2018-03-29 2019-10-10 ヤンマー株式会社 運転支援システム
JP2020035112A (ja) * 2018-08-28 2020-03-05 ヤンマー株式会社 障害物検知システム
JP2020068693A (ja) * 2018-10-30 2020-05-07 ヤンマー株式会社 表示装置、及び、自動走行システム
JP2021065115A (ja) * 2019-10-18 2021-04-30 ヤンマーパワーテクノロジー株式会社 障害物検知システム
EP3928604A1 (de) * 2020-06-23 2021-12-29 Deere & Company Landwirtschaftlicher traktor mit einem system zur erkennung nachfolgender verkehrsteilnehmer

Also Published As

Publication number Publication date
JP2024062176A (ja) 2024-05-09

Similar Documents

Publication Publication Date Title
KR102344171B1 (ko) 화상 생성 장치, 화상 생성 방법, 및 프로그램
EP3272586B1 (en) Work vehicle
US10788821B2 (en) Wireless management system for work vehicles and method for managing work vehicles in wireless management system
EP3016836B1 (en) Vehicle control system
JP6450948B2 (ja) 自律走行作業車両
JP2017161987A (ja) 作業車両の走行領域形状登録システム
JPH10148537A (ja) 自動車の周辺状況を知らせるナビゲーション装置及びその制御方法
CN114859915A (zh) 行驶区域形状登记系统
US20220264784A1 (en) Automatic Travel System
JP2018169826A (ja) 農用作業車両
JP2019133701A (ja) 走行領域形状登録システム
JP2019165665A (ja) 作業車両用の自動走行システム
JP2023143983A (ja) 自動走行システムおよび表示方法
JP7065170B2 (ja) 自律走行システム
JP7076501B2 (ja) 作業車
US10905042B2 (en) Controller for master work vehicle and method for controlling master work vehicle
JP6481221B2 (ja) 遠隔操作装置
WO2021010297A1 (ja) 自動走行システム
WO2024090104A1 (ja) 作業機の遠隔操作支援システム、遠隔装置
JP2019175059A (ja) 作業車両の走行制御システム
JP6962166B2 (ja) 作業車両の遠隔操作システム
US20230320246A1 (en) Automatic Traveling System, Automatic Traveling Method, And Automatic Traveling Program
JP2019175049A (ja) 作業車両の自動走行装置
JP7060497B2 (ja) 農業用自律走行作業車両
CN114537061A (zh) 用于远程车辆控制和行人用户指导的系统和方法