WO2021241716A1 - ショベル用の施工支援システム - Google Patents

ショベル用の施工支援システム Download PDF

Info

Publication number
WO2021241716A1
WO2021241716A1 PCT/JP2021/020303 JP2021020303W WO2021241716A1 WO 2021241716 A1 WO2021241716 A1 WO 2021241716A1 JP 2021020303 W JP2021020303 W JP 2021020303W WO 2021241716 A1 WO2021241716 A1 WO 2021241716A1
Authority
WO
WIPO (PCT)
Prior art keywords
excavator
virtual
operator
simulation
work site
Prior art date
Application number
PCT/JP2021/020303
Other languages
English (en)
French (fr)
Inventor
春男 呉
Original Assignee
住友重機械工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 住友重機械工業株式会社 filed Critical 住友重機械工業株式会社
Priority to KR1020227030064A priority Critical patent/KR20230015308A/ko
Priority to JP2022526653A priority patent/JPWO2021241716A1/ja
Priority to EP21812756.1A priority patent/EP4159933A4/en
Priority to CN202180018967.0A priority patent/CN115279974A/zh
Publication of WO2021241716A1 publication Critical patent/WO2021241716A1/ja
Priority to US18/055,467 priority patent/US20230071015A1/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/205Remotely operated machines, e.g. unmanned vehicles
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • E02F3/437Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like providing automatic sequences of movements, e.g. linear excavation, keeping dipper angle constant
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/22Hydraulic or pneumatic drives
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • E02F9/262Surveying the work-site to be treated with follow-up actions to control the work tool, e.g. controller
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • E02F9/265Sensors and their calibration for indicating the position of the work tool with follow-up actions (e.g. control signals sent to actuate the work tool)
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/13Architectural design, e.g. computer-aided architectural design [CAAD] related to design of buildings, bridges, landscapes, production plants or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/10Geometric CAD
    • G06F30/15Vehicle, aircraft or watercraft design
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/08Construction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/40Special vehicles
    • B60Y2200/41Construction vehicles, e.g. graders, excavators
    • B60Y2200/412Excavators
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/22Hydraulic or pneumatic drives
    • E02F9/2221Control of flow rate; Load sensing arrangements
    • E02F9/2225Control of flow rate; Load sensing arrangements using pressure-compensating valves
    • E02F9/2228Control of flow rate; Load sensing arrangements using pressure-compensating valves including an electronic controller
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/22Hydraulic or pneumatic drives
    • E02F9/2278Hydraulic circuits
    • E02F9/2285Pilot-operated systems
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/22Hydraulic or pneumatic drives
    • E02F9/2278Hydraulic circuits
    • E02F9/2292Systems with two or more pumps
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/22Hydraulic or pneumatic drives
    • E02F9/2278Hydraulic circuits
    • E02F9/2296Systems with a variable displacement pump
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/267Diagnosing or detecting failure of vehicles
    • E02F9/268Diagnosing or detecting failure of vehicles with failure correction follow-up actions

Definitions

  • This disclosure relates to a construction support system for excavators.
  • Patent Document 1 An operation support system that supports the operator of a construction machine by using the operation data with high work quality among the operation data of the past work machine is known (see Patent Document 1).
  • the construction support system for a shovel is a system that supports construction by a shovel, and is an operation for executing a simulation of the operation of the shovel in a virtual environment set based on the working environment of the shovel. Has a device.
  • the above-mentioned construction support system for excavators can reflect the actual situation at the work site when supporting construction by excavators.
  • FIG. 1 shows an excavator 100 as an excavator according to an embodiment of the present invention.
  • the upper swivel body 3 is mounted on the lower traveling body 1 of the excavator 100 so as to be swivelable via the swivel mechanism 2.
  • a boom 4 is attached to the upper swing body 3.
  • An arm 5 is attached to the tip of the boom 4, and a bucket 6 as an end attachment is attached to the tip of the arm 5.
  • the boom 4, arm 5, and bucket 6 constitute an excavation attachment, which is an example of the attachment.
  • the boom 4 is driven by the boom cylinder 7, the arm 5 is driven by the arm cylinder 8, and the bucket 6 is driven by the bucket cylinder 9.
  • the boom angle sensor S1 is attached to the boom 4, the arm angle sensor S2 is attached to the arm 5, and the bucket angle sensor S3 is attached to the bucket link.
  • a turning angular velocity sensor S4 is attached to the upper turning body 3.
  • the boom angle sensor S1 is one of the posture detection sensors and is configured to detect the rotation angle of the boom 4.
  • the boom angle sensor S1 is a stroke sensor that detects the stroke amount of the boom cylinder 7, and is around the boom foot pin that connects the upper swing body 3 and the boom 4 based on the stroke amount of the boom cylinder 7.
  • the rotation angle of the boom 4 is derived.
  • the arm angle sensor S2 is one of the posture detection sensors and is configured to detect the rotation angle of the arm 5.
  • the arm angle sensor S2 is a stroke sensor that detects the stroke amount of the arm cylinder 8, and is an arm 5 around a connecting pin that connects the boom 4 and the arm 5 based on the stroke amount of the arm cylinder 8. Derive the rotation angle.
  • the bucket angle sensor S3 is one of the posture detection sensors and is configured to detect the rotation angle of the bucket 6.
  • the bucket angle sensor S3 is a stroke sensor that detects the stroke amount of the bucket cylinder 9, and is a bucket 6 around a connecting pin that connects the arm 5 and the bucket 6 based on the stroke amount of the bucket cylinder 9. Derive the rotation angle.
  • Each of the boom angle sensor S1, the arm angle sensor S2, and the bucket angle sensor S3 may be a rotary encoder, an acceleration sensor, a potentiometer (variable resistor), an inclination sensor, an inertial measuring device, or the like.
  • the inertial measurement unit may be composed of, for example, a combination of an acceleration sensor and a gyro sensor.
  • the turning angular velocity sensor S4 is configured to detect the turning angular velocity of the upper turning body 3.
  • the turning angular velocity sensor S4 is a gyro sensor.
  • the turning angular velocity sensor S4 may be configured to calculate the turning angle based on the turning angular velocity.
  • the turning angular velocity sensor S4 may be composed of other sensors such as a rotary encoder.
  • the upper swing body 3 is equipped with a cabin 10, an engine 11, a positioning device 18, a sound collecting device A1, a space recognition device C1, a communication device T1, and the like as a driver's cab. Further, a controller 30 is mounted in the cabin 10. Further, a driver's seat, an operation device, and the like are installed in the cabin 10. However, the excavator 100 may be an unmanned excavator in which the cabin 10 is omitted.
  • the engine 11 as a prime mover is a drive source for the excavator 100.
  • the engine 11 is a diesel engine.
  • the output shaft of the engine 11 is connected to the input shafts of the main pump 14 and the pilot pump 15.
  • the main pump 14 may be driven by an electric motor driven by electric power from a power storage device instead of the engine 11.
  • the positioning device 18 is configured to measure the position of the excavator 100.
  • the positioning device 18 is a GNSS compass and is configured to be able to measure the position and orientation of the upper swivel body 3.
  • the sound collecting device A1 is configured to collect the sounds generated around the excavator 100.
  • the sound collecting device A1 is a microphone attached to the upper swirl body 3.
  • the space recognition device C1 is configured to be able to recognize the space around the excavator 100.
  • the space recognition device C1 is an image pickup device such as a monocular camera, a stereo camera, or an infrared camera.
  • the space recognition device C1 is a monocular camera having an image pickup device such as a CCD or CMOS.
  • the space recognition device C1 is attached to the rear camera C1B attached to the rear end of the upper surface of the upper swivel body 3, the front camera C1F attached to the front end of the upper surface of the cabin 10, and the left end of the upper surface of the upper swivel body 3.
  • the left camera C1L and the right camera C1R attached to the upper right end of the upper swivel body 3 are included.
  • the space recognition device C1 may be an omnidirectional camera installed at a predetermined position in the cabin 10.
  • the predetermined position is, for example, a position corresponding to the position of the eyes of the operator sitting in the driver's seat installed in the cabin 10.
  • the space recognition device C1 may be a LIDAR, an ultrasonic sensor, a millimeter wave radar, a laser radar, an infrared sensor or the like (hereinafter, referred to as “LIDAR or the like”).
  • the space recognition device C1 as a LIDAR or the like transmits a large number of signals (laser light or the like) toward an object, and receives the reflected signal to the space recognition device C1 for the distance from the space recognition device C1 to the object and the space recognition device C1.
  • the direction of the object as seen from above may be detected.
  • the space recognition device C1 may be configured to detect an object existing around the shovel 100.
  • An object is, for example, a terrain shape (inclination or hole, etc.), a dump truck, an electric wire, a utility pole, a person, an animal, a vehicle, a construction machine, a building, a wall, a helmet, a safety vest, work clothes, or a predetermined mark on a helmet. And so on.
  • the space recognition device C1 may be configured to be able to identify at least one of the type, position, shape, and the like of the object. Further, the space recognition device C1 may be configured so as to be able to distinguish between a person and an object other than a person.
  • the controller 30 cannot operate the actuator even if the operator operates the operation lever. It may be in a state or a slow speed state. Specifically, when the controller 30 determines that a person is within a predetermined distance from the shovel 100, the controller 30 can put the actuator in an inoperable state by locking the gate lock valve. In the case of an electric operating lever, the controller 30 can render the actuator inoperable by disabling the signal to the operating control valve.
  • the operation control valve is configured to output a pilot pressure corresponding to a control command from the controller 30 and apply the pilot pressure to the pilot port of the corresponding control valve in the control valve unit 17.
  • the controller 30 can put the actuator into a slow speed state by reducing the signal to the operation control valve (for example, the value of the current signal). In this way, when it is determined that a person exists within a predetermined distance from the excavator 100, the actuator is not driven even if the operating device is operated, or the output is smaller than the output corresponding to the input to the operating device. It is driven at a very low speed. Further, when it is determined that a person exists within a predetermined distance from the shovel 100 when the operator is operating the operation lever, the controller 30 operates the actuator regardless of the operation content of the operator.
  • the controller 30 stops the actuator by locking the gate lock valve.
  • the controller 30 cannot operate the actuator by invalidating the signal to the operation control valve or by outputting a deceleration command to the operation control valve. It can be in a state or a slow speed state.
  • stop control is not required. In this case, the actuator is controlled to avoid the detected dump truck.
  • the actuator may be controlled based on the recognition of the detected object type.
  • the communication device T1 is configured to control communication with a device outside the shovel 100.
  • the communication device T1 is configured to control wireless communication between the communication device T1 and a device outside the shovel 100 via a wireless communication network.
  • the controller 30 is an arithmetic unit that executes various arithmetic operations.
  • the controller 30 is composed of a microcomputer including a CPU and a memory 30a. Then, various functions of the controller 30 are realized by the CPU executing a program stored in the memory 30a.
  • FIG. 2 is a block diagram showing a configuration example of the drive system of the excavator 100 of FIG.
  • the mechanical power transmission line is shown by a double line
  • the hydraulic oil line is shown by a thick solid line
  • the pilot line is shown by a broken line
  • the electric control line is shown by a dotted line.
  • the drive system of the excavator 100 is composed of an engine 11, a regulator 13, a main pump 14, a pilot pump 15, a control valve unit 17, a controller 30, a solenoid valve unit 45, and the like.
  • the engine 11 is driven and controlled by the engine control unit 74.
  • the main pump 14 supplies hydraulic oil to the control valve unit 17 via the hydraulic oil line 16.
  • the main pump 14 is a swash plate type variable displacement hydraulic pump.
  • the regulator 13 is configured to control the discharge amount of the main pump 14.
  • the regulator 13 is configured to adjust the swash plate tilt angle of the main pump 14 according to the discharge pressure of the main pump 14, a control signal from the controller 30, or the like.
  • the discharge amount (push-out volume) per rotation is controlled by the regulator 13.
  • the pilot pump 15 is configured to supply hydraulic oil to various flood control devices via the pilot line 25.
  • the pilot pump 15 is a fixed capacity hydraulic pump.
  • the pilot pump 15 may be omitted.
  • the function carried out by the pilot pump 15 may be realized by the main pump 14. That is, the main pump 14 may have a function of supplying hydraulic oil to the solenoid valve unit 45 or the like via a throttle or the like, in addition to the function of supplying hydraulic oil to the control valve unit 17.
  • the control valve unit 17 is configured to selectively supply the hydraulic oil received from the main pump 14 to one or a plurality of hydraulic actuators.
  • the control valve unit 17 includes a plurality of control valves corresponding to a plurality of hydraulic actuators.
  • the control valve unit 17 is configured to selectively supply the hydraulic oil discharged from the main pump 14 to one or a plurality of hydraulic actuators.
  • the hydraulic actuator includes, for example, a boom cylinder 7, an arm cylinder 8, a bucket cylinder 9, a left-side traveling hydraulic motor 1L, a right-side traveling hydraulic motor 1R, and a turning hydraulic motor 2A.
  • the controller 30 is configured to control the solenoid valve unit 45 based on the operation signal received through the communication device T1.
  • the operation signal is transmitted from the remote control room.
  • the operation signal may be generated by an operation device provided in the cabin 10.
  • the solenoid valve unit 45 includes a plurality of solenoid valves arranged in each pilot line 25 connecting the pilot pump 15 and the pilot port of each control valve in the control valve unit 17.
  • the controller 30 can control the pilot pressure acting on the pilot port of each control valve by individually controlling the opening area of each of the plurality of solenoid valves. Therefore, the controller 30 can control the flow rate of the hydraulic oil flowing into each hydraulic actuator and the flow rate of the hydraulic oil flowing out from each hydraulic actuator, and can control the movement of each hydraulic actuator.
  • the controller 30 responds to an operation signal from the outside such as the remote control room, raising and lowering the boom 4, opening and closing the arm 5, opening and closing the bucket 6, turning the upper turning body 3, and lowering the traveling body 1. It is possible to realize driving.
  • FIG. 3 is a diagram showing a configuration example of an electric system mounted on the excavator of FIG.
  • the engine 11 is connected to the engine control unit 74. From the engine control unit 74, various data indicating the state of the engine 11 are transmitted to the controller 30.
  • the controller 30 is configured to be able to store various data indicating the state of the engine 11 in the memory 30a.
  • the battery 70 is configured to supply electric power to various electric loads mounted on the excavator 100.
  • the alternator 11a generator
  • the starter 11b the controller 30, the electrical component 72, and the like are configured to operate with the electric power stored in the battery 70.
  • the starter 11b is driven by the electric power stored in the battery 70 and is configured to start the engine 11. Further, the battery 70 is configured to be charged by the electric power generated by the alternator 11a.
  • the water temperature sensor 11c transmits data regarding the temperature of the engine cooling water to the controller 30.
  • the regulator 13 transmits data regarding the tilt angle of the swash plate to the controller 30.
  • the discharge pressure sensor 14b transmits data regarding the discharge pressure of the main pump 14 to the controller 30.
  • the positioning device 18 transmits data regarding the position of the shovel 100 to the controller 30.
  • An oil temperature sensor 14c is provided in the pipeline 14-1 between the hydraulic oil tank in which the hydraulic oil sucked by the main pump 14 is stored and the main pump 14.
  • the oil temperature sensor 14c transmits data regarding the temperature of the hydraulic oil flowing through the pipeline 14-1 to the controller 30.
  • the urea water remaining amount sensor 21a provided in the urea water tank 21 transmits data regarding the remaining amount of urea water to the controller 30.
  • the fuel remaining amount sensor 22a provided in the fuel tank 22 transmits data regarding the remaining amount of fuel to the controller 30.
  • the communication device T1 is configured to transmit / receive information to / from the communication device T2 installed in the remote control room RC via wireless communication.
  • the communication device T1 and the communication device T2 are configured to transmit and receive information via a fifth generation mobile communication line (5G line), an LTE line, a satellite line, or the like.
  • 5G line fifth generation mobile communication line
  • LTE line Long Term Evolution
  • satellite line or the like.
  • a remote controller 40 In the remote control room RC, a remote controller 40, a sound output device A2, an indoor space recognition device C2, a display device D1, a communication device T2, and the like are installed. Further, in the remote control room RC, a driver's seat DS on which the operator OP who remotely controls the excavator 100 sits is installed.
  • the remote controller 40 is an arithmetic unit that executes various arithmetic operations.
  • the remote controller 40 like the controller 30, is composed of a microcomputer including a CPU and a memory. Then, various functions of the remote controller 40 are realized by the CPU executing a program stored in the memory.
  • the sound output device A2 is configured to output sound.
  • the sound output device A2 is a speaker, and is configured to reproduce the sound collected by the sound collecting device A1 attached to the shovel 100.
  • the indoor space recognition device C2 is configured to be able to recognize the space in the remote control room RC.
  • the indoor space recognition device C2 is a camera installed inside the remote control room RC, and is configured to take an image of the operator OP seated in the driver's seat DS.
  • the communication device T2 is configured to control wireless communication with the communication device T1 attached to the shovel 100.
  • the driver's seat DS has the same structure as the driver's seat installed in the cabin of a normal excavator. Specifically, the left console box is arranged on the left side of the driver's seat DS, and the right console box is arranged on the right side of the driver's seat DS. A left operation lever is arranged at the front end of the upper surface of the left console box, and a right operation lever is arranged at the front end of the upper surface of the right console box. Further, a traveling lever and a traveling pedal are arranged in front of the driver's seat DS. Further, a dial 75 is arranged at the center of the upper surface of the right console box. Each of the left operation lever, the right operation lever, the travel lever, the travel pedal, and the dial 75 constitutes the operation device 26.
  • the dial 75 is a dial for adjusting the rotation speed of the engine 11, and is configured so that the engine rotation speed can be switched in four stages, for example.
  • the dial 75 is configured so that the engine speed can be switched in four stages of SP mode, H mode, A mode, and idling mode.
  • the dial 75 transmits data regarding the setting of the engine speed to the controller 30.
  • the SP mode is a rotation speed mode selected when the operator OP wants to prioritize the amount of work, and uses the highest engine rotation speed.
  • the H mode is a rotation speed mode selected when the operator OP wants to achieve both a work amount and a fuel consumption, and uses the second highest engine rotation speed.
  • the A mode is a rotation speed mode selected when the operator OP wants to operate the excavator with low noise while giving priority to fuel consumption, and uses the third highest engine rotation speed.
  • the idling mode is a rotation speed mode selected when the operator OP wants to put the engine in the idling state, and uses the lowest engine rotation speed. Then, the engine 11 is constantly controlled in rotation speed by the engine rotation speed in the rotation speed mode selected via the dial 75.
  • the operation device 26 is provided with an operation sensor 29 for detecting the operation content of the operation device 26.
  • the operation sensor 29 is, for example, an inclination sensor that detects the inclination angle of the operation lever, an angle sensor that detects the swing angle around the swing axis of the operation lever, and the like.
  • the operation sensor 29 may be composed of other sensors such as a pressure sensor, a current sensor, a voltage sensor, or a distance sensor.
  • the operation sensor 29 outputs information regarding the detected operation content of the operation device 26 to the remote controller 40.
  • the remote controller 40 generates an operation signal based on the received information, and transmits the generated operation signal toward the excavator 100.
  • the operation sensor 29 may be configured to generate an operation signal. In this case, the operation sensor 29 may output the operation signal to the communication device T2 without going through the remote controller 40.
  • the display device D1 is configured to display information regarding the situation around the excavator 100.
  • the display device D1 is a multi-display composed of nine monitors having three vertical rows and three horizontal rows so that the front, left, and right spaces of the excavator 100 can be displayed. It is configured.
  • Each monitor is a liquid crystal monitor, an organic EL monitor, or the like.
  • the display device D1 may be composed of one or a plurality of curved surface monitors, or may be composed of a projector.
  • the display device D1 may be a display device that can be worn by the operator OP.
  • the display device D1 is a head-mounted display (goggles for VR), and may be configured to be able to send and receive information to and from the remote controller 40 by wireless communication.
  • the head-mounted display may be connected to the remote controller 40 by wire.
  • the head-mounted display may be a transmissive head-mounted display or a non-transparent head-mounted display.
  • the head-mounted display may be a monocular head-mounted display or a binocular head-mounted display.
  • the display device D1 is configured to display an image that allows the operator OP in the remote control room RC to visually recognize the surroundings of the excavator 100. That is, the display device D1 can confirm the situation around the shovel 100 as if the operator is in the cabin 10 of the shovel 100 even though the operator is in the remote control room RC. Is displayed.
  • FIG. 4 is a diagram showing the relationship between the operation room coordinate system and the excavator coordinate system.
  • the operation room coordinate system is a three-dimensional UVW Cartesian coordinate system with the reference point R1 in the remote operation room RC as the origin, and extends parallel to the U-axis extending in the front-rear direction of the driver's seat DS and in the left-right direction of the driver's seat DS. It has a V-axis and a W-axis orthogonal to the U-axis and the V-axis.
  • the excavator coordinate system is a three-dimensional XYZ Cartesian coordinate system with the reference point R2 on the upper swivel body 3 as the origin, and is parallel to the X-axis extending parallel to the front-rear direction of the upper swivel body 3 and the left-right direction of the upper swivel body 3. It has a Y-axis extending to and a Z-axis orthogonal to the X-axis and the Y-axis.
  • the reference point R2 is a point on the swivel axis
  • the XY plane is a horizontal plane
  • the Z axis is a vertical axis. That is, in the example of FIG.
  • the ground plane which is the virtual plane on which the excavator 100 is located, is a horizontal plane.
  • the X-axis corresponds to the U-axis of the operation room coordinate system
  • the Y-axis corresponds to the V-axis of the operation room coordinate system
  • the Z-axis corresponds to the W-axis of the operation room coordinate system.
  • each three-dimensional coordinate in the operation room coordinate system is associated with one of the three-dimensional coordinates in the shovel coordinate system in advance. Therefore, if the three-dimensional coordinates of the operator viewpoint E1 which is the position of the eyes of the operator OP in the remote control room RC are determined, the three-dimensional coordinates of the virtual operator viewpoint E1'which is the position of the eyes of the virtual operator in the excavator 100. Is uniquely determined.
  • the eye position of the operator OP is, for example, an intermediate point between the position of the left eye and the position of the right eye of the operator OP.
  • the position of the eyes of the operator OP may be a preset position. That is, the operator viewpoint E1 and the virtual operator viewpoint E1'may be fixed points.
  • the display device D1 is installed in front of the operator OP, left front, and right front, but may be installed in a square cylinder shape or a cylindrical shape so as to surround the operator OP. .. That is, the display device D1 may include a monitor installed behind the operator OP. Alternatively, the display device D1 may be installed in a hemispherical shape so as to surround the operator OP. That is, the display device D1 may include a monitor installed directly above the operator OP.
  • FIG. 5 is a schematic view showing a configuration example of the construction support system SYS.
  • FIG. 6 is a functional block diagram showing a configuration example of the construction support system SYS.
  • the construction support system SYS is mainly installed in the positioning device 18, the controller 30, the electromagnetic valve unit 45, the sound collecting device A1, the space recognition device C1, the communication device T1 mounted on the excavator 100, and the remote control room RC.
  • the construction support system SYS includes the excavator 100a, the excavator 100b, the remote control room RCa related to the excavator 100a, the remote control room RCb related to the excavator 100b, and the space recognition device C3 installed at the work site. , Information center 200 and.
  • the space recognition device C3 is configured to be able to recognize the space in the work site.
  • the space recognition device C3 is a camera installed at the work site, and is configured to capture the state of the work site.
  • the controller 30 has an image generation unit 31, an excavator state specifying unit 32, and an actuator drive unit 33 as functional blocks.
  • the image generation unit 31, the excavator state specifying unit 32, and the actuator drive unit 33 are represented separately for convenience of explanation, but do not need to be physically separated, and may be wholly or partially. It may be composed of software components or hardware components common to the above.
  • the image generation unit 31 is configured to generate a surrounding image including an image displayed by the display device D1.
  • the surrounding image is an image used for display on the display device D1.
  • the surrounding image is an image showing the surroundings of the excavator 100 that the operator could see if there was an operator in the cabin 10.
  • the surrounding image is generated based on the image captured by the image pickup device as the space recognition device C1.
  • the image generation unit 31 generates a first virtual viewpoint image as a surrounding image based on the images captured by each of the rear camera C1B, the front camera C1F, the left camera C1L, and the right camera C1R.
  • the image generation unit 31 may generate a first virtual viewpoint image as a surrounding image based on an image captured by at least one of the rear camera C1B, the front camera C1F, the left camera C1L, and the right camera C1R.
  • the first virtual viewpoint which is the virtual viewpoint of the first virtual viewpoint image, is the virtual operator viewpoint E1'(Fig.) Corresponding to the position of the operator's eyes when the operator is seated in the driver's seat in the cabin 10. 4).
  • the virtual operator viewpoint E1' may be outside the cabin 10.
  • the coordinates of the virtual operator viewpoint E1' which is the first virtual viewpoint, are the positions of the eyes of the operator OP when the operator OP is seated in the driver's seat DS of the remote control room RC. It is derived based on E1 (see FIG. 4).
  • the coordinates of the operator viewpoint E1 are transmitted from the remote controller 40.
  • the image generation unit 31 can derive the coordinates of the virtual operator viewpoint E1'by converting the coordinates of the operator viewpoint E1 in the operation room coordinate system into the coordinates in the shovel coordinate system.
  • the coordinates of the operator viewpoint E1 may be a preset fixed value.
  • the first virtual viewpoint image corresponds to an image projected on the inner peripheral surface of a virtual cylindrical virtual projection surface surrounding the first virtual viewpoint.
  • the virtual projection plane may be the inner surface of a virtual sphere or hemisphere surrounding the first virtual viewpoint, or may be the inner surface of a virtual rectangular parallelepiped or cube surrounding the first virtual viewpoint.
  • the image derived from the first virtual viewpoint image displayed on the display device D1 is a part of the first virtual viewpoint image generated by the image generation unit 31.
  • the area of the image displayed by the display device D1 is an operation seated in the driver's seat DS of the remote control room RC. It may be determined based on the direction of the line of sight of the person OP. In this case, the information regarding the direction of the line of sight of the operator OP is transmitted from the remote controller 40.
  • the image generation unit 31 generates a first virtual viewpoint image as a surrounding image based on the image output by the space recognition device C1 and the coordinates of the operator viewpoint E1 transmitted from the remote controller 40.
  • the image generation unit 31 cuts out a part of the generated first virtual viewpoint image as a partial peripheral image based on the information regarding the direction of the line of sight of the operator OP transmitted from the remote controller 40, and the cut out partial peripheral image. Is transmitted to the display device D1 in the remote control room RC.
  • the shovel state specifying unit 32 is configured to specify the state of the shovel 100.
  • the state of the shovel 100 includes the position and orientation of the shovel 100.
  • the position of the excavator 100 is, for example, the latitude, longitude, and altitude of the reference point R2 at the excavator 100.
  • the excavator state specifying unit 32 specifies the position and orientation of the excavator based on the output of the positioning device 18.
  • the actuator drive unit 33 is configured to drive the actuator mounted on the excavator 100.
  • the actuator drive unit 33 generates and outputs an operation signal for each of the plurality of solenoid valves included in the solenoid valve unit 45 based on the operation signal transmitted from the remote controller 40.
  • Each solenoid valve that receives the operation signal increases or decreases the pilot pressure acting on the pilot port of the corresponding control valve in the control valve unit 17.
  • the hydraulic actuator corresponding to each control valve operates at a speed corresponding to the stroke amount of the control valve.
  • the remote controller 40 has an operator state specifying unit 41, an image synthesizing unit 42, and an operation signal generation unit 43 as functional blocks.
  • the operator state specifying unit 41, the image composition unit 42, and the operation signal generation unit 43 are represented separately for convenience of explanation, but do not need to be physically distinguished, and may be used as a whole or as a whole. It may be composed of partially common software components or hardware components.
  • the operator state specifying unit 41 is configured to specify the state of the operator OP in the remote control room RC.
  • the state of the operator OP includes the position of the eyes of the operator OP and the direction of the line of sight.
  • the operator state specifying unit 41 identifies the position of the eyes and the direction of the line of sight of the operator OP based on the output of the indoor space recognition device C2.
  • the operator state specifying unit 41 performs various image processing on the image captured by the image pickup device as the indoor space recognition device C2, and sets the coordinates of the eye position of the operator OP in the operation room coordinate system to the operator. It is specified as the coordinates of the viewpoint E1 (see FIG. 4).
  • the operator state specifying unit 41 performs various image processing on the image captured by the image pickup device as the indoor space recognition device C2, and specifies the direction of the line of sight of the operator OP in the operation room coordinate system.
  • the operator state specifying unit 41 outputs the output of a device other than the indoor space recognition device C2, such as a LIDAR installed in the remote control room RC or an inertial measurement device attached to a head-mounted display as a display device D1.
  • a device other than the indoor space recognition device C2 such as a LIDAR installed in the remote control room RC or an inertial measurement device attached to a head-mounted display as a display device D1.
  • the coordinates of the operator's viewpoint E1 and the direction of the line of sight of the operator OP may be derived based on the above.
  • the inertial measurement unit may include a positioning device.
  • the operator state specifying unit 41 transmits information regarding the coordinates of the operator viewpoint E1 and the direction of the line of sight of the operator OP toward the excavator 100 through the communication device T2.
  • the image composition unit 42 is configured to generate a composite image by synthesizing a partial peripheral image transmitted from the controller 30 and another image.
  • Another image may be a design surface image which is an image generated based on the design surface information DG.
  • the image synthesizing unit 42 displays a figure such as computer graphics representing the position of the design surface based on the design surface information DG stored in advance in the non-volatile storage device constituting the remote controller 40.
  • As a design surface image it is superimposed and displayed on the partial surrounding image.
  • the design surface is the ground when the excavation work using the excavator 100 is completed. By looking at the design surface, the operator can grasp the state around the excavator 100 when the excavation work is completed even before the excavation work is completed.
  • the image synthesizing unit 42 determines the position where the design surface image should be superimposed and displayed in the partial peripheral image based on the position and orientation of the excavator specified by the excavator state specifying unit 32.
  • the operation signal generation unit 43 is configured to generate an operation signal.
  • the operation signal generation unit 43 is configured to generate an operation signal based on the output of the operation sensor 29.
  • the controller 50 is an arithmetic unit that executes various operations.
  • the controller 50 is composed of a microcomputer including a CPU and a memory, like the controller 30 and the remote controller 40. Then, various functions of the controller 50 are realized by the CPU executing a program stored in the memory.
  • the controller 50 has a determination unit 51, an operation prediction unit 52, an operation intervention unit 53, and an operation simulator 54 as functional blocks.
  • the determination unit 51, the operation prediction unit 52, the operation intervention unit 53, and the operation simulator 54 are represented separately for convenience of explanation, but do not need to be physically distinguished, and may be used as a whole or as a whole. It may be composed of partially common software components or hardware components.
  • the determination unit 51 is configured to determine whether or not there is a matter to be notified to the operator of the excavator 100 regarding the situation around the excavator 100.
  • the determination unit 51 is an image or a distance image (hereinafter referred to as “image or the like”) captured by the space recognition device C1 as an information acquisition device attached to the shovel 100, and the position and posture of the shovel 100. , And, based on at least one of the operation contents, it is configured to determine whether or not there is a matter to be notified to the operator of the excavator 100.
  • the distance image is, for example, an image generated based on the output of LIDAR or the like as the space recognition device C1.
  • the determination unit 51 may be configured to be able to determine at least one of the position, posture, and operation content of the shovel 100 based on an image or the like captured by the space recognition device C1. Further, the determination unit 51 is configured to determine whether or not there is a matter to be notified to the operator of the excavator 100 based on the image or the like captured by the space recognition device C3 or the construction topography information (topography data). You may. Further, the determination unit 51 may be configured to be able to determine at least one of the position, posture, operation content, and the like of another construction machine based on the image and the like captured by the space recognition device C3.
  • the determination unit 51 notifies the operator of the excavator 100 based on the situation around the excavator 100 derived from the images acquired by the space recognition device C1 and the space recognition device C3 and the position, posture, and operation content of the excavator 100. It may be determined whether or not there is a matter to be done. Whether or not there is a matter to be notified may be determined based on the presence or absence of the same or similar situation in light of past cases.
  • the determination unit 51 detects that a person exists outside the range covered by the image displayed on the display device D1, it determines that there is a matter to be notified to the operator. For example, when the determination unit 51 detects that a person is present behind the left rear of the excavator 100, the determination unit 51 determines that there is a matter to be notified to the operator. In this case, the determination unit 51 may detect a person based on the output of the image pickup device as the space recognition device C1 attached to the upper swivel body 3 or the LIDAR or the like. Alternatively, the determination unit 51 may detect a person based on the output of the image pickup device as the space recognition device C3 installed at the work site, LIDAR, or the like.
  • the space recognition device C3 may be, for example, a hemispherical camera attached to the tip of a pole installed at the work site.
  • the space recognition device C3 may be an image pickup device or LIDAR attached to another work machine, and may be an image pickup device or LIDAR attached to a flying object such as a multicopter (drone) flying over the work site. And so on.
  • a flying object such as a multicopter (drone) flying over the work site.
  • a multicopter drone flying over the work site.
  • the determination unit 51 when the determination unit 51 detects that the electric wire exists outside the range covered by the image displayed on the display device D1, it may determine that there is a matter to be notified to the operator. For example, when the determination unit 51 detects that the electric wire exists above the excavator 100, the determination unit 51 determines that there is a matter to be notified to the operator. In this case, the determination unit 51 may detect the electric wire based on the output of the space recognition device C1. Alternatively, the determination unit 51 may detect the electric wire based on the image or the like captured by the space recognition device C3. The same applies to the case where it is detected that the electric wire exists inside the range covered by the image displayed on the display device D1.
  • the determination unit 51 detects that a downhill exists in front of the excavator 100 based on the construction terrain information (terrain data), it determines that there is a matter to be notified to the operator. For example, when the determination unit 51 detects that a downhill exists in front of the excavator 100, the determination unit 51 determines that there is a matter to be notified to the operator. In this case, the determination unit 51 may detect the downhill based on the output of the object detection device. Alternatively, the determination unit 51 may detect the downhill based on the image or the like captured by the space recognition device C3. Alternatively, the determination unit 51 may detect the downhill based on the construction topography information (topography data) stored in advance in the non-volatile storage medium or the like attached to the controller 50.
  • topography information topography data
  • the determination unit 51 calls the operator's attention.
  • the determination unit 51 transmits information regarding the matter to be notified to the remote controller 40.
  • the image composition unit 42 of the remote controller 40 superimposes and displays an image related to the information received from the determination unit 51 on the partial peripheral image.
  • the operation prediction unit 52 is configured to predict the operation signal after a predetermined time based on the operation signal received from the remote controller 40. This is to suppress the deterioration of the operation responsiveness due to the communication delay, that is, the delay until the operation by the operator OP in the remote control room RC is reflected in the movement of the shovel 100.
  • the predetermined time is, for example, several milliseconds to several tens of milliseconds.
  • the operation prediction unit 52 predicts the operation signal after a predetermined time based on the transition of the operation signal (tilt angle of the operation lever) in the past predetermined time. For example, when the operation prediction unit 52 detects that the tilt angle of the operation lever has tended to increase in the past predetermined time, the operation prediction unit 52 predicts that the tilt angle after the predetermined time will be larger than the current tilt angle.
  • the operation prediction unit 52 directs the predicted operation signal (hereinafter referred to as “predicted operation signal”) toward the shovel 100. Send.
  • the operation prediction unit 52 can substantially transmit the operation signal generated in the remote control room RC to the excavator 100 without delay.
  • the operation intervention unit 53 is configured to intervene in the operation by the operator OP in the remote control room RC.
  • the determination unit 51 is configured to determine whether or not to intervene in the operation by the operator OP based on the image or the like captured by the space recognition device C1 attached to the excavator 100.
  • the operation intervention unit 53 detects that the excavator 100 and an object around the excavator 100 may come into contact with each other, it determines that the operation by the operator OP should be intervened. For example, when the operation intervention unit 53 detects that a person is present on the left side of the excavator 100 and detects that a left turn operation (an operation of tilting the left operation lever to the left) is started, the operation intervention unit 53 operates. It is determined that the operation by the person OP should be intervened. In this case, the operation intervention unit 53 invalidates the operation signal generated based on the left turn operation and prevents the upper turn body 3 from turning left.
  • the operation intervention unit 53 may detect that the excavator 100 and an object around the excavator 100 may come into contact with each other based on the output of the object detection device.
  • the determination unit 51 may detect that the excavator 100 and an object around the excavator 100 may come into contact with each other based on an image or the like captured by the space recognition device C3.
  • the controller 30 may be configured to perform braking control such as stopping or decelerating the excavator 100 based on the operation signal. ..
  • the motion simulator 54 is configured to be able to execute a simulation experiment (simulation) of the motion of the excavator 100.
  • the operation of the excavator 100 constitutes various operations such as excavation work by the excavator 100.
  • the excavation work is composed of a plurality of operations such as an arm closing operation, a bucket closing operation, and a boom raising operation.
  • the motion simulator 54 starts the simulation of the motion of the shovel 100 in response to the start command from the remote control room RC.
  • the motion simulator 54 constructs a virtual work site, which is a virtual model of the work site, based on environmental information.
  • the environmental information is information about a work environment, and includes, for example, information output by at least one of a space recognition device C1, a space recognition device C3, a positioning device 18, and a posture detection sensor. Further, the environmental information may include the design surface information DG.
  • the virtual work site is an example of a virtual environment, for example, a three-dimensional virtual space (three-dimensional model) in which the current terrain of the actual work site is reproduced.
  • the motion simulator 54 transmits an image related to the virtual work site to the display device D1 so that the operator OP in the remote control room RC can visually recognize the situation of the virtual work site.
  • a virtual excavator is placed in the three-dimensional virtual space.
  • the virtual excavator is reproduced in the virtual space so that the current terrain and the position and orientation of the virtual excavator at the virtual work site match the current terrain and the position and orientation of the actual excavator 100 at the actual work site. Placed in a virtual work site.
  • the virtual excavator performs virtual operation at a virtual work site in the same manner as the actual excavator 100. That is, when the operator OP switches the connection destination of the operation device 26 from the actual excavator 100 to the virtual excavator, the operator OP can operate the virtual excavator via the operation device 26. For example, the operator OP can move the virtual arm of the virtual excavator by operating the left operation lever (arm operation lever) of the operation device 26. In this way, the operator OP can operate each actuator of the virtual excavator at the virtual work site. In addition, if there is an installation such as a building or an electric wire at the actual work site, the virtual installation is reproduced at the virtual work site.
  • the material is scheduled to be delivered at a predetermined time at the actual work site
  • the situation where the virtual material is delivered at the scheduled predetermined time is reproduced at the virtual work site as well.
  • the ground characteristics (hardness, density, water content rate, etc.) of the ground and slopes of the virtual work site are also reproduced so as to match the ground characteristics of the actual work site.
  • the situation where it rains at the scheduled predetermined time is virtually reproduced at the virtual work site. In this way, the three-dimensional virtual space is reproduced as a three-dimensional model.
  • the operator OP of the remote control room RC can perform virtual work at the virtual work site reproduced in the virtual space by using the model of the virtual excavator arranged in the three-dimensional virtual space.
  • the image visually recognized by the operator OP of the remote control room RC corresponds to the image of the virtual work site obtained from the virtual space recognition device attached to the virtual excavator arranged in the three-dimensional virtual space. do.
  • the virtual space recognition device is arranged in, for example, a virtual cabin.
  • the image relating to the virtual work site is typically a stereoscopic terrain image corresponding to the terrain of the actual work site and is composed of computer graphics.
  • the image relating to the virtual work site may be generated at least partially by using the image captured by the image pickup apparatus.
  • the display device D1 that has received the image related to the virtual work site can display the image of the virtual work site.
  • the current terrain of the actual work site may be acquired through the space recognition device C1 (camera or LIDAR, etc.) provided in the excavator 100, the space recognition device (camera, LIDAR, etc.) provided in the multicopter, etc., and is actually It may be acquired through a space recognition device (camera, LIDAR, etc.) installed in a building or a steel tower at the work site of.
  • the motion simulator 54 can reproduce the actual work site in a three-dimensional virtual space (three-dimensional model) based on the information acquired through the space recognition device.
  • the virtual work site in the three-dimensional virtual space (three-dimensional model) may be updated according to the progress in the actual work site. For example, when a fallen tree occurs at an actual work site, the shovel 100 acquires information (position, size, tree type, etc.) of the fallen tree generated at the actual work site by the space recognition device C1. It is transmitted to the controller 50 as a management device installed in the information center 200. The controller 50 reflects the latest information of the received actual work site on the virtual work site. As a result, the operator OP can operate the virtual excavator at the virtual work site and perform virtual work in consideration of a fallen tree.
  • Images related to virtual work sites typically include images of virtual excavators.
  • the virtual excavator corresponds to the excavator 100 in the actual work site, for example, when the simulation of the operation of the excavator 100 is started. That is, the position and posture of the virtual excavator at the virtual work site at the time when the simulation is started correspond to the position and posture of the excavator 100 at the actual work site.
  • the position and posture of the virtual excavator at the virtual work site at the time when the simulation is started are determined based on, for example, the output of at least one of the space recognition device C1 and the space recognition device C3.
  • the position and posture of the virtual excavator at the virtual work site at the time when the simulation is started are determined by the boom angle sensor S1, the arm angle sensor S2, the bucket angle sensor S3, the turning angular velocity sensor S4, etc. mounted on the excavator 100. It may be determined or adjusted based on at least one output of the machine tilt sensor, the positioning device 18, and the like.
  • the operation simulator 54 receives an operation signal generated when the operator OP in the remote control room RC operates the operation device 26 from the remote control room RC, and the operation simulator 54 receives the received operation signal in the virtual work site. Operate a virtual excavator.
  • the terrain of the virtual work site changes according to the movement of the virtual excavator. For example, the terrain of a virtual work site changes according to the virtual excavation work by a virtual excavator.
  • the operation signal is not transmitted to the excavator 100 at the actual work site. That is, the operator OP in the remote control room RC cannot operate the shovel 100 at the actual work site when the simulation is being performed.
  • the start command for starting the simulation is generated by the remote controller 40 when the operator OP in the remote control room RC operates a predetermined start button, and the information center 200 is generated from the remote controller 40. It is transmitted to the controller 50 of.
  • the start button is located, for example, on the top surface of the right console box.
  • the operator OP Since the operator OP operates from the remote control room RC, it may be difficult to grasp the actual situation at the work site. Therefore, the operator OP can grasp the probability that an undesired event will occur at the actual work site where the excavator 100 exists before the start of the work or during the work before the undesired event occurs. desirable. Therefore, the operator OP operates a predetermined start button to start the simulation before actually performing the scheduled work.
  • An undesired event is, for example, the collapse of a cliff when excavating a cliff.
  • the cliff here means, for example, the ground including a slope having an angle of repose or higher.
  • the operator OP can confirm how to excavate a cliff and how the cliff collapses by performing virtual excavation work with a virtual excavator at a virtual work site. That is, the operator OP can confirm which part of the cliff should be excavated in what order and to what extent to suppress the collapse of the cliff by virtually trying a plurality of excavation operations. That is, the operator OP can derive a method of proceeding with the excavation work without any problem before performing the actual excavation work (without performing the actual excavation work).
  • the operator OP virtually tries the excavation work of 1 and then operates a predetermined reset button to restore the topography of the virtual work site changed by the trial of the excavation work of 1. You can return to the terrain.
  • the reset button is located, for example, on the top surface of the right console box.
  • the original terrain is, for example, the terrain of the virtual work site at the time when the start button is operated, and corresponds to the current terrain of the actual work site. However, the terrain of the virtual work site may be restored to the terrain at any time during the simulation. With this configuration, the operator OP can efficiently try various excavation operations.
  • the operator OP ends the simulation after confirming the excavation work in which the cliff is unlikely to collapse.
  • the operator OP can end the simulation by operating a predetermined end button.
  • the end button may be the same button as the start button used when starting the simulation, or may be a button different from the start button.
  • the image of the virtual work site displayed on the display device D1 is switched to the image of the actual work site based on the image captured by the image pickup device or the like mounted on the shovel 100. Then, the operator OP can move the excavator 100 by operating the operating device 26, and can perform the actual excavation work.
  • the operator OP can perform the most suitable excavation work confirmed by the simulation and excavate the cliff at the actual work site.
  • the controller 50 can suppress the collapse of the cliff that may occur when excavating the cliff, for example, and can enhance the safety of the excavation work by the excavator 100.
  • the controller 50 is configured to stop the movement of the excavator 100 and prompt the operator OP to execute the simulation. It may have been done. Unwanted events are, for example, cliff collapses that can occur during cliff excavation.
  • the controller 50 determines that the operator OP is about to excavate a cliff based on the output of the space recognition device C1 or the like, the controller 50 stops the movement of the excavator 100 and then causes the operator OP to execute the simulation. It may be configured to encourage.
  • FIG. 7 is a side view of the excavator 100.
  • the operator OP of the excavator 100 is about to excavate the cliff CL1 to expose the design surface TS.
  • the operator OP remotely controls the shovel 100 by using the operation device 26 installed in the remote control room RC.
  • the operator OP presses the start button installed in the remote control room RC to start the simulation.
  • the remote controller 40 installed in the remote control room RC When the start button is pressed, the remote controller 40 installed in the remote control room RC generates a start command and transmits the start command to the controller 50 (operation simulator 54) of the information center 200.
  • the operation simulator 54 that has received the start command recognizes the terrain of the actual work site around the excavator 100 based on the output of the lidar as the space recognition device C1 attached to the excavator 100, and corresponds to the terrain of the work site. Generate a 3D terrain image of the virtual work site.
  • the stereoscopic terrain image generated by the motion simulator 54 is transmitted to the display device D1 installed in the remote control room RC and displayed on the display device D1.
  • the operator OP can operate the operation device 26 to operate the virtual excavator while viewing the three-dimensional terrain image displayed on the display device D1.
  • the operator OP is, for example, the first excavation work for first excavating the earth and sand portion SP1 separated by the dotted line, and the second excavation for first excavating the earth and sand portion SP2 separated by the alternate long and short dash line. You can try the work with simulation.
  • the operator OP can confirm that when the first excavation work is tried, the earth and sand portion SP3 shown by the diagonal line collapses when the earth and sand portion SP1 is excavated first. Further, when the second excavation work is tried, the operator OP can confirm that even if the earth and sand portion SP2 is excavated first, the other earth and sand portions do not collapse. In this case, the operator OP may execute the second excavation work as the excavation work performed at the actual work site based on the result of the simulation. Alternatively, the operator OP may execute the first excavation work as the excavation work carried out at the actual work site in order to positively utilize the collapse of the earth and sand portion SP3.
  • FIG. 8 is a functional block diagram showing another configuration example of the construction support system SYS, and corresponds to FIG.
  • the construction support system SYS shown in FIG. 8 is different from the construction support system SYS shown in FIG. 6 in that the controller 30 mounted on the excavator 100 has an abnormality detection unit 34, but is shown in FIG. 6 in other respects. It is the same as the construction support system SYS. Therefore, in the following, the description of the common part will be omitted, and the difference part will be explained in detail.
  • the abnormality detection unit 34 is configured to detect an abnormal event that occurs around the excavator 100.
  • the abnormality detecting unit 34 is configured to detect an abnormal event occurring in the vicinity of the excavator 100 in advance based on the output of the space recognition device C1. This is to prevent the occurrence of abnormal events.
  • Anomalous events that occur around the excavator 100 are, for example, a fall from the cliff CL2 (see FIG. 7) of the excavator 100, or a contact between the excavator attachment AT of the excavator 100 and the electric wire EW (see FIG. 7). be.
  • the abnormality detection unit 34 recognizes the existence of the cliff CL2 based on the output of the space recognition device C1, for example, and when the excavator 100 invades within a predetermined distance from the cliff CL2, the ground near the cliff CL2 collapses.
  • the predetermined distance may be a preset value based on at least one of data on past cases, characteristics of the earth and sand constituting the ground, data on the weight of the excavator 100, etc., and is dynamically determined. It may be a value.
  • the abnormality detection unit 34 may call the attention of the operator OP of the excavator 100 by displaying information on the abnormality on the display device D1.
  • the movement of the excavator 100 may be slowed down, or the movement of the excavator 100 may be stopped.
  • the abnormality detection unit 34 recognizes the existence of the electric wire EW based on the output of the space recognition device C1, for example, and when the upper end of the excavation attachment AT (arm 5) invades within a range of a predetermined distance from the electric wire EW, It is determined that the excavation attachment AT may come into contact with the electric wire EW.
  • the predetermined distance may be a preset value based on data or the like related to past cases, or may be a dynamically determined value.
  • the abnormality detection unit 34 may call the attention of the operator OP of the excavator 100 when the upper end of the excavation attachment AT approaches within a range of a predetermined distance from the electric wire EW, and may slow down the movement of the excavation attachment AT. Also, the movement of the excavation attachment AT may be stopped.
  • the abnormality detection unit 34 transmits the information regarding the recognition result of the object existing around the excavator 100 and the information regarding the determination result as to whether or not an abnormal event may occur to the information center 200. It may be configured. This is to make the information available to the operation simulator 54 in the information center 200.
  • the motion simulator 54 may be configured to call the attention of the operator OP when the operator OP brings the virtual excavator closer to the cliff CL2 in the simulation.
  • the motion simulator 54 displays information about the abnormality when the operator OP raises the boom 4 and brings the upper end of the excavation attachment (arm 5) within a predetermined distance from the electric wire EW. It may be configured to call the attention of the operator OP by displaying it on D1. With this configuration, the motion simulator 54 can make the operator OP recognize the existence of the cliff CL2 or the electric wire EW during the execution of the simulation, and can urge the operator OP to pay attention to the cliff CL2 or the electric wire EW.
  • the excavator 100 is operated by the operator OP in the remote control room RC, but may be operated by the operator in the cabin 10.
  • the start button, the reset button, and the end button are installed in the cabin 10.
  • the excavator 100 may be an automatic driving excavator (unmanned excavator) that does not require an operation by an operator.
  • the start button, reset button, and end button may be omitted.
  • the excavator 100 is configured to perform work by using a preset series of operation commands (operation commands).
  • the operation command is basically determined based on the work setup.
  • the setup of the work means determining what kind of movement is to be performed by the shovel 100 in what order.
  • work setup means determining which part of the work site to be excavated in what order in consideration of various factors such as work efficiency and work safety.
  • the work setup is typically determined based on the empirical judgment of a skilled operator.
  • Even in a work site where an automatic driving shovel is used the work setup is basically determined to be the same as the setup determined based on the empirical judgment of a skilled operator. Therefore, the setup of work at the work site where the automatic operation excavator is used is determined based on the information about the work site and various past data. At this time, a technique related to machine learning such as deep learning may be used.
  • the operation command is determined by presetting, for example, the trajectory followed by a predetermined portion such as the toe of the bucket 6. Then, the operation command is set by an arbitrary method. For example, motion commands may be automatically generated based on data on past trajectories. Machine learning such as deep learning may be used to generate operation commands. In this case, "generation of motion command” is also referred to as “learning of motion command” or simply “learning of motion”.
  • the operator OP makes the virtual current terrain in the three-dimensional virtual space generated by the information output by the space recognition device C1 the target surface in the virtual space (for example, the terrain based on the design surface information DG).
  • the virtual excavator is operated, and an operation command for the actual excavator 100 is generated by the controller 50 in the information center 200.
  • the controller 50 may set a reward (low fuel consumption, short working time, etc.) and generate an actuator operation command by reinforcement learning, which is an example of machine learning.
  • the controller 50 has the highest reward when the virtual current terrain in the virtual space is set to the target surface in the virtual space (for example, the terrain based on the design surface information DG or the like) by using reinforcement learning.
  • Operation commands can be generated, and highly efficient work setup can be realized. As a result, the controller 50 can generate operation commands that are more efficient than a skilled operator, and can realize highly efficient work setup.
  • the controller 50 in the information center 200 generates an operation command of the excavator 100 based on the design surface information DG and the like. Then, the controller 50 generates an operation signal so that the shovel 100 can be automatically operated according to the generated operation command. The generated operation signal is transmitted to the controller 30 mounted on the excavator 100.
  • the motion simulator 54 constituting the controller 50 can simulate the motion constituting the work by the shovel 100 before the actual work is performed.
  • the motion simulator 54 is constructed by the shovel 100 (work) by virtually executing an operation constituting the work by the shovel 100 based on the information about the motion command and the information about the current terrain of the actual work site. It is possible to virtually confirm the change in terrain from the start to the completion of.
  • the construction includes one or more operations (loading work, compaction work, excavation work, hanging work, etc.) performed in a predetermined setup.
  • the work includes one or a plurality of operations (excavation operation, turning operation, soil removal operation, boom raising operation, etc.) performed in a predetermined order.
  • the operation simulator 54 can recognize in advance the problem (precautions as an abnormal event) that occurs when the shovel 100 is operated according to the operation command. That is, the motion simulator 54 can determine the place, time, type, etc. where the precautions are generated. Further, when a plurality of construction machines exist at the virtual work site, the operation simulator 54 can determine which construction machine requires caution. In this way, the motion simulator 54 can extract the precautions.
  • the extracted precautions can be displayed on the display device of the management device before the actual operation of the excavator 100 is performed.
  • the display device displays a three-dimensional virtual work site that reproduces the actual work site.
  • the operation simulator 54 displays the place, time, type, etc. of the important precautions that occur in the three-dimensional virtual work site.
  • the motion simulator 54 may display the cause of the precautions so that it may occur. Further, the motion simulator 54 may reproduce the state of the virtual construction machine (virtual excavator) in the virtual work site before and after the occurrence of precautions. This allows the administrator to confirm in advance how the precautions will occur. Further, when a plurality of construction machines exist at the virtual work site, the operation simulator 54 can determine which construction machine requires caution.
  • a virtual construction machine is placed near the virtual material being unloaded (temporarily placed).
  • a virtual construction machine is placed near the virtual material being unloaded (temporarily placed).
  • "contact between the virtual excavator and the virtual material" is extracted as a precaution.
  • the location, time, type, etc. of the precautions that occur at the virtual work site are displayed on the display device, so that the administrator needs to change the temporary storage location of the materials at the actual work site. You can recognize that.
  • the motion simulator 54 can also display an improvement plan for eliminating the occurrence of precautions.
  • the display device may be a display unit of a mobile terminal.
  • the motion simulator 54 simulates, for example, a case where the loading / unloading location of the virtual material is changed from the currently scheduled location to another location.
  • the simulation of the case where the loading / unloading place is changed may be performed for a plurality of changed places.
  • the operation simulator 54 extracts a preferred loading / unloading location than the initially scheduled loading / unloading location of the virtual material.
  • the preferred loading / unloading location can be displayed as an improvement plan. By displaying the improvement plan on the display device in this way, the manager can instruct the worker at the work site to change the loading / unloading place of the material at the actual work site.
  • the motion simulator 54 performs a simulation by changing the work content once or a plurality of times in order to eliminate the cautionary matter that occurs. Try again. Then, when the work content or work setup, etc. for eliminating the generated precautions is derived, the simulation regarding the subsequent construction is continued based on the derived work content or work setup, etc. In this way, the motion simulator 54 can derive the work content for eliminating the precautions by simulation even when the precautions occur. Then, the information about the work content or the work setup for solving the important precautions requested by the operation simulator 54 is displayed on the display device, so that the manager or the worker can perform the work at the actual work site. , Work content or work setup, etc. can be changed.
  • the display device may be a display unit of a mobile terminal.
  • the operation simulator 54 can find the optimum operation command by executing the simulation of the operation of the excavator 100 according to the plurality of new operation commands.
  • Machine learning such as deep learning may be used to generate a plurality of new operation commands, as in the case of the initial operation commands.
  • the motion simulator 54 is configured to simulate what kind of event will occur at a future time point for a predetermined time when the actual work by the shovel 100 as an automatic driving shovel is being performed. You may. With this configuration, the motion simulator 54 can perform virtual work (virtual operation) ahead of the actual work by a predetermined time, and can recognize in advance that an undesired event occurs. When the motion simulator 54 recognizes in advance that an undesired event will occur, the motion simulator 54 can prevent such an undesired event from occurring by modifying the motion command.
  • the motion simulator 54 may be configured to redo the simulation of the motion of the excavator 100 constituting the subsequent work when an event different from the expected event occurs. For example, when the motion simulator 54 determines that the earth and sand are clayey or sandy than the expected earth and sand based on the outputs of various sensors mounted on the excavator 100, the operation simulator 54 constitutes the subsequent work. It may be configured to redo the simulation of the operation of the excavator 100. This is because sandy ground is more likely to collapse than clayey ground and affects the estimation results of topography that change due to excavation work. That is, the simulation results derived on the premise that the ground is clayey are not suitable for the ground that is actually more sandy.
  • the controller 50 can derive the amount of earth and sand that collapses from the side surface of the excavation hole, which is a hole formed by the actual excavation, and accumulates at the bottom of the excavation hole, based on the output of the space recognition device C1. Then, the controller 50 can derive the characteristics of the ground to be worked on based on the amount of earth and sand accumulated at the bottom of the excavation hole.
  • the characteristics of the ground are, for example, the degree of sandiness, the degree of clayiness, and the like.
  • the controller 50 can determine that the greater the amount of earth and sand accumulated at the bottom of the excavation hole, the greater the degree of sand quality.
  • the controller 50 can evaluate the progress of the work by comparing the situation of the work site in the actual work site with the situation of the virtual work site assumed in the virtual space based on the output of the space recognition device C1. .. For example, when the actual work is delayed as compared with the virtual work, the controller 50 re-executes the simulation based on the situation of the actual work site delayed by the operation simulator 54, and issues an operation command. Regenerate. Then, the controller 50 transmits the regenerated operation command to the excavator 100. The excavator 100 is controlled based on the regenerated operation command.
  • controller 50 is assumed (simulated) in the virtual work site by comparing the situation of the work site in the actual work site with the situation of the virtual work site assumed in the virtual space based on the output of the space recognition device C1. It may be determined whether or not an event that has not occurred has occurred.
  • the controller 50 can improve the accuracy of the simulation result regarding the work by the shovel 100, and can improve the work efficiency of the shovel 100 as an automatic driving shovel. Further, the controller 50 can enhance the safety of work by the excavator 100 as an automatic driving excavator.
  • the system according to the embodiment of the present invention is the construction support system SYS for the shovel that supports the construction by the shovel 100, and the shovel 100 in the virtual environment set based on the work environment of the shovel 100.
  • It has a controller 50 as an arithmetic unit that executes an operation simulation.
  • the controller 50 sets a virtual work site, which is an example of a virtual environment, based on information about the work site where the excavator 100 is located, and simulates a virtual operation that configures virtual excavation work by the virtual excavator at the virtual work site.
  • the controller 50 derives what kind of virtual operation is performed and how the virtual work site changes.
  • the construction support system SYS reflects the situation of the actual work site when supporting the construction by the excavator 100 by executing the simulation of the work by the excavator 100 based on the information about the actual work site. Can be done.
  • the controller 50 may execute the simulation based on the output of the space recognition device that recognizes the space around the excavator 100.
  • the space recognition device may be mounted on the excavator 100, or may be installed outside the excavator 100. Further, the controller 50 may execute the simulation based on the output of one space recognition device, or may execute the simulation based on the output of a plurality of space recognition devices.
  • the space recognition device may be, for example, the space recognition device C1 mounted on the shovel 100. Alternatively, the space recognition device may be the space recognition device C3 installed outside the shovel 100. Specifically, the space recognition device C3 may be attached to a pole installed at the work site, or may be attached to an excavator other than the excavator 100, and is an air vehicle flying over the work site. It may be attached to.
  • the construction support system SYS may have a display device that displays the result of the simulation by the controller 50.
  • the controller 50 may be configured to be able to recognize in advance an event that may occur when the shovel 100 is actually operated by simulation. With this configuration, the construction support system SYS recognizes in advance undesired events that may occur when the shovel 100 is actually operated, and prevents such undesired events from actually occurring. can.
  • the excavator 100 may be an automatic driving excavator.
  • the controller 50 may generate an operation signal based on the information regarding the preset operation command.
  • the excavator 100 may be configured to operate in response to the operation signal. Further, the controller 50 may be configured so that the operation command can be changed based on the result of the simulation.
  • the construction support system SYS can reflect the actual work site situation when supporting the construction by the excavator 100 even if the excavator 100 is an automatic operation excavator.
  • the controller 50 may be configured to continuously derive the future state after a predetermined time of the work site realized by the excavator 100 that operates according to the operation command by simulation.
  • the construction support system SYS can actually operate the excavator 100 and derive the state of the work site at a future time point by simulation in real time for a predetermined time. Therefore, the construction support system SYS can detect in advance that the state of the work site at a future time point will be an undesired state for a predetermined time. In this case, the construction support system SYS can prevent such an undesired state from actually occurring by switching the currently used operation command to another operation command.
  • the controller 50 may be configured to redo the simulation when the prerequisites for the simulation change.
  • the precondition of the simulation is, for example, that the degree of sand quality of the earth and sand to be worked is within a predetermined range.
  • the degree of sand quality of the earth and sand is derived, for example, based on the output of the space recognition device. This is because even if the preconditions have changed, if the results of the simulation performed based on the preconditions are used, the state of the work site becomes undesired.
  • the controller 50 is also required when the space recognition device detects that the position of the iron plate laid on the road surface at the construction site is displaced due to frequent passage of a dump truck, an earthquake, or the like. It is possible to alert the administrator or worker that a caution has occurred, and to redo the simulation if the preconditions have changed. Then, the controller 50 can evaluate the influence of the change of the precondition on the construction work. If it is necessary to immediately correct the position of the iron plate, the controller 50 may notify the manager or the operator to that effect by display or the like.
  • the controller 50 when the controller 50 detects a change in the situation at the construction site by the space recognition device C1, it alerts the manager or the operator that a cautionary item has occurred, and the preconditions have changed. You can redo the simulation as. Changes in the situation at the construction site include, for example, changes in the topography of the construction site (slope shape or shape of temporary earth and sand, etc.) due to bad weather (rain, etc.), or the occurrence of fallen trees or rockfalls. Then, the controller 50 can evaluate the influence of the change of the precondition on the construction work. If it is necessary to immediately improve the situation such as repairing the topography of the work site, the controller 50 may notify the manager or the worker to that effect by display or the like.
  • the motion simulator 54 may perform a simulation for repairing the terrain of the work site.
  • the controller 50 receives the output of the space recognition device C1 before the start of construction or at predetermined time during construction. Then, the controller 50 compares the situation of the work site in the actual work site with the situation of the virtual work site assumed in the virtual space based on the output of the space recognition device C1. Then, when the controller 50 determines that the preconditions of the simulation have changed based on the comparison result, it determines whether or not the change in the preconditions is a cautionary matter, and when it is determined that the precondition is a cautionary matter, the administrator or the operator. Notify the navel.
  • the controller 50 when the controller 50 performs a simulation for eliminating the important precautions and derives the work content or the work setup for eliminating the generated important precautions as an improvement plan, the controller 50 derives the derived improvement plan as an improvement plan. Or notify the worker.
  • the administrator or the operator determines that there is no problem in the improvement plan derived by the operation simulator 54, the administrator or the operator permits the transmission of the operation command from the controller 50 to the excavator 100. After that, an operation command is transmitted from the controller 50 to the excavator 100.
  • the controller 30 controls the excavator 100 based on the received operation command.
  • the operation simulator 54 is realized as one function of the controller 50 installed in the information center 200, but may be realized as one function of the controller 30, and is realized as one function of the remote controller 40. It may be realized as. Alternatively, the operation simulator 54 may be realized as one function of an arithmetic unit different from each of the controller 30, the remote controller 40, and the controller 50.
  • Positioning device 21 ... Urea water tank 21a ... Urea water remaining amount sensor 22 ... Fuel tank 22a ... Fuel remaining amount sensor 25 ... Pilot line 26 ... Operating device 29. ⁇ ⁇ Operation sensor 30 ⁇ ⁇ ⁇ Controller 30a ⁇ ⁇ ⁇ Memory 31 ⁇ ⁇ ⁇ Image generation unit 32 ⁇ ⁇ ⁇ Excavator state specification unit 33 ⁇ ⁇ ⁇ Actuator drive unit 34 ⁇ ⁇ ⁇ Abnormality detection unit 40 ⁇ ⁇ ⁇ Remote controller 41 ⁇ ⁇ ⁇ Operator state identification unit 42 ⁇ ⁇ ⁇ Image synthesis unit 43 ⁇ ⁇ ⁇ Operation signal generation unit 45 ⁇ ⁇ ⁇ Electromagnetic valve unit 50 ⁇ ⁇ ⁇ Controller 51 ⁇ ⁇ ⁇ Judgment unit 52 ⁇ ⁇ ⁇ Operation prediction unit 53 ⁇ ⁇ Operation intervention unit 54 ⁇ ⁇ ⁇ Operation simulator 70 ⁇ ⁇ ⁇ Battery 72 ⁇ ⁇ ⁇ Electrical equipment 74 ⁇ ⁇ ⁇ Engine control unit 75 ⁇ ⁇
  • Sound collector A2 ... Sound output device C1 ... Space recognition device C1B ... Rear camera C1F ... Front camera C1L ... Left camera C1R ... Right camera C2 ... Indoor space Recognition device C3 ... Space recognition device D1 ... Display device DG ... Design surface information DS ... Driver's seat E1 ... Operator's viewpoint E1'... Virtual operator's viewpoint OP ... Operator RC, RCa, RCb ... Remote control room S1 ... Boom angle sensor S2 ... Arm angle sensor S3 ... Bucket angle sensor S4 ... Turning angle speed sensor SYS ... Construction support system T1, T2, T3 ⁇ ⁇ ⁇ Communication device

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Mechanical Engineering (AREA)
  • Business, Economics & Management (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Paleontology (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)

Abstract

ショベル(100)による施工を支援する施工支援システム(SYS)は、ショベル(100)の作業環境に基づいて設定された仮想環境におけるショベル(100)の動作のシミュレーションを実行するコントローラ(50)を有する。コントローラ(50)は、ショベル(100)の周囲の空間を認識する空間認識装置の出力に基づいてシミュレーションを実行してもよい。空間認識装置は、ショベル(100)に搭載されていてもよく、ショベル(100)の外部に設置されていてもよい。また、施工支援システム(SYS)は、コントローラ(50)によるシミュレーションの結果を表示する表示装置(D1)を有していてもよい。

Description

ショベル用の施工支援システム
 本開示は、ショベル用の施工支援システムに関する。
 過去の作業機械の操作データのうちの作業品質の高い操作データを用いて、建設機械の操作者の支援を行う操作支援システムが知られている(特許文献1参照)。
特開2016-156193号公報
 しかしながら、上述のシステムは、過去の最良作業者の操作データを利用するだけであり、実際の作業現場の状況が反映されていない。
 そこで、ショベルによる施工を支援する際に実際の作業現場の状況を反映させることができるショベル用の施工支援システムを提供することが望まれる。
 本発明の実施形態に係るショベル用の施工支援システムは、ショベルによる施工を支援するシステムであって、前記ショベルの作業環境に基づいて設定された仮想環境における前記ショベルの動作のシミュレーションを実行する演算装置を有する。
 上述のショベル用の施工支援システムは、ショベルによる施工を支援する際に実際の作業現場の状況を反映させることができる。
ショベルの側面図である。 図1のショベルに搭載される駆動系の構成例を示す図である。 図1のショベルに搭載される電気系の構成例を示す図である。 遠隔操作室に関する座標系とショベルに関する座標系との関係を示す図である。 施工支援システムの構成例を示す概略図である。 施工支援システムの構成例を示すブロック図である。 作業現場におけるショベルの側面図である。 施工支援システムの別の構成例を示す機能ブロック図である。
 次に、添付図面を参照しながら、本発明の限定的でない例示の実施形態について説明する。
 図1は、本発明の実施形態に係る掘削機としてのショベル100を示している。ショベル100の下部走行体1には、旋回機構2を介して上部旋回体3が旋回可能に搭載されている。上部旋回体3にはブーム4が取り付けられている。ブーム4の先端にはアーム5が取り付けられ、アーム5の先端にはエンドアタッチメントとしてのバケット6が取り付けられている。
 ブーム4、アーム5、及びバケット6は、アタッチメントの一例である掘削アタッチメントを構成している。ブーム4はブームシリンダ7により駆動され、アーム5はアームシリンダ8により駆動され、バケット6はバケットシリンダ9により駆動される。
 ブーム4にはブーム角度センサS1が取り付けられ、アーム5にはアーム角度センサS2が取り付けられ、バケットリンクにはバケット角度センサS3が取り付けられている。上部旋回体3には、旋回角速度センサS4が取り付けられている。
 ブーム角度センサS1は、姿勢検出センサの1つであり、ブーム4の回動角度を検出するように構成されている。本実施形態では、ブーム角度センサS1は、ブームシリンダ7のストローク量を検出するストロークセンサであり、ブームシリンダ7のストローク量に基づいて上部旋回体3とブーム4とを連結するブームフートピン回りのブーム4の回動角度を導き出す。
 アーム角度センサS2は、姿勢検出センサの1つであり、アーム5の回動角度を検出するように構成されている。本実施形態では、アーム角度センサS2は、アームシリンダ8のストローク量を検出するストロークセンサであり、アームシリンダ8のストローク量に基づいてブーム4とアーム5とを連結する連結ピン回りのアーム5の回動角度を導き出す。
 バケット角度センサS3は、姿勢検出センサの1つであり、バケット6の回動角度を検出するように構成されている。本実施形態では、バケット角度センサS3は、バケットシリンダ9のストローク量を検出するストロークセンサであり、バケットシリンダ9のストローク量に基づいてアーム5とバケット6とを連結する連結ピン回りのバケット6の回動角度を導き出す。
 なお、ブーム角度センサS1、アーム角度センサS2、及びバケット角度センサS3のそれぞれは、ロータリエンコーダ、加速度センサ、ポテンショメータ(可変抵抗器)、傾斜センサ、又は、慣性計測装置等であってもよい。慣性計測装置は、例えば、加速度センサとジャイロセンサとの組み合わせで構成されていてもよい。
 旋回角速度センサS4は、上部旋回体3の旋回角速度を検出するように構成されている。本実施形態では、旋回角速度センサS4は、ジャイロセンサである。旋回角速度センサS4は、旋回角速度に基づいて旋回角度を算出するように構成されていてもよい。旋回角速度センサS4は、ロータリエンコーダ等の他のセンサで構成されていてもよい。
 上部旋回体3には、運転室としてのキャビン10、エンジン11、測位装置18、集音装置A1、空間認識装置C1、及び通信装置T1等が搭載されている。また、キャビン10内には、コントローラ30が搭載されている。また、キャビン10内には、運転席及び操作装置等が設置されている。但し、ショベル100は、キャビン10が省略された無人ショベルであってもよい。
 原動機としてのエンジン11は、ショベル100の駆動源である。本実施形態では、エンジン11は、ディーゼルエンジンである。エンジン11の出力軸は、メインポンプ14及びパイロットポンプ15のそれぞれの入力軸に連結されている。メインポンプ14は、エンジン11の代わりに、蓄電装置からの電力により駆動される電動機によって駆動されてもよい。
 測位装置18は、ショベル100の位置を測定するように構成されている。本実施形態では、測位装置18は、GNSSコンパスであり、上部旋回体3の位置及び向きを測定できるように構成されている。
 集音装置A1は、ショベル100の周囲で発生する音を集めるように構成されている。本実施形態では、集音装置A1は、上部旋回体3に取り付けられたマイクである。
 空間認識装置C1は、ショベル100の周囲の空間を認識できるように構成されている。本実施形態では、空間認識装置C1は、単眼カメラ、ステレオカメラ、又は赤外線カメラ等の撮像装置である。図示例では、空間認識装置C1は、CCD又はCMOS等の撮像素子を有する単眼カメラである。具体的には、空間認識装置C1は、上部旋回体3の上面後端に取り付けられた後カメラC1B、キャビン10の上面前端に取り付けられた前カメラC1F、上部旋回体3の上面左端に取り付けられた左カメラC1L、及び、上部旋回体3の上面右端に取り付けられた右カメラC1Rを含む。空間認識装置C1は、キャビン10内の所定位置に設置された全天球カメラであってもよい。所定位置は、例えば、キャビン10内に設置された運転席に着座する操作者の目の位置に対応する位置である。
 空間認識装置C1は、LIDAR、超音波センサ、ミリ波レーダ、レーザレーダ、又は赤外線センサ等(以下、「LIDAR等」とする。)であってもよい。LIDAR等としての空間認識装置C1は、多数の信号(レーザ光等)を物体に向けて発信し、その反射信号を受信することで、空間認識装置C1から物体までの距離及び空間認識装置C1にから見た物体の方向を検出してもよい。
 空間認識装置C1は、ショベル100の周囲に存在する物体を検知するように構成されていてもよい。物体は、例えば、地形形状(傾斜若しくは穴等)、ダンプトラック、電線、電柱、人、動物、車両、建設機械、建造物、壁、ヘルメット、安全ベスト、作業服、又は、ヘルメットにおける所定のマーク等である。この場合、空間認識装置C1は、物体の種類、位置、及び形状等の少なくとも1つを識別できるように構成されていてもよい。また、空間認識装置C1は、人と人以外の物体とを区別できるように構成されていてもよい。

 アクチュエータが動作する前に空間認識装置C1によりショベル100から所定距離の範囲内に人が存在すると判断された場合には、コントローラ30は、操作者が操作レバーを操作しても、アクチュエータを動作不能状態若しくは微速状態にしてもよい。具体的には、コントローラ30は、ショベル100から所定距離の範囲内に人が存在すると判断した場合、ゲートロック弁をロック状態にすることでアクチュエータを動作不能状態にすることができる。電気式の操作レバーの場合には、コントローラ30は、操作用制御弁への信号を無効にすることで、アクチュエータを動作不能状態にすることができる。操作用制御弁は、コントローラ30からの制御指令に対応するパイロット圧を出力し、コントロールバルブユニット17内の対応する制御弁のパイロットポートにそのパイロット圧を作用させるように構成されている。他の方式の操作レバーを用いる場合であっても、操作用制御弁を用いる場合には同様である。アクチュエータの動作を微速にしたい場合には、コントローラ30は、操作用制御弁への信号(例えば、電流信号の値)を小さくすることで、アクチュエータを微速状態にすることができる。このように、ショベル100から所定距離の範囲内に人が存在すると判断されると、操作装置が操作されてもアクチュエータは駆動されない、若しくは、操作装置への入力に応じた出力よりも小さい出力で微速駆動される。更に、操作者が操作レバーを操作しているときにショベル100から所定距離の範囲内に人が存在すると判断された場合には、コントローラ30は、操作者の操作内容に係わらずアクチュエータの動作を停止させ、若しくは、減速させてもよい。具体的には、ショベル100から所定距離の範囲内に人が存在すると判断された場合、コントローラ30は、ゲートロック弁をロック状態にすることでアクチュエータを停止させる。操作用制御弁が用いられる場合には、コントローラ30は、操作用制御弁への信号を無効にすることで、或いは、操作用制御弁に対して減速指令を出力することで、アクチュエータを動作不能状態又は微速状態にすることができる。また、空間認識装置C1によって検知された物体がダンプトラックの場合には、停止制御は不要である。この場合、検知されたダンプトラックを回避するようにアクチュエータは制御される。このように、検知された物体の種類に認識に基づいて、アクチュエータは制御されてもよい。
 通信装置T1は、ショベル100の外部にある機器との通信を制御するように構成されている。本実施形態では、通信装置T1は、無線通信網を介し、通信装置T1とショベル100の外部にある機器との間の無線通信を制御するように構成されている。
 コントローラ30は、各種演算を実行する演算装置である。本実施形態では、コントローラ30は、CPU及びメモリ30aを含むマイクロコンピュータで構成されている。そして、コントローラ30の各種機能は、CPUがメモリ30aに格納されたプログラムを実行することで実現される。
 図2は、図1のショベル100の駆動系の構成例を示すブロック図である。図2において、機械的動力伝達ラインは二重線、作動油ラインは太実線、パイロットラインは破線、電気制御ラインは点線でそれぞれ示されている。
 ショベル100の駆動系は、エンジン11、レギュレータ13、メインポンプ14、パイロットポンプ15、コントロールバルブユニット17、コントローラ30、及び電磁弁ユニット45等で構成されている。エンジン11は、エンジンコントロールユニット74により駆動制御される。
 メインポンプ14は、作動油ライン16を介して作動油をコントロールバルブユニット17に供給する。本実施形態では、メインポンプ14は、斜板式可変容量型油圧ポンプである。
 レギュレータ13は、メインポンプ14の吐出量を制御するように構成されている。本実施形態では、レギュレータ13は、メインポンプ14の吐出圧又はコントローラ30からの制御信号等に応じてメインポンプ14の斜板傾転角を調節するように構成されている。メインポンプ14は、レギュレータ13により1回転当たり吐出量(押し退け容積)が制御される。
 パイロットポンプ15は、パイロットライン25を介して各種油圧制御機器に作動油を供給するように構成されている。本実施形態では、パイロットポンプ15は、固定容量型油圧ポンプである。但し、パイロットポンプ15は、省略されてもよい。この場合、パイロットポンプ15が担っていた機能は、メインポンプ14によって実現されてもよい。すなわち、メインポンプ14は、コントロールバルブユニット17に作動油を供給する機能とは別に、絞り等を介して電磁弁ユニット45等に作動油を供給する機能を備えていてもよい。
 コントロールバルブユニット17は、メインポンプ14から受け入れた作動油を1又は複数の油圧アクチュエータに選択的に供給できるように構成されている。本実施形態では、コントロールバルブユニット17は、複数の油圧アクチュエータに対応する複数の制御弁を含む。そして、コントロールバルブユニット17は、1又は複数の油圧アクチュエータに対し、メインポンプ14から吐出される作動油を選択的に供給できるように構成されている。油圧アクチュエータは、例えば、ブームシリンダ7、アームシリンダ8、バケットシリンダ9、左側走行用油圧モータ1L、右側走行用油圧モータ1R、及び旋回用油圧モータ2Aを含む。
 コントローラ30は、通信装置T1を通じて受信する操作信号に基づき、電磁弁ユニット45を制御するように構成されている。本実施形態では、操作信号は、遠隔操作室から送信されてくる。操作信号は、キャビン10内に設けられた操作装置によって生成されてもよい。
 電磁弁ユニット45は、パイロットポンプ15とコントロールバルブユニット17内の各制御弁のパイロットポートとを繋ぐ各パイロットライン25に配置された複数の電磁弁を含む。
 本実施形態では、コントローラ30は、複数の電磁弁のそれぞれの開口面積を個別に制御することで、各制御弁のパイロットポートに作用するパイロット圧を制御することができる。そのため、コントローラ30は、各油圧アクチュエータに流入する作動油の流量、及び、各油圧アクチュエータから流出する作動油の流量を制御することができ、ひいては、各油圧アクチュエータの動きを制御することができる。
 このようにして、コントローラ30は、遠隔操作室等の外部からの操作信号に応じ、ブーム4の上げ下げ、アーム5の開閉、バケット6の開閉、上部旋回体3の旋回、及び下部走行体1の走行等を実現できる。
 図3は、図1のショベルに搭載される電気系の構成例を示す図である。エンジン11は、図3に示すように、エンジンコントロールユニット74に接続されている。エンジンコントロールユニット74からは、エンジン11の状態を示す各種データがコントローラ30に送信される。コントローラ30は、エンジン11の状態を示す各種データをメモリ30aに蓄積できるように構成されている。
 バッテリ70は、ショベル100に搭載されている各種電気負荷に電力を供給するように構成されている。オルタネータ11a(発電機)、スタータ11b、コントローラ30、及び電装品72等は、バッテリ70に蓄えられた電力で動作するように構成されている。スタータ11bは、バッテリ70に蓄えられた電力で駆動され、エンジン11を始動させるように構成されている。また、バッテリ70は、オルタネータ11aが発電した電力で充電されるように構成されている。
 水温センサ11cは、エンジン冷却水の温度に関するデータをコントローラ30に送信する。レギュレータ13は、斜板傾転角に関するデータをコントローラ30に送信する。吐出圧センサ14bは、メインポンプ14の吐出圧に関するデータをコントローラ30に送信する。測位装置18は、ショベル100の位置に関するデータをコントローラ30に送信する。
 メインポンプ14が吸入する作動油が貯蔵された作動油タンクとメインポンプ14との間の管路14-1には、油温センサ14cが設けられている。油温センサ14cは、管路14-1を流れる作動油の温度に関するデータをコントローラ30に送信する。
 尿素水タンク21に設けられた尿素水残量センサ21aは、尿素水の残量に関するデータをコントローラ30に送信する。燃料タンク22に設けられた燃料残量センサ22aは、燃料の残量に関するデータをコントローラ30に送信する。
 通信装置T1は、無線通信を介し、遠隔操作室RCに設置された通信装置T2との間で情報を送受信するように構成されている。本実施形態では、通信装置T1と通信装置T2とは、第5世代移動通信回線(5G回線)、LTE回線、又は衛星回線等を介して情報を送受信するように構成されている。
 遠隔操作室RCには、遠隔コントローラ40、音出力装置A2、室内空間認識装置C2、表示装置D1、及び通信装置T2等が設置されている。また、遠隔操作室RCには、ショベル100を遠隔操作する操作者OPが座る運転席DSが設置されている。
 遠隔コントローラ40は、各種演算を実行する演算装置である。本実施形態では、遠隔コントローラ40は、コントローラ30と同様、CPU及びメモリを含むマイクロコンピュータで構成されている。そして、遠隔コントローラ40の各種機能は、CPUがメモリに格納されたプログラムを実行することで実現される。
 音出力装置A2は、音を出力するように構成されている。本実施形態では、音出力装置A2は、スピーカであり、ショベル100に取り付けられている集音装置A1が集めた音を再生するように構成されている。
 室内空間認識装置C2は、遠隔操作室RC内の空間を認識できるように構成されている。本実施形態では、室内空間認識装置C2は、遠隔操作室RCの内部に設置されたカメラであり、運転席DSに着座する操作者OPを撮像するように構成されている。
 通信装置T2は、ショベル100に取り付けられた通信装置T1との無線通信を制御するように構成されている。
 本実施形態では、運転席DSは、通常のショベルのキャビン内に設置される運転席と同様の構造を有する。具体的には、運転席DSの左側には左コンソールボックスが配置され、運転席DSの右側には右コンソールボックスが配置されている。そして、左コンソールボックスの上面前端には左操作レバーが配置され、右コンソールボックスの上面前端には右操作レバーが配置されている。また、運転席DSの前方には、走行レバー及び走行ペダルが配置されている。更に、右コンソールボックスの上面中央部には、ダイヤル75が配置されている。左操作レバー、右操作レバー、走行レバー、走行ペダル、及びダイヤル75のそれぞれは、操作装置26を構成している。
 ダイヤル75は、エンジン11の回転数を調整するためのダイヤルであり、例えばエンジン回転数を4段階で切り換えできるように構成されている。
 具体的には、ダイヤル75はSPモード、Hモード、Aモード、及びアイドリングモードの4段階でエンジン回転数の切り換えができるように構成されている。ダイヤル75は、エンジン回転数の設定に関するデータをコントローラ30に送信する。
 SPモードは、操作者OPが作業量を優先させたい場合に選択される回転数モードであり、最も高いエンジン回転数を利用する。Hモードは、操作者OPが作業量と燃費を両立させたい場合に選択される回転数モードであり、二番目に高いエンジン回転数を利用する。Aモードは、操作者OPが燃費を優先させながら低騒音でショベルを稼働させたい場合に選択される回転数モードであり、三番目に高いエンジン回転数を利用する。アイドリングモードは、操作者OPがエンジンをアイドリング状態にしたい場合に選択される回転数モードであり、最も低いエンジン回転数を利用する。そして、エンジン11は、ダイヤル75を介して選択された回転数モードのエンジン回転数で一定に回転数制御される。
 操作装置26には、操作装置26の操作内容を検出するための操作センサ29が設置されている。操作センサ29は、例えば、操作レバーの傾斜角度を検出する傾斜センサ、又は、操作レバーの揺動軸回りの揺動角度を検出する角度センサ等である。操作センサ29は、圧力センサ、電流センサ、電圧センサ、又は距離センサ等の他のセンサで構成されていてもよい。操作センサ29は、検出した操作装置26の操作内容に関する情報を遠隔コントローラ40に対して出力する。遠隔コントローラ40は、受信した情報に基づいて操作信号を生成し、生成した操作信号をショベル100に向けて送信する。操作センサ29は、操作信号を生成するように構成されていてもよい。この場合、操作センサ29は、遠隔コントローラ40を経由せずに、操作信号を通信装置T2に出力してもよい。
 表示装置D1は、ショベル100の周囲の状況に関する情報を表示するように構成されている。本実施形態では、表示装置D1は、縦3段、横3列の9つのモニタで構成されるマルチディスプレイであり、ショベル100の前方、左方、及び右方の空間の様子を表示できるように構成されている。各モニタは、液晶モニタ又は有機ELモニタ等である。但し、表示装置D1は、1又は複数の曲面モニタで構成されていてもよく、プロジェクタで構成されていてもよい。
 表示装置D1は、操作者OPが着用可能な表示装置であってもよい。例えば、表示装置D1は、ヘッドマウントディスプレイ(VR用ゴーグル)であり、無線通信によって、遠隔コントローラ40との間で情報を送受信できるように構成されていてもよい。ヘッドマウントディスプレイは、遠隔コントローラ40に有線接続されていてもよい。ヘッドマウントディスプレイは、透過型ヘッドマウントディスプレイであってもよく、非透過型ヘッドマウントディスプレイであってもよい。ヘッドマウントディスプレイは、片眼型ヘッドマウントディスプレイであってもよく、両眼型ヘッドマウントディスプレイであってもよい。
 表示装置D1は、遠隔操作室RCにいる操作者OPがショベル100の周囲を視認できるようにする画像を表示するように構成されている。すなわち、表示装置D1は、操作者が遠隔操作室RCにいるにもかかわらず、あたかもショベル100のキャビン10内にいるかのように、ショベル100の周囲の状況を確認することができるように、画像を表示する。
 次に、図4を参照し、遠隔操作室RCにおける基準点R1を原点とする第1座標系と、ショベル100における基準点R2を原点とする第2座標系との関係について説明する。なお、以下の説明では、第1座標系は、操作室座標系と称され、第2座標系は、ショベル座標系と称される。図4は、操作室座標系とショベル座標系との関係を示す図である。
 操作室座標系は、遠隔操作室RCにおける基準点R1を原点とする三次元UVW直交座標系であり、運転席DSの前後方向に平行に伸びるU軸、運転席DSの左右方向に平行に伸びるV軸、及び、U軸とV軸に直交するW軸を有する。
 ショベル座標系は、上部旋回体3上の基準点R2を原点とする三次元XYZ直交座標系であり、上部旋回体3の前後方向に平行に伸びるX軸、上部旋回体3の左右方向に平行に伸びるY軸、及び、X軸とY軸に直交するZ軸を有する。図4の例では、基準点R2は旋回軸上の点であり、XY平面は水平面であり、Z軸は鉛直軸である。すなわち、図4の例では、ショベル100が位置する仮想平面である接地面は水平面である。そして、X軸は、操作室座標系のU軸に対応し、Y軸は、操作室座標系のV軸に対応し、Z軸は、操作室座標系のW軸に対応している。
 本実施形態では、操作室座標系における各三次元座標は、ショベル座標系における三次元座標の1つに予め対応付けられている。そのため、遠隔操作室RCにおける操作者OPの目の位置である操作者視点E1の三次元座標が決まれば、ショベル100における仮想操作者の目の位置である仮想操作者視点E1'の三次元座標は一意に決まる。なお、操作者OPの目の位置は、例えば、操作者OPの左目の位置と右目の位置の中間点である。但し、操作者OPの目の位置は、予め設定された位置であってもよい。すなわち、操作者視点E1及び仮想操作者視点E1'は固定点であってもよい。
 上述の実施形態では、表示装置D1は、操作者OPの前方、左前方、及び右前方に設置されているが、操作者OPを取り囲むように角筒状又は円筒状に設置されていてもよい。すなわち、表示装置D1は、操作者OPの後方に設置されたモニタを含んでいてもよい。或いは、表示装置D1は、操作者OPを取り囲むように半球状に設置されていてもよい。すなわち、表示装置D1は、操作者OPの真上に設置されたモニタを含んでいてもよい。
 次に、図5及び図6を参照し、ショベル100の施工支援システムSYSの構成例について説明する。図5は、施工支援システムSYSの構成例を示す概略図である。図6は、施工支援システムSYSの構成例を示す機能ブロック図である。
 施工支援システムSYSは、主に、ショベル100に搭載されている測位装置18、コントローラ30、電磁弁ユニット45、集音装置A1、空間認識装置C1、及び通信装置T1と、遠隔操作室RCに設置されている操作センサ29、遠隔コントローラ40、音出力装置A2、室内空間認識装置C2、表示装置D1、及び通信装置T2と、情報センタ200に設置されている管理装置としてのコントローラ50及び通信装置T3とで構成されている。
 図5に示す例では、施工支援システムSYSは、ショベル100aと、ショベル100bと、ショベル100aに関する遠隔操作室RCaと、ショベル100bに関する遠隔操作室RCbと、作業現場に設置された空間認識装置C3と、情報センタ200とで構成されている。
 空間認識装置C3は、作業現場内の空間を認識できるように構成されている。本実施形態では、空間認識装置C3は、作業現場に設置されたカメラであり、作業現場の様子を撮像するように構成されている。
 最初に、ショベル100aに搭載されているコントローラ30が有する機能について説明する。コントローラ30は、図6に示すように、機能ブロックとして、画像生成部31、ショベル状態特定部32、及びアクチュエータ駆動部33を有する。ショベル100bについても同様である。画像生成部31、ショベル状態特定部32、及びアクチュエータ駆動部33は、説明の便宜のために区別されて表されているが、物理的に区別されている必要はなく、全体的に或いは部分的に共通のソフトウェアコンポーネント若しくはハードウェアコンポーネントで構成されていてもよい。
 画像生成部31は、表示装置D1で表示される画像を含む周囲画像を生成するように構成されている。周囲画像は、表示装置D1での表示の際に利用される画像である。典型的には、周囲画像は、仮にキャビン10内に操作者がいたならば操作者が見ることができたショベル100の周囲の様子を表す画像である。本実施形態では、周囲画像は、空間認識装置C1としての撮像装置が撮像した画像に基づいて生成される。具体的には、画像生成部31は、後カメラC1B、前カメラC1F、左カメラC1L、及び右カメラC1Rのそれぞれが撮像した画像に基づき、周囲画像としての第1仮想視点画像を生成する。但し、画像生成部31は、後カメラC1B、前カメラC1F、左カメラC1L、及び右カメラC1Rの少なくとも1つが撮像した画像に基づき、周囲画像としての第1仮想視点画像を生成してもよい。第1仮想視点画像の仮想視点である第1仮想視点は、仮にキャビン10内の運転席に操作者が着座していたときの操作者の目の位置に対応する仮想操作者視点E1'(図4参照。)である。但し、仮想操作者視点E1'は、キャビン10の外にあってもよい。
 本実施形態では、第1仮想視点である仮想操作者視点E1'の座標は、遠隔操作室RCの運転席DSに操作者OPが着座したときの操作者OPの目の位置である操作者視点E1(図4参照。)に基づいて導き出される。なお、操作者視点E1の座標は、遠隔コントローラ40から送信されてくる。画像生成部31は、操作室座標系における操作者視点E1の座標を、ショベル座標系における座標に変換することで、仮想操作者視点E1'の座標を導き出すことができる。但し、操作者視点E1の座標は、予め設定された固定値であってもよい。
 また、本実施形態では、第1仮想視点画像は、第1仮想視点を取り囲む仮想的な円筒状の仮想投影面の内周面に投影された画像に相当する。仮想投影面は、第1仮想視点を取り囲む仮想的な球又は半球の内面であってもよく、第1仮想視点を取り囲む仮想的な直方体又は立方体の内面であってもよい。このように生成された第1仮想視点画像を見ることで、操作者OPは、ショベル100の周囲の状況を立体的に把握することができる。すなわち、操作者OPは、第1仮想視点画像を見ることで、例えば、ショベル100の前方に位置するダンプトラックの荷台の奥行き、地面にある盛り土の高さ、又は、地面にある穴の深さ等をより正確に把握できる。
 表示装置D1で表示される第1仮想視点画像由来の画像は、画像生成部31が生成する第1仮想視点画像の一部である。
 なお、表示装置D1がヘッドマウントディスプレイである場合、第1仮想視点画像の全領域に占める、表示装置D1で表示される画像の領域は、遠隔操作室RCの運転席DSに着座している操作者OPの視線の向きに基づいて決定されてもよい。この場合、操作者OPの視線の向きに関する情報は、遠隔コントローラ40から送信されてくる。画像生成部31は、空間認識装置C1が出力する画像と、遠隔コントローラ40から送信されてくる操作者視点E1の座標とに基づいて周囲画像としての第1仮想視点画像を生成する。そして、画像生成部31は、遠隔コントローラ40から送信されてくる操作者OPの視線の向きに関する情報に基づき、生成した第1仮想視点画像の一部を部分周囲画像として切り出し、切り出した部分周囲画像を遠隔操作室RCにある表示装置D1に向けて送信する。
 ショベル状態特定部32は、ショベル100の状態を特定するように構成されている。本実施形態では、ショベル100の状態は、ショベル100の位置と向きを含む。ショベル100の位置は、例えば、ショベル100における基準点R2の緯度、経度、及び高度である。ショベル状態特定部32は、測位装置18の出力に基づいてショベルの位置及び向きを特定する。
 アクチュエータ駆動部33は、ショベル100に搭載されているアクチュエータを駆動するように構成されている。本実施形態では、アクチュエータ駆動部33は、遠隔コントローラ40から送信されてくる操作信号に基づき、電磁弁ユニット45に含まれる複数の電磁弁のそれぞれに対する作動信号を生成して出力する。
 作動信号を受けた各電磁弁は、コントロールバルブユニット17における対応する制御弁のパイロットポートに作用するパイロット圧を増減させる。その結果、各制御弁に対応する油圧アクチュエータは、制御弁のストローク量に応じた速度で動作する。
 次に、遠隔操作室RCに設置されている遠隔コントローラ40が有する機能について説明する。遠隔コントローラ40は、機能ブロックとして、操作者状態特定部41、画像合成部42、及び操作信号生成部43を有する。操作者状態特定部41、画像合成部42、及び操作信号生成部43は、説明の便宜のために区別されて表されているが、物理的に区別されている必要はなく、全体的に或いは部分的に共通のソフトウェアコンポーネント若しくはハードウェアコンポーネントで構成されていてもよい。
 操作者状態特定部41は、遠隔操作室RCにいる操作者OPの状態を特定するように構成されている。操作者OPの状態は、操作者OPの目の位置と視線の向きを含む。操作者状態特定部41は、室内空間認識装置C2の出力に基づいて操作者OPの目の位置及び視線の向きを特定する。具体的には、操作者状態特定部41は、室内空間認識装置C2としての撮像装置が撮像した画像に各種画像処理を施し、操作室座標系における操作者OPの目の位置の座標を操作者視点E1(図4参照。)の座標として特定する。また、操作者状態特定部41は、室内空間認識装置C2としての撮像装置が撮像した画像に各種画像処理を施し、操作室座標系における操作者OPの視線の向きを特定する。
 操作者状態特定部41は、遠隔操作室RCに設置されたLIDAR等、又は、表示装置D1としてのヘッドマウントディスプレイに取り付けられた慣性計測装置等、室内空間認識装置C2以外の他の装置の出力に基づいて操作者視点E1の座標及び操作者OPの視線の向きを導き出してもよい。なお、慣性計測装置は、測位装置を含んでいてもよい。
 そして、操作者状態特定部41は、通信装置T2を通じ、操作者視点E1の座標及び操作者OPの視線の向きに関する情報をショベル100に向けて送信する。
 画像合成部42は、コントローラ30から送信されてくる部分周囲画像と、別の画像とを合成して合成画像を生成するように構成されている。
 別の画像は、設計面情報DGに基づいて生成される画像である設計面画像であってもよい。本実施形態では、画像合成部42は、遠隔コントローラ40を構成している不揮発性記憶装置に予め記憶されている設計面情報DGに基づいて設計面の位置を表すコンピュータグラフィックス等の図形を、設計面画像として、部分周囲画像に重畳表示させる。設計面は、ショベル100を用いた掘削作業が完了したときの地面である。操作者は、設計面を見ることで、掘削作業が完了する前であっても、掘削作業が完了したときのショベル100の周囲の状態を把握できる。この場合、画像合成部42は、ショベル状態特定部32が特定したショベルの位置及び向きに基づき、部分周囲画像における、設計面画像を重畳表示すべき位置を決定する。
 操作信号生成部43は、操作信号を生成するように構成されている。本実施形態では、操作信号生成部43は、操作センサ29の出力に基づいて操作信号を生成するように構成されている。
 次に、情報センタ200に設置されているコントローラ50が有する機能について説明する。コントローラ50は、各種演算を実行する演算装置である。本実施形態では、コントローラ50は、コントローラ30及び遠隔コントローラ40と同様、CPU及びメモリを含むマイクロコンピュータで構成されている。そして、コントローラ50の各種機能は、CPUがメモリに格納されたプログラムを実行することで実現される。
 本実施形態では、コントローラ50は、機能ブロックとして、判定部51、操作予測部52、操作介入部53、及び動作シミュレータ54を有する。判定部51、操作予測部52、操作介入部53、及び動作シミュレータ54は、説明の便宜のために区別されて表されているが、物理的に区別されている必要はなく、全体的に或いは部分的に共通のソフトウェアコンポーネント若しくはハードウェアコンポーネントで構成されていてもよい。
 判定部51は、ショベル100の周囲の状況に関し、ショベル100の操作者に通知すべき事項があるか否かを判定するように構成されている。本実施形態では、判定部51は、ショベル100に取り付けられた情報取得装置としての空間認識装置C1が撮像した画像若しくは距離画像(以下、「画像等」とする。)、ショベル100の位置、姿勢、及び動作内容の少なくとも1つに基づき、ショベル100の操作者に通知すべき事項があるか否かを判定するように構成されている。距離画像は、例えば、空間認識装置C1としてのLIDAR等の出力に基づいて生成される画像である。判定部51は、空間認識装置C1が撮像した画像等に基づき、ショベル100の位置、姿勢、及び動作内容の少なくとも1つを判定できるように構成されていてもよい。また、判定部51は、空間認識装置C3が撮像した画像等又は施工地形情報(地形データ)に基づき、ショベル100の操作者に通知すべき事項があるか否かを判定するように構成されていてもよい。更に、判定部51は、空間認識装置C3が撮像した画像等に基づき、他の建設機械の位置、姿勢、及び動作内容等の少なくとも1つを判定できるように構成されていてもよい。判定部51は、空間認識装置C1及び空間認識装置C3によって取得された画像等から導き出されるショベル100の周辺の状況とショベル100の位置、姿勢、及び動作内容とに基づきショベル100の操作者に通知すべき事項があるか否かを判定してもよい。通知すべき事項があるか否かは、過去の事例と照らし合わせ、同一、若しくは、類似の状況の有無により判定されてもよい。
 例えば、判定部51は、表示装置D1に表示される画像がカバーする範囲の外側に人が存在することを検知した場合、操作者に通知すべき事項があると判定する。例えば、判定部51は、ショベル100の左後方に人が存在することを検知した場合に、操作者に通知すべき事項があると判定する。この場合、判定部51は、上部旋回体3に取り付けられた空間認識装置C1としての撮像装置又はLIDAR等の出力に基づいて人を検知してもよい。或いは、判定部51は、作業現場に設置された空間認識装置C3としての撮像装置又はLIDAR等の出力に基づいて人を検知してもよい。この場合、空間認識装置C3は、例えば、作業現場に設置されたポールの先端に取り付けられた半天球カメラであってもよい。なお、空間認識装置C3は、他の作業機械に取り付けられた撮像装置又はLIDAR等であってもよく、作業現場の上空を飛行するマルチコプタ(ドローン)等の飛行体に取り付けられた撮像装置又はLIDAR等であってもよい。表示装置D1に表示される画像がカバーする範囲の内側に人が存在することを検知した場合についても同様である。
 或いは、判定部51は、表示装置D1に表示される画像がカバーする範囲の外側に電線が存在することを検知した場合、操作者に通知すべき事項があると判定してもよい。例えば、判定部51は、ショベル100の上方に電線が存在することを検知した場合に、操作者に通知すべき事項があると判定する。この場合、判定部51は、空間認識装置C1の出力に基づいて電線を検知してもよい。或いは、判定部51は、空間認識装置C3が撮像した画像等に基づいて電線を検知してもよい。表示装置D1に表示される画像がカバーする範囲の内側に電線が存在することを検知した場合についても同様である。
 或いは、判定部51は、施工地形情報(地形データ)に基づき、ショベル100の前方に下り坂が存在することを検知した場合、操作者に通知すべき事項があると判定する。例えば、判定部51は、ショベル100の前方に下り坂が存在することを検知した場合に、操作者に通知すべき事項があると判定する。この場合、判定部51は、物体検知装置の出力に基づいて下り坂を検知してもよい。或いは、判定部51は、空間認識装置C3が撮像した画像等に基づいて下り坂を検知してもよい。或いは、判定部51は、コントローラ50に付属している不揮発性記憶媒体等に予め記憶されている施工地形情報(地形データ)に基づいて下り坂を検知してもよい。
 ショベル100の操作者に通知すべき事項があると判定した場合、判定部51は、操作者の注意を喚起する。本実施形態では、判定部51は、その通知すべき事項に関する情報を遠隔コントローラ40に向けて送信する。遠隔コントローラ40の画像合成部42は、判定部51から受信した情報に関する画像を部分周囲画像上に重畳表示させる。
 操作予測部52は、遠隔コントローラ40から受信した操作信号に基づき、所定時間後の操作信号を予測するように構成されている。通信遅延による操作応答性の低下、すなわち、遠隔操作室RCにおける操作者OPによる操作がショベル100の動きに反映されるまでの遅延を抑制するためである。所定時間は、例えば、数ミリ秒~数十ミリ秒である。例えば、操作予測部52は、過去の所定時間における操作信号(操作レバーの傾斜角度)の推移に基づき、所定時間後の操作信号を予測する。例えば、操作予測部52は、過去の所定時間において操作レバーの傾斜角度が増加傾向にあったことを検知した場合、所定時間後の傾斜角度が現在の傾斜角度より大きくなると予測する。
 そして、操作予測部52は、遠隔コントローラ40から受信した操作信号をそのままショベル100に向けて送信する代わりに、予測した操作信号(以下、「予測操作信号」とする。)をショベル100に向けて送信する。
 この構成により、操作予測部52は、実質的に、遠隔操作室RCで生成された操作信号を遅延なしでショベル100に伝えることができる。
 操作介入部53は、遠隔操作室RCにおける操作者OPによる操作に介入するように構成されている。本実施形態では、判定部51は、ショベル100に取り付けられた空間認識装置C1が撮像した画像等に基づき、操作者OPによる操作に介入すべきか否かを判定するように構成されている。
 例えば、操作介入部53は、ショベル100とショベル100の周囲にある物体とが接触するおそれがあることを検知した場合、操作者OPによる操作に介入すべきであると判定する。例えば、操作介入部53は、ショベル100の左方に人が存在することを検知し、且つ、左旋回操作(左操作レバーを左方に倒す操作)が開始されたことを検知した場合、操作者OPによる操作に介入すべきであると判定する。この場合、操作介入部53は、左旋回操作に基づいて生成された操作信号を無効にし、上部旋回体3が左旋回しないようにする。なお、操作介入部53は、物体検知装置の出力に基づいてショベル100とショベル100の周囲にある物体とが接触するおそれがあることを検知してもよい。或いは、判定部51は、空間認識装置C3が撮像した画像等に基づいてショベル100とショベル100の周囲にある物体とが接触するおそれがあることを検知してもよい。このようにして操作者に通知すべき事項があると判定された場合には、コントローラ30は、操作信号に基づき、ショベル100の停止又は減速等の制動制御を行うように構成されていてもよい。
 その後、操作者は、例えば、操作レバーを一旦中立に戻す、或いは、解除ボタンを押す等の操作を行うことで、すなわち、解除条件を満たすことで、ショベル100の停止又は減速等の制動制御を解除することができる。なお、解除条件は、ショベル100が停止状態であることを含んでいてもよい。
 動作シミュレータ54は、ショベル100の動作の模擬実験(シミュレーション)を実行できるように構成されている。ショベル100の動作は、ショベル100による掘削作業等の様々な作業を構成している。例えば、掘削作業は、アーム閉じ動作、バケット閉じ動作、及びブーム上げ動作等の複数の動作によって構成されている。図6に示す例では、動作シミュレータ54は、遠隔操作室RCからの開始指令に応じてショベル100の動作のシミュレーションを開始させる。具体的には、動作シミュレータ54は、環境情報に基づいて作業現場の仮想モデルである仮想作業現場を構築する。環境情報は、作業環境に関する情報であり、例えば、空間認識装置C1、空間認識装置C3、測位装置18、及び姿勢検出センサのうちの少なくとも1つが出力する情報を含む。また、環境情報は、設計面情報DGを含んでいてもよい。
 仮想作業現場は、仮想環境の一例であり、例えば、実際の作業現場の現在の地形が再現された三次元の仮想空間(三次元のモデル)である。そして、動作シミュレータ54は、遠隔操作室RCにいる操作者OPが仮想作業現場の状況を視認できるように、仮想作業現場に関する画像を表示装置D1に向けて送信する。三次元の仮想空間には仮想ショベルが配置される。仮想作業現場における現在の地形並びに仮想ショベルの位置及び向き等と実際の作業現場における現在の地形並びに実際のショベル100の位置及び向き等とが一致するように、仮想ショベルは、仮想空間に再現された仮想作業現場に配置される。仮想ショベルは実際のショベル100と同様に、仮想作業現場において仮想動作を行う。つまり、操作者OPが操作装置26の接続先を実際のショベル100から仮想ショベルへ切り替えると、操作者OPは操作装置26を介して仮想ショベルを操作することができる。例えば、操作者OPは操作装置26の左操作レバー(アーム操作レバー)を操作すると、仮想ショベルの仮想アームを動かすことができる。このようにして、操作者OPは、仮想ショベルの各アクチュエータを仮想作業現場において動作させることができる。また、実際の作業現場に建屋又は電線等の設置物がある場合には、仮想作業現場にも仮想設置物が再現される。また、実際の作業現場において所定の時刻に資材が搬入される予定がある場合には、仮想作業現場においても予定された所定の時刻になると仮想資材が搬入される状況が再現される。また、仮想作業現場の地面や傾斜地等の地盤特性(硬さ、密度、又は水分含有量率等)も、実際の作業現場の地盤特性と一致するように再現される。また、所定の時刻になると雨が降ることが予測される場合には、仮想作業現場においても予定された所定の時刻になると雨が降る状況が仮想的に再現される。このように、三次元の仮想空間が三次元モデルとして再現される。これにより、遠隔操作室RCの操作者OPは、三次元の仮想空間に配置された仮想ショベルのモデルを用いて、仮想空間に再現された仮想作業現場にて、仮想作業を行うことができる。仮想作業を実行する際、遠隔操作室RCの操作者OPが視認する画像は、三次元の仮想空間に配置された仮想ショベルに取り付けられた仮想空間認識装置から得られる仮想作業現場の画像に相当する。仮想空間認識装置は、例えば、仮想キャビンに配置される。仮想作業現場に関する画像は、典型的には、実際の作業現場の地形に対応する立体地形画像であり、コンピュータグラフィクスによって構成される。但し、仮想作業現場に関する画像は、少なくとも部分的には、撮像装置が撮像した画像を利用して生成されてもよい。仮想作業現場に関する画像を受信した表示装置D1は、仮想作業現場の画像を表示できる。実際の作業現場の現在の地形は、ショベル100に設けられた空間認識装置C1(カメラ又はLIDAR等)、マルチコプタ等に設けられた空間認識装置(カメラ又はLIDAR等)を通じて取得されてもよく、実際の作業現場における建屋又は鉄塔等に設置された空間認識装置(カメラ又はLIDAR等)を通じて取得されてもよい。このように、動作シミュレータ54は、空間認識装置を通じて取得された情報に基づいて、実際の作業現場を三次元の仮想空間(三次元のモデル)に再現できる。三次元の仮想空間(三次元のモデル)における仮想作業現場は、実際の作業現場における進捗状況に応じて更新されてもよい。例えば、実際の作業現場において倒木が発生した場合には、ショベル100は、実際の作業現場で発生した倒木の情報(位置、大きさ、又は樹木の種類等)を空間認識装置C1により取得し、情報センタ200に設置されている管理装置としてのコントローラ50へ送信する。コントローラ50は、受信した実際の作業現場の最新の情報を仮想作業現場に反映させる。これにより、操作者OPは仮想作業現場において仮想ショベルを操作し、倒木を考慮した仮想作業を行うことができる。
 仮想作業現場に関する画像は、典型的には、仮想ショベルの画像を含む。仮想ショベルは、例えば、ショベル100の動作のシミュレーションが開始された時点では、実際の作業現場におけるショベル100に対応している。すなわち、シミュレーションが開始された時点での仮想作業現場における仮想ショベルの位置及び姿勢等は、実際の作業現場におけるショベル100の位置及び姿勢等に対応している。シミュレーションが開始された時点での仮想作業現場における仮想ショベルの位置及び姿勢等は、例えば、空間認識装置C1及び空間認識装置C3の少なくとも一方の出力に基づいて決定される。但し、シミュレーションが開始された時点での仮想作業現場における仮想ショベルの位置及び姿勢等は、ショベル100に搭載されているブーム角度センサS1、アーム角度センサS2、バケット角度センサS3、旋回角速度センサS4、機体傾斜センサ、及び測位装置18等の少なくとも1つの出力に基づいて決定され或いは調整されてもよい。
 その後、動作シミュレータ54は、遠隔操作室RCにいる操作者OPが操作装置26を操作したときに生成される操作信号を遠隔操作室RCから受信し、受信した操作信号に応じて仮想作業現場における仮想ショベルを動作させる。仮想作業現場の地形は、仮想ショベルの動きに応じて変化する。例えば、仮想作業現場の地形は、仮想ショベルによる仮想掘削作業に応じて変化する。
 シミュレーションが行われているときには、操作信号は、実際の作業現場におけるショベル100には送信されない。すなわち、遠隔操作室RCにいる操作者OPは、シミュレーションが行われているときには、実際の作業現場におけるショベル100を操作できない。
 図6に示す例では、シミュレーションを開始させるための開始指令は、遠隔操作室RCにいる操作者OPが所定の開始ボタンを操作したときに遠隔コントローラ40で生成され、遠隔コントローラ40から情報センタ200のコントローラ50に送信される。開始ボタンは、例えば、右コンソールボックスの上面に配置されている。
 操作者OPは、遠隔操作室RCから操作を行うため、実際の作業現場の状況を把握し辛い場合がある。このため、操作者OPは、作業開始前に、若しくは、作業中に、ショベル100が存在する実際の作業現場において望ましくない事象が発生する蓋然性をその望ましくない事象が発生する前に把握することが望ましい。このため、操作者OPは、予定されている作業を実際に行う前に、所定の開始ボタンを操作してシミュレーションを開始させる。望ましくない事象は、例えば、崖を掘削する際の崖の崩落等である。ここでの崖は、例えば、安息角以上の傾斜角を有する傾斜面を含む地面を意味する。操作者OPは、仮想作業現場での仮想ショベルによる仮想掘削作業を行うことにより、崖をどのように掘削すれば崖がどのように崩落するのかを確認できる。すなわち、操作者OPは、複数の掘削作業を仮想的に試すことにより、崖のどの部分をどのような順番でどの程度掘削すれば崖の崩落を抑えることができるかを確認できる。すなわち、操作者OPは、実際の掘削作業を行う前に(実際の掘削作業を行うことなく)、問題のない掘削作業の進め方を導き出すことができる。
 具体的には、操作者OPは、1の掘削作業を仮想的に試した後で、所定のリセットボタンを操作することで、1の掘削作業の試行によって変化した仮想作業現場の地形を元の地形に戻すことができる。リセットボタンは、例えば、右コンソールボックスの上面に配置されている。なお、元の地形は、例えば、開始ボタンが操作された時点における仮想作業現場の地形であり、実際の作業現場における現在の地形に対応している。但し、仮想作業現場の地形は、シミュレーション中の任意の時点での地形に戻されてもよい。この構成により、操作者OPは、様々な掘削作業を効率的に試すことができる。
 そして、操作者OPは、崖の崩落が起こりにくい掘削作業を確認した後で、シミュレーションを終了させる。図6に示す例では、操作者OPは、所定の終了ボタンを操作することにより、シミュレーションを終了させることができる。終了ボタンは、シミュレーションを開始させる際に用いられる開始ボタンと同じボタンであってもよく、開始ボタンとは別のボタンであってもよい。
 シミュレーションが終了すると、表示装置D1に表示されていた仮想作業現場の画像は、ショベル100に搭載された撮像装置等によって撮像された画像に基づく実際の作業現場の画像に切り換えられる。そして、操作者OPは、操作装置26を操作することによってショベル100を動かすことができ、実際の掘削作業を行うことができるようになる。
 この状態において、操作者OPは、シミュレーションで確認できた最適と思われる掘削作業を行い、実際の作業現場における崖を掘削できる。
 この構成により、コントローラ50は、例えば、崖の掘削の際に発生し得る崖の崩落を抑制でき、ショベル100による掘削作業の安全性を高めることができる。
 或いは、コントローラ50は、ショベル100の動きに応じて望ましくない事象が発生する蓋然性が高いと判定した場合、ショベル100の動きを停止させた上で、操作者OPにシミュレーションの実行を促すように構成されていてもよい。望ましくない事象は、例えば、崖の掘削の際に発生し得る崖の崩落等である。
 例えば、コントローラ50は、空間認識装置C1等の出力に基づき、操作者OPが崖を掘削しようとしていると判定した場合、ショベル100の動きを停止させた上で、操作者OPにシミュレーションの実行を促すように構成されていてもよい。
 次に、図7を参照し、コントローラ50における動作シミュレータ54によって実行されるシミュレーションによる効果について説明する。図7は、ショベル100の側面図である。図7に示す例では、ショベル100の操作者OPは、崖CL1を掘削して設計面TSを露出させるための掘削作業を行おうとしている。なお、操作者OPは、遠隔操作室RCに設置された操作装置26を用いてショベル100を遠隔操作する。操作者OPは、崖CL1を掘削する前に、遠隔操作室RCに設置された開始ボタンを押してシミュレーションを開始させる。
 開始ボタンが押されると、遠隔操作室RCに設置された遠隔コントローラ40は、開始指令を生成し、且つ、その開始指令を、情報センタ200のコントローラ50(動作シミュレータ54)に向けて送信する。
 開始指令を受信した動作シミュレータ54は、ショベル100に取り付けられた空間認識装置C1としてのLIDARの出力に基づき、ショベル100の周囲における実際の作業現場の地形を認識し、その作業現場の地形に対応する仮想作業現場の立体地形画像を生成する。
 動作シミュレータ54によって生成された立体地形画像は、遠隔操作室RCに設置された表示装置D1に送信され、且つ、表示装置D1に表示される。
 操作者OPは、表示装置D1に表示された立体地形画像を見ながら、操作装置26を操作して仮想ショベルを動作させることができる。
 図7に示す例では、操作者OPは、例えば、点線で区切られた土砂部分SP1を最初に掘削する第1掘削作業と、一点鎖線で区切られた土砂部分SP2を最初に掘削する第2掘削作業とをシミュレーションで試すことができる。
 そして、操作者OPは、第1掘削作業を試したときには、土砂部分SP1を最初に掘削すると、斜線で示す土砂部分SP3が崩落してしまうことを確認できる。また、操作者OPは、第2掘削作業を試したときには、土砂部分SP2を最初に掘削しても、他の土砂部分の崩落が発生しないことを確認できる。この場合、操作者OPは、シミュレーションの結果に基づき、実際の作業現場で実施される掘削作業として第2掘削作業を実行してもよい。或いは、操作者OPは、土砂部分SP3の崩落を積極的に利用するために、実際の作業現場で実施される掘削作業として第1掘削作業を実行してもよい。
 次に、図8を参照し、ショベル100の施工支援システムSYSの別の構成例について説明する。図8は、施工支援システムSYSの別の構成例を示す機能ブロック図であり、図6に対応している。
 図8に示す施工支援システムSYSは、ショベル100に搭載されているコントローラ30が異常検知部34を有する点で、図6に示す施工支援システムSYSと異なるが、その他の点で、図6に示す施工支援システムSYSと同じである。そのため、以下では、共通部分の説明が省略され、相違部分が詳細に説明される。
 異常検知部34は、ショベル100の周辺で発生する異常事象を検知するように構成されている。図8に示す例では、異常検知部34は、空間認識装置C1の出力に基づいてショベル100の周辺で発生する異常事象を事前に検知するように構成されている。異常事象の発生を未然に防止するためである。ショベル100の周辺で発生する異常事象は、例えば、ショベル100の崖CL2(図7参照。)からの転落、又は、ショベル100の掘削アタッチメントATと電線EW(図7参照。)との接触等である。
 異常検知部34は、例えば、空間認識装置C1の出力に基づいて崖CL2の存在を認識し、崖CL2から所定の距離の範囲内にショベル100が侵入すると、崖CL2の近くにある地面が崩落するおそれがあると判定する。所定の距離は、過去の事例に関するデータ、地面を構成する土砂の特性、及びショベル100の重量に関するデータ等の少なくとも1つに基づいて予め設定された値であってもよく、動的に決定される値であってもよい。
 異常検知部34は、崖CL2から所定の距離の範囲にショベル100が接近したときに、異常に関する情報を表示装置D1に表示させることによりショベル100の操作者OPの注意を喚起してもよく、ショベル100の動きを鈍化させてもよく、ショベル100の動きを停止させてもよい。
 或いは、異常検知部34は、例えば、空間認識装置C1の出力に基づいて電線EWの存在を認識し、電線EWから所定の距離の範囲内に掘削アタッチメントAT(アーム5)の上端が侵入すると、掘削アタッチメントATが電線EWに接触するおそれがあると判定する。所定の距離は、過去の事例に関するデータ等に基づいて予め設定された値であってもよく、動的に決定される値であってもよい。
 異常検知部34は、電線EWから所定の距離の範囲に掘削アタッチメントATの上端が接近したときに、ショベル100の操作者OPの注意を喚起してもよく、掘削アタッチメントATの動きを鈍化させてもよく、掘削アタッチメントATの動きを停止させてもよい。
 また、異常検知部34は、ショベル100の周囲に存在する物体の認識結果に関する情報、及び、異常事象が発生するおそれがあるか否かの判定結果に関する情報を、情報センタ200に送信するように構成されていてもよい。情報センタ200における動作シミュレータ54がそれらの情報を利用できるようにするためである。
 この場合、動作シミュレータ54は、シミュレーションにおいて、操作者OPが仮想ショベルを崖CL2に近づけたときに、操作者OPの注意を喚起するように構成されていてもよい。或いは、動作シミュレータ54は、シミュレーションにおいて、操作者OPがブーム4を上昇させて掘削アタッチメント(アーム5)の上端を電線EWから所定の距離の範囲内に近づけたときに、異常に関する情報を表示装置D1に表示させることにより操作者OPの注意を喚起するように構成されていてもよい。この構成により、動作シミュレータ54は、シミュレーションの実行中において、崖CL2又は電線EWの存在を操作者OPに認識させることができ、崖CL2又は電線EWに対する注意を操作者OPに促すことができる。
 上述の実施形態では、ショベル100は、遠隔操作室RCにいる操作者OPによって操作されるが、キャビン10内にいる操作者によって操作されてもよい。この場合、開始ボタン、リセットボタン、及び終了ボタンはキャビン10内に設置される。或いは、ショベル100は、操作者による操作を必要としない自動運転ショベル(無人ショベル)であってもよい。この場合、開始ボタン、リセットボタン、及び終了ボタンは省略されてもよい。
 ショベル100が自動運転ショベルである場合、ショベル100は、予め設定された一連の動作に関する指令(動作指令)を利用することによって作業を行うように構成される。動作指令は、基本的には、作業の段取りに基づいて決定される。作業の段取りは、どのような順序でどのような動きをショベル100に実行させるかを決定することを意味する。例えば、作業の段取りは、作業の効率及び作業の安全性等の様々な要因を考慮して作業現場のどの部分をどのような順序で掘削するかを決定することを意味する。一般的な有人ショベルが用いられる作業現場では、典型的には、作業の段取りは、熟練の操作者の経験的な判断に基づいて決定される。自動運転ショベルが用いられる作業現場でも、基本的には、作業の段取りは、熟練の操作者の経験的な判断に基づいて決定される段取りと同じような段取りとなるように決定される。そのため、自動運転ショベルが用いられる作業現場における作業の段取りは、その作業現場に関する情報と、過去の様々なデータとに基づいて決定される。この際に、ディープラーニング等の機械学習に関する技術が利用されてもよい。
 具体的には、動作指令は、例えば、バケット6の爪先等の所定部位が辿る軌道を予め設定することによって定められる。そして、動作指令は、任意の方法で設定される。例えば、動作指令は、過去の軌道に関するデータに基づいて自動的に生成されてもよい。動作指令の生成には、ディープラーニング等の機械学習が利用されてもよい。この場合、「動作指令の生成」は、「動作指令の学習」とも称され、或いは単に「動作学習」とも称される。
 操作者OPは、空間認識装置C1が出力する情報により生成された三次元の仮想空間内の仮想の現在地形が仮想空間内の目標面(例えば設計面情報DG等に基づく地形)となるように仮想ショベルを動作させ、実際のショベル100に対する動作指令を情報センタ200におけるコントローラ50に生成させる。このとき、コントローラ50は、機械学習の一例である強化学習により、報酬(使用燃料の少なさ又は作業時間の短さ等)を設定し、アクチュエータの動作指令を生成してもよい。このように、コントローラ50は、強化学習を用いることにより、仮想空間内の仮想の現在地形を仮想空間内の目標面(例えば設計面情報DG等に基づく地形)にする際に、最も報酬が高い動作指令を生成することができ、効率の高い作業の段取りを実現できる。これにより、コントローラ50は、熟練の操作者よりも効率が高い動作指令を生成することができ、効率の高い作業の段取りを実現できる。
 具体的には、情報センタ200におけるコントローラ50は、設計面情報DG等に基づいてショベル100の動作指令を生成する。そして、コントローラ50は、生成した動作指令にしたがってショベル100を自動的に動作させることができるように操作信号を生成する。生成された操作信号は、ショベル100に搭載されているコントローラ30に向けて送信される。
 そして、ショベル100が自動運転ショベルである場合、コントローラ50を構成する動作シミュレータ54は、実際の作業が行われる前に、ショベル100による作業を構成する動作のシミュレーションを行うことができる。
 例えば、動作シミュレータ54は、動作指令に関する情報と実際の作業現場の現在の地形に関する情報とに基づき、ショベル100による作業を構成する動作を仮想的に実行することによって、ショベル100による施工(作業)の開始から完了までの地形の変化を仮想的に確認することができる。ここで、施工は、所定の段取りで行われる1又は複数の作業(積込み作業、転圧作業、掘削作業、又は吊り作業等)を含む。また、作業は、所定の順番で行われる1又は複数の動作(掘削動作、旋回動作、排土動作、又はブーム上げ動作等)を含む。
 そして、動作シミュレータ54は、動作指令にしたがってショベル100を動作させたときに発生する問題(異常事象としての要注意事項)を事前に認識することができる。すなわち、動作シミュレータ54は、要注意事項が発生する場所、時刻、又は種類等を判断できる。また、仮想作業現場において複数の建設機械が存在する場合には、動作シミュレータ54は、どの建設機械に対して要注意事項が発生するかを判断できる。このように、動作シミュレータ54は、要注意事項の抽出を行うことができる。
 抽出された要注意事項は、実際のショベル100の操作が行われる前に管理装置の表示装置に表示され得る。この場合、表示装置には実際の作業現場を再現した三次元の仮想作業現場が表示される。そして、三次元の仮想作業現場において発生する要注意事項について、動作シミュレータ54は、発生する場所、時刻、又は種類等を表示させる。動作シミュレータ54は、発生するよう要注意事項の原因を表示させてもよい。更に、動作シミュレータ54は、要注意事項が発生する前後における仮想作業現場内の仮想建設機械(仮想ショベル)の様子を再現してもよい。これにより、管理者は、どのようにして要注意事項が発生するかを事前に確認することができる。また、仮想作業現場において複数の建設機械が存在する場合には、動作シミュレータ54は、どの建設機械に対して要注意事項が発生するかを判断できる。例えば、仮想作業現場において、予定の作業内容に基づき予定された時刻(例えば、午後3時)に仮想資材が搬入された際に、仮想資材が積み下ろし(仮置き)された近傍にて仮想建設機械(仮想ショベル)が掘削作業を行う場合には、要注意事項として「仮想ショベルと仮想資材との接触」が抽出される。この場合、仮想作業現場において発生する要注意事項の場所、時刻、又は種類等が表示装置に表示されることで、管理者は、実際の作業現場における資材の仮置き場所の変更が必要であることを認識することができる。また、動作シミュレータ54は、要注意事項の発生を解消するための改善案も表示することができる。表示装置は携帯端末の表示部でもよい。この場合、動作シミュレータ54は、例えば、仮想資材の積み下ろし場所を現在予定されている場所から別の場所に変更した事例について、シミュレーションを行う。積み下ろし場所を変更した事例についてのシミュレーションは、複数の変更後の場所に対して行われてもよい。このように、予定されている作業内容を変更した場合の複数の事例についてシミュレーションを行うことで、動作シミュレータ54は、現在予定されている仮想資材の当初の積み下ろし場所よりも好ましい積み下ろし場所を抽出し、改善案としてその好ましい積み下ろし場所を表示させることができる。このように、改善案が表示装置に表示されることで、管理者は、作業現場の作業者に対して、実際の作業現場における資材の積み下ろし場所の変更を指示することができる。このように、動作シミュレータ54は、仮想作業現場において発生する事象が要注意事項の場合には、発生する要注意事項を解消するために、一回又は複数回にわたって作業内容を変更してシミュレーションを実行し直す。そして、発生する要注意事項を解消するための作業内容又は作業の段取り等が導出された場合、導出された作業内容又は作業の段取り等に基づき、その後の施工に関するシミュレーションを継続する。このように、動作シミュレータ54は、要注意事項が発生した場合でも、要注意事項を解消するための作業内容をシミュレーションによって導出することができる。そして、動作シミュレータ54により求められた、要注意事項を解消するための作業内容又は作業の段取り等についての情報が表示装置に表示されることで、管理者又は作業者は、実際の作業現場において、作業内容又は作業の段取り等を変更することができる。なお、表示装置は携帯端末の表示部でもよい。
 動作指令を修正する際には、動作シミュレータ54は、複数の新たな動作指令にしたがったショベル100の動作のシミュレーションを実行することにより、最適な動作指令を見つけ出すことができる。複数の新たな動作指令の生成には、当初の動作指令の場合と同様に、ディープラーンイング等の機械学習が利用されてもよい。
 また、動作シミュレータ54は、自動運転ショベルとしてのショベル100による実際の作業が行われているときに、所定時間だけ未来の時点でどのような事象が発生するかのシミュレーションを行うように構成されていてもよい。この構成により、動作シミュレータ54は、実際の作業よりも所定時間だけ先行して仮想作業(仮想動作)を行うことができ、望ましくない事象が発生するのを事前に認識することができる。そして、動作シミュレータ54は、望ましくない事象が発生するのを事前に認識した場合には、動作指令を修正することにより、そのような望ましくない事象が発生するのを未然に防止できる。
 また、動作シミュレータ54は、想定していた事象とは異なる事象が発生した場合、その後の作業を構成するショベル100の動作のシミュレーションをやり直すように構成されていてもよい。例えば、動作シミュレータ54は、ショベル100に搭載されている各種センサの出力に基づいて土砂が想定していた土砂よりも粘土質である或いは砂質であると判定した場合、その後の作業を構成するショベル100の動作のシミュレーションをやり直すように構成されていてもよい。砂質の地盤は、粘土質の地盤に比べて崩れやすく、掘削作業等によって変化する地形の推定結果に影響するためである。すなわち、粘土質であることを前提として導き出されたシミュレーション結果は、実際にはより砂質である地盤に対しては不適切となってしまうためである。
 例えば、コントローラ50は、空間認識装置C1の出力に基づき、実際の掘削によって形成される穴である掘削穴の側面から崩れ落ちて掘削穴の底に溜まる土砂の量を導き出すことができる。そして、コントローラ50は、その掘削穴の底に溜まる土砂の量に基づき、作業対象の地盤の特性を導き出すことができる。地盤の特性は、例えば、砂質の程度、又は、粘土質の程度等である。典型的には、コントローラ50は、掘削穴の底に溜まる土砂の量が多い程、砂質の程度が大きいと判定できる。
 また、コントローラ50は、空間認識装置C1の出力に基づき、実際の作業現場における作業現場の状況と仮想空間において想定された仮想作業現場の状況とを対比し、作業の進捗を評価することができる。例えば、実際の作業が仮想作業と比較して遅延している場合には、コントローラ50は、動作シミュレータ54により遅延している実際の作業現場の状況に基づいてシミュレーションを実行し直し、動作指令を生成し直す。そして、コントローラ50は、生成し直した動作指令をショベル100へ送信する。ショベル100は、生成し直された動作指令に基づいて制御される。また、コントローラ50は、空間認識装置C1の出力に基づき、実際の作業現場における作業現場の状況と仮想空間において想定された仮想作業現場の状況とを対比し、仮想作業現場において想定(シミュレーション)されていない事象が発生したかどうかを判断してもよい。
 この構成により、コントローラ50は、ショベル100による作業に関するシミュレーション結果の正確性を高めることができ、自動運転ショベルとしてのショベル100の作業効率を高めることができる。また、コントローラ50は、自動運転ショベルとしてのショベル100による作業の安全性を高めることができる。
 上述のように、本発明の実施形態に係るシステムは、ショベル100による施工を支援するショベル用の施工支援システムSYSであって、ショベル100の作業環境に基づいて設定された仮想環境におけるショベル100の動作のシミュレーションを実行する演算装置としてのコントローラ50とを有する。コントローラ50は、例えば、ショベル100が位置している作業現場に関する情報に基づき、仮想環境の一例である仮想作業現場を設定し、仮想作業現場における仮想ショベルによる仮想掘削作業を構成する仮想動作のシミュレーションを実行する。具体的には、コントローラ50は、どのような仮想動作が行われたときに仮想作業現場がどのように変化するかを導き出す。
 この構成により、施工支援システムSYSは、実際の作業現場に関する情報に基づき、ショベル100による作業のシミュレーションを実行することにより、ショベル100による施工を支援する際に実際の作業現場の状況を反映させることができる。
 コントローラ50は、ショベル100の周囲の空間を認識する空間認識装置の出力に基づいてシミュレーションを実行してもよい。空間認識装置は、ショベル100に搭載されていてもよく、或いは、ショベル100の外部に設置されていてもよい。また、コントローラ50は、1つの空間認識装置の出力に基づいてシミュレーションを実行してもよく、複数の空間認識装置の出力に基づいてシミュレーションを実行してもよい。空間認識装置は、例えば、ショベル100に搭載されている空間認識装置C1であってもよい。或いは、空間認識装置は、ショベル100の外部に設置された空間認識装置C3であってもよい。具体的には、空間認識装置C3は、作業現場に設置されたポールに取り付けられていてもよく、ショベル100以外の他のショベルに取り付けられていてもよく、作業現場の上空を飛行する飛行体に取り付けられていてもよい。
 施工支援システムSYSは、コントローラ50によるシミュレーションの結果を表示する表示装置を有していてもよい。
 コントローラ50は、シミュレーションにより、ショベル100を実際に動作させたときに発生し得る事象を事前に認識できるように構成されていてもよい。この構成により、施工支援システムSYSは、ショベル100を実際に動作させたときに発生し得る望ましくない事象を事前に認識し、そのような望ましくない事象が実際に発生してしまうのを未然に防止できる。
 ショベル100は、自動運転ショベルであってもよい。この場合、コントローラ50は、予め設定された動作指令に関する情報に基づいて操作信号を生成してもよい。そして、ショベル100は、その操作信号に応じて動作するように構成されていてもよい。また、コントローラ50は、シミュレーションの結果に基づいて動作指令を変更できるように構成されていてもよい。
 この構成により、施工支援システムSYSは、ショベル100が自動運転ショベルであっても、ショベル100による施工を支援する際に実際の作業現場の状況を反映させることができる。
 コントローラ50は、動作指令にしたがって動作するショベル100によって実現される作業現場の所定時間経過後の未来の状態を、シミュレーションによって継続的に導き出すように構成されていてもよい。
 この構成により、施工支援システムSYSは、ショベル100を実際に動作させるとともに、所定時間だけ未来の時点における作業現場の状態をシミュレーションによりリアルタイムで導き出すことができる。そのため、施工支援システムSYSは、所定時間だけ未来の時点における作業現場の状態が望ましくない状態になることを事前に察知することができる。この場合、施工支援システムSYSは、現在利用している動作指令を別の動作指令に切り換えることにより、そのような望ましくない状態が実際に発生してしまうのを未然に防止できる。
 コントローラ50は、シミュレーションの前提条件が変わったときに、シミュレーションをやり直すように構成されていてもよい。シミュレーションの前提条件は、例えば、作業対象の土砂の砂質度合いが所定範囲内の値であることである。土砂の砂質度合いは、例えば、空間認識装置の出力に基づいて導き出される。前提条件が変わったにもかかわらず、その前提条件に基づいて行われたシミュレーションの結果が利用されてしまうと、作業現場の状態が望ましくない状態になってしまうためである。
 また、別の事例として、例えば、コントローラ50は、施工現場の路面に敷設された鉄板の位置がダンプトラックの頻繁な通過や地震等によってズレたことを空間認識装置が検出した場合にも、要注意事項が発生したとして管理者又は作業者へ注意喚起をするとともに、前提条件が変化したとしてシミュレーションをやり直すことができる。そして、コントローラ50は、前提条件の変化が施工作業に与える影響を評価することができる。直ちに鉄板の位置の修正が必要な場合には、コントローラ50は、その旨を管理者又は作業者へ表示等により報知してもよい。
 また、別の事例として、コントローラ50は、空間認識装置C1により施工現場の状況の変化を検知すると、要注意事項が発生したとして管理者又は作業者へ注意喚起をするとともに、前提条件が変化したとしてシミュレーションをやり直すことができる。施工現場の状況の変化は、例えば、悪天候(雨等)による施工現場の地形(スロープ形状若しくは仮置きの土砂の形状等)の変化、又は、倒木若しくは落石の発生等を含む。そして、コントローラ50は、前提条件の変化が施工作業に与える影響を評価することができる。直ちに作業現場の地形の補修等の状況の改善が必要な場合には、コントローラ50は、その旨を管理者又は作業者へ表示等により報知してもよい。動作シミュレータ54は、作業現場の地形の補修のためのシミュレーションを行ってもよい。
 このように、施工開始前や施工の途中の所定の時間毎に、コントローラ50は、空間認識装置C1の出力を受信する。そして、コントローラ50は、空間認識装置C1の出力に基づき、実際の作業現場における作業現場の状況と仮想空間において想定された仮想作業現場の状況とを対比する。そして、コントローラ50は、対比結果に基づいてシミュレーションの前提条件が変わったと判定すると、前提条件の変化が要注意事項であるかどうかを判断し、要注意事項であると判断すると管理者又は作業者へその旨を報知する。そして、コントローラ50は、要注意事項を解消するためのシミュレーションを行い、発生した要注意事項を解消するための作業内容又は作業の段取り等を改善案として導出した場合、導出した改善案を管理者又は作業者へ報知する。管理者又は作業者は、動作シミュレータ54により導出された改善案で問題無いと判断した場合、コントローラ50からショベル100への動作指令の送信を許可する。その後、コントローラ50からショベル100への動作指令が送信される。コントローラ30は、受信した動作指令に基づき、ショベル100を制御する。
 この構成により、施工支援システムSYSは、シミュレーションの前提条件が変化したと判定した場合には、シミュレーションをやり直すため、ショベル100による施工を支援する際に実際の作業現場の状況をより適切に反映させることができる。
 以上、本発明の好ましい実施形態について詳説した。しかしながら、本発明は、上述した実施形態に制限されることはない。上述した実施形態は、本発明の範囲を逸脱することなしに、種々の変形又は置換等が適用され得る。また、別々に説明された特徴は、技術的な矛盾が生じない限り、組み合わせが可能である。
 例えば、上述の実施形態では、動作シミュレータ54は、情報センタ200に設置されたコントローラ50の一機能として実現されているが、コントローラ30の一機能として実現されてもよく、遠隔コントローラ40の一機能として実現されてもよい。或いは、動作シミュレータ54は、コントローラ30、遠隔コントローラ40、及びコントローラ50のそれぞれとは別の演算装置の一機能として実現されてもよい。
 本願は、2020年5月27日に出願した日本国特許出願2020-092622号に基づく優先権を主張するものであり、この日本国特許出願の全内容を本願に参照により援用する。
 1・・・下部走行体 1L・・・左側走行用油圧モータ 1R・・・右側走行用油圧モータ 2・・・旋回機構 2A・・・旋回用油圧モータ 3・・・上部旋回体 4・・・ブーム 5・・・アーム 6・・・バケット 7・・・ブームシリンダ 8・・・アームシリンダ 9・・・バケットシリンダ 10・・・キャビン 11・・・エンジン 11a・・・オルタネータ 11b・・・スタータ 11c・・・水温センサ 13・・・レギュレータ 14・・・メインポンプ 14b・・・吐出圧センサ 14c・・・油温センサ 15・・・パイロットポンプ 16・・・作動油ライン 17・・・コントロールバルブユニット 18・・・測位装置 21・・・尿素水タンク 21a・・・尿素水残量センサ 22・・・燃料タンク 22a・・・燃料残量センサ 25・・・パイロットライン 26・・・操作装置 29・・・操作センサ 30・・・コントローラ 30a・・・メモリ 31・・・画像生成部 32・・・ショベル状態特定部 33・・・アクチュエータ駆動部 34・・・異常検知部 40・・・遠隔コントローラ 41・・・操作者状態特定部 42・・・画像合成部 43・・・操作信号生成部 45・・・電磁弁ユニット 50・・・コントローラ 51・・・判定部 52・・・操作予測部 53・・・操作介入部 54・・・動作シミュレータ 70・・・バッテリ 72・・・電装品 74・・・エンジンコントロールユニット 75・・・ダイヤル 100、100a、100b・・・ショベル 200・・・情報センタ A1・・・集音装置 A2・・・音出力装置 C1・・・空間認識装置 C1B・・・後カメラ C1F・・・前カメラ C1L・・・左カメラ C1R・・・右カメラ C2・・・室内空間認識装置 C3・・・空間認識装置 D1・・・表示装置 DG・・・設計面情報 DS・・・運転席 E1・・・操作者視点 E1'・・・仮想操作者視点 OP・・・操作者 RC、RCa、RCb・・・遠隔操作室 S1・・・ブーム角度センサ S2・・・アーム角度センサ S3・・・バケット角度センサ S4・・・旋回角速度センサ SYS・・・施工支援システム T1、T2、T3・・・通信装置

Claims (12)

  1.  ショベルによる施工を支援するシステムであって、
     前記ショベルの作業環境に基づいて設定された仮想環境における前記ショベルの動作のシミュレーションを実行する演算装置を有する、
     ショベル用の施工支援システム。
  2.  前記演算装置は、前記ショベルの周囲の空間を認識する空間認識装置の出力に基づいて前記シミュレーションを実行し、
     前記空間認識装置は、前記ショベルに搭載され、或いは、前記ショベルの外部に設置されている、
     請求項1に記載のショベル用の施工支援システム。
  3.  前記演算装置による前記シミュレーションの結果を表示する表示装置を有する、
     請求項1に記載のショベル用の施工支援システム。
  4.  前記演算装置は、前記シミュレーションにより、前記ショベルを実際に動作させたときに発生する事象を事前に認識するように構成されている、
     請求項1に記載のショベル用の施工支援システム。
  5.  前記演算装置は、動作指令に関する情報に基づいて操作信号を生成し、
     前記ショベルは、自動運転ショベルであり、前記操作信号に応じて動作するように構成されている、
     請求項1に記載のショベル用の施工支援システム。
  6.  前記演算装置は、前記シミュレーションの結果に基づいて前記動作指令を変更する、
     請求項5に記載のショベル用の施工支援システム。
  7.  前記演算装置は、前記動作指令にしたがって動作する前記ショベルによって実現される作業現場の所定時間経過後の未来の状態を前記シミュレーションによって導き出すように構成されている、
     請求項5に記載のショベル用の施工支援システム。
  8.  前記演算装置は、前記シミュレーションの前提条件が変わったときに、前記シミュレーションをやり直すように構成されている、
     請求項1に記載のショベル用の施工支援システム。
  9.  前記仮想環境における前記ショベルは、操作装置により操作される、
     請求項1に記載のショベル用の施工支援システム。
  10.  前記操作装置は、前記仮想環境における前記ショベル、又は、実際の作業現場に配置されるショベルに選択的に接続される、
     請求項9に記載のショベル用の施工支援システム。
  11.  前記演算装置は、前記事象が要注意事項の場合には、該要注意事項を解消するための作業内容のシミュレーションを実行する、
     請求項4に記載のショベル用の施工支援システム。
  12.  前記演算装置は、前記空間認識装置の出力を用いて、実際の作業現場における作業現場の状況と仮想空間において想定された仮想作業現場の状況とを対比する、
     請求項2に記載のショベル用の施工支援システム。
PCT/JP2021/020303 2020-05-27 2021-05-27 ショベル用の施工支援システム WO2021241716A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020227030064A KR20230015308A (ko) 2020-05-27 2021-05-27 쇼벨용의 시공지원시스템
JP2022526653A JPWO2021241716A1 (ja) 2020-05-27 2021-05-27
EP21812756.1A EP4159933A4 (en) 2020-05-27 2021-05-27 CONSTRUCTION Auxiliary SYSTEM FOR SHOVEL
CN202180018967.0A CN115279974A (zh) 2020-05-27 2021-05-27 挖土机用施工支援系统
US18/055,467 US20230071015A1 (en) 2020-05-27 2022-11-15 Construction assist system for shovel

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-092622 2020-05-27
JP2020092622 2020-05-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/055,467 Continuation US20230071015A1 (en) 2020-05-27 2022-11-15 Construction assist system for shovel

Publications (1)

Publication Number Publication Date
WO2021241716A1 true WO2021241716A1 (ja) 2021-12-02

Family

ID=78744670

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/020303 WO2021241716A1 (ja) 2020-05-27 2021-05-27 ショベル用の施工支援システム

Country Status (6)

Country Link
US (1) US20230071015A1 (ja)
EP (1) EP4159933A4 (ja)
JP (1) JPWO2021241716A1 (ja)
KR (1) KR20230015308A (ja)
CN (1) CN115279974A (ja)
WO (1) WO2021241716A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200370282A1 (en) * 2016-01-29 2020-11-26 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Shovel and autonomous aerial vehicle flying around shovel
WO2023196207A1 (en) * 2022-04-07 2023-10-12 AIM Intelligent Machines, Inc. Autonomous control of operations of earth-moving vehicles using trained machine learning models

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05311692A (ja) * 1991-09-06 1993-11-22 Yotaro Hatamura パワーショベル
JPH10254545A (ja) * 1997-03-14 1998-09-25 Yaskawa Electric Corp 制御方法およびシミュレーション方法
JP2002115271A (ja) * 2000-10-11 2002-04-19 Hitachi Constr Mach Co Ltd 自動運転ショベル
JP2003090130A (ja) * 2001-09-19 2003-03-28 Kajima Corp 工程計画システム、工程計画方法、工程計画プログラム、及び工程計画プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003118981A (ja) * 2001-10-18 2003-04-23 Hitachi Ltd クレーン接近警報装置
JP2004252024A (ja) * 2003-02-19 2004-09-09 Komatsu Forklift Co Ltd 作業車両の運転操作シミュレーション装置、及びそれを用いた作業車両の運転操作講習方法
JP2006053922A (ja) * 2004-08-10 2006-02-23 Caterpillar Inc 機械操作者にとっての視認性を高める方法及び装置
JP2013147334A (ja) * 2012-01-20 2013-08-01 Toshiba Elevator Co Ltd マルチカーエレベータの群管理制御装置
JP2016061054A (ja) * 2014-09-17 2016-04-25 住友重機械工業株式会社 ショベル及びショベルの支援装置
JP2016156193A (ja) 2015-02-25 2016-09-01 株式会社日立製作所 操作支援システムおよび操作支援システムを備えた作業機械
WO2017170968A1 (ja) * 2016-03-30 2017-10-05 株式会社小松製作所 シミュレーションシステム及びシミュレーション方法
WO2018043299A1 (ja) * 2016-08-31 2018-03-08 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム、作業機械及び作業機械の画像表示方法
JP2018092511A (ja) * 2016-12-07 2018-06-14 三菱重工業株式会社 運用支援装置、機器運用システム、運用方法、制御方法及びプログラム
WO2019017159A1 (ja) * 2017-07-18 2019-01-24 株式会社小松製作所 パラメータ特定装置、シミュレーション装置、およびパラメータ特定方法
JP2019207570A (ja) * 2018-05-29 2019-12-05 コベルコ建機株式会社 技能評価システム及び技能評価方法
JP2020092622A (ja) 2018-12-11 2020-06-18 株式会社カネカ 細胞濃縮方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8139108B2 (en) * 2007-01-31 2012-03-20 Caterpillar Inc. Simulation system implementing real-time machine data

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05311692A (ja) * 1991-09-06 1993-11-22 Yotaro Hatamura パワーショベル
JPH10254545A (ja) * 1997-03-14 1998-09-25 Yaskawa Electric Corp 制御方法およびシミュレーション方法
JP2002115271A (ja) * 2000-10-11 2002-04-19 Hitachi Constr Mach Co Ltd 自動運転ショベル
JP2003090130A (ja) * 2001-09-19 2003-03-28 Kajima Corp 工程計画システム、工程計画方法、工程計画プログラム、及び工程計画プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003118981A (ja) * 2001-10-18 2003-04-23 Hitachi Ltd クレーン接近警報装置
JP2004252024A (ja) * 2003-02-19 2004-09-09 Komatsu Forklift Co Ltd 作業車両の運転操作シミュレーション装置、及びそれを用いた作業車両の運転操作講習方法
JP2006053922A (ja) * 2004-08-10 2006-02-23 Caterpillar Inc 機械操作者にとっての視認性を高める方法及び装置
JP2013147334A (ja) * 2012-01-20 2013-08-01 Toshiba Elevator Co Ltd マルチカーエレベータの群管理制御装置
JP2016061054A (ja) * 2014-09-17 2016-04-25 住友重機械工業株式会社 ショベル及びショベルの支援装置
JP2016156193A (ja) 2015-02-25 2016-09-01 株式会社日立製作所 操作支援システムおよび操作支援システムを備えた作業機械
WO2017170968A1 (ja) * 2016-03-30 2017-10-05 株式会社小松製作所 シミュレーションシステム及びシミュレーション方法
WO2018043299A1 (ja) * 2016-08-31 2018-03-08 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム、作業機械及び作業機械の画像表示方法
JP2018092511A (ja) * 2016-12-07 2018-06-14 三菱重工業株式会社 運用支援装置、機器運用システム、運用方法、制御方法及びプログラム
WO2019017159A1 (ja) * 2017-07-18 2019-01-24 株式会社小松製作所 パラメータ特定装置、シミュレーション装置、およびパラメータ特定方法
JP2019207570A (ja) * 2018-05-29 2019-12-05 コベルコ建機株式会社 技能評価システム及び技能評価方法
JP2020092622A (ja) 2018-12-11 2020-06-18 株式会社カネカ 細胞濃縮方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4159933A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200370282A1 (en) * 2016-01-29 2020-11-26 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Shovel and autonomous aerial vehicle flying around shovel
US11492783B2 (en) * 2016-01-29 2022-11-08 Sumitomo(S.H.I) Construction Machinery Co., Ltd. Shovel and autonomous aerial vehicle flying around shovel
WO2023196207A1 (en) * 2022-04-07 2023-10-12 AIM Intelligent Machines, Inc. Autonomous control of operations of earth-moving vehicles using trained machine learning models

Also Published As

Publication number Publication date
EP4159933A4 (en) 2023-12-06
US20230071015A1 (en) 2023-03-09
EP4159933A1 (en) 2023-04-05
CN115279974A (zh) 2022-11-01
JPWO2021241716A1 (ja) 2021-12-02
KR20230015308A (ko) 2023-01-31

Similar Documents

Publication Publication Date Title
KR102659077B1 (ko) 쇼벨
JP7402736B2 (ja) ショベル及びその制御方法
JP7328212B2 (ja) 建設機械の運転支援システム、建設機械
JP7358349B2 (ja) 掘削機、情報処理装置
WO2020080538A1 (ja) ショベル
KR102638315B1 (ko) 쇼벨
US20230071015A1 (en) Construction assist system for shovel
KR20210140737A (ko) 쇼벨 및 시공시스템
JP7490639B2 (ja) ショベル
US20230078047A1 (en) Excavator and system for excavator
US20220205225A1 (en) Shovel, display device for shovel, and control device for shovel
JP2022157635A (ja) 建設機械の管理システム
JP7438807B2 (ja) ショベルの施工支援システム
JP7346061B2 (ja) ショベル
JP2022179081A (ja) 遠隔操作支援システム、遠隔操作支援装置
JP2022154722A (ja) ショベル
JP2022157923A (ja) ショベル
WO2022202855A1 (ja) 建設機械及び建設機械用支援装置
JP2021156078A (ja) ショベル
JP2024051364A (ja) 作業機械の遠隔情報取得システム、及び遠隔情報取得システム
WO2023132321A1 (ja) 周辺監視システム、作業機械
WO2023190843A1 (ja) 支援装置、作業機械、プログラム
US20240011252A1 (en) Shovel and shovel control device
JP2022182529A (ja) 遠隔操作支援システム、遠隔操作支援装置
US20210395980A1 (en) System and method for work machine

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21812756

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022526653

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021812756

Country of ref document: EP

Effective date: 20230102