WO2018043301A1 - 作業機械の画像表示システム - Google Patents

作業機械の画像表示システム Download PDF

Info

Publication number
WO2018043301A1
WO2018043301A1 PCT/JP2017/030415 JP2017030415W WO2018043301A1 WO 2018043301 A1 WO2018043301 A1 WO 2018043301A1 JP 2017030415 W JP2017030415 W JP 2017030415W WO 2018043301 A1 WO2018043301 A1 WO 2018043301A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
image
information
work machine
distance
Prior art date
Application number
PCT/JP2017/030415
Other languages
English (en)
French (fr)
Inventor
貴頌 谷本
優 南里
幸紀 松村
和久 高濱
Original Assignee
株式会社小松製作所
国立大学法人大阪大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小松製作所, 国立大学法人大阪大学 filed Critical 株式会社小松製作所
Priority to AU2017318897A priority Critical patent/AU2017318897B2/en
Priority to US16/315,737 priority patent/US11634890B2/en
Priority to CA3029420A priority patent/CA3029420C/en
Publication of WO2018043301A1 publication Critical patent/WO2018043301A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/107Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using stereoscopic cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/40Special vehicles
    • B60Y2200/41Construction vehicles, e.g. graders, excavators
    • B60Y2200/412Excavators
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/30Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom
    • E02F3/32Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom working downwardly and towards the machine, e.g. with backhoes
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool

Definitions

  • the present invention relates to an image display system for a work machine.
  • Patent Document 1 a technique for remotely operating a work machine such as a hydraulic excavator is known.
  • An aspect of the present invention aims to suppress a decrease in work efficiency when working using a work machine including a work machine having a work tool.
  • an image display system for a work machine that is applied to a work machine having a work tool and a work machine having a swing body to which the work machine is attached, and detects the position of the work machine.
  • a position detection unit a distance detection device for obtaining information on a distance from the work machine to a work target, information on the position of the work tool obtained by the position detection unit, and the distance obtained by the distance detection device.
  • a processing device that generates a first image using information on the position of the work target obtained from the information and displays the first image on a display device, wherein the first image faces the work tool.
  • An image display system for a work machine which is generated based on information on a first position corresponding to the work tool on the surface of the object and information on a position of a portion extending from the first position along a direction in which the swivel body turns. Is provided .
  • the first image has a radius corresponding to a distance between a turning center axis of the turning body and a part of the work tool, and corresponds to the turning center axis.
  • An image display system for a work machine which is an image of an arc centered on, is provided.
  • the working tool is a bucket, and a part of the working tool is a cutting edge of the bucket that exists in the center in the width direction of the bucket.
  • a display system is provided.
  • the processing device generates a line image along the surface of the work target using information on the position of the work target.
  • an image display system for a work machine that is generated and combined with the work target image and displayed on the display device.
  • the line image is centered on the plurality of first line images extending radially from positions corresponding to the turning center axis of the turning body and the turning center axis. And a plurality of second line images extending along the turning direction of the revolving structure.
  • the imaging apparatus attached to the swivel body includes the first image and the imaging apparatus.
  • An image display system for a work machine is provided that combines the second image, which is the image of the work target, captured by the step, and displays the image on the display device.
  • the processing device obtains an area occupied by the work implement in the second image using the posture of the work implement, and uses the obtained area as the work target.
  • An image display system for a work machine that eliminates the shape information is provided.
  • the imaging device, the position detection unit, and the distance detection device are provided in the work machine, and the processing device and the display device are An image display system for a work machine provided in a facility having an operation device for remotely operating the work machine is provided.
  • the present invention is applied to a work machine having a work tool, a revolving body to which the work machine is attached, a position detection unit that detects a position of the work machine, a distance detection device, and an imaging device.
  • An image display system for a work machine, the display device, information on the position of the work tool obtained by the position detection unit, and information on the distance from the work machine to the work target obtained by the distance detection device A process of generating a first image using the information on the position of the work target obtained from the image, combining the second image that is the image of the work target imaged by the imaging device, and causing the display device to display the first image.
  • the first image includes information on a first position corresponding to the work tool on a surface of the work object facing the work tool, and a direction in which the swivel body turns from the first position. Part extending along Is generated based on the information of the position, the image display system of the working machine is provided.
  • a remote control system for a work machine including the image display system for the work machine according to the ninth aspect and an operation device for operating the work machine provided in the work machine.
  • a work machine including the work machine image display system according to any one of the first to ninth aspects.
  • the present invention is applied to a work machine including a work tool, a work machine having the work tool, a swing body to which the work machine is attached, and an imaging device attached to the swing body.
  • the work machine image display method is performed, and the position of the work tool obtained using the posture of the work machine and the distance between the work machine and the work object are obtained.
  • This invention can suppress the fall of the work efficiency at the time of working using the working machine provided with the working machine which has a working tool.
  • FIG. 1 is a diagram illustrating an image display system for a work machine and a remote operation system for the work machine according to an embodiment.
  • FIG. 2 is a diagram illustrating a control system of a hydraulic excavator that is a work machine according to the embodiment.
  • FIG. 3 is a diagram for explaining a coordinate system of the image display system and the remote operation system according to the embodiment.
  • FIG. 4 is a rear view of the excavator.
  • FIG. 5 is a diagram illustrating a coordinate system of the imaging device and the distance detection device.
  • FIG. 6 is a flowchart of a control example executed by the image display system and the remote operation system according to the embodiment.
  • FIG. 7 is a diagram illustrating an imaging device, a distance detection device, and a work target.
  • FIG. 8 is a diagram for explaining the occupied area.
  • FIG. 9 is a diagram illustrating information on the shape of the work target from which the occupied area is removed.
  • FIG. 10 is a diagram illustrating an example of the first image.
  • FIG. 11 is a diagram for explaining processing in which the processing device generates the first image.
  • FIG. 12 is a diagram for explaining processing in which the processing device generates the first image.
  • FIG. 13 is a diagram illustrating a positional relationship between the origin of the imaging apparatus and the first image, the first linear image, and the second linear image.
  • FIG. 14 is a diagram showing the reference image and the first image shown in FIG.
  • FIG. 15 is a diagram illustrating a working image.
  • FIG. 16 is a diagram illustrating a reference image according to a modification.
  • FIG. 17 is a diagram illustrating an example of the first image and the third image.
  • FIG. 18 is a diagram illustrating a control system of a hydraulic excavator according to a modification.
  • FIG. 1 is a diagram illustrating a work machine image display system 100 and a work machine remote control system 101 according to an embodiment.
  • An image display system 100 for a work machine (hereinafter, appropriately referred to as an image display system 100) is a work target WA and a work tool of the excavator 1 when an operator remotely operates the excavator 1 that is a work machine.
  • the bucket 8 is imaged by the imaging device 19, and the obtained image is displayed on the display device 52.
  • the image display system 100 displays a work image 69 including an image 60 for indicating the position of the bucket 8 on the work target WA and an image 68 of the work target WA taken by the imaging device 19. It is displayed on the device 52.
  • the image 68 also includes an image of the bucket 8.
  • the working image 69 further includes a reference image 65.
  • the reference image 65 is an image displayed along the surface of the work target WA.
  • the reference image 65 serves as an index representing the position of the work target WA.
  • the work target of the hydraulic excavator 1 is a terrain surface that is a work target by the work machine 2 provided in the hydraulic excavator 1, that is, the work target WA.
  • the image display system 100 includes an imaging device 19, a posture detection device 32, a distance detection device 20, and a processing device 51.
  • the work machine remote operation system 101 (hereinafter referred to as the remote operation system 101 as appropriate) includes an imaging device 19, a posture detection device 32, a distance detection device 20, a work implement control device 27, and a display device 52.
  • the processing device 51 and the operation device 53 are included.
  • the imaging device 19, the posture detection device 32, and the distance detection device 20 of the image display system 100 are provided in the hydraulic excavator 1, and the processing device 51 is provided in the facility 50.
  • the facility 50 is used for remotely operating the excavator 1 and managing the excavator 1.
  • the imaging device 19, the posture detection device 32, the distance detection device 20, and the work machine control device 27 of the remote operation system 101 are provided in the hydraulic excavator 1, and the display device 52, the processing device 51, and the operation device 53 are the facility 50. Prepared for.
  • the processing device 51 of the image display system 100 includes a processing unit 51P, a storage unit 51M, and an input / output unit 51IO.
  • the processing unit 51P is exemplified by a processor such as a CPU (Central Processing Unit).
  • Examples of the storage unit 51M include a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk drive, a storage device, or a combination thereof.
  • the input / output unit 51IO is an interface circuit for connecting the processing device 51 and an external device.
  • a display device 52, an operation device 53, and a communication device 54 are connected to the input / output unit 51IO as external devices.
  • the external devices connected to the input / output unit 51IO are not limited to these.
  • the processing device 51 uses the information on the position of the bucket 8 obtained by using the attitude of the work machine 2 and the information on the position of the work target WA obtained from the information on the distance obtained by the distance detection device 20. Based on the information on the first position corresponding to the bucket 8 on the work target WA facing the bucket 8 and the information on the position of the portion extending from the first position along the direction in which the upper swing body 3 that is the swing body rotates.
  • the generated first image is generated using the imaging device 19 as a reference.
  • the first position may be a position corresponding to a part of the bucket 8 on the work target WA facing the bucket 8.
  • the processing device 51 combines the first image with the image 68 of the work target WA imaged by the imaging device 19 and causes the display device 52 to display the first image.
  • the work target WA is a surface on which the work machine 2 of the excavator 1 performs work such as excavation or leveling.
  • the first image is included in the image 60 for indicating the position of the bucket 8 on the work target WA.
  • the image 68 is appropriately referred to as a second image 68.
  • the display device 52 is exemplified by a liquid crystal display or a projector, but is not limited thereto.
  • the communication device 54 includes an antenna 54A.
  • the communication device 54 communicates with the communication device 25 provided in the excavator 1 to acquire information on the excavator 1 or transmit information to the excavator 1.
  • the operating device 53 has a left operating lever 53L installed on the left side of the operator and a right operating lever 53R arranged on the right side of the operator.
  • front / rear and left / right operations correspond to biaxial operations.
  • the operation in the front-rear direction of the right operation lever 53R corresponds to the operation of the boom 6 of the work machine 2 provided in the excavator 1.
  • the right / left operation of the right operation lever 53R corresponds to the operation of the bucket 8 of the work machine 2.
  • the operation in the front-rear direction of the left operation lever 53L corresponds to the operation of the arm 7 of the work machine 2.
  • the left / right operation of the left operation lever 53L corresponds to the turning of the upper swing body 3 of the excavator 1.
  • the operation amounts of the left operation lever 53L and the right operation lever 53R are detected by, for example, a potentiometer and a Hall IC, and the processing device 51 generates a control signal for controlling the electromagnetic control valve based on these detected values. .
  • This signal is sent to the work machine control device 27 via the communication device 54 of the facility 50 and the communication device 25 of the excavator 1.
  • the work machine control device 27 controls the work machine 2 by controlling the electromagnetic control valve based on the control signal.
  • the electromagnetic control valve will be described later.
  • the processing device 51 acquires an input to at least one of the left operation lever 53L and the right operation lever 53R, and generates a command for operating at least one of the work implement 2 and the upper swing body 3.
  • the processing device 51 transmits the generated command to the communication device 25 of the excavator 1 via the communication device 54.
  • the work machine control device 27 included in the excavator 1 acquires a command from the processing device 51 via the communication device 25, and operates at least one of the work machine 2 and the upper swing body 3 according to the command.
  • the hydraulic excavator 1 includes a communication device 25, a work machine control device 27, an attitude detection device 32, an imaging device 19, a distance detection device 20, antennas 21 and 22, and a position calculation device 23.
  • the work machine control device 27 controls the work machine 2.
  • the communication device 25 is connected to the antenna 24 and communicates with a communication device 54 provided in the facility 50.
  • the work machine control device 27 controls the work machine 2 and the upper swing body 3.
  • the posture detection device 32 detects the posture of at least one of the work machine 2 and the hydraulic excavator 1.
  • the imaging device 19 is attached to the excavator 1 and images the work target WA.
  • the distance detection device 20 obtains information on the distance from the predetermined position of the excavator 1 to the work target WA.
  • the antennas 21 and 22 receive radio waves from the positioning satellite 200.
  • the position calculation device 23 uses the radio waves received by the antennas 21 and 22 to determine the global positions of the antennas 21 and 22, that is, the positions in the global coordinate system.
  • the hydraulic excavator 1 includes a vehicle main body 1B as a main body and a work implement 2.
  • the vehicle main body 1B includes an upper swing body 3 and a traveling device 5 that is a traveling body.
  • the upper swing body 3 has a cab 4.
  • the traveling device 5 carries the upper swing body 3.
  • the traveling device 5 has a crawler belt.
  • the traveling device 5 causes the hydraulic excavator 1 to travel as the crawler belt rotates.
  • the work machine 2 is attached to the side of the cab 4 of the upper swing body 3.
  • the upper revolving unit 3 is the front side where the work implement 2 and the operator cab 4 are arranged, and the side where the counterweight 9 is arranged later.
  • the left side toward the front is the left of the upper swing body 3, and the right side toward the front is the right of the upper swing body 3.
  • the excavator 1 or the vehicle main body 1 ⁇ / b> B is on the lower side of the traveling device 5 with respect to the upper swing body 3, and the upper side of the upper swing body 3 with respect to the traveling device 5.
  • the lower side is the vertical direction, that is, the gravity direction side
  • the upper side is the opposite side of the vertical direction.
  • the work machine 2 includes a boom 6, an arm 7, a bucket 8 as a work tool, a boom cylinder 10, an arm cylinder 11, and a bucket cylinder 12.
  • the bucket 8 has a plurality of blades 8B.
  • the blade tip 8T is the tip of the blade 8B.
  • the bucket 8 is not limited to one having a plurality of blades 8B.
  • the bucket 8 may be a tilt bucket.
  • the working machine 2 may include, as a work tool, a rock drilling attachment provided with a slope bucket or a chip for rock drilling instead of the bucket 8.
  • the boom cylinder 10, the arm cylinder 11, and the bucket cylinder 12 are hydraulic cylinders that are driven by the pressure of hydraulic oil discharged from the hydraulic pump.
  • the boom cylinder 10 drives the boom 6.
  • the arm cylinder 11 drives the arm 7.
  • the bucket cylinder 12 drives the bucket 8.
  • the antennas 21 and 22 and the antenna 24 are attached to the upper part of the upper swing body 3.
  • the antennas 21 and 22 are used to detect the position of the excavator 1.
  • the antennas 21 and 22 are electrically connected to the position calculation device 23.
  • Antennas 21 and 22 are antennas for GNSS (Kinematic-Global Navigation Satellite Systems).
  • the antennas 21 and 22 are arranged at a certain distance along a direction parallel to the width direction of the upper swing body 3.
  • the antennas 21 and 22 receive GNSS radio waves from the positioning satellite 200 and output signals according to the received GNSS radio waves.
  • the antennas 21 and 22 may be antennas for GPS (Global Positioning System). In the following description, the antennas 21 and 22 are appropriately referred to as GNSS antennas 21 and 22, respectively.
  • the position calculation device 23 detects the position of the excavator 1 using, for example, GNSS.
  • the imaging device 19 images the work target WA shown in FIG. 1, and the distance detection device 20 obtains the distance from itself (predetermined position of the excavator 1) to the work target WA, so that the work target WA as wide as possible is obtained. It is preferable to obtain information from For this reason, in the embodiment, the antenna 24, the imaging device 19, and the distance detection device 20 are installed above the cab 4 of the upper swing body 3. The place where the imaging device 19 and the distance detection device 20 are installed is not limited to above the cab 4. For example, the imaging device 19 and the distance detection device 20 may be installed inside and above the cab 4.
  • the incident surface 19L faces the front of the upper swing body 3.
  • the incident surface 20 ⁇ / b> L faces the front of the upper swing body 3.
  • the imaging device 19 is a monocular camera provided with an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the distance detection device 20 is a three-dimensional laser range finder or a distance sensor. The imaging device 19 and the distance detection device 20 are not limited to these.
  • a device that has both a function of acquiring an image of the work target WA and a function of obtaining a distance to the work target WA may be used instead of the imaging device 19 and the distance detection device 20, a device that has both a function of acquiring an image of the work target WA and a function of obtaining a distance to the work target WA may be used.
  • An example of such a device is a stereo camera.
  • FIG. 2 is a diagram illustrating a control system 1S of the excavator 1 that is the work machine according to the embodiment.
  • the control system 1S includes a communication device 25, a sensor controller 26, a work machine control device 27, an imaging device 19, a distance detection device 20, a position calculation device 23, an attitude detection device 32, an IMU (Inertial Measurement Unit). : Inertial measuring device) 33 and a hydraulic system 36.
  • the communication device 25, the sensor controller 26, and the work machine control device 27 are connected by a signal line 35. With such a structure, the communication device 25, the sensor controller 26, and the work machine control device 27 can exchange information with each other via the signal line 35.
  • the signal line for transmitting information in the control system 1S is exemplified by an in-vehicle signal line such as CAN (Controller Area Network).
  • the sensor controller 26 includes a processor such as a CPU and a storage device such as a RAM and a ROM.
  • the sensor controller 26 receives the detection value of the position calculation device 23, the information of the image captured by the imaging device 19, the detection value of the distance detection device 20, the detection value of the attitude detection device 32, and the detection value of the IMU 33.
  • the sensor controller 26 transmits the input detection value and image information to the processing device 51 of the facility 50 shown in FIG. 1 via the signal line 35 and the communication device 25.
  • the work machine control device 27 includes a processor such as a CPU and a storage device such as a RAM and a ROM.
  • the work machine control device 27 acquires, via the communication device 25, a command for operating at least one of the work machine 2 and the upper swing body 3 generated by the processing device 51 of the facility 50.
  • the work machine control device 27 controls the electromagnetic control valve 28 of the hydraulic system 36 based on the acquired command.
  • the hydraulic system 36 includes an electromagnetic control valve 28, a hydraulic pump 29, and hydraulic actuators such as a boom cylinder 10, an arm cylinder 11, a bucket cylinder 12, and a swing motor 30.
  • the hydraulic pump 29 is driven by the engine 31 and discharges hydraulic oil for operating the hydraulic actuator.
  • the work machine control device 27 controls the flow rate of hydraulic oil supplied to the boom cylinder 10, the arm cylinder 11, the bucket cylinder 12, and the swing motor 30 by controlling the electromagnetic control valve 28. In this way, the work machine control device 27 controls the operations of the boom cylinder 10, the arm cylinder 11, the bucket cylinder 12, and the turning motor 30.
  • the sensor controller 26 acquires the detection values of the first stroke sensor 16, the second stroke sensor 17, and the third stroke sensor 18.
  • the first stroke sensor 16 is provided in the boom cylinder 10
  • the second stroke sensor 17 is provided in the arm cylinder 11
  • the third stroke sensor 18 is provided in the bucket cylinder 12.
  • the first stroke sensor 16 detects the boom cylinder length which is the length of the boom cylinder 10 and outputs it to the sensor controller 26.
  • the second stroke sensor 17 detects the arm cylinder length, which is the length of the arm cylinder 11, and outputs it to the sensor controller 26.
  • the third stroke sensor 18 detects the bucket cylinder length, which is the length of the bucket cylinder 12, and outputs it to the sensor controller 26.
  • the first stroke sensor 16, the second stroke sensor 17, and the third stroke sensor 18 that detect these correspond to the posture detection device 32 that detects the posture of the work implement 2.
  • the posture detection device 32 is not limited to the first stroke sensor 16, the second stroke sensor 17, and the third stroke sensor 18, and may be an angle detector.
  • the sensor controller 26 calculates the tilt angle of the boom 6 with respect to the direction orthogonal to the horizontal plane in the vehicle body coordinate system, which is the coordinate system of the excavator 1, from the boom cylinder length detected by the first stroke sensor 16.
  • the sensor controller 26 calculates the inclination angle of the arm 7 with respect to the boom 6 from the arm cylinder length detected by the second stroke sensor 17.
  • the sensor controller 26 calculates the inclination angle of the bucket 8 relative to the arm 7 from the bucket cylinder length detected by the third stroke sensor 18.
  • the inclination angles of the boom 6, the arm 7, and the bucket 8 are information indicating the posture of the work machine 2. That is, the sensor controller 26 obtains information indicating the posture of the work machine 2.
  • the sensor controller 26 transmits the calculated inclination angle to the processing device 51 of the facility 50 shown in FIG. 1 via the signal line 35 and the communication device 25.
  • the position calculation device 23 has a processor such as a CPU and a storage device such as a RAM and a ROM.
  • the position calculation device 23 obtains the position of the excavator 1. Specifically, the position calculation device 23 detects and outputs the positions of the antennas 21 and 22 and the orientation of the upper swing body 3 in the global coordinate system using signals acquired from the antennas 21 and 22.
  • the orientation of the upper swing body 3 represents the direction of the upper swing body 3 in the global coordinate system.
  • the direction of the upper swing body 3 can be represented by, for example, the front-rear direction of the upper swing body 3 around the vertical axis of the global coordinate system.
  • the azimuth angle is a rotation angle of the reference axis in the front-rear direction of the upper swing body 3 around the vertical axis of the global coordinate system.
  • the azimuth of the upper swing body 3 is represented by the azimuth angle.
  • the IMU 33 detects the operation and posture of the excavator 1.
  • the operation of the hydraulic excavator 1 includes at least one of the operation of the upper swing body 3 and the operation of the traveling device 5.
  • the posture of the excavator 1 is represented by the roll angle, pitch angle, and yaw angle of the excavator 1.
  • the IMU 33 detects and outputs the angle or angular velocity and acceleration of the excavator 1.
  • the angles of the excavator 1 detected by the IMU 33 are the roll angle, pitch angle, and yaw angle of the excavator 1.
  • FIG. 3 is a diagram for explaining a coordinate system of the image display system 100 and the remote operation system 101 according to the embodiment.
  • FIG. 4 is a rear view of the excavator 1.
  • FIG. 5 is a diagram illustrating a coordinate system of the imaging device 19 and the distance detection device 20.
  • the global coordinate system (Xg, Yg, Zg) is a three-dimensional coordinate system based on the origin PG fixed to the earth.
  • the global coordinate system is, for example, a coordinate system in GNSS or GPS.
  • the vehicle body coordinate system is a three-dimensional coordinate system represented by (Xm, Ym, Zm) with the hydraulic excavator 1 as a reference.
  • the origin position PL of the vehicle body coordinate system is the intersection of the Zm axis that is the rotation center axis of the upper swing body 3 and a plane that is orthogonal to the Zm axis in the swing circle of the upper swing body 3. It is not limited.
  • the Xm axis is an axis extending in the front-rear direction of the upper swing body 3 and orthogonal to the Zm axis.
  • the Xm axis is a reference axis in the front-rear direction of the upper swing body 3.
  • the Ym axis is an axis extending in the width direction of the upper swing body 3 and orthogonal to the Zm axis and the Xm axis.
  • a plane orthogonal to the Zm axis in the swing circle can be a plane passing through the center of the swing circle in the Zm axis direction.
  • the coordinate system of the imaging device 19 (hereinafter referred to as an imaging device coordinate system as appropriate) has an origin PC as the center of the imaging surface 19P of the imaging device 19RC as shown in FIG. , Yc, Zc).
  • the Xc axis of the imaging device coordinate system (Xc, Yc, Zc) is an axis that passes through the optical center of the imaging device 19 and extends in a direction orthogonal to the imaging surface 19P.
  • the Yc axis is an axis orthogonal to the Xc axis.
  • the Zc axis is an axis orthogonal to both the Xc axis and the Yc axis.
  • the coordinate system of the distance detection device 20 is a three-dimensional coordinate represented by (Xd, Yd, Zd) with the center of the detection surface 20P of the distance detection element 20RC as the origin PD. It is a system.
  • the tilt angle ⁇ 4 with respect to the left and right direction of the upper swing body 3, that is, the width direction is the roll angle of the excavator 1
  • the tilt angle ⁇ 5 with respect to the front and rear direction of the upper swing body 3 is the pitch of the hydraulic excavator 1.
  • the angle of the upper swing body 3 around the vertical axis is the yaw angle of the excavator 1.
  • the roll angle, the pitch angle, and the yaw angle are obtained by integrating the angular velocity detected by the IMU 33 with time.
  • the acceleration and angular velocity detected by the IMU 33 are output to the sensor controller 26 as operation information.
  • the sensor controller 26 performs processing such as filtering and integration on the operation information acquired from the IMU 33 to obtain the tilt angle ⁇ 4 that is the roll angle, the tilt angle ⁇ 5 that is the pitch angle, and the yaw angle.
  • the sensor controller 26 shows the obtained inclination angle ⁇ 4, inclination angle ⁇ 5, and yaw angle as information related to the attitude of the excavator 1 via the signal line 35 and the communication device 25 shown in FIG. To the processing device 51 of the facility 50 to be transmitted.
  • the sensor controller 26 obtains information indicating the posture of the work machine 2 as described above.
  • the information indicating the posture of the work machine 2 includes the inclination angle ⁇ 1 of the boom 6 with respect to a direction (Zm axis direction) orthogonal to the horizontal plane in the vehicle body coordinate system, the inclination angle ⁇ 2 of the arm 7 with respect to the boom 6, and the arm 7 This is the inclination angle ⁇ 3 of the bucket 8.
  • the processing device 51 of the facility 50 shown in FIG. 1 is information indicating the posture of the work machine 2 acquired from the sensor controller 26 of the excavator 1, that is, the position of the cutting edge 8T of the bucket 8 from the inclination angles ⁇ 1, ⁇ 2, and ⁇ 3 (hereinafter referred to as the following). (Referred to as the blade edge position in FIG. 4) P4.
  • the storage unit 51M of the processing device 51 stores data of the work implement 2 (hereinafter, referred to as work implement data as appropriate).
  • the work machine data includes the length L1 of the boom 6, the length L2 of the arm 7, and the length L3 of the bucket 8.
  • the length L ⁇ b> 1 of the boom 6 corresponds to the length from the boom pin 13 to the arm pin 14.
  • the length L2 of the arm 7 corresponds to the length from the arm pin 14 to the bucket pin 15.
  • the length L3 of the bucket 8 corresponds to the length from the bucket pin 15 to the cutting edge 8T of the bucket 8.
  • the blade tip 8T is the tip of the blade 8B shown in FIG.
  • the work implement data includes information on the position up to the boom pin 13 with respect to the origin position PL in the vehicle body coordinate system.
  • the processing device 51 can obtain the cutting edge position P4 with respect to the origin position PL using the lengths L1, L2, L3, the inclination angles ⁇ 1, ⁇ 2, ⁇ 3 and the origin position PL.
  • the processing device 51 of the facility 50 has obtained the cutting edge position P4.
  • the sensor controller 26 of the excavator 1 may obtain the cutting edge position P4 and transmit it to the processing device 51 of the facility 50.
  • the blade edge position P4 is the position of the work machine 2 because it is the position of the blade edge 8T of the bucket 8 that is a part of the work machine 2.
  • the posture detection device 32, the sensor controller 26, and the processing device 51 correspond to a position detection unit that detects the position of the work machine 2.
  • the posture detection device 32 and the sensor controller 26 correspond to a position detection unit that detects the position of the work implement 2.
  • the position detection unit is not limited to the posture detection device 32, the sensor controller 26 and the processing device 51, or the posture detection device 32 and the sensor controller 26 described above.
  • the position of the work machine may be detected by a distance measuring device such as a stereo camera or a laser scanner.
  • the distance measuring device corresponds to a position detection unit that detects the position of the work implement.
  • FIG. 6 is a flowchart of a control example executed by the image display system 100 and the remote operation system 101 according to the embodiment.
  • FIG. 7 is a diagram illustrating the imaging device 19, the distance detection device 20, and the work target WA.
  • step S101 the sensor controller 26 shown in FIG. 2 acquires information on the excavator 1.
  • Information on the excavator 1 is information obtained from the imaging device 19, the distance detection device 20, the position calculation device 23, the attitude detection device 32, and the IMU 33.
  • the imaging device 19 captures an image of the work target WA within the imaging range TA, and obtains an image of the work target WA.
  • the distance detection device 20 detects the distance Ld from the distance detection device 20 to the work target WA and other objects existing in the detection range MA.
  • the position calculation device 23 obtains reference position information Pga1 and Pga2 corresponding to the positions P1 and P2 of the GNSS antennas 21 and 22 in the global coordinate system.
  • the attitude detection device 32 detects the boom cylinder length, the arm cylinder length, and the bucket cylinder length.
  • the IMU 33 detects the posture of the excavator 1, more specifically, the roll angle ⁇ 4, the pitch angle ⁇ 5, and the yaw angle of the upper swing body 3.
  • step S ⁇ b> 102 the processing device 51 of the image display system 100 and the remote operation system 101 receives the hydraulic pressure from the sensor controller 26 of the excavator 1 via the communication device 25 of the excavator 1 and the communication device 54 connected to the processing device 51. Get information on the excavator 1.
  • the information on the excavator 1 acquired by the processing device 51 from the sensor controller 26 includes the image of the work target WA captured by the image capturing device 19 and the distance detection device 20 to the work target WA detected by the distance detection device 20.
  • Information on the distance, information on the posture of the work implement 2 included in the excavator 1 detected by the posture detection device 32, reference position information Pga 1 and Pga 2, and information on the posture of the excavator 1 are included.
  • the information on the distance from the distance detection device 20 to the work target WA includes the distance Ld to the work target WA or the object OB existing in the detection range MA and the direction information of the position Pd corresponding to the distance Ld.
  • the distance Ld is shown as the distance to the work target WA.
  • Information on the orientation of the position Pd is the orientation of the position Pd when the distance detection device 20 is used as a reference, and is an angle with respect to each axis Xd, Yd, Zd of the coordinate system of the distance detection device 20.
  • the posture information of the work implement 2 acquired by the processing device 51 is the inclination angles ⁇ 1, ⁇ 2, and ⁇ 3 of the work implement 2 obtained by the sensor controller 26 using the boom cylinder length, the arm cylinder length, and the bucket cylinder length.
  • Information on the posture of the excavator 1 is the roll angle ⁇ 4, the pitch angle ⁇ 5, and the yaw angle of the excavator 1, more specifically, the upper swing body 3.
  • the processing device 51 includes the inclination angles ⁇ 1, ⁇ 2, ⁇ 3 of the work implement 2 acquired from the sensor controller 26, the length L1 of the boom 6, the length L2 of the arm 7, and the length of the bucket 8 stored in the storage unit 51M.
  • the blade edge position P4 of the bucket 8 is obtained using the length L3.
  • the blade edge position P4 of the bucket 8 is a set of coordinates in the vehicle body coordinate system (Xm, Ym, Zm) of the excavator 1.
  • step S103 the processing device 51 converts the distance Ld to the work target WA into position information using the information on the distance to the work target WA.
  • the position information is the coordinates of the position Pd in the coordinate system (Xd, Yd, Zd) of the distance detection device 20.
  • step S103 all the distances Ld detected by the distance detection device 20 within the detection range MA are converted into position information.
  • the processing device 51 converts the distance Ld into position information using the distance Ld and information on the orientation of the position Pd corresponding to the distance Ld.
  • the distance to the object OB existing in the detection range MA is also converted into position information, like the distance Ld of the work target WA.
  • information on the position of the work target WA within the detection range MA is obtained. Information on the shape of the work target WA can be obtained from the information on the position of the work target WA.
  • the position information and the shape information of the work target WA are a set of coordinates of the position Pd in the coordinate system (Xd, Yd, Zd) of the distance detection device 20.
  • the processing device 51 converts information on the shape of the work target WA into values in the imaging device coordinate system (Xc, Yc, Zc), and then converts them into values in the vehicle body coordinate system (Xm, Ym, Zm).
  • step S104 the processing device 51 obtains the occupation area SA.
  • FIG. 8 is a diagram for explaining the occupied area SA.
  • the occupation area SA is an area occupied by the work implement 2 in the information on the shape of the work target WA.
  • the bucket 8 of the work machine 2 is within the detection range MA of the distance detection device 20 and between the distance detection device 20 and the work target WA. Therefore, in the occupied area SA, the distance detection device 20 detects the distance to the bucket 8 instead of the distance to the work target WA.
  • the processing device 51 removes the portion of the occupation area SA from the shape information of the work target WA obtained in step S103.
  • the processing device 51 stores at least one of the position and orientation information detected by the distance detection device 20 in accordance with at least one of the position and orientation of the bucket 8, for example, in the storage unit 51M. Let me. Such information is included in the posture of the working machine 2 of the excavator 1 in the present embodiment.
  • the posture of the work machine 2 is determined by using the inclination angles ⁇ 1, ⁇ 2, ⁇ 3 of the work machine 2, the length L1 of the boom 6, the length L2 of the arm 7, and the length L3 of the bucket 8, and the hydraulic excavator 1 is used as necessary. It can be determined using the posture.
  • the processing device 51 compares the information detected by the distance detection device 20 with the information stored in the storage unit 51M, and if the two match, it can be assumed that the bucket 8 has been detected. Since the portion where both match corresponds to the occupied area SA, the processing device 51 removes the occupied area SA from the shape information of the work target WA.
  • the processing device 51 Through the process of removing the occupied area SA using the posture of the work implement 2, the processing device 51 generates the reference area 65 that serves as an index representing the position of the work target WA shown in FIG. Therefore, the reference image 65 can be generated accurately.
  • the process of removing the portion of the occupied area SA using the posture of the work machine 2 may be performed by the following method.
  • Information on at least one of the position and posture of the bucket 8 in the vehicle body coordinate system included in the posture of the work implement 2 includes the inclination angles ⁇ 1, ⁇ 2, ⁇ 3 of the work implement 2, the length L1 of the boom 6, and the length of the arm 7. It is obtained from L2 and the length L3 of the bucket 8.
  • step S103 information on the shape of the work target WA in the vehicle body coordinate system is obtained.
  • step S ⁇ b> 105 the processing device 51 removes the area obtained by projecting the position of the bucket 8 onto the shape information of the work target WA from the shape of the work target WA as the occupied area SA.
  • FIG. 9 is a diagram showing information on the shape of the work target WA from which the occupied area is removed.
  • the shape information IMWA of the work object WA is a set of coordinates Pmd (Xmd, Ymd, Zmd) in the vehicle body coordinate system (Xm, Ym, Zm).
  • Occupied area SA has no coordinate information by the process of step S105.
  • the processing device 51 generates a first image.
  • the first image is an image including a portion corresponding to the bucket 8 or a portion corresponding to a part of the bucket 8 on the work target WA and extending along a direction in which the upper swing body 3 of the excavator 1 rotates. .
  • FIG. 10 is a diagram illustrating an example of the first image IMC.
  • 11 and 12 are diagrams for explaining processing in which the processing device 51 generates the first image IMC.
  • the first image IMC shown in FIG. 10 shows the position of the cutting edge 8T of the bucket 8 on the work target WA, and the upper swing body 3 swivels while the work implement 2 maintains the current posture. The position of the cutting edge 8T on the surface of the work target WA in this case is shown.
  • processing in which the processing device 51 generates the first image IMC will be described.
  • the first image IMC has a radius Rdt between the Zm axis and the bucket 8 when viewed from the Zm axis of the vehicle body coordinate system that is the turning center axis of the upper-part turning body 3. It is an image of an arc centered at a position corresponding to the Zm axis.
  • the position of the bucket 8 used when determining the distance Rbt is the position of the cutting edge 8T of the bucket 8 present at the center in the width direction Wb of the bucket 8, as shown in FIG.
  • the position of the bucket 8 used when obtaining the distance Rbt is not limited to the cutting edge 8T at the center of the bucket 8 in the width direction Wb.
  • the distance Rbt is the Zm axis of the vehicle body coordinate system along the direction parallel to the Xm-Ym plane of the vehicle body coordinate system, and the position Pbt (Xmbt, Ymbt, Zmbt) of the cutting edge 8T in the center of the width direction Wb of the bucket 8 Is the distance.
  • the position Pbt (Xmbt, Ymbt, Zmbt) is a position in the vehicle body coordinate system.
  • the 12 represents the center of the bucket 8 in the width direction Wb.
  • the width direction Wb of the bucket 8 is a direction parallel to the direction in which the bucket pin 15 that connects the bucket 8 and the arm 7 extends, and is parallel to the Ym axis of the vehicle body coordinate system.
  • the distance Rbt is the distance between the Zm axis and the cutting edge 8T of the bucket 8 along the direction parallel to the Xm axis in the vehicle body coordinate system.
  • the position indicated by the first image IMC is the position of the surface WAS of the work target WA.
  • the processing device 51 projects a portion of a circular arc whose radius is a distance Rbt centered on the Zm axis of the vehicle body coordinate system onto the surface WAS of the work target WA in a direction parallel to the Zm axis of the vehicle body coordinate system (hereinafter referred to as appropriate).
  • the position Pt (Xmt, Ymt, Zmt) is obtained.
  • the image at the intersection becomes the first image IMC.
  • the position Pt (Xmt, Ymt, Zmt) of the intersecting portion is, for example, the position of the portion where the curved surface having a radius Rdt centered on the Zm axis of the vehicle body coordinate system and the surface WAS of the work target WA intersect. .
  • a portion where a straight line VL that passes through the cutting edge 8T of the bucket 8 existing in the center of the width direction Wb of the bucket 8 and extends in a direction parallel to the Zm axis of the vehicle body coordinate system intersects the surface WAS of the work object WA is Some positions.
  • the processing device 51 generates the first image IMC using information on the position Pt (Xmt, Ymt, Zmt) of the intersection.
  • the first image IMC corresponds to information on the position Pt (Xmt, Ymt, Zmt) of the intersection.
  • the first position Ptc in the position Pt (Xmt, Ymt, Zmt) of the intersecting portion is the position of the bucket 8 on the surface WAS of the work target WA facing the bucket 8, and in the embodiment, the center in the width direction Wb of the bucket 8 This corresponds to the position of the cutting edge 8T of the bucket 8 existing at.
  • the first position Ptc is not limited to the position of the cutting edge 8T at the center in the width direction Wb, and may be a position at one end in the width direction Wb, for example.
  • the position of the portion extending along the turning direction Rtd of the upper swing body 3 from the first position Ptc is the portion of the intersecting portion position Pt (Xmt, Ymt, Zmt) extending from the first position Ptc along the turning direction Rtd. Is the position.
  • the first image IMC corresponds to information on the first position Ptc and information on the position of a portion extending from the first position Ptc along the turning direction Rtd. That is, the first image IMC is generated based on the information on the first position Ptc and the information on the position of the portion extending from the first position Ptc along the turning direction Rtd.
  • the processing device 51 causes the display device 52 shown in FIG. 1 to also display the first straight image 62 that is an image of the straight line LV1 and the second straight image 63 that is an image of the straight line LV2.
  • the straight line LV1 extends from the position Pb1 outside the blade 8B on the one end 8Wt1 side in the width direction Wb of the bucket 8 to the surface WAS of the work object WA along a direction parallel to the Zm axis of the vehicle body coordinate system. It is.
  • the straight line LV2 extends from the position Pb2 outside the blade 8B on the other end 8Wt2 side in the width direction Wb of the bucket 8 to the surface WAS of the work object WA along a direction parallel to the Zm axis of the vehicle body coordinate system. It is.
  • the position of the part where the straight line LV1 and the surface WAS of the work object WA intersect is Pt1
  • the position of the part where the straight line LV2 and the surface WAS of the work object WA intersect is Pt2. Since the position of each part of the bucket 8 in the vehicle body coordinate system and the position of the surface WAS of the work target WA in the vehicle body coordinate system are known, the processing device 51 can obtain the positions Pb1, Pb2, Pt1, and Pt2 from these positions. it can. If the positions Pb1, Pb2, Pt1, and Pt2 are obtained, the straight line LV1 and the straight line LV2 are also obtained. Therefore, the processing device 51 can generate the first straight line image 62 and the second straight line image 63.
  • the processing device 51 converts them into images at the viewpoint of the imaging device 19.
  • the viewpoint image of the imaging device 19 is an image based on the imaging device 19.
  • FIG. 13 is a diagram illustrating a positional relationship between the origin PC of the imaging device 19 and the first image IMC, the first linear image 62, and the second linear image 63.
  • the viewpoint image of the imaging device 19 is an image obtained when the first image IMC, the first linear image 62, and the second linear image 63 are viewed from the origin PC of the imaging device 19 in the vehicle body coordinate system (Xm, Ym, Zm). is there.
  • the first image IMC, the first straight image 62, and the second straight image 63 are images in a three-dimensional space, but the viewpoint image of the imaging device 19 is a two-dimensional image. Therefore, the processing device 51 displays the first image IMC, the first straight image 62, and the second straight image 63 defined in the three-dimensional space, that is, the vehicle body coordinate system (Xm, Ym, Zm), on the two-dimensional surface. Perform perspective projection transformation to project.
  • the first image IMC, the first straight image 62, and the second straight image 63 converted into the viewpoint image of the imaging device 19 are images for indicating the position of the bucket 8 on the work target WA shown in FIG. 60.
  • the image 60 is appropriately referred to as a guide image 60.
  • FIG. 14 is a diagram showing the reference image 65 and the first image IMC shown in FIG.
  • the process proceeds to step S107, and the processing device 51 generates a reference image 65.
  • the reference image 65 is a line image along the surface WAS of the work target WA.
  • the processing device 51 generates the reference image 65 using information on the position of the work target WA, specifically, information on the position of the work target WA on the surface WAS.
  • the reference image 65 includes a plurality of first line images RL extending radially from positions corresponding to the Zm axis, which is the turning center axis of the upper swing body 3, and a turning direction Rtd of the upper swing body 3 about the Zm axis. And a plurality of second line images CL extending along the line.
  • the plurality of first line images RL are viewed from the Zm-axis direction of the vehicle body coordinate system (Xm, Ym, Zm) and extend radially from the Zm-axis, and the circumferential direction of a circle centered on the Zm-axis It is a line image arranged along.
  • the plurality of second line images CL are images of arcs or circles extending along the circumferential direction of a circle centered on the Zm axis when viewed from the Zm axis direction of the vehicle body coordinate system (Xm, Ym, Zm), Arranged along the radial direction of a circle centered on the Zm axis.
  • first line image RL and the second line image CL are defined by the vehicle body coordinate system (Xm, Ym, Zm), they include three-dimensional information.
  • the plurality of first line images RL are arranged at equal intervals for each angle ⁇ along the circumferential direction of a circle centered on the Zm axis.
  • the plurality of second line images CL are arranged at equal intervals for each distance ⁇ R along the radial direction of the circle centered on the Zm axis.
  • the processing device 51 When the processing device 51 generates the first line image RL and the second line image CL, the processing device 51 converts the images into the viewpoint image of the imaging device 19 and generates the reference image 65. By converting the first line image RL and the second line image CL into the image of the viewpoint of the imaging device 19, the display device 52 deforms and displays the reference image 65 according to the shape of the work target WA. be able to.
  • step S108 the processing device 51 removes the above-described occupied area SA from the generated guide image 60 and reference image 65. Since the guide image 60 and the reference image 65 are generated from information on the shape of the work object WA, removing the occupied area SA from the guide image 60 and the reference image 65 means that the occupied area SA is used as information on the shape of the work object WA. Means to remove from.
  • the processing device 51 may generate the guide image 60 and the reference image 65 using information on the shape of the work target WA from which the occupation area SA is removed.
  • step S108 the processing device 51 converts the occupied area SA into an image of the viewpoint of the imaging device 19 and removes it from the guide image 60 and the reference image 65.
  • the processing device 51 includes the first image IMC, the first straight image 62, and the second straight image 63 before being converted into the viewpoint image of the imaging device 19, and the first image before being converted into the viewpoint image of the imaging device 19.
  • the occupied area SA before being converted into the viewpoint image of the imaging device 19 may be removed from the first line image RL and the second line image CL.
  • FIG. 15 is a diagram showing an image 69 for work.
  • the processing device 51 combines the guide image 60 from which the occupied area SA is removed, the reference image 65, and the second image 68 of the work target WA imaged by the imaging device 19, and uses the work image for work.
  • An image 69 is generated.
  • the processing device 51 causes the display device 52 to display the generated work image 69.
  • the work image 69 is an image obtained by combining the work target WA image 68, the reference image 65, and the guide image 60.
  • the reference image 65 is a plurality of line images extending on the surface WAS of the work object WA along the circumferential direction and the radial direction of the circle around the turning center axis of the upper turning body 3, the operator of the excavator 1 can By referring to the image 65, the position of the work target WA can be grasped.
  • the operator can grasp the depth, that is, the position in the front-rear direction of the upper swing body 3 included in the excavator 1 by the second line image CL, and the position of the upper swing body 3 in the swing direction Rtd by the first line image RL. Can be grasped.
  • the first image IMC Since the distance Rbt changes according to the distance between the bucket 8 and the Zm axis, the first image IMC also moves away from the hydraulic excavator 1 or approaches the hydraulic excavator 1 according to the distance between the bucket 8 and the Zm axis. Since the first image IMC moves according to the current position of the bucket 8, the operator grasps the positions of the work target WA and the bucket 8 by operating the work machine 2 while referring to the first image IMC. it can. As a result, a decrease in work efficiency is suppressed. In addition, a decrease in work accuracy is suppressed.
  • the operator refers to the first image IMC and the second line image CL, so that the position of the excavation target is farther than the bucket 8 when the upper-part turning body 3 turns while maintaining the current posture of the work implement 2. It can be easily grasped whether it is on the side or the near side. As a result, a decrease in work efficiency is suppressed. In addition, a decrease in work accuracy is suppressed.
  • the first straight image 62 and the second straight image 63 indicate the position of the cutting edge 8T of the bucket 8 on the surface WAS of the work target WA. That is, the portion sandwiched between the first linear image 62 and the second linear image 63 on the surface WAS of the work target WA is the position of the blade edge 8T of the bucket 8. Therefore, the operator can more easily grasp the positional relationship between the bucket 8 and the work target WA by using the first linear image 62 and the second linear image 63. As a result, a decrease in work efficiency is suppressed. In addition, a decrease in work accuracy is suppressed.
  • the reference image 65 and the first image IMC are displayed along the shape of the topography of the work target WA, for example, the excavator 1 to work on, the reference image 65 and the first image IMC are displayed on the topographic surface displayed in two dimensions on the display device 52.
  • the relative positional relationship between the image 65 and the first image IMC can be easily grasped.
  • the first line image RL and the second line image CL constituting the reference image 65 are arranged at equal intervals in the vehicle body coordinate system, the operator can easily grasp the sense of distance on the terrain surface, Perspective can be easily grasped.
  • the work image 69 may include information 64 indicating the distance between the cutting edge 8T of the bucket 8 and the work target WA.
  • the information 64 has an advantage that the operator can grasp the actual distance between the cutting edge 8T of the bucket 8 and the work target WA.
  • the distance between the blade edge 8T of the bucket 8 and the work object WA can be a distance from the blade edge 8T at the center of the bucket 8 in the width direction Wb to the surface WAS of the work object WA.
  • the information 64 may be spatial position information related to the work tool or the work target WA.
  • the spatial position information is information about the posture such as the angle of the bucket 8 instead of or in addition to the distance between the cutting edge 8T of the bucket 8 and the work object WA, information indicating the relative distance between the bucket 8 and the work object WA, For example, information indicating the relationship between the orientation of the cutting edge 8T of the bucket 8 and the orientation of the surface of the work target WA, information indicating the position of the bucket 8 in coordinates, information indicating the orientation of the surface of the work target WA, and the imaging device 19 to the bucket Information including information indicating the distance in the Xm direction in the vehicle body coordinate system up to the eight cutting edges 8T is included.
  • the processing device 51 determines the position of the bucket 8 as a work tool, the posture of the bucket 8, the position of the work target WA, the relative posture of the work target WA, the relative distance between the bucket 8 and the work target WA, the bucket At least one of the relative postures of the work 8 and the work object WA may be obtained and displayed on the display device 52.
  • FIG. 16 is a diagram illustrating a reference image 65a according to a modification.
  • the reference image 65a includes a plurality of first linear images 66 as viewed from the direction of the Zm axis in the vehicle body coordinate system (Xm, Ym, Zm), and these Is a grid image formed by a plurality of second straight line images 67 orthogonal to each other.
  • the plurality of first linear images 66 are parallel to the Xm axis of the vehicle body coordinate system
  • the plurality of second linear images 67 are parallel to the Ym axis of the vehicle body coordinate system.
  • the intervals at which the plurality of first linear images 66 are arranged are equal.
  • the intervals at which the plurality of second linear images 67 are arranged are equal.
  • the interval at which the plurality of first linear images 66 are arranged is equal to the interval at which the plurality of second linear images 67 are arranged.
  • the processing device 51 synthesizes the guide image 60 from which the occupied area SA is removed, the reference image 65a, and the second image 68 of the work target WA imaged by the imaging device 19 to generate a work image 69. To do. Even when the processing device 51 displays such a lattice image on the display device 52 together with the guide image 60, the operator can easily grasp the positional relationship between the position of the bucket 8 and the work object WA during turning and excavation. Can do.
  • FIG. 17 is a diagram illustrating an example of the first image IMC and the third image 61.
  • the third image 61 is a line image that connects the position Pt1 and the position Pt2 and is along the surface WAS of the work target WA.
  • the position Pt1 is a position of a portion where the straight line LV1 corresponding to the first straight line image 62 and the surface WAS of the work target WA intersect.
  • the position Pt2 is a position of a portion where the straight line LV2 corresponding to the second straight line image 63 and the surface WAS of the work target WA intersect.
  • the processing device 51 sets a set of positions of the surface WAS when the straight line connecting the first position Pt1 and the second position Pt2 is projected onto the surface WAS of the work target WA as the third image 61.
  • a position Pt extending from the cutting edge 8T at the center position in the width direction Wb of the bucket 8 and parallel to the Zm axis of the vehicle body coordinate system intersects the surface WAS of the work object WA is a part of the third image 61.
  • the position Pt is also a part of the first image IMC.
  • the processing device 51 may display the third image 61 on the display device 52 in addition to the first image IMC.
  • the third image 61 allows the operator to grasp the current position of the bucket 8 on the surface WAS of the work target WA. As a result, the operator can easily and reliably grasp the positional relationship between the bucket 8 and the work position.
  • the processing device 51 may change the display form of both. To change the display form, for example, the color of the first image IMC and the color of the third image 61 are different, and the line thickness of the first image IMC and the line thickness of the third image 61 are different.
  • FIG. 18 is a diagram illustrating a control system 1Sa of the hydraulic excavator 1 according to a modification.
  • the image display system 100 and the remote operation system 101 described above remotely operated the hydraulic excavator 1 using the operation device 53 of the facility 50 shown in FIG.
  • a display device 52a is provided in the cab 4 shown in FIG.
  • the work image 69 is displayed on the display device 52a in order to make the excavator 1 assist the operator's work.
  • a processing device 51 is connected to the signal line 35 of the control system 1S described above.
  • the operation device 53a is connected to the signal line 35 of the control system 1S described above via the work implement control device 17.
  • a display device 52 a is connected to the processing device 51.
  • the processing device 51 provided in the control system 1Sa has the same function as the processing device 51 provided in the facility 50 shown in FIG. 1 in the image display system 100 and the remote operation system 101 described above.
  • the processing device 51 and the display device 52a constitute an image display system 100a according to a modification.
  • the processing device 51 may obtain the blade edge position P4 using the detection values of the position detection device 32 and the sensor controller 26, or the sensor controller 26 uses the detection value of the position detection device 32 to determine the blade edge position P4. You may ask for it.
  • the position detection device 32, the sensor controller 26, and the processing device 51 correspond to a position detection unit that detects the position of the work tool.
  • the position detection device 32 and the sensor controller 26 correspond to a position detection unit that detects the position of the work tool.
  • the position detection unit may be the above-described distance measurement device such as a stereo camera or a laser scanner.
  • the display device 52a of the control system 1Sa is a head-up display that projects an image on the front window FG of the driver's seat.
  • the display device 52a may be a head mounted display.
  • the display device 52a displays a work image 69 at a position corresponding to the bucket 8 that can be seen through the front window FG.
  • the work image 69 displayed by the display device 52a only needs to include at least the first image IMC. That is, when the display device 52a is a head-up display or a head-mounted display, the processing device 51 causes the display device 52a to display the first image IMC.
  • the reference image 65 is also displayed on the display device 52a.
  • the display device 52a is not limited to a head-up display, and may be a normal display.
  • the processing device 51 displays on the display device 52a a working image 69 in which at least the first image IMC and the second image 68 captured by the imaging device 19 are combined.
  • the operating device 53a is a device for operating the excavator 1, and includes a left operating lever 53La and a right operating lever 53Ra.
  • the operating device 53a may be a pilot hydraulic system or an electric system.
  • the excavator 1 including the control system 1Sa includes at least the first image IMC when the image display system 100a views the work target WA from a predetermined position, for example, a position corresponding to the viewpoint of the operator seated on the driver's seat.
  • a work image 69 is displayed on the front window FG.
  • the image display systems 100 and 100a and the remote operation system 101 superimpose the guide image 60 and the reference image 65 or 65a generated from the viewpoint of the imaging device 19 on the image 68 of the actual work target WA captured by the imaging device 19. In addition, it is displayed on the display device 52.
  • the image display systems 100 and 100a and the remote operation system 101 allow the operator who remotely operates the hydraulic excavator 1 using the image of the work target WA displayed on the display device 52 to determine the position of the bucket 8 and the work. It is possible to easily grasp the positional relationship with the target WA. As a result, a decrease in work efficiency is suppressed. In addition, a decrease in work accuracy is suppressed.
  • the operator refers to the guide image 60 so that the bucket 8 in the case where the upper swing body 3 is swung
  • the relative positional relationship with the work point in the work target WA can be easily grasped.
  • the image display systems 100 and 100a and the remote operation system 101 can suppress a decrease in work efficiency and a decrease in work accuracy in a work machine having a turning body.
  • the image display systems 100 and 100a and the remote operation system 101 display the guide image 60, the reference image 65 or 65a, and the image 68 of the actual work target WA on the display device 52 so as to overlap each other. It is possible to suppress a decrease in work efficiency by using a single screen that the operator pays attention to.
  • the interval between the adjacent first line images RL is equal, and the interval between the adjacent second line images CL is equal.
  • the operator can easily grasp the distance that the bucket 8 has moved, so that a reduction in work efficiency is suppressed.
  • the guide image 60 and the reference image 65 or 65a are removed from the occupied area SA, which is the area of the work machine 2, so that the guide image 60 and the reference image 65 or 65a are distorted by the occupied area SA and the guide image to the work machine 2.
  • 60 and the reference image 65 can be prevented from being superimposed and displayed.
  • the image display systems 100 and 100a and the remote operation system 101 can display the work image 69 on the display device 52 in a form that is easy for the operator to see.
  • the guide image 60 only needs to include at least the first image IMC. That is, the guide image 60 may not include the first straight image 62 and the second straight image 63.
  • the processing device 51 may change, for example, the display form of the first image IMC in the guide image 60 according to the distance between the cutting edge 8T of the bucket 8 and the work target WA. By doing so, the operator can easily grasp the distance between the position of the bucket 8 and the work target WA.
  • the processing device 51 may display at least the first image IMC and the second image 68 on the display device 52.
  • the operator refers to the first image IMC extending along the turning direction Rtd of the upper swing body 3, so that the relative relationship between the bucket 8 and the work point in the work target WA when the upper swing body 3 is turned. Can easily grasp the specific positional relationship.
  • at least the first image IMC and the second image 68 are displayed on the display device 52, so that the work machine having the swivel body is restrained from lowering work efficiency and work accuracy. .
  • the processing device 51 generates the work image 69 in the vehicle body coordinate system (Xm, Ym, Zm), but the global coordinate system (Xg, Yg, Zg), the imaging device coordinate system (Xc, Yc,
  • the work image 69 may be generated by either the coordinate system (Xd, Yd, Zd) of the distance detection device 20 or Zc).
  • the work image 69 is generated in the global coordinate system (Xg, Yg, Zg)
  • the GNSS antennas 21 and 22 and the position calculation device 23 are required.
  • the imaging device coordinate system (Xc, Yc, Zc), and the coordinate system (Xd, Yd, Zd) of the distance detection device 20 are unnecessary.
  • the occupied area SA that is the area of the work machine 2 may not be removed from the guide image 60 and the reference image 65.
  • the first image IMC and the second image 68 displayed on the display device 52 allow the operator to make a relative positional relationship between the bucket 8 and the work point in the work target WA when the upper swing body 3 turns. Can be easily grasped. For this reason, in a work machine having a revolving structure, a reduction in work efficiency is suppressed. Further, in a work machine having a revolving structure, a decrease in work accuracy is suppressed.
  • a part of the hydraulic excavator 1 detected by the distance detection device 20, for example, the bucket 8 is removed as described above, and the shape information (three-dimensional terrain data) of the work target WA is obtained.
  • the three-dimensional terrain data acquired in the past for example, a few seconds ago, is stored in the storage unit 51M of the processing device 51, and the processing unit 51P of the processing device 51 stores the current work target WA and the 3 stored therein. It is determined whether the dimensional terrain data is the same position, and if it is the same position, the reference image 65 or 65a may be displayed using the past three-dimensional terrain data. That is, the processing device 51 can display the reference image 65 or 65a if there is past three-dimensional terrain data even if there is terrain hidden by a part of the excavator 1 when viewed from the imaging device 19. it can.
  • Example of image display during loading In the embodiment and the modification, an example of image display by the image display systems 100 and 100a in the loading operation in which the excavator 1 loads a load such as rocks and earth and sand on the vessel of the dump truck will be described.
  • the processing device 51 of the image display systems 100 and 100a acquires the position of the dump truck that is the target of the loading operation detected by the distance detection device 20. Since the first image IMC and the reference image 65 or 65a included in the work image 69 rise at the position of the dump truck, the operator can grasp the relationship between the work machine 2 and the height and position of the dump truck.
  • the operator By adding the position of the dump truck to the work image 69, the operator turns the upper swing body 3 to bring the bucket 8 of the work machine 2 closer to the dump truck, and at which position the bucket 8 moves to the dump truck. You can see if it will reach you. For this reason, interference with the work machine 2 and the dump truck is suppressed.
  • the processing device 51 may handle the position of the dump truck detected by the distance detection device 20 as a part of the work WA, or the position of the dump truck from the management server or the like via the communication device 25 shown in FIG. May be obtained. In the latter case, the processing device 51 may apply the dump truck model information to the acquired dump truck position as the dump truck position.
  • the processing device 51 compares the height of the dump truck with the height of the work machine 2, specifically the height of the cutting edge 8T of the bucket 8 and changes the display form of the first image IMC according to the comparison result. Good. By such processing, the operator can grasp the relationship between the height of the work machine 2 and the height of the dump truck, so that interference between the work machine 2 and the dump truck is suppressed.
  • the processing device 51 displays the first image IMC in red if the height of the work implement 2 is lower than the height of the dump truck, and the height and work of the dump truck. If the height of the machine 2 is equal, the first image IMC can be displayed in orange. If the height of the work machine 2 is higher than the height of the dump truck, the first image IMC can be displayed in green.
  • the processing device 51 When at least one of the third image 61, the first linear image 62, and the second linear image 63 is displayed together with the first image IMC, the processing device 51, together with the first image IMC, according to the height of the dump truck.
  • the display form of at least one of the third image 61, the first linear image 62, and the second linear image 63 may be changed.
  • the type of the work machine 2 and the type of the work machine are not limited as long as the work machine includes a turning body having the work machine 2.
  • embodiment is not limited by the content mentioned above.
  • constituent elements include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range.
  • the above-described components can be appropriately combined.
  • at least one of various omissions, replacements, and changes of the components can be made without departing from the scope of the embodiment and the modification.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

作業具を有する作業機及び前記作業機が取り付けられた旋回体を備えた作業機械に適用される作業機械の画像表示システムであり、前記作業機の姿勢及び位置の少なくとも一方を検出する位置検出部と、前記作業機械から作業対象までの距離の情報を求める距離検出装置と、前記位置検出部によって得られた前記作業具の位置の情報と、前記距離検出装置が求めた前記距離の情報から得られた前記作業対象の位置の情報とを用いて、前記作業具と対向する前記作業対象上において、前記作業具の一部に対応する部分を含み、かつ前記旋回体が旋回する方向に沿って延びる第1画像を生成して、表示装置に表示させる処理装置と、を含む。

Description

作業機械の画像表示システム
 本発明は、作業機械の画像表示システムに関する。
 特許文献1に記載されているように、油圧ショベル等の作業機械を遠隔操作する技術が知られている。
特開2004-294067号公報
 作業機械を遠隔操作する場合、作業機械のオペレータ視点の画像を用いた操作では、表示される画像が2次元のため、遠近感に乏しくなる。そのため、作業対象と作業機械との距離の把握が難しくなり、作業効率が低下する可能性がある。また、作業機械に搭乗したオペレータが作業機を操作する場合も、オペレータの熟練度によっては作業機と作業対象との距離を把握することが難しい場合があり、作業効率が低下する可能性もある。
 本発明の態様は、作業具を有する作業機を備えた作業機械を用いて作業する際の作業効率の低下を抑制することを目的とする。
 第1の態様によれば、作業具を有する作業機及び前記作業機が取り付けられた旋回体を備えた作業機械に適用される作業機械の画像表示システムであり、前記作業機の位置を検出する位置検出部と、前記作業機械から作業対象までの距離の情報を求める距離検出装置と、前記位置検出部によって得られた前記作業具の位置の情報と、前記距離検出装置が求めた前記距離の情報から得られた前記作業対象の位置の情報とを用いて第1画像を生成して、表示装置に表示させる処理装置と、を含み、前記第1画像は、前記作業具と対向する前記作業対象の表面で前記作業具に対応する第1位置の情報、及び前記第1位置から前記旋回体が旋回する方向に沿って延びる部分の位置の情報に基づいて生成される作業機械の画像表示システムが提供される。
 第2の態様によれば、第1の態様において、前記第1画像は、前記旋回体の旋回中心軸と前記作業具の一部との距離を半径とし、かつ前記旋回中心軸に対応する位置を中心とする円弧の画像である作業機械の画像表示システムが提供される。
 第3の態様によれば、第2の態様において、前記作業具はバケットであり、前記作業具の一部は、前記バケットの幅方向の中央に存在する前記バケットの刃先である作業機械の画像表示システムが提供される。
 第4の態様によれば、第1の態様から第3の態様のいずれか1つにおいて、前記処理装置は、前記作業対象の位置の情報を用いて前記作業対象の表面に沿った線画像を生成して、前記作業対象の画像と合成して前記表示装置に表示させる作業機械の画像表示システムが提供される。
 第5の態様によれば、第4の態様において、前記線画像は、前記旋回体の旋回中心軸に対応する位置から放射状に延びた複数の第1の線画像と、前記旋回中心軸を中心として前記旋回体の旋回方向に沿って延びる複数の第2の線画像とを備える作業機械の画像表示システムが提供される。
 第6の態様によれば、第1の態様から第5の態様のいずれか1つにおいて、前記旋回体に取り付けられる撮像装置を有し、前記処理装置は、前記第1画像と、前記撮像装置によって撮像された前記作業対象の画像である第2画像とを合成して、前記表示装置に表示させる作業機械の画像表示システムが提供される。
 第7の態様によれば、第6の態様において、前記処理装置は、前記作業機の姿勢を用いて前記作業機が前記第2画像に占める領域を求め、得られた前記領域を前記作業対象の形状の情報から除去する作業機械の画像表示システムが提供される。
 第8の態様によれば、第6の態様又は第7の態様において、前記撮像装置、前記位置検出部及び前記距離検出装置は前記作業機械に備えられ、前記処理装置及び前記表示装置は、前記作業機械を遠隔操作する操作装置を備えた施設に設けられる作業機械の画像表示システムが提供される。
 第9の態様によれば、作業具を有する作業機、前記作業機が取り付けられた旋回体、前記作業機の位置を検出する位置検出部、距離検出装置及び撮像装置を備えた作業機械に適用される作業機械の画像表示システムであり、表示装置と、前記位置検出部によって得られた前記作業具の位置の情報と、前記距離検出装置が求めた前記作業機械から作業対象までの距離の情報から得られた前記作業対象の位置の情報とを用いて第1画像を生成し、前記撮像装置によって撮像された前記作業対象の画像である第2画像と合成して、表示装置に表示させる処理装置と、を含み、前記第1画像は、前記作業具と対向する前記作業対象の表面で前記作業具に対応する第1位置の情報、及び前記第1位置から前記旋回体が旋回する方向に沿って延びる部分の位置の情報に基づいて生成される、作業機械の画像表示システムが提供される。
 第10の態様によれば、第9の態様に係る作業機械の画像表示システムと、前記作業機械が備える前記作業機を操作する操作装置と、を含む作業機械の遠隔操作システムが提供される。
 第11の態様によれば、第1の態様から第9の態様のいずれか1つに係る作業機械の画像表示システムを備えた作業機械が提供される。
 第12の態様によれば、作業具と、前記作業具を有する作業機と、前記作業機が取り付けられた旋回体と、前記旋回体に取り付けられた撮像装置と、を備えた作業機械に適用される作業機械の画像表示方法であり、前記作業機の姿勢を用いて得られた前記作業具の位置の情報と、前記作業機械から作業対象までの距離の情報から得られた前記作業対象の位置の情報とを用い、前記作業具の一部に、前記作業具と対向する前記作業対象の表面で対応する第1位置の情報、及び前記第1位置から前記旋回体が旋回する方向に沿って延びる部分の位置の情報に基づいて第1画像を生成する工程と、生成した前記第1画像を表示装置に表示させる工程と、を含み、前記第1画像は、前記作業具と対向する前記作業対象の表面で前記作業具に対応する第1位置の情報、及び前記第1位置から前記旋回体が旋回する方向に沿って延びる部分の位置の情報に基づいて生成される作業機械の画像表示方法が提供される。
 本発明は、作業具を有する作業機を備えた作業機械を用いて作業する際の作業効率の低下を抑制することができる。
図1は、実施形態に係る作業機械の画像表示システム及び作業機械の遠隔操作システムを示す図である。 図2は、実施形態に係る作業機械である油圧ショベルの制御系を示す図である。 図3は、実施形態に係る画像表示システム及び遠隔操作システムの座標系を説明するための図である。 図4は、油圧ショベルの背面図である。 図5は、撮像装置及び距離検出装置の座標系を説明する図である。 図6は、実施形態に係る画像表示システム及び遠隔操作システムが実行する制御例のフローチャートである。 図7は、撮像装置及び距離検出装置と作業対象とを示す図である。 図8は、占有領域を説明する図である。 図9は、占有領域を除去した作業対象の形状の情報を示す図である。 図10は、第1画像の一例を示す図である。 図11は、処理装置が第1画像を生成する処理を説明するための図である。 図12は、処理装置が第1画像を生成する処理を説明するための図である。 図13は、撮像装置の原点と、第1画像、第1直線画像及び第2直線画像との位置関係を示す図である。 図14は、図1に示された基準画像と第1画像とを示す図である。 図15は、作業用の画像を示す図である。 図16は、変形例に係る基準画像を示す図である。 図17は、第1画像及び第3画像の一例を示す図である。 図18は、変形例に係る油圧ショベルの制御系を示す図である。
 本発明を実施するための形態(実施形態)につき、図面を参照しつつ詳細に説明する。
<作業機械の画像表示システム及び作業機械の遠隔操作システムの概要>
 図1は、実施形態に係る作業機械の画像表示システム100及び作業機械の遠隔操作システム101を示す図である。作業機械の画像表示システム100(以下においては適宜、画像表示システム100と称する)は、オペレータが作業機械である油圧ショベル1を遠隔操作する際に、油圧ショベル1の作業対象WAと作業具であるバケット8とを撮像装置19で撮像し、得られた画像を表示装置52に表示させる。このとき、画像表示システム100は、作業対象WA上においてバケット8の位置を示すための画像60と、撮像装置19によって撮像された作業対象WAの画像68とを含む作業用の画像69を、表示装置52に表示させる。画像68は、バケット8の画像も含む。実施形態において、作業用の画像69は、さらに基準画像65を含む。基準画像65は、作業対象WAの表面に沿って表示される画像である。基準画像65は、作業対象WAの位置を表す指標となる。油圧ショベル1の作業対象は、油圧ショベル1が備える作業機2による作業の対象である地形面、すなわち作業対象WAである。
 画像表示システム100は、撮像装置19と、姿勢検出装置32と、距離検出装置20と、処理装置51とを含む。作業機械の遠隔操作システム101(以下においては適宜、遠隔操作システム101と称する)は、撮像装置19と、姿勢検出装置32と、距離検出装置20と、作業機制御装置27と、表示装置52と、処理装置51と、操作装置53とを含む。実施形態において、画像表示システム100の撮像装置19、姿勢検出装置32及び距離検出装置20は油圧ショベル1に備えられ、処理装置51は施設50に備えられる。施設50は、油圧ショベル1を遠隔操作したり、油圧ショベル1を管理したりするために用いられる。実施形態において、遠隔操作システム101の撮像装置19、姿勢検出装置32、距離検出装置20及び作業機制御装置27は油圧ショベル1に備えられ、表示装置52、処理装置51及び操作装置53は施設50に備えられる。
 画像表示システム100の処理装置51は、処理部51Pと、記憶部51Mと、入出力部51IOとを含む。処理部51Pは、例えばCPU(Central Processing Unit)のようなプロセッサが例示される。記憶部51Mは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスクドライブ、ストレージデバイス又はこれらの組合せが例示される。入出力部51IOは、処理装置51と外部機器とを接続するためのインターフェース回路である。実施形態において、入出力部51IOには、外部機器として、表示装置52、操作装置53及び通信装置54が接続されている。入出力部51IOに接続される外部機器はこれらに限定されるものではない。
 処理装置51は、作業機2の姿勢を用いて得られたバケット8の位置の情報と、距離検出装置20が求めた距離の情報から得られた作業対象WAの位置の情報とを用いて、バケット8と対向する作業対象WA上でバケット8に対応する第1位置の情報、及び第1位置から旋回体である上部旋回体3が旋回する方向に沿って延びる部分の位置の情報に基づいて生成される第1画像を、撮像装置19を基準として生成する。第1位置は、バケット8と対向する作業対象WA上でバケット8の一部に対応する位置であってもよい。処理装置51は、第1画像を、撮像装置19によって撮像された作業対象WAの画像68と合成して、表示装置52に表示させる。作業対象WAは、油圧ショベル1の作業機2が掘削又は地ならし等の作業をする対象となる面である。第1画像は、作業対象WA上においてバケット8の位置を示すための画像60に含まれる。以下において、画像68を適宜、第2画像68と称する。
 表示装置52は、液晶ディスプレイ又はプロジェクタが例示されるがこれらに限定されるものではない。通信装置54は、アンテナ54Aを備えている。通信装置54は、油圧ショベル1に備えられた通信装置25と通信して、油圧ショベル1の情報を取得したり、油圧ショベル1に情報を送信したりする。
 操作装置53は、オペレータの左側に設置される左操作レバー53Lと、オペレータの右側に配置される右操作レバー53Rと、を有する。左操作レバー53L及び右操作レバー53Rは、前後左右の操作が2軸の動作に対応されている。例えば、右操作レバー53Rの前後方向の操作は、油圧ショベル1が備える作業機2のブーム6の動作に対応している。右操作レバー53Rの左右方向の操作は、作業機2のバケット8の動作に対応している。左操作レバー53Lの前後方向の操作は、作業機2のアーム7の動作に対応している。左操作レバー53Lの左右方向の操作は、油圧ショベル1の上部旋回体3の旋回に対応している。
 左操作レバー53L及び右操作レバー53Rの操作量は、例えば、ポテンショメータ及びホールIC等によって検出され、処理装置51は、これらの検出値に基づいて電磁制御弁を制御するための制御信号を生成する。この信号は、施設50の通信装置54及び油圧ショベル1の通信装置25を介して作業機制御装置27に送られる。作業機制御装置27は、制御信号に基づいて電磁制御弁を制御することによって作業機2を制御する。電磁制御弁については後述する。
 処理装置51は、左操作レバー53L及び右操作レバー53Rの少なくとも一方に対する入力を取得し、作業機2及び上部旋回体3の少なくとも一方を動作させるための命令を生成する。処理装置51は、生成した命令を、通信装置54を介して油圧ショベル1の通信装置25に送信する。油圧ショベル1が備える作業機制御装置27は、通信装置25を介して処理装置51からの命令を取得し、命令にしたがって作業機2及び上部旋回体3の少なくとも一方を動作させる。
 油圧ショベル1は、通信装置25と、作業機制御装置27と、姿勢検出装置32と、撮像装置19と、距離検出装置20と、アンテナ21,22と、位置演算装置23とを備える。作業機制御装置27は、作業機2を制御する。通信装置25は、アンテナ24に接続されており、施設50に備えられた通信装置54と通信する。作業機制御装置27は、作業機2及び上部旋回体3を制御する。姿勢検出装置32は、作業機2及び油圧ショベル1の少なくとも一方の姿勢を検出する。撮像装置19は、油圧ショベル1に取り付けられて、作業対象WAを撮像する。距離検出装置20は、油圧ショベル1の所定の位置から作業対象WAまでの距離の情報を求める。アンテナ21,22は、測位衛星200からの電波を受信する。位置演算装置23は、アンテナ21,22が受信した電波を用いて、アンテナ21,22のグローバル位置、すなわちグローバル座標系における位置を求める。
<油圧ショベル1の全体構成>
 油圧ショベル1は、本体部としての車両本体1Bと作業機2とを有する。車両本体1Bは、上部旋回体3と走行体である走行装置5とを有する。上部旋回体3は、運転室4を有する。走行装置5は、上部旋回体3を搭載する。走行装置5は履帯を有している。走行装置5は、履帯が回転することにより、油圧ショベル1を走行させる。作業機2は、上部旋回体3の運転室4の側方側に取り付けられている。
 上部旋回体3は、作業機2及び運転室4が配置されている側が前であり、カウンタウェイト9が配置されている側が後である。前に向かって左側が上部旋回体3の左であり、前に向かって右側が上部旋回体3の右である。油圧ショベル1又は車両本体1Bは、上部旋回体3を基準として走行装置5側が下であり、走行装置5を基準として上部旋回体3側が上である。油圧ショベル1が水平面に設置されている場合、下は鉛直方向、すなわち重力の作用方向側であり、上は鉛直方向とは反対側である。
 作業機2は、ブーム6とアーム7と作業具であるバケット8とブームシリンダ10とアームシリンダ11とバケットシリンダ12とを有する。バケット8は、複数の刃8Bを有する。刃先8Tは、刃8Bの先端である。バケット8は、複数の刃8Bを有するものには限定されない。バケット8は、チルトバケットであってもよい。この他にも、作業機2は、バケット8の代わりに、法面バケット又は削岩用のチップを備えた削岩用のアタッチメント等を作業具として備えていてもよい。
 ブームシリンダ10とアームシリンダ11とバケットシリンダ12とは、それぞれ油圧ポンプから吐出される作動油の圧力によって駆動される油圧シリンダである。ブームシリンダ10はブーム6を駆動する。アームシリンダ11は、アーム7を駆動する。バケットシリンダ12は、バケット8を駆動する。
 上部旋回体3の上部には、アンテナ21,22及びアンテナ24が取り付けられている。アンテナ21,22は、油圧ショベル1の位置を検出するために用いられる。アンテナ21,22は、位置演算装置23と電気的に接続されている。
 アンテナ21,22は、GNSS(Kinematic-Global Navigation Satellite Systems:全地球航法衛星システムをいう)用のアンテナである。アンテナ21,22は、上部旋回体3の幅方向と平行な方向に沿って、一定距離だけ離れて配置されている。アンテナ21,22は、測位衛星200からGNSS電波を受信し、受信したGNSS電波に応じた信号を出力する。アンテナ21,22は、GPS(Global Positioning System)用のアンテナであってもよい。以下の説明において、アンテナ21,22を、適宜GNSSアンテナ21,22と称する。位置演算装置23は、例えばGNSSを利用して油圧ショベル1の位置を検出する。
 撮像装置19は、図1に示される作業対象WAを撮像し、距離検出装置20は、自身(油圧ショベル1の所定の位置)から作業対象WAまでの距離を求めるので、できる限り広い作業対象WAからの情報を取得することが好ましい。このため、実施形態において、アンテナ24、撮像装置19及び距離検出装置20は、上部旋回体3の運転室4の上方に設置される。撮像装置19及び距離検出装置20が設置される場所は運転室4の上方に限定されるものではない。例えば、撮像装置19及び距離検出装置20は、運転室4の内部かつ上方に設置されてもよい。
 撮像装置19は、入射面19Lが上部旋回体3の前方を向いている。距離検出装置20は、入射面20Lが上部旋回体3の前方を向いている。実施形態において、撮像装置19は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサのようなイメージセンサを備えた単眼カメラである。実施形態において、距離検出装置20は、3次元レーザーレンジファインダ又は距離センサである。撮像装置19及び距離検出装置20はこれらに限定されるものではない。例えば、撮像装置19及び距離検出装置20の代わりに、作業対象WAの画像を取得する機能と、作業対象WAまでの距離を求める機能との両方を有する装置が用いられてもよい。このような装置としては、例えば、ステレオカメラが例示される。
<油圧ショベル1の制御系>
 図2は、実施形態に係る作業機械である油圧ショベル1の制御系1Sを示す図である。制御系1Sは、通信装置25と、センサコントローラ26と、作業機制御装置27と、撮像装置19と、距離検出装置20と、位置演算装置23と、姿勢検出装置32と、IMU(Inertial Measurement Unit:慣性計測装置)33と、油圧システム36と、を備える。通信装置25と、センサコントローラ26と、作業機制御装置27とは、信号線35によって接続されている。このような構造により、通信装置25と、センサコントローラ26と、作業機制御装置27とは、信号線35を介して相互に情報をやり取りすることができる。制御系1S内で情報を伝達する信号線は、CAN(Controller Area Network)のような車内信号線が例示される。
 センサコントローラ26は、CPU等のプロセッサと、RAM及びROM等の記憶装置とを有する。センサコントローラ26には、位置演算装置23の検出値、撮像装置19によって撮像された画像の情報、距離検出装置20の検出値、姿勢検出装置32の検出値及びIMU33の検出値が入力される。センサコントローラ26は、入力された検出値及び画像の情報を、信号線35及び通信装置25を介して、図1に示される施設50の処理装置51に送信する。
 作業機制御装置27は、CPU等のプロセッサと、RAM及びROM等の記憶装置とを有する。作業機制御装置27は、施設50の処理装置51によって生成された、作業機2及び上部旋回体3の少なくとも一方を動作させるための命令を、通信装置25を介して取得する。作業機制御装置27は、取得した命令に基づいて、油圧システム36の電磁制御弁28を制御する。
 油圧システム36は、電磁制御弁28と、油圧ポンプ29と、ブームシリンダ10、アームシリンダ11、バケットシリンダ12及び旋回モータ30等の油圧アクチュエータとを備える。油圧ポンプ29は、エンジン31によって駆動されて、油圧アクチュエータを動作させるための作動油を吐出する。作業機制御装置27は、電磁制御弁28を制御することにより、ブームシリンダ10、アームシリンダ11、バケットシリンダ12及び旋回モータ30に供給される作動油の流量を制御する。このようにして、作業機制御装置27は、ブームシリンダ10、アームシリンダ11、バケットシリンダ12及び旋回モータ30の動作を制御する。
 センサコントローラ26は、第1ストロークセンサ16、第2ストロークセンサ17及び第3ストロークセンサ18の検出値を取得する。第1ストロークセンサ16はブームシリンダ10に、第2ストロークセンサ17はアームシリンダ11に、第3ストロークセンサ18はバケットシリンダ12に、それぞれ設けられる。
 第1ストロークセンサ16は、ブームシリンダ10の長さであるブームシリンダ長を検出してセンサコントローラ26に出力する。第2ストロークセンサ17は、アームシリンダ11の長さであるアームシリンダ長を検出してセンサコントローラ26に出力する。第3ストロークセンサ18は、バケットシリンダ12の長さであるバケットシリンダ長を検出してセンサコントローラ26に出力する。
 ブームシリンダ長、アームシリンダ長及びバケットシリンダ長が決定されれば、作業機2の姿勢が決定される。したがって、これらを検出する第1ストロークセンサ16、第2ストロークセンサ17及び第3ストロークセンサ18は、作業機2の姿勢を検出する姿勢検出装置32に相当する。姿勢検出装置32は、第1ストロークセンサ16、第2ストロークセンサ17及び第3ストロークセンサ18に限定されるものではなく、角度検出器であってもよい。
 センサコントローラ26は、第1ストロークセンサ16が検出したブームシリンダ長から、油圧ショベル1の座標系である車体座標系における水平面と直交する方向に対するブーム6の傾斜角を算出する。センサコントローラ26は、第2ストロークセンサ17が検出したアームシリンダ長から、ブーム6に対するアーム7の傾斜角を算出する。センサコントローラ26は、第3ストロークセンサ18が検出したバケットシリンダ長から、アーム7に対するバケット8の傾斜角を算出する。ブーム6、アーム7及びバケット8の傾斜角は、作業機2の姿勢を示す情報である。すなわち、センサコントローラ26は、作業機2の姿勢を示す情報を求める。センサコントローラ26は、算出した傾斜角を、信号線35及び通信装置25を介して、図1に示される施設50の処理装置51に送信する。
 位置演算装置23は、CPU等のプロセッサと、RAM及びROM等の記憶装置とを有する。位置演算装置23は、油圧ショベル1の位置を求める。詳細には、位置演算装置23は、アンテナ21,22から取得した信号を用いて、グローバル座標系におけるアンテナ21,22の位置及び上部旋回体3の方位を検出して、出力する。上部旋回体3の方位は、グローバル座標系における上部旋回体3の向きを表す。上部旋回体3の向きは、例えば、グローバル座標系の鉛直軸周りにおける上部旋回体3の前後方向の向きで表すことができる。方位角は、上部旋回体3の前後方向における基準軸の、グローバル座標系の鉛直軸周りにおける回転角である。方位角によって上部旋回体3の方位が表される。
 IMU33は、油圧ショベル1の動作及び姿勢を検出する。油圧ショベル1の動作は、上部旋回体3の動作及び走行装置5の動作の少なくとも一方を含む。油圧ショベル1の姿勢は、油圧ショベル1のロール角、ピッチ角及びヨー角によって表される。実施形態において、IMU33は、油圧ショベル1の角度又は角速度、及び加速度を検出して出力する。IMU33によって検出される油圧ショベル1の角度は、油圧ショベル1のロール角、ピッチ角及びヨー角である。
<座標系について>
 図3は、実施形態に係る画像表示システム100及び遠隔操作システム101の座標系を説明するための図である。図4は、油圧ショベル1の背面図である。図5は、撮像装置19及び距離検出装置20の座標系を説明する図である。
 画像表示システム100及び遠隔操作システム101においては、グローバル座標系と、車体座標系と、撮像装置19の座標系と、距離検出装置20の座標系とが存在する。グローバル座標系(Xg,Yg,Zg)は、地球に固定された原点PGを基準とした3次元の座標系である。実施形態において、グローバル座標系は、例えば、GNSS又はGPSにおける座標系である。
 車体座標系とは、油圧ショベル1を基準とした、(Xm,Ym,Zm)で示される3次元の座標系である。実施形態において、車体座標系の原点位置PLは、上部旋回体3の回転中心軸であるZm軸と、上部旋回体3のスイングサークル内においてZm軸と直交する平面との交点であるがこれに限定されるものではない。Xm軸は、上部旋回体3の前後方向に延び、かつZm軸と直交する軸である。Xm軸は、上部旋回体3の前後方向における基準軸である。Ym軸は、Zm軸及びXm軸と直交する、上部旋回体3の幅方向に延びる軸である。スイングサークル内においてZm軸と直交する平面は、スイングサークルのZm軸方向における中心を通る平面とすることができる。
 実施形態において、撮像装置19の座標系(以下においては適宜、撮像装置座標系と称する)は、図5に示されるように、撮像素子19RCの撮像面19Pの中心を原点PCとした、(Xc,Yc,Zc)で示される3次元の座標系である。撮像装置座標系(Xc,Yc,Zc)のXc軸は、撮像装置19の光学中心を通り、かつ撮像面19Pと直交する方向に延びる軸である。Yc軸は、Xc軸と直交する軸である。Zc軸は、Xc軸及びYc軸の両方と直交する軸である。
 実施形態において、距離検出装置20の座標系は、図5に示されるように、距離検出素子20RCの検出面20Pの中心を原点PDとした、(Xd,Yd,Zd)で示される3次元座標系である。
<油圧ショベル1の姿勢>
 図4に示されるように、上部旋回体3の左右方向、すなわち幅方向に対する傾斜角θ4は油圧ショベル1のロール角であり、上部旋回体3の前後方向に対する傾斜角θ5は油圧ショベル1のピッチ角であり、鉛直軸周りにおける上部旋回体3の角度は油圧ショベル1のヨー角である。ロール角、ピッチ角及びヨー角は、IMU33によって検出された角速度を時間で積分することにより求められる。
 IMU33が検出した加速度及び角速度は、動作情報としてセンサコントローラ26に出力される。センサコントローラ26は、IMU33から取得した動作情報にフィルタ処理及び積分といった処理を施して、ロール角である傾斜角θ4と、ピッチ角である傾斜角θ5と、ヨー角とを求める。センサコントローラ26は、求めた傾斜角θ4、傾斜角θ5及びヨー角を、油圧ショベル1の姿勢に関連する情報として、図2に示される信号線35及び通信装置25を介して、図1に示される施設50の処理装置51に送信する。
 センサコントローラ26は、前述したように、作業機2の姿勢を示す情報を求める。作業機2の姿勢を示す情報は、具体的には、車体座標系における水平面と直交する方向(Zm軸方向)に対するブーム6の傾斜角θ1、ブーム6に対するアーム7の傾斜角θ2及びアーム7に対するバケット8の傾斜角θ3である。図1に示される施設50の処理装置51は、油圧ショベル1のセンサコントローラ26から取得した作業機2の姿勢を示す情報、すなわち傾斜角θ1,θ2,θ3からバケット8の刃先8Tの位置(以下においては適宜、刃先位置と称する)P4を算出する。
 処理装置51の記憶部51Mは、作業機2のデータ(以下においては適宜、作業機データと称する)を記憶している。作業機データは、ブーム6の長さL1、アーム7の長さL2及びバケット8の長さL3を含む。図3に示されるように、ブーム6の長さL1は、ブームピン13からアームピン14までの長さに相当する。アーム7の長さL2は、アームピン14からバケットピン15までの長さに相当する。バケット8の長さL3は、バケットピン15からバケット8の刃先8Tまでの長さに相当する。刃先8Tは、図1に示される刃8Bの先端である。作業機データは、車体座標系の原点位置PLに対するブームピン13までの位置の情報を含む。処理装置51は、長さL1,L2,L3,傾斜角θ1,θ2,θ3及び原点位置PLを用いて、原点位置PLに対する刃先位置P4を求めることができる。実施形態において、施設50の処理装置51が刃先位置P4を求めたが、油圧ショベル1のセンサコントローラ26が刃先位置P4を求めて施設50の処理装置51に送信してもよい。刃先位置P4は、作業機2の一部であるバケット8の刃先8Tの位置なので、作業機2の位置である。前者の場合、姿勢検出装置32、センサコントローラ26及び処理装置51が、作業機2の位置を検出する位置検出部に相当する。後者の場合、姿勢検出装置32及びセンサコントローラ26が、作業機2の位置を検出する位置検出部に相当する。
 位置検出部は、前述した姿勢検出装置32、センサコントローラ26及び処理装置51、又は姿勢検出装置32及びセンサコントローラ26に限定されない。例えば、ステレオカメラ又はレーザスキャナ等の距離計測装置で作業機の位置を検出してもよい。この場合、距離計測装置が、作業機の位置を検出する位置検出部に相当する。
<画像表示システム100及び遠隔操作システム101が実行する制御例>
 図6は、実施形態に係る画像表示システム100及び遠隔操作システム101が実行する制御例のフローチャートである。図7は、撮像装置19及び距離検出装置20と作業対象WAとを示す図である。
 ステップS101において、図2に示されるセンサコントローラ26は、油圧ショベル1の情報を取得する。油圧ショベル1の情報は、撮像装置19、距離検出装置20、位置演算装置23、姿勢検出装置32及びIMU33から得られる情報である。撮像装置19は、図7に示されるように、撮像範囲TA内で作業対象WAを撮像し、作業対象WAの画像を得る。距離検出装置20は、検出範囲MA内に存在する作業対象WA及びその他の物体までの、距離検出装置20からの距離Ldを検出する。位置演算装置23は、グローバル座標系におけるGNSSアンテナ21,22の位置P1,P2に対応する基準位置情報Pga1,Pga2を求める。姿勢検出装置32は、ブームシリンダ長、アームシリンダ長及びバケットシリンダ長を検出する。IMU33は、油圧ショベル1の姿勢、より詳細には、上部旋回体3のロール角θ4、ピッチ角θ5及びヨー角を検出する。
 ステップS102において、画像表示システム100及び遠隔操作システム101の処理装置51は、油圧ショベル1の通信装置25及び処理装置51に接続された通信装置54を介して、油圧ショベル1のセンサコントローラ26から油圧ショベル1の情報を取得する。
 処理装置51がセンサコントローラ26から取得する油圧ショベル1の情報は、撮像装置19によって撮像された作業対象WAの画像と、距離検出装置20によって検出された、距離検出装置20から作業対象WAまでの距離の情報と、姿勢検出装置32によって検出された油圧ショベル1が備える作業機2の姿勢の情報と、基準位置情報Pga1,Pga2と、油圧ショベル1の姿勢の情報と、を含む。
 距離検出装置20から作業対象WAまでの距離の情報は、検出範囲MA内に存在する作業対象WA又は物体OBまでの距離Ldと、距離Ldに対応する位置Pdの方位の情報とを含む。図7に示される例では、作業対象WAまでの距離として距離Ldが示される。位置Pdの方位の情報は、距離検出装置20を基準としたときの位置Pdの方位であり、距離検出装置20の座標系の各軸Xd,Yd,Zdに対する角度である。処理装置51が取得する作業機2の姿勢の情報は、ブームシリンダ長、アームシリンダ長及びバケットシリンダ長を用いてセンサコントローラ26が求めた、作業機2の傾斜角θ1,θ2,θ3である。油圧ショベル1の姿勢の情報は、油圧ショベル1、より具体的には上部旋回体3のロール角θ4、ピッチ角θ5及びヨー角である。
 処理装置51は、センサコントローラ26から取得した作業機2の傾斜角θ1,θ2,θ3と、記憶部51Mに記憶されているブーム6の長さL1、アーム7の長さL2及びバケット8の長さL3とを用いて、バケット8の刃先位置P4を求める。バケット8の刃先位置P4は、油圧ショベル1の車体座標系(Xm,Ym,Zm)における座標の集合である。
 ステップS103において、処理装置51は、作業対象WAまでの距離の情報を用いて、作業対象WAまでの距離Ldを位置の情報に変換する。位置の情報は、距離検出装置20の座標系(Xd,Yd,Zd)における位置Pdの座標である。ステップS103においては、検出範囲MA内で距離検出装置20によって検出されたすべての距離Ldが、位置の情報に変換される。処理装置51は、距離Ldと、距離Ldに対応する位置Pdの方位の情報とを用いて、距離Ldを位置の情報に変換する。ステップS103においては、検出範囲MA内に存在する物体OBまでの距離も、作業対象WAの距離Ldと同様に、位置の情報に変換される。ステップS103の処理によって、検出範囲MA内における作業対象WAの位置の情報が得られる。作業対象WAの位置の情報から、作業対象WAの形状の情報を得ることができる。
 作業対象WAの位置の情報及び形状の情報は、距離検出装置20の座標系(Xd,Yd,Zd)における位置Pdの座標の集合である。処理装置51は、作業対象WAの形状の情報を撮像装置座標系(Xc,Yc,Zc)の値に変換した後、車体座標系(Xm,Ym,Zm)の値に変換する。次に、ステップS104において、処理装置51は、占有領域SAを求める。
 図8は、占有領域SAを説明する図である。占有領域SAは、作業対象WAの形状の情報内において、作業機2が占める領域である。図8に示される例では、作業機2のバケット8が距離検出装置20の検出範囲MA内、かつ距離検出装置20と作業対象WAとの間に入っている。このため、占有領域SAの部分は、距離検出装置20によって、作業対象WAまでの距離ではなくバケット8までの距離が検出される。ステップS105において、処理装置51は、ステップS103で得られた作業対象WAの形状の情報から、占有領域SAの部分を除去する。
 占有領域SAの部分を除去するにあたって、処理装置51は、バケット8の位置及び姿勢の少なくとも一方に応じて距離検出装置20が検出する位置及び姿勢の少なくとも一方の情報を、例えば記憶部51Mに記憶させておく。このような情報は、本実施形態において油圧ショベル1の作業機2の姿勢に含まれる。作業機2の姿勢は、作業機2の傾斜角θ1,θ2,θ3、ブーム6の長さL1、アーム7の長さL2及びバケット8の長さL3を用い、必要に応じて油圧ショベル1の姿勢を用いて求めることができる。そして、処理装置51は、距離検出装置20によって検出された情報と記憶部51Mに記憶されている情報とを比較し、両者がマッチングしたなら、バケット8が検出されたものとすることができる。両者がマッチングした部分が占有領域SAに対応するので、処理装置51は、作業対象WAの形状の情報から、占有領域SAの部分を除去する。
 作業機2の姿勢を用いて占有領域SAを除去する処理により、処理装置51は、図1に示される、作業対象WAの位置を表す指標となる基準画像65を生成する際に、占有領域SAのバケット8の情報を使わないので、基準画像65を正確に生成できる。
 作業機2の姿勢を用いて占有領域SAの部分を除去する処理は、次のような方法によって行われてもよい。作業機2の姿勢に含まれる、バケット8の車体座標系における位置及び姿勢の少なくとも一方に関する情報は、作業機2の傾斜角θ1,θ2,θ3、ブーム6の長さL1、アーム7の長さL2及びバケット8の長さL3から求められる。ステップS103で、車体座標系における作業対象WAの形状の情報が得られている。ステップS105において、処理装置51は、バケット8の位置を作業対象WAの形状の情報に投影した領域を占有領域SAとして、作業対象WAの形状から除去する。
 図9は、占有領域を除去した作業対象WAの形状の情報を示す図である。作業対象WAの形状の情報IMWAは、車体座標系(Xm,Ym,Zm)における座標Pmd(Xmd、Ymd、Zmd)の集合である。占有領域SAは、ステップS105の処理により、座標の情報が存在しない。次に、ステップS106に進み、処理装置51は第1画像を生成する。第1画像は、作業対象WA上において、バケット8に対応する部分又はバケット8の一部に対応する部分を含み、かつ油圧ショベル1の上部旋回体3が旋回する方向に沿って延びる画像である。
<第1画像>
 図10は、第1画像IMCの一例を示す図である。図11及び図12は、処理装置51が第1画像IMCを生成する処理を説明するための図である。実施形態において、図10に示される第1画像IMCは、作業対象WA上でのバケット8の刃先8Tの位置を示すとともに、作業機2が現在の姿勢を維持したまま上部旋回体3が旋回した場合の作業対象WAの表面における刃先8Tの位置を示す。次に、処理装置51が第1画像IMCを生成する処理を説明する。
 第1画像IMCは、図10及び図12に示されるように、上部旋回体3の旋回中心軸である車体座標系のZm軸から見て、Zm軸とバケット8との距離Rbtを半径とし、かつZm軸に対応する位置を中心とする円弧の画像である。実施形態において、距離Rbtを求める際に用いられるバケット8の位置は、図12に示されるように、バケット8の幅方向Wbの中央に存在するバケット8の刃先8Tの位置である。距離Rbtを求める際に用いられるバケット8の位置は、バケット8の幅方向Wbの中央における刃先8Tには限定されない。距離Rbtは、車体座標系のXm-Ym平面と平行な方向に沿った、車体座標系のZm軸と、バケット8の幅方向Wbの中央における刃先8Tの位置Pbt(Xmbt,Ymbt,Zmbt)との距離である。位置Pbt(Xmbt,Ymbt,Zmbt)は、車体座標系における位置である。
 図12の線LCは、バケット8の幅方向Wbの中央を示す。バケット8の幅方向Wbは、バケット8とアーム7とを連結するバケットピン15が延びる方向と平行な方向であり、車体座標系のYm軸と平行な方向である。距離Rbtは、車体座標系において、Xm軸と平行な方向に沿った、Zm軸とバケット8の刃先8Tとの距離である。
 第1画像IMCが示す位置は、作業対象WAの表面WASの位置である。処理装置51は、車体座標系のZm軸を中心とした距離Rbtを半径とする円弧を、作業対象WAの表面WASへ車体座標系のZm軸と平行な方向に投影した部分(以下においては適宜、交差部分と称する)の位置Pt(Xmt,Ymt,Zmt)を求める。交差部分の画像が第1画像IMCとなる。
 交差部分の位置Pt(Xmt,Ymt,Zmt)は、例えば、車体座標系のZm軸を中心とした距離Rbtを半径とする曲面と、作業対象WAの表面WASとが交差する部分の位置となる。バケット8の幅方向Wbの中央に存在するバケット8の刃先8Tを通り、かつ車体座標系のZm軸と平行な方向に延びる直線VLが作業対象WAの表面WASと交差する部分は、交差部分の一部の位置である。処理装置51は、交差部分の位置Pt(Xmt,Ymt,Zmt)の情報を用いて、第1画像IMCを生成する。第1画像IMCは、交差部分の位置Pt(Xmt,Ymt,Zmt)の情報に対応している。
 交差部分の位置Pt(Xmt,Ymt,Zmt)の中の第1位置Ptcは、バケット8と対向する作業対象WAの表面WASでバケット8の位置、実施形態においてはバケット8の幅方向Wbの中央に存在するバケット8の刃先8Tの位置に対応する。第1位置Ptcは、幅方向Wb中央における刃先8Tの位置には限定されず、例えば幅方向Wbの一端部における位置であってもよい。
 第1位置Ptcから上部旋回体3の旋回方向Rtdに沿って延びる部分の位置は、交差部分の位置Pt(Xmt,Ymt,Zmt)のうち、第1位置Ptcから旋回方向Rtdに沿って延びる部分の位置である。第1画像IMCは、第1位置Ptcの情報、及び第1位置Ptcから旋回方向Rtdに沿って延びる部分の位置の情報に対応する。すなわち、第1画像IMCは、第1位置Ptcの情報、及び第1位置Ptcから旋回方向Rtdに沿って延びる部分の位置の情報に基づいて生成される。
 実施形態において、処理装置51は、直線LV1の画像である第1直線画像62、及び直線LV2の画像である第2直線画像63も図1に示される表示装置52に表示させる。直線LV1は、バケット8の幅方向Wbの一方の端部8Wt1側における刃8Bの外側の位置Pb1から、車体座標系のZm軸と平行な方向に沿って作業対象WAの表面WASまで延ばした直線である。直線LV2は、バケット8の幅方向Wbの他方の端部8Wt2側における刃8Bの外側の位置Pb2から、車体座標系のZm軸と平行な方向に沿って作業対象WAの表面WASまで延ばした直線である。直線LV1と作業対象WAの表面WASとが交差する部分の位置をPt1、直線LV2と作業対象WAの表面WASとが交差する部分の位置をPt2とする。車体座標系におけるバケット8の各部の位置及び車体座標系における作業対象WAの表面WASの位置が分かっているので、処理装置51は、これらの位置から位置Pb1,Pb2,Pt1,Pt2を求めることができる。位置Pb1,Pb2,Pt1,Pt2が得られれば、直線LV1及び直線LV2も得られるので、処理装置51は、第1直線画像62及び第2直線画像63を生成することができる。
 第1画像IMC、第1直線画像62及び第2直線画像63が得られたら、処理装置51は、これらを撮像装置19の視点の画像に変換する。撮像装置19の視点の画像は、撮像装置19を基準とした画像である。次に、第1画像IMC、第1直線画像62及び第2直線画像63を撮像装置19の視点の画像に変換するための処理について説明する。
 図13は、撮像装置19の原点PCと、第1画像IMC、第1直線画像62及び第2直線画像63との位置関係を示す図である。撮像装置19の視点の画像は、車体座標系(Xm,Ym,Zm)における撮像装置19の原点PCから第1画像IMC、第1直線画像62及び第2直線画像63を見たときの画像である。
 第1画像IMC、第1直線画像62及び第2直線画像63は、3次元空間内の画像であるが、撮像装置19の視点の画像は2次元の画像である。したがって、処理装置51は、3次元空間、すなわち車体座標系(Xm,Ym,Zm)内に定義された第1画像IMC、第1直線画像62及び第2直線画像63を、2次元面上に投影する透視投影変換を実行する。撮像装置19の視点の画像に変換された第1画像IMC、第1直線画像62及び第2直線画像63は、図1に示された、作業対象WA上においてバケット8の位置を示すための画像60である。以下においては画像60を適宜、案内画像60と称する。
 図14は、図1に示された基準画像65と第1画像IMCとを示す図である。案内画像60が生成されたら、ステップS107に進み、処理装置51は、基準画像65を生成する。基準画像65は、作業対象WAの表面WASに沿った線画像である。処理装置51は、作業対象WAの位置の情報、詳細には作業対象WAの表面WASにおける位置の情報を用いて、基準画像65を生成する。
 基準画像65は、上部旋回体3の旋回中心軸であるZm軸に対応する位置から放射状に延びた複数の第1の線画像RLと、Zm軸を中心として上部旋回体3の旋回方向Rtdに沿って延びる複数の第2の線画像CLとを備える。実施形態において、複数の第1の線画像RLは、車体座標系(Xm,Ym,Zm)のZm軸方向から見て、Zm軸から放射状に延び、かつZm軸を中心とした円の周方向に沿って配置される線画像である。複数の第2の線画像CLは、車体座標系(Xm,Ym,Zm)のZm軸方向から見て、Zm軸を中心とした円の周方向に沿って延びる円弧又は円の画像であり、Zm軸を中心とした円の径方向に沿って配置される。
 第1の線画像RL及び第2の線画像CLは、車体座標系(Xm,Ym,Zm)で定義されるので、3次元の情報を含んでいる。実施形態において、複数の第1の線画像RLは、Zm軸を中心とした円の周方向に沿って、角度α毎に等間隔に配置される。複数の第2の線画像CLは、Zm軸を中心とした円の径方向に沿って、距離ΔR毎に等間隔に配置される。
 処理装置51は、第1の線画像RL及び第2の線画像CLを生成したら、これらを撮像装置19の視点の画像に変換して、基準画像65を生成する。第1の線画像RL及び第2の線画像CLが撮像装置19の視点の画像に変換されることで、表示装置52は、基準画像65を作業対象WAの形状に合わせて変形させて表示させることができる。
 次に、ステップS108において、処理装置51は、生成された案内画像60及び基準画像65から、前述した占有領域SAを除去する。案内画像60及び基準画像65は、作業対象WAの形状の情報から生成されるので、案内画像60及び基準画像65から占有領域SAを除去することは、占有領域SAを作業対象WAの形状の情報から除去することを意味する。処理装置51は、占有領域SAを除去した作業対象WAの形状の情報を用いて、案内画像60及び基準画像65を生成してもよい。
 ステップS108において、処理装置51は、占有領域SAを撮像装置19の視点の画像に変換して、案内画像60及び基準画像65から除去する。処理装置51は、撮像装置19の視点の画像に変換される前の第1画像IMC、第1直線画像62及び第2直線画像63と、撮像装置19の視点の画像に変換される前の第1の線画像RL及び第2の線画像CLとから、それぞれ撮像装置19の視点の画像に変換される前の占有領域SAを除去してもよい。
 図15は、作業用の画像69を示す図である。ステップS109において、処理装置51は、占有領域SAが除去された案内画像60と、基準画像65と、撮像装置19によって撮像された作業対象WAの第2画像68とを合成して、作業用の画像69を生成する。ステップS110において、処理装置51は、生成された作業用の画像69を表示装置52に表示させる。作業用の画像69は、作業対象WAの画像68と、基準画像65と、案内画像60とが合成された画像である。
 基準画像65は、上部旋回体3の旋回中心軸を中心とした円の周方向及び径方向に沿って、作業対象WAの表面WASに延びる複数の線画像なので、油圧ショベル1のオペレータは、基準画像65を参照することにより、作業対象WAの位置を把握することができる。例えば、オペレータは、第2の線画像CLにより奥行き、すなわち油圧ショベル1が備える上部旋回体3の前後方向の位置を把握でき、第1の線画像RLにより上部旋回体3の旋回方向Rtdにおける位置を把握できる。
 距離Rbtは、バケット8とZm軸との距離に応じて変化するので、第1画像IMCもバケット8とZm軸との距離に応じて、油圧ショベル1から遠ざかったり油圧ショベル1に近づいたりする。第1画像IMCは、バケット8の現在の位置に応じて移動するので、オペレータは、第1画像IMCを参照しながら作業機2を操作することで、作業対象WAとバケット8との位置を把握できる。その結果、作業効率の低下が抑制される。また、作業の精度の低下が抑制される。
 オペレータは、第1画像IMCと第2の線画像CLとを参照することで、現在の作業機2の姿勢のまま上部旋回体3が旋回した場合に、掘削対象の位置がバケット8よりも遠い側にあるのか又は近い側にあるのかを容易に把握できる。その結果、作業効率の低下が抑制される。また、作業の精度の低下が抑制される。
 第1直線画像62及び第2直線画像63は、作業対象WAの表面WASにおけるバケット8の刃先8Tの位置を示す。すなわち、作業対象WAの表面WASにおいて第1直線画像62と第2直線画像63とで挟まれる部分がバケット8の刃先8Tの位置になる。このため、オペレータは、第1直線画像62及び第2直線画像63により、バケット8と作業対象WAとの位置関係をより容易に把握できる。その結果、作業効率の低下が抑制される。また、作業の精度の低下が抑制される。
 基準画像65及び第1画像IMCは、作業対象WA、例えば油圧ショベル1が作業する対象の地形の形状に沿って表示されるため、表示装置52に2次元で表示された地形面上において、基準画像65と第1画像IMCとの相対位置関係が容易に把握できる。さらに、基準画像65を構成する、第1の線画像RL及び第2の線画像CLは、車体座標系において等間隔に配置されているため、オペレータは地形面上での距離感をつかみやすく、遠近感の把握が容易になる。
 実施形態において、作業用の画像69は、バケット8の刃先8Tと作業対象WAとの距離を示す情報64を含んでもよい。情報64により、オペレータは、バケット8の刃先8Tと作業対象WAとの実際の距離を把握できるという利点がある。バケット8の刃先8Tと作業対象WAとの距離は、バケット8の幅方向Wbの中央における刃先8Tから作業対象WAの表面WASまでの距離とすることができる。
 情報64は、作業具又は作業対象WAに関する空間位置情報であればよい。空間位置情報は、バケット8の刃先8Tと作業対象WAとの距離に代え、又はその距離に加えて、バケット8の角度といった姿勢に関する情報、バケット8と作業対象WAとの相対距離を示す情報、バケット8の例えば刃先8Tの向きと作業対象WAの面の向きとの関係を示す情報、バケット8の位置を座標で示した情報、作業対象WAの面の向きを示す情報及び撮像装置19からバケット8の刃先8Tまでの車体座標系におけるXm方向の距離を示す情報といった情報を含む。
 すなわち、処理装置51は、作業具であるバケット8の位置、バケット8の姿勢、作業対象WAの位置、作業対象WAの相対的な姿勢、バケット8と作業対象WAとの相対的な距離、バケット8と作業対象WAとの相対的な姿勢の少なくとも1つを求めて、表示装置52に表示させてもよい。
<変形例に係る基準画像>
 図16は、変形例に係る基準画像65aを示す図である。基準画像65aは、車体座標系を極座標系とした基準画像65とは異なり、車体座標系(Xm,Ym,Zm)におけるZm軸の方向から見て、複数の第1の直線画像66と、これらに直交する複数の第2の直線画像67とで形成される格子の画像である。複数の第1の直線画像66は、車体座標系のXm軸に平行であり、複数の第2の直線画像67は、車体座標系のYm軸に平行である。複数の第1の直線画像66が配列される間隔は等しい。また複数の第2の直線画像67が配列される間隔は等しい。そして、複数の第1の直線画像66が配列される間隔と、複数の第2の直線画像67が配列される間隔とは等しい。
 処理装置51は、占有領域SAが除去された案内画像60と、基準画像65aと、撮像装置19によって撮像された作業対象WAの第2画像68とを合成して、作業用の画像69を生成する。処理装置51がこのような格子画像を案内画像60とともに表示装置52に表示させることによっても、オペレータは、旋回時及び掘削時にバケット8の位置と作業対象WAとの位置関係を容易に把握することができる。
<第3画像>
 図17は、第1画像IMC及び第3画像61の一例を示す図である。第3画像61は、位置Pt1と、位置Pt2とを結び、かつ作業対象WAの表面WASに沿った線画像である。位置Pt1は、第1直線画像62に対応する直線LV1と作業対象WAの表面WASとが交差する部分の位置である。位置Pt2は、第2直線画像63に対応する直線LV2と作業対象WAの表面WASとが交差する部分の位置である。処理装置51は、第1位置Pt1と第2位置Pt2とを結ぶ直線を作業対象WAの表面WASに投影したときの表面WASの位置の集合を第3画像61とする。バケット8の幅方向Wbにおける中央の位置の刃先8Tから延びる、車体座標系のZm軸と平行な直線が、作業対象WAの表面WASと交差する位置Ptは、第3画像61の一部である。また、位置Ptは、第1画像IMCの一部でもある。
 処理装置51は、第1画像IMCに加えて第3画像61を表示装置52に表示させてもよい。第3画像61により、オペレータは、作業対象WAの表面WASにおけるバケット8の現在の位置を把握できる。その結果、オペレータは、バケット8と作業位置との位置関係を容易かつ確実に把握できる。処理装置51は、第1画像IMC及び第3画像61を表示装置52に表示させる場合、両者の表示形態を異ならせてもよい。表示形態を異ならせることには、例えば、第1画像IMCの色と第3画像61の色とを異ならせること、第1画像IMCの線の太さと第3画像61の線の太さとを異ならせること、第1画像IMCの線の種類と第3画像61の線の種類とを異ならせること、及びこれらの2以上を組み合わせることが含まれる。第1画像IMCと第3画像61との表示形態を異ならせることにより、オペレータは、第3画像61を第1画像IMCと区別しやすくなる。
<変形例に係る油圧ショベル1の制御系>
 図18は、変形例に係る油圧ショベル1の制御系1Saを示す図である。前述した画像表示システム100及び遠隔操作システム101は、図1に示される施設50の操作装置53を用いて油圧ショベル1を遠隔操作した。本変形例は、図1に示される運転室4内に表示装置52aが設けられている。本変形例は、油圧ショベル1にオペレータの作業を補助させるために、作業用の画像69が表示装置52aに表示される。
 制御系1Saは、前述した制御系1Sの信号線35に、処理装置51が接続されている。また、制御系1Saは、前述した制御系1Sの信号線35に、作業機制御装置17を介して操作装置53aが接続されている。処理装置51には、表示装置52aが接続されている。制御系1Saが備える処理装置51は、前述した画像表示システム100及び遠隔操作システム101において図1に示される施設50に備えられる処理装置51と同様の機能を有している。処理装置51及び表示装置52aによって、変形例に係る画像表示システム100aが構成される。
 変形例において、処理装置51が位置検出装置32及びセンサコントローラ26の検出値を用いて刃先位置P4を求めてもよいし、センサコントローラ26が位置検出装置32の検出値を用いて刃先位置P4を求めてもよい。前者の場合、位置検出装置32、センサコントローラ26及び処理装置51が、作業具の位置を検出する位置検出部に相当する。後者の場合、位置検出装置32及びセンサコントローラ26が、作業具の位置を検出する位置検出部に相当する。位置検出部は、前述した、ステレオカメラ又はレーザスキャナ等の距離計測装置であってもよい。
 制御系1Saの表示装置52aは、運転席のフロントウィンドウFGに画像を投影するヘッドアップディスプレイである。表示装置52aは、ヘッドマウントディスプレイであってもよい。表示装置52aは、フロントウィンドウFG越しに見えるバケット8に合わせた位置に、作業用の画像69を表示する。この場合、作業対象WA及びバケット8はフロントウィンドウFG越しに見えるので、表示装置52aが表示する作業用の画像69は、少なくとも第1画像IMCを含んでいればよい。すなわち、表示装置52aがヘッドアップディスプレイ又はヘッドマウントディスプレイである場合、処理装置51は、第1画像IMCを表示装置52aに表示させる。変形例では、第1画像IMCに加えて、基準画像65も表示装置52aに表示される。
 表示装置52aはヘッドアップディスプレイには限定されず、通常のディスプレイであってもよい。表示装置52aが通常のディスプレイである場合、処理装置51は、少なくとも第1画像IMCと撮像装置19によって撮像された第2画像68とが合成された作業用の画像69を、表示装置52aに表示させる。
 操作装置53aは、油圧ショベル1を操作するための装置であり、左操作レバー53La及び右操作レバー53Raを備えている。操作装置53aは、パイロット油圧方式であってもよいし、電気方式であってもよい。
 制御系1Saを備える油圧ショベル1は、画像表示システム100aによって、所定の位置、例えば運転席に着座したオペレータの視点に対応する位置から作業対象WAを見た場合に、第1画像IMCを少なくとも含む作業用の画像69が、フロントウィンドウFGに表示される。このような処理により、オペレータは、フロントウィンドウFGに表示された第1画像IMCによって、バケット8と作業位置との位置関係を容易かつ確実に把握できる。その結果、画像表示システム100aは、作業効率の低下及び作業の精度の低下を抑制させることができる。バケット8が油圧ショベル1の車両本体1Bから離れるほど、オペレータは遠近感を把握し難くなるため、このような場合において、画像表示システム100aは、作業効率及び作業の精度の低下を抑制するができる。
 また、経験の浅いオペレータも、画像表示システム100aを備える油圧ショベル1を用いることにより、バケット8の遠近感を把握しやすくなる。その結果、作業効率の低下が抑制される。また、作業の精度の低下が抑制される。さらに、夜間作業のように、オペレータが実際の作業対象WAを目視し難い状況であっても、オペレータは表示装置52aに表示された作業用の画像69を見ながら作業することができるので、作業効率及び作業の精度の低下が抑制される。
 画像表示システム100,100a及び遠隔操作システム101は、撮像装置19の視点で生成された案内画像60及び基準画像65又は65aを、撮像装置19によって撮像された実際の作業対象WAの画像68と重ね合わせて、表示装置52に表示する。このような処理により、画像表示システム100,100a及び遠隔操作システム101は、表示装置52に表示された作業対象WAの画像を用いて油圧ショベル1を遠隔操作するオペレータに、バケット8の位置と作業対象WAとの位置関係を把握させやすくすることができる。その結果、作業効率の低下が抑制される。また、作業の精度の低下が抑制される。
 案内画像60に含まれる第1画像IMCは、上部旋回体3の旋回方向Rtdに沿って延びるので、オペレータは、案内画像60を参照することで、上部旋回体3が旋回した場合におけるバケット8と作業対象WAにおける作業地点との相対的な位置関係を容易に把握できる。その結果、画像表示システム100,100a及び遠隔操作システム101は、旋回体を有する作業機械において、作業効率の低下を抑制させることができ、また作業の精度の低下を抑制させることができる。
 経験の浅いオペレータも、画像表示システム100,100a及び遠隔操作システム101を用いることにより、バケット8の位置と作業対象WAにおける作業地点との位置関係を容易に把握できる。その結果、作業効率及び作業の精度の低下が抑制される。また、画像表示システム100,100a及び遠隔操作システム101は、案内画像60と、基準画像65又は65aと、実際の作業対象WAの画像68とを重ね合わせて表示装置52に表示することにより、作業中にオペレータが注目する画面を単一として、作業効率の低下を抑制できる。
 基準画像65又は65aは、隣接する第1の線画像RL同士の間隔が等しく、隣接する第2の線画像CL同士の間隔が等しい。このため、基準画像65又は65aと、撮像装置19によって撮像された実際の作業対象WAの画像68とを重ね合わせて表示することにより、作業対象WAでの作業地点を把握しやすくなる。また、案内画像60の第1画像IMCと基準画像65とを重ね合わせることにより、オペレータは、バケット8が移動した距離を把握することが容易になるので、作業効率の低下が抑制される。
 案内画像60及び基準画像65又は65aは、作業機2の領域である占有領域SAが除去されるので、案内画像60及び基準画像65又は65aは、占有領域SAによる歪み及び作業機2に案内画像60及び基準画像65が重畳して表示されることを回避できる。その結果、画像表示システム100,100a及び遠隔操作システム101は、オペレータにとって見やすい形態で作業用の画像69を表示装置52に表示できる。
 実施形態及び変形例において、案内画像60は、少なくとも第1画像IMCを含んでいればよい。すなわち、案内画像60は、第1直線画像62及び第2直線画像63を含まなくてもよい。また、処理装置51は、バケット8の刃先8Tと作業対象WAとの距離に応じて、案内画像60のうち、例えば第1画像IMCの表示形態を変更してもよい。このようにすることで、オペレータは、バケット8の位置と作業対象WAとの距離を把握しやすくなる。
 実施形態において、処理装置51は、少なくとも第1画像IMC及び第2画像68を表示装置52に表示させればよい。この場合でも、オペレータは、上部旋回体3の旋回方向Rtdに沿って延びる第1画像IMCを参照することで、上部旋回体3が旋回した場合におけるバケット8と作業対象WAにおける作業地点との相対的な位置関係を容易に把握できる。その結果、少なくとも第1画像IMC及び第2画像68が表示装置52に表示されることにより、旋回体を有する作業機械において、作業効率の低下が抑制され、また作業の精度の低下が抑制される。
 実施形態において、処理装置51は、車体座標系(Xm,Ym,Zm)で作業用の画像69を生成したが、グローバル座標系(Xg、Yg、Zg)、撮像装置座標系(Xc,Yc,Zc)又は距離検出装置20の座標系(Xd,Yd,Zd)のいずれで作業用の画像69を生成してもよい。グローバル座標系(Xg、Yg、Zg)で作業用の画像69が生成される場合は、GNSSアンテナ21,22及び位置演算装置23が必要になる。車体座標系(Xm,Ym,Zm)、撮像装置座標系(Xc,Yc,Zc)及び距離検出装置20の座標系(Xd,Yd,Zd)で作業用の画像69が生成される場合は、GNSSアンテナ21,22及び位置演算装置23は不要である。
 実施形態において、作業機2の領域である占有領域SAが案内画像60及び基準画像65から除去されなくてもよい。この場合でも、表示装置52に表示された第1画像IMC及び第2画像68によって、オペレータは、上部旋回体3が旋回した場合におけるバケット8と作業対象WAにおける作業地点との相対的な位置関係を容易に把握できる。このため、旋回体を有する作業機械において、作業効率の低下が抑制される。また、旋回体を有する作業機械において、作業の精度の低下が抑制される。
 前述の実施形態では、距離検出装置20により検出された油圧ショベル1の一部、例えば、前述のようにバケット8を除去し、作業対象WAの形状の情報(3次元地形データ)とした。しかし、過去、例えば数秒前に取得した3次元地形データを処理装置51の記憶部51Mに記憶しておき、処理装置51の処理部51Pが、現在の作業対象WAと、その記憶されている3次元地形データとが同じ位置であるのか判断し、同じ位置であるのであれば、過去の3次元地形データを用いて、基準画像65又は65aを表示させてもよい。つまり、処理装置51は、撮像装置19から見て、油圧ショベル1の一部によって隠れている地形があっても、過去の3次元地形データがあれば、基準画像65又は65aを表示させることができる。
<荷積み作業における画像表示の例>
 実施形態及び変形例において、油圧ショベル1がダンプトラックのベッセルに岩石及び土砂等の積荷を積み込む荷積み作業において、画像表示システム100,100aによる画像表示の例を説明する。画像表示システム100,100aの処理装置51は、距離検出装置20によって検出された、荷積み作業の対象であるダンプトラックの位置を取得する。作業用の画像69に含まれる第1画像IMC及び基準画像65又は65aは、ダンプトラックの位置で立ち上がるので、オペレータは作業機2とダンプトラックの高さ及び位置との関係を把握できる。作業用の画像69にダンプトラックの位置を加えることで、オペレータは、上部旋回体3を旋回させて作業機2のバケット8をダンプトラックに接近させる場合に、バケット8がどの位置でダンプトラックに到達するかを把握できる。このため、作業機2とダンプトラックとの干渉が抑制される。
 処理装置51は、距離検出装置20によって検出されたダンプトラックの位置を作業対象WAの一部として取り扱ってもよいし、図2に示される通信装置25を介して管理サーバ等からダンプトラックの位置を取得してもよい。後者の場合、処理装置51は、取得したダンプトラックの位置に、ダンプトラックのモデルの情報を当てはめて、ダンプトラックの位置としてもよい。
 処理装置51は、ダンプトラックの高さと、作業機2の高さ、詳細にはバケット8の刃先8Tの高さとを比較し、比較結果に応じて第1画像IMCの表示形態を変更してもよい。このような処理により、オペレータは、作業機2の高さとダンプトラックの高さとの関係を把握できるので、作業機2とダンプトラックとの干渉が抑制される。第1画像IMCの表示形態を変更する場合、処理装置51は、例えば、ダンプトラックの高さよりも作業機2の高さが低ければ第1画像IMCを赤色で表示し、ダンプトラックの高さと作業機2の高さとが同等であれば第1画像IMCを橙色で表示し、ダンプトラックの高さよりも作業機2の高さが高ければ第1画像IMCを緑色で表示することができる。
 第1画像IMCとともに第3画像61と第1直線画像62及び第2直線画像63との少なくとも一方が表示される場合、処理装置51は、ダンプトラックの高さに応じて、第1画像IMCとともに第3画像61と第1直線画像62及び第2直線画像63との少なくとも一方の表示形態を変更してもよい。このような処理により、オペレータは、作業機2の高さとダンプトラックの高さとの関係を把握しやすくなる。
 実施形態及び変形例において、作業機械は、作業機2を有する旋回体を備えていれば、作業機2の種類及び作業機械の種類は限定されない。
 以上、実施形態及び変形例を説明したが、前述した内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、実施形態及び変形例の要旨を逸脱しない範囲で構成要素の種々の省略、置換及び変更のうち少なくとも1つを行うことができる。
1 油圧ショベル
1B 車両本体
1S,1Sa 制御系
2 作業機
3 上部旋回体
8 バケット
8B 刃
8T 刃先
19 撮像装置
20 距離検出装置
23 位置演算装置
50 施設
51 処理装置
51IO 入出力部
51M 記憶部
51P 処理部
52,52a 表示装置
60 案内画像
61 第3画像
62 第1直線画像
63 第2直線画像
65,65a 基準画像
68 第2画像
69 作業用の画像
100,100a 作業機械の画像表示システム(画像表示システム)
101 作業機械の遠隔操作システム(遠隔操作システム)
CL 第2の線画像
RL 第1の線画像
FG フロントウィンドウ
IMC 第1画像
Rtd 旋回方向
WA 作業対象
WAS 表面
Wb 幅方向

Claims (7)

  1.  作業具を有する作業機及び前記作業機が取り付けられた旋回体を備えた作業機械に適用される作業機械の画像表示システムであり、
     前記作業機の位置を検出する位置検出部と、
     前記作業機械から作業対象までの距離の情報を求める距離検出装置と、
     前記位置検出部によって得られた前記作業具の位置の情報と、前記距離検出装置が求めた前記距離の情報から得られた前記作業対象の位置の情報とを用いて第1画像を生成して、表示装置に表示させる処理装置と、を含み、
     前記第1画像は、前記作業具と対向する前記作業対象の表面で前記作業具に対応する第1位置の情報、及び前記第1位置から前記旋回体が旋回する方向に沿って延びる部分の位置の情報に基づいて生成される、作業機械の画像表示システム。
  2.  前記第1画像は、
     前記旋回体の旋回中心軸の方向から見て、前記旋回中心軸と前記作業具との距離を半径とし、かつ前記旋回中心軸に対応する位置を中心とする円弧の画像である、請求項1に記載の作業機械の画像表示システム。
  3.  前記処理装置は、
     前記作業対象の位置の情報を用いて前記作業対象の表面に沿った線画像を生成して、前記作業対象の画像と合成して前記表示装置に表示させる、請求項1又は請求項2に記載の作業機械の画像表示システム。
  4.  前記旋回体に取り付けられる撮像装置を有し、
     前記処理装置は、
     前記第1画像と、前記撮像装置によって撮像された前記作業対象の画像である第2画像とを合成して、前記表示装置に表示させる、請求項1から請求項3のいずれか1項に記載の作業機械の画像表示システム。
  5.  前記撮像装置、前記位置検出部及び前記距離検出装置は前記作業機械に備えられ、
     前記処理装置及び前記表示装置は、前記作業機械を遠隔操作する操作装置を備えた施設に設けられる、
     請求項4に記載の作業機械の画像表示システム。
  6.  作業具を有する作業機、前記作業機が取り付けられた旋回体、前記作業機の位置を検出する位置検出部、距離検出装置及び撮像装置を備えた作業機械に適用される作業機械の画像表示システムであり、
     表示装置と、
     前記位置検出部によって得られた前記作業具の位置の情報と、前記距離検出装置が求めた前記作業機械から作業対象までの距離の情報から得られた前記作業対象の位置の情報とを用いて第1画像を生成し、前記撮像装置によって撮像された前記作業対象の画像である第2画像と合成して、表示装置に表示させる処理装置と、を含み、
     前記第1画像は、前記作業具と対向する前記作業対象の表面で前記作業具に対応する第1位置の情報、及び前記第1位置から前記旋回体が旋回する方向に沿って延びる部分の位置の情報に基づいて生成される、作業機械の画像表示システム。
  7.  作業具を有する作業機及び前記作業機が取り付けられた旋回体を備えた作業機械に適用される作業機械の画像表示システムであり、
     前記作業機の位置を検出する位置検出部と、
     前記作業機械から作業対象までの距離の情報を求める距離検出装置と、
     前記位置検出部によって得られた前記作業具の位置の情報と、前記距離検出装置が求めた前記距離の情報から得られた前記作業対象の位置の情報とを用いて第1画像を生成して、表示装置に表示させる処理装置と、
     前記旋回体に取り付けられる撮像装置と、を含み、
     前記第1画像は、前記作業具と対向する前記作業対象の表面で前記作業具に対応する第1位置の情報、及び前記第1位置から前記旋回体が旋回する方向に沿って延びる部分の位置の情報に基づいて生成され、
     前記処理装置は、
     前記作業対象の位置の情報を用いて前記作業対象の表面に沿った線画像を生成して、前記作業対象の画像と合成して前記表示装置に表示させ、
     前記第1画像と、前記撮像装置によって撮像された前記作業対象の画像である第2画像とを合成して、前記表示装置に表示させ
     前記作業機の姿勢を用いて前記作業機が前記第2画像に占める領域を求め、得られた前記領域を前記作業対象の形状の情報から除去し、
     前記線画像は、
     前記旋回体の旋回中心軸に対応する位置から放射状に延びた複数の第1の線画像と、前記旋回中心軸を中心として前記旋回体の旋回方向に沿って延びる複数の第2の線画像とを備える、作業機械の画像表示システム。
PCT/JP2017/030415 2016-09-02 2017-08-24 作業機械の画像表示システム WO2018043301A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2017318897A AU2017318897B2 (en) 2016-09-02 2017-08-24 Image display system for work machine
US16/315,737 US11634890B2 (en) 2016-09-02 2017-08-24 Image display system for work machine
CA3029420A CA3029420C (en) 2016-09-02 2017-08-24 Image display system for work machine

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-172229 2016-09-02
JP2016172229A JP6794193B2 (ja) 2016-09-02 2016-09-02 作業機械の画像表示システム

Publications (1)

Publication Number Publication Date
WO2018043301A1 true WO2018043301A1 (ja) 2018-03-08

Family

ID=61300950

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/030415 WO2018043301A1 (ja) 2016-09-02 2017-08-24 作業機械の画像表示システム

Country Status (5)

Country Link
US (1) US11634890B2 (ja)
JP (1) JP6794193B2 (ja)
AU (1) AU2017318897B2 (ja)
CA (1) CA3029420C (ja)
WO (1) WO2018043301A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230366A1 (ja) * 2018-05-30 2019-12-05 京セラ株式会社 表示システム
WO2021020292A1 (ja) * 2019-07-26 2021-02-04 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
US20210254304A1 (en) * 2018-08-31 2021-08-19 Komatsu Ltd. Loading machine control device and control method
US20210272315A1 (en) * 2018-08-31 2021-09-02 Komatsu Ltd. Transport object specifying device of work machine, work machine, transport object specifying method of work machine, method for producing complementary model, and dataset for learning

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110799708B (zh) * 2018-03-12 2021-12-31 日立建机株式会社 作业机械
JP7087545B2 (ja) * 2018-03-28 2022-06-21 コベルコ建機株式会社 建設機械
JP7372029B2 (ja) * 2018-06-29 2023-10-31 株式会社小松製作所 表示制御装置、表示制御システムおよび表示制御方法
JP7285051B2 (ja) * 2018-06-29 2023-06-01 株式会社小松製作所 表示制御装置、および表示制御方法
JP7080750B2 (ja) * 2018-06-29 2022-06-06 株式会社小松製作所 表示制御システム、遠隔操作システム、表示制御装置、および表示制御方法
CN112218988B (zh) * 2018-07-31 2023-06-09 住友建机株式会社 挖土机
JP6746651B2 (ja) * 2018-09-26 2020-08-26 株式会社不動テトラ 地盤改良工事の合成画像表示方法
JP7315333B2 (ja) * 2019-01-31 2023-07-26 株式会社小松製作所 建設機械の制御システム、及び建設機械の制御方法
EP3934241A4 (en) * 2019-02-28 2022-04-20 Sumitomo Heavy Industries, Ltd. DISPLAY DEVICE, EXCAVATOR, INFORMATION PROCESSING DEVICE
JP7344675B2 (ja) * 2019-05-31 2023-09-14 株式会社小松製作所 表示システム、遠隔操作システムおよび表示方法
JP7458155B2 (ja) * 2019-07-31 2024-03-29 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
JP7330008B2 (ja) * 2019-07-31 2023-08-21 清水建設株式会社 掘削管理装置および方法
JP7145137B2 (ja) * 2019-09-30 2022-09-30 日立建機株式会社 作業機械の制御装置
JP2021070922A (ja) * 2019-10-29 2021-05-06 住友重機械工業株式会社 ショベル
WO2021105204A1 (en) 2019-11-27 2021-06-03 Novatron Oy Method for determining situational awareness in worksite
JP7040810B2 (ja) * 2020-01-08 2022-03-23 株式会社ワイビーエム 地盤改良機用施工位置誘導システム
EP4097552A4 (en) * 2020-01-28 2023-11-22 Topcon Positioning Systems, Inc. SYSTEM AND METHOD FOR CONTROLLING A WORK DEVICE ON A WORK MACHINE USING MACHINE VISION
JP7388972B2 (ja) 2020-04-08 2023-11-29 日本車輌製造株式会社 杭打機の表示システム
JP2023174148A (ja) * 2022-05-27 2023-12-07 株式会社小松製作所 作業機械の表示システム、作業機械の遠隔操作システム、作業機械、及び作業機械の表示方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012157438A1 (ja) * 2011-05-13 2012-11-22 日立建機株式会社 油圧ショベルの後方視野表示装置
JP2016102312A (ja) * 2014-11-27 2016-06-02 住友建機株式会社 ショベルの支援装置及びショベルの支援方法
JP2016160741A (ja) * 2015-03-05 2016-09-05 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53110612A (en) 1977-03-09 1978-09-27 Shinagawa Refractories Co Checker bricks for regenerator
JP2998463B2 (ja) * 1992-10-19 2000-01-11 日立建機株式会社 建設機械のモニタリング装置
US6019164A (en) 1997-12-31 2000-02-01 Temptronic Corporation Workpiece chuck
JP3406882B2 (ja) * 2000-02-17 2003-05-19 京成電鉄株式会社 水中構造物の解体工法
JP4593007B2 (ja) 2001-05-23 2010-12-08 東京エレクトロン株式会社 載置装置
EP1452651A1 (en) * 2001-06-20 2004-09-01 Hitachi Construction Machinery Co., Ltd. Remote control system and remote setting system of construction machinery
JP4451098B2 (ja) 2002-08-22 2010-04-14 住友大阪セメント株式会社 サセプタ装置
JP2004294067A (ja) 2003-03-25 2004-10-21 Penta Ocean Constr Co Ltd 無人化施工装置
JP4196826B2 (ja) * 2003-12-26 2008-12-17 日立建機株式会社 旋回式作業車両の後方視野表示装置
US8577538B2 (en) * 2006-07-14 2013-11-05 Irobot Corporation Method and system for controlling a remote vehicle
US20070283709A1 (en) 2006-06-09 2007-12-13 Veeco Instruments Inc. Apparatus and methods for managing the temperature of a substrate in a high vacuum processing system
US7516563B2 (en) * 2006-11-30 2009-04-14 Caterpillar Inc. Excavation control system providing machine placement recommendation
JP2008312004A (ja) * 2007-06-15 2008-12-25 Sanyo Electric Co Ltd カメラシステム及び機械装置
JP5230462B2 (ja) 2009-01-26 2013-07-10 三菱重工業株式会社 プラズマ処理装置の基板支持台
JP5068779B2 (ja) * 2009-02-27 2012-11-07 現代自動車株式会社 車両周囲俯瞰画像表示装置及び方法
JP5165631B2 (ja) * 2009-04-14 2013-03-21 現代自動車株式会社 車両周囲画像表示システム
JP5397697B2 (ja) * 2010-03-12 2014-01-22 アイシン精機株式会社 画像制御装置
JP5269026B2 (ja) * 2010-09-29 2013-08-21 日立建機株式会社 作業機械の周囲監視装置
US9113047B2 (en) * 2010-10-22 2015-08-18 Hitachi Construction Machinery Co., Ltd. Peripheral monitoring device for working machine
US20130054075A1 (en) * 2011-08-22 2013-02-28 Deere And Company Location Control System for Feature Placement
JP2013055089A (ja) 2011-08-31 2013-03-21 Momentive Performance Materials Inc 静電チャック装置
JP5941663B2 (ja) * 2011-11-30 2016-06-29 住友建機株式会社 建設機械用モニタシステム
JP5426742B1 (ja) 2012-10-05 2014-02-26 株式会社小松製作所 掘削機械の表示システム及び掘削機械
US8914199B2 (en) * 2012-10-05 2014-12-16 Komatsu Ltd. Excavating machine display system and excavating machine
JP2014123228A (ja) 2012-12-20 2014-07-03 Fuji Electric Co Ltd 制御装置、制御方法、プログラム及び情報処理システム
CN104969544B (zh) * 2013-02-08 2018-02-27 日立建机株式会社 回转式作业机械的周围监视装置
JP5789279B2 (ja) 2013-04-10 2015-10-07 株式会社小松製作所 掘削機械の施工管理装置、油圧ショベルの施工管理装置、掘削機械及び施工管理システム
US20140356985A1 (en) 2013-06-03 2014-12-04 Lam Research Corporation Temperature controlled substrate support assembly
US9335545B2 (en) * 2014-01-14 2016-05-10 Caterpillar Inc. Head mountable display system
JP5886962B1 (ja) 2014-05-15 2016-03-16 株式会社小松製作所 掘削機械の表示システム、掘削機械及び掘削機械の表示方法
JP6538315B2 (ja) * 2014-06-26 2019-07-03 住友建機株式会社 ショベル
JP2016056674A (ja) 2014-09-11 2016-04-21 渡邉 清 プールサイドや路面の温度を下げる方法
US9428885B2 (en) * 2014-09-15 2016-08-30 Trimble Navigation Limited Guidance system for earthmoving machinery
JP6358940B2 (ja) 2014-12-04 2018-07-18 株式会社ディスコ ウエーハの生成方法
JP6474905B2 (ja) * 2015-09-08 2019-02-27 株式会社日立製作所 遠隔操作システムおよび操作支援システム
KR101814589B1 (ko) * 2015-10-23 2018-01-04 가부시키가이샤 고마쓰 세이사쿠쇼 작업 기계의 표시 시스템, 작업 기계 및 표시 방법
JP6096980B2 (ja) * 2015-12-18 2017-03-15 株式会社小松製作所 施工情報表示装置および施工情報の表示方法
JP6637184B2 (ja) 2016-08-26 2020-01-29 日本碍子株式会社 ウエハ載置台

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012157438A1 (ja) * 2011-05-13 2012-11-22 日立建機株式会社 油圧ショベルの後方視野表示装置
JP2016102312A (ja) * 2014-11-27 2016-06-02 住友建機株式会社 ショベルの支援装置及びショベルの支援方法
JP2016160741A (ja) * 2015-03-05 2016-09-05 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230366A1 (ja) * 2018-05-30 2019-12-05 京セラ株式会社 表示システム
US20210254304A1 (en) * 2018-08-31 2021-08-19 Komatsu Ltd. Loading machine control device and control method
US20210272315A1 (en) * 2018-08-31 2021-09-02 Komatsu Ltd. Transport object specifying device of work machine, work machine, transport object specifying method of work machine, method for producing complementary model, and dataset for learning
US11976438B2 (en) * 2018-08-31 2024-05-07 Komatsu Ltd. Loading machine control device and control method
WO2021020292A1 (ja) * 2019-07-26 2021-02-04 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
JP7351478B2 (ja) 2019-07-26 2023-09-27 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
US11939744B2 (en) 2019-07-26 2024-03-26 Komatsu Ltd. Display system, remote operation system, and display method

Also Published As

Publication number Publication date
JP6794193B2 (ja) 2020-12-02
US20190330825A1 (en) 2019-10-31
CA3029420C (en) 2020-07-21
AU2017318897A1 (en) 2019-01-24
CA3029420A1 (en) 2018-03-08
JP2018035645A (ja) 2018-03-08
US11634890B2 (en) 2023-04-25
AU2017318897B2 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
WO2018043301A1 (ja) 作業機械の画像表示システム
US11384515B2 (en) Image display system for work machine, remote operation system for work machine, and work machine
WO2020241618A1 (ja) マップ生成システム及びマップ生成方法
JP6832548B2 (ja) 作業機械の画像表示システム、作業機械の遠隔操作システム、作業機械及び作業機械の画像表示方法
JP7420733B2 (ja) 表示制御システムおよび表示制御方法
JP7462710B2 (ja) 作業機械の画像表示システム及び作業機械の画像表示方法
JP7128497B2 (ja) 作業機械の画像表示システム
JP6923144B2 (ja) 作業機械の画像表示システム
JP7333551B2 (ja) 作業機械の画像表示システム
US11908076B2 (en) Display system and display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17846306

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3029420

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2017318897

Country of ref document: AU

Date of ref document: 20170824

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17846306

Country of ref document: EP

Kind code of ref document: A1