WO2019054000A1 - 表示システム、表示方法、及び表示装置 - Google Patents

表示システム、表示方法、及び表示装置 Download PDF

Info

Publication number
WO2019054000A1
WO2019054000A1 PCT/JP2018/024065 JP2018024065W WO2019054000A1 WO 2019054000 A1 WO2019054000 A1 WO 2019054000A1 JP 2018024065 W JP2018024065 W JP 2018024065W WO 2019054000 A1 WO2019054000 A1 WO 2019054000A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
work machine
transport vehicle
display
coordinate system
Prior art date
Application number
PCT/JP2018/024065
Other languages
English (en)
French (fr)
Inventor
和久 高濱
幸紀 松村
Original Assignee
株式会社小松製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小松製作所 filed Critical 株式会社小松製作所
Priority to AU2018333191A priority Critical patent/AU2018333191B2/en
Priority to CA3054897A priority patent/CA3054897A1/en
Priority to US16/491,002 priority patent/US11230825B2/en
Publication of WO2019054000A1 publication Critical patent/WO2019054000A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/205Remotely operated machines, e.g. unmanned vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/40Special vehicles
    • B60Y2200/41Construction vehicles, e.g. graders, excavators
    • B60Y2200/412Excavators
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/30Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom
    • E02F3/32Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom working downwardly and towards the machine, e.g. with backhoes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Definitions

  • the present invention relates to a display system, a display method, and a display device.
  • Patent Document 1 discloses a technique for capturing an image of a work site with a camera provided in a work machine, and capturing an image of the work machine from the outside with a camera installed in the work site.
  • the work machine When the work machine is remotely operated, if the image displayed on the display device is a two-dimensional image, the operator may have difficulty obtaining a sense of perspective of the work site. If it is difficult to obtain a sense of perspective at the work site, it is difficult for the operator to grasp the distance between the work machine and the transport vehicle when performing loading work on the transport vehicle using the work machine. As a result, the work efficiency of remote control may be reduced.
  • An aspect of the present invention is to provide a technology that allows an operator to remotely control a working machine comfortably and to suppress a decrease in work efficiency.
  • a virtual viewpoint of the work machine viewed from a virtual viewpoint outside the work machine based on detection data of a position of the work machine having a work machine and detection data of a posture of the work machine A virtual viewpoint image of the transport vehicle viewed from the virtual viewpoint based on a work machine image generation unit that generates a work machine image showing an image, detection data of the position of the transport vehicle, and detection data of the attitude of the transport vehicle
  • a transport vehicle image generation unit that generates a transport vehicle image showing the image, a synthesis unit that generates a composite image in which the work machine image and the transport vehicle image are superimposed, and a display that displays the composite image outside the work machine
  • a display control unit configured to display on the device.
  • the operator can remote-control a working machine comfortably comfortably, and the technique which can suppress the fall of working efficiency is provided.
  • FIG. 1 is a view schematically showing an example of a remote control system for a working machine according to the present embodiment.
  • FIG. 2 is a side view schematically showing the working machine according to the present embodiment.
  • FIG. 3 is a rear view schematically showing the working machine according to the present embodiment.
  • FIG. 4 is a plan view schematically showing the working machine according to the present embodiment.
  • FIG. 5 is a side view schematically showing the transport vehicle according to the present embodiment.
  • FIG. 6 is a rear view schematically showing the transport vehicle according to the present embodiment.
  • FIG. 7 is a plan view schematically showing the transport vehicle according to the present embodiment.
  • FIG. 8 is a view schematically showing a distance detection device and an imaging device according to the present embodiment.
  • FIG. 9 is a view schematically showing an example of the operation of the distance detection device and the imaging device according to the present embodiment.
  • FIG. 10 is a functional block diagram showing an example of a control device according to the present embodiment.
  • FIG. 11 is a view showing a display example of the display device according to the present embodiment.
  • FIG. 12 is a flowchart showing an example of the display method according to the present embodiment.
  • FIG. 13 is a flowchart showing an example of the display method according to the present embodiment.
  • FIG. 14 is a flowchart showing an example of the display method according to the present embodiment.
  • FIG. 15 is a view schematically showing an example of an imposed image according to the present embodiment.
  • FIG. 16 is a view schematically showing an example of an imposed image according to the present embodiment.
  • FIG. 17 is a functional block diagram showing an example of a control device according to the present embodiment.
  • FIG. 1 is a figure which shows typically an example of the remote control system 100 of the working machine 1 which concerns on this embodiment.
  • the remote control system 100 remotely controls the work machine 1.
  • the working machine 1 is a hydraulic shovel.
  • the work machine 1 is appropriately referred to as a hydraulic shovel 1.
  • the hydraulic shovel 1 includes a traveling body 2, a swing body 3, a work machine 4, a hydraulic cylinder 5, a distance detection device 20, a position detection device 30 (first position detection device), and a posture detection device 40 1 attitude detection device), an imaging device 50, and a control device 60.
  • the hydraulic shovel 1 exists at a work site and works at the work site.
  • a vehicle body coordinate system (Xm-Ym-Zm coordinate system) is defined in the revolving unit 3.
  • the vehicle body coordinate system is a three-dimensional coordinate system that indicates the relative position with respect to the origin PL defined on the revolving unit 3.
  • the vehicle body coordinate system of the revolving unit 3 is defined by the Xm axis of the first reference plane with respect to the origin PL, the Ym axis orthogonal to the Xm axis in the first reference plane, and the Zm axis orthogonal to the first reference plane Be done.
  • a direction parallel to the Xm axis is taken as the Xm axis direction
  • a direction parallel to the Ym axis is taken as the Ym axis direction
  • a direction parallel to the Zm axis is taken as the Zm axis direction.
  • the Xm-axis direction is the front-rear direction of the swing body 3
  • the Ym-axis direction is the left-right direction of the swing body 3
  • the Zm-axis direction is the vertical direction of the swing body 3.
  • the traveling body 2 has crawler belts 2A and 2B.
  • the hydraulic shovel 1 travels by rotation of the crawler belts 2A and 2B.
  • the Zm axis of the vehicle body coordinate system is orthogonal to the ground contact surface of the crawler belts 2A and 2B.
  • the + Zm direction of the vehicle body coordinate system is the upper direction of the revolving unit 3 and is the direction away from the ground contact surface of the crawler belts 2A and 2B.
  • the -Zm direction of the vehicle body coordinate system is the lower direction of the swing structure 3 and is the direction opposite to the + Zm direction.
  • the swing body 3 is swingably supported by the traveling body 2.
  • the pivoting body 3 is pivotable about a pivot axis Zr.
  • the pivot axis Zr is parallel to the Zm axis of the vehicle coordinate system.
  • the origin PL of the vehicle body coordinate system is defined at the center of the swing circle of the swing body 3.
  • the center of the swing circle is located on the pivot axis Zr of the swing body 3.
  • the work implement 4 is supported by the rotating body 3.
  • the vehicle body coordinate system at least a part of the work implement 4 is disposed in the + Xm direction relative to the swing body 3.
  • the + Xm direction of the vehicle body coordinate system is the forward direction of the swing body 3 and is the direction in which the tip 9 of the working machine 4 exists with reference to the swing body 3.
  • the ⁇ Xm direction of the vehicle body coordinate system is the back direction of the swing structure 3 and is the direction opposite to the + Xm direction.
  • the work implement 4 has a boom 6 connected to the swing body 3, an arm 7 connected to the boom 6, and a bucket 8 connected to the arm 7.
  • the tip 9 of the work implement 4 includes the cutting edge of the bucket 8.
  • the tip 9 of the working machine 4 may be the tip of the blade of the bucket 8.
  • the hydraulic cylinder 5 generates power for driving the work implement 4.
  • the hydraulic cylinder 5 is driven by hydraulic oil supplied from a hydraulic pump.
  • the hydraulic cylinder 5 includes a boom cylinder 10 driving the boom 6, an arm cylinder 11 driving the arm 7, and a bucket cylinder 12 driving the bucket 8.
  • the boom 6 is rotatably coupled to the revolving unit 3 around the rotation axis AX1.
  • the arm 7 is rotatably coupled to the tip of the boom 6 around the rotation axis AX2.
  • the bucket 8 is rotatably coupled to the tip of the arm 7 about the rotation axis AX3.
  • the rotation axis AX1 of the boom 6, the rotation axis AX2 of the arm 7, and the rotation axis AX3 of the bucket 8 are parallel to the Ym axis of the vehicle coordinate system.
  • the + Ym direction of the vehicle body coordinate system is the left direction of the revolving unit 3.
  • the -Ym direction of the vehicle body coordinate system is the direction opposite to the + Ym direction, and is the rightward direction of the revolving unit 3.
  • the distance detection device 20 is mounted on the hydraulic shovel 1. The distance detection device 20 detects the distance Ld to the object WAa around the hydraulic shovel 1 (see FIG. 9).
  • the target WAa At least one of the construction target to be constructed at the work site, the ground surface, at least a part of the working machine 4 existing in the forward direction with respect to the swing body 3, the structure, and the working machine other than the hydraulic shovel 1 It is illustrated.
  • the distance detection device 20 includes a laser range finder.
  • the distance detection device 20 includes an emitting unit that emits a laser beam that is detection light, and a light receiving unit that receives the reflected light of the laser beam irradiated to the object WAa.
  • the distance detection device 20 is provided on the upper portion of the swing body 3.
  • the light receiving unit of the distance detection device 20 faces the front direction (+ Xm direction) of the swing body 3.
  • the distance detection device 20 detects the distance Ld between the rotating body 3 and the target WAa in the forward direction. Detection data of the distance detection device 20 is output to the control device 60.
  • the position detection device 30 is mounted on the hydraulic shovel 1.
  • the position detection device 30 detects the position Pa of the swinging body 3 of the hydraulic shovel 1 in the global coordinate system (Xg-Yg-Zg coordinate system).
  • a global coordinate system is a three-dimensional coordinate system based on an origin PG defined on the earth, and is a Global Navigation Satellite System such as the Global Positioning System (GPS). : Coordinate system showing absolute position defined by GNSS.
  • GPS Global Positioning System
  • the position detection device 30 is provided on the revolving unit 3.
  • the position detection device 30 detects the position Pa of the rotating body 3 using the GNSS. Detection data of the position detection device 30 is output to the control device 60.
  • the posture detection device 40 is mounted on the hydraulic shovel 1.
  • the posture detection device 40 detects the posture of the hydraulic shovel 1.
  • the posture of the hydraulic shovel 1 includes the posture of the swing body 3 and the posture of the work implement 4.
  • the posture of the swing body 3 includes the inclination angle of the swing body 3.
  • the posture of the work implement 4 includes the inclination angle of the work implement 4.
  • the attitude detection device 40 includes a swing body attitude sensor 41 that detects the attitude of the swing body 3 and a work machine attitude sensor 42 that detects the attitude of the work machine 4. Detection data of the posture detection device 40 is output to the control device 60.
  • the swing body posture sensor 41 includes an inertial measurement unit (IMU) provided in the swing body 3.
  • the work implement attitude sensor 42 includes a stroke sensor that detects a cylinder stroke that indicates the amount of operation of the hydraulic cylinder 5.
  • the imaging device 50 is mounted on the hydraulic shovel 1.
  • the imaging device 50 images a target WAa around the hydraulic shovel 1 to acquire an image of the target WAa.
  • the imaging device 50 includes an optical system and an image sensor that receives light passing through the optical system.
  • the image sensor includes a CCD (Couple Charged Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the imaging device 50 is a monocular camera.
  • the imaging device 50 is provided on the upper part of the revolving unit 3.
  • the incident surface of the optical system of the imaging device 50 faces the front direction (+ Xm direction) of the swing body 3.
  • the imaging device 50 acquires an image of the target WAa in the forward direction of the revolving unit 3.
  • the imaging device 50 can acquire an image of at least a part of the work implement 4 present in the forward direction relative to the swing body 3.
  • the image data of the object WAa acquired by the imaging device 50 is output to the control device 60.
  • an image acquired by the imaging device 50 is appropriately referred to as a real image RG.
  • the actual image RG shows the actual image of the work site captured by the imaging device 50.
  • the real image RG is a two-dimensional image.
  • the remote control system 100 includes a remote control device 70 provided at a remote control facility existing outside the hydraulic shovel 1, and a display system 200 for displaying an image of the object WAa and the transport vehicle WAb present at the work site at the remote control facility. Equipped with
  • the display system 200 includes a display device 80 existing outside the hydraulic shovel 1 and a control device 90 existing outside the hydraulic shovel 1 and capable of communicating with the hydraulic shovel 1.
  • Each of the remote control device 70, the display device 80, and the control device 90 is provided at a remote control facility.
  • Each of the remote control device 70, the display device 80, and the control device 90 is provided separately from the hydraulic shovel 1 and the transporter vehicle WAb.
  • the communication system 300 may perform wired communication or wireless communication.
  • the communication system 300 includes at least one of the Internet, a Local Area Network (LAN), a mobile telephone communication network, and a satellite communication network.
  • the hydraulic shovel 1 is remotely controlled by the remote controller 70.
  • the remote control device 70 includes a working lever 71 for remotely operating the swing structure 3 and the working machine 4 of the hydraulic shovel 1 and a traveling lever 72 for remotely operating the traveling body 2.
  • the operator operates the remote control device 70 at the remote control facility.
  • An operation signal generated by operating the remote control device 70 is transmitted to the control device 60 via the communication system 300.
  • the control device 60 outputs a control signal for controlling the swing body 3, the work implement 4, and the traveling body 2 based on the operation signal. Thereby, the hydraulic shovel 1 is remotely operated.
  • the work lever 71 includes a left work lever 71 ⁇ / b> L and a right work lever 71 ⁇ / b> R operated to operate the swing body 3 and the work machine 4.
  • the traveling lever 72 includes a left traveling lever 72L and a right traveling lever 72R which are operated to operate the traveling body 2.
  • the transport vehicle WAb operates at the work site.
  • the transport vehicle WAb is a dump truck, and a loading platform 401, a vehicle body 402 supporting the loading platform 401, a traveling device 403 supporting the vehicle body 402, a position detection device 430 (second position detection device), and a posture detection device 440 (Second posture detection device) and a control device 460.
  • the traveling device 403 includes a wheel supporting a tire and a steering device.
  • the driver gets on the transport vehicle WAb.
  • the transport vehicle WAb is operated by the driver.
  • the hydraulic shovel 1 excavates the construction target with the working machine 4 and loads the load generated by the excavation into the transport vehicle WAb.
  • the transport vehicle WAb transports the load loaded by the hydraulic shovel 1.
  • the transport vehicle WAb may be, for example, an unmanned transport vehicle (unmanned dump truck) that travels based on a command signal transmitted from the management system.
  • unmanned transport vehicle unmanned dump truck
  • a vehicle body coordinate system (Xn-Yn-Zn coordinate system) is defined in the vehicle body 402.
  • the vehicle body coordinate system is a three-dimensional coordinate system that indicates the relative position with respect to the origin PN defined on the vehicle body 402.
  • the vehicle body coordinate system of the vehicle body 402 is defined by the Xn axis of the fourth reference plane with respect to the origin PN, the Yn axis orthogonal to the Xn axis in the fourth reference plane, and the Zn axis orthogonal to the fourth reference plane. Ru.
  • the direction parallel to the Xn axis is taken as the Xn axis direction
  • the direction parallel to the Yn axis is taken as the Yn axis direction
  • the direction parallel to the Zn axis is taken as the Zn axis direction.
  • the Xn axis direction is the longitudinal direction of the vehicle body 402
  • the Yn axis direction is the lateral direction of the vehicle body 402
  • the Zn axis direction is the vertical direction of the vehicle body 402.
  • the position detection device 430 is mounted on the transport vehicle WAb.
  • the position detection device 430 detects the position Pb of the transport vehicle WAb in the global coordinate system (Xg-Yg-Zg coordinate system).
  • the position detection device 430 is provided on the vehicle body 402.
  • the position detection device 430 detects the position Pb of the vehicle body 402 using the GNSS. Detection data of the position detection device 430 is output to the control device 460.
  • Posture detection device 440 is mounted on transport vehicle WAb.
  • the attitude detection device 440 detects the attitude of the transport vehicle WAb.
  • the attitude of the transport vehicle WAb includes the attitude of the vehicle body 402.
  • the posture of the vehicle body 402 includes the inclination angle of the vehicle body 402.
  • Detection data of the posture detection device 440 is output to the control device 460.
  • the posture detection device 440 includes an inertial measurement unit (IMU) provided in the vehicle body 402.
  • IMU inertial measurement unit
  • FIG. 2 is a side view schematically showing the hydraulic shovel 1 according to the present embodiment.
  • FIG. 3 is a rear view schematically showing the hydraulic shovel 1 according to the present embodiment.
  • FIG. 4 is a plan view schematically showing the hydraulic shovel 1 according to the present embodiment.
  • the hydraulic shovel 1 includes a distance detection device 20, a position detection device 30, a posture detection device 40 including a swing body posture sensor 41 and a work machine posture sensor 42; An imaging device 50 and a control device 60 are included.
  • the revolving unit 3 is provided with a plurality of GPS antennas 31.
  • the GPS antenna 31 receives a radio wave from a GPS satellite and outputs a signal generated based on the received radio wave to the position detection device 30.
  • the position detection device 30 detects the position Pr at which the GPS antenna 31 defined in the global coordinate system is installed, based on the signal from the GPS antenna 31.
  • the position detection device 30 detects the position Pa of the revolving unit 3 in the global coordinate system based on the position Pr at which the GPS antenna 31 is installed.
  • the position detection device 30 detects each of a position Pra where one GPS antenna 31 is installed and a position Prb where the other GPS antenna 31 is installed.
  • the position detection device 30 performs arithmetic processing based on at least one of the position Pra and the position Prb to detect the position Pa of the revolving unit 3 in the global coordinate system.
  • the position Pa of the swing body 3 is a position Pra.
  • Position Pa of revolving unit 3 may be position Prb or may be a position between position Pra and position Prb.
  • the rotating body posture sensor 41 includes an inertial measurement unit (IMU).
  • the rotating body posture sensor 41 detects the inclination angle of the rotating body 3 with respect to the Xg-Yg plane (horizontal plane) defined by the global coordinate system.
  • the tilt angle of the swing body 3 is centered at the roll angle ⁇ 1 indicating the tilt angle of the swing body 3 in the left-right direction with respect to the horizontal plane, the pitch angle ⁇ 2 indicating the tilt angle of the swing body 3 in the front-back direction with respect to the horizontal plane, and the Zm axis And Yaw angle ⁇ 3 indicating the inclination angle of the swing body 3 in the rotational direction.
  • the roll angle ⁇ 1, the pitch angle ⁇ 2, and the yaw angle ⁇ 3 are calculated by time-integrating the angular velocity detected by the inertial measurement device.
  • the yaw angle ⁇ 3 changes.
  • the swing body 3 turns while the traveling body 2 is stopped, the yaw angle ⁇ 3 corresponds to the swing angle of the swing body 3.
  • the posture of the revolving unit 3 includes at least one of a roll angle ⁇ 1, a pitch angle ⁇ 2, and a yaw angle ⁇ 3.
  • the yaw angle ⁇ 3 may be detected by the position detection device 30.
  • the position detection device 30 can detect the orientation of the swing body 3 with respect to the reference orientation in the global coordinate system based on the position Pra of one GPS antenna 31 and the position Prb of the other GPS antenna 31.
  • the position detection device 30 performs arithmetic processing based on the position Pra and the position Prb to detect the orientation of the swing body 3 with respect to the reference orientation.
  • the angle between the reference orientation and the orientation of the swing body 3 corresponds to the yaw angle ⁇ 3.
  • the position detection device 30 can calculate a straight line connecting the position Pra and the position Prb, and detect the yaw angle ⁇ 3 based on the angle formed by the calculated straight line and the reference azimuth.
  • Work implement attitude sensor 42 includes a stroke sensor.
  • the work implement attitude sensor 42 detects an inclination angle of the work implement 4 defined by the vehicle body coordinate system.
  • the stroke sensor includes a boom stroke sensor 42A that detects the cylinder stroke of the boom cylinder 10, an arm stroke sensor 42B that detects the cylinder stroke of the arm cylinder 11, and a bucket stroke sensor 42C that detects the cylinder stroke of the bucket cylinder 12.
  • Control device 60 calculates inclination angle ⁇ of boom 6 with respect to the Zm axis of the vehicle body coordinate system based on the detection data of boom stroke sensor 42A.
  • the control device 60 calculates the inclination angle ⁇ of the arm 7 with respect to the boom 6 based on the detection data of the arm stroke sensor 42B.
  • the control device 60 calculates the inclination angle ⁇ of the bucket 8 with respect to the arm 7 based on the detection data of the bucket stroke sensor 42C.
  • the posture of the work implement 4 includes at least one of the inclination angle ⁇ , the inclination angle ⁇ , and the inclination angle ⁇ .
  • FIG. 5 is a side view schematically showing the transport vehicle WAb according to the present embodiment.
  • FIG. 6 is a rear view schematically showing the transport vehicle WAb according to the present embodiment.
  • FIG. 7 is a plan view schematically showing the transport vehicle WAb according to the present embodiment.
  • the transport vehicle WAb has a position detection device 430, a posture detection device 440, and a control device 460.
  • a plurality of GPS antennas 431 are provided on the vehicle body 402.
  • the position detection device 430 detects the position where the GPS antenna 431 defined in the global coordinate system is installed, based on the signal from the GPS antenna 431.
  • the position detection device 430 detects the position Pb of the vehicle body 402 in the global coordinate system based on the position where the GPS antenna 431 is installed.
  • Posture detection device 440 includes an inertial measurement device (IMU).
  • the posture detection device 440 detects the inclination angle of the vehicle body 402 with respect to the Xg-Yg plane (horizontal plane) defined by the global coordinate system.
  • the tilt angle of the vehicle body 402 is a roll angle ⁇ 4 indicating the tilt angle of the vehicle body 402 in the left-right direction with respect to the horizontal plane, a pitch angle ⁇ 5 indicating the tilt angle of the vehicle body 402 in the front-rear direction with respect to the horizontal plane, and a rotational direction about the Zn axis And a yaw angle ⁇ 6 indicating the inclination angle of the vehicle body 402.
  • the roll angle ⁇ 4, the pitch angle ⁇ 5, and the yaw angle ⁇ 6 are calculated by temporally integrating the angular velocity detected by the inertial measurement device.
  • the yaw angle ⁇ 6 may be detected by the position detection device 430. When the vehicle body 402 turns, the yaw angle ⁇ 6 changes.
  • the posture of the vehicle body 402 includes at least one of a roll angle ⁇ 4, a pitch angle ⁇ 5, and a yaw angle ⁇ 6.
  • the yaw angle ⁇ 6 changes.
  • FIG. 8 is a view schematically showing the distance detection device 20 and the imaging device 50 according to the present embodiment.
  • a global coordinate system Xg-Yg-Zg coordinate system
  • a vehicle body coordinate system Xm-Ym-Zm coordinate system
  • a distance detection device coordinate system (Xd-Yd-Zd coordinate system) and an imaging device coordinate system (Xc-Yc-Zc coordinate system) are defined.
  • the distance detection device coordinate system is a three-dimensional coordinate system that indicates the relative position to the origin PD defined in the distance detection device 20.
  • the distance detection device coordinate system is defined by the Xd axis of the second reference plane with respect to the origin PD, the Yd axis orthogonal to the Xd axis in the second reference plane, and the Zd axis orthogonal to the second reference plane .
  • the origin PD of the distance detection device coordinate system is defined at the center of the detection surface 20P of the distance detection element 20RC.
  • the imaging device coordinate system is a three-dimensional coordinate system that indicates the relative position with respect to the origin PC defined in the imaging device 50.
  • the imaging device coordinate system is defined by the Xc axis of the third reference plane with respect to the origin PC, the Yc axis orthogonal to the Xc axis in the third reference plane, and the Zc axis orthogonal to the third reference plane.
  • the origin PC of the imaging device coordinate system is defined at the center of the imaging surface 19P of the image sensor 19RC.
  • the Xc axis passes through the optical center of the imaging device 50 and is orthogonal to the imaging surface 19P.
  • the relative position between the position Pa of the swing body 3 in the global coordinate system detected by the position detection device 30 and the origin PL in the vehicle body coordinate system of the swing body 3 is derived from, for example, design data or specification data of the hydraulic shovel 1 Known data.
  • the relative positions of the origin PL in the vehicle body coordinate system of the swing structure 3 and the origin PD in the distance detection device coordinate system and the origin PC in the imaging device coordinate system are, for example, design data of the hydraulic shovel 1 and design data of the distance detection device 20 Alternatively, it is known data derived from specification data, design data or specification data of the imaging device 50, or the like. Therefore, the position Pa of the swing body 3 in the global coordinate system, the position of the swing body 3 in the vehicle body coordinate system, the position in the distance detection device coordinate system, and the position in the imaging device coordinate system can be mutually converted.
  • the relative position between the position Pb of the vehicle body 402 in the global coordinate system detected by the position detection device 430 and the origin PN in the vehicle body coordinate system of the vehicle body 402 is derived from, for example, design data or specification data of the transport vehicle WAb. Known data.
  • the relative position between the swing body 3 and the vehicle body 402 in the global coordinate system is defined by the position Pa of the swing body 3 detected by the position detection device 30 and the position Pb of the vehicle body 402 detected by the position detection device 430. Ru. Therefore, the position of the swing body 3 in the global coordinate system, the position Pb of the vehicle body 402 in the global coordinate system, the position of the swing body 3 in the vehicle coordinate system, and the position Pb in the vehicle coordinate system of the vehicle body 402 are mutually converted. It is possible. Further, the position of the vehicle body 402 in the global coordinate system, the position of the vehicle body 402 in the vehicle body coordinate system, the position in the distance detection device coordinate system, and the position in the imaging device coordinate system can be mutually converted.
  • FIG. 9 is a view schematically showing an example of the distance detection device 20 and the imaging device 50 according to the present embodiment.
  • FIG. 9 shows an example in which the object WAa detected by the distance detection device 20 and imaged by the imaging device 50 is the ground surface of the construction object.
  • the distance detection device 20 has a detection range MA.
  • the distance detection device 20 detects the distance Ld to the object WAa present in the detection range MA.
  • the distance Ld is the distance between the origin PD and the surface of the object WAa in the distance detection device coordinate system.
  • the distance detection device 20 detects the distance Ld from the surface of the object WAa, and detects the position Pd of the surface of the object WAa in the distance detection device coordinate system.
  • the position Pd defines the orientation and angle with respect to the origin PD.
  • the distance detection device 20 can detect three-dimensional coordinates (Xd, Yd, Zd) of the position Pd in the distance detection device coordinate system.
  • the distance detection device 20 detects the distance Ld from each of the plurality of portions on the surface of the object WAa, and detects the position Pd of each of the plurality of portions, whereby the three-dimensional shape of the object WAa in the distance detection coordinate system Can be detected.
  • the three-dimensional shape of the object WAa is point cloud data of a plurality of positions Pd at which three-dimensional coordinates (Xd, Yd, Zd) are detected.
  • the distance detection device 20 detects the three-dimensional shape of the object WAa in the forward direction of the rotating body 3.
  • the distance detection device 20 can detect the distance Ld from each of the plurality of parts on the ground surface, and detect the topography of the hydraulic shovel 1 in the forward direction.
  • the position in the global coordinate system, the position in the vehicle body coordinate system of the revolving structure 3, the position in the vehicle body coordinate system of the vehicle body 402, the position in the distance detection device coordinate system, and the position in the imaging device coordinate system mutually convertible. Therefore, the point group data of the plurality of positions Pd (Xd, Yd, Zd) defined in the distance detection device coordinate system are the plurality of positions Pm (Xm, Ym, Zm) defined in the vehicle body coordinate system of the swing body 3 Of the plurality of positions Pn (Xn, Yn, Zn) defined in the vehicle body coordinate system of the vehicle body 402, and is defined in the global coordinate system.
  • the three-dimensional shape of the object WAa defined in the distance detection device coordinate system is coordinate-converted to the vehicle body coordinate system of the swing body 3, the vehicle body coordinate system of the vehicle body 402, the global coordinate system, and the imaging device coordinates. It is convertible to the three-dimensional shape of each object WAa of the system.
  • the imaging device 50 has an imaging range TA.
  • the imaging device 50 can acquire an image of the target WAa present in the imaging range TA.
  • the detection range MA and at least a part of the imaging range TA overlap on the surface of the object WAa.
  • the installation state of the distance detection device 20 with respect to the revolving unit 3 and the installation state of the imaging device 50 are adjusted such that the detection range MA and at least a part of the imaging range TA overlap.
  • the overlapping range of the detection range MA and the imaging range TA is preferably as large as possible.
  • the imaging device 50 acquires an image corresponding to each of the plurality of positions Pd.
  • the position Pc in the image corresponding to the position Pd is defined in the imaging device coordinate system.
  • the three-dimensional shape of the object WAa and the image of the object WAa in the imaging device coordinate system by converting the position Pd in the three-dimensional shape of the object WAa detected by the distance detection device 20 into the position Pc in the image of the imaging device coordinate system And can be superimposed. Further, the position Pd in the three-dimensional shape of the object WAa and the position Pc in the image of the object WAa are the position Pm of the vehicle body coordinate system of the revolving unit 3 or the position Pn of the vehicle body coordinate system of the vehicle body 402 or the position Pg of the global coordinate system. It is convertible.
  • FIG. 10 is a functional block diagram showing an example of the control device 60, the control device 460, and the control device 90 according to the present embodiment.
  • Control device 60 includes a computer system.
  • the controller 60 includes an arithmetic processing unit 60A including a processor such as a CPU (Central Processing Unit), a volatile memory such as a RAM (Random Access Memory), and a non-volatile memory such as a ROM (Read Only Memory).
  • Controller 460 includes a computer system.
  • Control device 460 includes an arithmetic processing unit 460A including a processor such as a CPU (Central Processing Unit), a volatile memory such as a RAM (Random Access Memory), and a non-volatile memory such as a ROM (Read Only Memory).
  • Controller 90 includes a computer system.
  • the controller 90 includes an arithmetic processing unit 90A including a processor such as a CPU (Central Processing Unit), a volatile memory such as a RAM (Random Access Memory), and a non-volatile memory such as a ROM (Read Only Memory). It has a storage device 90B and an input / output interface 90C.
  • a processor such as a CPU (Central Processing Unit)
  • a volatile memory such as a RAM (Random Access Memory)
  • ROM Read Only Memory
  • the display device 80 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OELD).
  • a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OELD).
  • LCD liquid crystal display
  • OELD organic electroluminescence display
  • Detection data indicating the distance Ld to the object WAa detected by the distance detection device 20 is output to the control device 60 at a predetermined cycle.
  • the input / output interface 60C of the control device 60 receives detection data of the distance detection device 20.
  • the input / output interface 60C of the control device 60 transmits detection data of the distance detection device 20 to the control device 90 at a predetermined cycle via the communication system 300.
  • Detection data indicating the position Pa of the swing body 3 detected by the position detection device 30 is output to the control device 60 at a predetermined cycle.
  • the input / output interface 60C of the control device 60 receives detection data of the position detection device 30.
  • the input / output interface 60C of the control device 60 transmits detection data of the position detection device 30 to the control device 90 at a predetermined cycle via the communication system 300.
  • Detection data indicating the posture of the hydraulic shovel 1 detected by the posture detection device 40 is output to the control device 60 at a predetermined cycle.
  • the input / output interface 60C of the control device 60 receives detection data of the posture detection device 40.
  • the input / output interface 60C of the control device 60 transmits detection data of the posture detection device 40 to the control device 90 at a predetermined cycle via the communication system 300.
  • Image data of the target WAa captured by the imaging device 50 is output to the control device 60 at a predetermined cycle.
  • the input / output interface 60C of the control device 60 receives the image data of the imaging device 50.
  • the input / output interface 60C of the control device 60 transmits the image data of the object WAa to the control device 90 at a predetermined cycle via the communication system 300.
  • Detection data indicating the position Pb of the vehicle body 402 detected by the position detection device 430 is output to the control device 460 at a predetermined cycle.
  • the input / output interface 460C of the controller 460 receives detection data of the position detector 430.
  • the input / output interface 460C of the control device 460 transmits detection data of the position detection device 430 to the control device 90 at a predetermined cycle via the communication system 300.
  • Detection data indicating the attitude of the transport vehicle WAb detected by the attitude detection device 440 is output to the control device 460 at a predetermined cycle.
  • An input / output interface 460C of the control device 460 receives detection data of the posture detection device 440.
  • the input / output interface 460C of the control device 460 transmits detection data of the posture detection device 440 to the control device 90 at a predetermined cycle via the communication system 300.
  • the control device 90 detects detection data of the distance detection device 20, detection data of the position detection device 30, detection data of the posture detection device 40, image data of the object WAa captured by the imaging device 50, position detection via the communication system 300.
  • the detection data of the device 430 and the detection data of the posture detection device 440 are received at a predetermined cycle.
  • the control device 90 generates a target image AGa showing a virtual viewpoint image of the target WAa viewed from a virtual viewpoint outside the hydraulic shovel 1 at a predetermined cycle, based on detection data of the distance detection device 20.
  • control device 90 is a working machine image showing a virtual viewpoint image of the hydraulic shovel 1 viewed from an external virtual viewpoint of the hydraulic shovel 1 based on the detection data of the position detection device 30 and the detection data of the posture detection device 40 BG is generated at a predetermined cycle. Further, based on the detection data of the position detection device 430 and the detection data of the posture detection device 440, the control device 90 is a virtual viewpoint image of the transport vehicle WAb viewed from a virtual viewpoint outside the hydraulic shovel 1 and the transport vehicle WAb. A transport vehicle image AGb shown is generated at a predetermined cycle. Further, the control device 90 generates a composite image IG in which the target image AGa, the work machine image BG, and the transport vehicle image AGb are superimposed at a predetermined cycle.
  • the display device 80 displays the composite image IG generated by the control device 90.
  • the composite image IG including the target image AGa, the work machine image BG, and the transport vehicle image AGb is computer graphics (computer graphics) generated by the controller 90.
  • Each of the target image AGa, the work machine image BG, and the transport vehicle image AGb displayed on the display device 80 is a three-dimensional image viewed from an external virtual viewpoint of the hydraulic shovel 1 and the transport vehicle WAb.
  • the display device 80 also displays an actual image RG indicating an actual image of the target WAa at the work site captured by the imaging device 50.
  • the real image RG is a two-dimensional image.
  • the virtual viewpoint means a viewpoint virtually set in a virtual space simulating a real space (in the present embodiment, a work site).
  • the position and orientation of the virtual viewpoint can be set arbitrarily.
  • the virtual viewpoint image refers to a virtual image viewed from a virtual viewpoint whose position and orientation are set in a virtual space.
  • a virtual viewpoint image refers to a virtual image that is captured when capturing an image of a virtual space with an imaging device that is installed at a virtual viewpoint and has its position and orientation set in the virtual space.
  • the virtual viewpoint image is computer graphics generated by the controller 90.
  • the position of the virtual viewpoint is set outside the hydraulic shovel 1 and the transport vehicle WAb and obliquely upward of the hydraulic shovel 1 and the transport vehicle WAb.
  • the direction of the virtual viewpoint is set obliquely downward so as to look down on the hydraulic shovel 1, the target WAa around the hydraulic shovel 1, and the transport vehicle WAb.
  • the target image AGa is a virtual three-dimensional image of the target WAa viewed from the virtual viewpoint in the virtual space of the work site.
  • the work machine image BG is a virtual three-dimensional image of the hydraulic shovel 1 viewed from a virtual viewpoint in the virtual space of the work site.
  • the transport vehicle image AGb is a virtual three-dimensional image of the transport vehicle WAb viewed from the virtual viewpoint in the virtual space of the work site.
  • the arithmetic processing unit 90A includes a data receiving unit 97, a target image generating unit 91, a work machine image generating unit 92, a transport vehicle image generating unit 95, a combining unit 96, and a display control unit 93.
  • the storage device 90B includes a coordinate conversion data storage unit 94.
  • the data receiving unit 97 receives the detection data of the distance detection device 20, the detection data of the position detection device 30, the detection data of the posture detection device 40, and the image data of the imaging device 50 via the communication system 300. Also, the data receiving unit 97 receives detection data of the position detection device 430 and detection data of the attitude detection device 440 via the communication system 300.
  • the target image generation unit 91 generates a target image AGa indicating a virtual viewpoint image of the target WAa viewed from a virtual viewpoint outside the hydraulic shovel 1 at a predetermined cycle, based on detection data of the distance detection device 20.
  • the detection data of the distance detection device 20 includes the three-dimensional shape of the surface of the object WAa.
  • the target image AGa is a three-dimensional image of the target WAa viewed from a virtual viewpoint.
  • the target image generation unit 91 generates a target image AGa that is a three-dimensional image of the target WAa viewed from the virtual viewpoint based on the three-dimensional shape of the target WAa.
  • the target image generation unit 91 generates the target image AGa defined by the distance detection device coordinate system at a predetermined cycle.
  • the target image AGa is a construction target (terrain)
  • the three-dimensional shape of the target WAa changes at the work site due to excavating work, ground leveling work, and the like.
  • the target image generation unit 91 generates a target image AGa at a predetermined cycle.
  • the object image generation unit 91 When the three-dimensional shape of the object WAa is changed due to an excavation operation, a ground adjustment operation, or the like, the object image generation unit 91 generates an object image AGa linked to the change of the three-dimensional shape of the object WAa.
  • the working machine image generation unit 92 is a working machine image showing a virtual viewpoint image of the hydraulic shovel 1 viewed from an external virtual viewpoint of the hydraulic shovel 1 based on the detection data of the position detection device 30 and the detection data of the posture detection device 40 BG is generated at a predetermined cycle.
  • Detection data of the posture detection device 40 includes the posture of the swing body 3 of the hydraulic shovel 1 and the posture of the work implement 4.
  • the work machine image BG is a three-dimensional image of the hydraulic shovel 1 viewed from a virtual viewpoint.
  • the work machine image generation unit 92 generates a work machine image BG, which is a three-dimensional image of the hydraulic shovel 1 viewed from a virtual viewpoint, at a predetermined cycle, based on the posture of the swing body 3 and the posture of the work machine 4.
  • the work machine image generation unit 92 generates a work machine image BG defined by the vehicle body coordinate system of the revolving unit 3 at a predetermined cycle. Further, for example, when the swing body 3 turns and the yaw angle ⁇ 3 changes, the working machine image generation unit 92 generates the working machine image BG at a predetermined cycle so as to interlock with the turning of the swing body 3. Similarly, when at least one of the roll angle ⁇ 1 and the pitch angle ⁇ 2 changes, the work machine image generation unit 92 determines the work machine image BG to interlock with the change of at least one of the roll angle ⁇ 1 and the pitch angle ⁇ 2.
  • the work machine image generation unit 92 interlocks with at least one change of the inclination angles ⁇ , ⁇ , and ⁇ .
  • the work machine image BG is generated at a predetermined cycle.
  • the conveyance vehicle image generation unit 95 Based on the detection data of the position detection device 430 and the detection data of the posture detection device 440, the conveyance vehicle image generation unit 95 generates a virtual viewpoint image of the conveyance vehicle WAb viewed from a virtual viewpoint outside the hydraulic shovel 1 and the conveyance vehicle WAb.
  • a transport vehicle image AGb shown is generated at a predetermined cycle.
  • the transport vehicle image AGb is a three-dimensional image of the transport vehicle WAb viewed from a virtual viewpoint.
  • the transportation vehicle image generation unit 95 generates a transportation vehicle image AGb, which is a three-dimensional image of the transportation vehicle WAb viewed from the virtual viewpoint, at a predetermined cycle, based on the posture of the transportation vehicle WAb.
  • the transport vehicle image generation unit 95 generates a transport vehicle image AGb defined by the vehicle body coordinate system of the vehicle body 402 at a predetermined cycle. Further, for example, when the transport vehicle WAb turns and the yaw angle ⁇ 6 changes, the transport vehicle image generation unit 95 generates the transport vehicle image AGb at a predetermined cycle so as to interlock with the turning of the vehicle body 402. Similarly, when at least one of the roll angle ⁇ 4 and the pitch angle ⁇ 5 changes, the transport vehicle image generation unit 95 determines the transport vehicle image AGb so as to interlock with the change of at least one of the roll angle ⁇ 4 and the pitch angle ⁇ 5.
  • the transport vehicle image generation unit 95 performs transportation so as to interlock with the change of the three-dimensional shape or position of the transport vehicle WAb.
  • a vehicle image AGb is generated.
  • the combining unit 96 combines the work machine image BG generated by the work machine image generation unit 92 and the transport vehicle image AGb generated by the transport vehicle image generation unit 95 to generate a composite image IG.
  • the combining unit 96 generates the combined image IG at a predetermined cycle.
  • the composite image IG is an image in which the work machine image BG and the transport vehicle image AGb are superimposed.
  • the combining unit 96 generates the target image AGa generated by the target image generation unit 91, the work machine image BG generated by the work machine image generation unit 92, and the transport vehicle image generation unit 95.
  • the transport vehicle image AGb is synthesized.
  • the composite image IG is an image in which the target image AGa, the work machine image BG, and the transport vehicle image AGb are superimposed.
  • the target image AGa may not be included in the composite image IG.
  • the display control unit 93 causes the display device 80 to display the composite image IG.
  • the display control unit 93 acquires from the combining unit 96 the combined image IG generated by the combining unit 96.
  • the display control unit 93 converts the composite image IG into display data that can be displayed by the display device 80, and outputs the display data to the display device 80. As a result, the composite image IG is displayed on the display device 80.
  • the coordinate conversion data storage unit 94 includes the position in the global coordinate system, the position in the vehicle body coordinate system of the revolving unit 3, the position in the vehicle body coordinate system of the vehicle body 402, the position in the distance detection device coordinate system, and the image pickup device coordinate system. It stores coordinate conversion data for mutually converting position and position. Coordinate conversion data includes coordinate conversion parameters or coordinate conversion determinants.
  • the position Pa of the rotating body 3 in the global coordinate system, the position Pb of the vehicle body 402 in the global coordinate system, the origin PL in the vehicle body coordinate system of the rotating body 3, the origin PN in the vehicle body coordinate system of the vehicle body 402, and the distance detection device coordinates The relative position between the origin PD in the system and the origin PC in the imaging device coordinate system is known data derived from design data or specification data. Therefore, coordinate conversion data can be derived in advance based on known data.
  • the coordinate conversion data storage unit 94 stores coordinate conversion data derived in advance.
  • the combining unit 96 generates the target image AGa, and the work such that the combined image IG is displayed on the display device 80 in a predetermined single coordinate system based on the coordinate conversion data stored in the coordinate conversion data storage unit 94. Coordinate transformation is performed on at least one of the machine image BG and the transport vehicle image AGb.
  • the display control unit 93 causes the display device 80 to display the composite image IG in a single coordinate system.
  • the target image generation unit 91 can generate the target image AGa in the distance detection device coordinate system based on the detection data of the distance detection device 20.
  • the work machine image generation unit 92 can generate the work machine image BG in the vehicle body coordinate system of the swingable body 3 based on the detection data of the posture detection device 40. Further, the work machine image generation unit 92 can generate the work machine image BG in the global coordinate system based on the detection data of the position detection device 30 and the detection data of the posture detection device 40.
  • the transport vehicle image generation unit 95 can generate the transport vehicle image AGb in the vehicle body coordinate system of the vehicle body 402 based on the detection data of the posture detection device 440.
  • Transport vehicle image generation unit 95 can generate transport vehicle image AGb in the global coordinate system based on detection data of position detection device 430 and detection data of posture detection device 440.
  • the synthesis unit 96 is configured to display the coordinate system of the target image AGa, the coordinate system of the work machine image BG, and the transport vehicle such that the target image AGa, the work machine image BG, and the transport vehicle image AGb are displayed in a single coordinate system. Adjust at least one of the coordinate systems of the image AGb.
  • the combining unit 96 is stored in the coordinate conversion data storage unit 94
  • the target image AGa defined in the distance detection coordinate system is converted into the target image AGa defined in the vehicle body coordinate system of the rotating body 3 based on the coordinate conversion data.
  • the combining unit 96 determines the transport vehicle image AGb defined in the vehicle body coordinate system of the vehicle body 402 or the global coordinate system as the vehicle body of the revolving vehicle 3. The image is converted into a transport vehicle image AGb defined by the coordinate system.
  • the target image AGa, the work machine image BG, and the transport vehicle image AGb are defined in the vehicle body coordinate system of the revolving unit 3.
  • the display control unit 93 causes the display device 80 to display the composite image IG including the target image AGa, the work machine image BG, and the transport vehicle image AGb defined in the vehicle body coordinate system of the revolving unit 3.
  • the combining unit 96 stores the coordinates stored in the coordinate conversion data storage unit 94. Based on the conversion data, the target image AGa defined in the distance detection coordinate system is converted into the target image AGa defined in the global coordinate system, and the work machine image BG defined in the vehicle body coordinate system of the revolving unit 3 is obtained.
  • the work vehicle image Bg defined in the global coordinate system is converted, and the transported vehicle image AGb defined in the vehicle body coordinate system of the vehicle body 402 is converted into a transported vehicle image AGb defined in the global coordinate system.
  • the display control unit 93 causes the display device 80 to display a composite image IG including the target image AGa, the work machine image BG, and the transport vehicle image AGb defined in the global coordinate system.
  • the display control unit 93 is a composite image IG including an actual image RG that is an actual image of the object WAa captured by the imaging device 50, a target image AGa, a work machine image BG, and a transport vehicle image AGb. And are simultaneously displayed on the display device 80.
  • the display control unit 93 causes the composite image IG to be displayed on a part of the display screen on which the real image RG is displayed.
  • FIG. 11 is a view showing a display example of the display device 80 according to the present embodiment.
  • the imaging device 50 acquires an actual image RG which is an actual image of the target WAa in the forward direction of the revolving unit 3.
  • the display control unit 93 displays the actual image RG of the work site acquired by the imaging device 50 on the display screen of the display device 80.
  • the imaging device 50 acquires a real image RG of the target WAa in the forward direction of the revolving unit 3. In the imaging of the imaging device 50, at least a part of the work implement 4 is reflected.
  • the actual image RG acquired by the imaging device 50 includes the actual image of the work implement 4.
  • the display screen of the display device 80 that displays the actual image RG of the work site includes the actual image of the work implement 4.
  • the actual image of the work implement 4 is displayed on the display screen of the display device 80 on which the actual image RG of the work site imaged by the imaging device 50 is displayed.
  • the display control unit 93 combines the target image AGa, the work machine image BG, and the transport vehicle image AGb on a part of the display screen of the display device 80 that displays the actual image RG of the work site captured by the imaging device 50. Display the image IG simultaneously. That is, the display control unit 93 imposes the target image AGa, the work machine image BG, and the transport vehicle image AGb on a part of the display screen of the display device 80 that displays the actual image RG of the work site.
  • the composite image IG including at least the work machine image BG and the transport vehicle image AGb, which is imposed on a part of the display screen of the display device 80 is appropriately referred to as an imposed image IG.
  • the impose image IG includes not only the work machine image BG and the transport vehicle image AGb but also the target image AGa.
  • the target image AGa, the work machine image BG, and the transport vehicle image AGb are displayed in a superimposed manner.
  • the display control unit 93 causes the display screen to display the real image of the work machine 4 and the pose image IG including the work machine image BG and the transported vehicle image AGb at different positions.
  • the actual image of the work implement 4 is displayed on the central portion and the right portion of the display screen of the display device 80.
  • the display control unit 93 displays the pose image IG on the corner of the display screen of the display device 80 so that the real image of the work implement 4 and the pose image IG do not overlap.
  • not only the actual image of the work implement 4 but also the actual image of the ground surface which is the construction target of the work implement 4 is displayed on the display screen of the display device 80.
  • the display control unit 93 causes the pose image IG to be displayed in the upper left corner of the display screen of the display device 80 so that the pose image IG and the actual image of the work implement 4 and the ground surface do not overlap.
  • the pose image IG may be displayed in the upper right corner of the display screen of the display device 80. Since the real image of the work machine 4 and the real image of the construction target are not hidden by the pose image IG, the operator smoothly carries out the work of constructing the construction target using the work machine 4 while looking at the real image. Can.
  • the virtual viewpoint is set obliquely upward of the hydraulic shovel 1 and the target WAa around the hydraulic shovel 1.
  • the ground surface to be constructed exists as the target WAa. That is, in the present embodiment, the target image AGa is a three-dimensional image showing a three-dimensional shape of the ground surface WAa which is a construction target viewed from a virtual viewpoint.
  • the display control unit 93 displays the target image AGa interlocked with the change in the shape of the ground surface based on detection data of the distance detection device 20 Display on 80
  • the work machine image BG is a skeleton image that simply simulates the hydraulic shovel 1 viewed from a virtual viewpoint.
  • the working machine image BG moves in real time. That is, the work machine image BG moves in synchronization with the change in the position and attitude of the hydraulic shovel 1.
  • the display control unit 93 detects that the hydraulic shovel 1 (traveling body 2) is moving based on the detection data of the position detection device 30, the display control unit 93 performs an operation to interlock with the change in the position of the hydraulic shovel 1.
  • the machine image BG is moved.
  • the working machine image BG is a traveling body image 2G which is a virtual viewpoint image simulating the traveling body 2, a swinging body image 3 G which is a virtual viewpoint image simulating the swinging body 3, and a virtual viewpoint image simulating the working machine 4.
  • a work implement image 4G includes a boom image 6G that simulates the boom 6, an arm image 7G that simulates the arm 7, and a bucket image 8G that simulates the bucket 8.
  • the traveling body image 2G includes a skeleton image that simply shows the outer shape of the traveling body 2.
  • the revolving unit image 3G includes a skeleton image simply showing the outer shape of the revolving unit 3.
  • Work implement image 4G includes a skeleton image simply showing the outer shape of work implement 4.
  • the working machine image BG including the traveling body image 2G, the rotating body image 3G, and the working machine image 4G is three-dimensional computer graphics.
  • the work machine image generation unit 92 acquires a skeleton image (three-dimensional CG model) stored in the storage device 90B from the storage device 90B, and based on the detection data of the position detection device 30 and the detection data of the posture detection device 40. , And generates a working machine image BG that moves in synchronization with the change in position and posture of the hydraulic shovel 1.
  • the position detection device 30 transmits detection data indicating that the hydraulic shovel 1 has moved to the control device 90 at a predetermined cycle.
  • the work machine image generation unit 92 moves the work machine image BG so as to be interlocked with the movement of the hydraulic shovel 1.
  • the display control unit 93 causes the display device 80 to display the work machine image BG so that the work machine image BG (traveling body image 2G) moves.
  • the display control unit 93 moves the working machine image BG to be interlocked with the change in the attitude of the hydraulic shovel 1 based on the detection data of the attitude detection device 40. .
  • the swing body posture sensor 41 transmits detection data indicating that the swing body 3 has turned to the control device 90 at a predetermined cycle.
  • the working machine image generation unit 92 turns the turning body image 3G of the working machine image BG so as to interlock with the turning of the turning body 3 of the hydraulic shovel 1.
  • the display control unit 93 causes the display device 80 to display the work machine image BG so that the turning body image 3G is turned.
  • the work machine posture sensor 42 transmits detection data indicating that the work machine 4 has operated to the control device 90.
  • the work machine image generation unit 92 operates the work machine image 4G of the work machine image BG so as to be interlocked with the operation of the work machine 4 of the hydraulic shovel 1.
  • the display control unit 93 causes the display device 80 to display the work machine image BG so that the work machine image 4G operates. For example, the display control unit 93 moves the boom image 6G to interlock with the change of the inclination angle ⁇ , moves the arm image 7G to interlock with the change of the inclination angle ⁇ , and interlocks with the change of the inclination angle Move the bucket image 8G.
  • the transport vehicle image AGb is a skeleton image that simulates the transport vehicle WAb simply viewed from the virtual viewpoint. According to the movement of the transport vehicle WAb and the change of the attitude of the transport vehicle WAb, the transport vehicle image AGb moves in real time. That is, the transport vehicle image AGb moves in synchronization with changes in the position and attitude of the transport vehicle WAb.
  • the display control unit 93 detects that the transport vehicle WAb is moving based on the detection data of the position detection device 430
  • the display control unit 93 moves the transport vehicle image AGb to interlock with the change in the position of the transport vehicle WAb.
  • the position detection device 430 transmits detection data indicating that the transport vehicle WAb has moved to the control device 90.
  • the transport vehicle image generation unit 95 moves the transport vehicle image AGb so as to be interlocked with the movement of the transport vehicle WAb.
  • the display control unit 93 causes the display device 80 to display the transport vehicle image AGb so that the transport vehicle image AGb moves.
  • Transport vehicle image AGb includes a skeleton image that simply shows the outer shape of transport vehicle WAb.
  • the transport vehicle image AGb is three-dimensional computer graphics.
  • Transport vehicle image generation unit 95 acquires a skeleton image (three-dimensional CG model) stored in storage device 90 B from storage device 90 B, and based on the detection data of position detection device 430 and the detection data of attitude detection device 440 , And generates a transport vehicle image AGb that moves in synchronization with the change in position and posture of the hydraulic shovel 1.
  • the display control unit 93 moves the transport vehicle image AGb based on the detection data of the attitude detection device 440 to interlock with the change in the attitude of the transport vehicle WAb.
  • the posture detection device 440 transmits detection data indicating that the transport vehicle WAb has inclined or turned to the control device 90.
  • the transport vehicle image generation unit 95 tilts or turns the transport vehicle image AGb so as to be interlocked with the tilt or turn of the transport vehicle WAb.
  • the display control unit 93 causes the display device 80 to display the transport vehicle image AGb such that the transport vehicle image AGb tilts or turns.
  • the shape of the transport vehicle WAb changes.
  • the distance detection device 20 can detect the shape of the transport vehicle WAb.
  • the display control unit 93 is a transport vehicle image AGb that is a character image so as to be interlocked with the change of the shape of the transport vehicle WAb based on detection data of the distance detection device 20.
  • the shape or display form of may be changed.
  • FIGS. 12, 13, and 14 are flowcharts showing an example of the display method according to the present embodiment.
  • FIG. 12 is a flowchart showing the processing of the control device 60 of the hydraulic shovel 1.
  • FIG. 13 is a flowchart showing processing of the control device 460 of the transport vehicle WAb.
  • FIG. 14 is a flowchart showing processing of the control device 90 of the remote control system 100. The processing shown in FIGS. 12, 13 and 14 is performed at a predetermined cycle.
  • the distance detection device 20 detects the distance Ld to the object WAa, and detects the three-dimensional shape of the object WAa.
  • Position detection device 30 detects position Pa of revolving unit 3.
  • the posture detection device 40 detects the posture of the hydraulic shovel 1 including the posture of the swing body 3 and the posture of the work implement 4.
  • the posture of the revolving unit 3 includes a roll angle ⁇ 1, a pitch angle ⁇ 2, and a yaw angle ⁇ 3.
  • the yaw angle ⁇ 3 changes.
  • the yaw angle ⁇ 3 corresponds to the swing angle of the swing body 3.
  • the posture of the work implement 4 includes the inclination angle ⁇ , the inclination angle ⁇ , and the inclination angle ⁇ .
  • the imaging device 50 acquires image data indicating the actual image RG of the work site.
  • Detection data of the distance detection device 20 detection data of the position detection device 30, detection data of the posture detection device 40, and image data of the imaging device 50 are output to the control device 60.
  • the input / output interface 60C of the control device 60 acquires detection data of the distance detection device 20 from the distance detection device 20 (step S10).
  • the input / output interface 60C of the control device 60 acquires detection data of the position detection device 30 from the position detection device 30 (step S20).
  • the input / output interface 60C of the control device 60 acquires detection data of the posture detection device 40 from the posture detection device 40 (step S30).
  • the input / output interface 60C of the control device 60 acquires the image data of the imaging device 50 from the imaging device 50 (step S40).
  • step S10, step S20, step S30, and step S40 are performed is arbitrary, and may be performed simultaneously.
  • the input / output interface 60C of the control device 60 transmits detection data of the distance detection device 20 to the control device 90 via the communication system 300 (step S50).
  • the input / output interface 60C of the control device 60 transmits detection data of the position detection device 30 to the control device 90 via the communication system 300 (step S60).
  • the input / output interface 60C of the control device 60 transmits the detection data of the posture detection device 40 to the control device 90 via the communication system 300 (step S70).
  • the input / output interface 60C of the control device 60 transmits the image data of the imaging device 50 to the control device 90 via the communication system 300 (step S80).
  • step S50, step S60, step S70, and step S80 are performed is arbitrary, and may be performed simultaneously.
  • the position detection device 430 detects the position Pb of the vehicle body 402. Detection data of the position detection device 430 is output to the control device 460.
  • the posture detection device 440 detects the posture of the vehicle body 402.
  • the posture of the vehicle body 402 includes a roll angle ⁇ 4, a pitch angle ⁇ 5, and a yaw angle ⁇ 6. Detection data of the posture detection device 440 is output to the control device 460.
  • the input / output interface 460C of the control device 460 acquires detection data of the position detection device 430 from the position detection device 430 (step S110).
  • the input / output interface 460C of the control device 460 acquires detection data of the posture detection device 440 from the posture detection device 440 (step S120).
  • step S110 and step S120 are performed are arbitrary, and may be performed simultaneously.
  • the input / output interface 460C of the control device 460 transmits the detection data of the position detection device 430 to the control device 90 via the communication system 300 (step S130).
  • the input / output interface 460C of the control device 460 transmits detection data of the posture detection device 440 to the control device 90 via the communication system 300 (step S140).
  • step S130 and step S140 are performed are arbitrary, and may be performed simultaneously.
  • the data reception unit 97 of the control device 90 receives the detection data of the distance detection device 20 via the communication system 300 (step S210).
  • the data receiving unit 97 of the control device 90 receives detection data of the position detection device 30 via the communication system 300 (step S220).
  • the data receiving unit 97 of the control device 90 receives the detection data of the posture detection device 40 via the communication system 300 (step S230).
  • the data receiving unit 97 of the control device 90 receives the image data of the imaging device 50 via the communication system 300 (step S240).
  • the data receiving unit 97 of the control device 90 receives the detection data of the position detection device 430 via the communication system 300 (step S250).
  • the data receiving unit 97 of the control device 90 receives the detection data of the posture detection device 440 via the communication system 300 (step S260).
  • step S210, step S220, step S230, step S240, step S250, and step S260 are performed is arbitrary, and may be performed simultaneously.
  • the target image generation unit 91 generates a target image AGa indicating a virtual viewpoint image of the target WAa based on the detection data of the distance detection device 20 (step S270).
  • the working machine image generation unit 92 generates a working machine image BG indicating a virtual viewpoint image of the hydraulic shovel 1 based on the detection data of the position detection device 30 and the detection data of the posture detection device 40 (step S280).
  • Transport vehicle image generation unit 95 generates transport vehicle image AGb showing a virtual viewpoint image of transport vehicle WAb based on the detection data of position detection device 430 and the detection data of posture detection device 440 (step S290).
  • the combining unit 96 combines the target image AGa, the work machine image BG, and the transport vehicle image AGb to generate an imposed image IG (step S300).
  • the combining unit 96 generates an imposed image IG in which the target image AGa, the work machine image BG, and the transport vehicle image AGb are superimposed.
  • the combining unit 96 uses the coordinate conversion data stored in the coordinate conversion data storage unit 94 to display the target image AGa, the work machine image BG, and the transport vehicle image AGb in a single coordinate system.
  • the coordinate system of the target image AGa, the coordinate system of the work machine image BG, and the coordinate system of the transport vehicle image AGb are adjusted.
  • the display control unit 93 outputs the actual image RG of the target WAa captured by the imaging device 50 to the display device 80. In addition, the display control unit 93 acquires the imposed image IG generated by the combining unit 96 from the combining unit 96. The display control unit 93 outputs an imposed image IG including the target image AGa, the work machine image BG, and the transport vehicle image AGb defined in a single coordinate system to the display device 80 (step S310).
  • the display device 80 displays the real image RG of the object WAa including at least the real image of the work implement 4 and the pose image IG (step S320).
  • the display control unit 93 causes the display screen of the display device 80 to display the actual image of the work implement 4 and the imposed image IG at different positions.
  • the operator operates the remote control device 70 to remotely control the hydraulic shovel 1 while viewing the actual image RG and the pose image IG displayed on the display device 80.
  • the imposed image IG is a three-dimensional image looking over the object WAa, the transport vehicle WAb, and the hydraulic shovel 1
  • the operator senses the perspective of the hydraulic shovel 1 and the object WAa by looking at the imposed image IG.
  • the target image AGa showing the three-dimensional shape of the ground surface which is the target WAa is displayed
  • the operator looks at the target image AGa and the work machine image BG and The distance to the work implement 4 can be grasped. Therefore, the operator can smoothly carry out the digging operation or the leveling operation.
  • the operator looks at the transport vehicle image AGb and the work machine image BG, and the work machine 4 of the transport vehicle WAb and the hydraulic shovel 1 You can grasp the distance with. Therefore, the operator can smoothly carry out the loading operation and the like.
  • FIG. 15 is a view schematically showing an example of the impose image IG according to the present embodiment.
  • FIG. 15 shows an impose image IG including a work machine image BG and a transport vehicle image AGb defined in the vehicle body coordinate system.
  • the display control unit 93 causes the display device 80 to display the work machine image BG and the transport vehicle image AGb viewed from the virtual viewpoint fixed in the vehicle body coordinate system.
  • the virtual viewpoint is fixed in the vehicle coordinate system. Therefore, when the swing body 3 turns in a state where the traveling body 2 of the hydraulic shovel 1 is stopped, the swinging body image 3G of the working machine image BG is displayed as being stopped, and the traveling body image 2G is the turning axis Zr It is displayed to turn around. Further, the transport vehicle image AGb is also displayed so as to turn about the turning axis Zr.
  • FIG. 16 is a view schematically showing an example of the impose image IG according to the present embodiment.
  • FIG. 16 shows an imposed image IG including a work machine image BG and a transport vehicle image AGb defined in the global coordinate system.
  • the display control unit 93 causes the display device 80 to display the work machine image BG and the transport vehicle image AGb viewed from the virtual viewpoint fixed in the global coordinate system.
  • the virtual viewpoint is fixed in the global coordinate system. Therefore, when the swing body 3 turns in a state where the traveling body 2 of the hydraulic shovel 1 is stopped, the traveling body image 2G in the working machine image BG is displayed as being stopped, and the swing body image 3G is the turning axis Zr It is displayed to turn around. In addition, when the transport vehicle WAb is stopped, the transport vehicle image AGb is displayed as being stopped.
  • the working machine image BG seen from the virtual viewpoint outside the hydraulic shovel 1 is generated based on the detection data of the position detection device 30 and the detection data of the posture detection device 40. Ru. Further, based on the detection data of the position detection device 430 and the detection data of the posture detection device 440, a transport vehicle image AGb seen from a virtual viewpoint outside the hydraulic shovel 1 and the transport vehicle WAb is generated.
  • the work machine image BG and the transport vehicle image AGb are three-dimensional computer graphics, and the pose image IG including the work machine image BG and the transport vehicle image AGb is displayed on the display device 80.
  • the operator can obtain a sense of perspective of the work site by viewing the work machine image BG and the transport vehicle image AGb displayed on the display device 80. Therefore, the operator can easily grasp the distance between the transport vehicle WAb and the hydraulic excavator 1, particularly the distance between the loading platform 401 of the transport vehicle WAb and the bucket 8 of the hydraulic excavator 1. Therefore, the operator can operate the remote control device 70 and use the work implement 4 of the hydraulic shovel 1 to smoothly carry out the loading operation on the transport vehicle WAb. As a result, a reduction in the remote control operation efficiency is suppressed.
  • the impose image IG is an image in which the work machine image BG and the transport vehicle image AGb are superimposed. Further, in the present embodiment, when the traveling body 2, the revolving body 3 and the working machine 4 move, the traveling body image 2 G, the revolving body image 3 G and the working machine image 4 G are synchronized in the pose image IG. When the moving vehicle WAb moves, the moving vehicle image AGb moves in synchronization in the imposed image IG.
  • the traveling body image 2G, the revolving body image 3G and the working machine image 4G At least one moves in a state of being superimposed on the transport vehicle image AGb. Therefore, by looking at the imposed image IG in which the working machine image BG and the transporting vehicle image AGb are superimposed, the operator carries with at least one of the traveling body 2, the rotating body 3 and the working machine 4 in the moving state. It becomes easy to recognize the sense of perspective with the vehicle WAb.
  • the present embodiment not only the work machine image BG and the transport vehicle image AGb, but also the target image AGa of the target WAa of the work site including the construction target is displayed in the impose image IG.
  • the operator can easily grasp the distance between the object WAa and the hydraulic excavator 1. Therefore, the operator can operate the remote control device 70 to smoothly construct the target WAa with the work machine 4 of the hydraulic shovel 1.
  • the distance detection device 20, the position detection device 30, the posture detection device 40, and the imaging device 50 are mounted on the hydraulic shovel 1.
  • the distance detection device is installed outside the hydraulic shovel 1, it is necessary to separately prepare the distance detection device or to carry out the installation work of the distance detection device. In this case, the device cost may increase or the work efficiency may decrease.
  • the distance detection device 20 By mounting the distance detection device 20 on the hydraulic shovel 1, it is not necessary to separately prepare the distance detection device, and it is not necessary to carry out the work of installing the distance detection device. Therefore, the device cost can be suppressed, and a decrease in work efficiency can be suppressed.
  • the distance detection device 20 by mounting the distance detection device 20 on the hydraulic shovel 1, even when the position of the target WAa (construction target) gradually changes, it is not necessary to carry out the work of installing the distance detection device. The same applies to the position detection device 30, the posture detection device 40, and the imaging device 50.
  • the pose image IG including the work machine image BG and the transport vehicle image AGb is displayed on a part of the display screen of the display device 80 including the actual image RG captured by the imaging device 50.
  • the operator can view the pose image IG without significantly moving the line of sight while watching the real image RG. Therefore, the operator can feel a sense of security and can perform smooth operation.
  • the actual image RG to which the impose image IG is imposed includes the image of the work implement 4. That is, the imposed image IG is imposed on the real image RG in the + Xm direction of the revolving unit 3.
  • the operator can grasp the work situation of the working machine 4 by looking at the actual image RG, and can grasp the distance between the transport vehicle WAb and the work machine 4 by looking at the imposed image IG. .
  • the operator operates the remote control device 70 while looking at the actual image of the work machine 4.
  • the operator can pose the pose image IG without significantly moving the line of sight while looking at the real image RG. You can see Therefore, since the operator can carry out smooth operation, a reduction in work efficiency is suppressed. Further, on the display screen of the display device 80, the actual image of the work implement 4 and the imposed image IG are displayed at different positions. As a result, since the real image of the work implement 4 is not blocked by the pose image IG, the operator can smoothly view both the real image of the work implement 4 and the pose image IG.
  • the work machine image BG and the transport vehicle image AGb are displayed in a predetermined single coordinate system.
  • the operator can easily grasp the distance and relative position between the hydraulic shovel 1 and the transport vehicle image AGb by viewing the work machine image BG and the transport vehicle image AGb.
  • the work machine image BG and the transport vehicle image AGb are generated in the vehicle body coordinate system, and the work machine image BG and the transport vehicle image AGb viewed from the virtual viewpoint fixed in the vehicle body coordinate system are displayed.
  • the swing body image 3G is stopped, and the traveling body image 2G and the transport vehicle image AGb are displayed so as to turn. Thereby, the operator can look at the situation of the work site based on the revolving unit 3.
  • the work machine image BG and the transport vehicle image AGb are generated in the global coordinate system, and the work machine image BG and the transport vehicle image AGb seen from the virtual viewpoint fixed in the global coordinate system are displayed.
  • the traveling body image 2G and the transport vehicle image AGb are stopped, and the swing body image 3G is displayed so as to turn. Thereby, the operator can look at the situation of the work site based on the traveling body 2 and the transport vehicle image AGb.
  • the work machine image BG includes not only the image of the work machine 4 but also the image of the revolving unit 3. Therefore, the operator looks at the target image AGa displayed on the display device 80, and not only the operation status of the work implement 4 and the distance between the target WAa and the work implement 4 but also the turning status of the revolving unit 3 and the target WAa The relative position with respect to the revolving unit 3 can be grasped. Further, by providing a swing body posture sensor 41 for detecting the posture of the swing body 3 and a work machine posture sensor 42 for detecting the posture of the work machine 4, actual data can be obtained based on detection data of the swing body posture sensor 41.
  • a swinging body image 3G is displayed so as to be interlocked with the swinging of the swinging body 3, and a work implement image 4G is displayed so as to be interlocked with the actual operation of the work implement 4 based on detection data of the work implement posture sensor 42 .
  • the operator can check the posture and operating condition of the hydraulic shovel 1.
  • the posture detection device 440 including the IMU is mounted on the transport vehicle WAb, and the posture detection device 440 detects the posture (roll angle ⁇ 4, pitch angle ⁇ 5, yaw angle ⁇ 6) of the transport vehicle WAb. It was decided.
  • the yaw angle ⁇ 6 may be detected as the posture of the transport vehicle WAb, and the roll angle ⁇ 4 and the pitch angle ⁇ 5 may not be detected.
  • the transport vehicle WAb is often positioned on the ground substantially parallel to the horizontal plane, and the roll angle ⁇ 4 and the pitch angle ⁇ 5 are often close to zero. Therefore, the transport vehicle image AGb may be displayed based on the detection data of the yaw angle ⁇ 6 in a state where the roll angle ⁇ 4 and the pitch angle ⁇ 5 are regarded as zero.
  • the posture detection device 440 may be omitted.
  • the yaw angle ⁇ 6 can be detected by the position detection device 430.
  • detection data of the position detection device 430 is output to the control device 460.
  • the arithmetic processing unit 460A of the control unit 460 includes an attitude calculation unit 440B that calculates the yaw angle ⁇ 6 based on the detection data of the position detection unit 430.
  • the posture calculation unit 440B determines the position of one GPS antenna 431 and the other GPS antenna.
  • Posture calculation unit 440B Based on the 431 position, the orientation of the vehicle body 402 with respect to the reference orientation in the global coordinate system can be detected.
  • Posture calculation unit 440B performs arithmetic processing based on the position of one GPS antenna 431 and the position of the other GPS antenna 431, and detects the direction of vehicle body 402 with respect to the reference direction.
  • the angle between the reference orientation and the orientation of the vehicle body 402 corresponds to the yaw angle ⁇ 6.
  • the attitude calculation unit 440B calculates a straight line connecting the position of one GPS antenna 431 and the position of the other GPS antenna 431, and detects the yaw angle ⁇ 6 based on the angle formed by the calculated straight line and the reference direction. Can.
  • the number of GPS antennas 431 (position detection device 430) provided in the transport vehicle WAb may be one.
  • Posture calculation unit 440 ⁇ / b> B can derive a movement trajectory of transport vehicle WAb in the horizontal plane based on detection data of one position detection device 430.
  • the direction of the tangent of the movement trajectory of the transport vehicle WAb with respect to the reference orientation corresponds to the yaw angle ⁇ 6.
  • the attitude calculation unit 440B can detect the yaw angle ⁇ 6 based on the tangent of the movement trajectory derived based on the detection data of one position detection device 430.
  • the three-dimensional shape of the target image AGa and the image captured by the imaging device 50 may be displayed in the superimposed image IG in a superimposed state.
  • the three-dimensional shape of the object WAa in the imaging device coordinate system by converting the position Pd in the three-dimensional shape of the object WAa detected by the distance detection device 20 into the position Pc in the image of the imaging device coordinate system. And the image of the object WAa can be superimposed. Further, the position Pd in the three-dimensional shape of the object WAa and the position Pc in the image of the object WAa can be converted into the position Pm of the vehicle coordinate system or the position Pg of the global coordinate system.
  • the impose image IG includes the work machine image BG, the transport vehicle image AGb, and the target image AGa.
  • the impose image IG includes the work machine image BG and the transport vehicle image AGb, and may not include the target image AGa.
  • the distance detection device 20 may be omitted.
  • the load image IG is loaded, for example It is possible to suppress the occurrence of an unexpected situation in which the loading platform 401 and the bucket 8 are brought into contact in the operation.
  • the work machine image BG includes the traveling body image 2G, the revolving body image 3G, and the work machine image 4G.
  • the work machine image BG may include the swing body image 3G and the work machine image 4G and may not include the traveling body image 2G.
  • the work machine image BG may include the work machine image 4G and may not include the traveling body image 2G and the revolving body image 3G.
  • the distance detection device 20 is a laser range finder.
  • the distance detection device 20 is not limited to the laser range finder.
  • the distance detection device 20 may be, for example, an ultrasonic distance sensor or a stereo camera as long as it can detect the three-dimensional shape of the object WAa.
  • a plurality of distance detection devices 20 may be provided. Further, by the distance detection device 20, not only the three-dimensional shape of the object WAa in the forward direction of the swing body 3 but also the three-dimensional shape of the object WAa in the right direction of the swing body 3 and the object WAa in the left direction of the swing body 3 At least one of the three-dimensional shape and the three-dimensional shape of the object WAa in the backward direction of the swing body 3 may be detected.
  • the work machine attitude sensor 42 is a stroke sensor.
  • Work implement attitude sensor 42 is not limited to a stroke sensor.
  • the work machine attitude sensor 42 may be, for example, a rotary sensor, an acceleration sensor, or an optical sensor such as a laser scanner as long as it can detect the tilt angle of the work machine 4.
  • the imaging device 50 is a monocular camera.
  • the imaging device 50 is not limited to a monocular camera.
  • the imaging device 50 may be, for example, a stereo camera having a function of detecting a three-dimensional shape of the object WAa and a function of acquiring an image.
  • a plurality of imaging devices 50 may be provided. Further, by the imaging device 50, not only the image of the target WAa in the forward direction of the swing body 3 but also the image of the target WAa in the right direction of the swing body 3, the image of the target WAa in the left direction of the swing body 3, and the swing body 3 At least one of the images of the backward target WAa may be acquired.
  • At least one of the distance detection device 20, the position detection device 30, the posture detection device 40, and the imaging device 50 is installed outside the hydraulic shovel 1 without being mounted on the hydraulic shovel 1. It is also good.
  • the position Pb of the transport vehicle WAb is detected using GNSS.
  • the position of the transport vehicle WAb may be detected based on, for example, a stereo camera or a laser range finder mounted on the hydraulic excavator 1, or detected by a GNSS function such as a smartphone possessed by the driver of the transport vehicle WAb. It is also good.
  • At least one of the position detection device 430 and the posture detection device 440 may be installed outside the transport vehicle WAb without being mounted on the transport vehicle WAb.
  • the virtual viewpoint may move. That is, the display control unit 93 may cause the display device 80 to display the pose image IG including the work machine image BG and the transport vehicle image AGb as viewed from the virtual viewpoints set at each of a plurality of different positions.
  • the pose image IG may be a free viewpoint image.
  • the free viewpoint image refers to an image viewed from the set virtual viewpoint with the virtual viewpoint for the object (hydraulic shovel 1 and transport vehicle 2) set at an arbitrary position.
  • the detection data of the distance detection device 20, the detection data of the position detection device 30, and the detection data of the attitude detection device 40 are transmitted to the control device 90 through the communication system 300.
  • the work machine image BG and the transport vehicle image AGb are generated and displayed on the display device 80.
  • At least one of the working machine image BG and the transporting vehicle image AGb is generated by the control device 60 mounted on the hydraulic shovel 1, and at least one of the generated working machine image BG and the transporting vehicle image AGb is the communication system 300. It may be transmitted to the control device 90 via the display device 80 and displayed on the display device 80.
  • the detection data of the position detection device 430 and the detection data of the attitude detection device 440 are transmitted to the control device 90 through the communication system 300, and the control device 90 generates the transport vehicle image AGb. , And displayed on the display device 80.
  • the transport vehicle image AGb is generated by the control device 460 mounted on the transport vehicle WAb, and the generated transport vehicle image AGb is transmitted to the control device 90 via the communication system 300 and displayed on the display device 80. It is also good.
  • the pose image IG is displayed on part of the display screen of the display device 80 that displays the actual image RG of the work site.
  • the display device that displays the real image RG and the display device that displays the imposed image IG may be different display devices.
  • the sub display may be disposed adjacent to the main display, the real image RG may be displayed on the main display, and the pose image IG may be displayed on the sub display.
  • the working machine 1 is a hydraulic shovel.
  • the work machine 1 only needs to have a work machine and a swing body that supports the work machine, and is not limited to a hydraulic shovel.
  • the work machine 1 only needs to have a work machine, and may not have a swing body.
  • the work machine 1 may be a wheel loader or the like.
  • SYMBOLS 1 Hydraulic shovel (work machine), 2 ... Traveling body, 2A ... Track, 2B ... Track, 3 ... Swirl body, 4 ... Work machine, 5 ... Hydraulic cylinder, 6 ... Boom, 7 ... Arm, 8 ... Bucket, 9 ...
  • tip end portion 10 boom cylinder 11: arm cylinder 12: bucket cylinder 20: distance detection device 30: position detection device (first position detection device) 31: GPS antenna 40: posture detection device 1 Posture detection device) 41: Swing body posture sensor 42: Work machine posture sensor 42A: Boom stroke sensor 42B: Arm stroke sensor 42C: Bucket stroke sensor 50: Imaging device 60: Control device 60A: 60A Arithmetic processing unit, 60B: storage unit, 60C: input / output interface, 70: remote control unit, 71: working lever, 71L: left working lever, 71R Right working lever, 72: running lever, 72L: left running lever, 72R: right running lever, 80: display device, 90: control device, 90A: arithmetic processing unit, 90B: storage device, 90C: input / output interface, 91: Target image generation unit 92: Work machine image generation unit 93: Display control unit 94: Coordinate conversion data storage unit 95: Transport vehicle image generation unit 96: Synthesis unit 97: Data reception unit 100: Remote control System 200 display

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)
  • Selective Calling Equipment (AREA)
  • Telephonic Communication Services (AREA)

Abstract

表示システムは、作業機を有する作業機械の位置の検出データと作業機械の姿勢の検出データとに基づいて、作業機械の外部の仮想視点から見た作業機械の仮想視点画像を示す作業機械画像を生成する作業機械画像生成部と、運搬車両の位置の検出データと運搬車両の姿勢の検出データとに基づいて、仮想視点から見た運搬車両の仮想視点画像を示す運搬車両画像を生成する運搬車両画像生成部と、作業機械画像と運搬車両画像とを重畳した合成画像を生成する合成部と、合成画像を作業機械の外部に存在する表示装置に表示させる表示制御部と、を備える。

Description

表示システム、表示方法、及び表示装置
 本発明は、表示システム、表示方法、及び表示装置に関する。
 作業機械を遠隔操作する技術が知られている。作業機械を遠隔操作する場合、撮像装置によって作業現場が撮像される。撮像装置で撮像された作業現場の画像は、遠隔操作施設に設けられている表示装置に表示される。操作者は、表示装置に表示される作業現場の画像を見ながら、遠隔操作装置を操作する。
 特許文献1には、作業機械に設けられたカメラで作業現場を撮像するとともに、作業現場に設置されたカメラで作業機械の様子を外方から撮像する技術が開示されている。
特開2013-168776号公報
 作業機械を遠隔操作する場合、表示装置に表示される画像が2次元画像であると、操作者は、作業現場の遠近感を得難くなる可能性がある。作業現場の遠近感が得難いと、作業機械を使って運搬車両に対して積込作業を実施する場合、操作者は、作業機械と運搬車両との距離を把握することが困難となる。その結果、遠隔操作の作業効率が低下する可能性がある。
 本発明の態様は、操作者が作業機械を快適に遠隔操作することができ、作業効率の低下を抑制することができる技術を提供することを目的とする。
 本発明の態様に従えば、作業機を有する作業機械の位置の検出データと前記作業機械の姿勢の検出データとに基づいて、前記作業機械の外部の仮想視点から見た前記作業機械の仮想視点画像を示す作業機械画像を生成する作業機械画像生成部と、運搬車両の位置の検出データと前記運搬車両の姿勢の検出データとに基づいて、前記仮想視点から見た前記運搬車両の仮想視点画像を示す運搬車両画像を生成する運搬車両画像生成部と、前記作業機械画像と前記運搬車両画像とを重畳した合成画像を生成する合成部と、前記合成画像を前記作業機械の外部に存在する表示装置に表示させる表示制御部と、を備える表示システムが提供される。
 本発明の態様によれば、操作者が作業機械を快適に遠隔操作することができ、作業効率の低下を抑制することができる技術が提供される。
図1は、本実施形態に係る作業機械の遠隔操作システムの一例を模式的に示す図である。 図2は、本実施形態に係る作業機械を模式的に示す側面図である。 図3は、本実施形態に係る作業機械を模式的に示す背面図である。 図4は、本実施形態に係る作業機械を模式的に示す平面図である。 図5は、本実施形態に係る運搬車両を模式的に示す側面図である。 図6は、本実施形態に係る運搬車両を模式的に示す背面図である。 図7は、本実施形態に係る運搬車両を模式的に示す平面図である。 図8は、本実施形態に係る距離検出装置及び撮像装置を模式的に示す図である。 図9は、本実施形態に係る距離検出装置及び撮像装置の動作の一例を模式的に示す図である。 図10は、本実施形態に係る制御装置の一例を示す機能ブロック図である。 図11は、本実施形態に係る表示装置の表示例を示す図である。 図12は、本実施形態に係る表示方法の一例を示すフローチャートである。 図13は、本実施形態に係る表示方法の一例を示すフローチャートである。 図14は、本実施形態に係る表示方法の一例を示すフローチャートである。 図15は、本実施形態に係るインポーズ画像の一例を模式的に示す図である。 図16は、本実施形態に係るインポーズ画像の一例を模式的に示す図である。 図17は、本実施形態に係る制御装置の一例を示す機能ブロック図である。
 以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
[作業機械、遠隔操作システム、及び運搬車両の概要]
 図1は、本実施形態に係る作業機械1の遠隔操作システム100の一例を模式的に示す図である。遠隔操作システム100は、作業機械1を遠隔操作する。本実施形態においては、作業機械1が油圧ショベルであることとする。以下の説明においては、作業機械1を適宜、油圧ショベル1、と称する。
 油圧ショベル1は、走行体2と、旋回体3と、作業機4と、油圧シリンダ5と、距離検出装置20と、位置検出装置30(第1位置検出装置)と、姿勢検出装置40(第1姿勢検出装置)と、撮像装置50と、制御装置60とを有する。油圧ショベル1は、作業現場に存在し、作業現場で作業する。
 本実施形態においては、旋回体3に車体座標系(Xm-Ym-Zm座標系)が規定される。車体座標系とは、旋回体3に規定された原点PLに対する相対位置を示す3次元の座標系である。旋回体3の車体座標系は、原点PLを基準とする第1基準面のXm軸と、第1基準面においてXm軸と直交するYm軸と、第1基準面と直交するZm軸とによって規定される。Xm軸と平行な方向をXm軸方向とし、Ym軸と平行な方向をYm軸方向とし、Zm軸方向と平行な方向をZm軸方向とする。Xm軸方向は旋回体3の前後方向であり、Ym軸方向は旋回体3の左右方向であり、Zm軸方向は旋回体3の上下方向である。
 走行体2は、履帯2A,2Bを有する。履帯2A,2Bが回転することにより、油圧ショベル1が走行する。車体座標系のZm軸は、履帯2A,2Bの接地面と直交する。車体座標系の+Zm方向は、旋回体3の上方向であり、履帯2A,2Bの接地面から離れる方向である。車体座標系の-Zm方向は、旋回体3の下方向であり、+Zm方向とは反対の方向である。
 旋回体3は、走行体2に旋回可能に支持される。旋回体3は、旋回軸Zrを中心に旋回可能である。旋回軸Zrは、車体座標系のZm軸と平行である。車体座標系の原点PLは、旋回体3のスイングサークルの中心に規定される。スイングサークルの中心は、旋回体3の旋回軸Zrに位置する。
 作業機4は、旋回体3に支持される。車体座標系において、作業機4の少なくとも一部は、旋回体3よりも+Xm方向に配置される。車体座標系の+Xm方向は、旋回体3の前方向であり、旋回体3を基準として作業機4の先端部9が存在する方向である。車体座標系の-Xm方向は、旋回体3の後方向であり、+Xm方向とは反対の方向である。
 作業機4は、旋回体3に連結されるブーム6と、ブーム6に連結されるアーム7と、アーム7に連結されるバケット8とを有する。作業機4の先端部9は、バケット8の刃先を含む。なお、作業機4の先端部9は、バケット8のブレードの先端部でもよい。
 油圧シリンダ5は、作業機4を駆動するための動力を発生する。油圧シリンダ5は、油圧ポンプから供給される作動油によって駆動する。油圧シリンダ5は、ブーム6を駆動するブームシリンダ10と、アーム7を駆動するアームシリンダ11と、バケット8を駆動するバケットシリンダ12とを含む。
 ブーム6は、回転軸AX1を中心に旋回体3に回転可能に連結される。アーム7は、回転軸AX2を中心にブーム6の先端部に回転可能に連結される。バケット8は、回転軸AX3を中心にアーム7の先端部に回転可能に連結される。ブーム6の回転軸AX1、アーム7の回転軸AX2、及びバケット8の回転軸AX3は、車体座標系のYm軸と平行である。車体座標系の+Ym方向は、旋回体3の左方向である。車体座標系の-Ym方向は、+Ym方向とは反対の方向であり、旋回体3の右方向である。
 距離検出装置20は、油圧ショベル1に搭載される。距離検出装置20は、油圧ショベル1の周囲の対象WAaとの距離Ldを検出する(図9参照)。
 対象WAaとして、作業現場において施工される施工対象、地表、旋回体3よりも前方向に存在する作業機4の少なくとも一部、構造物、及び油圧ショベル1とは別の作業機械の少なくとも一つが例示される。
 本実施形態において、距離検出装置20は、レーザレンジファインダを含む。距離検出装置20は、検出光であるレーザ光を射出する射出部と、対象WAaに照射されたレーザ光の反射光を受光する受光部とを有する。距離検出装置20は、旋回体3の上部に設けられる。距離検出装置20の受光部は、旋回体3の前方向(+Xm方向)を向く。距離検出装置20は、旋回体3の前方向の対象WAaとの距離Ldを検出する。距離検出装置20の検出データは、制御装置60に出力される。
 位置検出装置30は、油圧ショベル1に搭載される。位置検出装置30は、グローバル座標系(Xg-Yg-Zg座標系)における油圧ショベル1の旋回体3の位置Paを検出する。グローバル座標系とは、地球に規定された原点PGを基準とする3次元の座標系であって、全地球測位システム(Global Positioning System:GPS)のような全地球航法衛星システム(Global Navigation Satellite System:GNSS)により規定される絶対位置を示す座標系である。位置検出装置30は、旋回体3に設けられる。位置検出装置30は、GNSSを利用して、旋回体3の位置Paを検出する。位置検出装置30の検出データは、制御装置60に出力される。
 姿勢検出装置40は、油圧ショベル1に搭載される。姿勢検出装置40は、油圧ショベル1の姿勢を検出する。油圧ショベル1の姿勢は、旋回体3の姿勢及び作業機4の姿勢を含む。旋回体3の姿勢は、旋回体3の傾斜角を含む。作業機4の姿勢は、作業機4の傾斜角を含む。姿勢検出装置40は、旋回体3の姿勢を検出する旋回体姿勢センサ41と、作業機4の姿勢を検出する作業機姿勢センサ42とを含む。姿勢検出装置40の検出データは、制御装置60に出力される。
 本実施形態において、旋回体姿勢センサ41は、旋回体3に設けられた慣性計測装置(Inertial Measurement Unit:IMU)を含む。作業機姿勢センサ42は、油圧シリンダ5の作動量を示すシリンダストロークを検出するストロークセンサを含む。
 撮像装置50は、油圧ショベル1に搭載される。撮像装置50は、油圧ショベル1の周囲の対象WAaを撮像して、対象WAaの画像を取得する。撮像装置50は、光学系と、光学系を通過した光を受光するイメージセンサとを有する。イメージセンサは、CCD(Couple Charged Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。
 本実施形態において、撮像装置50は、単眼カメラである。撮像装置50は、旋回体3の上部に設けられる。撮像装置50の光学系の入射面は、旋回体3の前方向(+Xm方向)を向く。撮像装置50は、旋回体3の前方向の対象WAaの画像を取得する。本実施形態において、撮像装置50は、旋回体3よりも前方向に存在する作業機4の少なくとも一部の画像を取得可能である。撮像装置50で取得された対象WAaの画像データは、制御装置60に出力される。
 以下の説明においては、撮像装置50で取得される画像を適宜、実画像RG、と称する。実画像RGは、撮像装置50で撮像された作業現場の実際の画像を示す。実画像RGは、2次元画像である。
 遠隔操作システム100は、油圧ショベル1の外部に存在する遠隔操作施設に設けられる遠隔操作装置70と、作業現場に存在する対象WAa及び運搬車両WAbの画像を遠隔操作施設において表示させる表示システム200とを備える。
 表示システム200は、油圧ショベル1の外部に存在する表示装置80と、油圧ショベル1の外部に存在し油圧ショベル1と通信可能な制御装置90とを備える。遠隔操作装置70、表示装置80、及び制御装置90のそれぞれは、遠隔操作施設に設けられる。遠隔操作装置70、表示装置80、及び制御装置90のそれぞれは、油圧ショベル1及び運搬車両WAbとは別体で設けられる。
 油圧ショベル1に搭載されている制御装置60と遠隔操作施設に設けられている制御装置90とは、通信システム300を介して通信する。通信システム300は、有線通信してもよいし、無線通信してもよい。通信システム300は、インターネット(internet)、ローカルエリアネットワーク(LAN:Local Area Network)、携帯電話通信網、及び衛星通信網の少なくとも一つを含む。
 油圧ショベル1は、遠隔操作装置70によって遠隔操作される。遠隔操作装置70は、油圧ショベル1の旋回体3及び作業機4を遠隔操作する作業レバー71と、走行体2を遠隔操作する走行レバー72とを含む。操作者は、遠隔操作施設において遠隔操作装置70を操作する。遠隔操作装置70が操作されることにより生成された操作信号は、通信システム300を介して制御装置60に送信される。制御装置60は、操作信号に基づいて、旋回体3、作業機4、及び走行体2を制御する制御信号を出力する。これにより、油圧ショベル1は遠隔操作される。
 作業レバー71は、旋回体3及び作業機4の作動のために操作される左作業レバー71L及び右作業レバー71Rを含む。走行レバー72は、走行体2の作動のために操作される左走行レバー72L及び右走行レバー72Rを含む。
 作業現場において、運搬車両WAbが稼働する。運搬車両WAbは、ダンプトラックであり、荷台401と、荷台401を支持する車体402と、車体402を支持する走行装置403と、位置検出装置430(第2位置検出装置)と、姿勢検出装置440(第2姿勢検出装置)と、制御装置460とを有する。走行装置403は、タイヤを支持する車輪及び操舵装置を含む。
 運搬車両WAbに運転者が搭乗する。運搬車両WAbは、運転者によって操作される。油圧ショベル1は、施工対象を作業機4で掘削して、掘削することにより生じた積荷を運搬車両WAbに積み込む。運搬車両WAbは、油圧ショベル1により積み込まれた積荷を運搬する。
 なお、運搬車両WAbに運転者が搭乗しなくてもよい。すなわち、運搬車両WAbは、例えば管理システムから送信された指令信号に基づいて走行する無人運搬車両(無人ダンプトラック)でもよい。
 本実施形態においては、車体402に車体座標系(Xn-Yn-Zn座標系)が規定される。車体座標系とは、車体402に規定された原点PNに対する相対位置を示す3次元の座標系である。車体402の車体座標系は、原点PNを基準とする第4基準面のXn軸と、第4基準面においてXn軸と直交するYn軸と、第4基準面と直交するZn軸とによって規定される。Xn軸と平行な方向をXn軸方向とし、Yn軸と平行な方向をYn軸方向とし、Zn軸方向と平行な方向をZn軸方向とする。Xn軸方向は車体402の前後方向であり、Yn軸方向は車体402の左右方向であり、Zn軸方向は車体402の上下方向である。
 位置検出装置430は、運搬車両WAbに搭載される。位置検出装置430は、グローバル座標系(Xg-Yg-Zg座標系)における運搬車両WAbの位置Pbを検出する。位置検出装置430は、車体402に設けられる。位置検出装置430は、GNSSを利用して、車体402の位置Pbを検出する。位置検出装置430の検出データは、制御装置460に出力される。
 姿勢検出装置440は、運搬車両WAbに搭載される。姿勢検出装置440は、運搬車両WAbの姿勢を検出する。運搬車両WAbの姿勢は、車体402の姿勢を含む。車体402の姿勢は、車体402の傾斜角を含む。姿勢検出装置440の検出データは、制御装置460に出力される。本実施形態において、姿勢検出装置440は、車体402に設けられた慣性計測装置(Inertial Measurement Unit:IMU)を含む。
 運搬車両WAbに搭載されている制御装置460と遠隔操作施設に設けられている制御装置90とは、通信システム300を介して通信する。
[作業機械]
 図2は、本実施形態に係る油圧ショベル1を模式的に示す側面図である。図3は、本実施形態に係る油圧ショベル1を模式的に示す背面図である。図4は、本実施形態に係る油圧ショベル1を模式的に示す平面図である。
 図2、図3、及び図4に示すように、油圧ショベル1は、距離検出装置20と、位置検出装置30と、旋回体姿勢センサ41及び作業機姿勢センサ42を含む姿勢検出装置40と、撮像装置50と、制御装置60とを有する。
 旋回体3に複数のGPSアンテナ31が設けられる。GPSアンテナ31は、GPS衛星から電波を受信して、受信した電波に基づいて生成した信号を位置検出装置30に出力する。位置検出装置30は、GPSアンテナ31からの信号に基づいて、グローバル座標系で規定されるGPSアンテナ31が設置されている位置Prを検出する。位置検出装置30は、GPSアンテナ31が設置されている位置Prに基づいて、グローバル座標系における旋回体3の位置Paを検出する。
 GPSアンテナ31は、左右方向に2つ設けられる。位置検出装置30は、一方のGPSアンテナ31が設置されている位置Pra及び他方のGPSアンテナ31が設置されている位置Prbのそれぞれを検出する。位置検出装置30は、位置Praと位置Prbとの少なくとも一方に基づいて演算処理を実施して、グローバル座標系における旋回体3の位置Paを検出する。本実施形態において、旋回体3の位置Paは、位置Praである。なお、旋回体3の位置Paは、位置Prbでもよいし、位置Praと位置Prbとの間の位置でもよい。
 旋回体姿勢センサ41は、慣性計測装置(IMU)を含む。旋回体姿勢センサ41は、グローバル座標系で規定されるXg-Yg平面(水平面)に対する旋回体3の傾斜角を検出する。旋回体3の傾斜角は、水平面に対する左右方向における旋回体3の傾斜角を示すロール角θ1と、水平面に対する前後方向における旋回体3の傾斜角を示すピッチ角θ2と、Zm軸を中心とする回転方向における旋回体3の傾斜角を示すヨー角θ3とを含む。ロール角θ1、ピッチ角θ2、及びヨー角θ3は、慣性計測装置によって検出された角速度を時間積分することにより算出される。旋回体3が旋回すると、ヨー角θ3が変化する。走行体2が停止した状態で旋回体3が旋回する場合、ヨー角θ3は、旋回体3の旋回角に相当する。
 旋回体3の姿勢は、ロール角θ1、ピッチ角θ2、及びヨー角θ3の少なくとも一つを含む。
 なお、ヨー角θ3は、位置検出装置30によって検出されてもよい。位置検出装置30は、一方のGPSアンテナ31の位置Praと他方のGPSアンテナ31の位置Prbとに基づいて、グローバル座標系における基準方位に対する旋回体3の方位を検出することができる。位置検出装置30は、位置Praと位置Prbとに基づいて演算処理を実施して、基準方位に対する旋回体3の方位を検出する。基準方位と旋回体3の方位とがなす角度がヨー角θ3に相当する。位置検出装置30は、位置Praと位置Prbとを結ぶ直線を算出し、算出した直線と基準方位とがなす角度に基づいて、ヨー角θ3を検出することができる。
 作業機姿勢センサ42は、ストロークセンサを含む。作業機姿勢センサ42は、車体座標系で規定される作業機4の傾斜角を検出する。ストロークセンサは、ブームシリンダ10のシリンダストロークを検出するブームストロークセンサ42Aと、アームシリンダ11のシリンダストロークを検出するアームストロークセンサ42Bと、バケットシリンダ12のシリンダストロークを検出するバケットストロークセンサ42Cとを含む。制御装置60は、ブームストロークセンサ42Aの検出データに基づいて、車体座標系のZm軸に対するブーム6の傾斜角αを算出する。制御装置60は、アームストロークセンサ42Bの検出データに基づいて、ブーム6に対するアーム7の傾斜角βを算出する。制御装置60は、バケットストロークセンサ42Cの検出データに基づいて、アーム7に対するバケット8の傾斜角γを算出する。
 作業機4の姿勢は、傾斜角α、傾斜角β、及び傾斜角γの少なくとも一つを含む。
[運搬車両]
 図5は、本実施形態に係る運搬車両WAbを模式的に示す側面図である。図6は、本実施形態に係る運搬車両WAbを模式的に示す背面図である。図7は、本実施形態に係る運搬車両WAbを模式的に示す平面図である。
 図5、図6、及び図7に示すように、運搬車両WAbは、位置検出装置430と、姿勢検出装置440と、制御装置460とを有する。
 車体402に複数のGPSアンテナ431が設けられる。位置検出装置430は、GPSアンテナ431からの信号に基づいて、グローバル座標系で規定されるGPSアンテナ431が設置されている位置を検出する。位置検出装置430は、GPSアンテナ431が設置されている位置に基づいて、グローバル座標系における車体402の位置Pbを検出する。
 姿勢検出装置440は、慣性計測装置(IMU)を含む。姿勢検出装置440は、グローバル座標系で規定されるXg-Yg平面(水平面)に対する車体402の傾斜角を検出する。車体402の傾斜角は、水平面に対する左右方向における車体402の傾斜角を示すロール角θ4と、水平面に対する前後方向における車体402の傾斜角を示すピッチ角θ5と、Zn軸を中心とする回転方向における車体402の傾斜角を示すヨー角θ6とを含む。ロール角θ4、ピッチ角θ5、及びヨー角θ6は、慣性計測装置によって検出された角速度を時間積分することにより算出される。なお、ヨー角θ6は、位置検出装置430によって検出されてもよい。車体402が旋回すると、ヨー角θ6が変化する。
 車体402の姿勢は、ロール角θ4、ピッチ角θ5、及びヨー角θ6の少なくとも一つを含む。車体402が旋回すると、ヨー角θ6が変化する。
[座標系]
 図8は、本実施形態に係る距離検出装置20及び撮像装置50を模式的に示す図である。上述のように、本実施形態においては、グローバル座標系(Xg-Yg-Zg座標系)と、車体座標系(Xm-Ym-Zm座標系)とが規定される。
 また、本実施形態においては、距離検出装置座標系(Xd-Yd-Zd座標系)と、撮像装置座標系(Xc-Yc-Zc座標系)とが規定される。
 距離検出装置座標系とは、距離検出装置20に規定された原点PDに対する相対位置を示す3次元の座標系である。距離検出装置座標系は、原点PDを基準とする第2基準面のXd軸と、第2基準面においてXd軸と直交するYd軸と、第2基準面と直交するZd軸とによって規定される。距離検出装置座標系の原点PDは、距離検出素子20RCの検出面20Pの中心に規定される。
 撮像装置座標系とは、撮像装置50に規定された原点PCに対する相対位置を示す3次元の座標系である。撮像装置座標系は、原点PCを基準とする第3基準面のXc軸と、第3基準面においてXc軸と直交するYc軸と、第3基準面と直交するZc軸とによって規定される。撮像装置座標系の原点PCは、イメージセンサ19RCの撮像面19Pの中心に規定される。Xc軸は、撮像装置50の光学中心を通り、撮像面19Pと直交する。
 位置検出装置30で検出されるグローバル座標系における旋回体3の位置Paと、旋回体3の車体座標系における原点PLとの相対位置は、例えば油圧ショベル1の設計データ又は諸元データなどから導出される既知データである。また、旋回体3の車体座標系における原点PLと距離検出装置座標系における原点PDと撮像装置座標系における原点PCとの相対位置は、例えば油圧ショベル1の設計データ、距離検出装置20の設計データ又は諸元データ、及び撮像装置50の設計データ又は諸元データなどから導出される既知データである。そのため、グローバル座標系における旋回体3の位置Paと、旋回体3の車体座標系における位置と、距離検出装置座標系における位置と、撮像装置座標系における位置とは、相互に変換可能である。
 また、位置検出装置430で検出されるグローバル座標系における車体402の位置Pbと、車体402の車体座標系における原点PNとの相対位置は、例えば運搬車両WAbの設計データ又は諸元データなどから導出される既知データである。また、グローバル座標系における旋回体3と車体402との相対位置は、位置検出装置30によって検出される旋回体3の位置Paと位置検出装置430によって検出される車体402の位置Pbとによって規定される。そのため、グローバル座標系における旋回体3の位置と、グローバル座標系における車体402の位置Pbと、旋回体3の車体座標系における位置と、車体402の車体座標系における位置Pbとは、相互に変換可能である。また、グローバル座標系における車体402の位置と、車体402の車体座標系における位置と、距離検出装置座標系における位置と、撮像装置座標系における位置とは、相互に変換可能である。
[距離検出装置及び撮像装置]
 図9は、本実施形態に係る距離検出装置20及び撮像装置50の一例を模式的に示す図である。図9は、距離検出装置20によって検出され撮像装置50によって撮像される対象WAaが施工対象の地表である例を示す。
 図9に示すように、距離検出装置20は、検出範囲MAを有する。距離検出装置20は、検出範囲MAに存在する対象WAaとの距離Ldを検出する。距離Ldは、距離検出装置座標系における原点PDと対象WAaの表面との距離である。
 距離検出装置20は、対象WAaの表面との距離Ldを検出して、距離検出装置座標系における対象物WAaの表面の位置Pdを検出する。位置Pdは、原点PDに対する方位及び角度を規定する。距離検出装置20は、距離検出装置座標系における位置Pdの3次元の座標(Xd,Yd,Zd)を検出することができる。
 距離検出装置20は、対象WAaの表面の複数の部位のそれぞれとの距離Ldを検出して、それら複数の部位それぞれの位置Pdを検出することにより、距離検出座標系における対象WAaの3次元形状を検出することができる。対象WAaの3次元形状は、3次元の座標(Xd,Yd,Zd)が検出された複数の位置Pdの点群データである。
 距離検出装置20は、旋回体3の前方向の対象WAaの3次元形状を検出する。対象WAaが地表である場合、距離検出装置20は、地表の複数の部位のそれぞれとの距離Ldを検出して、油圧ショベル1の前方向の地形を検出することができる。
 上述のように、グローバル座標系における位置と、旋回体3の車体座標系における位置と、車体402の車体座標系における位置と、距離検出装置座標系における位置と、撮像装置座標系における位置とは、相互に変換可能である。したがって、距離検出装置座標系において規定された複数の位置Pd(Xd,Yd,Zd)の点群データは、旋回体3の車体座標系において規定される複数の位置Pm(Xm,Ym,Zm)の点群データに変換可能であり、車体402の車体座標系において規定される複数の位置Pn(Xn,Yn,Zn)の点群データに変換可能であり、グローバル座標系において規定される複数の位置Pg(Xg,Yg,Zg)の点群データに変換可能であり、撮像装置座標系において規定される複数の位置Pc(Xc,Yc,Zc)の点群データに変換可能である。換言すれば、距離検出装置座標系において規定される対象WAaの3次元形状は、座標変換することによって、旋回体3の車体座標系、車体402の車体座標系、グローバル座標系、及び撮像装置座標系のそれぞれの対象WAaの3次元形状に変換可能である。
 撮像装置50は、撮像範囲TAを有する。撮像装置50は、撮像範囲TAに存在する対象WAaの画像を取得することができる。対象WAaの表面において、検出範囲MAと撮像範囲TAの少なくとも一部とが重複する。検出範囲MAと撮像範囲TAの少なくとも一部とが重複するように、旋回体3に対する距離検出装置20の設置状態及び撮像装置50の設置状態が調整される。検出範囲MAと撮像範囲TAとが重複する範囲は可能な限り大きいことが好ましい。撮像装置50は、複数の位置Pdのそれぞれに対応する画像を取得する。位置Pdに対応する画像における位置Pcは、撮像装置座標系において規定される。距離検出装置20で検出された対象WAaの3次元形状における位置Pdを撮像装置座標系の画像における位置Pcに変換することによって、撮像装置座標系において、対象WAaの3次元形状と対象WAaの画像とを重ね合わせることができる。また、対象WAaの3次元形状における位置Pd及び対象WAaの画像における位置Pcは、旋回体3の車体座標系の位置Pm、車体402の車体座標系の位置Pn、又はグローバル座標系の位置Pgに変換可能である。
[制御装置]
 図10は、本実施形態に係る制御装置60、制御装置460、及び制御装置90の一例を示す機能ブロック図である。
 制御装置60は、コンピュータシステムを含む。制御装置60は、CPU(Central Processing Unit)のようなプロセッサを含む演算処理装置60Aと、RAM(Random Access Memory)のような揮発性メモリ及びROM(Read Only Memory)のような不揮発性メモリを含む記憶装置60Bと、信号及びデータを送受信可能な入出力回路を含む入出力インターフェース60Cとを有する。
 制御装置460は、コンピュータシステムを含む。制御装置460は、CPU(Central Processing Unit)のようなプロセッサを含む演算処理装置460Aと、RAM(Random Access Memory)のような揮発性メモリ及びROM(Read Only Memory)のような不揮発性メモリを含む記憶装置460Bと、信号及びデータを送受信可能な入出力回路を含む入出力インターフェース460Cとを有する。
 制御装置90は、コンピュータシステムを含む。制御装置90は、CPU(Central Processing Unit)のようなプロセッサを含む演算処理装置90Aと、RAM(Random Access Memory)のような揮発性メモリ及びROM(Read Only Memory)のような不揮発性メモリを含む記憶装置90Bと、入出力インターフェース90Cとを有する。
 表示装置80は、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイを含む。
 距離検出装置20が検出した対象WAaとの距離Ldを示す検出データは、制御装置60に所定の周期で出力される。制御装置60の入出力インターフェース60Cは、距離検出装置20の検出データを受信する。制御装置60の入出力インターフェース60Cは、通信システム300を介して、距離検出装置20の検出データを制御装置90に所定の周期で送信する。
 位置検出装置30が検出した旋回体3の位置Paを示す検出データは、制御装置60に所定の周期で出力される。制御装置60の入出力インターフェース60Cは、位置検出装置30の検出データを受信する。制御装置60の入出力インターフェース60Cは、通信システム300を介して、位置検出装置30の検出データを制御装置90に所定の周期で送信する。
 姿勢検出装置40が検出した油圧ショベル1の姿勢を示す検出データは、制御装置60に所定の周期で出力される。制御装置60の入出力インターフェース60Cは、姿勢検出装置40の検出データを受信する。制御装置60の入出力インターフェース60Cは、通信システム300を介して、姿勢検出装置40の検出データを制御装置90に所定の周期で送信する。
 撮像装置50が撮像した対象WAaの画像データは、制御装置60に所定の周期で出力される。制御装置60の入出力インターフェース60Cは、撮像装置50の画像データを受信する。制御装置60の入出力インターフェース60Cは、通信システム300を介して、対象WAaの画像データを制御装置90に所定の周期で送信する。
 位置検出装置430が検出した車体402の位置Pbを示す検出データは、制御装置460に所定の周期で出力される。制御装置460の入出力インターフェース460Cは、位置検出装置430の検出データを受信する。制御装置460の入出力インターフェース460Cは、通信システム300を介して、位置検出装置430の検出データを制御装置90に所定の周期で送信する。
 姿勢検出装置440が検出した運搬車両WAbの姿勢を示す検出データは、制御装置460に所定の周期で出力される。制御装置460の入出力インターフェース460Cは、姿勢検出装置440の検出データを受信する。制御装置460の入出力インターフェース460Cは、通信システム300を介して、姿勢検出装置440の検出データを制御装置90に所定の周期で送信する。
 制御装置90は、通信システム300を介して、距離検出装置20の検出データ、位置検出装置30の検出データ、姿勢検出装置40の検出データ、撮像装置50が撮像した対象WAaの画像データ、位置検出装置430の検出データ、及び姿勢検出装置440の検出データを所定の周期で受信する。制御装置90は、距離検出装置20の検出データに基づいて、油圧ショベル1の外部の仮想視点から見た対象WAaの仮想視点画像を示す対象画像AGaを所定の周期で生成する。また、制御装置90は、位置検出装置30の検出データと姿勢検出装置40の検出データとに基づいて、油圧ショベル1の外部の仮想視点から見た油圧ショベル1の仮想視点画像を示す作業機械画像BGを所定の周期で生成する。また、制御装置90は、位置検出装置430の検出データと姿勢検出装置440の検出データとに基づいて、油圧ショベル1及び運搬車両WAbの外部の仮想視点から見た運搬車両WAbの仮想視点画像を示す運搬車両画像AGbを所定の周期で生成する。また、制御装置90は、対象画像AGaと作業機械画像BGと運搬車両画像AGbとを重畳した合成画像IGを所定の周期で生成する。
 表示装置80は、制御装置90で生成された合成画像IGを表示する。対象画像AGa、作業機械画像BG、及び運搬車両画像AGbを含む合成画像IGは、制御装置90によって生成されるコンピュータグラフィックス(computer graphics)である。表示装置80に表示される対象画像AGa、作業機械画像BG、及び運搬車両画像AGbのそれぞれは、油圧ショベル1及び運搬車両WAbの外部の仮想視点から俯瞰した3次元画像である。また、表示装置80は、撮像装置50で撮像された作業現場の対象WAaの実際の画像を示す実画像RGを表示する。実画像RGは、2次元画像である。
 仮想視点とは、実空間(本実施形態においては作業現場)を模擬した仮想空間において、仮想的に設定された視点をいう。仮想視点の位置及び向きは任意に設定可能である。仮想視点画像とは、仮想空間において、位置及び向きが設定された仮想視点から俯瞰した仮想的な画像をいう。例えば、仮想視点画像とは、仮想空間において、仮想視点に設置され、位置及び向きが設定された撮像装置で仮想空間を撮像したときに撮像される仮想的な画像をいう。仮想視点画像は、制御装置90によって生成されるコンピュータグラフィックスである。
 本実施形態において、仮想視点の位置は、油圧ショベル1及び運搬車両WAbの外部であって、油圧ショベル1及び運搬車両WAbの斜め上方向に設定される。仮想視点の向きは、油圧ショベル1、油圧ショベル1の周囲の対象WAa、及び運搬車両WAbを見下ろすように、斜め下方向に設定される。対象画像AGaは、作業現場の仮想空間において仮想視点から俯瞰した対象WAaの仮想的な3次元画像である。作業機械画像BGは、作業現場の仮想空間において仮想視点から俯瞰した油圧ショベル1の仮想的な3次元画像である。運搬車両画像AGbは、作業現場の仮想空間において仮想視点から俯瞰した運搬車両WAbの仮想的な3次元画像である。
 演算処理装置90Aは、データ受信部97と、対象画像生成部91と、作業機械画像生成部92と、運搬車両画像生成部95と、合成部96と、表示制御部93とを有する。記憶装置90Bは、座標変換データ記憶部94を有する。
 データ受信部97は、距離検出装置20の検出データ、位置検出装置30の検出データ、姿勢検出装置40の検出データ、及び撮像装置50の画像データを、通信システム300を介して受信する。また、データ受信部97は、位置検出装置430の検出データ、及び姿勢検出装置440の検出データを、通信システム300を介して受信する。
 対象画像生成部91は、距離検出装置20の検出データに基づいて、油圧ショベル1の外部の仮想視点から見た対象WAaの仮想視点画像を示す対象画像AGaを所定の周期で生成する。距離検出装置20の検出データは、対象WAaの表面の3次元形状を含む。対象画像AGaは、仮想視点から見た対象WAaの3次元画像である。対象画像生成部91は、対象WAaの3次元形状に基づいて、仮想視点から見た対象WAaの3次元画像である対象画像AGaを生成する。
 本実施形態において、対象画像生成部91は、距離検出装置座標系で規定される対象画像AGaを所定の周期で生成する。対象画像AGaが施工対象(地形)である場合、作業現場において、掘削作業又は整地作業等により対象WAaの3次元形状が変化する。対象画像生成部91は、対象画像AGaを所定の周期で生成する。掘削作業又は整地作業等により対象WAaの3次元形状が変化した場合、対象画像生成部91は、対象WAaの3次元形状の変化に連動した対象画像AGaを生成する。
 作業機械画像生成部92は、位置検出装置30の検出データ及び姿勢検出装置40の検出データに基づいて、油圧ショベル1の外部の仮想視点から見た油圧ショベル1の仮想視点画像を示す作業機械画像BGを所定の周期で生成する。姿勢検出装置40の検出データは、油圧ショベル1の旋回体3の姿勢及び作業機4の姿勢を含む。作業機械画像BGは、仮想視点から見た油圧ショベル1の3次元画像である。作業機械画像生成部92は、旋回体3の姿勢及び作業機4の姿勢に基づいて、仮想視点から見た油圧ショベル1の3次元画像である作業機械画像BGを所定の周期で生成する。
 本実施形態において、作業機械画像生成部92は、旋回体3の車体座標系で規定される作業機械画像BGを所定の周期で生成する。また、例えば旋回体3が旋回してヨー角θ3が変化したとき、作業機械画像生成部92は、旋回体3の旋回に連動するように、作業機械画像BGを所定の周期で生成する。同様に、ロール角θ1及びピッチ角θ2の少なくとも一方が変化したとき、作業機械画像生成部92は、ロール角θ1及びピッチ角θ2の少なくとも一方の変化に連動するように、作業機械画像BGを所定の周期で生成する。また、作業機4が作動して、傾斜角α,β,γの少なくとも一つが変化したとき、作業機械画像生成部92は、傾斜角α,β,γの少なくとも一つの変化に連動するように、作業機械画像BGを所定の周期で生成する。
 運搬車両画像生成部95は、位置検出装置430の検出データ及び姿勢検出装置440の検出データに基づいて、油圧ショベル1及び運搬車両WAbの外部の仮想視点から見た運搬車両WAbの仮想視点画像を示す運搬車両画像AGbを所定の周期で生成する。運搬車両画像AGbは、仮想視点から見た運搬車両WAbの3次元画像である。運搬車両画像生成部95は、運搬車両WAbの姿勢に基づいて、仮想視点から見た運搬車両WAbの3次元画像である運搬車両画像AGbを所定の周期で生成する。
 本実施形態において、運搬車両画像生成部95は、車体402の車体座標系で規定される運搬車両画像AGbを所定の周期で生成する。また、例えば運搬車両WAbが旋回してヨー角θ6が変化したとき、運搬車両画像生成部95は、車体402の旋回に連動するように、運搬車両画像AGbを所定の周期で生成する。同様に、ロール角θ4及びピッチ角θ5の少なくとも一方が変化したとき、運搬車両画像生成部95は、ロール角θ4及びピッチ角θ5の少なくとも一方の変化に連動するように、運搬車両画像AGbを所定の周期で生成する。また、積込作業又は運搬作業等により運搬車両WAbの3次元形状又は位置が変化したとき、運搬車両画像生成部95は、運搬車両WAbの3次元形状又は位置の変化に連動するように、運搬車両画像AGbを生成する。
 合成部96は、作業機械画像生成部92で生成された作業機械画像BGと、運搬車両画像生成部95で生成された運搬車両画像AGbとを合成して、合成画像IGを生成する。合成部96は、合成画像IGを所定の周期で生成する。合成画像IGは、作業機械画像BGと運搬車両画像AGbとを重畳した画像である。
 本実施形態において、合成部96は、対象画像生成部91で生成された対象画像AGaと、作業機械画像生成部92で生成された作業機械画像BGと、運搬車両画像生成部95で生成された運搬車両画像AGbとを合成する。合成画像IGは、対象画像AGaと作業機械画像BGと運搬車両画像AGbとを重畳した画像である。なお、対象画像AGaは、合成画像IGに含まれなくてもよい。
 表示制御部93は、合成画像IGを表示装置80に表示させる。表示制御部93は、合成部96で生成された合成画像IGを合成部96から取得する。表示制御部93は、合成画像IGを表示装置80が表示可能な表示データに変換して、表示装置80に出力する。これにより、合成画像IGが表示装置80に表示される。
 座標変換データ記憶部94は、グローバル座標系における位置と、旋回体3の車体座標系における位置と、車体402の車体座標系における位置と、距離検出装置座標系における位置と、撮像装置座標系における位置とを相互に変換するための座標変換データを記憶する。座標変換データは、座標変換パラメータ又は座標変換行列式を含む。グローバル座標系における旋回体3の位置Paと、グローバル座標系における車体402の位置Pbと、旋回体3の車体座標系における原点PLと、車体402の車体座標系における原点PNと、距離検出装置座標系における原点PDと、撮像装置座標系における原点PCとの相対位置は、設計データ又は諸元データなどから導出される既知データである。そのため、座標変換データは、既知データに基づいて予め導出可能である。座標変換データ記憶部94は、予め導出された座標変換データを記憶する。
 合成部96は、座標変換データ記憶部94に記憶されている座標変換データに基づいて、所定の単一の座標系において合成画像IGが表示装置80に表示されるように、対象画像AGa、作業機械画像BG、及び運搬車両画像AGbの少なくとも一つを座標変換する。表示制御部93は、単一の座標系において、合成画像IGを表示装置80に表示させる。
 対象画像生成部91は、距離検出装置20の検出データに基づいて、距離検出装置座標系における対象画像AGaを生成することができる。作業機械画像生成部92は、姿勢検出装置40の検出データに基づいて、旋回体3の車体座標系における作業機械画像BGを生成することができる。また、作業機械画像生成部92は、位置検出装置30の検出データ及び姿勢検出装置40の検出データに基づいて、グローバル座標系における作業機械画像BGを生成することができる。運搬車両画像生成部95は、姿勢検出装置440の検出データに基づいて、車体402の車体座標系における運搬車両画像AGbを生成することができる。運搬車両画像生成部95は、位置検出装置430の検出データ及び姿勢検出装置440の検出データに基づいて、グローバル座標系における運搬車両画像AGbを生成することができる。合成部96は、対象画像AGa、作業機械画像BG、及び運搬車両画像AGbが単一の座標系で表示されるように、対象画像AGaの座標系、作業機械画像BGの座標系、及び運搬車両画像AGbの座標系の少なくとも一つを調整する。
 例えば旋回体3の車体座標系で規定された対象画像AGa、作業機械画像BG、及び運搬車両画像AGbを表示装置80に表示させる場合、合成部96は、座標変換データ記憶部94に記憶されている座標変換データに基づいて、距離検出座標系で規定されている対象画像AGaを旋回体3の車体座標系で規定される対象画像AGaに変換する。また、合成部96は、座標変換データ記憶部94に記憶されている座標変換データに基づいて、車体402の車体座標系又はグローバル座標系で規定されている運搬車両画像AGbを旋回体3の車体座標系で規定される運搬車両画像AGbに変換する。これにより、対象画像AGaと作業機械画像BGと運搬車両画像AGbとが、旋回体3の車体座標系において規定される。表示制御部93は、旋回体3の車体座標系において規定された対象画像AGa、作業機械画像BG、及び運搬車両画像AGbを含む合成画像IGを表示装置80に表示させる。
 また、例えばグローバル座標系で規定された対象画像AGa、作業機械画像BG、及び運搬車両画像AGbを表示装置80に表示させる場合、合成部96は、座標変換データ記憶部94に記憶されている座標変換データに基づいて、距離検出座標系で規定されている対象画像AGaをグローバル座標系で規定される対象画像AGaに変換し、旋回体3の車体座標系で規定されている作業機械画像BGをグローバル座標系で規定される作業機械画像BGに変換し、車体402の車体座標系で規定されている運搬車両画像AGbをグローバル座標系で規定される運搬車両画像AGbに変換する。これにより、対象画像AGaと作業機械画像BGと運搬車両画像AGbとが、グローバル座標系において規定される。表示制御部93は、グローバル座標系において規定された対象画像AGa、作業機械画像BG、及び運搬車両画像AGbを含む合成画像IGを表示装置80に表示させる。
 本実施形態において、表示制御部93は、撮像装置50で撮像された対象WAaの実際の画像である実画像RGと、対象画像AGa、作業機械画像BG、及び運搬車両画像AGbを含む合成画像IGとを表示装置80に同時に表示させる。本実施形態において、表示制御部93は、実画像RGを表示する表示画面の一部に合成画像IGを表示させる。
 図11は、本実施形態に係る表示装置80の表示例を示す図である。撮像装置50は、旋回体3の前方向の対象WAaの実際の画像である実画像RGを取得する。表示制御部93は、撮像装置50で取得された作業現場の実画像RGを表示装置80の表示画面に表示させる。
 撮像装置50は、旋回体3の前方向の対象WAaの実画像RGを取得する。撮像装置50の撮像において、作業機4の少なくとも一部が映り込む。撮像装置50によって取得される実画像RGは、作業機4の実画像を含む。本実施形態において、作業現場の実画像RGを表示する表示装置80の表示画面は、作業機4の実画像を含む。撮像装置50で撮像された作業現場の実画像RGが表示される表示装置80の表示画面に作業機4の実画像が表示される。
 表示制御部93は、撮像装置50で撮像された作業現場の実画像RGを表示する表示装置80の表示画面の一部に、対象画像AGa、作業機械画像BG、及び運搬車両画像AGbを含む合成画像IGを同時に表示させる。すなわち、表示制御部93は、作業現場の実画像RGを表示する表示装置80の表示画面の一部に、対象画像AGa、作業機械画像BG、及び運搬車両画像AGbをインポーズさせる。以下の説明において、表示装置80の表示画面の一部にインポーズされる少なくとも作業機械画像BG及び運搬車両画像AGbを含む合成画像IGを適宜、インポーズ画像IG、と称する。本実施形態において、インポーズ画像IGは、作業機械画像BG及び運搬車両画像AGbのみならず、対象画像AGaも含む。
 インポーズ画像IGにおいて、対象画像AGaと作業機械画像BGと運搬車両画像AGbとは重畳して表示される。
 本実施形態において、表示制御部93は、表示画面において、作業機4の実画像と作業機械画像BG及び運搬車両画像AGbを含むインポーズ画像IGとを異なる位置に表示させる。図11に示すように、本実施形態において、作業機4の実画像は、表示装置80の表示画面の中央部及び右部に表示される。表示制御部93は、作業機4の実画像とインポーズ画像IGとが重複しないように、インポーズ画像IGを表示装置80の表示画面の角部に表示させる。本実施形態においては、作業機4の実画像のみならず、作業機4による施工対象である地表の実画像が表示装置80の表示画面に表示される。そのため、表示制御部93は、作業機4の実画像及び地表の実画像とインポーズ画像IGとが重複しないように、インポーズ画像IGを表示装置80の表示画面の左上の角部に表示させる。なお、インポーズ画像IGは、表示装置80の表示画面の右上の角部に表示されてもよい。作業機4の実画像及び施工対象の実画像がインポーズ画像IGで隠れないので、操作者は、実画像を見ながら、作業機4を使って施工対象を施工する作業を円滑に実施することができる。
 仮想視点は、油圧ショベル1及び油圧ショベル1の周囲の対象WAaの斜め上方向に設定される。本実施形態においては、対象WAaとして、施工対象である地表が存在する。すなわち、本実施形態において、対象画像AGaは、仮想視点から俯瞰した施工対象である地表WAaの3次元形状を示す3次元画像である。
 例えば、油圧ショベル1による掘削作業又は整地作業等の作業が進行すると、対象WAaである地表の形状が変化する。地表の形状の変化に伴って、対象画像AGaの形状も変化する。掘削作業又は整地作業等により対象WAaである地表の形状が変化した場合、表示制御部93は、距離検出装置20の検出データに基づいて、地表の形状の変化に連動した対象画像AGaを表示装置80に表示させる。
 本実施形態において、作業機械画像BGは、仮想視点から俯瞰した油圧ショベル1を簡易的に模擬したスケルトン画像である。油圧ショベル1の移動及び油圧ショベル1の姿勢の変化に伴って、作業機械画像BGがリアルタイムで動く。すなわち、作業機械画像BGは、油圧ショベル1の位置及び姿勢の変化に同期して動く。表示制御部93は、位置検出装置30の検出データに基づいて、油圧ショベル1(走行体2)が移動していることを検出したとき、油圧ショベル1の位置の変化に連動するように、作業機械画像BGを動かす。作業機械画像BGは、走行体2を模擬した仮想視点画像である走行体画像2Gと、旋回体3を模擬した仮想視点画像である旋回体画像3Gと、作業機4を模擬した仮想視点画像である作業機画像4Gとを含む。作業機画像4Gは、ブーム6を模擬したブーム画像6Gと、アーム7を模擬したアーム画像7Gと、バケット8を模擬したバケット画像8Gとを含む。
 走行体画像2Gは、走行体2の外形を簡易的に示すスケルトン画像を含む。旋回体画像3Gは、旋回体3の外形を簡易的に示すスケルトン画像を含む。作業機画像4Gは、作業機4の外形を簡易的に示すスケルトン画像を含む。走行体画像2G、旋回体画像3G、及び作業機画像4Gを含む作業機械画像BGは、3次元コンピュータグラフィックスである。作業機械画像生成部92は、記憶装置90Bに記憶されているスケルトン画像(3次元CGモデル)を記憶装置90Bから取得し、位置検出装置30の検出データ及び姿勢検出装置40の検出データに基づいて、油圧ショベル1の位置の変化及び姿勢の変化と同期して動く作業機械画像BGを生成する。
 例えば、油圧ショベル1が移動すると、位置検出装置30は、油圧ショベル1が移動したことを示す検出データを制御装置90に所定の周期で送信する。作業機械画像生成部92は、油圧ショベル1の移動と連動するように、作業機械画像BGを移動させる。表示制御部93は、作業機械画像BG(走行体画像2G)が移動するように、作業機械画像BGを表示装置80に表示させる。
 また、油圧ショベル1の姿勢が変化しているとき、表示制御部93は、姿勢検出装置40の検出データに基づいて、油圧ショベル1の姿勢の変化に連動するように、作業機械画像BGを動かす。油圧ショベル1の旋回体3が旋回すると、旋回体姿勢センサ41は、旋回体3が旋回したことを示す検出データを制御装置90に所定の周期で送信する。作業機械画像生成部92は、油圧ショベル1の旋回体3の旋回と連動するように、作業機械画像BGの旋回体画像3Gを旋回させる。表示制御部93は、旋回体画像3Gが旋回するように、作業機械画像BGを表示装置80に表示させる。また、油圧ショベル1の作業機4が作動すると、作業機姿勢センサ42は、作業機4が作動したことを示す検出データを制御装置90に送信する。作業機械画像生成部92は、油圧ショベル1の作業機4の作動と連動するように、作業機械画像BGの作業機画像4Gを作動させる。表示制御部93は、作業機画像4Gが作動するように、作業機械画像BGを表示装置80に表示させる。例えば、表示制御部93は、傾斜角αの変化に連動するようにブーム画像6Gを動かし、傾斜角βの変化に連動するようにアーム画像7Gを動かし、傾斜角γの変化に連動するようにバケット画像8Gを動かす。
 本実施形態において、運搬車両画像AGbは、仮想視点から俯瞰した運搬車両WAbを簡易的に模擬したスケルトン画像である。運搬車両WAbの移動及び運搬車両WAbの姿勢の変化に伴って、運搬車両画像AGbがリアルタイムで動く。すなわち、運搬車両画像AGbは、運搬車両WAbの位置及び姿勢の変化に同期して動く。表示制御部93は、位置検出装置430の検出データに基づいて、運搬車両WAbが移動していることを検出したとき、運搬車両WAbの位置の変化に連動するように、運搬車両画像AGbを動かす。運搬車両WAbが移動すると、位置検出装置430は、運搬車両WAbが移動したことを示す検出データを制御装置90に送信する。運搬車両画像生成部95は、運搬車両WAbの移動と連動するように、運搬車両画像AGbを移動させる。表示制御部93は、運搬車両画像AGbが移動するように、運搬車両画像AGbを表示装置80に表示させる。
 運搬車両画像AGbは、運搬車両WAbの外形を簡易的に示すスケルトン画像を含む。運搬車両画像AGbは、3次元コンピュータグラフィックスである。運搬車両画像生成部95は、記憶装置90Bに記憶されているスケルトン画像(3次元CGモデル)を記憶装置90Bから取得し、位置検出装置430の検出データ及び姿勢検出装置440の検出データに基づいて、油圧ショベル1の位置の変化及び姿勢の変化と同期して動く運搬車両画像AGbを生成する。
 また、運搬車両WAbの姿勢が変化しているとき、表示制御部93は、姿勢検出装置440の検出データに基づいて、運搬車両WAbの姿勢の変化に連動するように、運搬車両画像AGbを動かす。運搬車両WAbが傾斜又は旋回すると、姿勢検出装置440は、運搬車両WAbが傾斜又は旋回したことを示す検出データを制御装置90に送信する。運搬車両画像生成部95は、運搬車両WAbの傾斜又は旋回と連動するように、運搬車両画像AGbを傾斜又は旋回させる。表示制御部93は、運搬車両画像AGbが傾斜又は旋回するように、運搬車両画像AGbを表示装置80に表示させる。
 また、運搬車両WAbの荷台に積み込まれる積荷の量が変化すると、運搬車両WAbの形状が変化する。距離検出装置20は、運搬車両WAbの形状を検出可能である。運搬車両WAbの形状が変化しているとき、表示制御部93は、距離検出装置20の検出データに基づいて、運搬車両WAbの形状の変化に連動するように、キャラクタ画像である運搬車両画像AGbの形状又は表示形態を変化させてもよい。
[表示方法]
 図12、図13、及び図14は、本実施形態に係る表示方法の一例を示すフローチャートである。図12は、油圧ショベル1の制御装置60の処理を示すフローチャートである。図13は、運搬車両WAbの制御装置460の処理を示すフローチャートである。図14は、遠隔操作システム100の制御装置90の処理を示すフローチャートである。図12、図13、及び図14に示す処理は、所定の周期で実施される。
 図12を参照しながら、油圧ショベル1の制御装置60の処理について説明する。
 距離検出装置20は、対象WAaとの距離Ldを検出して、対象WAaの3次元形状を検出する。
 位置検出装置30は、旋回体3の位置Paを検出する。
 姿勢検出装置40は、旋回体3の姿勢及び作業機4の姿勢を含む油圧ショベル1の姿勢を検出する。旋回体3の姿勢は、ロール角θ1、ピッチ角θ2、及びヨー角θ3を含む。旋回体3が旋回すると、ヨー角θ3が変化する。走行体2が停止した状態で旋回体3が旋回する場合、ヨー角θ3は、旋回体3の旋回角に相当する。作業機4の姿勢は、傾斜角α、傾斜角β、及び傾斜角γを含む。
 また、撮像装置50は、作業現場の実画像RGを示す画像データを取得する。
 距離検出装置20の検出データ、位置検出装置30の検出データ、姿勢検出装置40の検出データ、及び撮像装置50の画像データは、制御装置60に出力される。
 制御装置60の入出力インターフェース60Cは、距離検出装置20の検出データを距離検出装置20から取得する(ステップS10)。
 また、制御装置60の入出力インターフェース60Cは、位置検出装置30の検出データを位置検出装置30から取得する(ステップS20)。
 また、制御装置60の入出力インターフェース60Cは、姿勢検出装置40の検出データを姿勢検出装置40から取得する(ステップS30)。
 また、制御装置60の入出力インターフェース60Cは、撮像装置50の画像データを撮像装置50から取得する(ステップS40)。
 なお、ステップS10とステップS20とステップS30とステップS40とが実施される順番は任意であり、同時に実施されてもよい。
 制御装置60の入出力インターフェース60Cは、距離検出装置20の検出データを、通信システム300を介して、制御装置90に送信する(ステップS50)。
 また、制御装置60の入出力インターフェース60Cは、位置検出装置30の検出データを、通信システム300を介して、制御装置90に送信する(ステップS60)。
 また、制御装置60の入出力インターフェース60Cは、姿勢検出装置40の検出データを、通信システム300を介して、制御装置90に送信する(ステップS70)。
 また、制御装置60の入出力インターフェース60Cは、撮像装置50の画像データを、通信システム300を介して、制御装置90に送信する(ステップS80)。
 なお、ステップS50とステップS60とステップS70とステップS80とが実施される順番は任意であり、同時に実施されてもよい。
 次に、図13を参照しながら、運搬車両WAbの制御装置460の処理について説明する。
 位置検出装置430は、車体402の位置Pbを検出する。位置検出装置430の検出データは、制御装置460に出力される。
 姿勢検出装置440は、車体402の姿勢を検出する。車体402の姿勢は、ロール角θ4、ピッチ角θ5、及びヨー角θ6を含む。姿勢検出装置440の検出データは、制御装置460に出力される。
 制御装置460の入出力インターフェース460Cは、位置検出装置430の検出データを位置検出装置430から取得する(ステップS110)。
 また、制御装置460の入出力インターフェース460Cは、姿勢検出装置440の検出データを姿勢検出装置440から取得する(ステップS120)。
 なお、ステップS110とステップS120とが実施される順番は任意であり、同時に実施されてもよい。
 制御装置460の入出力インターフェース460Cは、位置検出装置430の検出データを、通信システム300を介して、制御装置90に送信する(ステップS130)。
 また、制御装置460の入出力インターフェース460Cは、姿勢検出装置440の検出データを、通信システム300を介して、制御装置90に送信する(ステップS140)。
 なお、ステップS130とステップS140とが実施される順番は任意であり、同時に実施されてもよい。
 次に、図14を参照しながら、遠隔操作システム100の制御装置90の処理について説明する。
 制御装置90のデータ受信部97は、距離検出装置20の検出データを、通信システム300を介して受信する(ステップS210)。
 また、制御装置90のデータ受信部97は、位置検出装置30の検出データを、通信システム300を介して受信する(ステップS220)。
 また、制御装置90のデータ受信部97は、姿勢検出装置40の検出データを、通信システム300を介して受信する(ステップS230)。
 また、制御装置90のデータ受信部97は、撮像装置50の画像データを、通信システム300を介して受信する(ステップS240)。
 また、制御装置90のデータ受信部97は、位置検出装置430の検出データを、通信システム300を介して受信する(ステップS250)。
 また、制御装置90のデータ受信部97は、姿勢検出装置440の検出データを、通信システム300を介して受信する(ステップS260)。
 なお、ステップS210とステップS220とステップS230とステップS240とステップS250とステップS260とが実施される順番は任意であり、同時に実施されてもよい。
 対象画像生成部91は、距離検出装置20の検出データに基づいて、対象WAaの仮想視点画像を示す対象画像AGaを生成する(ステップS270)。
 作業機械画像生成部92は、位置検出装置30の検出データ及び姿勢検出装置40の検出データに基づいて、油圧ショベル1の仮想視点画像を示す作業機械画像BGを生成する(ステップS280)。
 運搬車両画像生成部95は、位置検出装置430の検出データ及び姿勢検出装置440の検出データに基づいて、運搬車両WAbの仮想視点画像を示す運搬車両画像AGbを生成する(ステップS290)。
 合成部96は、対象画像AGaと作業機械画像BGと運搬車両画像AGbを合成してインポーズ画像IGを生成する(ステップS300)。
 合成部96は、対象画像AGaと作業機械画像BGと運搬車両画像AGbとを重畳したインポーズ画像IGを生成する。合成部96は、座標変換データ記憶部94に記憶されている座標変換データを利用して、対象画像AGaと作業機械画像BGと運搬車両画像AGbとが単一の座標系で表示されるように、対象画像AGaの座標系、作業機械画像BGの座標系、及び運搬車両画像AGbの座標系を調整する。
 表示制御部93は、撮像装置50で撮像された対象WAaの実画像RGを表示装置80に出力する。また、表示制御部93は、合成部96で生成されたインポーズ画像IGを合成部96から取得する。表示制御部93は、単一の座標系において規定された対象画像AGaと作業機械画像BGと運搬車両画像AGbとを含むインポーズ画像IGを表示装置80に出力する(ステップS310)。
 表示装置80は、少なくとも作業機4の実映像を含む対象WAaの実画像RGと、インポーズ画像IGとを表示する(ステップS320)。表示制御部93は、表示装置80の表示画面において作業機4の実画像とインポーズ画像IGとを異なる位置に表示させる。
 操作者は、表示装置80に表示されている実画像RG及びインポーズ画像IGを見ながら、遠隔操作装置70を操作して、油圧ショベル1を遠隔操作する。インポーズ画像IGは、対象WAa、運搬車両WAb、及び油圧ショベル1を俯瞰した3次元画像であるため、操作者は、インポーズ画像IGを見ることによって、油圧ショベル1と対象WAaとの遠近感を得易い。本実施形態においては、対象WAaである地表の3次元形状を示す対象画像AGaが表示されるため、操作者は、対象画像AGaと作業機械画像BGとを見て、対象WAaと油圧ショベル1の作業機4との距離を把握することができる。そのため、操作者は、掘削作業又は整地作業等を円滑に実施することができる。また、運搬車両WAbの3次元形状を示す運搬車両画像AGbが表示されるため、操作者は、運搬車両画像AGbと作業機械画像BGとを見て、運搬車両WAbと油圧ショベル1の作業機4との距離を把握することができる。そのため、操作者は、積込作業等を円滑に実施することができる。
 図15は、本実施形態に係るインポーズ画像IGの一例を模式的に示す図である。図15は、車体座標系において規定された作業機械画像BGと運搬車両画像AGbとを含むインポーズ画像IGを示す。図15に示す例において、表示制御部93は、車体座標系において固定された仮想視点から見た作業機械画像BG及び運搬車両画像AGbを表示装置80に表示させる。仮想視点は車体座標系において固定されている。そのため、油圧ショベル1の走行体2が停止した状態で旋回体3が旋回した場合、作業機械画像BGのうち旋回体画像3Gは停止しているように表示され、走行体画像2Gが旋回軸Zrを中心に旋回するように表示される。また、運搬車両画像AGbも旋回軸Zrを中心に旋回するように表示される。
 図16は、本実施形態に係るインポーズ画像IGの一例を模式的に示す図である。図16は、グローバル座標系において規定された作業機械画像BGと運搬車両画像AGbとを含むインポーズ画像IGを示す。図16に示す例において、表示制御部93は、グローバル座標系において固定された仮想視点から見た作業機械画像BG及び運搬車両画像AGbを表示装置80に表示させる。仮想視点はグローバル座標系において固定されている。そのため、油圧ショベル1の走行体2が停止した状態で旋回体3が旋回した場合、作業機械画像BGのうち走行体画像2Gは停止しているように表示され、旋回体画像3Gが旋回軸Zrを中心に旋回するように表示される。また、運搬車両WAbが停止している場合、運搬車両画像AGbは停止しているように表示される。
[効果]
 以上説明したように、本実施形態によれば、位置検出装置30の検出データ及び姿勢検出装置40の検出データに基づいて、油圧ショベル1の外部の仮想視点から見た作業機械画像BGが生成される。また、位置検出装置430の検出データ及び姿勢検出装置440の検出データに基づいて、油圧ショベル1及び運搬車両WAbの外部の仮想視点から見た運搬車両画像AGbが生成される。作業機械画像BG及び運搬車両画像AGbは、3次元コンピュータグラフィックスであり、それら作業機械画像BG及び運搬車両画像AGbを含むインポーズ画像IGが表示装置80に表示される。操作者は、表示装置80に表示された作業機械画像BG及び運搬車両画像AGbを見ることにより、作業現場の遠近感を得ることができる。そのため、操作者は、運搬車両WAbと油圧ショベル1との距離、特に運搬車両WAbの荷台401と油圧ショベル1のバケット8との距離を容易に把握することができる。したがって、操作者は、遠隔操作装置70を操作して、油圧ショベル1の作業機4を使って、運搬車両WAbに対する積込作業を円滑に実施することができる。これにより、遠隔操作の作業効率の低下が抑制される。
 また、本実施形態によれば、インポーズ画像IGは、作業機械画像BGと運搬車両画像AGbとを重畳した画像である。また、本実施形態においては、走行体2、旋回体3、及び作業機4が動いたとき、インポーズ画像IGにおいて、走行体画像2G、旋回体画像3G、及び作業機画像4Gが同期して動き、運搬車両WAbが動いたとき、インポーズ画像IGにおいて、運搬車両画像AGbが同期して動く。そのため、操作者が走行体2、旋回体3、及び作業機4の少なくとも一つを動かしたり、運搬車両WAbが動いたりしたとき、走行体画像2G、旋回体画像3G、及び作業機画像4Gの少なくとも一つが、運搬車両画像AGbに重畳した状態で動く。したがって、操作者は、作業機械画像BGと運搬車両画像AGbとを重畳したインポーズ画像IGを見ることによって、動いている状態の走行体2、旋回体3、及び作業機4の少なくとも一つと運搬車両WAbとの遠近感を認識し易くなる。
 また、本実施形態においては、インポーズ画像IGにおいて、作業機械画像BG及び運搬車両画像AGbのみならず、施工対象を含む作業現場の対象WAaの対象画像AGaが表示される。これにより、操作者は、対象WAaと油圧ショベル1との距離を容易に把握することができる。そのため、操作者は、遠隔操作装置70を操作して、油圧ショベル1の作業機4で対象WAaを円滑に施工することができる。
 また、本実施形態によれば、距離検出装置20、位置検出装置30、姿勢検出装置40、及び撮像装置50は、油圧ショベル1に搭載される。例えば、距離検出装置が油圧ショベル1の外部に設置される場合、距離検出装置を別途用意したり、距離検出装置の設置作業を実施したりする必要が生じる。この場合、装置コストが上昇したり、作業効率が低下したりする可能性がある。距離検出装置20が油圧ショベル1に搭載されることにより、距離検出装置を別途用意する必要はなくなり、距離検出装置の設置作業を実施する必要はなくなる。そのため、装置コストを抑制することができ、作業効率の低下を抑制することができる。また、距離検出装置20が油圧ショベル1に搭載されることにより、対象WAa(施工対象)の位置が徐々に変化する場合でも、距離検出装置の設置作業を実施する必要がなくなる。位置検出装置30、姿勢検出装置40、及び撮像装置50についても同様である。
 また、本実施形態においては、撮像装置50で撮像された実画像RGを含む表示装置80の表示画面の一部に作業機械画像BG及び運搬車両画像AGbを含むインポーズ画像IGが表示される。実画像RGの一部にインポーズ画像IGがインポーズされることにより、操作者は、実画像RGを見ながら、視線を大きく動かすことなくインポーズ画像IGを見ることができる。そのため、操作者は、安心感を抱くことができ、円滑な操作を実施することができる。
 また、本実施形態においては、インポーズ画像IGがインポーズされる実画像RGは、作業機4の画像を含む。すなわち、旋回体3の+Xm方向の実画像RGにインポーズ画像IGがインポーズされる。操作者は、実画像RGを見ることにより、作業機4の作業状況を把握することができ、インポーズ画像IGを見ることにより、運搬車両WAbと作業機4との距離を把握することができる。作業機4を使って作業をする場合、操作者は、作業機4の実画像を見ながら遠隔操作装置70を操作する。そのため、作業機4の実画像を含む実画像RGの一部にインポーズ画像IGがインポーズされることにより、操作者は、実画像RGを見ながら、視線を大きく動かすことなくインポーズ画像IGを見ることができる。したがって、操作者は、円滑な操作を実施することができるため、作業効率の低下が抑制される。また、表示装置80の表示画面において、作業機4の実画像とインポーズ画像IGとは、異なる位置に表示される。これにより、作業機4の実画像がインポーズ画像IGに遮られないため、操作者は、作業機4の実画像及びインポーズ画像IGの両方を円滑に見ることができる。
 また、本実施形態によれば、所定の単一の座標系において作業機械画像BG及び運搬車両画像AGbが表示される。これにより、操作者は、作業機械画像BG及び運搬車両画像AGbを見て、油圧ショベル1と運搬車両画像AGbとの距離及び相対位置を容易に把握することができる。
 また、車体座標系において作業機械画像BG及び運搬車両画像AGbが生成され、車体座標系において固定された仮想視点から見た作業機械画像BG及び運搬車両画像AGbが表示されることにより、図15を参照して説明したように、旋回体3が旋回したとき、旋回体画像3Gが停止し、走行体画像2G及び運搬車両画像AGbが旋回するように表示される。これにより、操作者は、旋回体3を基準とした作業現場の状況を俯瞰することができる。
 また、グローバル座標系において作業機械画像BG及び運搬車両画像AGbが生成され、グローバル座標系において固定された仮想視点から見た作業機械画像BG及び運搬車両画像AGbが表示されることにより、図16を参照して説明したように、旋回体3が旋回したとき、走行体画像2G及び運搬車両画像AGbが停止し、旋回体画像3Gが旋回するように表示される。これにより、操作者は、走行体2及び運搬車両画像AGbを基準とした作業現場の状況を俯瞰することができる。
 また、本実施形態によれば、作業機械画像BGは、作業機4の画像のみならず、旋回体3の画像も含む。そのため、操作者は、表示装置80に表示された対象画像AGaを見て、作業機4の作動状況及び対象WAaと作業機4との距離のみならず、旋回体3の旋回状況及び対象WAaと旋回体3との相対位置を把握することができる。また、旋回体3の姿勢を検出する旋回体姿勢センサ41と作業機4の姿勢を検出する作業機姿勢センサ42とが設けられることにより、旋回体姿勢センサ41の検出データに基づいて、実際の旋回体3の旋回に連動するように旋回体画像3Gが表示され、作業機姿勢センサ42の検出データに基づいて、実際の作業機4の作動に連動するように作業機画像4Gが表示される。これにより、操作者は、油圧ショベル1の姿勢及び作動状況を俯瞰することができる。
 なお、上述の実施形態においては、IMUを含む姿勢検出装置440が運搬車両WAbに搭載され、姿勢検出装置440によって運搬車両WAbの姿勢(ロール角θ4、ピッチ角θ5、ヨー角θ6)が検出されることとした。運搬車両WAbの姿勢として、ヨー角θ6が検出され、ロール角θ4及びピッチ角θ5は検出されなくてもよい。積込作業においては、運搬車両WAbは水平面と実質的に平行な地面に位置付けられる場合が多く、ロール角θ4及びピッチ角θ5がゼロに近い場合が多い。そのため、ロール角θ4及びピッチ角θ5がゼロとみなされた状態で、ヨー角θ6の検出データに基づいて、運搬車両画像AGbが表示されてもよい。
 また、図17に示すように、姿勢検出装置440が省略されてもよい。上述のように、ヨー角θ6は、位置検出装置430によって検出することができる。図17において、位置検出装置430の検出データは、制御装置460に出力される。制御装置460の演算処理装置460Aは、位置検出装置430の検出データに基づいてヨー角θ6を算出する姿勢算出部440Bを含む。図5及び図6等を参照して説明したように、少なくとも2つのGPSアンテナ431が運搬車両WAbに設けられている場合、姿勢算出部440Bは、一方のGPSアンテナ431の位置と他方のGPSアンテナ431の位置とに基づいて、グローバル座標系における基準方位に対する車体402の方位を検出することができる。姿勢算出部440Bは、一方のGPSアンテナ431の位置と他方のGPSアンテナ431の位置とに基づいて演算処理を実施して、基準方位に対する車体402の方位を検出する。基準方位と車体402の方位とがなす角度がヨー角θ6に相当する。姿勢算出部440Bは、一方のGPSアンテナ431の位置と他方のGPSアンテナ431の位置とを結ぶ直線を算出し、算出した直線と基準方位とがなす角度に基づいて、ヨー角θ6を検出することができる。なお、運搬車両WAbに設けられるGPSアンテナ431(位置検出装置430)は、1つでもよい。姿勢算出部440Bは、1つの位置検出装置430の検出データに基づいて、水平面内における運搬車両WAbの移動軌跡を導出することができる。基準方位に対する運搬車両WAbの移動軌跡の接線の方向は、ヨー角θ6に相当する。姿勢算出部440Bは、1つの位置検出装置430の検出データに基づいて導出された移動軌跡の接線に基づいて、ヨー角θ6を検出することができる。
 なお、上述の実施形態において、インポーズ画像IGにおいて、対象画像AGaの3次元形状と撮像装置50で撮像された画像とが重ね合わされた状態で表示されてもよい。上述のように、距離検出装置20で検出された対象WAaの3次元形状における位置Pdを撮像装置座標系の画像における位置Pcに変換することによって、撮像装置座標系において、対象WAaの3次元形状と対象WAaの画像とを重ね合わせることができる。また、対象WAaの3次元形状における位置Pd及び対象WAaの画像における位置Pcは、車体座標系の位置Pm又はグローバル座標系の位置Pgに変換可能である。
 なお、上述の実施形態においては、インポーズ画像IGは、作業機械画像BGと運搬車両画像AGbと対象画像AGaとを含むこととした。インポーズ画像IGは、作業機械画像BGと運搬車両画像AGbとを含み、対象画像AGaを含まなくてもよい。また、上述の実施形態において、距離検出装置20が省略されてもよい。作業現場の対象WAa(施工対象)の実画像RGが表示装置80に表示されることにより、操作者は、対象WAaの実画像RGを見て、対象WAaを確認することができる。一方、インポーズ画像IGが、少なくとも作業機械画像BG及び運搬車両画像AGbを含むことにより、操作者は、荷台401とバケット8との遠近感(距離感)を得ることができるため、例えば積込作業において荷台401とバケット8とを接触させてしまうといったような不測の事態の発生を抑制することができる。
 なお、上述の実施形態において、作業機械画像BGは、走行体画像2G、旋回体画像3G、及び作業機画像4Gを含むこととした。作業機械画像BGは、旋回体画像3G及び作業機画像4Gを含み、走行体画像2Gを含まなくてもよい。また、作業機械画像BGは、作業機画像4Gを含み、走行体画像2G及び旋回体画像3Gを含まなくてもよい。
 なお、上述の実施形態において、距離検出装置20がレーザレンジファインダであることとした。距離検出装置20は、レーザレンジファインダに限定されない。距離検出装置20は、対象WAaの3次元形状を検出できればよく、例えば超音波距離センサでもよいし、ステレオカメラでもよい。
 なお、上述の実施形態において、距離検出装置20が複数設けられてもよい。また、距離検出装置20によって、旋回体3の前方向の対象WAaの3次元形状のみならず、旋回体3の右方向の対象WAaの3次元形状、旋回体3の左方向の対象WAaの3次元形状、及び旋回体3の後方向の対象WAaの3次元形状の少なくとも一つが検出されてもよい。
 なお、上述の実施形態において、作業機姿勢センサ42がストロークセンサであることとした。作業機姿勢センサ42は、ストロークセンサに限定されない。作業機姿勢センサ42は、作業機4の傾斜角を検出できればよく、例えばロータリーセンサでもよいし、加速度センサでもよいし、レーザスキャナのような光学センサでもよい。
 なお、上述の実施形態において、撮像装置50が単眼カメラであることとした。撮像装置50は、単眼カメラに限定されない。撮像装置50は、例えば対象WAaの3次元形状を検出する機能と画像を取得する機能とを有するステレオカメラでもよい。
 なお、上述の実施形態において、撮像装置50が複数設けられてもよい。また、撮像装置50によって、旋回体3の前方向の対象WAaの画像のみならず、旋回体3の右方向の対象WAaの画像、旋回体3の左方向の対象WAaの画像、及び旋回体3の後方向の対象WAaの画像の少なくとも一つが取得されてもよい。
 なお、上述の実施形態において、距離検出装置20、位置検出装置30、姿勢検出装置40、及び撮像装置50の少なくとも一つが、油圧ショベル1に搭載されずに、油圧ショベル1の外部に設置されてもよい。
 なお、上述の実施形態においては、運搬車両WAbの位置PbがGNSSを利用して検出されることとした。運搬車両WAbの位置が、例えば油圧ショベル1に搭載されたステレオカメラ又はレーザ距離計等に基づいて検出されてもよいし、運搬車両WAbの運転者が所持するスマートフォン等のGNSS機能によって検出されてもよい。
 なお、上述の実施形態において、位置検出装置430及び姿勢検出装置440の少なくとも一方が、運搬車両WAbに搭載されずに、運搬車両WAbの外部に設置されてもよい。
 なお、上述の実施形態において、仮想視点は移動してもよい。すなわち、表示制御部93は、異なる複数の位置のそれぞれに設定される仮想視点から見た作業機械画像BG及び運搬車両画像AGbを含むインポーズ画像IGを表示装置80に表示させてもよい。例えば、インポーズ画像IGが自由視点画像でもよい。自由視点画像とは、対象物(油圧ショベル1及び運搬車両2)に対する仮想視点を任意の位置に設定し、その設定された仮想視点から見た画像をいう。
 なお、上述の実施形態においては、距離検出装置20の検出データ、位置検出装置30の検出データ、及び姿勢検出装置40の検出データが、通信システム300を介して制御装置90に送信され、制御装置90において作業機械画像BG及び運搬車両画像AGbが生成され、表示装置80に表示されることとした。作業機械画像BG及び運搬車両画像AGbの少なくとも一方が、油圧ショベル1に搭載されている制御装置60で生成され、生成された作業機械画像BG及び運搬車両画像AGbの少なくとも一方が、通信システム300を介して制御装置90に送信され、表示装置80に表示されてもよい。
 なお、上述の実施形態においては、位置検出装置430の検出データ及び姿勢検出装置440の検出データが、通信システム300を介して制御装置90に送信され、制御装置90において運搬車両画像AGbが生成され、表示装置80に表示されることとした。運搬車両画像AGbが、運搬車両WAbに搭載されている制御装置460で生成され、生成された運搬車両画像AGbが、通信システム300を介して制御装置90に送信され、表示装置80に表示されてもよい。
 なお、上述の実施形態においては、作業現場の実画像RGを表示する表示装置80の表示画面の一部にインポーズ画像IGが表示されることとした。実画像RGを表示する表示装置と、インポーズ画像IGを表示する表示装置とが異なる表示装置でもよい。例えば、メイン表示装置に隣接するようにサブ表示装置が配置され、メイン表示装置に実画像RGが表示され、サブ表示装置にインポーズ画像IGが表示されてもよい。
 なお、上述の実施形態においては、作業機械1が油圧ショベルであることとした。作業機械1は、作業機及び作業機を支持する旋回体を備えていればよく、油圧ショベルに限定されない。また、作業機械1は、作業機を備えていればよく、旋回体を備えていなくてもよい。例えば、作業機械1がホイールローダ等でもよい。
 1…油圧ショベル(作業機械)、2…走行体、2A…履帯、2B…履帯、3…旋回体、4…作業機、5…油圧シリンダ、6…ブーム、7…アーム、8…バケット、9…先端部、10…ブームシリンダ、11…アームシリンダ、12…バケットシリンダ、20…距離検出装置、30…位置検出装置(第1位置検出装置)、31…GPSアンテナ、40…姿勢検出装置(第1姿勢検出装置)、41…旋回体姿勢センサ、42…作業機姿勢センサ、42A…ブームストロークセンサ、42B…アームストロークセンサ、42C…バケットストロークセンサ、50…撮像装置、60…制御装置、60A…演算処理装置、60B…記憶装置、60C…入出力インターフェース、70…遠隔操作装置、71…作業レバー、71L…左作業レバー、71R…右作業レバー、72…走行レバー、72L…左走行レバー、72R…右走行レバー、80…表示装置、90…制御装置、90A…演算処理装置、90B…記憶装置、90C…入出力インターフェース、91…対象画像生成部、92…作業機械画像生成部、93…表示制御部、94…座標変換データ記憶部、95…運搬車両画像生成部、96…合成部、97…データ受信部、100…遠隔操作システム、200…表示システム、300…通信システム、401…荷台、402…車体、403…走行装置、430…位置検出装置(第2位置検出装置)、440…姿勢検出装置(第2姿勢検出装置)、460…制御装置、460A…演算処理装置、460B…記憶装置、460C…入出力インターフェース、AGa…対象画像、BG…作業機械画像、IG…インポーズ画像(合成画像)、RG…実画像、MA…検出範囲、TA…撮像範囲、WAa…対象、WAb…運搬車両、Zr…旋回軸。

Claims (9)

  1.  作業機を有する作業機械の位置の検出データと前記作業機械の姿勢の検出データとに基づいて、前記作業機械の外部の仮想視点から見た前記作業機械の仮想視点画像を示す作業機械画像を生成する作業機械画像生成部と、
     運搬車両の位置の検出データと前記運搬車両の姿勢の検出データとに基づいて、前記仮想視点から見た前記運搬車両の仮想視点画像を示す運搬車両画像を生成する運搬車両画像生成部と、
     前記作業機械画像と前記運搬車両画像とを重畳した合成画像を生成する合成部と、
     前記合成画像を前記作業機械の外部に存在する表示装置に表示させる表示制御部と、
    を備える表示システム。
  2.  前記表示制御部は、前記作業機械に搭載された撮像装置で撮影された前記作業機の実画像と前記合成画像とを前記表示装置に同時に表示させる、
    請求項1に記載の表示システム。
  3.  前記表示制御部は、前記表示装置の表示画面において前記作業機の実画像と前記合成画像とを異なる位置に表示させる、
    請求項2に記載の表示システム。
  4.  前記表示制御部は、所定の座標系において前記合成画像を表示させる、
    請求項1から請求項3のいずれか一項に記載の表示システム。
  5.  前記座標系は、前記作業機を支持する旋回体に規定された車体座標系であり、
     前記表示制御部は、前記車体座標系において固定された前記仮想視点から見た前記合成画像を表示させる、
    請求項4に記載の表示システム。
  6.  前記座標系は、グローバル座標系であり、
     前記表示制御部は、前記グローバル座標系において固定された前記仮想視点から見た前記合成画像を表示させる、
    請求項4に記載の表示システム。
  7.  前記作業機械の姿勢は、前記作業機械に搭載された第1姿勢検出装置より検出され、
     前記第1姿勢検出装置は、前記作業機の姿勢を検出する作業機姿勢センサと前記作業機を支持する旋回体の姿勢を検出する旋回体姿勢センサとを含み、
     前記作業機械画像は、前記作業機の画像と前記旋回体の画像とを含む、
    請求項1から請求項6のいずれか一項に記載の表示システム。
  8.  制御装置が、
     作業機を有する作業機械の位置の検出データと前記作業機械の姿勢の検出データとを受信し、
     運搬車両の位置の検出データと前記運搬車両の姿勢の検出データとを受信し、
     前記作業機械の位置の検出データと前記作業機械の姿勢の検出データとに基づいて、前記作業機械の外部の仮想視点から見た前記作業機械の仮想視点画像を示す作業機械画像を生成し、
     前記運搬車両の位置の検出データと前記運搬車両の姿勢の検出データとに基づいて、前記仮想視点から見た前記運搬車両の仮想視点画像を示す運搬車両画像を生成し、
     前記作業機械画像と前記運搬車両画像とを重畳した合成画像を生成し、
     前記合成画像を前記作業機械の外部に存在する表示装置に表示させる、
    表示方法。
  9.  作業機を有する作業機械の外部の仮想視点から見た前記作業機械の仮想視点画像を示す作業機械画像と前記仮想視点から見た運搬車両の仮想視点画像を示す運搬車両画像とを重畳した合成画像を表示する表示装置。
PCT/JP2018/024065 2017-09-15 2018-06-25 表示システム、表示方法、及び表示装置 WO2019054000A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2018333191A AU2018333191B2 (en) 2017-09-15 2018-06-25 Display system, display method, and display apparatus
CA3054897A CA3054897A1 (en) 2017-09-15 2018-06-25 Display system, display method, and display apparatus
US16/491,002 US11230825B2 (en) 2017-09-15 2018-06-25 Display system, display method, and display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017178316A JP6898816B2 (ja) 2017-09-15 2017-09-15 表示システム、表示方法、及び表示装置
JP2017-178316 2017-09-15

Publications (1)

Publication Number Publication Date
WO2019054000A1 true WO2019054000A1 (ja) 2019-03-21

Family

ID=65723570

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/024065 WO2019054000A1 (ja) 2017-09-15 2018-06-25 表示システム、表示方法、及び表示装置

Country Status (5)

Country Link
US (1) US11230825B2 (ja)
JP (1) JP6898816B2 (ja)
AU (1) AU2018333191B2 (ja)
CA (1) CA3054897A1 (ja)
WO (1) WO2019054000A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200370282A1 (en) * 2016-01-29 2020-11-26 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Shovel and autonomous aerial vehicle flying around shovel
WO2021020292A1 (ja) * 2019-07-26 2021-02-04 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
JP7349947B2 (ja) 2020-03-26 2023-09-25 住友重機械工業株式会社 情報処理装置、作業機械、情報処理方法、情報処理プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20176052A1 (en) * 2017-11-24 2019-05-25 Novatron Oy Control of earthmoving machinery
JP7155516B2 (ja) * 2017-12-20 2022-10-19 コベルコ建機株式会社 建設機械
JP7199864B2 (ja) * 2018-07-31 2023-01-06 株式会社小松製作所 作業機械を制御するためのシステム及び方法
JP7041320B2 (ja) * 2019-03-19 2022-03-23 日立建機株式会社 ダンプトラックの荷台昇降装置
JP7306191B2 (ja) * 2019-09-26 2023-07-11 コベルコ建機株式会社 輸送車位置判定装置
JP2021136462A (ja) * 2020-02-21 2021-09-13 株式会社小松製作所 作業機械の遠隔操作システム
AU2022261652A1 (en) * 2021-04-19 2023-10-26 Orica International Pte Ltd Fragmentation georeferencing
CN113737886B (zh) * 2021-09-26 2023-02-17 广西柳工机械股份有限公司 遥控装载机卸料辅助系统和方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071619A1 (ja) * 2004-01-21 2005-08-04 Campus Create Co., Ltd. 画像生成方法
WO2014123228A1 (ja) * 2013-02-08 2014-08-14 日立建機株式会社 旋回式作業機械の周囲監視装置
JP2015021246A (ja) * 2013-07-17 2015-02-02 日立建機株式会社 作業機械の周囲監視装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013168776A (ja) 2012-02-15 2013-08-29 Fujita Corp 遠隔操作システム
JP5996879B2 (ja) * 2012-02-16 2016-09-21 日立建機株式会社 作業機械の周囲監視装置
US8965642B2 (en) 2012-10-05 2015-02-24 Komatsu Ltd. Display system of excavating machine and excavating machine
CA2923683C (en) 2013-12-12 2018-03-13 Hitachi Construction Machinery Co., Ltd. Vehicle travel system and vehicle travel control method
JP2016065769A (ja) * 2014-09-24 2016-04-28 日立建機株式会社 運搬車両
JP6407663B2 (ja) * 2014-10-30 2018-10-17 日立建機株式会社 作業支援画像生成装置、及びそれを備えた作業機械の操縦システム
JP6777375B2 (ja) 2015-03-05 2020-10-28 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005071619A1 (ja) * 2004-01-21 2005-08-04 Campus Create Co., Ltd. 画像生成方法
WO2014123228A1 (ja) * 2013-02-08 2014-08-14 日立建機株式会社 旋回式作業機械の周囲監視装置
JP2015021246A (ja) * 2013-07-17 2015-02-02 日立建機株式会社 作業機械の周囲監視装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200370282A1 (en) * 2016-01-29 2020-11-26 Sumitomo(S.H.I.) Construction Machinery Co., Ltd. Shovel and autonomous aerial vehicle flying around shovel
US11492783B2 (en) * 2016-01-29 2022-11-08 Sumitomo(S.H.I) Construction Machinery Co., Ltd. Shovel and autonomous aerial vehicle flying around shovel
WO2021020292A1 (ja) * 2019-07-26 2021-02-04 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
JP7351478B2 (ja) 2019-07-26 2023-09-27 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
US11939744B2 (en) 2019-07-26 2024-03-26 Komatsu Ltd. Display system, remote operation system, and display method
JP7349947B2 (ja) 2020-03-26 2023-09-25 住友重機械工業株式会社 情報処理装置、作業機械、情報処理方法、情報処理プログラム

Also Published As

Publication number Publication date
AU2018333191B2 (en) 2021-07-29
JP2019054465A (ja) 2019-04-04
JP6898816B2 (ja) 2021-07-07
CA3054897A1 (en) 2019-03-21
US11230825B2 (en) 2022-01-25
AU2018333191A1 (en) 2019-09-26
US20200018049A1 (en) 2020-01-16

Similar Documents

Publication Publication Date Title
JP6898816B2 (ja) 表示システム、表示方法、及び表示装置
JP6927821B2 (ja) 表示システム、及び表示装置
JP6777375B2 (ja) 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械
JP6925816B2 (ja) 位置計測システム、作業機械、及び位置計測方法
JP2020197431A (ja) マップ生成システム及びマップ生成方法
KR102248026B1 (ko) 작업 기계의 계측 시스템, 작업 기계, 및 작업 기계의 계측 방법
JP2022164713A (ja) 作業機械の画像表示システム及び作業機械の画像表示方法
AU2020320149B2 (en) Display system, remote operation system, and display method
JP2021165526A (ja) 作業機械の画像表示システム
JP7333551B2 (ja) 作業機械の画像表示システム
US20210395980A1 (en) System and method for work machine
JP2021011814A (ja) 作業機械の画像表示システム
JP2020197045A (ja) 表示システムおよび表示方法
JP2021022827A (ja) 表示システム、遠隔操作システム、及び表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18855959

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3054897

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2018333191

Country of ref document: AU

Date of ref document: 20180625

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18855959

Country of ref document: EP

Kind code of ref document: A1