WO2020153314A1 - 作業機械のシステム及び方法 - Google Patents

作業機械のシステム及び方法 Download PDF

Info

Publication number
WO2020153314A1
WO2020153314A1 PCT/JP2020/001774 JP2020001774W WO2020153314A1 WO 2020153314 A1 WO2020153314 A1 WO 2020153314A1 JP 2020001774 W JP2020001774 W JP 2020001774W WO 2020153314 A1 WO2020153314 A1 WO 2020153314A1
Authority
WO
WIPO (PCT)
Prior art keywords
work machine
rider
blade
machine
distance
Prior art date
Application number
PCT/JP2020/001774
Other languages
English (en)
French (fr)
Inventor
浩一 中沢
修 矢津田
Original Assignee
株式会社小松製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小松製作所 filed Critical 株式会社小松製作所
Priority to US17/289,759 priority Critical patent/US20210395982A1/en
Priority to CA3116838A priority patent/CA3116838C/en
Priority to AU2020212919A priority patent/AU2020212919B2/en
Publication of WO2020153314A1 publication Critical patent/WO2020153314A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • E02F9/265Sensors and their calibration for indicating the position of the work tool with follow-up actions (e.g. control signals sent to actuate the work tool)
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • E02F9/262Surveying the work-site to be treated with follow-up actions to control the work tool, e.g. controller
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present disclosure relates to a work machine system and method.
  • Patent Document 1 a vehicle-mounted camera attached to a work machine captures the front, rear, left, and right fields of view of a work machine including the work machine and displays the view on a display.
  • a site camera that automatically moves according to the movement of the work machine is provided. The site camera captures a wider field of view of the work site at a location remote from the work machine.
  • the image taken by the in-vehicle camera is displayed on the display as it is.
  • the terrain such as the terrain with large undulations, it may be difficult to accurately recognize the positional relationship between the work machine and the terrain from the image displayed on the display.
  • An object of the present disclosure is to provide a system and method capable of easily and accurately recognizing a positional relationship between a work machine and an object around the work machine.
  • the system includes a work machine, a rider, a processor, and a display.
  • the work machine includes a work machine.
  • the rider is attached to the work machine and includes a laser and a photodetector.
  • the rider measures a distance to at least a part of the work machine and a distance to an object around the work machine.
  • the processor acquires position data from the distance measured by the rider.
  • the position data indicates the positions of at least a part of the work machine and an object around the work machine.
  • a processor produces
  • the display displays the image in response to the signal from the processor.
  • the method according to the second aspect is a method executed by the processor to display the terrain around the work machine including the work machine and the position of the work machine on the display.
  • the method includes the following processes.
  • the first process is to measure a distance to at least a part of the work machine and a distance to an object around the work machine by the rider.
  • the second process is to acquire position data from the distance measured by the rider.
  • the position data indicates the positions of at least a part of the work machine and an object around the work machine.
  • the third process is to generate an image showing the positions of at least a part of the work machine and an object around the work machine based on the position data.
  • the fourth process is to display the image on the display.
  • the system includes a processor and a display.
  • the processor acquires a distance measured by the rider to at least a part of the work machine and a distance to an object around the work machine.
  • the processor acquires position data from the distance measured by the rider.
  • the position data indicates the positions of at least a part of the work machine and an object around the work machine.
  • a processor produces
  • the display displays an image in response to the signal from the processor
  • position data is acquired from the distance measured by the rider. Then, an image is generated based on the position data and displayed on the display. The image shows the positions of at least a part of the work machine and an object around the work machine. Therefore, it is possible to easily and accurately recognize the positional relationship between the work machine and the object around the work machine.
  • FIG. 1 is a side view showing a work machine 1 according to the embodiment.
  • the work machine 1 is a bulldozer.
  • the work machine 1 includes a vehicle body 2, a work machine 3, and a traveling device 4.
  • the vehicle body 2 includes an engine room 11.
  • a driver's cab 12 is arranged behind the engine compartment 11.
  • a ripper device 5 is attached to the rear portion of the vehicle body 2.
  • the traveling device 4 is a device for traveling the work machine 1.
  • the traveling device 4 includes a pair of crawler belts 13 arranged on the left and right sides of the vehicle body 2.
  • the work machine 1 runs by driving the crawler belt 13.
  • the work machine 3 is arranged in front of the vehicle body 2.
  • the work machine 3 is used for work such as excavation, soil transportation, or leveling.
  • the work machine 3 includes a blade 14, a lift cylinder 15, a tilt cylinder 16, and an arm 17.
  • the blade 14 is supported by the vehicle body 2 via an arm 17.
  • the blade 14 is provided so as to be vertically movable.
  • the tilt cylinder 16 and the lift cylinder 15 are driven by hydraulic oil discharged from a hydraulic pump 22 described later to change the attitude of the blade 14.
  • FIG. 2 is a block diagram showing the configuration of the system 100 according to the embodiment.
  • the work machine 1 includes an engine 21, a hydraulic pump 22, a power transmission device 23, and a control valve 24.
  • the engine 21, the hydraulic pump 22, and the power transmission device 23 are arranged in the engine compartment 11.
  • the hydraulic pump 22 is driven by the engine 21 and discharges hydraulic oil.
  • the hydraulic oil discharged from the hydraulic pump 22 is supplied to the lift cylinder 15 and the tilt cylinder 16.
  • one hydraulic pump 22 is shown in FIG. 2, a plurality of hydraulic pumps may be provided.
  • the power transmission device 23 transmits the driving force of the engine 21 to the traveling device 4.
  • the power transmission device 23 may be, for example, an HST (Hydro Static Transmission).
  • the power transmission device 23 may be, for example, a torque converter or a transmission having a plurality of transmission gears.
  • the control valve 24 is a proportional control valve and is controlled according to an input command signal.
  • the control valve 24 is arranged between hydraulic actuators such as the lift cylinder 15 and the tilt cylinder 16 and the hydraulic pump 22.
  • the control valve 24 controls the flow rate of the hydraulic oil supplied from the hydraulic pump 22 to the lift cylinder 15 and the tilt cylinder 16.
  • the control valve 24 may be a pressure proportional control valve.
  • the control valve 24 may be an electromagnetic proportional control valve.
  • the system 100 includes a first controller 31, a second controller 32, an input device 33, communication devices 34 and 35, and a display 36.
  • the first controller 31 and the communication device 34 are mounted on the work machine 1.
  • the second controller 32, the input device 33, the communication devices 34 and 35, and the display 36 are arranged outside the work machine 1.
  • the second controller 32, the input device 33, the communication device 35, and the display 36 are arranged in a control center remote from the work site.
  • the work machine 1 can be remotely controlled by an input device 33 outside the work machine 1.
  • the first controller 31 and the second controller 32 are programmed to control the work machine 1.
  • the first controller 31 includes a memory 311 and a processor 312.
  • the memory 311 includes a volatile memory such as a RAM and a non-volatile memory such as a ROM.
  • the memory 311 stores programs and data for controlling the work machine 1.
  • the processor 312 is, for example, a CPU (Central Processing Unit), and executes processing for controlling the work machine 1 according to a program.
  • the first controller 31 drives the work machine 1 by controlling the traveling device 4 or the power transmission device 23.
  • the first controller 31 operates the work machine 3 by controlling the control valve 24.
  • the second controller 32 includes a memory 321 and a processor 322.
  • the memory 321 includes, for example, a volatile memory such as a RAM and a non-volatile memory such as a ROM.
  • the memory 321 stores programs and data for controlling the work machine 1.
  • the processor 322 is, for example, a CPU (Central Processing Unit), and executes processing for controlling the work machine 1 according to a program.
  • the second controller 32 receives an operation signal from the input device 33. Further, the second controller 32 outputs a signal to the display 36 to display an image described later on the display 36.
  • the input device 33 receives an operation by the operator and outputs an operation signal according to the operation.
  • the input device 33 outputs an operation signal to the second controller 32.
  • the input device 33 includes an operator such as an operating lever, a pedal, or a switch for operating the traveling device 4 and/or the working machine 3.
  • the input device 33 may include a touch panel.
  • the traveling of the work machine 1 such as forward and backward, is controlled. Further, operations such as raising and lowering of the work machine 3 are controlled according to the operation of the input device 33.
  • the display 36 is, for example, a CRT, LCD or OELD. However, the display 36 is not limited to these displays and may be another type of display.
  • the display 36 displays an image based on the signal from the second controller 32.
  • the second controller 32 can communicate with the first controller 31 wirelessly via the communication devices 34 and 35.
  • the second controller 32 transmits an operation signal from the input device 33 to the first controller 31.
  • the first controller 31 controls the traveling device 4 and/or the work machine 3 according to the operation signal.
  • the system 100 includes a position sensor 36 and a rider (Lidar, Light Detection and Ranging) 37.
  • the position sensor 36 and the rider 37 are mounted on the work machine 1.
  • the position sensor 36 includes a GNSS (Global Navigation Satellite System) receiver 38 and an IMU 39.
  • the GNSS receiver 38 is, for example, a GPS (Global Positioning System) receiver.
  • the GNSS receiver 38 receives a positioning signal from a satellite and acquires vehicle body position data indicating the position coordinates of the work machine 1 from the positioning signal.
  • the first controller 31 acquires vehicle body position data from the GNSS receiver 38.
  • ⁇ IMU39 is an inertial measurement unit (Inertial Measurement Unit).
  • the IMU 39 acquires tilt angle data.
  • the inclination angle data includes an angle (pitch angle) with respect to the horizontal in the vehicle front-rear direction and an angle (roll angle) with respect to the horizontal in the vehicle lateral direction.
  • the first controller 31 acquires the tilt angle data from the IMU 39.
  • the rider 37 measures at least a part of the work machine 3 and a three-dimensional shape of an object around the work machine 1.
  • FIG. 3 is an enlarged side view of the work machine 1 and the rider 37.
  • FIG. 4 is an enlarged front view of the work machine 1 and the rider 37.
  • the rider 37 is attached to the vehicle body 2 via the support member 18.
  • the support member 18 is attached to the vehicle body 2.
  • the support member 18 extends upward and forward from the vehicle body 2.
  • FIG. 5 is a schematic diagram showing the configuration of the rider 37.
  • the rider 37 includes a mounting portion 41 and a rotary head 42.
  • the attachment portion 41 is attached to the support member 18.
  • the rotary head 42 includes a rotation axis Ax1 and is rotatably supported by the mounting portion 41 about the rotation axis Ax1.
  • the rotation axis Ax1 is arranged along the horizontal direction.
  • the rotation axis Ax1 is arranged along the left-right direction of the work machine 1.
  • the rider 37 includes a motor 43, a laser 44, and a photodetector 45.
  • the motor 43 rotates the rotary head 42 around the rotation axis Ax1.
  • the laser 44 is provided on the rotary head 42.
  • the laser 44 includes a plurality of light emitting elements 441 such as laser diodes.
  • the plurality of light emitting elements 441 are arranged side by side in the direction of the rotation axis Ax1. In FIG. 5, reference numeral 441 is attached only to a part of the plurality of light emitting elements 441.
  • the photodetector 45 includes a plurality of light receiving elements 451 such as photodiodes.
  • the rider 37 emits laser light from the laser 44, and the photodetector 45 detects the reflected light. Thereby, the rider 37 measures the distance from the rider 37 to the target measurement point.
  • reference numeral 451 is attached only to a part of the plurality of light receiving elements 451.
  • the rider 37 measures the positions of a plurality of measurement points in a predetermined cycle while rotating the laser 44 around the rotation axis Ax1. Therefore, the rider 37 measures the distance to the measurement point for each fixed rotation angle.
  • the rider 37 outputs the measurement point data.
  • the measurement point data includes, for each measurement point, information on which element was used for measurement, information on what rotation angle was used for measurement, and information on the positional relationship of each element.
  • the rider 37 is arranged closer to the blade 14 than the vehicle body 2 in the front-back direction of the work machine 1.
  • the rider 37 is arranged in front of the front surface 2 a of the vehicle body 2.
  • the rider 37 can perform measurement by rotating the rotary head 42 about the rotation axis Ax1 extending in the left-right direction of the work machine 360 by 360 degrees. Therefore, the vertical viewing angle of the rider 37 is 360 degrees.
  • the horizontal viewing angle of the rider 37 is smaller than the vertical viewing angle of the rider 37.
  • the measurement range of the rider 37 is hatched. As shown in FIGS. 3 and 4, the measurement range of the rider 37 includes at least a part of the blade 14 and an object located in front of the blade 14. Further, the measurement range of the rider 37 includes at least a part of the front surface 2a of the vehicle body 2. Specifically, the measurement range of the rider 37 includes the upper end 141 of the blade 14. The measurement range of the rider 37 includes the lower end 142 of the blade 14. The rider 37 measures the distances to a plurality of measurement points on the blade 14. Further, the rider 37 measures the distances to a plurality of measurement points in the object in front of the blade 14.
  • FIG. 6 is a flowchart showing the processing executed by the first controller 31 and the second controller 32.
  • the first controller 31 acquires measurement point data.
  • the first controller 31 measures the distances to the plurality of measurement points by the rider 37 while rotating the rotary head 42 about the rotation axis Ax1. Thereby, the first controller 31 acquires the measurement point data.
  • the measurement point data includes distances to a plurality of measurement points included in the blade 14 and the terrain in front of the blade 14.
  • step S102 the second controller 32 acquires position data.
  • the second controller 32 receives the measurement point data from the first controller 31.
  • the second controller 32 has information indicating the positional relationship between the rider 37 and the work machine 1.
  • the second controller 32 calculates and acquires the blade 14 and the position data indicating the landform in front of the blade 14 from the measurement point data.
  • the first controller 31 may calculate and acquire the position data from the measurement point data. In that case, the second controller 32 may receive the position data from the first controller 31.
  • step S103 the second controller 32 generates the image 50 showing the blade 14 and the object in front of the blade 14 based on the position data.
  • FIG. 7 is a diagram showing an example of the image 50. As shown in FIG. 7, the image 50 is represented by a point group showing a plurality of measurement points. Image 50 includes blade 14 and terrain 200 in front of blade 14. The image 50 also includes the front surface 2 a of the vehicle body 2 and the support member 18. In FIG. 7, the image 50 is an image of the work machine 1 and its surroundings viewed from the left front viewpoint of the work machine 1. However, the first controller 31 or the second controller 32 can switch the viewpoint of the image 50 to another direction.
  • step S104 the second controller 32 outputs a signal indicating the image 50 to the display 36.
  • the display 36 displays the image 50.
  • the image 50 is updated in real time and displayed as a moving image. Therefore, while the work machine 1 is traveling or working, the image 50 is changed and displayed according to the change in the periphery of the work machine 1.
  • position data is acquired from the distances to the plurality of measurement points measured by the rider 37.
  • the image 50 is generated based on the position data and displayed on the display 36.
  • the image 50 shows the positions of at least a part of the work machine 3 and an object around the work machine 1. Therefore, the user can easily and accurately recognize the positional relationship between the work machine 1 and the target around the work machine 1 from the image 50.
  • the work machine 1 is not limited to a bulldozer and may be another vehicle such as a wheel loader, a motor grader, or a hydraulic excavator.
  • the work machine 1 may be a vehicle driven by an electric motor.
  • the cab 12 may be omitted from the work machine 1.
  • the work machine 1 may be operated in the cab instead of being operated remotely.
  • FIG. 8 is a figure which shows the structure of the working machine 1 which concerns on a modification.
  • the work machine 1 may include a controller 30 mounted on the work machine 1.
  • the controller 30 may include a memory 301 and a processor 302.
  • the controller 30 has the same configuration as the first controller 31 and the second controller 32 described above, and thus detailed description thereof will be omitted.
  • the controller 30 may execute the processes of steps S101 to S104 described above.
  • the input device 33 may be arranged in the cab.
  • the first controller 31 is not limited to a single unit and may be divided into a plurality of controllers.
  • the second controller 32 is not limited to be integrated, and may be divided into a plurality of controllers.
  • the controller 30 is not limited to a single unit and may be divided into a plurality of controllers.
  • the structure and/or the arrangement of the rider 37 is not limited to the position in the above embodiment, and may be changed.
  • the rotation axis Ax1 of the rider 37 may be arranged along the vertical direction.
  • the rider 37 may be non-rotatable.
  • the rider 37 may measure not only the front of the work machine 1 but also other directions such as the back or the side of the work machine 1.
  • the objects around the work machine 1 measured by the rider 37 are not limited to the terrain 200, and may include other work machines, buildings, people, or the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Civil Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

ライダーは、作業機械に取り付けられ、レーザーと光検出器とを含む。ライダーは、作業機の少なくとも一部までの距離と、作業機械の周辺の対象までの距離とを計測する。プロセッサは、ライダーが計測した距離から、位置データを取得する。位置データは、作業機の少なくとも一部と、作業機械の周辺の対象との位置を示す。プロセッサは、位置データに基づいて、作業機の少なくとも一部と作業機械の周辺の対象との位置を示す画像を生成する。ディスプレイは、プロセッサからの信号に応じて画像を表示する。

Description

作業機械のシステム及び方法
 本開示は、作業機械のシステム及び方法に関する。
 従来、カメラによって撮影された作業機械の画像をディスプレイに表示する技術が知られている。例えば特許文献1に示されているように、作業機械に取り付けられた車載カメラによって、作業機械を含む作業機械の前後左右の視野が撮影され、ディスプレイに表示される。また、特許文献1では、作業機械の移動にあわせて自動的に移動するサイトカメラが設けられている。サイトカメラは、作業機械から離れた位置において、作業現場のより広い視野を撮影する。
米国特許出願公開2014/0240506号
 上述した技術では、車載カメラによって撮影された画像がそのままディスプレイに表示される。その場合、起伏の大きい地形など、地形によっては、ディスプレイに表示される画像からは、作業機械と地形との位置関係を正確に認識することが困難なことがある。
 また、上述した技術のように、サイトカメラを用いれば作業現場のより広い視野を撮影することができる。しかし、その場合、サイトカメラを精度良く制御する必要があり、システムが複雑化する、或いは、システムのコストが増大するという問題がある。
 本開示の目的は、作業機械と作業機械の周辺の対象との位置関係を容易且つ精度良く認識することができるシステム及び方法を提供することにある。
 第1の態様に係るシステムは、作業機械と、ライダーと、プロセッサと、ディスプレイとを含む。作業機械は、作業機を含む。ライダーは、作業機械に取り付けられ、レーザーと光検出器とを含む。ライダーは、作業機の少なくとも一部までの距離と、作業機械の周辺の対象までの距離とを計測する。プロセッサは、ライダーが計測した距離から、位置データを取得する。位置データは、作業機の少なくとも一部と、作業機械の周辺の対象との位置を示す。プロセッサは、位置データに基づいて、作業機の少なくとも一部と作業機械の周辺の対象との位置を示す画像を生成する。ディスプレイは、プロセッサからの信号に応じて画像を表示する。
 第2の態様に係る方法は、作業機を含む作業機械の周辺の地形、及び、作業機の位置をディスプレイに表示するためにプロセッサによって実行される方法である。当該方法は、以下の処理を含む。第1の処理は、ライダーによって、作業機の少なくとも一部までの距離と、作業機械の周辺の対象までの距離とを計測することである。第2の処理は、ライダーが計測した距離から、位置データを取得することである。位置データは、作業機の少なくとも一部と、作業機械の周辺の対象との位置を示す。第3の処理は、位置データに基づいて、作業機の少なくとも一部と作業機械の周辺の対象との位置を示す画像を生成することである。第4の処理は、画像をディスプレイに表示することである。
 第3の態様に係るシステムは、プロセッサとディスプレイとを備える。プロセッサは、ライダーが計測した作業機の少なくとも一部までの距離と、作業機械の周辺の対象までの距離とを取得する。プロセッサは、ライダーが計測した距離から、位置データを取得する。位置データは、作業機の少なくとも一部と、作業機械の周辺の対象との位置を示す。プロセッサは、位置データに基づいて、作業機の少なくとも一部と作業機械の周辺の対象との位置を示す画像を生成する。ディスプレイは、プロセッサからの信号に応じて画像を表示する
 本開示では、ライダーが計測した距離から位置データが取得される。そして、位置データに基づいて、画像が生成されてディスプレイに表示される。画像は、作業機の少なくとも一部と作業機械の周辺の対象との位置を示す。そのため、作業機械と作業機械の周辺の対象との位置関係を容易且つ精度良く認識することができる。
実施形態に係る作業機械を示す側面図である。 実施形態に係るシステムの構成を示すブロック図である。 作業機械及びライダーの拡大側面図である。 作業機械及びライダーの拡大正面図である。 ライダーの構成を示す模式図である。 コントローラによって実行される処理を示すフローチャートである。 画像の一例を示す図である。 変形例に係るシステムの構成を示すブロック図である。
 以下、図面を参照して、実施形態に係る作業機械のシステムについて説明する。図1は、実施形態に係る作業機械1を示す側面図である。本実施形態において、作業機械1はブルドーザである。作業機械1は、車体2と、作業機3と、走行装置4とを含む。
 車体2は、エンジン室11を含む。エンジン室11の後方には、運転室12が配置されている。車体2の後部には、リッパ装置5が取り付けられている。走行装置4は、作業機械1を走行させるための装置である。走行装置4は、車体2の左右の側方に配置される一対の履帯13を含む。履帯13が駆動されることにより作業機械1が走行する。
 作業機3は、車体2の前方に配置されている。作業機3は、掘削、運土、或いは整地などの作業に用いられる。作業機3は、ブレード14と、リフトシリンダ15と、チルトシリンダ16と、アーム17とを有する。ブレード14は、アーム17を介して車体2に支持されている。ブレード14は、上下方向に動作可能に設けられている。チルトシリンダ16とリフトシリンダ15とは、後述する油圧ポンプ22から吐出された作動油によって駆動され、ブレード14の姿勢を変更する。
 図2は、実施形態に係るシステム100の構成を示すブロック図である。図2に示すように、作業機械1は、エンジン21と、油圧ポンプ22と、動力伝達装置23と、制御弁24とを含む。エンジン21と、油圧ポンプ22と、動力伝達装置23とは、エンジン室11に配置されている。油圧ポンプ22は、エンジン21によって駆動され、作動油を吐出する。油圧ポンプ22から吐出された作動油は、リフトシリンダ15及びチルトシリンダ16に供給される。なお、図2では、1つの油圧ポンプ22が図示されているが、複数の油圧ポンプが設けられてもよい。
 動力伝達装置23は、エンジン21の駆動力を走行装置4に伝達する。動力伝達装置23は、例えば、HST(Hydro Static Transmission)であってもよい。或いは、動力伝達装置23は、例えば、トルクコンバーター、或いは複数の変速ギアを有するトランスミッションであってもよい。
 制御弁24は、比例制御弁であり、入力される指令信号に応じて制御される。制御弁24は、リフトシリンダ15及びチルトシリンダ16などの油圧アクチュエータと、油圧ポンプ22との間に配置される。制御弁24は、油圧ポンプ22からリフトシリンダ15及びチルトシリンダ16に供給される作動油の流量を制御する。なお、制御弁24は、圧力比例制御弁であってもよい。或いは、制御弁24は、電磁比例制御弁であってもよい。
 システム100は、第1コントローラ31と、第2コントローラ32と、入力装置33と、通信装置34,35と、ディスプレイ36とを含む。第1コントローラ31と通信装置34とは、作業機械1に搭載されている。第2コントローラ32と、入力装置33と、通信装置34,35と、ディスプレイ36とは、作業機械1の外部に配置されている。例えば、第2コントローラ32と、入力装置33と、通信装置35と、ディスプレイ36とは、作業現場から離れたコントロールセンタ内に配置される。作業機械1は、作業機械1の外部の入力装置33によって遠隔操縦可能である。
 第1コントローラ31と第2コントローラ32とは、作業機械1を制御するようにプログラムされている。第1コントローラ31は、メモリ311とプロセッサ312とを含む。メモリ311は、例えばRAMなどの揮発性メモリと、ROM等の不揮発性メモリとを含む。メモリ311は、作業機械1を制御するためのプログラム及びデータを記憶している。プロセッサ312は、例えばCPU(Central Processing Unit)であり、プログラムに従って、作業機械1を制御するための処理を実行する。第1コントローラ31は、走行装置4、或いは動力伝達装置23を制御することで、作業機械1を走行させる。第1コントローラ31は、制御弁24を制御することで、作業機3を動作させる。
 第2コントローラ32は、メモリ321とプロセッサ322とを含む。メモリ321は、例えばRAMなどの揮発性メモリと、ROM等の不揮発性メモリとを含む。メモリ321は、作業機械1を制御するためのプログラム及びデータを記憶している。プロセッサ322は、例えばCPU(Central Processing Unit)であり、プログラムに従って、作業機械1を制御するための処理を実行する。第2コントローラ32は、入力装置33から操作信号を受信する。また、第2コントローラ32は、ディスプレイ36に信号を出力することで、後述する画像をディスプレイ36に表示させる。
 入力装置33は、オペレータによる操作を受け付け、操作に応じた操作信号を出力する。入力装置33は、第2コントローラ32に操作信号を出力する。入力装置33は、走行装置4及び/又は作業機3を操作するための操作レバー、ペダル、或いはスイッチ等の操作子を含む。入力装置33は、タッチパネルを含んでもよい。入力装置33の操作に応じて、作業機械1の前進及び後進などの走行が制御される。また、入力装置33の操作に応じて、作業機3の上昇及び下降などの動作が制御される。
 ディスプレイ36は、例えばCRT、LCD或いはOELDである。ただし、ディスプレイ36はこれらのディスプレイに限らず、他の種類のディスプレイであってもよい。ディスプレイ36は、第2コントローラ32からの信号に基づいて画像を表示する。
 第2コントローラ32は、第1コントローラ31と、通信装置34,35を介して無線により通信可能である。第2コントローラ32は、入力装置33からの操作信号を第1コントローラ31に送信する。第1コントローラ31は、操作信号に応じて、走行装置4及び/又は作業機3を制御する。
 システム100は、位置センサ36とライダー(Lidar,Light Detection and Ranging)37とを含む。位置センサ36とライダー37とは、作業機械1に搭載されている。位置センサ36は、GNSS(Global Navigation Satellite System)レシーバ38とIMU39とを含む。GNSSレシーバ38は、例えばGPS(Global Positioning System)用の受信機である。GNSSレシーバ38は、衛星より測位信号を受信し、測位信号により作業機械1の位置座標を示す車体位置データを取得する。第1コントローラ31は、GNSSレシーバ38から車体位置データを取得する。
 IMU39は、慣性計測装置(Inertial Measurement Unit)である。IMU39は、傾斜角データを取得する。傾斜角データは、車両前後方向の水平に対する角度(ピッチ角)、および車両横方向の水平に対する角度(ロール角)を含む。第1コントローラ31は、IMU39から傾斜角データを取得する。
 ライダー37は、作業機3の少なくとも一部、及び、作業機械1の周辺の対象の3次元形状を測定する。図3は、作業機械1及びライダー37の拡大側面図である。図4は、作業機械1及びライダー37の拡大正面図である。図3及び図4に示すように、ライダー37は、支持部材18を介して、車体2に取り付けられている。支持部材18は、車体2に取り付けられている、支持部材18は、車体2から、上方且つ前方に延びている。
 図5は、ライダー37の構成を示す模式図である。図5に示すように、ライダー37は、取付部41と回転ヘッド42とを含む。取付部41は、支持部材18に取り付けられている。回転ヘッド42は、回転軸Ax1を含み、取付部41に対して回転軸Ax1回りに回転可能に支持されている。回転軸Ax1は、水平方向に沿って配置されている。回転軸Ax1は、作業機械1の左右方向に沿って配置されている。
 ライダー37は、モータ43と、レーザー44と、光検出器45とを含む。モータ43は、回転ヘッド42を回転軸Ax1回りに回転させる。レーザー44は、回転ヘッド42に設けられる。レーザー44は、レーザーダイオードなどの複数の発光素子441を含む。複数の発光素子441は、回転軸Ax1方向に並んで配置されている。なお、図5では、複数の発光素子441の一部のみに符号441が付されている。
 光検出器45は、例えばフォトダイオード等の複数の受光素子451を含む。ライダー37は、レーザー44からレーザー光を照射して、光検出器45において、その反射光を検出する。それにより、ライダー37は、ライダー37から対象の計測点までの距離を測定する。なお、図5では、複数の受光素子451の一部のみに符号451が付されている。
 ライダー37は、回転軸Ax1回りにレーザー44を回転させながら、所定周期で複数の計測点の位置の測定を行う。従って、ライダー37は、一定の回転角ごとに、計測点までの距離を測定する。ライダー37は、計測点データを出力する。計測点データは、各計測点について、どの素子によって測定されたかという情報と、どの回転角で測定されたかという情報、及び、各素子の位置関係の情報とを含む。
 図3に示すように、ライダー37は、作業機械1の前後方向において、車体2よりもブレード14側に配置される。ライダー37は、車体2の前面2aよりも前方に配置される。ライダー37は、作業機械1の左右方向に延びる回転軸Ax1回りに360度、回転ヘッド42を回転させて計測を行うことができる。従って、ライダー37の鉛直方向の視野角は、360度である。図3及び図4に示すように、ライダー37の水平方向の視野角は、ライダー37の鉛直方向の視野角よりも小さい。
 図3及び図4では、ライダー37の計測範囲にハッチングを付している。図3及び図4に示すように、ライダー37の計測範囲は、ブレード14の少なくとも一部と、ブレード14の前方に位置する対象とを含む。また、ライダー37の計測範囲は、車体2の前面2aの少なくとも一部を含む。詳細には、ライダー37の計測範囲は、ブレード14の上端141を含む。ライダー37の計測範囲は、ブレード14の下端142を含む。ライダー37は、ブレード14における複数の計測点までの距離を計測する。また、ライダー37は、ブレード14の前方の対象における複数の計測点までの距離を計測する。
 本実施形態では、ライダー37が計測した計測点の位置に基づいて、ブレード14と、ブレード14の前方の対象とを示す画像が生成されて、ディスプレイ36に表示される。以下、画像を生成するために、第1コントローラ31と第2コントローラ32とによって実行される処理を説明する。図6は、第1コントローラ31と第2コントローラ32とによって実行される処理を示すフローチャートである。
 図6に示すように、ステップS101では、第1コントローラ31は、計測点データを取得する。ここでは、第1コントローラ31は、回転ヘッド42を回転軸Ax1回りに回転させながら、ライダー37によって複数の計測点までの距離を測定する。それにより、第1コントローラ31は、計測点データを取得する。計測点データは、ブレード14と、ブレード14の前方の地形とに含まれる複数の計測点までの距離を含む。
 ステップS102では、第2コントローラ32は、位置データを取得する。ここでは、第2コントローラ32は、第1コントローラ31から計測点データを受信する。第2コントローラ32は、ライダー37と作業機械1との位置関係を示す情報を有している。第2コントローラ32は、計測点データから、ブレード14と、ブレード14の前方の地形を示す位置データを算出して取得する。なお、第2コントローラ32に代えて、第1コントローラ31が計測点データから位置データを算出して取得してもよい。その場合、第2コントローラ32は、第1コントローラ31から位置データを受信してもよい。
 ステップS103では、第2コントローラ32は、位置データに基づいて、ブレード14と、ブレード14の前方の対象とを示す画像50を生成する。図7は、画像50の一例を示す図である。図7に示すように、画像50は、複数の計測点を示す点群で表されている。画像50は、ブレード14と、ブレード14の前方の地形200を含む。また、画像50は、車体2の前面2a及び支持部材18を含む。なお、図7では、画像50は、作業機械1及びその周辺を作業機械1の左前方の視点から見た画像である。しかし、第1コントローラ31、或いは第2コントローラ32は、画像50の視点を他の方向に切り換えることができる。
 ステップS104では、第2コントローラ32は、画像50を示す信号をディスプレイ36に出力する。それにより、ディスプレイ36は画像50を表示する。なお、画像50は、リアルタイムに更新され、動画として表示される。従って、作業機械1の走行中、或いは作業中に、作業機械1の周辺の変化に応じて画像50が変化して表示される。
 以上説明した本実施形態に係るシステム100では、ライダー37が計測した複数の計測点までの距離から、位置データが取得される。そして、位置データに基づいて、画像50が生成されてディスプレイ36に表示される。画像50は、作業機3の少なくとも一部と作業機械1の周辺の対象との位置を示す。そのため、ユーザーは、画像50により、作業機械1と作業機械1の周辺の対象との位置関係を容易且つ精度良く認識することができる。
 以上、本開示の実施形態について説明したが、本発明はこれらに限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
 作業機械1は、ブルドーザに限らず、ホイールローダ、モータグレーダ、油圧ショベル等の他の車両であってもよい。作業機械1は、電動モータで駆動される車両であってもよい。運転室12は、作業機械1から省略されてもよい。
 作業機械1は、遠隔操作ではなく、運転室内で操作されてもよい。図8は、変形例に係る作業機械1の構成を示す図である。図8に示すように、作業機械1は、作業機械1に搭載されたコントローラ30を含んでもよい。コントローラ30は、メモリ301とプロセッサ302とを含んでもよい。コントローラ30は、上述した第1コントローラ31及び第2コントローラ32と同様の構成であるため、詳細な説明を省略する。コントローラ30は、上述したステップS101からS104の処理を実行してもよい。この場合、入力装置33は、運転室内に配置されてもよい。
 第1コントローラ31は、一体に限らず、複数のコントローラに分かれていてもよい。第2コントローラ32は、一体に限らず、複数のコントローラに分かれていてもよい。コントローラ30は、一体に限らず、複数のコントローラに分かれていてもよい。
 ライダー37の構造、及び/又は、配置は、上記の実施形態の位置に限らず、変更されてもよい。例えば、ライダー37の回転軸Ax1は、鉛直方向に沿って配置されてもよい。或いは、ライダー37は、回転不能であってもよい。ライダー37は、作業機械1の前方に限らず、作業機械1の後方、或いは側方など他の方向を測定してもよい。ライダー37が測定する作業機械1の周辺の対象は、地形200に限らず、他の作業機械、建物、或いは人などを含んでもよい。
 本開示では、作業機械と作業機械の周辺の対象との位置関係を、画像により、容易且つ精度良く認識することができる。
1   作業機械
2   車体
3   作業機
14  ブレード
36  ディスプレイ
37  ライダー
44  レーザー
45  光検出器
312 プロセッサ
Ax1 回転軸
 

Claims (17)

  1.  作業機を含む作業機械と、
     前記作業機械に取り付けられ、レーザーと光検出器とを含み、前記作業機の少なくとも一部までの距離と、前記作業機械の周辺の対象までの距離とを計測するライダーと、
     前記ライダーが計測した距離から、前記作業機の少なくとも一部と、前記作業機械の周辺の対象との位置を示す位置データを取得し、前記位置データに基づいて、前記作業機の少なくとも一部と前記作業機械の周辺の対象との位置を示す画像を生成するプロセッサと、
     前記プロセッサからの信号に応じて前記画像を表示するディスプレイと、
    を備えるシステム。
  2.  前記作業機械は、前記作業機を支持する車体をさらに備え、
     前記ライダーは、前記車体よりも前記作業機側に配置される、
    請求項1に記載のシステム。
  3.  前記ライダーは、回転軸を含み、前記回転軸回りに回転可能に設けられる、
    請求項1に記載のシステム。
  4.  前記回転軸は、前記作業機械の左右方向に沿って配置される、
    請求項3に記載のシステム。
  5.  前記画像は、前記作業機における複数の計測点と、前記作業機械の周辺の対象における複数の計測点とを示す点群で表される、
    請求項1に記載のシステム。
  6.  前記作業機は、ブレードを含み、
     前記ライダーの計測範囲は、前記ブレードの上端を含む、
    請求項1に記載のシステム。
  7.  前記作業機は、ブレードを含み、
     前記ライダーの計測範囲は、前記ブレードの少なくとも一部と、前記ブレードの前方に位置する対象とを含む、
    請求項1に記載のシステム。
  8.  前記作業機は、ブレードを含み、
     前記作業機械は、前記ブレードを支持する車体をさらに備え、
     前記ライダーの計測範囲は、前記車体の前面の少なくとも一部と、前記ブレードの少なくとも一部とを含む、
    請求項1に記載のシステム。
  9.  作業機を含む作業機械の周辺の地形、及び、前記作業機の位置をディスプレイに表示するためにプロセッサによって実行される方法であって、
     ライダーによって、前記作業機の少なくとも一部までの距離と、前記作業機械の周辺の対象までの距離とを計測することと、
     前記ライダーが計測した距離から、前記作業機の少なくとも一部と、前記作業機械の周辺の対象との位置を示す位置データを取得することと、
     前記位置データに基づいて、前記作業機の少なくとも一部と前記作業機械の周辺の対象との位置を示す画像を生成することと、
     前記画像を前記ディスプレイに表示すること、
    を備える方法。
  10.  前記作業機械は、前記作業機を支持する車体をさらに備え、
     前記ライダーは、前記車体よりも前記作業機側に配置される、
    請求項9に記載の方法。
  11.  前記複数の計測点の位置を計測することは、前記ライダーを回転させながら前記作業機の少なくとも一部までの距離と、前記作業機械の周辺の対象までの距離とを計測することを含む、
    請求項9に記載の方法。
  12.  前記複数の計測点の位置を計測することは、前記作業機械の左右方向に沿う回転軸回りに前記ライダーを回転させながら、前記作業機の少なくとも一部までの距離と、前記作業機械の周辺の対象までの距離とを計測することを含む、
    請求項9に記載の方法。
  13.  前記画像は、前記作業機における複数の計測点と、前記作業機械の周辺の対象における複数の計測点とを示す点群で表される、
    請求項9に記載の方法。
  14.  前記作業機は、ブレードを含み、
     前記ライダーの計測範囲は、前記ブレードの上端を含む、
    請求項9に記載の方法。
  15.  前記作業機は、ブレードを含み、
     前記ライダーの計測範囲は、前記ブレードの少なくとも一部と、前記ブレードの前方に位置する対象とを含む、
    請求項9に記載の方法。
  16.  前記作業機は、ブレードを含み、
     前記作業機械は、前記ブレードを支持する車体をさらに備え、
     前記ライダーの計測範囲は、前記車体の前面の少なくとも一部と、前記ブレードの少なくとも一部とを含む、
    請求項9に記載の方法。
  17.   ライダーが計測した前記作業機の少なくとも一部までの距離と、前記作業機械の周辺の対象までの距離とを取得し、前記ライダーが計測した距離から、前記作業機の少なくとも一部と、前記作業機械の周辺の対象との位置を示す位置データを取得し、前記位置データに基づいて、前記作業機の少なくとも一部と前記作業機械の周辺の対象との位置を示す画像を生成するプロセッサと、
     前記プロセッサからの信号に応じて前記画像を表示するディスプレイと、
    を備えるシステム。
PCT/JP2020/001774 2019-01-23 2020-01-20 作業機械のシステム及び方法 WO2020153314A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/289,759 US20210395982A1 (en) 2019-01-23 2020-01-20 System and method for work machine
CA3116838A CA3116838C (en) 2019-01-23 2020-01-20 System and method for work machine
AU2020212919A AU2020212919B2 (en) 2019-01-23 2020-01-20 System and method for work machine

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-008902 2019-01-23
JP2019008902A JP7122980B2 (ja) 2019-01-23 2019-01-23 作業機械のシステム及び方法

Publications (1)

Publication Number Publication Date
WO2020153314A1 true WO2020153314A1 (ja) 2020-07-30

Family

ID=71736488

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/001774 WO2020153314A1 (ja) 2019-01-23 2020-01-20 作業機械のシステム及び方法

Country Status (5)

Country Link
US (1) US20210395982A1 (ja)
JP (1) JP7122980B2 (ja)
AU (1) AU2020212919B2 (ja)
CA (1) CA3116838C (ja)
WO (1) WO2020153314A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197044A (ja) * 2019-05-31 2020-12-10 株式会社小松製作所 マップ生成システム及びマップ生成方法
US11698458B2 (en) * 2020-02-04 2023-07-11 Caterpillar Inc. Method and system for performing dynamic LIDAR scanning

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014161087A (ja) * 2014-04-17 2014-09-04 Komatsu Ltd 作業車両用周辺監視システム及び作業車両
JP2015092401A (ja) * 2015-01-14 2015-05-14 株式会社小松製作所 建設機械用コントローラ
JP2016089389A (ja) * 2014-10-30 2016-05-23 日立建機株式会社 作業機械の旋回支援装置
JP2017125790A (ja) * 2016-01-15 2017-07-20 株式会社Ihi 計測装置
JP2018049014A (ja) * 2015-03-25 2018-03-29 ウェイモ エルエルシー 複数の光検出及び測距装置(lidar)付きの車両

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4537259A (en) * 1981-10-26 1985-08-27 Kabushiki Kaisha Komatsu Seisakusho Blade control device
JP2004294067A (ja) * 2003-03-25 2004-10-21 Penta Ocean Constr Co Ltd 無人化施工装置
WO2008008970A2 (en) * 2006-07-13 2008-01-17 Velodyne Acoustics, Inc High definition lidar system
US9139977B2 (en) * 2010-01-12 2015-09-22 Topcon Positioning Systems, Inc. System and method for orienting an implement on a vehicle
US8655556B2 (en) * 2011-09-30 2014-02-18 Komatsu Ltd. Blade control system and construction machine
US20140240506A1 (en) * 2013-02-22 2014-08-28 Caterpillar Inc. Display System Layout for Remote Monitoring of Machines
US10030358B2 (en) * 2014-02-13 2018-07-24 Trimble Inc. Non-contact location and orientation determination of an implement coupled with a mobile machine
DE102016224076A1 (de) * 2016-12-02 2018-06-07 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bestimmen einer Position eines Baggerarms mittels eines an einem Bagger angeordneten LIDAR-Systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014161087A (ja) * 2014-04-17 2014-09-04 Komatsu Ltd 作業車両用周辺監視システム及び作業車両
JP2016089389A (ja) * 2014-10-30 2016-05-23 日立建機株式会社 作業機械の旋回支援装置
JP2015092401A (ja) * 2015-01-14 2015-05-14 株式会社小松製作所 建設機械用コントローラ
JP2018049014A (ja) * 2015-03-25 2018-03-29 ウェイモ エルエルシー 複数の光検出及び測距装置(lidar)付きの車両
JP2017125790A (ja) * 2016-01-15 2017-07-20 株式会社Ihi 計測装置

Also Published As

Publication number Publication date
JP2020117913A (ja) 2020-08-06
CA3116838A1 (en) 2020-07-30
AU2020212919B2 (en) 2023-02-09
JP7122980B2 (ja) 2022-08-22
CA3116838C (en) 2024-03-19
US20210395982A1 (en) 2021-12-23
AU2020212919A1 (en) 2021-05-20

Similar Documents

Publication Publication Date Title
JP6987186B2 (ja) 表示システム、建設機械、及び表示方法
US9616748B2 (en) Construction machinery display system and control method for same
CN108779616B (zh) 机动平路机的控制方法、机动平路机以及机动平路机的作业管理系统
WO2020171007A1 (ja) 作業機械を較正するためのシステム、方法、及び装置
WO2020153314A1 (ja) 作業機械のシステム及び方法
JPWO2019187192A1 (ja) 作業機械の制御システム、方法、及び作業機械
US11939743B2 (en) Control system and control method for work machine
WO2023002796A1 (ja) 掘削機械の稼働範囲設定システムおよびその制御方法
US11549238B2 (en) System and method for work machine
US20210388580A1 (en) System and method for work machine
US20220316188A1 (en) Display system, remote operation system, and display method
US20220002977A1 (en) System and method for work machine
US20210395980A1 (en) System and method for work machine
US20240134064A1 (en) Electronic control device
JP2020197045A (ja) 表示システムおよび表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20745528

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3116838

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2020212919

Country of ref document: AU

Date of ref document: 20200120

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20745528

Country of ref document: EP

Kind code of ref document: A1