WO2019187565A1 - 遠隔操作システム及び主操作装置 - Google Patents

遠隔操作システム及び主操作装置 Download PDF

Info

Publication number
WO2019187565A1
WO2019187565A1 PCT/JP2019/002333 JP2019002333W WO2019187565A1 WO 2019187565 A1 WO2019187565 A1 WO 2019187565A1 JP 2019002333 W JP2019002333 W JP 2019002333W WO 2019187565 A1 WO2019187565 A1 WO 2019187565A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
surrounding image
image
construction machine
display object
Prior art date
Application number
PCT/JP2019/002333
Other languages
English (en)
French (fr)
Inventor
佐々木 均
誠司 佐伯
上田 員弘
Original Assignee
コベルコ建機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コベルコ建機株式会社 filed Critical コベルコ建機株式会社
Priority to EP19777489.6A priority Critical patent/EP3754120B1/en
Priority to US16/980,664 priority patent/US11732439B2/en
Priority to CN201980019466.7A priority patent/CN111868335B/zh
Publication of WO2019187565A1 publication Critical patent/WO2019187565A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/205Remotely operated machines, e.g. unmanned vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2058Electric or electro-mechanical or mechanical control devices of vehicle sub-units
    • E02F9/2062Control of propulsion units
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control

Definitions

  • the present invention relates to a remote operation system including a main operation device and a sub operation device.
  • an image of the surroundings of the construction machine taken by a camera provided in the cockpit of the construction machine is displayed on a display device provided in the master, and the operator displays the surroundings displayed on the display device. While looking at the image, the work equipment (boom, arm, bucket, etc.) of the construction machine is remotely operated.
  • the work equipment boom, arm, bucket, etc.
  • Patent Document 2 Prior art documents related to the present application include Patent Document 2 in addition to Patent Document 1.
  • Patent Document 2 a relative angle of the lower traveling body with respect to the upper swing body is detected from an image taken by a rear monitoring camera provided at the rear of the construction machine, and an image indicating the detected relative angle is provided in the cockpit.
  • Disclosed is a technique for displaying on a display device.
  • Patent Document 2 is not an invention related to a remote control system in the first place, and there is no disclosure about installing a camera in the cockpit, so when the work device disappears from the surrounding image displayed on the display screen of the master.
  • An object of the present invention is to provide a remote operation system or the like that allows the operator of the main operating device to recognize the position of the operating device even if the operating device disappears from the surrounding image displayed on the display device of the main operating device. That is.
  • One aspect of the present invention is a remote operation system for remotely operating a construction machine including a work device, A main operating device for remotely operating the construction machine, and a slave operating device mounted on the construction machine and operating the work device based on an operation received by the main operating device;
  • the slave operating device is: A camera for acquiring a surrounding image of the surroundings of the construction machine from within the cockpit of the construction machine; An attitude detection unit for detecting the attitude of the working device; A first communication unit that transmits posture information indicating the posture of the working device detected by the surrounding image and the posture detection unit to the main operation device;
  • the main operating device is: An operation member for receiving an operation of the operator; A second communication unit that receives the surrounding image and the posture information transmitted from the slave operation device; A display device for displaying a display screen including the surrounding image received by the second communication unit; A determination unit that determines whether or not the work device is included in the surrounding image received by the second communication unit; When the determination unit determines that the working device is not included in the surrounding image, the position of the working device
  • the operator of the main operating device can recognize the position of the working device.
  • FIG. 1 It is a block diagram which shows the whole structure of the remote control system which concerns on embodiment of this invention. It is a figure which shows the external appearance of the construction machine shown in FIG. It is a figure which shows an example of the display screen displayed on the display apparatus of a master. It is a figure which shows the pattern of the display position of a display object. It is the table
  • FIG. 1 is a block diagram showing an overall configuration of a remote control system according to an embodiment of the present invention.
  • the remote operation system includes a slave 10 and a master 20.
  • the slave 10 is a slave operation device that is disposed in the cockpit of the construction machine 30 and directly operates the operation lever 31 of the construction machine 30 based on the operation amount received by the master 20.
  • the slave 10 is a machine that operates the construction machine 30 as an operator's dummy.
  • the master 20 is a main operation device for directly receiving the operation of the operator of the construction machine 30 and remotely operating the construction machine 30.
  • the master 20 is configured by an operating device that simulates the cockpit of the construction machine 30, and the operating lever 24 similar to the operating lever 31 of the construction machine 30 is disposed at the same position as the construction machine 30. ing.
  • the master 20 includes a seat on which an operator is seated.
  • the slave 10 and the master 20 are connected to each other via a communication path 100 so that they can communicate with each other.
  • a specific power-saving radio and a communication path for wirelessly communicating the slave 10 and the master 20 such as Bluetooth (registered trademark) at a distance of about several tens of meters to several hundreds of meters are employed.
  • the communication path 100 may be a public communication line including a mobile phone communication network and an Internet communication network.
  • the master 20 and the slave 10 can perform long-distance communication.
  • FIG. 2 is a view showing an appearance of the construction machine 30 shown in FIG.
  • the construction machine 30 shown in FIG. 2 is configured by a hydraulic excavator.
  • the construction machine 30 includes a crawler-type lower traveling body 310, an upper revolving body 320 that is turnable on the lower traveling body 310, and a work device 330 attached to the upper revolving body 320.
  • the work device 330 includes a boom 331 attached to the upper swing body 320 so as to be raised and lowered, an arm 332 attached so as to be swingable with respect to the distal end portion of the boom 331, and swinging with respect to the distal end portion of the arm 332. And an attachment 333 that is movably attached.
  • the work device 330 swings the boom 331 relative to the upper swing body 320
  • the arm cylinder 335 swings the arm 332 relative to the boom 331, and swings the attachment 333 relative to the arm 332.
  • an attachment cylinder 336 to be operated.
  • the upper swing body 320 includes a cockpit 3C on which an operator is boarded.
  • the master 20 includes a communication unit 21 (an example of a second communication unit), a controller 22, a display device 23, an operation lever 24 (an example of an operation member), a blocking lever 25, and sensors S1 and S2.
  • the communication unit 21 includes a communication device corresponding to the communication method employed by the communication path 100, and receives the surrounding image of the construction machine 30 and the posture information indicating the posture of the work device 330 transmitted from the slave 10. .
  • the posture information of the work device 330 includes, for example, a detection value of the angle sensor 13.
  • the communication unit 21 transmits the operation amount received by the operation lever 24 of the master 20 to the slave 10.
  • the controller 22 is composed of a computer including a processor such as a CPU and an ASIC and a storage device such as a ROM and a RAM.
  • the controller 22 includes a determination unit 221 and a display control unit 222.
  • the determination unit 221 and the display control unit 222 may be realized by a processor executing a control program, or may be configured by a dedicated hardware circuit.
  • the determination unit 221 determines whether or not the work device 330 is included in the surrounding image received by the communication unit 21.
  • the determination unit 221 determines whether or not the surrounding device includes the working device 330 by applying template matching using the template image of the working device 330 stored in advance in the storage device to the surrounding image. May be.
  • the determination unit 221 stores the detection value of the angle sensor 13 included in the posture information transmitted from the slave 10 and the determination result as to whether or not the working device 330 is included in the surrounding image in advance. By referring to the determination table stored in the device, it may be determined whether or not the working device 330 is included in the surrounding image.
  • the display control unit 222 causes the display device 23 to display the surrounding image received by the communication unit 21 from the slave 10.
  • the display control unit 222 calculates the position of the work device 330 from the posture information received by the communication unit 21, and calculates the calculated position. Is displayed on the display device 23 together with the surrounding image.
  • the display device 23 is configured by a display device such as a liquid crystal display and an organic EL display provided in front of the master 20 seat, and displays a surrounding image received from the slave 10 by the communication unit 21. Further, the display device 23 displays or does not display the display object under the control of the display control unit 222. The operator of the master 20 remotely operates the construction machine 30 while looking at the surrounding image displayed on the display device 23.
  • a display device such as a liquid crystal display and an organic EL display provided in front of the master 20 seat
  • the operation lever 24 corresponds to the operation lever 31 provided in the construction machine 30 and accepts an operation from an operator who remotely operates the construction machine 30.
  • the operation lever 24 will be described as an operation lever that receives an operation of an operator for operating the work device 330 of the construction machine 30.
  • the operation lever 24 tilts the boom 331 when tilted forward, raises the boom 331 when tilted backward, and swings the attachment 333 toward the driver's seat when tilted to the left.
  • It may be configured by an ATT (attachment) lever capable of tilting in four directions, front, rear, left and right, which swings the attachment 333 from the driver's seat to the opposite side when tilted in the direction.
  • the operation lever 24 may be a traveling lever that moves the construction machine 30 forward or backward.
  • the operation lever 24 may be configured as a swing lever that can tilt in four directions, front, back, left, and right, that swing the arm 332 and swing the upper swing body 320.
  • the operation lever 24 may be configured by three operation levers, that is, an ATT lever, a travel lever, and a turning lever.
  • the operation lever 24 includes various operation levers so as to correspond to the various operation levers included in the operation lever 31 of the construction machine 30.
  • the sensor S1 is composed of, for example, a potentiometric sensor, detects the operation amount of the operation lever 24, and outputs it to the controller 22.
  • the sensor S ⁇ b> 1 individually detects the operation amounts of the operation lever 24 in the front, rear, left, and right directions, and outputs them to the controller 22.
  • the sensor S1 increases the operation amount detected as the tilt amount of the operation lever 24 increases in the front, rear, left, and right directions. Note that when the operation lever 24 includes a plurality of operation levers, the sensor S1 includes a plurality of sensors corresponding to the operation levers.
  • the blocking lever 25 is composed of an operation lever that can be tilted between the lock position and the release position, and accepts an operation from the operator for blocking the operation of the operation lever 24.
  • the controller 22 blocks the operation of the operation lever 24 by maintaining the posture of the work device 330 in that state.
  • the controller 22 releases the posture maintenance of the work device 330 and operates the work device 330 according to the operation on the operation lever 24.
  • Sensor S2 is a sensor that detects whether the blocking lever 25 is located at the lock position or the release position.
  • the slave 10 includes a communication unit 11 (an example of a first communication unit), a controller 12, an angle sensor 13 (an example of a posture detection unit), a camera 14, and an operation mechanism 15.
  • the communication unit 11 is configured by a communication device corresponding to the communication method adopted by the communication path 100, and transmits the surrounding image acquired by the camera 14 and the posture information of the work device 330 to the master 20. In addition, the communication unit 11 receives the operation amount of the operation lever 24 received by the master 20 from the master 20.
  • the controller 12 is composed of a computer including a processor such as a CPU and an ASIC and a storage device such as a ROM and a RAM.
  • the controller 12 periodically transmits the surrounding image acquired by the camera 14 and the posture information of the work device 330 to the master 20 at a predetermined sampling period.
  • the communication unit 11 is controlled.
  • the angle sensor 13 is composed of, for example, a resolver or a potentiometric sensor, and detects the posture of the work device 330.
  • the angle sensor 13 is a boom sensor that detects an angle (boom angle) of the boom 331 with respect to the upper swing body 320, an arm sensor that detects an angle (arm angle) of the arm 332 with respect to the boom 331, and an angle with respect to the arm 332 of the attachment 333. It is comprised by the attachment sensor which detects (attachment angle), and the turning sensor which detects the turning angle of the upper turning body 320 with respect to the lower traveling body 310.
  • the display control unit 222 of the master 20 uses the detection values of the boom sensor, the arm sensor, and the attachment sensor and the known lengths of the boom 331, the arm 332, and the attachment 333, and the tip position of the attachment 333. And the calculated tip position may be calculated as the position of the working device 330. Then, the display control unit 222 plots the tip position of the attachment 333 in the three-dimensional local coordinate space Q (FIG. 2) of the construction machine 30 centered on, for example, the position of the center of gravity of the construction machine 30. What is necessary is just to calculate a position.
  • the operation mechanism 15 is configured by an actuator, and a control signal for generating an operation force corresponding to the operation amount received by the communication unit 11 is input to generate an operation force corresponding to the operation amount.
  • the operation lever 31 is given.
  • the operation mechanism 15 is composed of three operation mechanisms corresponding to each operation lever.
  • the ATT lever is composed of an operation lever that can tilt in four directions, front, rear, left, and right
  • the operation mechanism 15 tilts the actuator that tilts the ATT lever in the front-rear direction and the ATT lever in the left-right direction. And an actuator to be operated.
  • the camera 14 is composed of, for example, a CMOS sensor or a CCD sensor, and obtains a surrounding image indicating the surroundings of the construction machine 30 by periodically shooting the surroundings of the construction machine 30 from the cockpit 3C at a predetermined sampling period. To do.
  • the camera 14 is attached to the inside of the cockpit 3C so that the line of sight is directed to the front of the cockpit 3C, and an image of the surroundings of the construction machine 30 is displayed on a front glass plate that closes the front of the cockpit 3C. Take a picture. That is, if the operator is seated in the seat of the cockpit 3C, the camera 14 captures the scenery that the operator sees through the front glass.
  • the controller 12 When the communication unit 11 receives the operation amount of the operation lever 24, the controller 12 outputs a control signal corresponding to the operation amount to the operation mechanism 15. As a result, the slave 10 acts as a dummy for an operator who operates the master 20 and directly operates the construction machine 30.
  • the construction machine 30 includes an operation lever 31 (an example of an operation member) and a controller 32.
  • the operation lever 31 is provided in the cockpit 3 ⁇ / b> C of the construction machine 30 and is tilted when an operation force is applied from the operation mechanism 15 of the slave 10.
  • the operation lever 31 includes at least one or more of an ATT lever, a travel lever, and a turning lever.
  • at least one or more of the ATT lever and the turning lever constituting the operation lever 31 is an operation lever that can be tilted in four directions, front, rear, left and right, like the ATT lever and the turning lever constituting the operation lever 24 of the master 20.
  • the traveling lever that constitutes the operation lever 31 is configured by an operation lever that can be tilted in two directions, the front and rear, like the traveling lever that constitutes the operation lever 24 of the master 20.
  • the controller 32 activates a decelerator function that makes the engine of the construction machine 30 idle when the operation lever 31 has not been operated for a certain period of time.
  • FIG. 3 is a diagram showing an example of the display screen G3 displayed on the display device 23 of the master 20.
  • the display screen G3 includes a surrounding image G31 and a blank area G32 covering the periphery of the surrounding image G31.
  • the outer frame shape of the surrounding image G31 is a rectangular shape whose width gradually decreases as it goes downward, simulating the shape of the front glass of the cockpit 3C.
  • FIG. 3 is a table that summarizes the types of display objects used in the present embodiment.
  • any one of the two-dimensional arrow image OA, the three-dimensional arrow image OB, the construction machine image OC, and the work device image OD is employed as the display object.
  • the two-dimensional arrow image OA is an arrow-shaped image that two-dimensionally shows the tip position of the attachment 333 of the work device 330 with respect to the cockpit 3C.
  • the origin is set, for example, at the center of gravity of the construction machine 30, the Y axis is set in the height direction, the X axis is set in the left-right direction, and the Z axis is set in the front-back direction. ing.
  • the X axis, the Y axis, and the Z axis are orthogonal to each other.
  • the display control unit 222 calculates a three-dimensional vector V1 from the predetermined reference position O1 in the local coordinate space Q toward the point P1. Then, the display control unit 222 obtains a projection vector of the three-dimensional vector V1 onto the XY plane parallel to the front surface of the cockpit 3C, and displays an arrow-shaped image having a predetermined length in the same direction as the projection vector. Generated as an image OA. Then, the display control unit 222 displays the two-dimensional arrow image OA at a predetermined display position on the display screen G3.
  • the reference position O1 a position on the local coordinate space Q corresponding to the display position of the two-dimensional arrow image OA on the display screen G3 is adopted.
  • the predetermined position at the upper left of the surrounding image G31 is the display position of the two-dimensional arrow image OA. Therefore, in this case, for example, the X and Y coordinates of the local coordinate space Q corresponding to this display position are adopted as the X and Y components of the reference position O1, and the Z component of the reference position O1 is, for example, the front glass. The coordinates are adopted.
  • the three-dimensional arrow image OB is an arrow-shaped image that three-dimensionally shows the tip position of the attachment 233 of the work device 330 with respect to the cockpit 3C.
  • the three-dimensional arrow image OB includes a wedge-shaped wedge portion OB1 obtained by cutting each of two triangular prisms extending in an oblique direction at an acute angle with respect to the longitudinal direction and bonding the cut surfaces to each other, and a wedge portion OB1.
  • It is an image obtained by projecting a three-dimensional model including the sandwiched sphere part OB2 onto a virtual screen, and indicates the direction of the working device 330 by the direction of the tip E1 of the wedge part OB1.
  • the virtual screen is set at a position in the local coordinate space Q corresponding to the front glass of the cockpit 3C, for example.
  • the display control unit 222 obtains the three-dimensional vector V1 so that the tip E1 of the three-dimensional model of the three-dimensional arrow image OB faces the end point (point P1) of the three-dimensional vector V1.
  • the three-dimensional model is arranged at the reference position O1.
  • the display control unit 222 generates the three-dimensional arrow image OB by projecting the arranged three-dimensional model onto the virtual screen, and displays it on the display screen G3.
  • the center position of the surrounding image G31 is the display position of the three-dimensional arrow image OB
  • the X component and Y component of the reference position O1 correspond to, for example, the X component and Y component of the center position.
  • X coordinate and Y coordinate of the local coordinate space Q to be used are adopted, and for the Z component, for example, the Z coordinate of the local coordinate space Q separated from the front glass by a predetermined distance is adopted.
  • the display control unit 222 adopts the two-dimensional arrow image OA or the three-dimensional arrow image OB, the two-dimensional arrow image OA or the three-dimensional arrow image as the tip position of the attachment 333 of the work device 330 with respect to the cockpit 3C approaches. You may display large the size of OB. In this case, the display control unit 222 has a table or function that prescribes the relationship between the two so that the enlargement ratio increases as the norm of the three-dimensional vector V1 is smaller. An enlargement factor corresponding to the magnitude of the vector V1 is determined.
  • the display control unit 222 multiplies the determined two-dimensional arrow image OA or three-dimensional arrow by multiplying the determined two-dimensional arrow image OA or the three-dimensional model of the three-dimensional arrow image OB with the default size. What is necessary is just to expand the three-dimensional model of the image OB.
  • the enlargement ratio has a value of 0 or more, and when it is 1 or less, the two-dimensional arrow image OA or the three-dimensional arrow image OB is reduced.
  • the construction machine image OC is an image that simulates the actual posture of the construction machine 30 from a side view.
  • the display control unit 222 uses the boom angle, arm angle, attachment angle, and turning angle included in the detection value of the angle sensor 13 to correct the image of the construction machine 30 in the default posture from the side view, thereby performing the construction.
  • a machine image OC is generated.
  • the display control unit 222 displays the generated construction machine image OC at a predetermined display position on the display screen G3.
  • the construction machine image OC is displayed at the left center position in the blank area G32.
  • the default posture for example, the posture when the lower traveling body 310 and the upper swing body 320 are both facing the front, and the boom angle, the arm angle, and the attachment angle are respectively at predetermined default angles can be employed.
  • the working device image OD is an image showing the current posture of the working device 330 with respect to the upper swing body 320.
  • the display control unit 222 includes a work device image table in which work device images OD corresponding to the posture of the work device 330 are registered in association with the boom angle, arm angle, and attachment angle. Then, the display control unit 222 reads the working device image OD corresponding to the combination of the boom angle, the arm angle, and the attachment angle included in the detection value of the angle sensor 13 from the working device image table, and performs predetermined processing on the display screen G3. It may be displayed at the position. In the example of FIG. 3, the work apparatus image OD is displayed in the upper center of the surrounding image G31.
  • FIG. 4 is a diagram showing a display position pattern of a display object.
  • the table shown on the upper side of FIG. 4 is a table summarizing display position patterns.
  • three patterns PA, PB, and PC are shown.
  • the pattern PA is a pattern in which the entire area of the display object OBX is displayed in a superimposed manner on the surrounding image G31.
  • the pattern PB is a pattern in which a part of the display object OBX is superimposed on the surrounding image G31 and the rest of the display object OBX is superimposed on the blank area G32.
  • the pattern PC is a pattern that superimposes and displays the entire display object OBX on the blank area G32.
  • the display control unit 222 displays the display object OBX with any one of the patterns PA to PC.
  • a pattern that displays the display object OBX composed of the three-dimensional arrow image OB at the center of the surrounding image G31 is shown as the pattern PA.
  • a pattern PB a pattern is shown in which a display object OBX composed of a three-dimensional arrow image OB is partly superimposed on the surrounding image G31 above the surrounding image G31.
  • the first pattern PC there is shown a pattern in which the entire area of the display object OBX composed of the three-dimensional arrow image OB is displayed above the blank area G32.
  • the second pattern PC there is shown a pattern in which the entire display object OBX composed of the construction machine image OC is displayed on the left side of the margin area G32.
  • the three-dimensional arrow image OB is used as the patterns PA and PB and the first pattern PC, but this is an example, and the two-dimensional arrow image OA shown in FIG. A machine image OC or a work device image OD may be employed. Further, although the construction machine image OC is used as the second pattern PC, a two-dimensional arrow image OA, a three-dimensional arrow image OB, or a work device image OD may be employed.
  • the coordinates of the reference position O1 shown in FIG. 2 are the coordinates of the local coordinate space Q corresponding to the display positions shown by the patterns PA to PC.
  • the display position of the display object OBX in the pattern PA is not limited to the center of the surrounding image G31 shown in FIG. 4, and is within the surrounding image G31 and at a position where the display object OBX does not protrude from the surrounding image G31. Any position may be adopted as long as it exists.
  • the display position of the display object OBX in the pattern PB is not limited to the position straddling the upper edge of the surrounding image G31 shown in FIG. 4, and the position straddling the left edge, the right edge, or the lower edge of the surrounding image G31 is adopted. May be.
  • the display position of the display object OBX in the pattern PC is not limited to the upper margin area G32 shown in FIG. 4, and the left, right, or lower margin area may be employed.
  • FIG. 5 is a table summarizing display / non-display timing of the display object OBX according to the present embodiment.
  • display system indicates whether or not the display object OBX is displayed on the display device 23.
  • Operaation lever operation indicates whether or not the operation lever 24 is operated by the operator.
  • Prosition of working device indicates whether or not the working device 330 is included in the surrounding image G31.
  • Non-operation elapsed time indicates whether or not the elapsed time since the operation of the operation lever 24 has been stopped has exceeded a predetermined time.
  • System status indicates whether a communication connection has been established between the slave 10 and the master 20.
  • “communication start” indicates a state immediately after the communication is started between the slave 10 and the master 20.
  • the “decelerator function” indicates whether or not the decelerator function is in operation.
  • “Blocking lever” indicates whether or not the blocking lever 25 is locked.
  • the display control unit 222 does not display the display object OBX regardless of whether or not the working device 330 is included in the surrounding image G31. This is because during the operation of the operation lever 24, even if the work device 330 disappears from the surrounding image G31, the operator can predict the position of the work device 330 to some extent from the current operation, and if the display object OBX is displayed, the work is hindered. It is based on the idea of becoming.
  • the display control unit 222 does not display the display object OBX when the surrounding device G31 includes the work device 330. This is based on the idea that the operator can recognize the position of the working device 330 without displaying the display object OBX when the working image 330 is included in the surrounding image G31.
  • the display control unit 222 does not display the display object OBX until the state where the operation lever 24 is not operated is continued for a predetermined time or longer. Continue displaying.
  • the pattern “4” is the reverse of the pattern “3”.
  • the display control unit 222 continues the state in which the operation lever 31 is not operated for a predetermined time or more. After that, the display object OBX is displayed. This is based on the idea that chattering in which the display and non-display of the display object OBX are repeated in a short time in the scene where the appearance and disappearance of the work device 330 are repeated in the short time with respect to the surrounding image G31. Is based. As the fixed time, an appropriately set value such as 5 seconds, 10 seconds, 30 seconds, 1 minute or the like can be adopted.
  • the display control unit 222 determines whether or not the operation lever 24 is operated when the work device 330 is not included in the surrounding image G31 at the start of communication between the master 20 and the slave 10.
  • the display object OBX is displayed. This is based on the idea of preventing the operator from recognizing the position of the work device 330 when the work device 330 does not appear in the surrounding image G31 at the start of communication.
  • the display control unit 222 determines whether or not the operation lever 24 is operated when the blocking lever 25 is in the locked state and the surrounding image G31 does not include the work device 330.
  • the display object OBX is displayed.
  • the display control unit 222 displays the display object regardless of whether the operation lever 24 is operated or not when the decelerator function is activated and the surrounding image G31 does not include the work device 330.
  • Display OBX This is because when the decelerator function is in operation and the work by the work device 330 is suspended, if the work image 330 is not included in the surrounding image G31, the display object OBX is displayed and the work device 330 is displayed to the operator. It is based on the idea that it is desirable to recognize the position of
  • FIG. 6 is a flowchart showing an example of processing of the remote control system according to the embodiment of the present invention. Note that the flowchart of FIG. 6 is repeatedly executed.
  • the determination unit 221 determines whether or not the working device 330 of the surrounding image G31 is included.
  • the display control unit 222 does not display the display object OBX on the display screen G3 (S107).
  • the display control unit 222 determines whether or not the blocking lever 25 is in the locked position from the detection result of the sensor S2 (S102). When it is determined that the blocking lever 25 is in the locked position (YES in S102), the display control unit 222 displays the display object OBX on the display screen G3 (S103). Thereby, the pattern “6” is realized.
  • the display control unit 222 determines whether or not the decelerator function is in operation (S104). When it is determined that the decelerator function is in operation (YES in S104), the display control unit 222 displays the display object OBX on the display screen G3 (S103). Thereby, the pattern “7” is realized.
  • the display control unit 222 determines whether or not the operation lever 24 is being operated from the detection result of the sensor S1 (S105). Here, if the operation amount of the operation lever 24 detected by the sensor S1 is not 0, the display control unit 222 determines that the operation lever 24 is operating, and if the operation amount of the operation lever 24 detected by the sensor S1 is 0, What is necessary is just to determine that it is not in operation.
  • the display control unit 222 When the operation lever 24 is being operated (YES in S105), the display control unit 222 does not display the display object on the display screen G3 (S107). On the other hand, when the operation lever 24 is not being operated (NO in S105), the display control unit 222 determines whether or not a predetermined time has elapsed since the operation of the operation lever 24 was stopped (S106). When a predetermined time or more has elapsed after the operation of the operation lever 24 is stopped (YES in S106), the display control unit 222 displays the display object OBX on the display screen G3 (S103).
  • the display control unit 222 does not display the display object OBX on the display screen G3 (S107). If NO in S105, YES in S106, and the work apparatus 330 disappears from the surrounding image G31 by the flow of S103, the display object OBX is displayed on the display screen after a certain period of time has passed without the operation lever 24 being operated. It will be displayed on G3. Thereby, the patterns “3” and “4” are realized.
  • the display object OBX is displayed during operation of the operation lever 24 regardless of whether or not the surrounding device G31 has the work device 330. Will not be. Thereby, the pattern “1” is realized.
  • FIG. 7 is a flowchart showing an example of processing at the start of communication in the remote control system according to the embodiment of the present invention.
  • the display control unit 222 of the master 20 determines whether or not communication between the master 20 and the slave 10 has been started.
  • the start of communication is performed by, for example, an operator of the master 20 turning on the power of the master 20, and then inputting a connection request transmission instruction to the input device (not shown) of the master 20, and the master 20 receiving the connection request as a slave. This is done by sending to 10.
  • the connection request includes identification information of the slave 10 and the like.
  • the slave 10 that has received the connection request performs an authentication process based on the identification information, and transmits a connection response to the master 20 when the authentication is permitted. Thereby, the communication connection between the master 20 and the slave 10 is established, and communication between the two is started.
  • the determination unit 221 determines whether or not the working device 330 is included in the surrounding image G31.
  • the display control unit 222 does not display the display object OBX on the display screen G3 (S204).
  • the display control unit 222 displays the display object OBX on the display screen G3 (S203).
  • the work device 330 when the work device 330 is not included in the surrounding image G31 of the construction machine 30 taken from the cockpit 3C of the construction machine 30, the position of the work device 330 is indicated to the operator.
  • a display object OBX for notification is displayed on the display screen of the master 20.
  • the operator of the master 20 can recognize the position of the work device 330. As a result, the operator can operate the work device 330 with peace of mind, and the work burden on the operator can be reduced.
  • the display object OBX is displayed in real time in the display screen G3.
  • the present invention can employ the following modifications.
  • the display control unit 222 displays the display object OBX regardless of whether or not the working device 330 is included in the surrounding image G31. May be displayed at all times.
  • the construction machine image OC or the work device image OD is adopted as the display object OBX, it is preferable to always display the display object OBX because the operator can overlook the posture of the construction machine 30.
  • a pattern PC that always displays the construction machine image OC or the working device image OD as the display object OBX in the blank area G32, and the entire area of the two-dimensional arrow image OA or the three-dimensional arrow image OB and the surrounding image G31.
  • a display mode combining the pattern PA to be superimposed may be adopted.
  • the two-dimensional arrow image OA or the three-dimensional arrow image OB only needs to be displayed and not displayed according to the patterns “1” to “7” shown in FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

マスター20は、建設機械30の操縦席3C内から建設機械30の周囲が撮影された周囲画像G31をスレーブ10から取得し、周囲画像G31に作業装置330が含まれているか否かを判定し、周囲画像G31に作業装置330が含まれていないと判定された場合、建設機械30の姿勢から作業装置330の位置を算出し、算出した位置をオペレータに知らせるための表示オブジェクトOBXを周囲画像G31と共に表示装置23に表示する。

Description

遠隔操作システム及び主操作装置
 本発明は、主操作装置と従操作装置とを備える遠隔操作システム等に関するものである。
 近年、オペレータの操作を直接受け付けるマスターと称される主操作装置と、マスターに対して通信可能に接続されたスレーブと称される従操作装置とを用いて建設機械を遠隔操作する遠隔操作システムが知られている(例えば、特許文献1)。
 このような遠隔操作システムでは、建設機械の操縦席内に設けられたカメラによって撮影された建設機械の周囲画像がマスターに設けられた表示装置に表示され、オペレータはこの表示装置に表示された周囲画像を見ながら建設機械の作業装置(ブーム、アーム、及びバケット等)を遠隔操作する。
 本願に関連する先行技術文献として特許文献1の他に特許文献2がある。特許文献2は、建設機械の後部に設けられた後方監視カメラで撮影された画像から上部旋回体に対する下部走行体の相対角度を検知し、検知した相対角度を示す画像を操縦席内に設けられた表示装置に表示する技術を開示する。
 しかし、作業装置の取り得る姿勢によっては、操縦席内に設けられたカメラの視野外に作業装置が位置する事態が発生する。この場合、マスターの表示装置に表示される周囲画像から作業装置が消失し、マスターのオペレータは作業装置が現在どの方向に位置しているかを確認できず、オペレータに不安を与えるという課題が生じる。
 特に、昼休みなどの休憩後に建設機械の遠隔操作を再開させる場合、周囲画像に作業装置が表れていないと、オペレータは作業装置の位置を予想しながら作業装置を慎重に操作することが要求され、操作負担が増大するという課題がある。
 上述の特許文献2は、そもそも遠隔操作システムに関する発明ではなく、操縦席内にカメラを設置することについての開示もないので、マスターの表示画面に表示される周囲画像から作業装置が消失した場合に生じる上記の課題を解決できない。
特開平10-252101号公報 特開2012-107395号公報
 本発明の目的は、主操作装置の表示装置に表示される周囲画像から作業装置が消失したとしても、作業装置の位置を主操作装置のオペレータに認識させることができる遠隔操作システム等を提供することである。
 本発明の一態様は、作業装置を含む建設機械を遠隔操作する遠隔操作システムであって、
 前記建設機械を遠隔操作するための主操作装置と、前記建設機械に搭載され、前記主操作装置が受け付けた操作に基づいて前記作業装置を操作する従操作装置とを備え、
 前記従操作装置は、
 前記建設機械の操縦席内から前記建設機械の周囲を撮影した周囲画像を取得するカメラと、
 前記作業装置の姿勢を検知する姿勢検知部と、
 前記周囲画像及び前記姿勢検知部が検知した前記作業装置の姿勢を示す姿勢情報を前記主操作装置に送信する第1通信部とを備え、
 前記主操作装置は、
 オペレータの操作を受け付ける操作部材と、
 前記従操作装置から送信された前記周囲画像及び前記姿勢情報を受信する第2通信部と、
 前記第2通信部が受信した前記周囲画像を含む表示画面を表示する表示装置と、
 前記第2通信部が受信した前記周囲画像に前記作業装置が含まれているか否かを判定する判定部と、
 前記判定部により前記周囲画像に前記作業装置が含まれていないと判定された場合、前記第2通信部が受信した前記姿勢情報から前記作業装置の位置を算出し、算出した前記位置を前記オペレータに知らせるための表示オブジェクトを前記表示画面に表示する表示制御部とを備える。
 本発明によれば、主操作装置の表示装置に表示される周囲画像から作業装置が消失したとしても、作業装置の位置を主操作装置のオペレータに認識させることができる。
本発明の実施の形態に係る遠隔操作システムの全体構成を示すブロック図である。 図1に示す建設機械の外観を示す図である。 マスターの表示装置に表示される表示画面の一例を示す図である。 表示オブジェクトの表示位置のパターンを示す図である。 本実施の形態に係る表示オブジェクトの表示・非表示タイミングを纏めた表である。 本発明の実施の形態に係る遠隔操作システムの処理の一例を示すフローチャートである。 本発明の実施の形態に係る遠隔操作システムの通信開始時の処理の一例を示すフローチャートである。
 図1は、本発明の実施の形態に係る遠隔操作システムの全体構成を示すブロック図である。遠隔操作システムは、スレーブ10及びマスター20を備える。スレーブ10は、建設機械30の操縦席に配置され、マスター20が受け付けた操作量に基づいて建設機械30の操作レバー31を直接操作する従操作装置である。スレーブ10は、いわばオペレータのダミーとなって建設機械30を操作する機械である。マスター20は、建設機械30のオペレータの操作を直接受け付けて建設機械30を遠隔操作するための主操作装置である。本実施の形態では、マスター20は建設機械30の操縦席を模擬した操作装置で構成されており、建設機械30の操作レバー31と同様の操作レバー24が建設機械30と同様のポジションで配置されている。また、マスター20は、オペレータが着座するシートを備えている。
 スレーブ10及びマスター20は通信路100を介して相互に通信可能に接続されている。通信路100としては、特定省電力無線、及びブルーツース(登録商標)といったスレーブ10及びマスター20を数十m~数百m程度の距離で無線通信させる通信路が採用される。但し、これは一例であり、通信路100としては、携帯電話通信網及びインターネット通信網等を含む公衆通信回線が採用されてもよい。この場合、マスター20及びスレーブ10は長距離通信が可能となる。
 図2は、図1に示す建設機械30の外観を示す図である。図2に示す建設機械30は、油圧ショベルで構成されている。建設機械30は、クローラ式の下部走行体310と、下部走行体310上に旋回可能に設けられた上部旋回体320と、上部旋回体320に取り付けられた作業装置330とを備えている。
 作業装置330は、上部旋回体320に対して起伏可能に取り付けられたブーム331と、ブーム331の先端部に対して揺動可能に取り付けられたアーム332と、アーム332の先端部に対して揺動可能に取り付けられたアタッチメント333とを備えている。
 また、作業装置330は、上部旋回体320に対してブーム331を起伏させるブームシリンダ334と、ブーム331に対してアーム332を揺動させるアームシリンダ335と、アーム332に対してアタッチメント333を揺動させるアタッチメントシリンダ336とを備えている。上部旋回体320は、オペレータが搭乗する操縦席3Cを備えている。
 図1に参照を戻す。マスター20は、通信部21(第2通信部の一例)、コントローラ22、表示装置23、操作レバー24(操作部材の一例)、遮断レバー25、及びセンサS1,S2を備える。
 通信部21は、通信路100が採用する通信方式に対応する通信装置で構成され、スレーブ10から送信された、建設機械30の周囲画像と、作業装置330の姿勢を示す姿勢情報とを受信する。作業装置330の姿勢情報には、例えば、角度センサ13の検出値が含まれる。また、通信部21は、マスター20の操作レバー24が受け付けた操作量をスレーブ10に送信する。
 コントローラ22は、CPU、ASIC等のプロセッサとROM及びRAMといった記憶装置とを含むコンピュータで構成されている。コントローラ22は、判定部221及び表示制御部222を備えている。なお、判定部221及び表示制御部222は、プロセッサが制御プログラムを実行することで実現されてもよいし、専用のハードウェア回路で構成されてもよい。
 判定部221は、通信部21により受信された周囲画像に作業装置330が含まれているか否かを判定する。ここで、判定部221は、予め記憶装置に記憶された作業装置330のテンプレート画像を用いたテンプレートマッチングを周囲画像に適用することで、周囲画像に作業装置330が含まれているか否かを判定してもよい。或いは、判定部221は、スレーブ10から送信された姿勢情報に含まれる角度センサ13の検出値と、周囲画像に作業装置330が含まれているか否かの判定結果とが予め対応付けられた記憶装置に記憶された判定テーブルを参照することで、周囲画像に作業装置330が含まれているか否かを判定してもよい。
 表示制御部222は、通信部21がスレーブ10から受信した周囲画像を表示装置23に表示させる。また、表示制御部222は、判定部221により周囲画像に作業装置330が含まれていないと判定された場合、通信部21が受信した姿勢情報から作業装置330の位置を算出し、算出した位置をオペレータに知らせるための表示オブジェクトを周囲画像と共に表示装置23に表示する。
 表示装置23は、マスター20の座席前方に設けられた液晶ディスプレイ及び有機ELディスプレイ等の表示装置で構成され、通信部21がスレーブ10から受信した周囲画像を表示する。また、表示装置23は、表示制御部222の制御の下、表示オブジェクトを表示させたり表示させなかったりする。マスター20のオペレータは、表示装置23に表示された周囲画像を見ながら、建設機械30を遠隔操作する。
 操作レバー24は、建設機械30が備える操作レバー31に対応しており、建設機械30を遠隔操作するオペレータからの操作を受け付ける。本実施の形態では、操作レバー24は、建設機械30の作業装置330を操作するためのオペレータの操作を受け付ける操作レバーとして説明する。例えば、操作レバー24は、前方に傾倒されるとブーム331を倒伏させ、後方に傾倒されるとブーム331を起伏させ、左方に傾倒されるとアタッチメント333を運転席側に揺動させ、右方に傾倒されるとアタッチメント333を運転席から反対側に揺動させる前後左右の4方向に傾倒可能なATT(アタッチメント)レバーで構成されてもよい。或いは、操作レバー24は、建設機械30を前進又は後進させる走行レバーで構成されてもよい。或いは、操作レバー24は、アーム332を揺動させ、且つ、上部旋回体320を旋回させる前後左右の4方向に傾倒可能な旋回レバーで構成されてもよい。或いは、操作レバー24は、ATTレバー、走行レバー、及び旋回レバーの3つの操作レバーで構成されていてもよい。いずれにせよ、操作レバー24は、建設機械30の操作レバー31が備える各種の操作レバーに対応するように各種の操作レバーを備えている。
 センサS1は、例えば、ポテンショ式のセンサで構成され、操作レバー24の操作量を検知してコントローラ22に出力する。ここで、センサS1は、操作レバー24の前後左右のそれぞれの操作量を個別に検知し、コントローラ22に出力する。なお、センサS1は、前後左右のそれぞれの方向において操作レバー24の傾倒量が増大するにつれて検知する操作量を増大させる。なお、操作レバー24が複数の操作レバーで構成されている場合、センサS1は、各操作レバーに対応して複数のセンサで構成される。
 遮断レバー25は、ロック位置と解放位置との間で傾倒可能な操作レバーで構成され、操作レバー24の操作を遮断するためのオペレータからの操作を受け付ける。遮断レバー25がロック位置に位置決めされると、コントローラ22は作業装置330の姿勢をその状態のまま保持させることで、操作レバー24への操作を遮断させる。一方、遮断レバー25が解放位置に位置決めされると、コントローラ22は作業装置330の姿勢保持を解除し、操作レバー24への操作に応じて作業装置330を稼働させる。
 センサS2は、遮断レバー25がロック位置に位置するか、解放位置に位置するかを検出するセンサである。
 スレーブ10は、通信部11(第1通信部の一例)、コントローラ12、角度センサ13(姿勢検知部の一例)、カメラ14、及び操作機構15を備える。
 通信部11は、通信路100が採用する通信方式に対応する通信装置で構成され、カメラ14が取得した周囲画像と、作業装置330の姿勢情報とをマスター20に送信する。また、通信部11は、マスター20が受け付けた操作レバー24の操作量をマスター20から受信する。
 コントローラ12は、CPU、ASIC等のプロセッサとROM及びRAMといった記憶装置とを含むコンピュータで構成されている。コントローラ12は、マスター20とスレーブ10との通信接続が確立されている場合、カメラ14が取得した周囲画像と、作業装置330の姿勢情報とが所定のサンプリング周期で周期的にマスター20に送信されるよう通信部11を制御する。
 角度センサ13は、例えば、リゾルバ又はポテンショ式のセンサで構成され、作業装置330の姿勢を検出する。角度センサ13は、ブーム331の上部旋回体320に対する角度(ブーム角度)を検知するブームセンサと、アーム332のブーム331に対する角度(アーム角度)を検知するアームセンサと、アタッチメント333のアーム332に対する角度(アタッチメント角度)を検知するアタッチメントセンサと、下部走行体310に対する上部旋回体320の旋回角度を検出する旋回センサとで構成されている。
 したがって、マスター20の表示制御部222は、ブームセンサ、アームセンサ、及びアタッチメントセンサのそれぞれの検出値とブーム331、アーム332、及びアタッチメント333のそれぞれの既知の長さとを用いてアタッチメント333の先端位置を算出し、算出した先端位置を作業装置330の位置として算出すればよい。そして、表示制御部222は、建設機械30の例えば重心位置を中心とする建設機械30の3次元のローカル座標空間Q(図2)に、アタッチメント333の先端位置をプロットすることで作業装置330の位置を算出すればよい。
 操作機構15は、アクチュエータで構成され、通信部11により受信された操作量に応じた操作力を発生させるための制御信号が入力され、操作量に応じた操作力を発生させ、建設機械30の操作レバー31に付与する。例えば、操作レバー31が、ATTレバー、走行レバー、及び旋回レバーで構成されているとすると、操作機構15は、各操作レバーに対応する3つの操作機構で構成される。また、この例において、ATTレバーが前後左右の4方向に傾倒可能な操作レバーで構成されている場合、操作機構15は、前後方向にATTレバーを傾倒させるアクチュエータと、左右方向にATTレバーを傾倒させるアクチュエータとを備える。
 カメラ14は、例えば、CMOSセンサー又はCCDセンサーで構成され、操縦席3C内から建設機械30の周囲を所定のサンプリング周期で周期的に撮影することで、建設機械30の周囲を示す周囲画像を取得する。ここで、カメラ14は、操縦席3Cの前方に視線が向くように操縦席3Cの内部に取り付けられており、操縦席3Cの前方を閉塞する前面ガラスごしに建設機械30の周囲の画像を撮影する。すなわち、カメラ14は、操縦席3Cの座席にオペレータが着座しているとすれば、そのオペレータが前面ガラスごしに見る景色を撮影する。
 コントローラ12は、通信部11が操作レバー24の操作量を受信した場合、その操作量に応じた制御信号を操作機構15に出力する。これにより、スレーブ10はマスター20を操作するオペレータのダミーになって建設機械30を直接操作する。
 建設機械30は、操作レバー31(操作部材の一例)及びコントローラ32を備える。操作レバー31は、建設機械30の操縦席3Cに設けられており、スレーブ10の操作機構15から操作力が付与されることで傾倒される。操作レバー31は、マスター20の操作レバー24と同様、ATTレバー、走行レバー、及び旋回レバーの少なくとも1又は複数で構成されている。この場合、操作レバー31を構成するATTレバー及び旋回レバーの少なくとも1又は複数はマスター20の操作レバー24を構成するATTレバー及び旋回レバーと同様に、前後左右の4方向に傾倒可能な操作レバーで構成される。また、操作レバー31を構成する走行レバーは、マスター20の操作レバー24を構成する走行レバーと同様、前後の2方向に傾倒可能な操作レバーで構成される。
 コントローラ32は、操作レバー31が一定時間操作がされていない場合、建設機械30のエンジンをアイドル状態にするデセルレイター機能を作動させる。
 図3は、マスター20の表示装置23に表示される表示画面G3の一例を示す図である。表示画面G3は、周囲画像G31と周囲画像G31の周囲を覆う余白領域G32とを備えている。図3の例では、周囲画像G31の外枠形状は、操縦席3Cの前面ガラスの形状を模擬して、下側に向かうにつれて横幅が徐々に短くなる矩形形状で構成されている。
 図3の上側に示す表は本実施の形態で用いられる表示オブジェクトの種類を纏めた表である。本実施の形態では、表示オブジェクトは、2次元矢印画像OA、3次元矢印画像OB、建設機械画像OC、及び作業装置画像ODのいずれか1つが採用される。
 2次元矢印画像OAは、操縦席3Cに対して作業装置330のアタッチメント333の先端位置を2次元的に示す矢印状の画像である。図2を参照して、作業装置330のローカル座標空間Qは、建設機械30の例えば重心に原点が設定され、高さ方向にY軸、左右方向にX軸、前後方向にZ軸が設定されている。X軸、Y軸、Z軸は相互に直交している。
 図2において、アタッチメント333の先端位置が点P1に位置する場合、表示制御部222は、ローカル座標空間Q内の所定の基準位置O1から点P1に向かう3次元ベクトルV1を算出する。そして、表示制御部222は、操縦席3Cの前面と平行なXY平面への3次元ベクトルV1の射影ベクトルを求め、その射影ベクトルと同一方向に向く所定長さの矢印状の画像を2次元矢印画像OAとして生成する。そして、表示制御部222は、表示画面G3上の所定の表示位置に2次元矢印画像OAを表示する。基準位置O1は、表示画面G3における2次元矢印画像OAの表示位置に対応するローカル座標空間Q上の位置が採用される。図3では、周囲画像G31の左上の所定の位置が2次元矢印画像OAの表示位置とされている。そのため、この場合、基準位置O1のX成分及びY成分は、例えば、この表示位置に対応するローカル座標空間QのX座標及びY座標が採用され、基準位置O1のZ成分は、例えば、前面ガラスの座標が採用される。
 3次元矢印画像OBは、操縦席3Cに対して作業装置330のアタッチメント233の先端位置を3次元的に示す矢印状の画像である。ここでは、3次元矢印画像OBは、斜め方向に延びる2本の三角柱のそれぞれを長手方向に対して鋭角に切断し、切断面同士を貼り合わせた楔型の楔部OB1と、楔部OB1に挟まれた球体部OB2とを含む3次元モデルを仮想スクリーンに投影することで得られた画像であり、楔部OB1の先端E1の向きにより作業装置330の方向を示す。なお、仮想スクリーンは、例えば、操縦席3Cの前面ガラスに対応するローカル座標空間Q内の位置に設定される。
 表示制御部222は、2次元矢印画像OAの場合と同様、3次元ベクトルV1を求め、3次元矢印画像OBの3次元モデルの先端E1が3次元ベクトルV1の終点(点P1)を向くように基準位置O1に当該3次元モデルを配置する。そして、表示制御部222は、配置した3次元モデルを仮想スクリーンに投影することで3次元矢印画像OBを生成し、表示画面G3に表示する。図3の例では、周囲画像G31の中央位置が3次元矢印画像OBの表示位置とされているので、基準位置O1のX成分及びY成分は、例えば、中央位置のX成分及びY成分に対応するローカル座標空間QのX座標及びY座標が採用され、Z成分は、例えば、前面ガラスから前方に所定距離離間したローカル座標空間QのZ座標が採用される。
 なお、表示制御部222は、2次元矢印画像OA又は3次元矢印画像OBを採用する場合、操縦席3Cに対する作業装置330のアタッチメント333の先端位置が近づくにつれて2次元矢印画像OA又は3次元矢印画像OBのサイズを大きく表示してもよい。この場合、表示制御部222は、3次元ベクトルV1のノルムが小さいほど、拡大率が増大するように両者の関係を規定するテーブル又は関数を予め備えておき、このテーブル又は関数を用いて3次元ベクトルV1の大きさに対応する拡大率を決定する。そして、表示制御部222は、デフォルトのサイズを持つ2次元矢印画像OA又は3次元矢印画像OBの3次元モデルに対して、決定した拡大率を乗じることで、2次元矢印画像OA又は3次元矢印画像OBの3次元モデルを拡大すればよい。なお、拡大率は、0以上の値を持ち、1以下の場合、2次元矢印画像OA又は3次元矢印画像OBは縮小されることになる。
 図3を参照する。建設機械画像OCは、側面視からの建設機械30の実際の姿勢を模擬した画像である。表示制御部222は、角度センサ13の検出値に含まれるブーム角度、アーム角度、アタッチメント角度、及び旋回角度を用いて、側面視からのデフォルト姿勢の建設機械30の画像を修正することで、建設機械画像OCを生成する。そして、表示制御部222は、生成した建設機械画像OCを表示画面G3上の所定の表示位置に表示する。図3の例では、建設機械画像OCは余白領域G32内の左中央の位置に表示されている。デフォルト姿勢としては、例えば、下部走行体310及び上部旋回体320が共に正面を向いており、且つ、ブーム角度、アーム角度、及びアタッチメント角度がそれぞれ所定のデフォルト角度にあるときの姿勢が採用できる。
 作業装置画像ODは、上部旋回体320に対する現在の作業装置330の姿勢を示す画像である。表示制御部222は、作業装置330の姿勢に応じた作業装置画像ODが、ブーム角度、アーム角度、及びアタッチメント角度と対応付けて登録された作業装置画像テーブルを予め備えている。そして、表示制御部222は、角度センサ13の検出値に含まれるブーム角度、アーム角度、及びアタッチメント角度の組み合わせに対応する作業装置画像ODを作業装置画像テーブルから読み出して、表示画面G3上の所定の位置に表示すればよい。図3の例では、作業装置画像ODは周囲画像G31の上部の中央に表示されている。
 図4は、表示オブジェクトの表示位置のパターンを示す図である。図4の上側に示す表は表示位置のパターンを纏めた表である。図4に示す表示画面G3では、3つのパターンPA,PB,PCが示されている。パターンPAは、表示オブジェクトOBXの全域を周囲画像G31に重畳表示するパターンである。パターンPBは、表示オブジェクトOBXの一部を周囲画像G31に重畳表示し、表示オブジェクトOBXの残りを余白領域G32に重畳表示するパターンである。パターンPCは、表示オブジェクトOBXの全域を余白領域G32に重畳表示するパターンである。
 表示制御部222は、パターンPA~PCのうちのいずれか1のパターンで表示オブジェクトOBXを表示する。図4の例では、パターンPAとして、3次元矢印画像OBからなる表示オブジェクトOBXを周囲画像G31の中央に表示するパターンが示されている。また、パターンPBとして、3次元矢印画像OBからなる表示オブジェクトOBXを周囲画像G31の上側において一部が周囲画像G31に重畳表示されるパターンが示されている。また、一つ目のパターンPCとして、3次元矢印画像OBからなる表示オブジェクトOBXの全域を余白領域G32の上側に表示するパターンが示されている。また、二つ目のパターンPCとして、建設機械画像OCからなる表示オブジェクトOBXの全域を余白領域G32の左側に表示するパターンが示されている。
 図4の例では、パターンPA、PB、及び一つ目のパターンPCとして3次元矢印画像OBが用いられているが、これは一例であり、図3で示した、2次元矢印画像OA、建設機械画像OC、又は作業装置画像ODが採用されてもよい。また、二つ目のパターンPCとして建設機械画像OCが用いられているが、2次元矢印画像OA、3次元矢印画像OB、又は作業装置画像ODが採用されてもよい。なお、2次元矢印画像OA及び3次元矢印画像OBを採用した場合、図2で示す基準位置O1の座標は、パターンPA~PCで示される表示位置に対応するローカル座標空間Qの座標が採用される。
 また、パターンPAにおける表示オブジェクトOBXの表示位置としては、図4に示す周囲画像G31の中央に限定されず、周囲画像G31内であり、且つ、表示オブジェクトOBXが周囲画像G31からはみ出さない位置であれば、どのような位置が採用されてもよい。また、パターンPBにおける表示オブジェクトOBXの表示位置としては、図4に示す周囲画像G31の上縁に跨る位置に限定されず、周囲画像G31の左縁、右縁、又は下縁に跨る位置が採用されてもよい。また、パターンPCにおける表示オブジェクトOBXの表示位置としては、図4に示す上側の余白領域G32に限定されず、左側、右側、又は下側の余白領域が採用されてもよい。
 図5は、本実施の形態に係る表示オブジェクトOBXの表示・非表示タイミングを纏めた表である。本実施の形態では、表示オブジェクトOBXの表示・非表示タイミングのパターンは7つある。図5において、「表示系」は表示装置23への表示オブジェクトOBXの表示の有無を示す。「操作レバーの操作」は操作レバー24がオペレータによって操作されているか否かを示す。「作業装置の位置」は周囲画像G31に作業装置330が含まれているか否かを示す。「無操作経過時間」は操作レバー24への操作がされなくなってからの経過時間が一定時間以上経過したか否かを示す。「システムの状態」はスレーブ10とマスター20との間で通信接続が確立されているか否かを示す。また、「システムの状態」において、「通信開始」はスレーブ10とマスター20との間で通信が開始された直後の状態を示す。「デセルレイター機能」はデセルレイター機能が作動中であるか否かを示す。「遮断レバー」は、遮断レバー25がロックされているか否かを示す。
 パターン「1」では、表示制御部222は、操作レバー24が操作されている場合、周囲画像G31に作業装置330が含まれているか否かに拘わらず、表示オブジェクトOBXを表示しない。これは、操作レバー24の操作中においては周囲画像G31から作業装置330が消失しても現在の操作からオペレータは作業装置330の位置をある程度予想でき、表示オブジェクトOBXを表示させると却って作業の妨げになるとの考えに基づくものである。
 パターン「2」では、表示制御部222は、周囲画像G31に作業装置330が含まれている場合、表示オブジェクトOBXを表示しない。これは、周囲画像G31に作業装置330が含まれている場合、表示オブジェクトOBXを表示しなくても、オペレータは作業装置330の位置を認識できるとの考えに基づくものである。
 パターン「3」では、表示制御部222は、周囲画像G31に作業装置330が含まれていない場合、操作レバー24が操作されていない状態が一定時間以上継続されるまでは、表示オブジェクトOBXの非表示を継続させる。
 パターン「4」は、パターン「3」の裏返しであり、表示制御部222は、周囲画像G31に作業装置330が含まれていない場合、操作レバー31が操作されていない状態が一定時間以上継続された後で、表示オブジェクトOBXを表示する。これは、周囲画像G31に対して作業装置330の出現と消失とが短時間に繰り返される場面において、表示オブジェクトOBXの表示と非表示とが短時間に繰り返されるチャタリングの発生を防止するとの考えに基づくものである。なお、一定時間としては5秒、10秒、30秒、1分等の適宜設定された値が採用できる。
 パターン「5」において、表示制御部222は、マスター20とスレーブ10との通信開始時において周囲画像G31に作業装置330が含まれていない場合、操作レバー24が操作されているか否かに拘わらず、表示オブジェクトOBXを表示する。これは、通信開始時において、周囲画像G31に作業装置330が出現していない場合、オペレータが作業装置330の位置を認識できなくなることを防止させるとの考えに基づくものである。
 パターン「6」において、表示制御部222は、遮断レバー25がロック状態にされ、且つ、周囲画像G31に作業装置330が含まれていない場合、操作レバー24が操作されているか否かに拘わらず、表示オブジェクトOBXを表示する。
 これは、遮断レバー25がロック状態にされており、作業装置330の作業が休止されている場合は、周囲画像G31に作業装置330が含まれていなければ、表示オブジェクトOBXを表示させて、オペレータに作業装置330の位置を認識させるのが好ましいとの考えに基づくものである。
 パターン「7」において、表示制御部222は、デセルレイター機能が作動中、且つ、周囲画像G31に作業装置330が含まれていない場合、操作レバー24が操作されているか否かに拘わらず、表示オブジェクトOBXを表示する。これは、デセルレイター機能が作動中であり、作業装置330による作業が休止されている場合、周囲画像G31に作業装置330が含まれていなければ、表示オブジェクトOBXを表示させて、オペレータに作業装置330の位置を認識させるのが望ましいとの考えに基づいている。
 図6は、本発明の実施の形態に係る遠隔操作システムの処理の一例を示すフローチャートである。なお、図6のフローチャートは繰り返し実行される。S101では、判定部221は、周囲画像G31の作業装置330が含まれているか否かを判定する。周囲画像G31に作業装置330が含まれている場合(S101でYES)、表示制御部222は、表示オブジェクトOBXを表示画面G3に表示しない(S107)。
 周囲画像G31に作業装置330が含まれていない場合(S101でNO)、表示制御部222は、センサS2の検出結果から遮断レバー25がロック位置にあるか否かを判定する(S102)。遮断レバー25がロック位置にあると判定された場合(S102でYES)、表示制御部222は、表示オブジェクトOBXを表示画面G3に表示する(S103)。これにより、パターン「6」が実現される。
 一方、遮断レバー25がロック位置にないと判定された場合(S102でNO)、表示制御部222は、デセルレイター機能が作動中であるか否かを判定する(S104)。デセルレイター機能が作動中であると判定された場合(S104でYES)、表示制御部222は、表示オブジェクトOBXを表示画面G3に表示する(S103)。これにより、パターン「7」が実現される。
 一方、デセルレイター機能が作動中でないと判定された場合(S104でNO)、表示制御部222は、センサS1の検出結果から操作レバー24が操作中であるか否かを判定する(S105)。ここで、表示制御部222は、センサS1が検出した操作レバー24の操作量が0でなければ、操作中であると判定し、センサS1が検出した操作レバー24の操作量が0であれば、操作中でないと判定すればよい。
 操作レバー24が操作中の場合(S105でYES)、表示制御部222は、表示オブジェクトを表示画面G3に表示しない(S107)。一方、操作レバー24が操作中でない場合(S105でNO)、表示制御部222は、操作レバー24の操作が停止されてから一定時間以上経過したか否かを判定する(S106)。操作レバー24の操作が停止されてから一定時間以上経過した場合(S106でYES)、表示制御部222は、表示オブジェクトOBXを表示画面G3に表示する(S103)。一方、操作レバー24の操作が停止されてから一定時間以上経過していない場合(S106でNO)、表示制御部222は、表示オブジェクトOBXを表示画面G3に表示しない(S107)。S105でNO、S106でYES、且つ、S103のフローにより、周囲画像G31から作業装置330が消失した場合、操作レバー24が操作中でない状態が一定時間以上経過した後で、表示オブジェクトOBXが表示画面G3に表示されることになる。これにより、パターン「3」、「4」が実現される。
 また、S101でYES且つS107のフローと、S105でYES且つS107のフローとにより、操作レバー24の操作中は、周囲画像G31に作業装置330があるか否かに拘わらず、表示オブジェクトOBXが表示されないことになる。これにより、パターン「1」が実現される。
 また、S101でYESの場合、処理がS107に進められている。これにより、パターン「2」が実現される。
 図7は、本発明の実施の形態に係る遠隔操作システムの通信開始時の処理の一例を示すフローチャートである。S201では、マスター20の表示制御部222は、マスター20とスレーブ10との通信が開始されたか否かを判定する。ここで、通信の開始は、例えば、マスター20のオペレータがマスター20の電源を投入後、接続要求の送信指示をマスター20の入力装置(図略)に入力し、マスター20がその接続要求をスレーブ10に送信することで行われる。ここで、接続要求にはスレーブ10の識別情報等が含まれている。接続要求を受信したスレーブ10は識別情報に基づいて認証処理を行い、認証を許可すると接続応答をマスター20に送信する。これにより、マスター20とスレーブ10との通信接続が確立され、両者の間での通信が開始される。
 通信が開始されると(S201でYES)、処理はS202に進み、通信が開始されなければ(S201でNO)、処理はS201で待機する。
 S202では、判定部221は、周囲画像G31に作業装置330が含まれているか否かを判定する。周囲画像G31に作業装置330が含まれている場合(S202でYES)、表示制御部222は、表示オブジェクトOBXを表示画面G3に表示しない(S204)。一方、周囲画像G31に作業装置330が含まれていない場合(S202でNO)、表示制御部222は、表示オブジェクトOBXを表示画面G3に表示する(S203)。これにより、通信開始時に周囲画像G31に作業装置330が含まれていない場合に、表示オブジェクトOBXが表示され、パターン「5」が実現される。
 このように、本実施の形態によれば、建設機械30の操縦席3C内から撮影された建設機械30の周囲画像G31に作業装置330が含まれていない場合、作業装置330の位置をオペレータに知らせるための表示オブジェクトOBXがマスター20の表示画面に表示される。
 そのため、マスター20の表示装置23に表示される周囲画像G31から作業装置330が消失したとしても、作業装置330の位置をマスター20のオペレータに認識させることができる。その結果、オペレータに作業装置330を安心して操作させることができ、オペレータの作業負担を軽減できる。
 また、図6のフローは繰り返し実行されるので、表示オブジェクトOBXは表示画面G3内でリアルタイム表示されることになる。
 なお、周囲画像G31から作業装置330が消失することを防止するために、操縦席3C内に全方位カメラを設置し、全方位の周囲画像を撮影することも考えられる。しかし、この方法では、周囲画像のデータ量が増大するため主操作装置と従操作装置との通信トラフィックが嵩むと共に、マスターの表示装置の大画面化を招来するという課題が生じる。
 本実施の形態では、全方位カメラを設置しなくとも、作業装置330が周囲画像G31から消失した場合、その位置をオペレータに知らせることができるので、このような課題を解決できる。
 本発明は以下の変形例が採用できる。
 (1)図4において、余白領域G32に表示オブジェクトOBXを表示するパターンPCを採用する場合、表示制御部222は、周囲画像G31に作業装置330が含まれるか否かに拘わらず、表示オブジェクトOBXを常時表示してもよい。特に、表示オブジェクトOBXとして建設機械画像OC又は作業装置画像ODを採用する場合、オペレータに建設機械30の姿勢を俯瞰させることができるため、表示オブジェクトOBXを常時表示させることが好ましい。
 (2)図4において、余白領域G32に表示オブジェクトOBXとして建設機械画像OC又は作業装置画像ODを常時表示させるパターンPCと、2次元矢印画像OA又は3次元矢印画像OBの全域を周囲画像G31と重畳表示させるパターンPAとを組み合わせた表示態様が採用されてもよい。この場合、2次元矢印画像OA又は3次元矢印画像OBは、図5に示すパターン「1」~「7」にしたがって表示及び非表示を決定する態様が採用されればよい。

Claims (16)

  1.  作業装置を含む建設機械を遠隔操作する遠隔操作システムであって、
     前記建設機械を遠隔操作するための主操作装置と、前記建設機械に搭載され、前記主操作装置が受け付けた操作に基づいて前記作業装置を操作する従操作装置とを備え、
     前記従操作装置は、
     前記建設機械の操縦席内から前記建設機械の周囲を撮影した周囲画像を取得するカメラと、
     前記作業装置の姿勢を検知する姿勢検知部と、
     前記周囲画像及び前記姿勢検知部が検知した前記作業装置の姿勢を示す姿勢情報を前記主操作装置に送信する第1通信部とを備え、
     前記主操作装置は、
     オペレータの操作を受け付ける操作部材と、
     前記従操作装置から送信された前記周囲画像及び前記姿勢情報を受信する第2通信部と、
     前記第2通信部が受信した前記周囲画像を含む表示画面を表示する表示装置と、
     前記第2通信部が受信した前記周囲画像に前記作業装置が含まれているか否かを判定する判定部と、
     前記判定部により前記周囲画像に前記作業装置が含まれていないと判定された場合、前記第2通信部が受信した前記姿勢情報から前記作業装置の位置を算出し、算出した前記位置を前記オペレータに知らせるための表示オブジェクトを前記表示画面に表示する表示制御部とを備える遠隔操作システム。
  2.  前記表示制御部は、前記表示オブジェクトの少なくとも一部を前記周囲画像に重畳表示する請求項1記載の遠隔操作システム。
  3.  前記表示制御部は、前記判定部により前記周囲画像に前記作業装置が含まれていると判定された場合、前記表示オブジェクトの表示を停止する請求項2記載の遠隔操作システム。
  4.  前記表示制御部は、前記操作部材が操作されている場合、前記判定部による判定結果に拘わらず、前記表示オブジェクトの表示を停止する請求項2又は3記載の遠隔操作システム。
  5.  前記表示制御部は、前記判定部により前記周囲画像に前記作業装置が含まれていないと判定された場合、前記操作部材が操作されていない状態が一定時間以上継続された後で、前記表示オブジェクトを表示する請求項2~4のいずれかに記載の遠隔操作システム。
  6.  前記表示制御部は、前記主操作装置と前記従操作装置との通信開始時において前記判定部により前記周囲画像に前記作業装置が含まれていないと判定された場合、前記操作部材が操作されているか否かに拘わらず、前記表示オブジェクトを表示する請求項2~5のいずれかに記載の遠隔操作システム。
  7.  前記主操作装置は、前記操作部材の操作を遮断するためのオペレータからの操作を受け付ける遮断レバーを更に備え、
     前記表示制御部は、前記遮断レバーがロック状態にされ、且つ、前記判定部により前記周囲画像に前記作業装置が含まれていないと判定された場合、前記操作部材が操作されているか否かに拘わらず、前記表示オブジェクトを表示する請求項2~6のいずれかに記載の遠隔操作システム。
  8.  前記建設機械は、前記操作部材が一定時間操作されていない場合、前記建設機械のエンジンをアイドル状態にするデセルレイター機能を備え、
     前記表示制御部は、前記デセルレイター機能が作動中、且つ、前記判定部により前記周囲画像に前記作業装置が含まれていないと判定された場合、前記表示オブジェクトを表示する請求項2~7のいずれかに記載の遠隔操作システム。
  9.  前記表示オブジェクトは、前記作業装置が位置する方向を3次元的に示す矢印画像で構成されている請求項1~8のいずれかに記載の遠隔操作システム。
  10.  前記表示オブジェクトは、前記作業装置が位置する方向を2次元的に示す矢印画像で構成されている請求項1~8のいずれかに記載の遠隔操作システム。
  11.  前記表示オブジェクトは、側面視からの前記建設機械の実際の姿勢を模擬した建設機械画像で構成されている請求項1~8のいずれかに記載の遠隔操作システム。
  12.  前記表示オブジェクトは、前記作業装置の実際の姿勢を模擬した作業装置画像で構成されている請求項1~8のいずれかに記載の遠隔操作システム。
  13.  前記表示制御部は、前記操縦席に対する前記作業装置の位置が近づくにつれて前記矢印画像のサイズを大きく表示する請求項9又は10記載の遠隔操作システム。
  14.  前記表示制御部は、前記操縦席に対して前記作業装置が位置する方向を前記周囲画像に投影した方向に前記矢印画像の先端を向ける請求項9又は10記載の遠隔操作システム。
  15.  前記表示制御部は、前記周囲画像に隣接して余白領域が含まれるように前記周囲画像を前記表示装置に表示させ、前記表示オブジェクトを前記余白領域に表示する請求項1に記載の遠隔操作システム。
  16.  作業装置を含む建設機械を遠隔操作するための遠隔操作システムにおける主操作装置であって、
     オペレータの操作を受け付ける操作部材と、
     前記主操作装置と通信可能に接続された従操作装置から送信された前記建設機械の操縦席から前記建設機械の周囲を撮影した周囲画像及び前記作業装置の姿勢を示す姿勢情報を受信する通信部と、
     前記通信部が受信した前記周囲画像を含む表示画面を表示する表示装置と、
     前記通信部が受信した前記周囲画像に前記作業装置の画像が含まれているか否かを判定する判定部と、
     前記判定部により前記周囲画像に前記作業装置が含まれていないと判定された場合、前記通信部が受信した前記姿勢情報から前記作業装置の前記建設機械における位置を算出し、算出した前記位置を前記オペレータに知らせるための表示オブジェクトを前記表示画面に表示する表示制御部とを備える主操作装置。
PCT/JP2019/002333 2018-03-28 2019-01-24 遠隔操作システム及び主操作装置 WO2019187565A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP19777489.6A EP3754120B1 (en) 2018-03-28 2019-01-24 Remote control system and main control device
US16/980,664 US11732439B2 (en) 2018-03-28 2019-01-24 Remote control system and main control device
CN201980019466.7A CN111868335B (zh) 2018-03-28 2019-01-24 远程操作系统以及主操作装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-062609 2018-03-28
JP2018062609A JP6947101B2 (ja) 2018-03-28 2018-03-28 遠隔操作システム及び主操作装置

Publications (1)

Publication Number Publication Date
WO2019187565A1 true WO2019187565A1 (ja) 2019-10-03

Family

ID=68058768

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/002333 WO2019187565A1 (ja) 2018-03-28 2019-01-24 遠隔操作システム及び主操作装置

Country Status (5)

Country Link
US (1) US11732439B2 (ja)
EP (1) EP3754120B1 (ja)
JP (1) JP6947101B2 (ja)
CN (1) CN111868335B (ja)
WO (1) WO2019187565A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114787453A (zh) * 2019-12-19 2022-07-22 神钢建机株式会社 远程操作装置及远程操作系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7080750B2 (ja) * 2018-06-29 2022-06-06 株式会社小松製作所 表示制御システム、遠隔操作システム、表示制御装置、および表示制御方法
JP7099358B2 (ja) * 2019-02-20 2022-07-12 コベルコ建機株式会社 作業機械用表示システム
JP7452038B2 (ja) 2020-01-30 2024-03-19 コベルコ建機株式会社 作業支援システム
CN112482484A (zh) * 2020-11-25 2021-03-12 贵州詹阳动力重工有限公司 一种挖掘机远程遥控模拟舱及远程遥控系统
JP2022144495A (ja) * 2021-03-19 2022-10-03 コベルコ建機株式会社 遠隔操作支援システムおよび遠隔操作支援方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10252101A (ja) 1997-11-17 1998-09-22 Shimizu Corp 油圧制御機械
JP2012107395A (ja) 2010-11-15 2012-06-07 Sumitomo (Shi) Construction Machinery Co Ltd 建設機械のモニター装置
JP2013113044A (ja) * 2011-11-30 2013-06-10 Sumitomo (Shi) Construction Machinery Co Ltd 建設機械用モニタシステム
JP2016160741A (ja) * 2015-03-05 2016-09-05 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0617444A (ja) * 1992-06-30 1994-01-25 Fujita Corp 建設機械用遠隔操作装置
JP3364419B2 (ja) * 1997-10-29 2003-01-08 新キャタピラー三菱株式会社 遠隔無線操縦システム並びに遠隔操縦装置,移動式中継局及び無線移動式作業機械
CN101945740B (zh) * 2008-03-28 2012-04-11 株式会社大亨 可动机械控制系统
AU2011266010B2 (en) * 2010-06-18 2015-01-29 Hitachi Construction Machinery Co., Ltd. Surrounding area monitoring device for monitoring area around work machine
JP5800616B2 (ja) * 2011-07-15 2015-10-28 オリンパス株式会社 マニピュレータシステム
CA2923683C (en) * 2013-12-12 2018-03-13 Hitachi Construction Machinery Co., Ltd. Vehicle travel system and vehicle travel control method
US10794047B2 (en) * 2015-07-15 2020-10-06 Komatsu Ltd. Display system and construction machine
JP6682381B2 (ja) * 2015-08-06 2020-04-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 無人飛行体、飛行制御方法及び飛行制御プログラム
JP2017126980A (ja) * 2016-01-08 2017-07-20 オリンパス株式会社 情報処理装置、撮像装置、表示装置、情報処理方法、撮像装置の制御方法、表示装置の制御方法、情報処理プログラム、撮像装置の制御プログラム、および表示装置の制御プログラム
CN105759839B (zh) * 2016-03-01 2018-02-16 深圳市大疆创新科技有限公司 无人机视觉跟踪方法、装置以及无人机
JP6639960B2 (ja) 2016-03-07 2020-02-05 住友建機株式会社 ショベル

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10252101A (ja) 1997-11-17 1998-09-22 Shimizu Corp 油圧制御機械
JP2012107395A (ja) 2010-11-15 2012-06-07 Sumitomo (Shi) Construction Machinery Co Ltd 建設機械のモニター装置
JP2013113044A (ja) * 2011-11-30 2013-06-10 Sumitomo (Shi) Construction Machinery Co Ltd 建設機械用モニタシステム
JP2016160741A (ja) * 2015-03-05 2016-09-05 株式会社小松製作所 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114787453A (zh) * 2019-12-19 2022-07-22 神钢建机株式会社 远程操作装置及远程操作系统

Also Published As

Publication number Publication date
EP3754120A4 (en) 2021-04-21
US11732439B2 (en) 2023-08-22
CN111868335B (zh) 2022-07-12
CN111868335A (zh) 2020-10-30
US20210025131A1 (en) 2021-01-28
JP6947101B2 (ja) 2021-10-13
EP3754120B1 (en) 2023-07-26
JP2019173379A (ja) 2019-10-10
EP3754120A1 (en) 2020-12-23

Similar Documents

Publication Publication Date Title
WO2019187565A1 (ja) 遠隔操作システム及び主操作装置
WO2019244574A1 (ja) 掘削機、情報処理装置
WO2018168163A1 (ja) 表示システム、表示方法、及び遠隔操作システム
WO2019189430A1 (ja) 建設機械
KR101090183B1 (ko) 무인 굴삭기의 전도 방지 시스템 및 방법
JP2015226094A (ja) 作業機械用遠隔操作システム
EP3923594B1 (en) Remote operation system
JP6917167B2 (ja) 建設機械用俯瞰画像表示装置
WO2020194882A1 (ja) 遠隔操作システムおよび遠隔操作サーバ
EP3858676B1 (en) Surrounding monitoring apparatus for work machine
JP6256874B2 (ja) 建設機械用俯瞰画像表示装置
WO2021141077A1 (ja) 建設機械の点検システム
JP2019083370A (ja) 建設機械の視覚拡張システム
JP2007016403A (ja) 作業機械のカメラ制御装置
US20220112685A1 (en) Work machine
JP2022157923A (ja) ショベル
WO2020090898A1 (ja) 表示制御システム、表示制御方法および遠隔操作システム
US11939744B2 (en) Display system, remote operation system, and display method
WO2023100533A1 (ja) 画像表示システム、遠隔操作支援システムおよび画像表示方法
JP2021102902A (ja) 建設機械の遠隔操縦システム
US20230128501A1 (en) Remote operation assistance device and remote operation assistance method
KR20150105701A (ko) 건설장비의 후방 인식 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19777489

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019777489

Country of ref document: EP

Effective date: 20200916