WO2023026568A1 - 遠隔操作システムおよび遠隔操作複合システム - Google Patents

遠隔操作システムおよび遠隔操作複合システム Download PDF

Info

Publication number
WO2023026568A1
WO2023026568A1 PCT/JP2022/015904 JP2022015904W WO2023026568A1 WO 2023026568 A1 WO2023026568 A1 WO 2023026568A1 JP 2022015904 W JP2022015904 W JP 2022015904W WO 2023026568 A1 WO2023026568 A1 WO 2023026568A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
remote control
processing element
support processing
captured image
Prior art date
Application number
PCT/JP2022/015904
Other languages
English (en)
French (fr)
Inventor
均 佐々木
誠司 佐伯
洋一郎 山▲崎▼
Original Assignee
コベルコ建機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021139430A external-priority patent/JP2023032998A/ja
Priority claimed from JP2021139429A external-priority patent/JP2023032997A/ja
Application filed by コベルコ建機株式会社 filed Critical コベルコ建機株式会社
Priority to CN202280057466.8A priority Critical patent/CN117881851A/zh
Priority to EP22860866.7A priority patent/EP4365376A1/en
Publication of WO2023026568A1 publication Critical patent/WO2023026568A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/205Remotely operated machines, e.g. unmanned vehicles
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/2054Fleet management
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like

Definitions

  • the present invention relates to a remote control system having mutual communication functions between a work machine and a remote control device for remotely controlling the work machine.
  • a plurality of cameras that capture the surroundings of a work machine or cameras capable of capturing images of the work machine at different angles are provided, and a bird's-eye view image of the work machine is obtained using a plurality of captured images captured by the plurality of cameras. is being generated.
  • a working machine for example, a plurality of cameras that capture images of the surroundings of a hydraulic excavator, and a bird's-eye view image generation unit that generates a bird's-eye view image based on the images captured by the plurality of cameras.
  • a shovel is disclosed in US Pat.
  • a working machine such as a hydraulic excavator includes a lower traveling body and an upper revolving body that can rotate with respect to the lower traveling body. Further, the upper revolving body is provided with a cab that constitutes an operator's cab.
  • an upper revolving body can turn with respect to a lower traveling body, and a camera for photographing the surroundings of the machine is provided, and an image captured by the camera is displayed on a monitor screen arranged in the cab.
  • a construction machine monitoring device for displaying is disclosed.
  • the relative angle of the lower traveling body with respect to the upper rotating body is estimated based on the time change of the image displayed on the monitor screen. Therefore, there is a problem that complicated image processing is required to estimate the relative angle, increasing the processing load.
  • the present invention has been made in view of such problems, and provides a remote control system capable of reducing the processing load and indicating the forward or backward direction of a working machine with a simple configuration, and the remote control system.
  • An object of the present invention is to provide a remote control complex system including:
  • the remote control system of the present invention comprises a working machine having an undercarriage, an upper revolving body capable of turning with respect to the undercarriage, and a remote control device for remotely controlling the working machine.
  • the undercarriage is reflected in an image acquired through an imaging device arranged around the work machine; and an index image indicating at least one of the front-rear direction of the undercarriage, which is generated based on the reflection mode of the specified components unevenly distributed in the front-rear direction of the work machine or the captured image.
  • an aiding processing element for transmitting to the remote control a composite image at least partially superimposed therearound.
  • a remote control complex system of the present invention is configured by the remote control system and at least one of the remote control device and the work machine.
  • a composite image is generated by superimposing an index image indicating the longitudinal direction of the undercarriage of the working machine on the captured image, and the composite image is transmitted to the remote control device. Accordingly, the operator can easily grasp the front-rear direction of the undercarriage of the work machine by viewing the composite image.
  • FIG. 1 is a configuration explanatory diagram of a work support system as one embodiment of the present invention
  • FIG. FIG. 2 is an explanatory diagram relating to the configuration of the remote control device of FIG. 1
  • FIG. 2 is an explanatory diagram relating to the configuration of the working machine of FIG. 1
  • FIG. 2 is an explanatory diagram of an environment around the work machine of FIG. 1
  • 4 is a flowchart showing work support processing of the work support system
  • 3 is an explanatory view showing a display mode of an image output device of the remote control device of FIG. 2
  • FIG. FIG. 6 is an explanatory diagram of the synthetic image generation processing of FIG. 5
  • 3 is an explanatory diagram showing another display mode of the image output device of the remote control device of FIG. 2;
  • FIG. 9 is a flowchart showing another work support process of the work support system
  • FIG. 4 is an explanatory diagram showing a first display mode of a first captured image
  • FIG. 11 is an explanatory diagram showing a second display mode of the first captured image
  • FIG. 11 is an explanatory diagram showing a third display mode of the first captured image
  • 1 is a configuration explanatory diagram of a work support system as one embodiment of the present invention
  • FIG. 14 is an explanatory diagram relating to the configuration of the remote control device of FIG. 13
  • FIG. 14 is an explanatory diagram relating to the configuration of the working machine of FIG. 13
  • 6 is a flow chart showing an example of work support processing by a work support server
  • FIG. 14 is an explanatory diagram showing a first display mode of a first captured image
  • FIG. 11 is an explanatory diagram showing a second display mode of the first captured image
  • FIG. 11 is an explanatory diagram showing a third display mode of the first captured image
  • 1 is
  • FIG. 17 is a flow chart showing an example of forward/backward direction calculation processing of FIG. 16;
  • FIG. FIG. 4 is an explanatory diagram showing an example of an image captured by an imaging device;
  • FIG. 4 is an explanatory diagram showing an example of an image captured by an imaging device;
  • FIG. 4 is an explanatory diagram showing an example of an image captured by an imaging device;
  • FIG. 4 is an explanatory diagram showing an example of an image captured by an imaging device;
  • 9 is a flow chart showing another example of work support processing by the work support server;
  • Example 1 (Configuration of remote control system) A work support system as one embodiment of the present invention shown in FIG.
  • Work support server 10, remote controller 20, plurality of work machines 40, first imaging device 50, and second imaging device 60 are each configured to be able to communicate with each other via a common or separate network.
  • the work support server 10 is configured to be connectable to a plurality of work machines 40, but the work support server 10 may be connectable to one or more work machines 40.
  • the first imaging device 50 and the second imaging device 60 are connected via a network so as to be able to communicate with each other, but the number of imaging devices connected to the network is two or more. may be used, or only one may be used.
  • the work support server 10 includes a plurality of work machines 40 and a remote control device 20 for remotely controlling one of the work machines 40 to be remotely controlled. It is a remote control system having mutual communication function with.
  • the components (hardware) of the present invention "acquire" various information means that the information is received, the information is stored in an internal storage device (e.g., memory) and/or an external storage device (e.g., external database server), calculating, estimating, predicting, identifying, etc. information by executing arithmetic processing on the information received, read, searched, etc. It is a concept that encompasses all computational processing to prepare in a form that can be used in computational processing.
  • the work support server 10 includes a remote operation support device 100 including a support processing element 101 , a database 110 and a server wireless communication device 122 .
  • the support processing element 101 is composed of an arithmetic processing unit (single-core processor or multi-core processor or a processor core that constitutes this), reads necessary data and software from a storage device such as a memory, and processes the data into the software. A calculation process, which will be described later, is executed accordingly.
  • arithmetic processing unit single-core processor or multi-core processor or a processor core that constitutes this
  • the database 110 stores and holds captured image data captured by imaging devices such as the first imaging device 50 and the second imaging device 60 .
  • the database 110 may be configured by a database server separate from the work support server 10 .
  • the remote control device 20 includes a remote control device 200 , a remote input interface 210 and a remote output interface 220 .
  • the remote control device 200 is configured by an arithmetic processing device (single-core processor or multi-core processor or a processor core constituting this), reads necessary data and software from a storage device such as a memory, and uses the data as a target for the software. Execute the arithmetic processing accordingly.
  • the remote input interface 210 includes a remote control mechanism 211.
  • the remote control mechanism 211 includes a traveling operating device, a turning operating device, a boom operating device, an arm operating device, a bucket operating device, and a cut-off lever for switching the receiving state of operation by the operator.
  • Each operating device has an operating lever that receives a rotating operation.
  • a control lever (running lever) of the running operating device is operated to move a lower running body 430 having a pair of left and right crawlers of the work machine 40 .
  • the travel lever may also serve as a travel pedal.
  • a traction pedal may be provided that is fixed to the base or lower end of the traction lever.
  • An operation lever (turning lever) of the turning operation device is operated to move a hydraulic turning motor that constitutes turning mechanism 440 of work machine 40 .
  • An operating lever (boom lever) of the boom operating device is operated to move the boom cylinder 462 of the work machine 40 .
  • An operating lever (arm lever) of the arm operating device is operated to move the arm cylinder 464 of the working machine 40 .
  • An operating lever (bucket lever) of the bucket operating device is operated to move the bucket cylinder 466 of the work machine 40 .
  • each control lever that constitutes the remote control mechanism 211 is arranged around the seat St on which the operator OP1 sits.
  • the seat St is in the form of a high-back chair with armrests, a low-back chair without a headrest, or a chair without a backrest. may be a part.
  • a pair of left and right travel levers 2110 corresponding to the left and right crawlers are arranged side by side in front of the seat St.
  • One operating lever may serve as a plurality of operating levers.
  • the left operation lever 2111 provided in front of the left frame of the seat St shown in FIG. 2 functions as an arm lever when operated in the longitudinal direction, and when operated in the lateral direction. function as a pivot lever.
  • the right operation lever 2112 provided in front of the right frame of the seat St shown in FIG. It may function as a bucket lever in some cases.
  • the lever pattern may be arbitrarily changed by an operation instruction from the operator OP1.
  • a blocking lever (not shown) is provided below the left operating lever 2111 in front of the left frame of the seat St, and when it is raised (turned off), the operating levers 2110, 2111, and 2112 are operated. It also functions as an operating lever for unlocking the work machine 40 when it is lowered (turned on).
  • the remote output interface 220 includes an image output device 221 and a remote wireless communication device 222.
  • the image output device 221 includes a central image output device 2210 having substantially rectangular screens arranged in front of the sheet St, diagonally forward left and diagonally forward right, and a left image output device 2210 . It is composed of an output device 2211 , a right image output device 2212 , and a lower image output device 2213 having a substantially rectangular screen arranged below the central image output device 2210 .
  • the shapes and sizes of the respective screens (image display areas) of the central image output device 2210, the left image output device 2211, the right image output device 2212, and the lower image output device 2213 may be the same or different. .
  • the respective screens of the central image output device 2210, the left image output device 2211, the right image output device 2212, and the lower image output device 2213 may be parallel to the vertical direction or may be inclined with respect to the vertical direction.
  • At least one of the central image output device 2210, the left image output device 2211, the right image output device 2212, and the lower image output device 2213 may be composed of a plurality of divided image output devices.
  • the central image output device 2210 may be composed of a pair of vertically adjacent image output devices each having a substantially rectangular screen.
  • the work machine 40 includes a real machine control device 400 , a real machine input interface 410 , a real machine output interface 420 and an actuation mechanism 460 .
  • the actual device control device 400 is composed of an arithmetic processing device (single-core processor or multi-core processor or a processor core that constitutes it), reads necessary data and software from a storage device such as a memory, and processes the data into the software. Execute the arithmetic processing accordingly.
  • arithmetic processing device single-core processor or multi-core processor or a processor core that constitutes it
  • the work machine 40 is, for example, a hydraulic, electric, or hybrid drive type crawler excavator (construction machine) that is a combination of hydraulic and electric.
  • a hydraulic, electric, or hybrid drive type crawler excavator construction machine
  • FIG. and an upper revolving body 450 which is rotatably mounted on the lower traveling body 430 via a revolving mechanism 440 .
  • a cab 454 (driver's cab) is provided on the front left side of the upper swing body 450 .
  • An operating mechanism 460 is provided in the front central portion of the upper swing body 450 .
  • the lower traveling body 430 includes a pair of left and right crawlers 430a and 430b, as shown in FIG. 3, the lower traveling body 430 includes a driving member 431 for driving the right crawler 430a and a driving member 431 for driving the left crawler 430b.
  • the driving member 431 is one of the designated components that are unevenly distributed on the rear side of the lower traveling body 430 in the front-rear direction. Examples of the drive member 431 include a drive motor, gears engaged with the drive motor, and the like.
  • the real machine input interface 410 includes a real machine operating mechanism 411, a real machine imaging device 412a, an attached imaging device 412b, and a rear imaging device 412c.
  • the actual machine operation mechanism 411 includes a plurality of operation levers arranged around a seat arranged inside the cab 454 in the same manner as the remote control mechanism 211 .
  • the cab 454 is provided with a drive mechanism or robot that receives a signal corresponding to the operation mode of the remote control lever and moves the actual machine control lever based on the received signal.
  • the actual imaging device 412a (hereinafter also referred to as the main camera) is installed inside the cab 454, for example, and images the environment including at least part of the operating mechanism 460 through the front window and a pair of left and right side windows. A part or all of the front window (or window frame) and the side windows may be omitted from the captured image.
  • the attached imaging device 412b (hereinafter also referred to as an attached camera) is installed, for example, on the arm 463 and images the environment including at least part of the bucket 465 that is the attachment.
  • the rear imaging device 412c (hereinafter also referred to as a rear camera), for example, in the upper swing body 450, when the direction in which the front window is provided as seen from the seat of the cab 454 is the front, images the rear of the cab 454. Possibly on the hood (not shown) or counterweight (not shown) or cab 454 .
  • the real machine input interface 410 includes a group of real machine state sensors (not shown).
  • An actual machine state sensor group detects the rotation angle (raising angle) of the boom 461 with respect to the upper swing body 450, the rotation angle of the arm 463 with respect to the boom 461, and the rotation angle of the bucket 465 with respect to the arm 463.
  • a turning angle sensor for measuring the turning angle of the upper turning body 450 with respect to the lower traveling body 430; an external force sensor for measuring the external force acting on the bucket 465; It is composed of a 3-axis acceleration sensor for measuring acting 3-axis acceleration, a position information acquisition sensor such as GNSS (Global Navigation Satellite System), and the like.
  • GNSS Global Navigation Satellite System
  • the real machine output interface 420 includes a real machine wireless communication device 422 .
  • An operating mechanism 460 as an operating mechanism includes a boom 461 attached to the upper rotating body 450 so as to be able to rise and fall, an arm 463 rotatably connected to the tip of the boom 461, and a tip of the arm 463 rotatable. a bucket 465 connected to the .
  • the operating mechanism 460 is equipped with a boom cylinder 462, an arm cylinder 464, and a bucket cylinder 466 which are configured by telescopic hydraulic cylinders.
  • various attachments such as a nibbler, a cutter, and a magnet may be used as the working unit.
  • the boom cylinder 462 is interposed between the boom 461 and the upper slewing body 450 so as to expand and contract when supplied with hydraulic oil to rotate the boom 461 in the hoisting direction.
  • the arm cylinder 464 is interposed between the arm 463 and the boom 461 so as to expand and contract when supplied with hydraulic oil to rotate the arm 463 about the horizontal axis with respect to the boom 461 .
  • the bucket cylinder 466 is interposed between the bucket 465 and the arm 463 so as to expand and contract when supplied with hydraulic oil to rotate the bucket 465 with respect to the arm 463 about the horizontal axis.
  • the first imaging device 50 and the second imaging device 60 are, for example, pillars provided outside the work machine 40 so that the exterior of the work machine 40 is included in the imaging areas AR1 and AR2. attached to the The first image capturing device 50 and the second image capturing device 60 are installed so as to capture images of the appearance of the work machine 40 in different optical axis directions AX1 and AX2. It should be noted that the first imaging device 50 and the second imaging device 60 may be attached to a pan head capable of freely changing the optical axis directions AX1 and AX2 according to a command from the work support server 10, for example. good.
  • the optical axis directions AX1 and AX2 of the first imaging device 50 and the second imaging device 60 are changed by, for example, optical system adjustment mechanisms provided in the first imaging device 50 and the second imaging device 60. you can go For example, the optical axis directions AX1 and AX2 of the first imaging device 50 and the second imaging device 60 may be adjusted toward the horizontal plane so that the crawlers 430a and 430b can be imaged. Also, in this figure, the first imaging device 50 and the second imaging device 60 are arranged such that the optical axis directions AX1 and AX2 of the first imaging device 50 and the second imaging device 60 are perpendicular to each other when viewed from above. However, the first imaging device 50 and the second imaging device 60 can be arranged arbitrarily, and can be arranged so that their optical axis directions AX1 and AX2 are not orthogonal when viewed from above.
  • the first imaging device 50 is arranged in front of the lower traveling body 430 of the work machine 40 in the longitudinal direction
  • the second imaging device 60 is arranged on the left and right sides of the lower traveling body 430 of the working machine 40 . It is arranged on the left side of the direction (on the left crawler 430b side).
  • the first imaging device 50 and the second imaging device 60 may include the sides of a pair of crawlers 430a, 430b in its imaging area. That is, at least one of the first imaging device 50 and the second imaging device 60 can image the driving member 431 , which is a designated component provided on the lower traveling body 430 .
  • first imaging device 50 and the second imaging device 60 may be installed so as to capture images of the appearance of the working machine 40 in different optical axis directions. It may be the actual imaging device 412 that is already in use.
  • the first imaging device 50 and the second imaging device 60 may be added as appropriate according to the mode of implementation. For example, when it is assumed that the work machine 40 moves, at least one of the first image pickup device 50 and the second image pickup device 60 moves the pair of crawlers 430a in its image pickup area even at the destination of the work machine 40. , 430b, the first imaging device 50 and the second imaging device 60 may be appropriately installed.
  • FIG. 5 is a flow chart showing the work support processing of the work support system that is exhibited by the cooperation of the work support server 10, the remote control device 20, the work machine 40, the first imaging device 50 and the second imaging device 60 described above.
  • the work support system starts work support processing with activation of the remote control device 20 as a trigger. For example, when the operator turns off the blocking lever, the remote controller 20 transmits an operation signal to the work support server 10 (STEP 201).
  • the work support server 10 Upon receiving the operation signal, the work support server 10 transmits an image transmission request to the first imaging device 50 and the second imaging device 60 (STEP 101).
  • the first imaging device 50 Upon receiving the image transmission request, the first imaging device 50 transmits the captured image to the work support server 10 (STEP 501).
  • the second imaging device 60 Upon receiving the image transmission request, the second imaging device 60 transmits the captured image to the work support server 10 (STEP 601).
  • the support processing element 101 of the work support server 10 receives the image captured by the first imaging device 50 (first captured image) and the image captured by the second imaging device 60 (second captured image), the first In the first captured image captured by the imaging device 50 or the second captured image captured by the second imaging device 50, the reflection mode of the lower traveling body and the front and rear directions of the pair of crawlers 430a and 430b. forward movement of the lower traveling body 430 in the first captured image or the second captured image in which the pair of crawlers 430a and 430b are reflected A direction or backward direction is estimated (STEP 102).
  • the support processing element 101 detects the corresponding In the front-rear direction of the crawlers 430a and 430b, the side on which the driving member 431 is located is estimated as the backward direction of the crawlers 430a and 430b in the first captured image.
  • the support processing element 101 can estimate the backward direction of the crawlers 430a and 430b using a learning model stored in the database 110 and constructed in advance by machine learning (for example, supervised learning). Specifically, using a plurality of captured images obtained by capturing the appearance of work machine 40 from various angles, for each captured image in which the sides of crawlers 430a and 430b are captured, crawlers 430a and 430b are captured from the sides. The backward direction of the crawlers 430a, 430b in the front-rear direction of the crawlers 430a, 430b when viewed is learned.
  • machine learning for example, supervised learning
  • the support processing element 101 inputs the first captured image or the second captured image to the learning model to determine the front-rear direction of the crawlers 430a and 430b in real space, that is, the forward direction or , recognizes vectors in the backward direction.
  • the support processing element 101 estimates the forward or backward direction of the undercarriage 430 in the first captured image or the second captured image.
  • the support processing element 101 is, for example, the case where the drive member 431, which is the specified component of the lower traveling body 430, is not shown in the first captured image, and the lower traveling body 430 is not shown in the second captured image.
  • the driving member 431 is shown, the side on which the driving member 431 is positioned in the front-rear direction of the crawlers 430a and 430b when the crawlers 430a and 430b are viewed from the side is the crawler of the lower traveling body 430 in the second captured image. Estimated as the backward direction of 430a and 430b.
  • the driving member 431 can be detected from the second captured image.
  • the forward and backward direction can be estimated.
  • the support processing element 101 of the work support server 10 generates an index image representing the forward direction or backward direction of the lower traveling body 430 in the first captured image or the second captured image estimated in STEP 102.
  • the first captured image, the second captured image, and at least one image of the main image are superimposed at least partially on or around the working machine 40 (STEP 103), and transmitted to the remote control device 20 ( STEP 104).
  • the support processing element 101 generates a composite image in which the index image I1 is superimposed on the first captured image captured by the first imaging device 50 and displayed on the right image output device 2212 in FIG.
  • the index image I1 indicates the forward direction of the lower traveling body 430 in the first captured image.
  • the support processing element 101 calculates the index based on the direction estimated by the longitudinal direction estimation processing in STEP 102 described above. It is possible to generate a composite image in which the images I1 and I2 are superimposed.
  • the support processing element 101 is another imaging device when the driving member 431 of the lower traveling body 430 is not shown in the first captured image acquired through the first imaging device 50 which is one imaging device.
  • 4 shows the longitudinal direction of the lower traveling body 430 generated based on the appearance of the lower traveling body 430 and the appearance of the driving member 431 in the second captured image acquired through the second imaging device 60;
  • the index images I1 and I2 may be superimposed on the first captured image.
  • the support processing element 101 converts the index images I1, I2, and I3 into the first captured image, the second captured image, and the main image so as to correspond to the longitudinal direction of the lower traveling body 430 estimated in the longitudinal direction estimation processing in STEP 102.
  • a composite image is generated that is at least partially superimposed on at least one of the captured images of work machine 40 or its surroundings.
  • the support processing element 101 generates a composite image in which the index image I2 is superimposed on the second captured image captured by the second imaging device 60 and displayed on the left image output device 2211 in FIG. . Further, the support processing element 101 generates a synthesized image in which the index image I3 is superimposed on the main image captured by the main camera 412 and displayed on the lower image output device 2213 in FIG.
  • the support processing element 101 obtains the forward direction vector B1 of the crawler 430b in the real space through the processing of STEP 102 described above.
  • the support processing element 101 can obtain the vector B2 in the first captured image coordinate system by performing coordinate transformation on the vector B1.
  • the rotation matrix R and translation matrix T are stored in the database 110 in advance.
  • the rotation matrix R and translation matrix T may be defined by their mathematically equivalent quaternions.
  • a point position S1' is obtained as a result of the coordinate transformation of the starting point of the vector B1 in the real space to the first captured image coordinate system.
  • means a vector (same below).
  • ⁇ e'(S1')" is a unit vector indicating the line-of-sight direction of the first imaging device 50 passing through the pixel position S1' in the first captured image coordinate system.
  • a point position S2' is obtained as a result of the coordinate transformation of the end point of the vector B1 in the real space to the first captured image coordinate system.
  • means a vector (same below).
  • ⁇ e'(S2')" is a unit vector indicating the line-of-sight direction of the first imaging device 50 passing through the pixel position S2' in the first captured image coordinate system.
  • the support processing element 101 can obtain the vector B3 in the second captured image coordinate system by performing coordinate transformation on the vector B1.
  • a point position S1'' is obtained as a result of the coordinate transformation of the starting point of the vector B1 in the real space to the second captured image coordinate system.
  • means a vector (the same shall apply hereinafter).
  • ⁇ e (S1")" is a unit vector indicating the line-of-sight direction of the second imaging device 60 passing through the pixel position S1" in the first captured image coordinate system.
  • a point position S2'' is obtained as a result of the coordinate transformation of the end point of the vector B1 in the real space to the second captured image coordinate system.
  • means a vector (same below).
  • ⁇ e (S2")" is a unit vector indicating the line-of-sight direction of the second imaging device 60 passing through the pixel position S2" in the first captured image coordinate system.
  • the coordinate positions S1' and S2' (see white circles in FIG. 7) in the first captured image coordinate system generally do not match the pixel position S0' (see black circles in FIG. 7). Therefore, for each pixel position S0′ in the reference image coordinate system, the distance ZS′′ corresponding to the coordinate position S0′′ is calculated according to a known interpolation method such as the nearest point interpolation method, the bilinear interpolation method or the bicubic spline method. A distance (real point distance) Zs determined based on is assigned.
  • a vector B2 is obtained as a result of coordinate transformation of the vector B1 in the real space coordinate system to the first captured image coordinate system.
  • an index image indicating the front-rear direction of the lower running body 430 can be superimposed on the main image.
  • the remote control device 20 displays the received composite image on the image output device 221 (STEP 202). Note that the synthesized image can be displayed on any image output device of the image output device 221. Any image output device may be used for display.
  • the central image output device 2210 has screen areas divided into left and right. is displayed.
  • a rear image captured by the rear camera 412c is displayed.
  • a composite image in which the index image I1 is superimposed on the first captured image captured by the first imaging device 50 is displayed on the right image output device 2212 .
  • a composite image in which the index image I2 is superimposed on the second captured image captured by the second captured image 60 is displayed on the left image output device 2211 .
  • the lower image output device 2213 displays a composite image in which the index image I3 is superimposed on the main image captured by the main camera 412a.
  • the display mode of the index images I1, I2, and I3 is not limited to indicating the forward direction of the lower traveling body 430, and may indicate the backward direction of the lower traveling body 430, for example.
  • the index images I1, I2, and I3 may be indicated by double-headed arrows indicating the forward and backward directions of the lower traveling body 430 .
  • the forward direction and the backward direction are indicated in a mutually identifiable manner.
  • the index images I1, I2, and I3 are indicated by double-headed arrows, the forward direction should be indicated and the backward direction should be indicated by broken lines.
  • the index image in the composite image may be appropriately adjusted in size, etc., according to the position, size, etc. of the crawlers 430a and 430b reflected in the image to be superimposed.
  • the working machine 40 shown in the second captured image of the left image output device 2211 is smaller than the working machine 40 shown in the first captured image of the right image output device 2212.
  • the support processing element 101 should generate the index images I1, I2, and I3 according to the sizes of the crawlers 430a and 430b in the composite image and the positions of the crawlers 430a and 430b in the composite image.
  • the work support system starts work support processing with activation of the remote control device 20 as a trigger.
  • the remote controller 20 transmits an operation signal to the work support server 10 (STEP 211).
  • the work support server 10 Upon receiving the operation signal, the work support server 10 requests the work machine 40 to be operated to transmit position information in real space (STEP 111).
  • the work machine 40 When the work machine 40 receives the real space position information transmission request, the work machine 40 acquires the real space position information through the GNSS (Global Navigation Satellite System) (STEP 411), and transmits the real space position information and its own position information to the work support server 10. It is transmitted together with machine number information (for example, an identification symbol of machine A, an identification number such as a manufacturing number, etc.), which is identification information of the work machine (STEP 412).
  • GNSS Global Navigation Satellite System
  • the work support server 10 When the work support server 10 receives the real space position information, the work support server 10 refers to the real space position information of the imaging devices arranged around the work machine 40, selects an imaging device capable of imaging the work machine 40, and An image transmission request is transmitted to, for example, the first imaging device 50, which is one imaging device selected by the selection (STEP 112).
  • the first imaging device 50 Upon receiving the image transmission request, the first imaging device 50 transmits the captured first captured image to the work support server 10 (STEP 511).
  • the support processing element 101 of the work support server 10 determines the installation position in the real space of the first imaging device 50 registered in advance in the database 110 and the work reflected in the first captured image. Based on the position of the machine 40, the position of the work machine 40 in real space is estimated (STEP 113).
  • the support processing element 101 of the work support server 10 determines whether or not the real space position information transmitted from the work machine 40 matches the real space position (position information) of the work machine 40 estimated in STEP 113. (STEP 114).
  • the support processing element 101 acquires the real space position information of the first imaging device 50 and the optical axis direction of the first imaging device 50 .
  • the support processing element 101 estimates the direction in which the work machine 40 is arranged from the installation position of the first imaging device 50 based on the optical axis direction of the first imaging device 50 .
  • the support processing element 101 calculates position information of the real space in the estimated direction of the work machine 40 within a predetermined range (for example, within 200 m from the first imaging device 50 and within a radius of 20 m from the center of the direction). .
  • the support processing element 101 determines whether or not the plurality of calculated real space position information includes position information that matches the real space position information transmitted from the work machine 40 .
  • the support processing element 101 determines in STEP 114 that the two pieces of position information match (STEP 114: YES), the support processing element 101 recognizes the work machine 40 as the work machine 40 to be operated (STEP 115), and displays the composite image on the remote control device. 20 (STEP 116).
  • the support processing element 101 acquires the position information in the real space of the work machine 40 that is a candidate for operation, and also obtains the position of the work machine 40 that is calculated from the first captured image and the position of the work that is a candidate for operation. If the position information of the machine 40 in the real space matches, the work machine 40 that is a candidate for the operation target is recognized as the work machine 40 that is the operation target.
  • the remote control device 20 displays the received composite image on the image output device 221 (STEP 212).
  • the work support process is executed by the work support server 10.
  • the work support processing may be performed by the remote control device 20 or the work machine 40 .
  • the support processing element 101 in the processing of STEP 102, if the drive member 431, which is the specified component of the lower traveling body 430, is not shown in the first captured image, the support processing element 101 Although the direction is estimated, it is not limited to this.
  • the side on which the designated component is not arranged in the front-rear direction of the crawlers 430a and 430b when the crawlers 430a and 430b are viewed from the side may be estimated as the front side.
  • the support processing element 101 detects a portion unevenly distributed in the front-rear direction of the lower traveling body 430 in the first captured image (the end of the crawlers 430a and 430b in the front-rear direction on which the specified component is not arranged).
  • the driving member 431 which is a designated component of the lower traveling body 430
  • the uneven distribution in the front-rear direction of the crawlers 430a and 430b when the crawlers 430a and 430b are viewed from the side.
  • the side (the side without the driving member 431) on which the location is located may be estimated as the advancing direction of the crawlers 430a and 430b of the lower traveling body 430 in the first captured image. By doing so, even when the designated component such as the driving member 431 is hidden by an obstacle or the like and is not shown in the first captured image, the front-rear direction can be estimated.
  • the support processing element 101 can estimate the backward direction of the crawlers 430a and 430b using a learning model that is stored in the database 110 and constructed in advance by machine learning (for example, supervised learning). explained.
  • the estimation of the front-rear direction of the crawlers 430a and 430b is not limited to such a mode. Based on this, the inclination of the forward or backward vector of the undercarriage 430 may be recognized.
  • the support processing element 101 is configured to move the optical axis of the first imaging device 50 when only one side of the crawler 430a or 430b is reflected in the first captured image. It is recognized that the vector has an inclination in the direction perpendicular to AX1.
  • both crawlers 430a and 430b are recognized and reflected so as to overlap one end side of crawler 430a (the outer side surface of one crawler 430a and the other crawler 430b is reflected), the first support processing element 1011 recognizes that the vector is inclined with respect to the optical axis AX1 of the first imaging device 50.
  • FIG. 11 in the first captured image, both crawlers 430a and 430b are recognized and reflected so as to overlap one end side of crawler 430a (the outer side surface of one crawler 430a and the other crawler 430b is reflected), the first support processing element 1011 recognizes that the vector is inclined with respect to the optical axis AX1 of the first imaging device 50.
  • the first support processing element 1011 is positioned on the one end side where the crawlers 430a and 430b overlap when viewed from the direction of the optical axis AX1 of the first imaging device 50 (first end side in FIG. 11).
  • 1 captured image, the right side and one end side in the extending direction of the crawler 430a and the crawler 430b) is relatively nearer to the optical axis AX1 of the first imaging device 50 (lower side in the first captured image of FIG. 11). side), and the other end side opposite to the one end side of the crawler 430a (the left side in the first captured image of FIG.
  • the vector is tilted such that it is positioned relatively farther (upper in the first captured image in FIG. 11) with respect to the optical axis of the imaging device 50 .
  • the first support processing element 1011 when the first support processing element 1011 recognizes both the crawlers 430a and 430b in the first captured image and the crawlers 430a and 430b are reflected so as not to overlap each other (frontal direction of the crawlers 430a and 430b). or when the back direction is reflected), the first support processing element 1011 adjusts the inclination of the vector in the direction along the optical axis AX1 of the first imaging device 50 or in the direction opposite to the optical axis AX1. recognize that there is
  • the first support processing element 1011 can estimate the backward direction of the crawlers 430a and 430b by performing the above processing.
  • Example 2 (Configuration of remote control system) A work support system as one embodiment of the present invention shown in FIG.
  • Work support server 10, remote control device 20, and work machines 40 are configured to be able to communicate with each other via a common or separate network.
  • the work support server 10 is configured to be connectable to a plurality of work machines 40, but the work support server 10 may be connectable to one or more work machines 40. There is no limit to
  • the work support server 10 includes a plurality of work machines 40 and a remote control device 20 for remotely controlling one of the plurality of work machines 40 to be remotely controlled. It is a remote control system having mutual communication function with.
  • the components (hardware) of the present invention "acquire" various information means that the information is received, the information is stored in an internal storage device (e.g., memory) and/or an external storage device (e.g., external database server), calculating, estimating, predicting, identifying, etc. information by executing arithmetic processing on the information received, read, searched, etc. It is a concept that encompasses all computational processing to prepare in a form that can be used in computational processing.
  • the work support server 10 includes a remote operation support device 100 including a first support processing element 1011 and a first support processing element 1012 , a database 110 , and a server wireless communication device 122 .
  • the first support processing element 1011 and the first support processing element 1012 are configured by arithmetic processing units (single-core processors or multi-core processors or processor cores that constitute them), and read necessary data and software from a storage device such as memory. , the data is subjected to arithmetic processing according to the software, which will be described later.
  • the database 110 stores and holds captured image data and the like.
  • the database 110 may be configured by a database server separate from the work support server 10 .
  • the remote control device 20 includes a remote control device 200 , a remote input interface 210 and a remote output interface 220 .
  • the remote control device 200 is configured by an arithmetic processing device (single-core processor or multi-core processor or a processor core constituting this), reads necessary data and software from a storage device such as a memory, and uses the data as a target for the software. Execute the arithmetic processing accordingly.
  • the remote input interface 210 includes a remote control mechanism 211 and a sixth imaging device 212.
  • the remote control mechanism 211 includes a traveling operating device, a turning operating device, a boom operating device, an arm operating device, a bucket operating device, and a hydraulic lock lever (shutoff) for switching the accepting state of operation by the operator. lever) and are included.
  • Each operating device has an operating lever that receives a rotating operation.
  • a control lever (running lever) of the running operating device is operated to move a lower running body 430 having a pair of left and right crawlers of the work machine 40 .
  • the travel lever may also serve as a travel pedal.
  • a traction pedal may be provided that is fixed to the base or lower end of the traction lever.
  • An operation lever (turning lever) of the turning operation device is operated to move a hydraulic turning motor that constitutes turning mechanism 440 of work machine 40 .
  • An operating lever (boom lever) of the boom operating device is operated to move the boom cylinder 462 of the work machine 40 .
  • An operating lever (arm lever) of the arm operating device is operated to move the arm cylinder 464 of the working machine 40 .
  • An operating lever (bucket lever) of the bucket operating device is operated to move the bucket cylinder 466 of the work machine 40 .
  • the shut-off lever is operated to switch the state of the pilot pressure valve of work machine 40 .
  • each control lever that constitutes the remote control mechanism 211 is arranged around the seat St on which the operator OP1 sits.
  • the seat St is in the form of a high-back chair with armrests, a low-back chair without a headrest, or a chair without a backrest. may be a part.
  • a pair of left and right travel levers 2110 corresponding to the left and right crawlers are arranged side by side in front of the seat St.
  • One operating lever may serve as a plurality of operating levers.
  • the left operation lever 2111 provided in front of the left frame of the seat St shown in FIG. function as a pivot lever.
  • the right operation lever 2112 provided in front of the right frame of the seat St shown in FIG. It may function as a bucket lever in some cases.
  • the lever pattern may be arbitrarily changed by an operation instruction from the operator OP1.
  • a cut-off lever 2113 provided below the left operation lever 2111 in front of the left frame of the seat St is lifted (turned off), even if the operation levers 2110, 2111, and 2112 are operated, the work machine is blocked. It functions as an operating lever to lock 40 from movement and to unlock it when lowered (turned ON).
  • the remote output interface 220 comprises a remote image output device 221 and a remote wireless communication device 222 .
  • the remote image output device 221 includes a central remote image output device 2210 having substantially rectangular screens arranged in front, diagonally forward left, and diagonally forward right of the sheet St. It consists of a left remote image output device 2211 and a right remote image output device 2212 .
  • the shapes and sizes of the respective screens (image display areas) of the central remote image output device 2210, the left remote image output device 2211 and the right remote image output device 2212 may be the same or different.
  • the respective screens of the central remote image output device 2210, the left remote image output device 2211, and the right remote image output device 2212 may be parallel to the vertical direction or may be inclined with respect to the vertical direction. At least one of the central remote image output device 2210, the left remote image output device 2211 and the right remote image output device 2212 may be composed of a plurality of divided image output devices.
  • the central remote image output device 2210 may comprise a pair of vertically adjacent image output devices having substantially rectangular screens.
  • the remote sound output device 222 is composed of one or more speakers.
  • a central remote sound output device placed behind the seat St, behind the left armrest, and behind the right armrest. 2220 , a left remote sound output device 2221 and a right remote sound output device 2222 .
  • the specifications of the central remote sound output device 2220, the left remote sound output device 2221, and the right remote sound output device 2222 may be the same or different.
  • the sixth imaging device 212 is provided so as to be capable of imaging the seat St and the remote control mechanism 211, for example.
  • the sixth imaging device 212 is provided on the upper end side of the central remote image output device 2210 with its optical axis directed toward the sheet St. That is, the sixth imaging device 212 is installed so as to be capable of imaging the action of the operator OP1 for operating the remote control mechanism 211 when the operator OP1 is seated on the seat St.
  • the work machine 40 includes a real machine control device 400 , a real machine input interface 410 and a real machine output interface 420 .
  • the actual device control device 400 is composed of an arithmetic processing device (single-core processor or multi-core processor or a processor core that constitutes it), reads necessary data and software from a storage device such as a memory, and processes the data into the software. Execute the arithmetic processing accordingly.
  • the work machine 40 is, for example, a hydraulic, electric, or hybrid driven crawler shovel (construction machine) that combines hydraulic and electric.
  • a hydraulic, electric, or hybrid driven crawler shovel construction machine
  • FIG. As shown in FIG. and an upper rotating body 450 rotatably mounted on the lower traveling body 430 via a rotating mechanism 440 .
  • a cab 454 (driver's cab) is provided on the front left side of the upper swing body 450 .
  • An operating mechanism 460 is provided in the front central portion of the upper swing body 450 .
  • a first marker M1 as a designated component is provided in front of each of the pair of crawlers 430a and 430b of the working machine 40.
  • a second marker M2 as a designated component is provided behind each of the pair of crawlers 430a and 430b of the work machine 40.
  • the first marker M1 and the second marker M2 may be markers that can be distinguished from each other, and may be, for example, a two-dimensional code that retains information about the front and back, graphics such as ⁇ and ⁇ , symbols, and the like. Further, if the first marker M1 and the second marker M2 are markers that can be distinguished from each other, for example, a step (for the operator to step on when getting into the cab 454) is formed so as to protrude outward from the crawler. It may be a three-dimensional shape such as a step), a convex portion, or a concave portion formed by being recessed from the crawler. For example, if the first marker M1 and the second marker M2 are covered with mud or the like, it is difficult to recognize symbols, figures, etc. as images. If it appears, the image can be recognized.
  • first marker M1 and the second marker M2 are arranged unevenly in the front-rear direction of each of the pair of crawlers 430a and 430b, and have different forms.
  • the first marker M1 and the second marker M2 are stored in the database 110 as image data.
  • the real machine input interface 41 includes a real machine operation mechanism 411, fourth imaging devices 412d and 412e, and a fifth imaging device 412f.
  • the actual machine operation mechanism 411 includes a plurality of operation levers arranged around a seat arranged inside the cab 454 in the same manner as the remote control mechanism 211 .
  • the cab 454 is provided with a drive mechanism or robot that receives a signal corresponding to the operation mode of the remote control lever and moves the actual machine control lever based on the received signal.
  • the fourth imaging device (hereinafter also referred to as a foot camera) 412d is provided on the upper revolving body 450 and is provided so as to include at least one crawler of the lower traveling body 430 in its imaging area.
  • the foot camera 412 d is provided on the bottom surface (outer wall surface) of the cab 454 of the upper rotating body 450 .
  • the foot camera 412d is provided on the bottom surface (outer wall surface) of the cab 454 with the light-receiving element (imaging direction) facing the front direction where the front window of the cab 454 is provided.
  • the foot camera 412d may be provided, for example, on the base end side of the boom foot.
  • a fourth imaging device (hereinafter also referred to as a left camera) 412e is provided separately from the foot camera 412d.
  • the foot camera 412d and the left camera 412e are installed in directions with optical axes different from each other. More preferably, the imaging area of the left camera 412e is an area that does not fall within the imaging area of the foot camera 412d.
  • At least one of the foot camera 412d and the left camera 412e can detect at least one of the first marker M1 and the second marker M2 regardless of the angle of the upper rotating body 450 with respect to the lower traveling body 430.
  • a foot camera 412d and a left camera 412e are provided so as to be included in the imaging area.
  • the foot camera 412d and the left camera 412e form an angle of about 90° between their optical axes.
  • the left camera 412e is provided on the outer wall surface of the cab 454 with the light receiving element (imaging direction) facing the direction in which the left side window of the cab 454 is provided.
  • the left camera 412e may be provided on the outer wall surface of the cab 454 with the light receiving element (imaging direction) facing the direction in which the right side window of the cab 454 is provided, for example. Also, the left camera 412e may be provided on the roof of the cab 454, or may be provided so as to photograph the outside (for example, the right side and the left side) from inside the cab 454.
  • a fifth imaging device 412f (hereinafter also referred to as a main camera) is provided on the upper revolving body 450 separately from the foot camera 412d and the left camera 412e.
  • the main camera 412f is installed inside the cab 454, for example, and captures an image of the environment including at least part of the operating mechanism 460 through the front window and the pair of left and right side windows. A part or all of the front window (or window frame) and the side windows may be omitted from the captured image.
  • the actual machine state sensor group 414 is for measuring the rotation angle (raising angle) of the boom 461 with respect to the upper swing body 450, the rotation angle of the arm 463 with respect to the boom 461, and the rotation angle of the bucket 465 with respect to the arm 463.
  • a turning angle sensor for measuring the turning angle of the upper turning body 450 with respect to the lower traveling body 430
  • an external force sensor for measuring the external force acting on the bucket 465
  • three axes acting on the upper turning body 450 It is composed of a triaxial acceleration sensor or the like for measuring acceleration.
  • the real machine output interface 42 includes a real machine image output device 421 and a real machine wireless communication device 422 .
  • the actual machine image output device 421 is arranged inside the cab 454 and near the front window, for example.
  • the actual machine image output device 421 may be omitted.
  • the actual wireless communication device 422 performs wireless communication with the work support server 10 and the work machine 40 .
  • An operating mechanism 460 as an operating mechanism includes a boom 461 attached to the upper rotating body 450 so as to be able to rise and fall, an arm 463 rotatably connected to the tip of the boom 461, and a tip of the arm 463 rotatable. a bucket 465 connected to the .
  • the operating mechanism 460 is equipped with a boom cylinder 462, an arm cylinder 464, and a bucket cylinder 466 which are configured by telescopic hydraulic cylinders.
  • various attachments such as a nibbler, a cutter, and a magnet may be used as the working unit.
  • the boom cylinder 462 is interposed between the boom 461 and the upper slewing body 450 so as to expand and contract when supplied with hydraulic oil to rotate the boom 461 in the hoisting direction.
  • the arm cylinder 464 is interposed between the arm 463 and the boom 461 so as to expand and contract when supplied with hydraulic oil to rotate the arm 463 about the horizontal axis with respect to the boom 461 .
  • the bucket cylinder 466 is interposed between the bucket 465 and the arm 463 so as to expand and contract when supplied with hydraulic oil to rotate the bucket 465 with respect to the arm 463 about the horizontal axis.
  • FIG. 16 is a flow chart showing the work support processing of the work support system that is exhibited by the cooperation of the work support server 10, the remote control device 20, and the work machine 40 described above.
  • the work support system starts work support processing with activation of the remote control device 20 as a trigger. For example, when the operator turns off the blocking lever 2113, the remote controller 20 transmits an operation signal to the work support server 10 (STEP 221).
  • the work support server 10 Upon receiving the operation signal, the work support server 10 requests the work machine 40 to be operated by the remote control device 20 to transmit an image (STEP 121).
  • the work machine 40 When receiving the image transmission request, the work machine 40 transmits images (fourth captured image, fifth captured image) captured by the fourth imaging devices 412d, 412e and the fifth imaging device 412f to the work support server 10 ( STEP 421).
  • the pair of crawlers 430a and 430b are unevenly distributed in the front-rear direction, respectively, and have different shapes and are provided in front of the pair of crawlers.
  • the advancing direction or the retreating direction of the lower traveling body 430 is recognized based on the reflected state of each of the first marker M1 provided behind the pair of crawlers 430a and 430b and the second marker M2 provided behind the pair of crawlers 430a and 430b. estimation processing) (STEP 122).
  • the first support processing element 1012 generates an index image representing the forward or backward direction of the undercarriage 430 recognized by the first support processing element 1011 (STEP 123).
  • the first support processing element 1012 generates a composite image in which the index image is at least partially superimposed on the work machine 40 of the fourth captured image or its surroundings (STEP 124), and transmits it to the remote control device 20 (STEP 125). ).
  • the first support processing element 1012 generates a composite image in which the index image I1 is superimposed on the fourth captured image (hereinafter also referred to as the foot image) of FIGS. 18B to 10B captured by the foot camera 412d. Also, the first support processing element 1012 generates a composite image in which the index image I1 is superimposed on, for example, the fourth captured image (hereinafter also referred to as the left image) of FIG. 22C captured by the left camera 412e. Further, the first support processing element 1012 generates a composite image in which the index image I2 is superimposed on the fifth image captured by the main camera 412f in FIGS. 18C to 9C and FIG. 22D (hereinafter also referred to as the main image).
  • the first support processing element 1012 converts the index images I1 and I2 into the fourth captured image (the foot) at an angle corresponding to the turning angle of the upper turning body 450 with respect to the lower traveling body 430 recognized by the first support processing element 1011 .
  • image, left image and at least one of the main images to generate a composite image at least partially superimposed on work machine 40 or its surroundings.
  • the first support processing element 1011 acquires the inclination angles of the left and right crawlers 430a and 430b with respect to the imaging direction of the fourth imaging devices (foot camera, left camera) 412d and 412e, and the fourth captured image (foot image , left image), the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is recognized by distinguishing between the first marker M1 and the second marker M2.
  • the second support processing element superimposes and synthesizes the index images I1 and I2 corresponding to the inclination angles of the left and right crawlers 430a and 430b with respect to the imaging direction of the fourth imaging devices (foot camera, left camera) 412d and 412e, for example. Can generate images.
  • the remote control device 20 displays the received synthesized image on, for example, the central remote image output device 2210 (STEP 222).
  • the composite image may be displayed on a device other than the central remote image output device 2210, for example, on image output devices such as the left remote image output device 2211 and the right remote image output device 2212.
  • the forward/backward direction estimation processing for recognizing the forward direction or backward direction of the lower traveling body 430 based on the appearance of the first marker or the second marker in the fourth captured image in STEP 122 will be described.
  • the first support processing element 1011 determines whether or not the first marker M1 or the second marker M2 appears in the foot image (STEP 231).
  • the image data (design data) of the first marker M1 and the image data (design data) of the second marker M2 recorded in advance in the database 110 are referred to, and the image of the first marker M1 is determined. This is done based on whether or not the foot image includes data (design data) or a design that matches the image data (design data) of the second marker M2.
  • the first support processing element 1011 uses the aspect ratio to correct the design of the first marker M1 (or the design of the second marker M2) reflected in the foot image, and then A degree of similarity between the image data of the first marker M1 (or the second marker M2) recorded in the database 110 is calculated. The first support processing element 1011 determines that the first marker M1 (or the second marker M2) is included in the foot image when the similarity is equal to or greater than a predetermined value.
  • the determination in STEP 231 is not limited to such a determination method.
  • a plurality of image data of the first marker M1 and the second marker M2 of the image are recorded in the database 110 in advance.
  • the first support processing element 1011 compares the plurality of image data with the image data of the foot image and the left image transmitted from the work machine 40 to determine whether the first marker M1 and the second marker M2 are the foot image or the left image. It may be determined whether or not it is included in the image.
  • the first support processing element 1011 determines in STEP231 that the first marker M1 or the second marker M2 appears in the foot image (STEP231: YES), it determines whether the marker is the first marker M1. is determined (STEP 232).
  • the determination in STEP 232 is performed, for example, based on the image that the first support processing element 1011 has determined to match in the determination in STEP 231 .
  • the number of first markers M1 reflected in the foot image is one. (STEP 233).
  • the determination in STEP 233 is performed, for example, based on the number of images determined to match in the determination in STEP 231 by the first support processing element 1011 .
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is set to 0 ⁇ It is recognized as ⁇ ° (STEP 234). In other words, the first support processing element 1011 determines that the forward direction of the front window of the cab 454 and the forward direction of the undercarriage 430 match.
  • is the range of angles around 0° in which the two first markers M1 appear in the foot image.
  • the angle ⁇ can be appropriately set according to the angle of view of the lens used in the fourth imaging device 412d (wide-angle lens, fisheye lens, etc.), the distance between the pair of crawlers 430a and 430b of the lower traveling body 430, and the like.
  • the first support processing element 1011 recognizes the direction opposite to the forward direction as the backward direction of the undercarriage 430 .
  • the foot image shown in FIG. 18B includes a pair of left and right crawlers. 430a, 430b and two first markers M1 provided on each crawler 430a, 430b are shown. Therefore, in such a case where the two first markers M1 are reflected in the foot image, the first support processing element 1011 detects the front direction in which the front window of the cab 454 is provided and the forward direction of the lower traveling body 430. are determined to match. Note that the first support processing element 1012 superimposes the index image I1 corresponding to the angle on the foot image as shown in FIG. As shown, the index image I2 is superimposed on the main image.
  • the first support processing element 1011 calculates the reflection mode in the foot image of the pair of crawlers 430a and 430b that changes according to the turning of the upper turning body 450 with respect to the lower traveling body 430, the first marker M1, and the second marker M1.
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is recognized based on the reflection mode in each foot image of M2.
  • the first support processing element 1011 may refer to the turning data acquired by the turning angle sensor of the actual machine state sensor group 414 to recognize the turning angle.
  • the crawler attached with the first marker shown in the foot image moves to the right. It is determined whether or not it is the crawler 430a (STEP 235).
  • the first support processing element 1011 generates a plurality of image data of the right crawler 430a and the left crawler 430b of the foot image corresponding to the angle of the upper rotating body 450 with respect to the lower traveling body 430, the right crawler 430a of the left image, and A plurality of image data of the left crawler 430b are recorded in the database 110 in advance.
  • the first support processing element 1011 compares the plurality of image data with the image data of the foot image and the left image transmitted from the work machine 40 to determine whether the right crawler 430a is included in the foot image or the left image. determine whether or not
  • the first support processing element 1011 determines that the crawler reflected in the foot image is the right crawler 430a (STEP 235: YES), it recognizes the turning angle of the upper turning body 450 with respect to the lower traveling body 430 as 45 ⁇ °. (STEP 236). In other words, the first support processing element 1011 determines that the front direction of the cab 454 makes an angle of 45 ⁇ ° with respect to the advancing direction of the undercarriage 430 . That is, the first support processing element 1011 recognizes the direction of the lower traveling body 430 at 45° to the front direction of the cab 454 as the forward direction.
  • the first support processing element 1011 determines that the front direction in which the front window of the cab 454 is provided is It is determined that an angle of 45 ⁇ ° is formed with respect to the advancing direction of the lower traveling body 430 .
  • the first support processing element 1012 superimposes the index image I1 corresponding to the angle on the foot image as shown in FIG. As shown, the index image I2 is superimposed on the main image.
  • the first support processing element 1011 determines that the crawler reflected in the foot image is the left crawler 430b (STEP 235: NO)
  • the first support processing element 1011 recognizes the turning angle of the upper turning body 450 with respect to the lower traveling body 430 as 315 ⁇ °. (STEP 237).
  • the first support processing element 1011 determines that the front direction of the cab 454 makes an angle of 315 ⁇ ° with respect to the advancing direction of the undercarriage 430 . That is, the first support processing element 1011 recognizes the direction of 315 ⁇ ° with respect to the front direction of the cab 454 as the forward direction of the lower traveling body 430 .
  • the first support processing element 1011 determines that the front direction in which the front window of the cab 454 is provided is the bottom It is determined that an angle of 315° is formed with respect to the advancing direction of the traveling body 430 .
  • the first support processing element 1012 superimposes the index image I1 corresponding to the angle on the foot image as shown in FIG. As shown, the index image I2 is superimposed on the main image.
  • the first support processing element 1011 determines in STEP 232 that the marker reflected in the foot image is the second marker (STEP 232: NO), the number of second markers M2 reflected in the foot image is one. It is determined whether or not there is (STEP 238).
  • the turning angle of the upper rotating body 450 with respect to the lower traveling body 430 is set to 180 ⁇ It is recognized as ⁇ ° (STEP 239).
  • the first support processing element 1011 determines that the front direction in which the front window of the cab 454 is provided and the forward direction of the undercarriage 430 are opposite to each other.
  • the first support processing element 1011 determines that the number of the second markers M2 reflected in the foot image is one (STEP 238: YES).
  • the first support processing element 1011 determines that the crawler with the second marker M2 reflected in the foot image is attached. is the right crawler 430a (STEP 240).
  • the first support processing element 1011 determines that the crawler reflected in the foot image is the right crawler 430a (STEP 240: YES), it recognizes the turning angle of the upper turning body 450 with respect to the lower traveling body 430 as 135 ⁇ °. (STEP 241). In other words, the first support processing element 1011 determines that the front direction of the cab 454 makes an angle of 135 ⁇ ° with respect to the advancing direction of the undercarriage 430 . That is, the first support processing element 1011 recognizes a direction of 135 ⁇ ° with respect to the front direction of the cab 454 as the forward direction of the lower traveling body 430 .
  • the first support processing element 1011 determines that the crawler reflected in the foot image is the left crawler 430b (STEP 240: NO)
  • the first support processing element 1011 recognizes the turning angle of the upper turning body 450 with respect to the lower traveling body 430 as 225 ⁇ °. (STEP 242).
  • the first support processing element 1011 determines that the front direction of the cab 454 forms an angle of 225 ⁇ ° with respect to the advancing direction of the undercarriage 430 . That is, the first support processing element 1011 recognizes a direction of 225 ⁇ ° with respect to the front direction of the cab 454 as the forward direction of the lower traveling body 430 .
  • the first support processing element 1011 determines that the front direction in which the front window of the cab 454 is provided is the bottom It is determined that an angle of 225 ⁇ ° is formed with respect to the advancing direction of the traveling body 430 .
  • the first support processing element 1012 superimposes the index image I1 corresponding to the angle on the foot image as shown in FIG. As shown, the index image I2 is superimposed on the main image.
  • the first support processing element 1011 determines in STEP 231 that the first marker M1 or the second marker M2 is not reflected in the foot image (STEP 231: NO)
  • either the foot image or the left image is displayed as described above. Since the first marker M1 or the second marker M2 appears in the image, the left image is referred to determine whether or not the marker appearing in the left image is the first marker M1 (STEP 243).
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is set to 90 ⁇ °. Recognize (STEP 244). In other words, the first support processing element 1011 determines that the front direction of the cab 454 makes an angle of 90 ⁇ ° with respect to the advancing direction of the undercarriage 430 . That is, the first support processing element 1011 recognizes a direction of 90 ⁇ ° with respect to the front direction of the cab 454 as the forward direction of the lower traveling body 430 .
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is set to 270 ⁇ °. Recognize (STEP 245). In other words, the first support processing element 1011 determines that the front direction of the cab 454 forms an angle of 270 ⁇ ° with respect to the advancing direction of the undercarriage 430 . That is, the first support processing element 1011 recognizes a direction of 270 ⁇ ° with respect to the front direction of the cab 454 as the forward direction of the lower traveling body 430 .
  • the first support processing element 1011 refers to the left image shown in FIG. recognize that is shown. Therefore, in such a case where two first markers M1 are reflected in the left image, the first support processing element 1011 determines that the front direction in which the front window of the cab 454 is provided is the forward movement of the lower traveling body 430. Determine that the angle with respect to the direction is 270 ⁇ °. Note that the first support processing element 1012 superimposes the index image I1 corresponding to the angle on the left image as shown in FIG. As shown, the index image I2 is superimposed on the main image.
  • the first support processing element 1011 calculates each of the first marker M1 and the second marker M2 in the plurality of fourth captured images (foot image, left image) acquired through the plurality of fourth imaging devices 412d and 412e.
  • the advancing direction or the retreating direction of the undercarriage 430 is recognized based on the reflection mode.
  • the types of the first marker M1 and the second marker M2 reflected in the foot image and the left image are determined, and the types of the first marker M1 and the second marker M1 reflected in the foot image and the left image are determined.
  • the number of two markers M2 was determined individually in STEP231-213, STEP238 and STEP243. However, these determinations may be made in one step by the image processing described above.
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is recognized by taking into consideration the difference between the crawlers 430a and 430b reflected in the fourth captured image (foot image, left image). , but not limited to.
  • the first support processing element 1011 distinguishes between the first marker M1 and the second marker M2 appearing in the fourth captured image (foot image, left image) and the fourth captured image (foot image, left image).
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 may be recognized based on the number of the first markers M1 and the second markers M2 reflected in the image.
  • the first support processing element 1011 recognizes whether the marker reflected in the fourth captured image is the first marker M1 or the second marker, and The number of the markers M1 or the second markers reflected in the fourth captured image is recognized.
  • the first support processing element 1011 sets two first markers M1 or two second markers M1 when the angle at which the front direction of the cab 454 and the forward direction of the lower traveling body 430 match is 0 ⁇ °.
  • M2 is reflected in the fourth captured image (foot image)
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is a specific angle, for example, 0° or an angle close to 180° (0 ⁇ ° or 180 ⁇ °).
  • the first support processing element 1011 for example, when one first marker M1 or one second marker M2 is reflected in the fourth captured image (foot image), the lower traveling body of the upper rotating body 450 Recognize that the pivot angle for 430 is an angle close to a particular angle, eg, 45° or 135° (45 ⁇ ° or 135 ⁇ °).
  • the first support processing element 1011 recognizes the front-rear direction of the pair of crawlers 430a and 430b by distinguishing the markers (first marker M1 or second marker M2) reflected in the fourth captured image (foot image). It becomes possible to Furthermore, when the first marker M1 and the second marker M2 are not reflected in the fourth captured image (foot image), the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is a specific angle, for example, 90°. A close angle (90 ⁇ °) is recognized.
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 and the movement of the pair of crawlers 430a and 430b can be determined. It becomes possible to recognize the front-rear direction. This eliminates the need for image analysis processing required for the reflection mode of the pair of crawlers 430a and 430b, so that the processing load on the first support processing element 1012 can be reduced.
  • the first support processing element 1011 calculates the first marker M1 and the second marker M2 as reflection modes of the first marker M1 and the second marker M2 included in the fourth captured image (foot image, left image).
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 may be recognized based on the lateral position in the fourth captured image (foot image, left image) of M2.
  • the first support processing element 1011 determines that the angle of the upper rotating body 450 with respect to the lower traveling body 430 is a specific angle, for example, 0 ° or an angle close to 180° (0 ⁇ ° or 180 ⁇ °).
  • the first support processing element 1011 may perform more detailed angle determination, for example, at the position of the midpoint of the line connecting the first markers M1. For example, when the angle of the upper rotating body 450 with respect to the lower traveling body 430 is 3°, the position of the midpoint of the line connecting the first markers M1 is closer to the left and right of the foot image than when the angle is 0°. Located on the right side of the direction. A plurality of positions of midpoints of lines connecting the first markers M1 corresponding to such various angles are recorded in the database 110 as image data. The first support processing element 1011 may refer to the position of the midpoint, calculate the matching degree of the position of the midpoint of the foot image, and perform detailed determination of the angle.
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is a specific , for example an angle close to 45° (45 ⁇ °).
  • the turning angle of the upper turning body 450 with respect to the lower traveling body 430 is a specific , for example an angle close to 135° (135 ⁇ °).
  • the appearance of the first marker M1 and the second marker M2 included in the fourth captured image changes according to the turning angle of the upper turning body 450 with respect to the lower traveling body 430 .
  • the horizontal positions of the first marker M1 and the second marker M2 in the fourth captured image change according to the change in the turning angle. Therefore, the first support processing element 1011 recognizes the horizontal positions of the first marker M1 and the second marker M2 in the fourth captured image (foot image), thereby allowing the upper rotating body 450 to rotate relative to the lower traveling body 430. Angles can be recognized.
  • the first support processing element 1012 preferably displays or hides the composite image based on predetermined timing.
  • the display or non-display control of the synthesized image by the first support processing element 1012 will be described below.
  • the remote control device 20 starts work support processing with activation of the remote control device 20 as a trigger. For example, when the operator OP1 turns off the blocking lever 2113 (STEP251: YES), the remote control device 20 transmits an operation signal to the work support server 10 (STEP252).
  • the first support processing element 1011 of the work support server 10 Upon receiving the operation signal, the first support processing element 1011 of the work support server 10 recognizes that the cut-off lever 2113 has been turned OFF (STEP 151: YES), and the first support processing element 1011 and the first support processing element 1012 performs display processing of the synthesized image (STEP 152).
  • the first support processing element 1011 acquires, as an operation signal, operation acceptance information, which is information indicating whether or not the operation of the work machine 40 can be accepted by the remote controller 20 .
  • operation acceptance information which is information indicating whether or not the operation of the work machine 40 can be accepted by the remote controller 20 .
  • the first support processing element 1012 transmits the composite image to the remote control device 20 when the operation acceptance information indicates that the operation to the work machine 40 can be accepted.
  • the first support processing element 1011 of the work support server 10 performs the display processing of the synthesized image in STEP 152, and a predetermined time (for example, 60 seconds) has elapsed, or a predetermined designated operation (for example, a boom operation device, It is determined whether an operation of the arm operating device or the bucket operating device, or a running motion (to be described later) has been performed (STEP 153).
  • a predetermined time for example, 60 seconds
  • a predetermined designated operation for example, a boom operation device, It is determined whether an operation of the arm operating device or the bucket operating device, or a running motion (to be described later) has been performed (STEP 153).
  • the first support processing element 1011 of the work support server 10 determines in STEP 153 that a predetermined time has elapsed since the composite image display process was performed, or that a predesignated designation operation has been performed (STEP 153: YES).
  • the first support processing element 1011 and the first support processing element 1012 perform non-display processing of the composite image (STEP 154). That is, the first support processing element 1011 and the first support processing element 1012 stop the synthetic image generation processing of STEP 124 and the synthetic image transmission processing of STEP 125 .
  • the remote control device 20 After transmitting the operation signal to the work support server 10 in STEP 252, the remote control device 20 then transmits the sixth captured image captured by the sixth imaging device 212 to the work support server 10 (STEP 253).
  • the first support processing element 1011 of the work support server 10 refers to the acquired sixth captured image after performing the non-display processing of the composite image in STEP 154, and is an operation for the operator OP1 to run the work machine 40. It is determined whether or not a running motion has been performed (STEP 155).
  • the running motion is the action of the operator OP1 for operating the operating device for running of the remote control mechanism 211.
  • the running motion includes, for example, an operation for operating a control lever (running lever) of the operating device for running, and an operation for operating a running pedal.
  • the determination in STEP 155 is made, for example, when the state of the operator OP1 and the travel lever 2110 has changed from the non-interacting state to the interacting state.
  • the non-interacting state is, for example, a state in which the operator OP1 does not grip or touch the travel lever 2110 .
  • the interaction state is, for example, a state in which the operator OP1 is gripping or touching the travel lever 2110 .
  • a state in which the foot of the operator OP1 is not placed on the travel pedal may be adopted as the non-interaction state, and a state in which the foot of the operator OP1 is placed on the travel pedal may be adopted as the interaction state.
  • the first support processing element 1011 acquires the travel operation information of the preparatory motion, which is the motion representing the intention of inputting the forward or backward operation of the work machine 40 in the remote controller 20, as the travel motion.
  • the first support processing element 1011 determines in STEP155 that the operator OP1 has performed a running motion that is an operation for causing the work machine 40 to travel (STEP155: YES)
  • the first support processing element 1011 determines the type of forward operation or backward operation.
  • a composite image is generated by matching the index image with the forward direction or the backward direction, and display processing of the composite image is performed (STEP 156).
  • the display processing of the synthesized image in STEP156 the same processing as the display processing of the synthesized image in STEP152 is performed.
  • the first support processing element 1012 remotely generates a composite image generated using the index image representing the forward direction of the lower traveling body 430. Send to the operation device 20 . Further, when the intention indicated by the preparatory motion is an operation input for reversing, the first support processing element 1012 remotely generates a synthetic image generated using the index image representing the reversing direction of the lower traveling body 430. Send to the operation device 20 .
  • the remote control device 20 After transmitting the sixth captured image to the work support server 10 in STEP 253, the remote control device 20 transmits to the work support server 10 an operation signal corresponding to the operation of the operator OP1 to operate the work machine 40 (STEP 254). ).
  • the first support processing element 1011 determines whether or not a travel operation has been performed based on the operation signal transmitted from the remote controller 20 (STEP 157).
  • the first support processing element 1011 makes a determination in STEP 157 based on, for example, whether or not the operation signal includes a signal relating to the running operation.
  • the first support processing element 1011 determines in STEP 157 that the running operation has been performed (STEP 157: YES)
  • the first support processing element 1011 and the first support processing element 1012 perform non-display processing of the composite image ( STEP 158).
  • the same processing as in STEP154 is performed.
  • the first support processing element 1011 determines whether the blocking lever 2113 is turned ON (STEP 159).
  • the work support process is executed by the work support server 10.
  • the work support processing may be performed by the remote control device 20 or the work machine 40 .
  • first support processing element 1011 and the first support processing element 1012 are explained as different processing elements, but each support processing element may be processed by one "support processing element”. good.
  • the gripping sensor may include, for example, a sensor electrode arranged on the travel lever 2110 and a measurement unit that measures the capacitance value between the gripping sensor and the human body (operator OP1).
  • a measurement unit such as a piezoelectric element that measures the pressure generated when OP1 touches the travel lever 2110 may be included.
  • processing (STEP 154) for hiding the composite image was performed when it was determined that the designation operation was performed (STEP 153: YES).
  • STEP 154 does not have to be executed immediately. For example, even if it is determined that the specified operation or running motion has been performed (STEP 153: YES), STEP 154 is executed after a predetermined time (for example, 60 seconds) has passed since the display processing of the synthesized image in STEP 152.
  • the predetermined time in this case can be set arbitrarily, and may be set shorter than 60 seconds. By doing so, the operator OP1 can be made to recognize the advancing direction or the retreating direction of the lower traveling body 430 with certainty.
  • the composite image is hidden (STEP 158).
  • the process of STEP 158 is a process that is arbitrarily executed, and for example, while the running operation is being performed, the display process of the composite image may be continued.
  • the index image is superimposed on the fourth captured image (foot image, left image).
  • the index image does not necessarily have to be superimposed on the fourth captured image (foot image, left image).
  • the index image may be superimposed only on the fifth captured image (main image).
  • the first support processing element 1012 sends the index image representing the forward or backward direction of the lower traveling body 430 recognized by the first support processing element 1011 to the upper swing body 430 with the fourth imaging devices 412d and 412e. may transmit to the remote control device 20 a composite image of the fifth captured image obtained through the separately provided fifth imaging device 412f, in which the working machine 40 or its surroundings are at least partially superimposed.
  • the support processing element includes a reflection mode of the undercarriage that changes according to the swing of the upper swing body with respect to the undercarriage, a reflection mode of the designated component,
  • the index image is at least partially superimposed on or around the working machine in the captured image at an angle corresponding to the turning angle of the upper turning body with respect to the lower traveling body.
  • the support processing element is, for example, the appearance of the undercarriage in the captured image, that is, the left and right of the undercarriage shown in the captured image (either one or both), the imaging device
  • the turning angle of the upper rotating body with respect to the lower running body can be recognized from the left and right inclination angles of the lower running body with respect to the imaging direction and the identification of a plurality of specified components appearing in the captured image. Therefore, for example, the support processing element can generate a composite image by superimposing index images corresponding to the left and right tilt angles of the undercarriage with respect to the imaging direction of the imaging device, and the composite image can be sent to the remote control device. can be sent. Therefore, the operator can easily recognize the advancing direction or the retreating direction of the undercarriage just by viewing the synthesized image.
  • a plurality of imaging devices are arranged at positions with different directions from the working machine, and the support processing element is a
  • the manner in which the undercarriage is reflected and the manner in which the designated constituent is reflected in the other captured image obtained through the other imaging device It is preferable to superimpose an index image indicating the longitudinal direction of the lower traveling body on the captured image.
  • the support processing element can detect the lower part of the work machine based on the other captured image.
  • a composite image superimposed with an index image indicating the front-rear direction of the traveling object can be transmitted to the remote control device.
  • the support processing element may be configured such that the horizontal direction in the one captured image of the specified component as a reflection mode of the specified component included in the one captured image. It is preferable to recognize the swing angle of the upper swing structure with respect to the lower track structure based on the position of .
  • the reflection aspect of a plurality of designated components included in one captured image changes according to the turning angle of the upper rotating body with respect to the lower traveling body.
  • the horizontal positions of the plurality of specified components in one captured image change according to the change in the turning angle. Therefore, the support processing element can recognize the turning angle of the upper turning body with respect to the lower traveling body by recognizing the horizontal positions of the plurality of specified components in one captured image.
  • the first support processing element acquires the captured image including the designated three-dimensional component formed to protrude from the undercarriage.
  • the support processing element can easily recognize the plurality of designated components even when mud or soil adheres to the plurality of designated components.
  • the support processing element is based on the image coordinates of the other captured image, the position where the one imaging device is arranged, and a partial area of the one captured image.
  • the composite image obtained by superimposing the index image on the one captured image is transmitted to the remote control device.
  • the support processing element is, for example, an image captured from one imaging direction (for example, the front direction) or another imaging direction (for example, the rear direction) of the work machine in which the designated component is not shown. It is possible to generate a synthesized image by synthesizing the index image with the image. Therefore, the operator can recognize the longitudinal direction of the undercarriage of the work machine without moving the line of sight.
  • the undercarriage of the work machine has a pair of left and right crawlers, and the support processing element converts the index image into the size of the crawler in the composite image and the composite image. is preferably generated according to the position of the crawler in
  • the support processing element can generate a composite image in which the index image is superimposed on the crawler, so the visibility of the index image can be improved. Therefore, it is possible to improve the work efficiency of the operator.
  • the support processing element acquires operation acceptance information that is information indicating whether or not an operation to the work machine can be accepted by the remote control device, and the operation acceptance information is used for the work. It is preferable that the synthetic image is transmitted to the remote control device when it is possible to accept the operation to the machine.
  • the forward direction or backward direction of the undercarriage can be displayed only when the operator operates the work machine, thereby reducing the annoyance felt by the operator. can.
  • the support processing element acquires traveling operation information of a preparatory motion, which is a motion representing an intention of an operation input for advancing or reversing the work machine in the remote control device.
  • a preparatory motion which is a motion representing an intention of an operation input for advancing or reversing the work machine in the remote control device.
  • the composite image on which the index image is superimposed can be displayed only when the operator operates the work machine to move forward or backward, and the index image is always superimposed. It is possible to reduce the annoyance of displaying a composite image.
  • the support processing element acquires position information in real space of the work machines that are candidates for operation, and When the real space position of the work machine calculated from the captured image and the position information of the work machine as the operation target candidate match, the work machine as the operation target candidate is operated. It is preferable to recognize it as the target working machine.
  • the support processing element can identify the work machine to be operated even when a plurality of work machines are arranged close to each other. Therefore, even if it is difficult to distinguish one of the plurality of working machines to be operated from its appearance, the support processing element can distinguish the one working machine and perform the work desired by the operator. It is possible to generate said composite image for a machine.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Structural Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Civil Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)

Abstract

処理負荷の軽減を図り、作業機械の下部走行体の前後方向を簡易な構成で示すことが可能な遠隔操作システムを提供する。遠隔操作システムは、下部走行体(430)及び下部走行体(430)に対して旋回可能な上部旋回体(450)を有する作業機械(40)と、作業機械(40)を遠隔操作するための遠隔操作装置(20)と、のそれぞれとの相互通信機能を有する。遠隔操作システムは、作業機械の周囲に配置された撮像装置を通じて取得された撮像画像における、下部走行体(430)の映り込み態様と、下部走行体(430)の前後方向に偏在して配置されている指定構成要素の映り込み態様と、に基づいて生成される、下部走行体(430)の前後方向の少なくとも一方を示す指標画像を撮像画像における作業機械(40)又はその周囲に少なくとも部分的に重畳した合成画像を遠隔操作装置(20)に送信する支援処理要素(101)を有する。

Description

遠隔操作システムおよび遠隔操作複合システム
 本発明は、作業機械と、当該作業機械を遠隔操作するための遠隔操作装置と、のそれぞれとの相互通信機能を有する遠隔操作システムに関する。
 従来、作業機械の周囲を撮影するカメラ、又は当該作業機械を互いに異なる角度で撮像可能なカメラを複数台設け、当該複数のカメラによって撮像された複数の撮像画像を用いて、作業機械の俯瞰画像を生成することが行われている。
 このような作業機械の一例として、例えば、油圧ショベルの周囲を撮像する複数のカメラと、複数のカメラで撮像された画像に基づいて、俯瞰画像を生成する俯瞰画像生成部と、を備えた油圧ショベルが特許文献1に開示されている。
 また、例えば、油圧ショベル等の作業機械は、下部走行体と、この下部走行体に対して旋回可能な上部旋回体を備えている。また、上部旋回体には運転室を構成するキャブが設けられている。
 このような作業機械では、下部走行体に対して上部旋回体が旋回することにより、キャブの正面方向と、作業機械の前進方向又は後退方向と、が相互に異なる方向となる可能性がある。このため、オペレータは、走行操作をしたときに何れの方向に作業機械が進行するのかが分かりにくいという問題がある。
 そこで、キャブ内に設けたモニターに作業機械の進行方向を矢印で示すことが行われている。例えば、特許文献2においては、下部走行体に対して上部旋回体が旋回可能であり、且つ、機械周辺を撮影するカメラを備え、前記カメラが撮影した画像をキャブ内に配置されたモニター画面に表示する建設機械のモニター装置が開示されている。
特開2020-112030号公報 特許第5473870号公報
 しかしながら、オペレータは、当該俯瞰画像を見ただけでは下部走行体の前後方向を認識することは困難である。そのため、オペレータは、下部走行体の前後方向を認識するために、下部走行体を前進又は後退させなければならない問題がある。
 また、特許文献2のモニター装置では、モニター画面に表示された画像の時間変化により、上部旋回体に対する下部走行体の相対角度を推定する。このため、相対角度を推定するために複雑な画像処理が必要となり、処理負荷が高くなる問題がある。
 本発明は、かかる問題に鑑みてなされたものであり、処理負荷の軽減を図り、かつ簡易な構成で作業機械の前進方向又は後退方向を示すことが可能な遠隔操作システムおよび該遠隔操作システムを含む遠隔操作複合システムを提供することを目的とする。
 かかる目的を達成するため本発明の遠隔操作システムは、下部走行体及び前記下部走行体に対して旋回可能な上部旋回体を有する作業機械と、前記作業機械を遠隔操作するための遠隔操作装置と、のそれぞれとの相互通信機能を有する遠隔操作システムであって、前記作業機械の周囲に配置された撮像装置を通じて取得された撮像画像における、前記下部走行体の映り込み態様と、前記下部走行体の前後方向に偏在して配置されている指定構成要素の映り込み態様と、に基づいて生成される、前記下部走行体の前後方向の少なくとも一方を示す指標画像を前記撮像画像における前記作業機械又はその周囲に少なくとも部分的に重畳した合成画像を前記遠隔操作装置に送信する支援処理要素と、を有する。
 また、本発明の遠隔操作複合システムは、前記遠隔操作システムと、前記遠隔操作装置および前記作業機械のうち少なくとも一方と、により構成されている。
 本発明の遠隔操作システムおよび遠隔操作複合システムによれば、撮像画像に作業機械の下部走行体の前後方向を示す指標画像が重畳した合成画像が生成され、当該合成画像が遠隔操作装置に送信されることにより、オペレータは、当該合成画像を目視することにより容易に作業機械の下部走行体の前後方向を把握できる。
本発明の一実施形態としての作業支援システムの構成説明図である。 図1の遠隔操作装置の構成に関する説明図である。 図1の作業機械の構成に関する説明図である。 図1の作業機械の周囲の環境に関する説明図である。 作業支援システムの作業支援処理を示すフローチャートである。 図2の遠隔操作装置の画像出力装置の表示態様を示す説明図である。 図5の合成画像生成処理の説明図である。 図2の遠隔操作装置の画像出力装置の他の表示態様を示す説明図である。 作業支援システムの他の作業支援処理を示すフローチャートである。 第1撮像画像の第1の表示態様を示す説明図である。 第1撮像画像の第2の表示態様を示す説明図である。 第1撮像画像の第3の表示態様を示す説明図である。 本発明の一実施形態としての作業支援システムの構成説明図である。 図13の遠隔操作装置の構成に関する説明図である。 図13の作業機械の構成に関する説明図である。 作業支援サーバによる作業支援処理の例を示すフローチャートである。 図16の前進後退方向算出処理の例を示すフローチャートである。 撮像装置による撮影された画像の例を示す説明図である。 撮像装置による撮影された画像の例を示す説明図である。 撮像装置による撮影された画像の例を示す説明図である。 撮像装置による撮影された画像の例を示す説明図である。 撮像装置による撮影された画像の例を示す説明図である。 作業支援サーバによる作業支援処理の他の例を示すフローチャートである。
 (実施例1)
 (遠隔操作システムの構成)
 図1に示されている本発明の一実施形態としての作業支援システムは、遠隔操作装置20による複数の作業機械40の遠隔操作を支援するための作業支援サーバ10により構成されている。作業支援サーバ10、遠隔操作装置20、複数の作業機械40、第1撮像装置50および第2撮像装置60のそれぞれは、共通のまたは別個のネットワークを介して相互に通信可能に構成されている。尚、本図においては、作業支援サーバ10は、複数の作業機械40と接続可能にされているが、作業支援サーバ10は1台以上の作業機械40と接続可能であればよく、その接続台数に制限はない。また、本図においては、第1撮像装置50及び、第2撮像装置60がネットワークを介して相互に通信可能に接続されているが、当該ネットワークに接続される撮像装置は、2台以上であってもよいし、1台のみでもよい。
 実施例1は、作業支援サーバ10を、複数の作業機械40と、当該複数の作業機械40のうち遠隔操作対象となる一の作業機械40を遠隔操作するための遠隔操作装置20と、のそれぞれとの相互通信機能を有する遠隔操作システムである。
 本発明の構成要素(ハードウェア)が、各種情報を「取得する」とは、当該情報を受信すること、当該情報を内部記憶装置(例えば、メモリ)および/または外部記憶装置(例えば、外部のデータベースサーバ)から読み取るまたは検索すること、受信、読み取り、検索等された情報を対象にして演算処理を実行することにより情報を算定、推定、予測、同定等すること、など、各種情報を後続の演算処理において利用可能な形態で準備するためのあらゆる演算処理を包含する概念である。
 (作業支援サーバの構成)
 作業支援サーバ10は、支援処理要素101を含む遠隔操作支援装置100と、データベース110と、サーバ無線通信機器122と、を備えている。
 支援処理要素101は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアに従った後述の演算処理を実行する。
 データベース110は、第1撮像装置50及び、第2撮像装置60等の撮像装置によって撮像された撮像画像データ等を記憶保持する。データベース110は、作業支援サーバ10とは別個のデータベースサーバにより構成されていてもよい。
 (遠隔操作装置の構成)
 遠隔操作装置20は、遠隔制御装置200と、遠隔入力インターフェース210と、遠隔出力インターフェース220と、を備えている。遠隔制御装置200は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった演算処理を実行する。
 遠隔入力インターフェース210は、遠隔操作機構211を備えている。
 遠隔操作機構211には、走行用操作装置と、旋回用操作装置と、ブーム用操作装置と、アーム用操作装置と、バケット用操作装置と、オペレータによる操作の受付状態を切り替える遮断レバーと、が含まれている。各操作装置は、回動操作を受ける操作レバーを有している。走行用操作装置の操作レバー(走行レバー)は、作業機械40の左右一対のクローラを備える下部走行体430を動かすために操作される。走行レバーは、走行ペダルを兼ねていてもよい。例えば、走行レバーの基部または下端部に固定されている走行ペダルが設けられていてもよい。旋回用操作装置の操作レバー(旋回レバー)は、作業機械40の旋回機構440を構成する油圧式の旋回モータを動かすために操作される。ブーム用操作装置の操作レバー(ブームレバー)は、作業機械40のブームシリンダ462を動かすために操作される。アーム用操作装置の操作レバー(アームレバー)は作業機械40のアームシリンダ464を動かすために操作される。バケット用操作装置の操作レバー(バケットレバー)は作業機械40のバケットシリンダ466を動かすために操作される。
 遠隔操作機構211を構成する各操作レバーは、例えば、図2に示されているように、オペレータOP1が着座するためのシートStの周囲に配置されている。シートStは、アームレスト付きのハイバックチェアのような形態であるが、ヘッドレストがないローバックチェアのような形態、または、背もたれがないチェアのような形態など、オペレータOP1が着座できる任意の形態の着座部であってもよい。
 シートStの前方に左右のクローラに応じた左右一対の走行レバー2110が左右横並びに配置されている。一つの操作レバーが複数の操作レバーを兼ねていてもよい。例えば、図2に示されているシートStの左側フレームの前方に設けられている左側操作レバー2111が、前後方向に操作された場合にアームレバーとして機能し、かつ、左右方向に操作された場合に旋回レバーとして機能してもよい。同様に、図2に示されているシートStの右側フレームの前方に設けられている右側操作レバー2112が、前後方向に操作された場合にブームレバーとして機能し、かつ、左右方向に操作された場合にバケットレバーとして機能してもよい。レバーパターンは、オペレータOP1の操作指示によって任意に変更されてもよい。
 図略の遮断レバーは、シートStの左側フレームの前方において左側操作レバー2111の下方に設けられており、上げられた(OFFにされた)場合に各操作レバー2110、2111、2112が操作されても作業機械40が動かないようにロックする一方、下げられた(ONにされた)場合に当該ロックを解除するための操作レバーとして機能する。
 遠隔出力インターフェース220は、画像出力装置221と、遠隔無線通信機器222とを備えている。
 画像出力装置221は、例えば図2に示されているように、シートStの前方、左斜め前方および右斜め前方のそれぞれに配置された略矩形状の画面を有する中央画像出力装置2210、左側画像出力装置2211、右側画像出力装置2212及び中央画像出力装置2210の下方に配置された略矩形状の画面を有する下側画像出力装置2213により構成されている。中央画像出力装置2210、左側画像出力装置2211、右側画像出力装置2212及び下側画像出力装置2213のそれぞれの画面(画像表示領域)の形状およびサイズは同じであってもよく相違していてもよい。
 中央画像出力装置2210、左側画像出力装置2211、右側画像出力装置2212及び下側画像出力装置2213のそれぞれの画面は、鉛直方向に対して平行であってもよく、鉛直方向に対して傾斜していてもよい。中央画像出力装置2210、左側画像出力装置2211、右側画像出力装置2212及び下側画像出力装置2213のうち少なくとも1つの画像出力装置が、複数に分割された画像出力装置により構成されていてもよい。例えば、中央画像出力装置2210が、略矩形状の画面を有する上下に隣接する一対の画像出力装置により構成されていてもよい。
 (作業機械の構成)
 図1に示されているように、作業機械40は、実機制御装置400と、実機入力インターフェース410と、実機出力インターフェース420と、作動機構460と、を備えている。
 実機制御装置400は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった演算処理を実行する。
 作業機械40は、例えば、油圧式、電動式または油圧式および電動式が組み合わされたハイブリッド駆動式のクローラショベル(建設機械)であり、図3に示されているように、下部走行体430と、下部走行体430に旋回機構440を介して旋回可能に搭載されている上部旋回体450と、を備えている。上部旋回体450の前方左側部にはキャブ454(運転室)が設けられている。上部旋回体450の前方中央部には作動機構460が設けられている。
 下部走行体430は、図4に示されているように、左右一対のクローラ430a、430bを備える。また、下部走行体430は、図3にも示すように、右側のクローラ430aを駆動させるための駆動部材431及び、左側のクローラ430bを駆動させるための駆動部材431を備えている。駆動部材431は、下部走行体430の前後方向における後方側に偏在して配置されている指定構成要素の1つである。駆動部材431としては、例えば、駆動モータ、駆動モータに係合する歯車等が挙げられる。
 実機入力インターフェース410は、実機操作機構411と、実機撮像装置412aと、アタッチ撮像装置412bと、後方撮像装置412cと、を備えている。実機操作機構411は、キャブ454の内部に配置されたシートの周囲に遠隔操作機構211と同様に配置された複数の操作レバーを備えている。
 遠隔操作レバーの操作態様に応じた信号を受信し、当該受信信号に基づいて実機操作レバーを動かす駆動機構またはロボットがキャブ454に設けられている。
 実機撮像装置412a(以後、メインカメラとも称される)は、例えばキャブ454の内部に設置され、フロントウィンドウおよび左右一対のサイドウィンドウ越しに作動機構460の少なくとも一部を含む環境を撮像する。当該撮像画像には、フロントウィンドウ(またはウィンドウフレーム)およびサイドウィンドウのうち一部または全部が省略されていてもよい。
 アタッチ撮像装置412b(以後、アタッチカメラとも称される)は、例えばアーム463に設置され、アタッチメントであるバケット465の少なくとも一部を含む環境を撮像する。
 後方撮像装置412c(以後、後方カメラとも称される)は、例えば、上部旋回体450において、キャブ454のシートからみてフロントウィンドウが設けられている方向を前方とした場合、キャブ454の後方を撮像可能にボンネット(図示せず)やカウンタウェイト(図示せず)又はキャブ454に設けられている。
 実機入力インターフェース410は、実機状態センサ群(図示せず)を含む。実機状態センサ群(図示せず)は、上部旋回体450に対するブーム461の回動角度(起伏角度)、ブーム461に対するアーム463の回動角度、および、アーム463に対するバケット465の回動角度のそれぞれを測定するための角度センサ、下部走行体430に対する上部旋回体450の旋回角度を測定するための旋回角度センサ、バケット465に対して作用する外力を測定するための外力センサ、上部旋回体450に作用する3軸加速度を測定するための3軸加速度センサ、GNSS(Global Navigation Satellite System)等の位置情報取得センサ等により構成されている。
 実機出力インターフェース420は、実機無線通信機器422を備えている。
 作動機構としての作動機構460は、上部旋回体450に起伏可能に装着されているブーム461と、ブーム461の先端に回動可能に連結されているアーム463と、アーム463の先端に回動可能に連結されているバケット465と、を備えている。作動機構460には、伸縮可能な油圧シリンダにより構成されているブームシリンダ462、アームシリンダ464およびバケットシリンダ466が装着されている。作業部として、バケット465のほか、ニブラ、カッター、マグネットなど、さまざまなアタッチメントが用いられてもよい。
 ブームシリンダ462は、作動油の供給を受けることにより伸縮してブーム461を起伏方向に回動させるように当該ブーム461と上部旋回体450との間に介在する。アームシリンダ464は、作動油の供給を受けることにより伸縮してアーム463をブーム461に対して水平軸回りに回動させるように当該アーム463と当該ブーム461との間に介在する。バケットシリンダ466は、作動油の供給を受けることにより伸縮してバケット465をアーム463に対して水平軸回りに回動させるように当該バケット465と当該アーム463との間に介在する。
 図4に示すように、第1撮像装置50及び、第2撮像装置60は、例えば、作業機械40の外観を撮像領域AR1,AR2に含むように、作業機械40の外部に設けられている支柱に取り付けられている。第1撮像装置50及び、第2撮像装置60は、互いに異なる光軸方向AX1、AX2で作業機械40の外観を撮像するように設置されている。尚、第1撮像装置50及び、第2撮像装置60は、例えば、作業支援サーバ10からの指令に応じて、光軸方向AX1、AX2を自由に変更できるような雲台に取り付けられていてもよい。尚、第1撮像装置50及び、第2撮像装置60の光軸方向AX1、AX2の変更は、例えば、第1撮像装置50及び、第2撮像装置60に備えられている光学系の調整機構によって行ってもよい。例えば、第1撮像装置50及び、第2撮像装置60の光軸方向AX1、AX2は、クローラ430a,430bを撮像可能に、水平面に向けて調整するとよい。また、本図においては、第1撮像装置50及び、第2撮像装置60の光軸方向AX1、AX2が上面視において直交するように第1撮像装置50及び、第2撮像装置60を配置した。しかし、第1撮像装置50及び、第2撮像装置60は、任意に配置することができ、上面視でその光軸方向AX1、AX2が直交しない関係で配置することができる。
 例えば、図4に示すように、第1撮像装置50は、作業機械40の下部走行体430の前後方向の前方に配置され、第2撮像装置60は、作業機械40の下部走行体430の左右方向の左方(左クローラ430b側)に配置されている。このように第1撮像装置50及び、第2撮像装置60が配置されていることにより、作業機械40の下部走行体430が旋回しても第1撮像装置50及び第2撮像装置60の少なくとも一方は、その撮像領域に一対のクローラ430a、430bの側面を含ませることができる。すなわち、第1撮像装置50及び第2撮像装置60のうち、少なくとも一方は、下部走行体430に設けられている指定構成要素である駆動部材431を撮像可能である。
 尚、第1撮像装置50及び、第2撮像装置60は、互いに異なる光軸方向で作業機械40の外観を撮像するように設置されていればよく、例えば、他の作業機械40に搭載されている実機撮像装置412であってもよい。
 また、第1撮像装置50及び、第2撮像装置60は、実施の態様に応じて適宜増設してもよい。例えば、作業機械40が移動することが想定される場合においては、作業機械40の移動先においても、第1撮像装置50及び第2撮像装置60の少なくとも一方は、その撮像領域に一対のクローラ430a、430bの側面を含ませることができるように、適宜第1撮像装置50及び第2撮像装置60を設置するとよい。
 図5は上記の作業支援サーバ10、遠隔操作装置20、作業機械40、第1撮像装置50及び第2撮像装置60の連携により発揮される作業支援システムの作業支援処理について示すフローチャートである。
 作業支援システムは、遠隔操作装置20の起動をトリガーとして、作業支援処理を開始する。オペレータによって、例えば、遮断レバーがOFFにされると、遠隔操作装置20は、操作信号を作業支援サーバ10に送信する(STEP201)。
 作業支援サーバ10は、操作信号を受信すると、第1撮像装置50及び第2撮像装置60に対して画像送信要求を送信する(STEP101)。
 第1撮像装置50は、画像送信要求を受信すると、撮像した画像を作業支援サーバ10に送信する(STEP501)。
 第2撮像装置60は、画像送信要求を受信すると、撮像した画像を作業支援サーバ10に送信する(STEP601)。
 作業支援サーバ10の支援処理要素101は、第1撮像装置50によって撮像された画像(第1撮像画像)及び第2撮像装置60によって撮像された画像(第2撮像画像)を受信すると、第1撮像装置50によって撮像された第1撮像画像又は、第2撮像装置50によって撮像された第2撮像画像における、下部走行体の映り込み態様と、一対のクローラ430a,430bのそれぞれの前後方向のそれぞれに偏在して配置されている指定構成要素の映り込み態様と、に基づいて、当該一対のクローラ430a,430bが映り込んでいる第1撮像画像又は、第2撮像画像における下部走行体430の前進方向又は後退方向を推定する(STEP102)。
 支援処理要素101は、STEP102の処理において、例えば、第1撮像画像に下部走行体430の指定構成要素である駆動部材431が映っている場合、クローラ430a,430bを側方から見た際の当該クローラ430a,430bの前後方向において、当該駆動部材431が位置する側を第1撮像画像におけるクローラ430a、430bの後退方向として推定する。
 例えば、支援処理要素101は、データベース110に格納された、予め機械学習(例えば、教師あり学習)によって構築された学習モデルを用いて、クローラ430a、430bの後退方向として推定できる。具体的には、作業機械40の外観を様々な角度から撮像した複数の撮像画像を用いて、クローラ430a,430bの側方が映っている各々の撮像画像について、クローラ430a,430bを側方から見た際の当該クローラ430a,430bの前後方向における当該クローラ430a,430bの後退方向が学習される。
 支援処理要素101は、当該学習モデルに第1撮像画像又は、第2撮像画像を入力して実空間におけるクローラ430a,430bの前後方向、すなわち、下部走行体430のクローラ430a、430bの前進方向又は、後退方向のベクトルを認識する。支援処理要素101は、第1撮像画像又は、第2撮像画像における下部走行体430の前進方向又は後退方向を推定する。
 支援処理要素101は、STEP102の処理において、例えば、第1撮像画像に下部走行体430の指定構成要素である駆動部材431が映っていない場合であり、かつ第2撮像画像に下部走行体430の駆動部材431が映っている場合、クローラ430a,430bを側方から見た際の当該クローラ430a,430bの前後方向において当該駆動部材431が位置する側を第2撮像画像における下部走行体430のクローラ430a、430bの後退方向として推定する。こうすることで、第1撮像装置50の光軸方向とクローラ430a,430bの前後方向との兼ね合いで第1撮像画像に駆動部材431が映っていない場合であっても、第2撮像画像から当該前後方向を推定することができる。
 また、支援処理要素101は、作業支援サーバ10の支援処理要素101は、STEP102において推定された第1撮像画像又は、第2撮像画像における下部走行体430の前進方向又は後退方向を表す指標画像を、第1撮像画像、第2撮像画像及び、メイン画像の少なくとも1つの画像の作業機械40又はその周囲に少なくとも部分的に重畳した合成画像を生成し(STEP103)、遠隔操作装置20に送信する(STEP104)。
 例えば、支援処理要素101は、第1撮像装置50によって撮像された図6の右側画像出力装置2212に表示された第1撮像画像に指標画像I1を重畳した合成画像を生成する。例えば、図6においては、指標画像I1は、第1撮像画像における下部走行体430の前進方向を示している。
 支援処理要素101は、例えば、第1撮像画像及び第2撮像画像に下部走行体430の駆動部材431が映っている場合、上記のSTEP102の前後方向推定処理によって推定された方向に基づいて、指標画像I1,I2を重畳させた合成画像を生成することが可能である。
 また、例えば、支援処理要素101は、一の撮像装置である第1撮像装置50を通じて取得された第1撮像画像において下部走行体430の駆動部材431が映っていない場合、他の撮像装置である第2撮像装置60を通じて取得された第2撮像画像における、下部走行体430の映り込み態様と、駆動部材431の映り込み態様と、に基づいて生成される、下部走行体430の前後方向を示す指標画像I1,I2を第1撮像画像に重畳するようにしてもよい。
 すなわち、支援処理要素101は、STEP102の前後方向推定処理で推定した下部走行体430の前後方向に対応させて、指標画像I1,I2及びI3を第1撮像画像、第2撮像画像及び、メイン画像のうち、少なくとも1つの撮像画像に作業機械40又はその周囲に少なくとも部分的に重畳した合成画像を生成する。
 具体的には、支援処理要素101は、例えば、第2撮像装置60によって撮像された図6の左側画像出力装置2211に表示された第2撮像画像に指標画像I2を重畳した合成画像を生成する。さらに、支援処理要素101は、メインカメラ412によって撮像された図6の下側画像出力装置2213に表示されているメイン画像に指標画像I3を重畳した合成画像を生成する。
 例えば、第2撮像画像に基づいて認識された下部走行体430の前後方向を示す指標画像を第1撮像画像に重畳させる場合には、次のようにするとよい。図7に示すように、支援処理要素101は、上述のSTEP102の処理によって、実空間におけるクローラ430bの前進方向のベクトルB1を得る。
 例えば、支援処理要素101は、当該ベクトルB1について座標変換を行うことにより、第1撮像画像座標系におけるベクトルB2を求めうる。
 具体的には、第2撮像画像座標系から第1撮像画像座標系への座標変換を表わす回転行列R及び並進行列Tに基づき、実空間座標系を基準としたクローラ430bの前進方向のベクトルB=RB+Tが計算される。回転行列R及び並進行列Tは、予めデータベース110に保存されている。回転行列R及び並進行列Tは、数学的にこれと等価なクォータニオンによって定義されていてもよい。
 実空間におけるベクトルB1の始点が、第1撮像画像座標系に座標変換された結果としての点位置S1’が求められる。
 第1撮像画像座標系を基準としたベクトルB1の始点は、ベクトル^p1’=DS1’^e’(S1’)により表わされる。「^」はベクトルを意味する(以下同じ。)。「^e’(S1’)」は、第1撮像画像座標系のピクセル位置S1’を通る第1撮像装置50の視線方向を示す単位ベクトルである。
 同様にして、実空間におけるベクトルB1の終点が、第1撮像画像座標系に座標変換された結果としての点位置S2’が求められる。
 第1撮像画像座標系を基準としたベクトルB1の終点は、ベクトル^p2’=DS2’^e’(S2’)により表わされる。「^」はベクトルを意味する(以下同じ。)。「^e’(S2’)」は、第1撮像画像座標系のピクセル位置S2’を通る第1撮像装置50の視線方向を示す単位ベクトルである。
 同様にして、支援処理要素101は、当該ベクトルB1について座標変換を行うことにより、第2撮像画像座標系におけるベクトルB3を求めることができる。
 実空間におけるベクトルB1の始点が、第2撮像画像座標系に座標変換された結果としての点位置S1”が求められる。
 第2撮像画像座標系を基準としたベクトルB1の始点は、ベクトル^p1”=DS1”^e’(S1”)により表わされる。「^」はベクトルを意味する(以下同じ。)。「^e”(S1”)」は、第1撮像画像座標系のピクセル位置S1”を通る第2撮像装置60の視線方向を示す単位ベクトルである。
 同様にして、実空間におけるベクトルB1の終点が、第2撮像画像座標系に座標変換された結果としての点位置S2”が求められる。
 第1撮像画像座標系を基準としたベクトルB1の終点は、ベクトル^p2”=DS2”^e”(S2”)により表わされる。「^」はベクトルを意味する(以下同じ。)。「^e”(S2”)」は、第1撮像画像座標系のピクセル位置S2”を通る第2撮像装置60の視線方向を示す単位ベクトルである。
 第1撮像画像座標系において当該座標位置S1’及びS2’(図7白丸参照)は、一般的にピクセル位置S0’(図7黒丸参照)に一致しない。このため、最近傍点補間法、双線形補間法又はバイキュービックスプライン法など、公知の補間方法にしたがって、基準画像座標系の各ピクセル位置S0’に対して、座標位置S0”に対応する距離ZS”に基づいて定まる距離(実点距離)Zsが割り当てられる。
 このようにして、実空間座標系のベクトルB1が、第1撮像画像座標系に座標変換された結果としてのベクトルB2が求められる。尚、このような合成画像の生成は、同様にして、下部走行体430の前後方向を示す指標画像をメイン画像に重畳させることができる。
 遠隔操作装置20は、受信した合成画像を、画像出力装置221に表示する(STEP202)。尚、合成画像は、画像出力装置221の任意の画像出力装置に表示させることができ、例えば、中央画像出力装置2210、左側画像出力装置2211、右側画像出力装置2212、下側画像出力装置2213のいずれの画像出力装置に表示させてもよい。
 例えば、図6に示す表示例においては、中央画像出力装置2210は、左右に2分割された画面の領域を有し、左側の画面の領域にはアタッチカメラ412bによって撮像されたバケット465の拡大画像が表示されている。また、中央画像出力装置2210の右側の画面領域には、後方カメラ412cによって撮像された後方画像が表示されている。
 右側画像出力装置2212には、第1撮像装置50によって撮像された第1撮像画像に指標画像I1が重畳された合成画像が表示されている。
 左側画像出力装置2211には、第2撮像画像60によって撮像された第2撮像画像に指標画像I2が重畳された合成画像が表示されている。
 下側画像出力装置2213には、メインカメラ412aによって撮像されたメイン画像に指標画像I3が重畳された合成画像が表示されている。
 尚、指標画像I1,I2,I3の表示態様は、下部走行体430の前方方向を示すものに限られず、例えば、下部走行体430の後退方向を示していてもよい。また、指標画像I1,I2,I3は、下部走行体430の前進方向及び後退方向を示す両矢印で示されてもよい。このように、指標画像I1,I2,I3を両矢印で示した場合、前進方向及び後退方向を相互に識別可能な態様で示すとよい。例えば、指標画像I1,I2,I3を両矢印で示す場合、前進方向を示し、後退方向を破線で示すとよい。
 また、合成画像における指標画像は、重畳させる画像に映り込んでいるクローラ430a,430bの位置、大きさ等に応じて、適宜サイズ等を調整するとよい。例えば、図8に示すように、右側画像出力装置2212の第1撮像画像に映っている作業機械40よりも、左側画像出力装置2211の第2撮像画像に映っている作業機械40の方が小さい場合、第2撮像画像のクローラ430a,430bの大きさや、幅に応じて指標画像I2のサイズを指標画像I1よりも小さく調整して重畳させるとよい。
 このように、支援処理要素101は、指標画像I1,I2,I3を合成画像におけるクローラ430a,430bのサイズ及び合成画像におけるクローラ430a,430bの位置に応じて生成するようにするとよい。
 尚、複数の作業機械40が互いに近接して配置されている場合は、操作対象となる作業機械40を特定した上で上記の作業支援処理を行うとよい。
 例えば、図9に示すように、作業支援システムは、遠隔操作装置20の起動をトリガーとして、作業支援処理を開始する。オペレータによって、例えば、遮断レバーがOFFにされると、遠隔操作装置20は、操作信号を作業支援サーバ10に送信する(STEP211)。
 作業支援サーバ10は、操作信号を受信すると、操作対象となる作業機械40に対して実空間の位置情報の送信を要求する(STEP111)。
 作業機械40は、実空間の位置情報送信要求を受信すると、GNSS(Global Navigation Satellite System)を通じて実空間の位置情報を取得し(STEP411)、作業支援サーバ10に実空間の位置情報及び、自身の作業機械の識別情報である号機情報(例えば、A号機等の識別記号、製造番号等の識別番号等)と共に送信する(STEP412)。
 作業支援サーバ10は、実空間の位置情報を受信すると、作業機械40の周囲に配置されている撮像装置の実空間の位置情報を参照して作業機械40を撮像可能な撮像装置を選択し、当該選択によって選択された1の撮像装置である、例えば、第1撮像装置50に対して画像送信要求を送信する(STEP112)。
 第1撮像装置50は、画像送信要求を受信すると、撮像した第1撮像画像を作業支援サーバ10に送信する(STEP511)。
 作業支援サーバ10の支援処理要素101は、第1撮像画像を受信すると、予めデータベース110に登録されている第1撮像装置50の実空間の設置位置及び、第1撮像画像に映り込んでいる作業機械40の位置に基づいて、作業機械40の実空間の位置を推定する(STEP113)。
 作業支援サーバ10の支援処理要素101は、作業機械40から送信された実空間の位置情報と、STEP113において推定した作業機械40の実空間の位置(位置情報)が一致しているか否かを判定する(STEP114)。
 STEP114における判定は、例えば、支援処理要素101が、第1撮像装置50の実空間の位置情報と、第1撮像装置50の光軸方向とを、取得する。支援処理要素101は、第1撮像装置50の光軸方向に基づいて、第1撮像装置50の設置位置からみた作業機械40が配置されている方向を推定する。支援処理要素101は、当該推定した作業機械40の方向における実空間の位置情報を所定の範囲内(例えば、第1撮像装置50から200m以内、かつ当該方向の中心から半径20m以内)で算出する。支援処理要素101は、当該算出した複数の実空間の位置情報に、作業機械40から送信された実空間の位置情報と一致する位置情報が含まれているか否かによって判定する。
 支援処理要素101は、STEP114において、2つの位置情報が一致すると判定した場合(STEP114:YES)、当該作業機械40を操作対象となる作業機械40として認識し(STEP115)、合成画像を遠隔操作装置20に送信する(STEP116)。
 すなわち、支援処理要素101は、操作対象の候補となる作業機械40の実空間の位置情報を取得し、かつ第1撮像画像から算出される作業機械40の位置及び、操作対象の候補となる作業機械40の実空間の位置情報が合致する場合、操作対象の候補となる作業機械40を操作対象となる作業機械40として認識する。
 遠隔操作装置20は、受信した合成画像を、画像出力装置221に表示する(STEP212)。
 また、支援処理要素101は、STEP114において、2つの実空間の位置情報が一致しないと判定した場合(STEP114:NO)、STEP112に戻り、STEP114において、2つの実空間の位置情報が一致するまで処理が繰り返される。
 以上の実施例1の説明では、作業支援サーバ10によって作業支援処理が実行される説明をした。しかし、作業支援処理は、遠隔操作装置20によって行われてもよいし、作業機械40によって行われてもよい。
 以上の実施例1の説明では、支援処理要素101は、STEP102の処理において、第1撮像画像に下部走行体430の指定構成要素である駆動部材431が映っていない場合、第2撮像画像から前後方向を推定するようにしていたが、これに限られない。例えば、第1撮像画像において、クローラ430a,430bを側方から見た際の当該クローラ430a,430bの前後方向において指定構成要素が配されていない側を前方として推定するようにしてもよい。具体的には、支援処理要素101は、第1撮像画像に下部走行体430の前後方向に偏在した箇所(クローラ430a,430bの前後方向において指定構成要素が配されていない側の端部)が映っている場合であって、下部走行体430の指定構成要素である駆動部材431が映っていない場合、クローラ430a,430bを側方から見た際の当該クローラ430a,430bの前後方向において当該偏在した箇所が位置する側(駆動部材431がない側)を第1撮像画像おける下部走行体430のクローラ430a、430bの前進方向として推定するようにしてもよい。こうすることで、第1撮像画像において駆動部材431等の指定構成要素が障害物等により隠れていることで映っていない場合であっても、当該前後方向を推定することができる。
 また、支援処理要素101は、データベース110に格納された、予め機械学習(例えば、教師あり学習)によって構築された学習モデルを用いて、クローラ430a、430bの後退方向として推定することができる旨を説明した。クローラ430a,430bの前後方向の推定は、このような態様に限られず、例えば、支援処理要素101は、クローラ430a,430bを側方から見た際の当該クローラ430a,430bの見かけ上の形状に基づいて下部走行体430の前進方向又は後退方向のベクトルの傾きを認識するようにしてもよい。
 具体的には、支援処理要素101は、図10のように、第1撮像画像において、クローラ430a,430bのどちらかの側方のみが映り込んでいる場合には第1撮像装置50の光軸AX1に対して垂直な方向に当該ベクトルの傾きがあると認識する。
 また、図11のように、第1撮像画像において、クローラ430a,430bの両方を認識しクローラ430aの一端側に重なるように映り込んでいる(一方のクローラ430aの外側の側面と、他方のクローラ430bの内側の側面が映り込んでいる)場合には、第1支援処理要素1011は第1撮像装置50の光軸AX1に対して傾きがあるベクトルであると認識する。
 具体的には、図11に示される例においては、第1支援処理要素1011は、第1撮像装置50の光軸AX1方向から見てクローラ430aとクローラ430bとが重なる一端側(図11の第1撮像画像において、右側であり、クローラ430a及びクローラ430bの延在方向の一端側)が第1撮像装置50の光軸AX1に対して比較的手前側(図11の第1撮像画像において、下側)に位置し、クローラ430aの一端側の反対側である他端側(図11の第1撮像画像において、左側であり、クローラ430a及びクローラ430bの延在方向の他端側)が第1撮像装置50の光軸に対して比較的奥側(図11の第1撮像画像において、上側)に位置するように当該ベクトルの傾きがあると認識する。
 図12のように、第1撮像画像において第1支援処理要素1011がクローラ430a,430bの両方を認識しかつクローラ430a,430bが重ならないように映り込んでいる場合(クローラ430a、430bの正面方向又は背面方向が映り込んでいる場合)には、第1支援処理要素1011は、第1撮像装置50の光軸AX1に沿う方向又は当該光軸AX1と反対の方向に沿う方向に当該ベクトルの傾きがあると認識する。
 第1支援処理要素1011は、以上のような処理を行うことによってクローラ430a、430bの後退方向として推定することができる。 
 (実施例2)
 (遠隔操作システムの構成)
 図13に示されている本発明の一実施形態としての作業支援システムは、遠隔操作装置20による複数の作業機械40の遠隔操作を支援するための作業支援サーバ10により構成されている。作業支援サーバ10と、遠隔操作装置20、複数の作業機械40のそれぞれとは共通のまたは別個のネットワークを介して相互に通信可能に構成されている。尚、本図においては、作業支援サーバ10は、複数の作業機械40と接続可能にされているが、作業支援サーバ10は1台以上の作業機械40と接続可能であればよく、その接続台数に制限はない。
 実施例2は、作業支援サーバ10を、複数の作業機械40と、当該複数の作業機械40のうち遠隔操作対象となる一の作業機械40を遠隔操作するための遠隔操作装置20と、のそれぞれとの相互通信機能を有する遠隔操作システムである。
 本発明の構成要素(ハードウェア)が、各種情報を「取得する」とは、当該情報を受信すること、当該情報を内部記憶装置(例えば、メモリ)および/または外部記憶装置(例えば、外部のデータベースサーバ)から読み取るまたは検索すること、受信、読み取り、検索等された情報を対象にして演算処理を実行することにより情報を算定、推定、予測、同定等すること、など、各種情報を後続の演算処理において利用可能な形態で準備するためのあらゆる演算処理を包含する概念である。
 (作業支援サーバの構成)
 作業支援サーバ10は、第1支援処理要素1011及び、第1支援処理要素1012を含む遠隔操作支援装置100と、データベース110と、サーバ無線通信機器122と、を備えている。
 第1支援処理要素1011及び第1支援処理要素1012は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアに従った後述の演算処理を実行する。
 データベース110は、撮像画像データ等を記憶保持する。データベース110は、作業支援サーバ10とは別個のデータベースサーバにより構成されていてもよい。
 (遠隔操作装置の構成)
 遠隔操作装置20は、遠隔制御装置200と、遠隔入力インターフェース210と、遠隔出力インターフェース220と、を備えている。遠隔制御装置200は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった演算処理を実行する。
 遠隔入力インターフェース210は、遠隔操作機構211及び第6撮像装置212を備えている。
 遠隔操作機構211には、走行用操作装置と、旋回用操作装置と、ブーム用操作装置と、アーム用操作装置と、バケット用操作装置と、オペレータによる操作の受付状態を切り替える油圧ロックレバー(遮断レバー)と、が含まれている。各操作装置は、回動操作を受ける操作レバーを有している。走行用操作装置の操作レバー(走行レバー)は、作業機械40の左右一対のクローラを備える下部走行体430を動かすために操作される。走行レバーは、走行ペダルを兼ねていてもよい。例えば、走行レバーの基部または下端部に固定されている走行ペダルが設けられていてもよい。旋回用操作装置の操作レバー(旋回レバー)は、作業機械40の旋回機構440を構成する油圧式の旋回モータを動かすために操作される。ブーム用操作装置の操作レバー(ブームレバー)は、作業機械40のブームシリンダ462を動かすために操作される。アーム用操作装置の操作レバー(アームレバー)は作業機械40のアームシリンダ464を動かすために操作される。バケット用操作装置の操作レバー(バケットレバー)は作業機械40のバケットシリンダ466を動かすために操作される。遮断レバーは、作業機械40のパイロット圧弁の状態を切り替えるために操作される。
 遠隔操作機構211を構成する各操作レバーは、例えば、図14に示されているように、オペレータOP1が着座するためのシートStの周囲に配置されている。シートStは、アームレスト付きのハイバックチェアのような形態であるが、ヘッドレストがないローバックチェアのような形態、または、背もたれがないチェアのような形態など、オペレータOP1が着座できる任意の形態の着座部であってもよい。
 シートStの前方に左右のクローラに応じた左右一対の走行レバー2110が左右横並びに配置されている。一つの操作レバーが複数の操作レバーを兼ねていてもよい。例えば、図14に示されているシートStの左側フレームの前方に設けられている左側操作レバー2111が、前後方向に操作された場合にアームレバーとして機能し、かつ、左右方向に操作された場合に旋回レバーとして機能してもよい。同様に、図14に示されているシートStの右側フレームの前方に設けられている右側操作レバー2112が、前後方向に操作された場合にブームレバーとして機能し、かつ、左右方向に操作された場合にバケットレバーとして機能してもよい。レバーパターンは、オペレータOP1の操作指示によって任意に変更されてもよい。
 シートStの左側フレームの前方において左側操作レバー2111の下方に設けられている遮断レバー2113は、上げられた(OFFにされた)場合に各操作レバー2110、2111、2112が操作されても作業機械40が動かないようにロックする一方、下げられた(ONにされた)場合に当該ロックを解除するための操作レバーとして機能する。
 遠隔出力インターフェース220は、遠隔画像出力装置221と、遠隔無線通信機器222とを備えている。
 遠隔画像出力装置221は、例えば図14に示されているように、シートStの前方、左斜め前方および右斜め前方のそれぞれに配置された略矩形状の画面を有する中央遠隔画像出力装置2210、左側遠隔画像出力装置2211および右側遠隔画像出力装置2212により構成されている。中央遠隔画像出力装置2210、左側遠隔画像出力装置2211および右側遠隔画像出力装置2212のそれぞれの画面(画像表示領域)の形状およびサイズは同じであってもよく相違していてもよい。
 中央遠隔画像出力装置2210、左側遠隔画像出力装置2211および右側遠隔画像出力装置2212のそれぞれの画面は、鉛直方向に対して平行であってもよく、鉛直方向に対して傾斜していてもよい。中央遠隔画像出力装置2210、左側遠隔画像出力装置2211および右側遠隔画像出力装置2212のうち少なくとも1つの画像出力装置が、複数に分割された画像出力装置により構成されていてもよい。例えば、中央遠隔画像出力装置2210が、略矩形状の画面を有する上下に隣接する一対の画像出力装置により構成されていてもよい。
 遠隔音響出力装置222は、一または複数のスピーカーにより構成され、例えば図14に示されているように、シートStの後方、左アームレスト後部および右アームレスト後部のそれぞれに配置された中央遠隔音響出力装置2220、左側遠隔音響出力装置2221および右側遠隔音響出力装置2222により構成されている。中央遠隔音響出力装置2220、左側遠隔音響出力装置2221および右側遠隔音響出力装置2222のそれぞれの仕様は同じであってもよく相違していてもよい。
 第6撮像装置212は、例えば、シートSt及び遠隔操作機構211を撮像可能に設けられている。第6撮像装置212は、本実施例2においては、図14にも示すように、中央遠隔画像出力装置2210の上端側において、光軸をシートStに向けて設けられている。すなわち、第6撮像装置212は、オペレータOP1がシートStに着座した際に、遠隔操作機構211の操作するためのオペレータOP1の動作を撮像可能に設置されている。
 (作業機械の構成)
 図13に示されているように、作業機械40は、実機制御装置400と、実機入力インターフェース410と、実機出力インターフェース420と、を備えている。実機制御装置400は、演算処理装置(シングルコアプロセッサまたはマルチコアプロセッサもしくはこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータおよびソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがった演算処理を実行する。
 作業機械40は、例えば、油圧式、電動式または油圧式および電動式が組み合わされたハイブリッド駆動式のクローラショベル(建設機械)であり、図15に示されているように、左右一対のクローラを備える下部走行体430と、下部走行体430に旋回機構440を介して旋回可能に搭載されている上部旋回体450と、を備えている。上部旋回体450の前方左側部にはキャブ454(運転室)が設けられている。上部旋回体450の前方中央部には作動機構460が設けられている。 
 図18Bにも示すように、作業機械40の一対のクローラ430a、430bのそれぞれの前方には指定構成要素としての第1マーカM1が設けられている。また、図22Cにも示すように、作業機械40の一対のクローラ430a、430bのそれぞれの後方には指定構成要素としての第2マーカM2が設けられている。
 第1マーカM1及び第2マーカM2は、互いに識別可能なマーカであればよく、例えば、前後情報を保持した二次元コード、〇、△等の図形、記号等であってもよい。また、第1マーカM1及び第2マーカM2は、互いに識別可能なマーカであれば、例えば、クローラから外方に突出して形成されているステップ(オペレータがキャブ454に乗り込む際に足をかけるためのステップ)、凸部等や、クローラから凹んで形成されている凹部等の立体的形状であってもよい。例えば、第1マーカM1及び第2マーカM2に泥等によって覆われた場合、記号、図形等を画像認識させることが困難であるが、立体的形状であれば、その立体形状に応じた形態が表れていれば、画像認識させることができる。
 すなわち、第1マーカM1及び第2マーカM2は、一対のクローラ430a、430bのそれぞれの前後方向のそれぞれに偏在して配置され、相互に形態が異なる。尚、第1マーカM1及び、第2マーカM2は、を画像データとしてデータベース110記憶されている。
 実機入力インターフェース41は、実機操作機構411と、第4撮像装置412d、412eと、第5撮像装置412fと、を備えている。実機操作機構411は、キャブ454の内部に配置されたシートの周囲に遠隔操作機構211と同様に配置された複数の操作レバーを備えている。
 遠隔操作レバーの操作態様に応じた信号を受信し、当該受信信号に基づいて実機操作レバーを動かす駆動機構またはロボットがキャブ454に設けられている。
 第4撮像装置(以後、足元カメラとも称される)412dは、図15にも示すように、上部旋回体450に設けられ、かつ下部走行体430の少なくとも一方のクローラを撮像領域に含むよう設けられている。本実施例2において、足元カメラ412dは、上部旋回体450のキャブ454の底面(外壁面)に設けられている。具体的には、足元カメラ412dは、キャブ454のフロントウィンドウが設けられている正面方向に受光素子(撮像方向)を向けてキャブ454の底面(外壁面)に設けられている。尚、足元カメラ412dは、例えば、ブームフットの基端側等に設けられていてもよい。
 第4撮像装置は、上部旋回体450の下部走行体430に対する旋回方向において相互に異なる方向に向けて複数配置されることが好ましい。本実施例2においては、足元カメラ412dとは別に、第4撮像装置(以後、左カメラとも称される)412eが設けられている。足元カメラ412dと左カメラ412eとは、互いに光軸が異なる方向に設置されている。左カメラ412eは、足元カメラ412dの撮像領域に入らない領域を撮像領域とすることがさらに好ましい。
 言い換えれば、足元カメラ412d及び左カメラ412eのうち少なくとも一方が、上部旋回体450の下部走行体430に対する角度がいずれの角度であっても、第1マーカM1及び第2マーカM2のうち少なくとも一方を撮像領域に含むように足元カメラ412d及び左カメラ412eが設けられている。例えば、足元カメラ412dと左カメラ412eとは、互いの光軸方向のなす角度が約90°であることが好ましい。本実施例2においては、左カメラ412eは、キャブ454の左側のサイドウィンドウが設けられている方向に受光素子(撮像方向)を向けてキャブ454の外壁面に設けられている。
 尚、左カメラ412eは、例えば、キャブ454の右側のサイドウィンドウが設けられている方向に受光素子(撮像方向)を向けてキャブ454の外壁面に設けられているようにしてもよい。また、左カメラ412eは、キャブ454の屋根に設けられていてもよいし、キャブ454の室内から外部(例えば、右側方、左側方)を撮影可能に設けられてもよい。
 第5撮像装置412f(以後、メインカメラとも称される)は、足元カメラ412d及び、左カメラ412eとは別個に上部旋回体450に設けられている。メインカメラ412fは、例えばキャブ454の内部に設置され、フロントウィンドウおよび左右一対のサイドウィンドウ越しに作動機構460の少なくとも一部を含む環境を撮像する。当該撮像画像には、フロントウィンドウ(またはウィンドウフレーム)およびサイドウィンドウのうち一部または全部が省略されていてもよい。
 実機状態センサ群414は、上部旋回体450に対するブーム461の回動角度(起伏角度)、ブーム461に対するアーム463の回動角度、および、アーム463に対するバケット465の回動角度のそれぞれを測定するための角度センサ、下部走行体430に対する上部旋回体450の旋回角度を測定するための旋回角度センサ、バケット465に対して作用する外力を測定するための外力センサ、上部旋回体450に作用する3軸加速度を測定するための3軸加速度センサ等により構成されている。
 実機出力インターフェース42は、実機画像出力装置421と、実機無線通信機器422と、を備えている。実機画像出力装置421は、例えば、キャブ454の内部であってフロントウィンドウの近傍に配置されている。実機画像出力装置421は、省略されていてもよい。また、実機無線通信機器422は、作業支援サーバ10および作業機械40との間で無線通信を実行する。
 作動機構としての作動機構460は、上部旋回体450に起伏可能に装着されているブーム461と、ブーム461の先端に回動可能に連結されているアーム463と、アーム463の先端に回動可能に連結されているバケット465と、を備えている。作動機構460には、伸縮可能な油圧シリンダにより構成されているブームシリンダ462、アームシリンダ464およびバケットシリンダ466が装着されている。作業部として、バケット465のほか、ニブラ、カッター、マグネットなど、さまざまなアタッチメントが用いられてもよい。
 ブームシリンダ462は、作動油の供給を受けることにより伸縮してブーム461を起伏方向に回動させるように当該ブーム461と上部旋回体450との間に介在する。アームシリンダ464は、作動油の供給を受けることにより伸縮してアーム463をブーム461に対して水平軸回りに回動させるように当該アーム463と当該ブーム461との間に介在する。バケットシリンダ466は、作動油の供給を受けることにより伸縮してバケット465をアーム463に対して水平軸回りに回動させるように当該バケット465と当該アーム463との間に介在する。
 図16は、上記の作業支援サーバ10、遠隔操作装置20、作業機械40の連携により発揮される作業支援システムの作業支援処理について示すフローチャートである。
 作業支援システムは、遠隔操作装置20の起動をトリガーとして、作業支援処理を開始する。オペレータによって、例えば、遮断レバー2113がOFFにされると、遠隔操作装置20は、操作信号を作業支援サーバ10に送信する(STEP221)。
 作業支援サーバ10は、操作信号を受信すると、遠隔操作装置20の操作対象である作業機械40に対して画像の送信を要求する(STEP121)。
 作業機械40は、画像送信要求を受信すると、第4撮像装置412d,412e、第5撮像装置412fによって撮像された画像(第4撮像画像、第5撮像画像)を作業支援サーバ10に送信する(STEP421)。
 作業支援サーバ10の第1支援処理要素1011は、第4撮像装置412d,412e、第5撮像装置412fによって撮像された画像(第4撮像画像、第5撮像画像)を受信すると、第4撮像装置412d,412eによって撮像された第4撮像画像における、一対のクローラ430a,430bのそれぞれの前後方向のそれぞれに偏在して配置された、相互に形態が異なり、かつ一対のクローラの前方に設けられている第1マーカM1及び、一対のクローラ430a,430bの後方に設けられている第2マーカM2のそれぞれの映り込み態様に基づいて、下部走行体430の前進方向又は後退方向を認識する(前後方向推定処理)(STEP122)。
 第1支援処理要素1012は、第1支援処理要素1011によって認識された下部走行体430の前進方向又は後退方向を表す指標画像を生成する(STEP123)。
 また、第1支援処理要素1012は、指標画像を、第4撮像画像の作業機械40又はその周囲に少なくとも部分的に重畳した合成画像を生成し(STEP124)、遠隔操作装置20に送信する(STEP125)。
 例えば、第1支援処理要素1012は、足元カメラ412dによって撮像された図18B~10Bの第4撮像画像(以後、足元画像とも称する)に指標画像I1を重畳した合成画像を生成する。また、第1支援処理要素1012は、例えば、左カメラ412eによって撮像された図22Cの第4撮像画像(以後、左画像とも称する)に指標画像I1を重畳した合成画像を生成する。さらに、第1支援処理要素1012は、メインカメラ412fによって撮像された図18C~9C、図22Dの第5撮像画像(以後、メイン画像とも称する)に指標画像I2を重畳した合成画像を生成する。
 すなわち、第1支援処理要素1012は、第1支援処理要素1011によって認識された上部旋回体450の下部走行体430に対する旋回角度に対応した角度で、指標画像I1,I2を第4撮像画像(足元画像、左画像)及び、メイン画像のうち、少なくとも1つの撮像画像に作業機械40又はその周囲に少なくとも部分的に重畳した合成画像を生成する。
 具体的には、第1支援処理要素1011は、第4撮像装置(足元カメラ、左カメラ)412d,412eの撮像方向に対する左右のクローラ430a,430bの傾斜角度等及び、第4撮像画像(足元画像、左画像)に映っている第1マーカM1並びに第2マーカM2の別によって、上部旋回体450の下部走行体430に対する旋回角度を認識する。第2支援処理要素は、例えば、第4撮像装置(足元カメラ、左カメラ)412d,412eの撮像方向に対する左右のクローラ430a,430bの傾斜角度に対応して指標画像I1,I2を重畳させて合成画像を生成できる。
 遠隔操作装置20は、受信した合成画像を、例えば、中央遠隔画像出力装置2210に表示する(STEP222)。尚、合成画像は、中央遠隔画像出力装置2210以外に表示させてもよく、例えば、左側遠隔画像出力装置2211、右側遠隔画像出力装置2212等の画像出力装置に表示させてもよい。
 STEP122の第4撮像画像における第1マーカ又は、第2マーカの映りこみ態様に基づいて、下部走行体430の前進方向又は後退方向を認識する前後方向推定処理について説明する。
 図17に示すように、第1支援処理要素1011は、足元画像に第1マーカM1又は第2マーカM2が映っているか否かを判定する(STEP231)。
 STEP231の判定は、例えば、データベース110にあらかじめ記録された第1マーカM1の画像データ(意匠のデータ)及び第2マーカM2の画像データ(意匠のデータ)を参照し、当該第1マーカM1の画像データ(意匠のデータ)又は、第2マーカM2の画像データ(意匠のデータ)に一致する意匠が足元画像に含まれているか否かに基づいて行われる。
 具体的には、第1支援処理要素1011は、足元画像に映り込んでいる第1マーカM1の意匠(又は、第2マーカM2の意匠)に対してアスペクト比を用いて補正を行った後に、データベース110に記録されている第1マーカM1(又は、第2マーカM2)の画像データとの類似度を算出する。第1支援処理要素1011は、当該類似度が所定値以上の場合を第1マーカM1(又は、第2マーカM2)が足元画像に含まれていると判定する。
 STEP231の判定は、このような判定手法に限られず、例えば、上部旋回体450の下部走行体430に対する角度に応じた足元画像の第1マーカM1並びに第2マーカM2の複数の画像データ及び、左画像の第1マーカM1並びに第2マーカM2の複数の画像データを予めデータベース110に記録させておく。第1支援処理要素1011は、当該複数の画像データと、作業機械40から送信された足元画像及び左画像の画像データを比較することによって、第1マーカM1及び第2マーカM2が足元画像又は左画像に含まれているか否かを判定するようにしてもよい。
 第1支援処理要素1011は、STEP231の判定において、足元画像に第1マーカM1又は第2マーカM2が映っていると判定すると(STEP231:YES)、そのマーカが第1マーカM1であるか否かを判定する(STEP232)。
 STEP232の判定は、例えば、第1支援処理要素1011が、STEP231の判定において一致すると判定した画像に基づいて行われる。
 第1支援処理要素1011は、STEP232の判定において、足元画像に映っているマーカが第1マーカM1である判定すると(STEP232:YES)、足元画像に映っている第1マーカM1の数が1つであるか否かを判定する(STEP233)。
 STEP233の判定は、例えば、第1支援処理要素1011が、STEP231の判定において一致すると判定した画像の数に基づいて行われる。
 第1支援処理要素1011は、足元画像に映っている第1マーカM1の数が1つではないと判定した場合(STEP233:NO)、上部旋回体450の下部走行体430に対する旋回角度を0±α°として認識する(STEP234)。言い換えれば、第1支援処理要素1011は、キャブ454のフロントウィンドウが設けられている正面方向と、下部走行体430の前進方向が一致すると判定する。
 ここで、αは、0°を中心として、足元画像に2つの第1マーカM1が映っている角度の範囲である。角度αは、第4撮像装置412dに用いられているレンズの画角(広角レンズ、魚眼レンズ等)、下部走行体430の一対のクローラ430a、430bの離間距離等に応じて適宜設定することができる。尚、第1支援処理要素1011は、下部走行体430の後退方向については、前進方向とは反対側の方向を後退方向として認識する。
 例えば、図18Aに示すように、作業機械40の下部走行体430の前進方向と、上部旋回体450の正面方向が一致している場合、図18Bに示される足元画像には、左右一対のクローラ430a、430bと、各々のクローラ430a、430bに設けられた2つの第1マーカM1と、が映る。したがって、第1支援処理要素1011は、足元画像に2つの第1マーカM1映り込んでいるこのような場合に、キャブ454のフロントウィンドウが設けられている正面方向と、下部走行体430の前進方向が一致すると判定する。尚、第1支援処理要素1012は、上述のSTEP124の合成画像生成理で説明したように、図18Bに示すように、当該角度の応じた指標画像I1を足元画像に重畳させ、かつ図18Cに示すように、指標画像I2をメイン画像に重畳させる。
 すなわち、第1支援処理要素1011は、上部旋回体450の下部走行体430に対する旋回に応じて変化する一対のクローラ430a、430bの足元画像における映り込み態様と、第1マーカM1及び、第2マーカM2のそれぞれの足元画像における映り込み態様と、に基づく、上部旋回体450の下部走行体430に対する旋回角度を認識する。尚、第1支援処理要素1011は、実機状態センサ群414の旋回角度センサによって取得された旋回データを参照して当該旋回角度を認識するようにしてもよい。
 第1支援処理要素1011は、足元画像に映っている第1マーカの数が1つであると判定すると(STEP233:YES)、足元画像に映っている第1マーカが付されているクローラが右クローラ430aか否かを判定する(STEP235)。
 例えば、第1支援処理要素1011は、上部旋回体450の下部走行体430に対する角度に応じた足元画像の右クローラ430a並びに、左クローラ430bの複数の画像データ及び、左画像の右クローラ430a並びに、左クローラ430bの複数の画像データを予めデータベース110に記録させておく。第1支援処理要素1011は、当該複数の画像データと、作業機械40から送信された足元画像及び左画像の画像データを比較することによって、右クローラ430aが足元画像又は左画像に含まれているか否かを判定する。
 第1支援処理要素1011は、足元画像に映っているクローラが右クローラ430aであると判定すると(STEP235:YES)、上部旋回体450の下部走行体430に対する旋回角度を45±α°として認識する(STEP236)。言い換えれば、第1支援処理要素1011は、キャブ454の正面方向が、下部走行体430の前進方向に対してなす角度が45±α°であると判定する。すなわち、第1支援処理要素1011は、キャブ454の正面方向に対して、下部走行体430は45°の方向を前進方向として認識する。
 例えば、図19Aに示すように、上部旋回体450の正面方向が下部走行体430の前進方向に対して45±α°の角度をなす場合、図19Bに示される足元画像には、例えば、右のクローラ430aと、右のクローラ430aに設けられた1つの第1マーカM1と、が映る。したがって、第1支援処理要素1011は、足元画像に右のクローラ430a及び、1つの第1マーカM1が映り込んでいるこのような場合に、キャブ454のフロントウィンドウが設けられている正面方向が、下部走行体430の前進方向に対して45±α°の角度をなすと判定する。尚、第1支援処理要素1012は、上述のSTEP124の合成画像生成理で説明したように、図19Bに示すように、当該角度の応じた指標画像I1を足元画像に重畳させ、かつ図19Cに示すように、指標画像I2をメイン画像に重畳させる。
 第1支援処理要素1011は、足元画像に映っているクローラが左クローラ430bであると判定すると(STEP235:NO)、上部旋回体450の下部走行体430に対する旋回角度を315±α°として認識する(STEP237)。言い換えれば、第1支援処理要素1011は、キャブ454の正面方向が、下部走行体430の前進方向に対してなす角度が315±α°であると判定する。すなわち、第1支援処理要素1011は、キャブ454の正面方向に対して、下部走行体430は315±α°の方向を前進方向として認識する。
 例えば、図20Aに示すように、上部旋回体450の正面方向が下部走行体430の前進方向に対して315±α°の角度をなす場合、図20Bに示される足元画像には、例えば、左のクローラ430bと、左のクローラ430bに設けられた1つの第1マーカM1と、が映る。したがって、第1支援処理要素1011は、足元画像に左のクローラ430b及び、1つの第1マーカM1映り込んでいるこのような場合に、キャブ454のフロントウィンドウが設けられている正面方向が、下部走行体430の前進方向に対して315°の角度をなすと判定する。尚、第1支援処理要素1012は、上述のSTEP124の合成画像生成理で説明したように、図20Bに示すように、当該角度の応じた指標画像I1を足元画像に重畳させ、かつ図20Cに示すように、指標画像I2をメイン画像に重畳させる。
 第1支援処理要素1011は、STEP232の判定において、足元画像に映っているマーカが第2マーカである判定すると(STEP232:NO)、足元画像に映っている第2マーカM2の数が1つであるか否かを判定する(STEP238)。
 第1支援処理要素1011は、足元画像に映っている第2マーカM2の数が1つではないと判定した場合(STEP238:NO)、上部旋回体450の下部走行体430に対する旋回角度を180±α°として認識する(STEP239)。言い換えれば、第1支援処理要素1011は、キャブ454のフロントウィンドウが設けられている正面方向と、下部走行体430の前進方向とが反対の関係にあると判定する。 
 第1支援処理要素1011は、足元画像に映っている第2マーカM2の数が1つであると判定すると(STEP238:YES)、足元画像に映っている第2マーカM2が付されているクローラが右クローラ430aか否かを判定する(STEP240)。
 第1支援処理要素1011は、足元画像に映っているクローラが右クローラ430aであると判定すると(STEP240:YES)、上部旋回体450の下部走行体430に対する旋回角度を135±α°として認識する(STEP241)。言い換えれば、第1支援処理要素1011は、キャブ454の正面方向が、下部走行体430の前進方向に対してなす角度が135±α°であると判定する。すなわち、第1支援処理要素1011は、キャブ454の正面方向に対して、下部走行体430は135±α°の方向を前進方向として認識する。
 第1支援処理要素1011は、足元画像に映っているクローラが左クローラ430bであると判定すると(STEP240:NO)、上部旋回体450の下部走行体430に対する旋回角度を225±α°として認識する(STEP242)。言い換えれば、第1支援処理要素1011は、キャブ454の正面方向が、下部走行体430の前進方向に対してなす角度が225±α°であると判定する。すなわち、第1支援処理要素1011は、キャブ454の正面方向に対して、下部走行体430は225±α°の方向を前進方向として認識する。
 例えば、図21Aに示すように、上部旋回体450の正面方向が下部走行体430の前進方向に対して225±α°の角度をなす場合、図21Bに示される足元画像には、例えば、左のクローラ430bと、左のクローラ430bに設けられた1つの第2マーカM2と、が映る。したがって、第1支援処理要素1011は、足元画像に左のクローラ430b及び、1つの第2マーカM2映り込んでいるこのような場合に、キャブ454のフロントウィンドウが設けられている正面方向が、下部走行体430の前進方向に対して225±α°の角度をなすと判定する。尚、第1支援処理要素1012は、上述のSTEP124の合成画像生成理で説明したように、図21Bに示すように、当該角度の応じた指標画像I1を足元画像に重畳させ、かつ図21Cに示すように、指標画像I2をメイン画像に重畳させる。
 第1支援処理要素1011は、STEP231の判定において、足元画像に第1マーカM1又は第2マーカM2が映っていないと判定すると(STEP231:NO)、上述のように足元画像又は、左画像のいずれかに第1マーカM1若しくは第2マーカM2が映っているため、左画像を参照し、左画像に映っているマーカが第1マーカM1であるか否かを判定する(STEP243)。
 第1支援処理要素1011は、左画像に映っているマーカが第1マーカM1であると判定した場合(STEP243:YES)、上部旋回体450の下部走行体430に対する旋回角度を90±α°として認識する(STEP244)。言い換えれば、第1支援処理要素1011は、キャブ454の正面方向が、下部走行体430の前進方向に対してなす角度が90±α°であると判定する。すなわち、第1支援処理要素1011は、キャブ454の正面方向に対して、下部走行体430は90±α°の方向を前進方向として認識する。
 第1支援処理要素1011は、左画像に映っているマーカが第2マーカM2であると判定した場合(STEP243:NO)、上部旋回体450の下部走行体430に対する旋回角度を270±α°として認識する(STEP245)。言い換えれば、第1支援処理要素1011は、キャブ454の正面方向が、下部走行体430の前進方向に対してなす角度が270±α°であると判定する。すなわち、第1支援処理要素1011は、キャブ454の正面方向に対して、下部走行体430は270±α°の方向を前進方向として認識する。
 例えば、図22Aに示すように、上部旋回体450の正面方向が下部走行体430の前進方向に対して270±α°の角度をなす場合、図22Bに示される足元画像には、例えば、左のクローラ430bのみが映る。したがって、第1支援処理要素1011は、図22Cに示される左画像を参照し、例えば、左右一対のクローラ430a、430bと、各々のクローラ430a、430bに設けられた2つの第1マーカM1と、が映っていることを認識する。したがって、第1支援処理要素1011は、左画像に2つの第1マーカM1が映り込んでいるこのような場合に、キャブ454のフロントウィンドウが設けられている正面方向が、下部走行体430の前進方向に対する角度が270±α°であると判定する。尚、第1支援処理要素1012は、上述のSTEP124の合成画像生成理で説明したように、図22Cに示すように、当該角度の応じた指標画像I1を左画像に重畳させ、かつ図22Dに示すように、指標画像I2をメイン画像に重畳させる。
 したがって、第1支援処理要素1011は、複数の第4撮像装置412d,412eを通じて取得される複数の第4撮像画像(足元画像、左画像)における、第1マーカM1及び第2マーカM2のそれぞれの映り込み態様に基づいて、下部走行体430の前進方向又は後退方向を認識する。
 尚、上述の説明においては、足元画像、左画像において映り込んでいる、第1マーカM1並びに第2マーカM2の種別の判定及び、足元画像、左画像において映り込んでいる第1マーカM1並びに第2マーカM2の個数の判定は、STEP231~213、STEP238及びSTEP243において、個別に判定した。しかし、これらの判定は、上記の画像処理により1のステップで行うようにしてもよい。
 また、上述の説明においては、第4撮像画像(足元画像、左画像)に映り込んでいるクローラ430a、430bの別を加味して上部旋回体450の下部走行体430に対する旋回角度を認識したが、これには限られない。
 例えば、第1支援処理要素1011は、第4撮像画像(足元画像、左画像)に映り込んでいる第1マーカM1並びに第2マーカM2の別及び、第4撮像画像(足元画像、左画像)に映り込んでいる第1マーカM1並びに第2マーカM2の個数に基づいて、上部旋回体450の下部走行体430に対する旋回角度を認識するようにしてもよい。
 具体的には、第1支援処理要素1011は、第4撮像画像に映り込んでいるマーカが、第1マーカM1であるか、第2マーカであるかを認識しかつ、当該認識した、第1マーカM1又は、第2マーカの第4撮像画像に映り込んでいる個数を認識する。
 例えば、第1支援処理要素1011は、キャブ454の正面方向と、下部走行体430の前進方向が一致する角度を0±α°とするとき、2つの第1マーカM1又は、2つの第2マーカM2が第4撮像画像(足元画像)に映り込んでいる場合、上部旋回体450の下部走行体430に対する旋回角度は、特定の角度、例えば、0°又は、180°に近い角度(0±α°又は、180±α°)であることを認識する。
 また、第1支援処理要素1011は、例えば、1つの第1マーカM1又は、1つの第2マーカM2が第4撮像画像(足元画像)に映り込んでいる場合、上部旋回体450の下部走行体430に対する旋回角度は、特定の角度、例えば、45°又は135°に近い角度(45±α°又は、135±α°)であることを認識する。
 さらに、第1支援処理要素1011は、第4撮像画像(足元画像)に映り込んでいるマーカの別(第1マーカM1又は第2マーカM2)により、一対のクローラ430a、430bの前後方向を認識することが可能となる。さらにまた、第1マーカM1及び第2マーカM2が第4撮像画像(足元画像)に映り込んでいない場合、上部旋回体450の下部走行体430に対する旋回角度は、特定の角度、例えば90°に近い角度(90±α°)であることが認識される。したがって、第4撮像画像(足元画像、左画像)における一対のクローラ430a,430bの映り込み態様を用いずに、上部旋回体450の下部走行体430に対する旋回角度及び、一対のクローラ430a、430bの前後方向を認識することが可能となる。これにより、一対のクローラ430a、430bの映り込み態様に必要な画像解析処理が不要になるため、第1支援処理要素1012の処理負荷の低減を図ることができる。
 また、第1支援処理要素1011は、第4撮像画像(足元画像、左画像)に含まれている第1マーカM1及び第2マーカM2の映り込み態様としての、第1マーカM1及び第2マーカM2の第4撮像画像(足元画像、左画像)における左右方向の位置に基づく上部旋回体450の下部走行体430に対する旋回角度を認識するようにしてもよい。
 このような態様によれば、例えば、キャブ454の正面方向と、下部走行体430の前進方向が一致する角度を0°とするとき、2つの第1マーカM1(又は、2つの第2マーカM2)の一方の第1マーカM1(又は、第2マーカM2)が、第4撮像画像(足元画像、左画像)の中央よりも右端側に位置し、他方の第1マーカM1(又は、第2マーカ)が第4撮像画像(足元画像)の中央よりも左端側に位置する場合、第1支援処理要素1011は、上部旋回体450の下部走行体430に対する角度が、特定の角度、例えば、0°又は180°に近い角度(0±α°又は180±α°)であることを認識する。
 尚、第1支援処理要素1011は、例えば、第1マーカM1同士を結ぶ線の中点の位置において、より詳細な角度判定を行ってもよい。例えば、上部旋回体450の下部走行体430に対する角度が3°である場合、当該角度が0°である場合よりも、第1マーカM1同士を結ぶ線の中点の位置は、足元画像の左右方向の右側に位置する。このような様々な当該角度に応じた第1マーカM1同士を結ぶ線の中点の位置を画像データとしてデータベース110に複数記録しておく。第1支援処理要素1011は、当該中点の位置を参照して、足元画像の中点の位置の一致度を算出して詳細な当該角度の判定を行ってもよい。
 また、例えば、第4撮像画像(足元画像)において、右側のクローラ430aの第1マーカM1が左右方向の中央近傍に位置するときは、上部旋回体450の下部走行体430に対する旋回角度は、特定の角度、例えば、45°に近い角度(45±α°)であることが認識される。また、例えば、第4撮像画像(足元画像)において、左側のクローラ430bの第1マーカM1が左右方向の中央近傍に位置するときは、上部旋回体450の下部走行体430に対する旋回角度は、特定の角度、例えば、135°に近い角度(135±α°)であることが認識される。
 このように、第4撮像画像に含まれている第1マーカM1及び第2マーカM2の映り込み態様は、上部旋回体450の下部走行体430に対する旋回角度に応じて変化する。具体的には、その旋回角度の変化に応じて第1マーカM1及び第2マーカM2の第4撮像画像における左右方向の位置が変化する。したがって、第1支援処理要素1011は、第4撮像画像(足元画像)における第1マーカM1及び第2マーカM2の左右方向の位置を認識することにより、上部旋回体450の下部走行体430に対する旋回角度を認識することが可能となる。
 第1支援処理要素1012は、合成画像の表示又は、非表示を所定のタイミングに基づいて行うとよい。以下、第1支援処理要素1012による合成画像の表示又は、非表示の制御が説明される。
 図23に示すように、遠隔操作装置20は、遠隔操作装置20の起動をトリガーとして、作業支援処理を開始する。オペレータOP1によって、例えば、遮断レバー2113がOFFにされると(STEP251:YES)、遠隔操作装置20は、操作信号を作業支援サーバ10に送信する(STEP252)。
 作業支援サーバ10の第1支援処理要素1011は、操作信号を受信すると、遮断レバー2113がOFFにされたことを認識し(STEP151:YES)、第1支援処理要素1011及び第1支援処理要素1012が合成画像の表示処理を行う(STEP152)。
 したがって、第1支援処理要素1011は、遠隔操作装置20における作業機械40への操作の受け付けの可否を示す情報である操作受付情報を操作信号として取得する。STEP152の表示処理においては、STEP122の前後方向推定処理からSTEP125の合成画像送信処理までが行われる。したがって、第1支援処理要素1012は、操作受付情報が作業機械40への操作の受け付けが可の場合に合成画像を遠隔操作装置20に送信する。
 作業支援サーバ10の第1支援処理要素1011は、STEP152の合成画像の表示処理を行ってから所定時間(例えば、60秒)の経過又は、予め指定された指定操作(例えば、ブーム用操作装置、アーム用操作装置、バケット用操作装置の操作、又は後述する走行モーション)が行われたかを判定する(STEP153)。
 作業支援サーバ10の第1支援処理要素1011は、STEP153の判定において、合成画像の表示処理を行ってから所定時間の経過又は、予め指定された指定操作が行われたと判定すると(STEP153:YES)、第1支援処理要素1011及び第1支援処理要素1012が合成画像の非表示処理を行う(STEP154)。すなわち、第1支援処理要素1011及び第1支援処理要素1012は、STEP124の合成画像生成処理及び、STEP125の合成画像送信処理を停止する。
 作業支援サーバ10の第1支援処理要素1011は、STEP153の判定において、合成画像の表示処理を行ってから所定時間の経過又は、予め指定された指定操作が行われていないと判定すると(STEP153:NO)、後述するSTEP159の判定に進む。
 遠隔操作装置20は、STEP252において操作信号を作業支援サーバ10に送信すると、次いで、第6撮像装置212によって撮像された第6撮像画像を作業支援サーバ10に送信する(STEP253)。
 作業支援サーバ10の第1支援処理要素1011は、STEP154において合成画像の非表示処理を行った後に、取得した第6撮像画像を参照し、オペレータOP1が作業機械40を走行させるための動作である走行モーションを行ったか否かを判定する(STEP155)。
 走行モーションは、遠隔操作機構211の走行用操作装置を操作するためのオペレータOP1の動作である。走行モーションは、例えば、走行用操作装置の操作レバー(走行レバー)の操作、走行ペダルの操作をするための動作が挙げられる。
 STEP155の判定は、例えば、オペレータOP1と走行レバー2110との状態が、非相互作用状態から相互作用状態に遷移したことで判定される。ここで、非相互作用状態とは、例えば、オペレータOP1が走行レバー2110を握っていない状態、または、触れていない状態である。また、相互作用状態とは、例えば、オペレータOP1が走行レバー2110を握っている状態、または、触れている状態である。尚、非相互作用状態としてオペレータOP1の足が走行ペダルの上に位置しない状態、相互作用状態としてオペレータOP1の足が走行ペダルの上に位置する状態を採用してもよい。こうすることで、オペレータOP1が下部走行体430を動作させる意思がある蓋然性が高い状況で下部走行体430がまだ動作を開始していない操作初期段階において、走行モーションを行ったか否かを判定することができる。
 したがって、第1支援処理要素1011は、遠隔操作装置20における作業機械40の前進又は後退の操作入力の意思を表す動作である準備動作の走行操作情報を走行モーションとして取得する。
 第1支援処理要素1011は、STEP155の判定において、オペレータOP1が作業機械40を走行させるための動作である走行モーションを行っていないと判定した場合(STEP155:NO)、STEP153の判定に戻る。
 第1支援処理要素1011は、STEP155の判定において、オペレータOP1が作業機械40を走行させるための動作である走行モーションを行ったと判定した場合(STEP155:YES)、前進操作、後退操作の種別を判断し、指標画像を前進方向又は後退方向に合わせて合成画像を生成し、当該合成画像の表示処理を行う(STEP156)。STEP156の合成画像の表示処理では、STEP152の合成画像の表示処理と同一の処理が行われる。
 したがって、第1支援処理要素1012は、準備動作で表されている意思が前進の操作入力である場合には、下部走行体430の前進方向を表す指標画像を用いて生成された合成画像を遠隔操作装置20に送信する。また、第1支援処理要素1012は、準備動作で表されている意思が後退の操作入力である場合には、下部走行体430の後退方向を表す指標画像を用いて生成された合成画像を遠隔操作装置20に送信する。
 遠隔操作装置20は、STEP253において第6撮像画像を作業支援サーバ10に送信すると、次いで、オペレータOP1による作業機械40を動作させるための操作に応じた操作信号を作業支援サーバ10に送信する(STEP254)。
 第1支援処理要素1011は、遠隔操作装置20から送信された操作信号に基づいて、走行操作がなされた否かを判定する(STEP157)。第1支援処理要素1011は、例えば、操作信号に走行操作に関する信号が含まれているか否かによってSTEP157の判定を行う。
 第1支援処理要素1011は、STEP157の判定において、走行操作がなされていないと判定すると(STEP157:NO)、STEP153の判定に戻る。
 第1支援処理要素1011は、STEP157の判定において、走行操作がなされたと判定すると(STEP157:YES)、第1支援処理要素1011及び第1支援処理要素1012は、合成画像の非表示処理を行う(STEP158)。STEP158の合成画像の非表示処理では、STEP154と同一の処理が行われる。
 第1支援処理要素1011は、遮断レバー2113がONにされているかを判定する(STEP159)。
 第1支援処理要素1011は、STEP159の判定において、遮断レバー2113がONにされていると判定すると(STEP159:YES)、処理を終了する。
 第1支援処理要素1011は、STEP159の判定において、遮断レバー2113がOFFにされていると判定すると(STEP159:NO)、STEP153の判定に戻る。
 以上の実施例2の説明では、作業支援サーバ10によって作業支援処理が実行される説明をした。しかし、作業支援処理は、遠隔操作装置20によって行われてもよいし、作業機械40によって行われてもよい。
 また、上述の実施例2では、第1支援処理要素1011及び第1支援処理要素1012は、互いに異なる処理要素として説明したが、各々支援処理要素を1の「支援処理要素」で処理してもよい。
 また、上述の実施例2では、オペレータOP1が走行モーションを行ったか否かの判定は、第6撮像装置212により取得した第6撮像画像を参照することによって行われるとして説明を記載したが、これに限定されない。例えば、オペレータが走行レバー2110を把持したことを検知する把持センサを、当該オペレータOP1が走行レバー2110を把持する部分に配置し、第1支援処理要素1011は、当該把持センサによる検知を取得することによって走行モーションが行われたか否かを判定するようにしてもよい。把持センサは、例えば、走行レバー2110に配置されたセンサ電極と、当該把持センサと人体(オペレータOP1)との間の静電容量値を測定する測定部を含むものであってもよいし、オペレータOP1が走行レバー2110に触れた際に生じる圧力を測定する圧電素子等の測定部を含むものであってもよい。
 上述の実施例2は、指定操作が行われたと判定した場合(STEP153:YES)に合成画像を非表示にする処理(STEP154)をしていた。しかし、STEP154は、即時に実行されなくてもよい。例えば、指定操作又は走行モーションが行われたと判定した場合(STEP153:YES)であっても、STEP152における合成画像の表示処理を行ってから所定時間(例えば、60秒)が経過した後にSTEP154が実行されてもよい。この場合の所定時間は任意に設定することができ、60秒よりも短く設定されてもよい。こうすることで、オペレータOP1に下部走行体430の前進方向又は後退方向を確実に認識させることができる。
 上述の実施例2は、走行操作がなされたと判定すると(STEP157:YES)、合成画像の非表示処理を行う(STEP158)ようにしている。しかし、STEP158の処理は、任意に実行される処理であり、例えば、走行操作がなされている間は、合成画像の表示処理が継続されるようにしてもよい。
 上述の実施例2にでは、第4撮像画像(足元画像、左画像)には、指標画像が重畳されるようにした。しかし、第4撮像画像(足元画像、左画像)には、必ずしも指標画像が重畳されなくてもよい。例えば、第5撮像画像(メイン画像)にのみ指標画像が重畳されるようにしてもよい。言い換えれば、第1支援処理要素1012は、第1支援処理要素1011によって認識された下部走行体430の前進方向又は後退方向を表す指標画像を、上部旋回体430に第4撮像装置412d、412eとは別個に設けられている第5撮像装置412fを通じて取得された第5撮像画像の作業機械40又はその周囲に少なくとも部分的に重畳した合成画像を遠隔操作装置20に送信するようにしてもよい。
 本発明の遠隔操作システムにおいて、前記支援処理要素は、前記上部旋回体の前記下部走行体に対する旋回に応じて変化する前記下部走行体の映り込み態様と、前記指定構成要素の映り込み態様と、に基づいて、前記上部旋回体の前記下部走行体に対する前記旋回角度に対応した角度で、前記指標画像を前記撮像画像の前記作業機械又はその周囲に少なくとも部分的に重畳することが好ましい。
 このような態様によれば、支援処理要素は、例えば、撮像画像における下部走行体の映り込み態様、すなわち、撮像画像において映っている下部走行体の左右の別(一方又は両方)、撮像装置の撮像方向に対する下部走行体の左右の傾斜角度等及び、撮像画像に映っている複数の指定構成要素の別によって、上部旋回体の下部走行体に対する旋回角度を認識することができる。したがって、例えば、支援処理要素は、撮像装置の撮像方向に対する下部走行体の左右の傾斜角度に対応して指標画像を重畳させて合成画像を生成することができ、当該合成画像を遠隔操作装置に送信することができる。したがって、オペレータは、合成画像を目視するだけで容易に下部走行体の前進方向又は後退方向を認識することができる。
 本発明の遠隔操作システムにおいて、前記撮像装置は、前記作業機械からみた方角が相互に異なる位置に複数配置され、前記支援処理要素は、一の前記撮像装置を通じて取得された一の前記撮像画像において下部走行体の指定構成要素が映っていない場合、他の前記撮像装置を通じて取得された他の前記撮像画像における、前記下部走行体の映り込み態様と、前記指定構成要素の映り込み態様と、に基づいて生成される、前記下部走行体の前後方向を示す指標画像を前記撮像画像に重畳することが好ましい。
 このような態様によれば、一の撮像画像に作業機械の下部走行体の指定構成要素が映っていない場合であっても、支援処理要素は、他の撮像画像に基づいて、作業機械の下部走行体の前後方向を示す指標画像が重畳した合成画像を遠隔操作装置に送信することができる。
 また、本発明の遠隔操作システムにおいて、前記支援処理要素は、一の前記撮像画像に含まれている前記指定構成要素の映り込み態様としての、前記指定構成要素の一の前記撮像画像における左右方向の位置に基づく前記上部旋回体の前記下部走行体に対する旋回角度を認識することが好ましい。
 このような態様によれば、一の撮像画像に含まれている複数の指定構成要素の映り込み態様は、上部旋回体の下部走行体に対する旋回角度に応じて変化する。具体的には、その旋回角度の変化に応じて複数の指定構成要素の一の撮像画像における左右方向の位置が変化する。したがって、支援処理要素は、一の撮像画像における複数の指定構成要素の左右方向の位置を認識することにより、上部旋回体の下部走行体に対する旋回角度を認識することが可能となる。
 また、本発明の遠隔操作システムにおいて、前記第1支援処理要素は、前記下部走行体から突出して形成された立体状の前記指定構成要素を含む前記撮像画像を取得することが好ましい。 
 このような態様によれば、複数の指定構成要素が泥や土などが付着した場合であっても、支援処理要素は、容易に複数の指定構成要素を認識することができる。
 また、本発明の遠隔操作システムにおいて、前記支援処理要素は、前記他の撮像画像の画像座標、前記一の撮像装置が配置されている位置及び、前記一の撮像画像の一部の領域に基づいて、前記一の撮像画像に前記指標画像を重畳した前記合成画像を前記遠隔操作装置に送信することが好ましい。
 このような態様によれば、支援処理要素は、例えば、指定構成要素が映っていない作業機械の一の撮像方向(例えば正面方向)又は、他の撮像方向(例えば背面方向)から撮像された撮像画像に指標画像を合成した合成画像を生成することが可能となる。したがって、オペレータは、視線移動を行うことなく、作業機械の下部走行体の前後方向を認識することが可能となる。
 また、本発明の遠隔操作システムにおいて、前記作業機械の前記下部走行体は、左右一対のクローラを有し、前記支援処理要素は、前記指標画像を前記合成画像における前記クローラのサイズ及び前記合成画像における前記クローラの位置に応じて生成することが好ましい。
 このような態様によれば、例えば、支援処理要素は、クローラに指標画像を重畳した合成画像を生成することができるため、指標画像の視認性を高めることができる。このため、オペレータの作業効率の向上を図ることが可能となる。
 また、本発明の遠隔操作システムにおいて、前記支援処理要素は、前記遠隔操作装置における前記作業機械への操作の受け付けの可否を示す情報である操作受付情報を取得し、前記操作受付情報が前記作業機械への操作の受け付けが可の場合に前記合成画像を前記遠隔操作装置に送信するが好ましい。
 このような態様によれば、オペレータが作業機械に対する操作を行う場合にのみ、下部走行体の前進方向又は後退方向が表示されるようにすることができ、オペレータが感じる煩わしさを低減することができる。
 また、本発明の遠隔操作システムにおいて、前記支援処理要素は、前記遠隔操作装置における前記作業機械の前進又は後退の操作入力の意思を表す動作である準備動作の走行操作情報を取得し、前記準備動作で表されている前記意思が前進の前記操作入力である場合には、前記下部走行体の前進方向を表す前記指標画像を用いて生成された前記合成画像を前記遠隔操作装置に送信し、前記準備動作で表されている前記意思が後退の前記操作入力である場合には、前記下部走行体の後退方向を表す前記指標画像を用いて生成された前記合成画像を前記遠隔操作装置に送信することが好ましい。
 このような態様によれば、オペレータが作業機械の前進又は後退の操作を行う場合にのみ、指標画像が重畳された合成画像が表示されるようにすることができ、常に指標画像が重畳された合成画像が表示される煩わしさを低減することができる。
 また、本発明の遠隔操作システムにおいて、前記作業機械は、互いに近接して複数台配置され、前記支援処理要素は、操作対象の候補となる前記作業機械の実空間の位置情報を取得し、かつ前記撮像画像から算出される前記作業機械の実空間位置及び、前記操作対象の候補となる前記作業機械の実空間の前記位置情報が合致する場合、前記操作対象の候補となる前記作業機械を操作対象となる前記作業機械として認識することが好ましい。
 このような態様によれば、支援処理要素は、複数台の作業機械が相互に近接して配置された場合であっても、操作対象となる作業機械を判別することが可能となる。したがって、複数台の作業機械のうち、操作対象となる一の作業機械を外観により判別が困難な場合であっても、支援処理要素は、当該一の作業機械を判別し、オペレータが所望する作業機械に対して前記合成画像を生成することが可能となる。
10‥作業支援サーバ、101‥支援処理要素、1011‥第1支援処理要素、1012‥第2支援処理要素、20‥遠隔操作装置、200‥遠隔制御装置、210‥遠隔入力インターフェース、211‥遠隔操作機構、212‥第6撮像装置、220‥遠隔出力インターフェース、221‥画像出力装置、222‥遠隔無線通信機器、40‥作業機械、400‥実機制御装置、410‥実機入力インターフェース、411‥実機操作機構、412a‥実機撮像装置、412b‥アタッチ撮像装置、412c‥後方撮像装置、412d、412e‥第4撮像装置、412f‥第5撮像装置、420‥実機出力インターフェース、422‥実機無線通信機器、460‥作動機構(作業アタッチメント)、430‥下部走行体、430a、430b‥クローラ、431‥駆動部材、440‥旋回機構、450‥上部旋回体、454‥キャブ(運転室)、460‥作動機構、50‥第1撮像装置、60‥第2撮像装置

Claims (12)

  1.  下部走行体及び前記下部走行体に対して旋回可能な上部旋回体を有する作業機械と、前記作業機械を遠隔操作するための遠隔操作装置と、のそれぞれとの相互通信機能を有する遠隔操作システムであって、
     前記作業機械の周囲に配置された撮像装置を通じて取得された撮像画像における、前記下部走行体の映り込み態様と、前記下部走行体の前後方向に偏在して配置されている指定構成要素の映り込み態様と、に基づいて生成される、前記下部走行体の前後方向の少なくとも一方を示す指標画像を前記撮像画像における前記作業機械又はその周囲に少なくとも部分的に重畳した合成画像を前記遠隔操作装置に送信する支援処理要素、
     を有することを特徴とする遠隔操作システム。
  2.  前記支援処理要素は、前記上部旋回体の前記下部走行体に対する旋回に応じて変化する前記下部走行体の映り込み態様と、前記指定構成要素の映り込み態様と、に基づいて、前記上部旋回体の前記下部走行体に対する前記旋回角度に対応した角度で、前記指標画像を前記撮像画像の前記作業機械又はその周囲に少なくとも部分的に重畳することを特徴とする請求項1に遠隔操作システム。
  3.  前記撮像装置は、前記作業機械からみた方角が相互に異なる位置に複数配置され、
     前記支援処理要素は、一の前記撮像装置を通じて取得された一の前記撮像画像において下部走行体の指定構成要素が映っていない場合、他の前記撮像装置を通じて取得された他の前記撮像画像における、前記下部走行体の映り込み態様と、前記指定構成要素の映り込み態様と、に基づいて生成される、前記下部走行体の前後方向を示す指標画像を前記撮像画像に重畳する請求項1または2に記載の遠隔操作システム。
  4.  前記支援処理要素は、一の前記撮像画像に映り込んでいる前記指定構成要素の個数及び、他の前記撮像画像に映り込んでいる前記指定構成要素の個数に基づいて、前記上部旋回体の前記下部走行体に対する旋回角度を認識することを特徴とする請求項3に記載の遠隔操作システム。
  5.  前記支援処理要素は、一の前記撮像画像に含まれている前記指定構成要素の映り込み態様としての、前記指定構成要素の一の前記撮像画像における左右方向の位置に基づく前記上部旋回体の前記下部走行体に対する旋回角度を認識する請求項2~4のうちいずれか1項に記載の遠隔操作システム。
  6.  前記支援処理要素は、前記下部走行体から突出して形成された立体状の前記指定構成要素を含む前記撮像画像を取得する請求項1~5のうちいずれか1項に記載の遠隔操作システム。
  7.  前記支援処理要素は、前記他の撮像画像の画像座標、前記一の撮像装置が配置されている位置及び、前記一の撮像画像の撮像領域に基づいて、前記一の撮像画像に前記指標画像を重畳した前記合成画像を前記遠隔操作装置に送信する請求項1~6のうちいずれか1項に記載の遠隔操作システム。
  8.  前記作業機械の前記下部走行体は、左右一対のクローラを有し、
     前記支援処理要素は、前記指標画像を前記合成画像における前記クローラのサイズ及び前記合成画像における前記クローラの位置に応じて生成する請求項1~7のうちいずれか1項に記載の遠隔操作システム。
  9.  前記支援処理要素は、前記遠隔操作装置における前記作業機械への操作の受け付けの可否を示す情報である操作受付情報を取得し、前記操作受付情報が前記作業機械への操作の受け付けが可の場合に前記合成画像を前記遠隔操作装置に送信する請求項1~8のうちいずれか1項に記載の遠隔操作システム。
  10.  前記支援処理要素は、前記遠隔操作装置における前記作業機械の前進又は後退の操作入力の意思を表す動作である準備動作の走行操作情報を取得し、前記準備動作で表されている前記意思が前進の前記操作入力である場合には、前記下部走行体の前進方向を表す前記指標画像を用いて生成された前記合成画像を前記遠隔操作装置に送信し、前記準備動作で表されている前記意思が後退の前記操作入力である場合には、前記下部走行体の後退方向を表す前記指標画像を用いて生成された前記合成画像を前記遠隔操作装置に送信する請求項1~9のうちいずれか1項に記載の遠隔操作システム。
  11.  前記作業機械は、互いに近接して複数台配置され、
     前記支援処理要素は、操作対象の候補となる前記作業機械の実空間の位置情報を取得し、かつ前記撮像画像から算出される前記作業機械の位置及び、前記操作対象の候補となる前記作業機械の実空間の前記位置情報が合致する場合、前記操作対象の候補となる前記作業機械を操作対象となる前記作業機械として認識する請求項1~10のうちいずれか1項に記載の遠隔操作システム。
  12.  請求項1~11のうちいずれか1項に記載の遠隔操作システムと、
     前記遠隔操作装置および前記作業機械のうち少なくとも一方と、により構成されている遠隔操作複合システム。
     
PCT/JP2022/015904 2021-08-27 2022-03-30 遠隔操作システムおよび遠隔操作複合システム WO2023026568A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202280057466.8A CN117881851A (zh) 2021-08-27 2022-03-30 远程操作系统以及远程操作复合系统
EP22860866.7A EP4365376A1 (en) 2021-08-27 2022-03-30 Remote operation system and remote operation composite system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021139430A JP2023032998A (ja) 2021-08-27 2021-08-27 作業支援システムおよび作業支援複合システム
JP2021139429A JP2023032997A (ja) 2021-08-27 2021-08-27 遠隔操作システム
JP2021-139429 2021-08-27
JP2021-139430 2021-08-27

Publications (1)

Publication Number Publication Date
WO2023026568A1 true WO2023026568A1 (ja) 2023-03-02

Family

ID=85322633

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/015904 WO2023026568A1 (ja) 2021-08-27 2022-03-30 遠隔操作システムおよび遠隔操作複合システム

Country Status (2)

Country Link
EP (1) EP4365376A1 (ja)
WO (1) WO2023026568A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5473870B2 (ja) 2010-11-15 2014-04-16 住友建機株式会社 建設機械のモニター装置
JP2018115077A (ja) * 2016-11-22 2018-07-26 マニタウォック クレイン カンパニーズ, エルエルシーManitowoc Crane Companies, Llc クレーン上のブームの角度についての光学的な検出及び分析
WO2019187560A1 (ja) * 2018-03-29 2019-10-03 コベルコ建機株式会社 作業機械操縦装置
JP2020112030A (ja) 2015-03-31 2020-07-27 株式会社小松製作所 油圧ショベル

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5473870B2 (ja) 2010-11-15 2014-04-16 住友建機株式会社 建設機械のモニター装置
JP2020112030A (ja) 2015-03-31 2020-07-27 株式会社小松製作所 油圧ショベル
JP2018115077A (ja) * 2016-11-22 2018-07-26 マニタウォック クレイン カンパニーズ, エルエルシーManitowoc Crane Companies, Llc クレーン上のブームの角度についての光学的な検出及び分析
WO2019187560A1 (ja) * 2018-03-29 2019-10-03 コベルコ建機株式会社 作業機械操縦装置

Also Published As

Publication number Publication date
EP4365376A1 (en) 2024-05-08

Similar Documents

Publication Publication Date Title
JP4740890B2 (ja) 建設機械および建設機械の後進移動ガイダンス方法
KR20130138227A (ko) 작업 기계의 주위 감시 장치
JP7420733B2 (ja) 表示制御システムおよび表示制御方法
WO2021124654A1 (ja) 作業支援サーバ、作業支援方法および作業支援システム
CN113615164B (zh) 远程操作系统以及远程操作服务器
US11993922B2 (en) Remote operation system
US20230128501A1 (en) Remote operation assistance device and remote operation assistance method
JP7452038B2 (ja) 作業支援システム
WO2023026568A1 (ja) 遠隔操作システムおよび遠隔操作複合システム
JP2021099017A (ja) 遠隔操作装置および遠隔操作システム
JP2021095718A (ja) ショベル、情報処理装置
WO2023002796A1 (ja) 掘削機械の稼働範囲設定システムおよびその制御方法
JP2023032998A (ja) 作業支援システムおよび作業支援複合システム
JP2023032997A (ja) 遠隔操作システム
JP7392422B2 (ja) 作業支援サーバおよび作業支援システム
JP2023040971A (ja) 遠隔操作支援装置、遠隔操作支援システムおよび遠隔操作支援方法
WO2023136070A1 (ja) 遠隔操作支援システムおよび遠隔操作支援方法
WO2022168383A1 (ja) 遠隔操作支援システムおよび遠隔操作支援方法
WO2023100533A1 (ja) 画像表示システム、遠隔操作支援システムおよび画像表示方法
WO2021106280A1 (ja) 作業支援サーバ、作業支援方法および作業支援システム
JP7363560B2 (ja) 遠隔操作装置、遠隔操作支援サーバ、遠隔操作支援システムおよび遠隔操作支援方法
US20210395980A1 (en) System and method for work machine
WO2021124858A1 (ja) 遠隔操作装置および遠隔操作システム
WO2023190843A1 (ja) 支援装置、作業機械、プログラム
US20220290401A1 (en) Display system, remote operation system, and display method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22860866

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022860866

Country of ref document: EP

Ref document number: 22 860 866.7

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022860866

Country of ref document: EP

Effective date: 20240201

WWE Wipo information: entry into national phase

Ref document number: 202280057466.8

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE