WO2023166797A1 - 遠隔操作処理装置、及び遠隔操作処理システム - Google Patents

遠隔操作処理装置、及び遠隔操作処理システム Download PDF

Info

Publication number
WO2023166797A1
WO2023166797A1 PCT/JP2022/043403 JP2022043403W WO2023166797A1 WO 2023166797 A1 WO2023166797 A1 WO 2023166797A1 JP 2022043403 W JP2022043403 W JP 2022043403W WO 2023166797 A1 WO2023166797 A1 WO 2023166797A1
Authority
WO
WIPO (PCT)
Prior art keywords
remote control
control processing
target coordinate
processing device
coordinate values
Prior art date
Application number
PCT/JP2022/043403
Other languages
English (en)
French (fr)
Inventor
均 佐々木
洋一郎 山▲崎▼
Original Assignee
コベルコ建機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コベルコ建機株式会社 filed Critical コベルコ建機株式会社
Publication of WO2023166797A1 publication Critical patent/WO2023166797A1/ja

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a remote control processing device and a remote control processing system that support remote control of a work machine using a remote control device, and specifically to a controllable imaging angle of an imaging device provided in the work machine.
  • the present invention relates to a remote control processing device and a remote control processing system.
  • Patent Document 1 a remotely controlled work machine is known.
  • the work machine disclosed in Patent Document 1 is equipped with a remote driving device and an imaging device, and an operator remotely operates the work machine using a remote control device installed at a location away from the actual machine.
  • a device in which a camera is provided in the upper part of the cabin of the working machine so that an image from the upper part of the cabin can be visually recognized.
  • Patent Document 1 stores in advance the relationship between the state quantity of the actuator of the work machine and the supplementary point to be included in the field of view of the camera, and uses the state quantity of the actuator as a parameter to obtain: Adjusting the imaging direction of the camera.
  • the relationship between the state quantity of the actuator and the supplementary point to be included in the field of view of the camera must be checked for each work machine and stored in advance, which is very time-consuming.
  • the field of view of the camera determined from the stored state quantity of the actuator is not always an appropriate imaging field of view for the operator.
  • the present invention determines an imaging angle so that the imaging direction of an imaging device is directed toward an object to be visually recognized by an operator, and controls the imaging angle of the imaging device to facilitate an appropriate imaging field of view for the operator to visually recognize. It is an object of the present invention to provide a remote control processing device and a remote control processing system that can be obtained.
  • a remote control processing device is capable of controlling an imaging angle of an imaging device arranged on a remotely operated working machine, and is used for supporting remote control of the working machine using the remote control device.
  • a processing device that acquires the position of the attachment being worked on, stores it as target coordinate values, and controls the imaging angle of the imaging device based on the distribution of the target coordinate values.
  • FIG. 1 is a schematic diagram showing a remote operation support processing device according to the present invention
  • FIG. 4 is a conceptual diagram showing the positional relationship between target coordinate values and representative coordinate values in FIG. 3 ;
  • FIG. 2 is a top view showing the work machine during work;
  • FIG. 1 is a schematic diagram showing the entire remote control processing system 500 including the remote control processing device 100 of the present invention.
  • FIG. 2 is a schematic diagram of the remote control device 200 included in the remote control processing system 500.
  • a remote control processing system 500 includes a remote control processing device 100 and a remote control device 200 for remotely controlling a work machine 300 .
  • Remote control processing device 100 may be provided in remote control device 200 or may be provided in work machine 300 in remote control processing system 500 .
  • the remote control processing device 100 may be provided as a single unit, for example, as a server. In the following explanation, the case where the remote control processing device 100 is provided as a single unit will be explained.
  • the remote control device 200 and the work machine 300 are configured to be able to communicate with each other through a network. Further, when the remote control processing device 100 is provided alone, the remote control processing device 100 is configured to be able to communicate with the remote control device 200 and the working machine 300 via a network.
  • the remote control processing device 100 has a database 110 and a control device 120 .
  • the database 110 stores and holds various data related to remote operation support, such as captured images, various characteristic values indicating operating states of working machines, various data related to operators, and the like.
  • the control device 120 is configured by an arithmetic processing device (a single-core processor, a multi-core processor, or a processor core constituting this), reads necessary data and software from a storage device such as a memory, and processes the data and the software. Predetermined arithmetic processing is executed according to.
  • the database 110 may be composed of a database separate from the remote control processing device 100 .
  • FIG. 3 is a side view showing work machine 300 during operation.
  • Working machine 300 in the present embodiment will be described using a lifting magnet machine that moves scrap iron by attracting it, but the type of working machine 300 to which the present invention can be applied is not limited.
  • the work machine 300 is, for example, a power shovel whose attachment is a bucket, a gripper whose attachment is a gripper, a cutter whose attachment is a cutting tool, a crusher whose attachment is a crusher, a breaker whose attachment is a breaker, or the like. , can be anything.
  • the work machine 300 includes a lower traveling body 301 having crawler belts 303 for traveling that cover the wheels, and an upper revolving body 302 rotatably placed on the lower traveling body 301 . Further, the work machine 300 includes a cabin 304 provided on the upper swing body 302, a boom 341 provided on the upper swing body 302, an arm 342 connected to the tip of the boom 341, and a tip of the arm 342. It has an attachment 344 which is attached with an attachment pin 343 at the bottom.
  • the working machine 300 includes a real machine control device 310 , a real machine input interface 320 , a real machine wireless communication device 330 , and an operating mechanism 340 .
  • the actual device control device 310 is composed of an arithmetic processing device (a single-core processor, a multi-core processor, or a processor core that constitutes this), reads necessary data and software from a storage device such as a memory, and processes the data as a target. Predetermined arithmetic processing is executed according to the software.
  • arithmetic processing device a single-core processor, a multi-core processor, or a processor core that constitutes this
  • a storage device such as a memory
  • Predetermined arithmetic processing is executed according to the software.
  • the real device input interface 320 includes a real device operating mechanism 321 , an imaging device 322 and a positioning device 329 .
  • the actual machine operation mechanism 321 includes a plurality of operation levers arranged around the seat 255 arranged inside the cabin 304 .
  • a drive mechanism or robot is provided that receives a signal corresponding to the operation of the remote control lever and moves the actual machine control lever based on the received signal.
  • the imaging device 322 has a first camera 323 provided outside the cabin 304 and a second camera 324 provided inside the cabin 304 .
  • the first camera 323 is provided, for example, on the roof of the cabin 304 at the front central portion.
  • the second camera 324 is arranged inside the cabin 304 and provided near the headrest of the seat 255 .
  • the second camera 324 captures an image of the environment including at least part of the operating mechanism 340 through the front window and a pair of left and right side windows.
  • the first camera 323 is held so as not to rotate in the horizontal direction with respect to the cabin 304, and the imaging direction of the first camera 323 can be adjusted only in the vertical direction.
  • a default value is set for the imaging direction of the first camera 323 before angle adjustment.
  • the default value of the imaging direction of the first camera 323 is, for example, an angle of 40° downward from the horizontal plane.
  • the present invention can be applied not only to the first camera 323 arranged outside the cabin 304, but also to other cameras such as the second camera 324 arranged inside the cabin 304.
  • the first camera 323 may be provided on the substantially vertical outer surface of the front, left side, or right side of the cabin 304 . Also, two or more first cameras 323 may be provided. For example, one first camera 323 may be provided on each of the left and right sides of the front on the roof of the cabin 304 . Alternatively, the first cameras 323 may be provided on two or more of the front, left, and right sides of the cabin 304, for example, on the left and right sides of the cabin 304, respectively.
  • a plurality of first cameras 323 may be arranged at positions spaced apart in the left-right direction, and a stereo image may be obtained by using images captured by the respective first cameras 323 and 3D glasses. The operator can grasp the sense of depth by visually recognizing the stereo image.
  • a known method can be used for the operator to visually recognize the stereo image.
  • the image of the first camera 323 on the left side and the image of the first camera 323 on the right side are alternately switched and displayed on the display device at intervals of several times to several tens of times per second, and the operator can see the left side of the image displayed on the display device.
  • Methods are available that use 3D glasses that include left and right eye liquid crystal shutters synchronized to the image or right image.
  • a method can be used in which images from a plurality of first cameras 323 are superimposed on a display device and displayed at the same time so that the operator can recognize stereo images with the naked eye.
  • the positioning device 329 includes GPS and, if necessary, a gyro sensor, and acquires the position of the work machine 300.
  • the working machine 300 is equipped with an actual wireless communication device 330.
  • the captured image and the position information acquired by the actual device input interface 320 are transmitted to the remote control device 200 via the remote control processing device 100 via the network by the actual device wireless communication device 330 .
  • FIG. 3 is a side view showing work machine 300 during operation.
  • the remote control device 200 includes a remote control device 210 , a remote input interface 220 , a remote output interface 230 and a seat 255 .
  • the remote control device 210 controls the remote input interface 220, the remote output interface 230, and the remote wireless communication device 237 respectively, and controls the entire remote control device 200, including data input/output.
  • the remote input interface 220 includes a remote control mechanism 221 , an operation input device 222 and an operator recognition device 223 .
  • the remote control mechanism 221 includes a travel operating device, a turning operating device, an arm operating device, a boom operating device, and an attachment operating device, corresponding to the work machine 300 .
  • the remote control mechanism 221 has a plurality of levers that are operated by rotating operations.
  • a pair of left and right travel levers 251 respectively corresponding to the left and right crawlers are arranged side by side.
  • Operation levers 252 and 253 are arranged on both sides of a seat 255 on which an operator sits.
  • the travel lever 251 of the travel operating device is a lever that moves the lower travel body 301 of the work machine 300 .
  • An operation lever 252 provided in front of the left frame of the seat 255 functions as an arm lever when operated in the front-rear direction, and as a turning lever when operated in the left-right direction.
  • An operation lever 253 provided in front of the right frame of the seat 255 functions as a boom lever when operated in the front-rear direction and as an attachment lever when operated in the left-right direction.
  • the lever position and the operation direction of the remote control mechanism 221 corresponding to the operation of the work machine 300 may be other than the operation pattern described above, and may be appropriately changed by the operator's operation.
  • the operation input device 222 is fixed in front of the right frame of the seat 255 via a fixing member so that the operator can easily operate it.
  • the operation input device 222 is an input device that includes a display section that displays various information and an input section that allows various inputs.
  • the input unit of the operation input device 222 is formed of one or more selected from a touch panel type, button type, rotary type, and slide type.
  • the display section of the operation input device 222 is formed by a liquid crystal display device, an organic EL display device, an LED display device, or the like.
  • the operation input device 222 is, for example, a touch panel type liquid crystal display device formed by overlapping a touch panel on a liquid crystal display device.
  • the operator recognition device 223 is a device that acquires the operator's image, voice, personal identification number, or the like, and identifies the individual operator.
  • the operator recognition device 223 is provided in the front portion of the remote control device 200 facing backward toward the seat 255 .
  • the operator recognition device 223 takes an image of the operator sitting on the seat 255 after the remote control device 200 is activated.
  • the operator recognition device 223 identifies the individual operator by facial recognition using the captured image.
  • the operator identification information may be stored in the database 110 of the remote control processing device 100. Alternatively, it may be stored in a database constructed at a location other than the remote control processing system 500, and the individual operator may be identified via communication means.
  • the stored operator identification information is operator identification information such as images of one or more operators who can operate work machine 300, personal identification numbers, and passwords for each operator.
  • the obtained operator identification information is matched against one or more of the stored operator identification information to identify the individual operator.
  • the operator recognition device 223 is provided in the remote control device 200 instead of the imaging device, and may be an operator information input device (not shown) for inputting the operator's personal identification number or the like, or may be both the imaging device and the operator information input device. good.
  • the operator information input device may be a key input device or a voice recognition device having a microphone and recognizing the operator's voice itself or a password determined for each operator.
  • the stored information can also include the operator's height and information on past work acquired by the imaging device of the operator recognition device 223 .
  • the information during past work includes the work posture during remote control, work dates and work locations for all work, cumulative work time of work machine 300 up to the present, and the like.
  • the remote output interface 230 has an image output device 231 .
  • Image output device 231 is a device that displays a captured image transmitted from work machine 300 .
  • the image output device 231 includes a central display device 232 having substantially rectangular display screens arranged in front of the seat 255, diagonally forward left, and diagonally forward right. It has a display 233 , a right display 234 , and an upper display 235 positioned above and adjacent to the central display 232 .
  • the shape and size of the image display areas of the central display device 232, the left display device 233, the right display device 234, and the upper display device 235 are the same.
  • the number of the upper display device 235 is not one, and a plurality of display devices may be arranged in the horizontal direction like the central display device 232, the left display device 233, and the right display device 234.
  • the central display device 232 or the central display device 232 and the upper display device 235 that are frequently viewed may be larger than the left display device 233 and the right display device 234 .
  • the respective screens of the central display device 232, the left display device 233, and the right display device 234 may be parallel to the vertical direction or may be inclined with respect to the vertical direction.
  • At least one of the central display device 232, the left display device 233, and the right display device 234 may be composed of a plurality of divided image output devices.
  • the central display device 232 may be composed of a pair of vertically adjacent image output devices each having a substantially rectangular screen.
  • the remote control processing device 100 calculates and stores the target coordinate value P using the coordinate values expressed in the actual machine coordinate system with the reference point of the work machine 300 as the origin K.
  • the reference point of work machine 300 which is the origin K of the coordinates, can be determined as appropriate. and the origin K of the actual machine coordinate system.
  • the coordinate axes are arranged with the origin K as the center, the X-axis parallel to the left-right direction of the work machine 300, the Y-axis parallel to the front-rear direction, and the Z-axis parallel to the vertical direction.
  • the X-axis, Y-axis, and Z-axis are set with the origin K of the coordinates as the center, the left direction, the front direction, and the upward direction being positive, and the right direction, the backward direction, and the downward direction being negative.
  • Work machine 300 can detect its position by positioning device 329 and always detects the global position of work machine 300 .
  • the coordinate values defined in the actual machine coordinate system may be linked with the position of work machine 300 and converted to a global position on the map, that is, in an absolute position coordinate system, and stored.
  • the remote control processing unit 100 automatically stores the position of a specific portion of the attachment 344 from the start to the end of the work as a point represented by three-dimensional coordinates, that is, as the target coordinate value P, and calculates the density of the target coordinate value P. Create a heatmap representing The remote control processing device 100 identifies an area with a high density of target coordinate values P based on the heat map, and determines the imaging direction. The procedure is described below. (1) Automatically acquire the position of the attachment 344 during work, store it as the target coordinate value P, and create a heat map showing the density of the target coordinate value P. (2) If the density of the stored target coordinate value P is Identify a high area (3) Control the imaging angle of the imaging device toward the area where the density of the identified target coordinate value P is high
  • a lifting magnet machine is shown as the work machine 300 in FIG.
  • Work machine 300 is configured to be able to detect the state quantities of each part of work machine 300 including the state quantity of actuation mechanism 340 .
  • the state quantity of each part of the work machine 300 is, for example, the turning angle of the upper turning body 302 with respect to the lower traveling body 301, and the angles of the boom 341 and the arm 342 from the reference position.
  • the state quantity of each part of the work machine 300 is the rotational angular position about the attachment pin 343 with respect to the longitudinal direction of the arm 342 of the attachment 344 (for example, the angular position of the bucket of the shovel machine with respect to the longitudinal direction of the arm 342), 344 (for example, two pinching forceps of a gripper), the rotation angle of the forceps around the longitudinal axis of the arm 342, the forceps opening angle, and so on.
  • the remote operation support system can acquire the coordinates of the specific part of the attachment 344 based on the state quantities of the boom 341, the arm 342, and the attachment 344 during work and the position of the specific part of the attachment 344 from the tip of the arm 342. is.
  • the acquired coordinate values of the specific portion of the attachment 344 are stored as target coordinate values P(x, y, z).
  • a specific portion of the attachment 344 is selected according to the shape of the attachment 344 as follows.
  • the specific portion of attachment 344 is, for example, the central portion of lower surface portion 346 that is the attracting surface of magnet portion 345 .
  • the specific portion of attachment 344 is, for example, the center of the claw at the tip of the bucket in the width direction, that is, the center in the left-right direction, or the center of the opening of the bucket.
  • the particular portion of attachment 344 may be, for example, the longitudinal extremity of the two tweezers closed, or the longitudinal is the central part of If work machine 300 is a breaker machine having a breaker, the specific portion of attachment 344 is, for example, the tip of the breaker.
  • the specific portion of the attachment 344 can be the central portion of the attachment pin 343 for mounting the attachment 344 in the longitudinal direction, that is, the left-right direction, regardless of the type of the attachment 344 .
  • the specific part of the attachment 344 is the attachment pin 343
  • the position of the attachment 344 is commonly stored as the specific part regardless of the type of the attachment 344 that can be replaced according to the type of work.
  • the position of the working attachment 344 is automatically obtained by the remote control processing device 100 at predetermined intervals.
  • the remote control processor 100 automatically acquires the position of the attachment 344 every 5 seconds, 10 seconds, 20 seconds, 30 seconds, and 1 minute.
  • the remote control processing device 100 can acquire the position of a specific part of the attachment 344 when a specific work is performed.
  • the specific work is when the lifting magnet machine attracts and releases coarse material, when the breaker hits the breaker, when the attachment 344 approaches the ground surface, and when the lever operation amount is the predetermined first operation amount. to a predetermined second operation amount larger than the first operation amount, when the lever operation amount exceeds the predetermined operation amount, when the lever operation speed exceeds a specified speed, and the like.
  • the remote control processor 100 automatically acquires the position of the specific portion of the attachment 344.
  • FIG. The operator can set any of the above methods for acquiring the position of the attachment 344 .
  • the remote control processing device 100 stores the target coordinate value Pn and related information associated with the target coordinate value Pn.
  • the remote control processing device 100 is used to control the imaging direction based on the stored object coordinate values Pn and related information after the stored time point.
  • the relevant information is information including one or more of information on the operator including physical characteristics or working posture, information on work date and time and place of work, information on the work machine, and information on work details.
  • Information about the operator includes information that identifies the individual operator. Depending on the operator, the height of the operator and the working posture when sitting, for example, the sitting posture such as slouching forward or straightening the upper body, are reflected in the adjustment of the imaging device 322 depending on the individual operator.
  • the information about the date and time of work and the location includes the date and time when the target coordinate value Pn was obtained, and the location detected by the positioning device 329 when the target coordinate value Pn was obtained.
  • the related information about the work machine includes information specifying the attachment such as the type, size and serial number of the work machine 300, and the type of the attachment 344 installed.
  • the related information related to the work content includes one or more work states such as each state quantity of the operating mechanism 340 of the work machine 300 at the time of storage, the turning angle of the upper turning body 302 of the work machine 300 with respect to the reference position, and the like. It is the information that represents Furthermore, the remote control processing device 100 stores the work content specified based on the state quantity of the work mechanism 340 stored in advance by the state quantity of the operating mechanism 340 . For example, the remote control processing device 100 stores work contents such as excavation work, loading work, lifting work, and breaker work.
  • the remote control processing device 100 Based on the plurality of stored target coordinate values P, the remote control processing device 100 creates a heat map showing the density of the target coordinate values P within the work space.
  • the remote control processing device 100 identifies an area with a high density of the target coordinate values P.
  • a work space around remote work machine 300 is divided into a plurality of unit spaces L each having a predetermined size.
  • the unit space L is an area defined by a predetermined range in each of the X direction, Y direction, and Z direction in the work space around work machine 300 .
  • the predetermined range is, for example, a length corresponding to 50% to 100% of the maximum dimension of the three dimensions of the attachment 344 used by the working machine 300 .
  • the operation processing device 100 counts the target coordinate values P included in each unit space L, and identifies the unit space L in which the density of the target coordinate values P is high.
  • a method of identifying the unit space L with the highest density is, for example, a method of identifying the unit space L with the largest number of target coordinate values P.
  • FIG. 3 shows the specified unit space L1 and target coordinate values P11 to P15 included in the unit space L1.
  • FIG. 4 is an enlarged view of L1 in FIG.
  • FIG. 5 is a top view of work machine 300 of FIG. 3, showing unit spaces L1 and L2.
  • the coordinate values of the positions of specific parts of attachment 344 are calculated and stored as target coordinate values Pn.
  • n in the target coordinate value Pn (xn, yn, zn) is a natural number (1, 2, 3, . . . ).
  • the first target coordinate value P is the target coordinate value P1 (x1, y1, z1)
  • the second target coordinate value P is the target coordinate value P2 (x2, y2, z2). stored.
  • the remote control processing device 100 designates an area with a high density of the target coordinate values P as the imaging direction, and controls the imaging angle of the imaging device 322 toward that direction by the operation of the operator.
  • the remote control processing device 100 orients the imaging direction of the imaging device 322 to, for example, the spatial center coordinates M1 of the unit space L1.
  • the remote control processing device 100 displays them on the display device of the remote control device 200, and the operator can select one of them.
  • the operator instructs to start adjusting the imaging angle of the first camera 323 by operating a switch such as an OK button (not shown) provided on the remote control device 200 .
  • remote control processing device 100 transmits an imaging angle adjustment command to work machine 300 .
  • Work machine 300 receives the command via actual wireless communication device 330, and a holding mechanism (not shown) of first camera 323 adjusts the imaging angle of first camera 323 to angle N as instructed. If the operator instructs not to start the imaging angle adjustment while the above display is being displayed, or if the operator does not perform an operation to start the imaging angle adjustment for a certain period of time, the imaging angle adjustment is not performed. Thus, the imaging direction of the first camera 323 is adjusted to the imaging angle N by the operator's operation.
  • the remote control processing device 100 stores information about the operator, information about the work date and time and place of work, information about the working machine, and information about the work content.
  • the remote control processing device 100 detects the relevant information at present, reads the target coordinate values P associated with the relevant information from the database 110, and creates a heat map.
  • Related information is detected when remote control processing unit 100 detects a condition that matches related information in the current task, for example, the same operator, in stored related information. can be called to adjust the imaging angle of the imaging device 322 .
  • the remote control processing device 100 can use related information stored in association with the specified operator. For example, when the same operator who has worked previously performs the work, the remote control processing device 100 refers to the past work history of the same operator, calls up the target coordinate value P stored during the work of the operator, and takes an image. The imaging angle of device 322 can be adjusted. Therefore, the remote control processing device 100 can adjust the imaging angle of the imaging device 322 to reflect differences among operators, such as differences in height and working posture.
  • the remote control processing device 100 calls up the stored imaging angle of the same machine size or the combination of the same machine size and the same attachment 344, calls up the target coordinate value P, and adjusts the imaging angle of the imaging device 322. be able to. Also, when the same work content is performed by the same work machine 300 , the remote control processing device 100 can call the stored target coordinate values P of the same work content and adjust the imaging angle of the imaging device 322 .
  • the remote control processing device 100 can call up the target coordinate values P of the stored work contents such as excavation work, loading work, lifter work, and breaker work, and adjust the imaging angle of the imaging device 322 .
  • the same stored work time range for example, from 13:00 to 15:00, the imaging angle of the same previous time range, and from 15:00 to 17:00, the object coordinate value P of the same previous time range is called, and the imaging device 322 imaging angle can be adjusted.
  • the remote control processing device 100 can efficiently adjust the imaging angle of the imaging device 322 based on the related information stored together with the target coordinate value P.
  • FIG. It should be noted that the operator can set the combination of conditions such as the operator and the machine size, which are keys for calling the past target coordinate values P, via the remote control device 200 .
  • the stored target coordinate values Pn can be erased by an operator's predetermined operation.
  • the target coordinate values Pn are stored in association with the operator, and the operator can erase the stored target coordinate values Pn during his work.
  • FIG. 3 when the cabin 304 is an elevating type cabin, the cabin 304 in a plurality of states in which the relative position with respect to the lower traveling body 301 is changed is indicated by dashed lines.
  • Cabin 304 or cockpit of work machine 300 is adjustable in relative position to undercarriage 301 of work machine 300 .
  • the cockpit moves in an arc shape in the vertical direction while also moving in the front-rear direction.
  • the remote control processor adjusts the imaging angle of the imaging device 322 so that the imaging direction of the imaging device 322 attached to the cabin 304 points to the representative coordinate value R even if the position of the cockpit relative to the lower traveling body 301 changes. and/or position relative to the cabin 304 can be controlled.
  • the position of the cabin 304 relative to the undercarriage 301 can be detected.
  • the remote control processing device determines the front and rear position and the vertical position of the state in which the cabin 304 has moved from the imaging angle of the imaging device 322 calculated at the reference position where the cabin 304 is in the normal position, for example, the lowest position and the rearmost position. is detected to correct at least one of the imaging angle of the imaging device 322 and the position with respect to the cabin 304 .
  • the remote control processor can send control signals to work machine 300 to adjust the corrected imaging angle of imaging device 322 and its position relative to cabin 304 .
  • Embodiment 2 is different in that the target coordinate value P is acquired by direct acquisition operation by the operator and in the calculation method for determining the imaging direction of the imaging device 322, but the rest is the same.
  • the method of Embodiment 2 in which the target coordinate values P are acquired by the operator's direct acquisition operation can also be implemented in combination with the method of Embodiment 1 in which the target coordinate values P are automatically acquired.
  • the imaging direction of the first camera 323 is determined by the following procedure. (1) Designation of the target object and calculation of the target coordinate value P by a predetermined operation of the operator (2) Grouping of a predetermined number of target coordinate values P selected in relation to the position of the target coordinate value P (3) Predetermined Determination of the representative coordinate value P to which the imaging device 322 is directed based on the number of target coordinate values P
  • the operator's predetermined operation is, for example, operation of a switch provided on the remote control device 200 .
  • Switches for designating objects to be visually recognized are provided, for example, on the operation levers 252 and 253, the touch panel of the operation input device 222, the armrest of the seat 255, the operation panel of the operator's seat of the work machine 300, and the like.
  • a specific operation of the operation levers 252 and 253 may be the operator's predetermined operation. In actual work, it is likely that there will be a high frequency of visually recognizing places close to the ground surface, such as picking up scrap iron and digging the ground. The time when the operations of 252 and 253 are detected can also be set as the operator's predetermined operation.
  • the lever operation amount changes from a predetermined first operation amount to a predetermined second operation amount larger than the first operation amount
  • the lever operation speed When the speed becomes equal to or higher than a specified speed, etc. may be detected and used as a predetermined operation by the operator.
  • the operator's predetermined operation may be performed by voice using a voice recognition device (not shown) that recognizes a specific voice spoken by the operator.
  • voice recognition device not shown
  • the position of a particular portion of attachment 344 is obtained when a particular word is uttered, such as "acquire" or "record”. That is, uttering a specific word has the same effect as the switch operation described above.
  • the operator can perform a predetermined operation by displaying an image captured by the first camera 323 or the second camera 324 on the display unit of the operation input device 222, and touching the touch panel with a finger to directly designate an object to be visually recognized. can be a method.
  • the operator's predetermined operation may include any one of switch operation, voice recognition, and touch panel operation of the operation input device 222, or a combination of two or more thereof.
  • FIG. 4 illustrates a work machine 300 and a group Q including a plurality of stored target coordinate values Pn.
  • 1 is a conceptual diagram showing the positional relationship between 1 and a representative coordinate value R.
  • FIG. FIG. 5 is a top view of work machine 300 of FIG.
  • n in the target coordinate value Pn is a natural number (1, 2, 3, . . . ).
  • the first operation is stored as the target coordinate value P1 (x1, y1, z1)
  • the second operation is stored as the target coordinate value P2 (x2, y2, z2).
  • the target coordinate value Pn is stored in association with each related information.
  • a predetermined number of target coordinate values Pn are selected from the plurality of stored target coordinate values Pn, It is assumed that there are two groups Qn.
  • Q1 includes five target coordinate values Pn from target coordinate values P1 (x1, y1, z1) to target coordinate values P5 (x5, y5, z5).
  • One target coordinate value Pn is stored in one operation by the operator. Therefore, the group Qn may include one target coordinate value Pn instead of a plurality. Therefore, a group Qn in this specification is a set containing one or more target coordinate values Pn.
  • the predetermined number of target coordinate values Pn is, for example, 1 to 9, preferably 5, for example. The larger the predetermined number, the more accurately the representative coordinate value R, which is the target to which the first camera 323 is directed.
  • a predetermined number of target coordinate values Pn are selected by a predetermined method from among a plurality of target coordinate values Pn that are at least one greater than the predetermined number.
  • the predetermined method of selecting the target coordinate values Pn is selected, for example, so that the volume of the closed space defined with reference to the predetermined number of target coordinate values Pn is minimized. Any method may be used for this purpose. For example, from among the plurality of stored target coordinate values Pn, the target coordinate values Pn having the smallest distance, that is, the closest target coordinate values Pn are selected, and then the closest one is selected. Selecting the target coordinate values Pn is repeated to select a predetermined number, for example, five target coordinate values Pn.
  • the volume of the closed space having the selected target coordinate values Pn as vertices is obtained. This method is repeated for all the stored target coordinate values Pn, and a predetermined number of target coordinate values Pn that have the smallest volume of the closed space with each target coordinate value Pn as the vertex are selected.
  • the following method may be used to find the volume of the closed space.
  • the closed space may be considered as a combination of a plurality of partial solids, and the volumes of the individual solids may be obtained and added up.
  • the closed space may be partially calculated and subtracted from the volume determined as one solid having a similar shape such as a triangular pyramid, a quadrangular pyramid, a rectangular parallelepiped, a sphere, or the like.
  • the radius of the smallest sphere containing all of the selected target coordinate values Pn may be obtained, and the volume of the sphere may be calculated to approximate the volume.
  • FIG. 4 shows a group Q1 including target coordinate values P1 to P5, and representative coordinate values R1 and R2 determined from group Q1.
  • the representative coordinate value Rn which is the target for directing the first camera 323, is determined based on the predetermined number of target coordinate values Pn included in the group Qn.
  • a representative coordinate value R (x, y, z) is a target for directing the imaging direction of the first camera 323 and is a point on the imaging direction line of the first camera 323 .
  • the representative coordinate value R is determined by a method such that the target coordinate values P1 to P5 included in the group Qn are covered as much as possible in the field of view.
  • the representative coordinate value R is obtained, for example, as the center-of-gravity position of a solid whose vertices are a predetermined number of target coordinate values Pn included in the group Qn.
  • the position of the center of gravity of the solid whose vertex is each target coordinate value Pn is, for example, a three-dimensional intermediate position between the X coordinate value, Y coordinate value, and Z coordinate value of each target coordinate value Pn. value and the average value of the Z-coordinate value.
  • the center-of-gravity position of the target coordinate value Pn is calculated by the following formula.
  • FIG. 4 shows representative coordinate values R11 obtained by this method.
  • X coordinate value of center of gravity (x1+x2+...+xn)/n
  • Y coordinate value of center of gravity (y1+y2+...+yn)/n
  • Z coordinate value of center of gravity (z1+z2+...+zn)/n
  • the following method may be used to obtain the representative coordinate value R.
  • the average value of only the two closest target coordinate values Pn that is, the intermediate coordinate value
  • the representative coordinate value R2 can be a method.
  • FIG. 4 shows the representative coordinate value R12 obtained from P12 and P13 of the target coordinate value Pn by this method.
  • This method has the disadvantage that the positional accuracy of the representative coordinate value R is lower than that of the first method, but has the advantage that the calculation speed can be shortened by a simple method.
  • the group is made into one group Qn, and the central point coordinate value of the straight line connecting the two or the barycentric position of the figure having the three vertices as the representative coordinates.
  • a value R may be used.
  • the remote control device 200 displays information regarding the determination of the imaging angle N on the display section of the image output device 231 or the operation input device 222 .
  • the information displayed at that time is that the imaging angle N for directing the first camera 323 to the object has been obtained, the angle N, the representative coordinate value R1, and the imaging field of view of the first camera 323 at the present time (before adjustment).
  • coordinate values eg, center coordinate values of the imaging field of view
  • the imaging direction of the first camera 323 is adjusted based on the calculated imaging direction, or guidance is provided. Together with the above information, a sentence for asking the operator whether to start adjusting the imaging angle N of the first camera 323 is also displayed.
  • the remote control device 200 instructs the work machine 300 to adjust the imaging angle. to send.
  • Work machine 300 receives the command via actual wireless communication device 331, and a holding mechanism (not shown) of first camera 323 adjusts the imaging angle of first camera 323 to angle N as instructed. If the operator instructs not to start the imaging angle adjustment during the display, or if the operator does not start the imaging angle adjustment for a certain period of time, the imaging angle is not adjusted. As described above, the imaging direction of the first camera 323 is adjusted to the angle N at which the object specified by the operator is oriented.
  • the remote control processing device of the present invention when storing the target coordinate values Pn, they are classified according to different work time ranges and specific work states by using related information that is simultaneously stored as related information. Specifically, the remote control processing device classifies all the stored target coordinate values Pn into different work time ranges using the dates and times when the target coordinate values Pn were obtained. The remote control processing device divides the working time range at fixed time intervals, for example, every 4 hours, 8 hours, 12 hours, 1 day, 2 days, etc. from the current time, and calculates the target coordinate value Pn are sorted to determine each group Qn (n is a natural number).
  • the remote control processing device classifies all the stored target coordinate values Pn for each specific work state using each state quantity of the work machine 300 at the time when the target coordinate values Pn were acquired.
  • the remote control processing device determines the position detected by the positioning device 329, each state quantity of the operating mechanism 340 of the working machine 300, and the rotation of the upper rotating body 302 of the working machine 300 with respect to the reference position at the time when the target coordinate value Pn was acquired.
  • the work area in which work machine 300 works is divided into predetermined area units.
  • the predetermined area unit is determined in advance for each work machine 300 or each work content so that the above-described point where scrap iron, soil, etc. are picked up and the point where they are dropped can be distinguished. .
  • the target coordinate values Pn are classified for each specific work state, for example, by dividing the angular range area into each constant rotation angle range in the turning direction of the upper rotating body 302 with respect to the lower traveling body 301, A method of classifying the target coordinate values Pn for each angle range area may also be used.
  • the turning direction of the upper turning body 302 can be divided into 5° rotation angle ranges. Assuming that the forward direction of work machine 300 is 0°, the entire circumference can be divided into 5° rotation angle ranges in both left and right directions centering on a rotation angle range of 0° ⁇ 2.5°. Note that the rotation angle range that divides the regions may be 2.5°, 7.5°, 10°, or 15°.
  • FIG. 5 shows, as an example, a group Q1 containing target coordinate values P11 to P15 and a group Q2 containing target coordinate values P21 to P25 stored for different work time ranges or specific work states.
  • the remote control processing device classifies all the stored target coordinate values Pn by at least one of different work time ranges and specific work states, and selects the target coordinate values Pn from among them. can.
  • the operator can display the stored target coordinate values Pn on the display unit of the image output device 231 or the operation input device 222 .
  • There are a plurality of display methods for the target coordinate values Pn including all target coordinate values Pn, all groups Qn, different work time ranges, specific work states, or different work time ranges and specific work states. can be displayed with The operator can select a specific group Qn from the displayed multiple groups Qn.
  • a remote control processing device acquires the position of an attachment being worked on, stores it as target coordinate values, and determines an imaging angle so that the imaging direction of the imaging device is oriented based on the distribution of the target coordinate values. , the imaging angle of the imaging device is controlled, so that the operator can easily obtain an appropriate imaging field of view to be visually recognized.
  • the remote control processing device controls the imaging angle of the imaging device when receiving an instruction to start adjusting the imaging angle from an operator.
  • the remote control processing device of the present invention can control the imaging angle of the imaging device based on the operator's intention.
  • the remote control processing device automatically acquires the position of the attachment and stores it as target coordinate values.
  • the remote control processing device of the present invention can easily obtain an appropriate imaging field of view for the operator to visually recognize.
  • the remote control processing device of the present invention acquires at least one of the coordinate values of the attachment of the working machine when the operator performs a predetermined operation, and the coordinate values of the object designated by the operator using the operation input device. It is preferable to store as object coordinate values.
  • the remote control processing device of the present invention obtains from at least one of the coordinate values of the attachments of the working machine at the time when the operator performs a predetermined operation, such as a switch operation, and the target coordinate values specified by the operator using the operation input device. Therefore, the coordinate values of the object to be visually recognized can be easily and reliably recognized.
  • the remote control processing device of the present invention stores target coordinate values, which are coordinate values during operation of the attachment, and related information associated with the target coordinate values, detects current related information, and associates it with the related information. It is preferable to read out the object coordinate values stored in the image pickup apparatus and control the image pickup angle of the image pickup apparatus.
  • the remote control processing device of the present invention detects relevant information at present, reads target coordinate values stored in association with the relevant information, and controls the imaging angle of the imaging device. A wide imaging field of view can be easily obtained.
  • the target coordinate values stored in the remote control processing device of the present invention can be erased by an operator's predetermined operation.
  • the object coordinate values can be deleted by the operator's operation, so that only the necessary object coordinate values can be left, and the operator can efficiently obtain an appropriate field of view to be visually recognized.
  • the remote control processing system of the present invention is preferably a remote control processing system including a remote control processing device, a remote control device, and a working machine.
  • the remote control processing system of the present invention includes the necessary components of the remote control processing device, the remote control device, and the work machine, it is possible to efficiently obtain an appropriate field of view for the operator to view.
  • remote control processing device 100 remote control processing device 200 remote control device 222 operation input device 230 remote output interface 300 working machine 301 undercarriage 322 imaging device 344 attachment 500 remote control processing system P, Pn target coordinate values, Q, Qn group, R, Rn Representative coordinate values.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本発明は、オペレータが視認すべき対象物に撮像装置322の撮像方向が指向するように撮像角度を決定し、撮像装置322の撮像角度を制御して適切な撮像視野を得ることができる遠隔操作処理装置を提供することを目的とする。遠隔操作処理装置100は、遠隔操作される作業機械に配置されている撮像装置322の撮像角度を制御可能であり、遠隔操作装置200を用いた作業機械300の遠隔操作を支援するための遠隔操作処理装置100であって、遠隔操作処理装置100は、作業機械300に備えられたアタッチメント344の作業中の位置を取得して対象座標値Pとして記憶し、対象座標値Pの分布に基づいて撮像装置322の撮像角度を制御する。

Description

遠隔操作処理装置、及び遠隔操作処理システム
 本発明は、遠隔操作装置を用いた作業機械の遠隔操作を支援する遠隔操作処理装置、及び遠隔操作処理システムに関し、具体的には作業機械に備えられている撮像装置の撮像角度を制御可能な遠隔操作処理装置、及び遠隔操作処理システムに関する。
 従来、特許文献1に開示されているように、遠隔操作される作業機械が知られている。特許文献1の作業機械には、遠隔駆動装置、及び撮像装置が取り付けられており、オペレータは、実機から離れた場所に設置されている遠隔操作装置により作業機械を遠隔操作する。
 オペレータは、実機の操縦席にある室内カメラの画像を見ながら作業機械を遠隔操作する。しかし、室内カメラの画像では、オペレータは作業現場の実際の奥行き感が把握しづらいという問題がある。そのため、作業機械のキャビン上部にカメラを設け、キャビン上部からの画像を視認できるように工夫された装置が開示されている。
特開2007-16403号公報
 しかしながら、作業機械の種類によりキャビン高が異なるため、作業機械ごとに、カメラの撮像角度の調整が必要であった。この問題に対し、特許文献1に記載された発明では、作業機械のアクチュエータの状態量と、カメラの視野に入れるべき補足点との関係をあらかじめ記憶しておき、アクチュエータの状態量をパラメータとして、カメラの撮像方向を調整している。しかし、アクチュエータの状態量とカメラの視野に入れるべき補足点との関係を作業機械ごとに調べて、あらかじめ記憶させておく必要があり、非常に手間がかかっていた。また、記憶されたアクチュエータの状態量から決定されるカメラの視野は、オペレータにとって常に適切な撮像視野になるとは限らなかった。
 本発明は、オペレータが視認すべき対象物に撮像装置の撮像方向が指向するように撮像角度を決定し、撮像装置の撮像角度を制御して、オペレータが視認すべき適切な撮像視野を容易に得ることができる遠隔操作処理装置、及び遠隔操作処理システムを提供することを目的とする。
 本発明に係る遠隔操作処理装置は、遠隔操作される作業機械に配置されている撮像装置の撮像角度を制御可能であり、遠隔操作装置を用いた作業機械の遠隔操作を支援するための遠隔操作処理装置であって、作業中のアタッチメントの位置を取得して対象座標値として記憶し、対象座標値の分布に基づいて、撮像装置の撮像角度を制御する。
本発明に係る遠隔操作支援処理装置を示す概要図。 遠隔操作装置を示す概要図。 作業中の作業機械を示す側面図。 図3における対象座標値と代表座標値との位置関係を示す概念図。 作業中の作業機械を示す上面図。
 [実施の形態1]
 図1及び図2を参照して、本発明の実施の形態1に係る遠隔操作処理装置を説明する。図1は、本発明の遠隔操作処理装置100を含む遠隔操作処理システム500の全体を示す概要図である。図2は、遠隔操作処理システム500が備える遠隔操作装置200の概要図である。遠隔操作処理システム500は、遠隔操作処理装置100と、作業機械300を遠隔操作するための遠隔操作装置200とを備えている。遠隔操作処理装置100は、遠隔操作処理システム500では、遠隔操作装置200に設けられていてもよく、作業機械300に設けられていてもよい。又は、遠隔操作処理装置100は単体、例えばサーバとして備えられていてもよい。以下の説明では、遠隔操作処理装置100は単体として設けられている場合で説明する。
 遠隔操作装置200、及び作業機械300は相互にネットワーク通信可能に構成されている。また、遠隔操作処理装置100が単体で設けられている場合は、遠隔操作処理装置100は遠隔操作装置200、及び作業機械300と相互にネットワーク通信可能に構成される。
 遠隔操作処理装置100は、データベース110と、制御装置120とを備えている。データベース110は、撮像画像、作業機械の作動状態を示す各種特性値、オペレータに関する各種データ等、遠隔操作支援に関わる各種データを記憶保持する。制御装置120は、演算処理装置(シングルコアプロセッサ、マルチコアプロセッサ、又はこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータ、及びソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがって、所定の演算処理を実行する。データベース110は、遠隔操作処理装置100と別個のデータベースにより構成されていてもよい。
 <作業機械300の構成>
 図3を参照して、遠隔操作される作業機械300を説明する。図3は、作業中の作業機械300を示す側面図である。本実施の形態における作業機械300は、屑鉄を吸着して移動するリフティングマグネット機を利用する場合で説明するが、本発明を適用し得る作業機械300は、その種類を限定されない。作業機械300は、例えば、アタッチメントがバケットであるパワーショベル、アタッチメントがつかみ具であるつかみ機、アタッチメントが切断具である切断機、アタッチメントが圧砕具である圧砕機、アタッチメントがブレーカであるブレーカ機等、何れでもよい。
 作業機械300は、車輪を覆う走行用の履帯303を有する下部走行体301、及び下部走行体301の上に回動自在に載せられている上部旋回体302を備えている。さらに作業機械300は、上部旋回体302に設けられているキャビン304、上部旋回体302に設けられているブーム341、ブーム341の先端に接続されているアーム342、及びアーム342の先端に接続されてアタッチメントピン343で取付けられているアタッチメント344を備えている。
 作業機械300は、実機制御装置310と、実機入力インターフェース320と、実機無線通信機器330と、作動機構340と、を備えている。
 実機制御装置310は、演算処理装置(シングルコアプロセッサ、マルチコアプロセッサ、又はこれを構成するプロセッサコア)により構成され、メモリなどの記憶装置から必要なデータ、及びソフトウェアを読み取り、当該データを対象として当該ソフトウェアにしたがって、所定の演算処理を実行する。
 実機入力インターフェース320は、実機操作機構321と、撮像装置322と、測位装置329とを備えている。実機操作機構321は、キャビン304の内部に配置されたシート255の周囲に配置された複数の操作レバーを備えている。遠隔操作レバーの操作に対応した信号を受信し、当該受信信号に基づいて実機操作レバーを動かす駆動機構、又はロボットが設けられている。
 撮像装置322は、キャビン304の外に設けられている第1カメラ323と、キャビン304の中に設けられている第2カメラ324とを有している。第1カメラ323は、例えばキャビン304の屋根上の前方中央部に設けられている。第2カメラ324はキャビン304の内部に配置され、シート255のヘッドレスト付近に設けられている。第2カメラ324は、フロントウィンドウ、及び左右一対のサイドウィンドウ越しに作動機構340の少なくとも一部を含む環境を撮像する。
 第1カメラ323はキャビン304に対して水平方向には回転不能に保持されており、第1カメラ323の撮像方向の調整は、上下方向のみ可能である。角度調整前の第1カメラ323の撮像方向は、デフォルト値が設定されている。第1カメラ323の撮像方向のデフォルト値は、例えば、水平面から40°下方の角度である。なお、本発明はキャビン304の外部に配置された第1カメラ323への適用が可能である他、キャビン304の内部に配置された第2カメラ324等、他のカメラにも適用可能である。
 なお、第1カメラ323は、キャビン304の前面、左側面、又は右側面のほぼ垂直な外面上に設けられていてもよい。又、第1カメラ323は2つ以上設けられていてもよい。第1カメラ323は、例えば、キャビン304の屋根上の前部の左側と右側に1つずつ設けられていてもよい。又は、第1カメラ323は、キャビン304の前面、左側面、又は右側面の何れか2つ以上、例えばキャビン304の左側面と、右側面とにそれぞれ設けられていてもよい。
 また、複数の第1カメラ323を左右方向に離間した位置に配置し、それぞれの第1カメラ323で撮像した画像と、3D眼鏡とを用いることにより、ステレオ画像を得るようにしてもよい。オペレータは、ステレオ画像を視認することにより、奥行き感を把握することができる。
 オペレータがステレオ画像を視認する方法は、公知の方法を利用できる。例えば、複数の第1カメラ323からの画像を後述する表示装置に重ねて同時に表示し、オペレータが左目用、右目用それぞれの偏向フィルタを含んだ3D用眼鏡を用いる方法が利用できる。又は、左側第1カメラ323の画像、及び右側第1カメラ323の画像を片方ずつ交互に表示装置に毎秒数回~数十回の周期で切り替え表示し、オペレータが表示装置に表示されている左画像又は右画像に同期した左目用、右目用の液晶シャッタを含んだ3D用眼鏡を用いる方法が利用できる。又は、複数の第1カメラ323からの画像を表示装置に重ねて同時に表示し、オペレータが裸眼でステレオ画像を認識できるディスプレイを用いる方法が利用できる。
 測位装置329はGPS、及び必要に応じてジャイロセンサを含んでおり、作業機械300の位置を取得する。
 作業機械300は、実機無線通信機器330を備えている。実機入力インターフェース320により取得された撮像画像、位置情報は、実機無線通信機器330により、ネットワークを介し、遠隔操作処理装置100を経由して、遠隔操作装置200に送信される。
 <遠隔操作装置200の構成>
 図1~図3を参照して、遠隔操作装置200を説明する。図3は、作業中の作業機械300を示す側面図である。遠隔操作装置200は、遠隔制御装置210、遠隔入力インターフェース220、遠隔出力インターフェース230、及びシート255を備えている。
 遠隔制御装置210は、遠隔入力インターフェース220、遠隔出力インターフェース230、及び遠隔無線通信機器237のそれぞれの制御、及びデータ入出力を含む、遠隔操作装置200全体の制御を行う。
 遠隔入力インターフェース220は、遠隔操作機構221と、操作入力装置222と、オペレータ認識装置223とを備えている。
 遠隔操作機構221は、作業機械300に対応して、走行用操作装置と、旋回用操作装置と、アーム用操作装置と、ブーム用操作装置と、アタッチメント用操作装置とを含んでいる。遠隔操作機構221は、回動操作により操作される複数のレバーを有している。シート255の前方において、左右のクローラにそれぞれ対応した左右一対の走行レバー251が、左右横並びに配置されている。オペレータが着座するためのシート255の両脇には、操作レバー252、253が配置されている。
 遠隔操作機構221のレバーと、作業機械300の作動機構340の動作との対応について説明する。走行用操作装置の走行レバー251は、作業機械300の下部走行体301を動かすレバーである。シート255の左側フレームの前方に設けられている操作レバー252は、前後方向に操作された場合にアームレバーとして機能し、かつ、左右方向に操作された場合に旋回レバーとして機能する。シート255の右側フレームの前方に設けられている操作レバー253は、前後方向に操作された場合にブームレバーとして機能し、かつ、左右方向に操作された場合にアタッチメントレバーとして機能する。なお、作業機械300の動作に対応する遠隔操作機構221のレバー位置とその操作方向は、上記の操作パターン以外でもよく、オペレータの操作により適宜変更されてもよい。
 操作入力装置222は、オペレータが操作しやすいように、シート255の右側フレームの前方に固定部材を介して固定されている。操作入力装置222は、各種情報を表示する表示部と、各種入力が可能な入力部とを備えた入力装置である。操作入力装置222の入力部は、タッチパネル式、ボタン式、回転式、及びスライド式から選択される1つ以上から形成されている。また、操作入力装置222の表示部は、液晶表示装置、有機EL表示装置、LED表示装置、等で形成されている。操作入力装置222は、例えば、液晶表示装置にタッチパネルを重ねて形成されたタッチパネル式液晶表示装置である。
 オペレータ認識装置223は、オペレータの画像、音声、又は個人識別番号等を取得して、オペレータ個人を特定する装置である。オペレータ認識装置223は、遠隔操作装置200の前方部分において、シート255に向かって後ろ向きに設けられている。オペレータ認識装置223は、遠隔操作装置200の起動後、シート255に着座しているオペレータを撮像する。オペレータ認識装置223は、撮像された画像を用いて、顔認証によりオペレータ個人を特定する。
 オペレータ識別情報は、遠隔操作処理装置100のデータベース110に記憶されていてもよい。又は、遠隔操作処理システム500以外の場所に構築されたデータベースに記憶されていて、通信手段を介してオペレータ個人の特定が行われてもよい。記憶されているオペレータ識別情報とは、作業機械300を操作できる1人以上のオペレータの画像、個人識別番号、オペレータごとのパスワード等のオペレータ識別情報である。取得されたオペレータ識別情報は、記憶されているオペレータ識別情報の1つ以上と照合され、オペレータ個人が特定される。
 オペレータ認識装置223は、撮像装置に替えて、遠隔操作装置200に設けられ、オペレータの個人識別番号等を入力する図示されないオペレータ情報入力装置、又は撮像装置とオペレータ情報入力装置の両方であってもよい。オペレータ情報入力装置は、キー入力式装置でもよいし、マイクを有し、オペレータの声そのもの、又はオペレータごとに決まっているパスワードを認識する音声認識装置でもよい。
 なお、記憶されている情報は、上記オペレータ識別情報の他に、オペレータの身長、及び、オペレータ認識装置223の撮像装置等により取得された過去の作業時の情報も記憶可能である。過去の作業時の情報とは、遠隔操作中の作業姿勢、全作業の作業日時及び作業場所、現在までの作業機械300の累積作業時間、等である。
 遠隔出力インターフェース230は、画像出力装置231を備えている。画像出力装置231は、作業機械300から送信される撮像画像を表示する装置である。画像出力装置231は、例えば図2に示されているように、シート255の前方、左斜め前方、及び右斜め前方のそれぞれに配置された略矩形状の表示画面を有する中央表示装置232、左側表示装置233、及び右側表示装置234、並びに中央表示装置232の上方に隣接して配置されている上部表示装置235を有している。中央表示装置232、左側表示装置233、右側表示装置234、及び上部表示装置235のそれぞれの画像表示領域の形状、及びサイズは同じである。
 なお、上部表示装置235は1つでなく、中央表示装置232、左側表示装置233、及び右側表示装置234と同様に、水平方向に複数配置されていてもよい。又は、視認する頻度が多い中央表示装置232、又は中央表示装置232と上部表示装置235は、左側表示装置233、及び右側表示装置234に比べて大きくてもよい。
 中央表示装置232、左側表示装置233、及び右側表示装置234のそれぞれの画面は、鉛直方向に対して平行であってもよく、鉛直方向に対して傾斜していてもよい。中央表示装置232、左側表示装置233、及び右側表示装置234のうち、少なくとも1つの画像出力装置が複数に分割された画像出力装置により構成されていてもよい。例えば、中央表示装置232が、略矩形状の画面を有する上下に隣接する一対の画像出力装置により構成されていてもよい。
 本発明の遠隔操作処理装置100において、作業機械300に設けられている撮像装置322の撮像角度(または光軸の方向)を決定する手順を説明する。遠隔操作処理装置100は、作業機械300の基準点を原点Kとする実機座標系で表された座標値を用いて、対象座標値Pを演算、及び記憶する。座標の原点Kである作業機械300の基準点は適宜決定され得るが、例えば、上部旋回体302の回転軸線Lと、下部走行体301の車輪を覆う履帯303の下面を含む平面M、すなわち地面との交点が実機座標系の原点Kとされる。
 座標軸は、原点Kを中心として、作業機械300の左右方向に平行な向きにX軸、前後方向に平行な向きにY軸、上下方向に平行な向きにZ軸が配置されている。X軸、Y軸、Z軸は、座標の原点Kを中心に、左方向、前方向、上方向がプラス、右方向、後ろ方向、下方向がマイナスとして設定されている。作業機械300は、測位装置329により位置の検出が可能であり、作業機械300のグローバルな位置を常に検出している。実機座標系で定義された座標値は、作業機械300の位置とリンクさせて地図上のグローバルな位置、すなわち絶対位置座標系に変換して記憶されてもよい。
 遠隔操作処理装置100は、作業の開始から終了までのアタッチメント344の特定部位の位置を自動的に3次元座標で表される点、すなわち対象座標値Pとして記憶して、対象座標値Pの密度を表すヒートマップを作成する。遠隔操作処理装置100は、ヒートマップに基づき対象座標値Pの密度が高い領域を特定して、撮像方向を決定する。以下に、その手順を説明する。
  (1)作業中のアタッチメント344の位置を自動的に取得し、対象座標値Pとして
記憶し、対象座標値Pの密度を示すヒートマップを作成
  (2)記憶された対象座標値Pの密度が高い領域を特定
  (3)特定された対象座標値Pの密度が高い領域に向けて撮像装置の撮像角度を制御
 図3には、作業機械300としてリフティングマグネット機が示されている。作業機械300は、作動機構340の状態量を含む作業機械300の各部の状態量を検出可能に構成されている。作業機械300の各部の状態量は、例えば、上部旋回体302の下部走行体301に対する旋回角度、ブーム341、及びアーム342の基準位置からの角度である。また、作業機械300の各部の状態量は、アタッチメント344のアーム342の長手方向に対するアタッチメントピン343を回転中心とする回転角度位置(例えば、ショベル機のバケットのアーム342長手方向に対する角度位置)、アタッチメント344(例えばつかみ機の2つの挟み込み用はさみ具)のアーム342長手方向軸線を回転中心とするはさみ具の回転角度、はさみ具の開き角度、等である。
 ブーム341とアーム342とのそれぞれの長さと接続位置、及びアタッチメント344の形状は、あらかじめ正確に把握している。したがって、遠隔操作支援システムは、作業中のブーム341、アーム342、及びアタッチメント344の各状態量、並びにアタッチメント344の特定部位のアーム342先端からの位置により、アタッチメント344の特定部位の座標が取得可能である。取得されたアタッチメント344の特定部位の座標値が対象座標値P(x、y、z)として記憶される。
 アタッチメント344の特定部位は、アタッチメント344の形状に応じて次のように選択される。作業機械300がマグネット部345を備えたリフティングマグネット機の場合、アタッチメント344の特定部位は、例えばマグネット部345の吸着面である下面部346の中央部である。作業機械300がショベル機の場合、アタッチメント344の特定部位は、例えばバケットの先端の爪部の幅方向すなわち左右方向の中央部、又はバケットの開口部の中央部である。作業機械300が1対のはさみ具を備えるつかみ機、切断機、及び圧砕機の場合、アタッチメント344の特定部位は、例えば2つのはさみ具が閉状態における長さ方向の先端部、又は長さ方向の中央部である。作業機械300がブレーカを備えたブレーカ機の場合、アタッチメント344の特定部位は、例えばブレーカの先端部である。
 アタッチメント344の特定部位は、アタッチメント344の種類に関わらず、アタッチメント344の取付け用アタッチメントピン343の長手方向すなわち左右方向の中央部とすることができる。アタッチメント344の特定部位をアタッチメントピン343とした場合は、作業内容に応じて付け替えられるアタッチメント344の種類に関わらず、アタッチメント344の上記位置が共通して特定部位として記憶される。
 作業中のアタッチメント344の位置は、遠隔操作処理装置100が所定時間ごとに自動的に取得する。例えば、遠隔操作処理装置100は、5秒毎、10秒毎、20秒毎、30秒毎、1分毎にアタッチメント344の位置を自動的に取得する。これに加えて、遠隔操作処理装置100は、特定の作業をした時のアタッチメント344の特定部位の位置を取得することができる。特定の作業とは、リフティングマグネット機で粗材の吸着、及び釈放をした時、ブレーカ機でブレーカを打った時、アタッチメント344が地表面に接近した時、レバー操作量が所定の第1操作量から第1操作量よりも大きい所定の第2操作量に変化した時、レバー操作量が所定操作量以上になった時、レバー操作速度が指定速度以上になった時、等である。これらの作業状態の時には、遠隔操作処理装置100はアタッチメント344の特定部位の位置を自動的に取得する。オペレータは、アタッチメント344の位置を取得する方法を上記の何れにするかを設定できる。
 遠隔操作処理装置100は、対象座標値Pnと、対象座標値Pnと関連付けされた関連情報とを記憶する。遠隔操作処理装置100は、記憶された時点以降において、記憶された対象座標値Pnとその関連情報とに基づいて、撮像方向の制御に用いられる。関連情報とは、身体的特徴、又は作業姿勢を含むオペレータに関する情報、作業日時及び作業場所に関する情報、作業機械に関する情報、作業内容に関する情報の1つ以上を含む情報である。
 オペレータに関する情報として、オペレータ個人を特定する情報が含まれる。オペレータにより、身長の高低、及び着座時の作業姿勢、例えば前かがみ又は上半身をまっすぐにした状態等の着座姿勢が異なるため、オペレータ個人の特定により撮像装置322の調整に反映される。また、作業日時及び場所に関する情報は、対象座標値Pnが取得された時点の日時、及び対象座標値Pnが取得された時点の測位装置329が検出した場所が含まれる。また、作業機械に関する関連情報には、作業機械300の種類、サイズ及び、号機番号、並びに、装着されているアタッチメント344の種類等、アタッチメントを特定する情報が含まれる。
 また、作業内容に関する関連情報は、記憶された時点の作業機械300の作動機構340の各状態量、作業機械300の上部旋回体302の基準位置に対する旋回角度、等の1つ以上の作業状態を表す情報である。さらに、遠隔操作処理装置100は、作動機構340の状態量により、あらかじめ記憶されている作業機構340の状態量に基づいて特定される作業内容を記憶する。例えば、遠隔操作処理装置100は、掘削作業、積み込み作業、リフマグ作業、ブレーカ作業などの作業内容を記憶する。
 遠隔操作処理装置100は、記憶された複数の対象座標値Pに基づいて、作業空間内における対象座標値Pの密度を示すヒートマップを作成する。
 遠隔操作処理装置100は、ヒートマップの作成後、対象座標値Pの密度が高い領域を特定する。遠隔作業機械300の周囲の作業空間は、所定の大きさの複数の単位空間Lごとに分割されている。単位空間Lは、作業機械300の周囲の作業空間において、X方向、Y方向、Z方向のそれぞれが所定範囲で定義される領域である。前記所定範囲は、例えば、作業機械300が使用するアタッチメント344の3方向の寸法うちの最大寸法の50%~100%に相当する長さである。
 操作処理装置100は、単位空間Lごとに含まれる対象座標値Pをカウントして、対象座標値Pの密度が高い単位空間Lを特定する。密度が高い単位空間Lを特定する方法は、例えば、対象座標値Pの数が一番多い単位空間Lを特定する方法である。あるいは、対象座標値Pが所定値以上、具体的には5個以上、10個以上、又は20個以上等、対象座標値Pを所定数以上含む単位空間Lを特定する方法である。後者のように複数の単位空間Lが特定されている場合は、オペレータは何れかを選択することができる。
 図3~図5を参照して、対象座標値Pについて説明する。図3は、特定された単位空間L1と、単位空間L1に含まれる対象座標値P11~P15とが示されている。図4は、図3のL1の拡大図である。図5は、図3の作業機械300の上面図であり、単位空間L1、及びL2が示されている。作業機械300の作業中に、アタッチメント344の特定部位の位置の座標値が演算されて、それぞれ対象座標値Pnとして記憶される。対象座標値Pn(xn、yn、zn)におけるnは、自然数(1、2、3、…)である。例えば、1つ目の対象座標値Pは、対象座標値P1(x1、y1、z1)、2つ目の対象座標値Pは、対象座標値P2(x2、y2、z2)のように、区別されて記憶される。
 遠隔操作処理装置100は、ヒートマップに基づいて、対象座標値Pの密度が高い領域を撮像方向とし、オペレータの操作により、その方向に向けて撮像装置322の撮像角度を制御する。遠隔操作処理装置100は、例えば単位空間L1の空間中心座標M1に撮像装置322の撮像方向を向ける。対象座標値Pの密度が高い領域である単位空間Lが複数ある場合、遠隔操作処理装置100は、遠隔操作装置200の表示装置にそれらを表示し、オペレータは何れかを選択することができる。
 オペレータは、遠隔操作装置200に設けられている図示されないOKボタン等のスイッチ操作により、第1カメラ323の撮像角度調整開始の指示をする。その指示により、遠隔操作処理装置100は、作業機械300に撮像角度調整の指令を送信する。作業機械300は実機無線通信機器330を介して指令を受信し、第1カメラ323の図示されない保持機構は、第1カメラ323の撮像角度を指示された角度Nに調整する。上記表示がされている時に、オペレータが撮像角度調整開始をしないと指示した場合、又は一定時間、撮像角度調整を開始する操作をしなかった場合は、撮像角度調整を行わない。このように、第1カメラ323の撮像方向は、オペレータの操作により撮像角度Nに調整される。
 また、オペレータは演算された撮像装置322の撮像角度Nを修正して撮像装置322を調整することができる。画像出力装置231、又は操作入力装置222の表示部には、修正時のガイダンスとして図5のような取得した対象座標値Pnを示す画像が表示される。遠隔操作処理装置100は、このような表示により、演算された撮像方向により撮像装置322の撮像方向を調整するためのガイダンスを行う。上記と合わせて、第1カメラ323の撮像角度Nへの調整を開始するかをオペレータに確認する文章も表示する。オペレータは操作入力装置222のタッチパネル、又は図示されないスイッチを利用して、表示された撮像装置322の画像を見ながら、撮像装置322の撮像角度Nを調整することができる。遠隔操作処理装置100は、調整された撮像角度Nと対象座標値Pとを記憶する。
 遠隔操作処理装置100が記憶している対象座標値P、及び対象座標値Pの関連情報の利用について説明する。遠隔操作処理装置100は、上記のとおり、オペレータに関する情報、作業日時及び作業場所に関する情報、作業機械に関する情報、作業内容に関する情報を記憶している。遠隔操作処理装置100は、現在における関連情報を検出し、当該関連情報に関連付けられている対象座標値Pをデータベース110から読み出し、ヒートマップを作成する。関連情報の検出は、遠隔操作処理装置100が現在の作業における関連情報と一致する条件、例えば同じオペレータ等について、記憶されている関連情報に検出した場合、関連付けて記憶されている対象座標値Pを呼び出して、撮像装置322の撮像角度を調整することができる。
 例えば、遠隔操作処理装置100は、特定されたオペレータに関連付けて記憶された関連情報を利用することができる。例えば、以前作業したオペレータと同じオペレータが作業する場合、遠隔操作処理装置100は、同じオペレータの過去の作業履歴を参照し、そのオペレータの作業中に記憶された対象座標値Pを呼び出して、撮像装置322の撮像角度を調整することができる。したがって、遠隔操作処理装置100は、身長の違い及び作業姿勢の違い等オペレータによる違いを反映して、撮像装置322の撮像角度の調整が可能である。
 また、作業機械300のサイズが大きくなれば、作業機械300のキャビン高も高くなるという傾向があるため、機械サイズにより撮像角度を変更することが好ましい。したがって、遠隔操作処理装置100は、記憶された同じ機械サイズ、又は同じ機械サイズと同じアタッチメント344との組み合わせの撮像角度を呼び出して、対象座標値Pを呼び出し、撮像装置322の撮像角度を調整することができる。また、同じ作業機械300により同じ作業内容が行われる場合、遠隔操作処理装置100は記憶された同じ作業内容の対象座標値Pを呼び出して、撮像装置322の撮像角度を調整することができる。例えば、遠隔操作処理装置100は、記憶された掘削作業、積み込み作業、リフマグ作業、ブレーカ作業などの作業内容の対象座標値Pを呼び出して、撮像装置322の撮像角度を調整することができる。また、記憶された同じ作業時間範囲、例えば、13時~15時には、以前の同じ時間範囲の撮像角度、又15時~17時には、以前の同じ時間範囲の対象座標値Pを呼び出して、撮像装置322の撮像角度を調整することができる。このように、遠隔操作処理装置100は、対象座標値Pとともに記憶された関連情報に基づいて、撮像装置322の撮像角度を効率的に調整することができる。なお、過去の対象座標値Pを呼び出す際のキーとなるオペレータ、機械サイズ等の条件の組み合わせは、オペレータが遠隔操作装置200を介して設定可能である。
 記憶された対象座標値Pnは、オペレータの所定の操作により消去可能である。対象座標値Pnはオペレータに関連して記憶されており、オペレータは、自分の作業中に記憶された対象座標値Pnを消去可能である。
 <昇降式キャビンの場合の撮像角度の補正>
 図3には、キャビン304が昇降式キャビンの場合の、下部走行体301に対して相対位置が変化した複数の状態のキャビン304が破線で示されている。作業機械300のキャビン304すなわち操縦室は、作業機械300の下部走行体301に対する相対位置を調整可能である。作業機械300が昇降式キャビンの場合、操縦室は、前後方向にも移動しながら上下方向に円弧状に移動する。遠隔操作処理装置は、操縦室の下部走行体301に対する相対位置が変わっても、キャビン304に取付けられた撮像装置322の撮像方向が代表座標値Rを指向するように撮像装置322の撮像角度、及びキャビン304に対する位置の少なくとも何れか一方を制御できる。
 キャビン304の下部走行体301に対する相対位置は検出可能である。遠隔操作処理装置は、キャビン304が通常位置である基準位置、例えば、最下端位置かつ最後端位置状態で演算された撮像装置322の撮像角度から、キャビン304が移動した状態の前後位置及び上下位置を検出して、撮像装置322の撮像角度、及びキャビン304に対する位置の少なくとも何れか一方を補正する。遠隔操作処理装置は、補正された撮像装置322の撮像角度、及びキャビン304に対する位置を調整するための制御信号を作業機械300に送信可能である。
 [実施の形態2]
 次に、本発明に係る実施の形態2を説明する。実施の形態2は、対象座標値Pの取得がオペレータの直接的な取得操作によることと、撮像装置322の撮像方向を決定する演算方法とが異なっており、その他は同じである。なお、対象座標値Pをオペレータの直接的な取得操作により取得する実施の形態2の方法は、対象座標値Pを自動的に取得する実施の形態1の方法と組み合わせて実施することもできる。
 第1カメラ323の撮像方向の決定は、下記の手順で行われる。
  (1)オペレータの所定の操作による対象物の指定と対象座標値Pの演算
  (2)対象座標値Pの位置に関連して選択された所定数の対象座標値Pのグループ化
  (3)所定数の対象座標値Pに基づく撮像装置322が指向する代表座標値Pの決定
 (1)オペレータの所定の操作による対象物の指定と対象座標値Pの演算
 遠隔操作処理装置は、オペレータが所定の操作をした時点の指定された対象物の対象座標値Pを演算して関連情報とともに記憶する。作業機械300による作業はアタッチメント344を操作して行われるから、オペレータが視認すべき対象物はアタッチメント344、及びその周辺の確認が特に必要である。そのため、本発明の遠隔操作処理装置100は、オペレータが所定の操作をした時点のアタッチメント344の特定部位の位置を、オペレータが視認すべき対象物の位置として取得し、その対象座標値Pを求めて記憶する。遠隔操作処理装置100は、オペレータが所定の操作をする都度、作業機械300が備えるアタッチメント344の特定部位の座標値を対象座標値Pとしてそれぞれ記憶する。
 オペレータの所定の操作とは、例えば、遠隔操作装置200に設けられているスイッチの操作である。視認すべき対象物を指定するスイッチは、例えば、操作レバー252、253、操作入力装置222のタッチパネル、シート255のアームレスト、作業機械300の操縦席の操作パネル、等、に設けられている。又は、上記のスイッチ操作の代わりに、操作レバー252、253の特定の操作をオペレータの所定の操作としてもよい。実際の作業では、屑鉄の吸着、地面堀等、地表面に近いところを視認する頻度が多いと思われるので、例えば、アタッチメント344が地表面近い位置にするために、地表面に接近させる操作レバー252、253の操作を検出した時を、オペレータの所定の操作とすることもできる。より具体的には、レバー操作量が所定の第1操作量から第1操作量より大きい所定の第2操作量に変化した時、レバー操作量が所定操作量以上になった時、レバー操作速度が指定速度以上になった時、等を検出してオペレータの所定の操作としてもよい。
 オペレータの所定の操作は、上記のスイッチの操作に替えて、以下の変形例の適用も可能である。オペレータの所定の操作は、オペレータが話す特定の音声を認識する図示されない音声認識装置を用いた音声による方法でもよい。音声による方法では、特定の言葉、例えば「取得」、「記録」等の言葉を発した時のアタッチメント344の特定部位の位置が取得される。すなわち、特定の言葉を発することが、上記のスイッチ操作と同等の作用を有する。又は、オペレータの所定の操作は、操作入力装置222の表示部に第1カメラ323又は第2カメラ324の撮像画像を表示しておき、タッチパネルを指で触って視認すべき対象物を直接指定する方法でもよい。オペレータの所定の操作は、スイッチ操作、音声認識、及び操作入力装置222のタッチパネル操作の何れか1つ、又はそれらの2つ以上の組み合わせが備えられてよい。
 図3~図5を参照して、対象座標値Pnの演算について説明する。図4は、作業機械300、及び記憶された複数の対象座標値Pnを含むグループQ
1と、代表座標値Rとの位置関係を示した概念図である。図5は、図3の作業機械300の上面図である。オペレータが所定の操作を1回以上行うごとに、対象物が指定され、その座標値が演算されて、それぞれ対象座標値Pnとして記憶される。対象座標値Pn(xn、yn、zn)におけるnは、自然数(1、2、3、…)である。例えば、1回目の操作では、対象座標値P1(x1、y1、z1)、2回目の操作では、対象座標値P2(x2、y2、z2)のように、区別されて記憶される。対象座標値Pnは、それぞれの関連情報と関連付けされて記憶
される。
 (2)対象座標値Pの位置に関連した選択と、対象座標値Pのグループ化
 記憶された複数の対象座標値Pnの中から、所定数の対象座標値Pnを選択して、それらを1つのグループQnとする。例えば、Q1は、対象座標値P1(x1、y1、z1)から対象座標値P5(x5、y5、z5)の5つの対象座標値Pnを含んでいる。オペレータの1回の操作では、対象座標値Pnは、対象座標値Pnが1つ記憶される。そのため、グループQnが含む対象座標値Pnは複数ではなく1つの場合も含み得る。したがって、本明細書におけるグループQnとは、1つ以上の対象座標値Pnを含む集合とする。対象座標値Pnの所定数とは、例えば1個~9個であり、好ましくは例えば5個である。所定数が多いほど、第1カメラ323が指向する目標である代表座標値Rが精度よく求められる一方、少ないほど代表座標値Rを求める際の演算時間を短くできる。
 所定数より少なくとも1以上大きい複数の対象座標値Pnの中から、所定の方法で所定数の対象座標値Pnを選択する。対象座標値Pnを選択する所定の方法は、例えば、所定数の対象座標値Pnを基準として画定される閉空間の体積が最も小さくなるように選択される。その方法は何れの方法でもよいが、例えば、記憶された複数の対象座標値Pnの中から、互いの距離が最も小さい、すなわち最も近い対象座標値Pn同士を選択し、次に何れかに近い対象座標値Pnを選択することを繰り返して、所定数、例えば5個の対象座標値Pnを選択する。そして、選択された各対象座標値Pnを頂点とする閉空間の体積を求める。記憶された全対象座標値Pnについて、この方法を繰り返して、各対象座標値Pnを頂点として、体積が最も小さい閉空間となる所定数の対象座標値Pnを選択する。
 閉空間の体積の求め方は、上記の方法に替えて、以下の方法でもよい。閉空間の体積は、例えば、前記閉空間を複数の部分的な立体の合体形と考え、個々の立体の体積を求めて合算してもよい。又は、前記閉空間を三角錐、四角錐、直方体、球、等、形状が似ている1つの立体として求めた体積から不要分の体積を部分的に計算して減算してもよい。又は、その選択された対象座標値Pnを全て含む最小の球の半径を求め、球の体積を計算して近似的に体積を求めてもよい。
 (3)撮像装置が指向する代表座標値の決定
 図4には、対象座標値P1~P5を含むグループQ1と、グループQ1から決定された代表座標値R1、及びR2が示されている。グループQnが決定された後、第1カメラ323を指向させる目標である代表座標値Rnは、グループQnに含まれる所定数の対象座標値Pnに基づいて決定される。
 代表座標値R(x、y、z)は、第1カメラ323の撮像方向を指向させる目標であり、第1カメラ323の撮像方向線上の点である。代表座標値Rは、グループQnに含まれる対象座標値P1~P5ができるだけ撮像視野に網羅されるような方法で決定される。代表座標値Rは、例えば、グループQnに含まれる所定数の各対象座標値Pnを頂点とした立体の重心位置として求められる。各対象座標値Pnを頂点とする立体の重心位置は、例えば、各対象座標値PnのX座標値、Y座標値、Z座標値の3次元的な中間位置であり、X座標値、Y座標値、Z座標値のそれぞれの平均値として求められる。具体的には、対象座標値Pnの重心位置は、下記の計算式で算出される。図4には、この方法で求められた代表座標値R11が示されている。
   重心位置のX座標値=(x1+x2+...+xn)/n
   重心位置のY座標値=(y1+y2+...+yn)/n
   重心位置のZ座標値=(z1+z2+...+zn)/n
 代表座標値Rの求め方は、上記の方法に替えて、以下の方法でもよい。例えば、グループQnに含まれる所定数の各対象座標値Pnのうち、互いに一番近い2点の対象座標値Pnのみの平均値、すなわち中間座標値を求めて、それを代表座標値R2とする方法でもよい。図4には、この方法により、対象座標値PnのP12とP13とから求められた代表座標値R12が示されている。この方法の場合、最初の方法に比べて、代表座標値Rの位置精度は落ちるデメリットがあるものの、簡易的な方法により演算速度を短くできるというメリットがある。
 なお、対象座標値Pnが3個以下の場合は、対象座標値Pnを頂点とする立体を形成できないため、以下のようにしてもよい。対象座標値Pnが1個の場合は、その1個を代表座標値Rとしてもよい。記憶された対象座標値Pnが2個か3個の場合はその集合で1つのグループQnとし、2個を結ぶ直線の中央点座標値、又は3個を頂点とする図形の重心位置を代表座標値Rとしてもよい。
 上記(1)、(2)、(3)の手順により求められた代表座標値R1と、既知の第1カメラ323の座標値とから、第1カメラ323を代表座標値R1に向けて指向させる撮像角度Nが算出される。撮像角度Nの算出後、遠隔操作装置200は、撮像角度Nの決定に関する情報を画像出力装置231、又は操作入力装置222の表示部に表示する。その際に表示される情報は、第1カメラ323を対象物に指向させる撮像角度Nが求められたこと、角度N、代表座標値R1、現時点(調整前)の第1カメラ323の撮像視野の座標値(例えば、撮像視野の中心座標値)の1つ以上が含まれる。また、表示部には、図5のような取得した対象座標値Pnを示す画像も表示される。このような表示により、演算された撮像方向により第1カメラ323の撮像方向を調整するか、ガイダンスを行う。上記情報と合わせて、第1カメラ323の撮像角度Nへの調整を開始するかをオペレータに確認する文章も表示する。
 オペレータは、遠隔操作装置200に設けられている図示されないOKボタン等のスイッチ操作により、第1カメラ323の撮像角度調整開始の指示をすると、遠隔操作装置200は作業機械300に撮像角度調整の指令を送信する。作業機械300は実機無線通信機器331を介して指令を受信し、第1カメラ323の図示されない保持機構は、第1カメラ323の撮像角度を指示された角度Nに調整する。上記表示がされている時に、もし、オペレータが撮像角度調整開始をしないと指示した場合、又は一定時間、撮像角度調整を開始する操作をしなかった場合は、撮像角度調整を行わない。以上により、第1カメラ323の撮像方向は、オペレータが指定した対象物を指向する角度Nに調整される。
 <異なる作業時間範囲ごと及び特定の作業状態ごとのグループQnの決定>
 上記では、作業機械300が作業する1か所の施工箇所について説明した。しかし、実際の作業では、アタッチメント344が作業している作業個所は2か所以上となる場合もある。リフティングマグネット機、ショベル機、等は、それぞれ屑鉄、土壌を取り上げる箇所と、それらを下す箇所とにアタッチメント344を移動して作業を行っている。また、作業の進捗により、個々の作業箇所が移動することがある。したがって、異なる作業時間範囲ごと、及び特定の作業状態ごとの少なくとも一方において、対象座標値Pnの指定、及びグループQnの決定ができることが好ましい。これにより、作業時間範囲ごと、例えば、13時~15時には、以前の同じ時間範囲の撮像角度、又15時~17時には、以前の同じ時間範囲の撮像角度に制御可能である。
 本発明の遠隔操作処理装置では、対象座標値Pnを記憶する際に、関連情報として同時に記憶されている関連情報を利用して、異なる作業時間範囲ごと、及び特定の作業状態ごとに分類する。具体的には、遠隔操作処理装置は、対象座標値Pnが取得された時点の日時を用いて、記憶された全ての対象座標値Pnを異なる作業時間範囲ごとに分類する。遠隔操作処理装置は、例えば現時点から、4時間ごと、8時間ごと、12時間ごと、1日ごと、2日ごと、等、一定時間間隔で作業時間範囲を区切り、作業時間範囲ごとに対象座標値Pnを分類して、それぞれのグループQn(nは自然数)を決定する。
 また、遠隔操作処理装置は、対象座標値Pnが取得された時点の作業機械300の各状態量を用いて、記憶された全ての対象座標値Pnを特定の作業状態ごとに分類する。遠隔操作処理装置は、対象座標値Pnが取得された時点の、測位装置329が検出した場所、作業機械300の作動機構340の各状態量、作業機械300の上部旋回体302の基準位置に対する旋回角度、等の何れか1つ以上の関連情報を用いて、作業機械300が作業する作業領域を所定領域単位ごとに区分けする。所定領域単位は、上記で説明した、屑鉄、土壌等を取り上げる箇所と、それらを下す箇所とが区別できる程度の最小範囲になるように、作業機械300、又は作業内容ごとにあらかじめ決められている。
 上記方法の変形例として、特定の作業状態ごとの対象座標値Pnの分類は、例えば、上部旋回体302の下部走行体301に対する旋回方向における一定回転角度範囲ごとに角度範囲領域を区分し、その角度範囲領域ごとに対象座標値Pnを分類する方法でもよい。例えば、上部旋回体302の旋回方向を5°の回転角度範囲ごとに区分できる。作業機械300の前進方向を0°とし、0°±2.5°の回転角度範囲を中心として、その左右両方向に5°の回転角度範囲ごとに全周を区分することができる。なお、領域を区分する回転角度範囲は、2.5°、7.5°、10°、又は15°でもよい。
 図5には、1つの事例として、異なる作業時間範囲ごと、又は特定の作業状態ごとに記憶された対象座標値P11~P15を含むグループQ1、及び対象座標値P21~P25を含むグループQ2が示されている。このように、遠隔操作処理装置は、記憶された全対象座標値Pnを異なる作業時間範囲ごと、及び特定の作業状態ごとの少なくとも一方で分類し、その中から対象座標値Pnを選択することができる。また、オペレータは、記憶された対象座標値Pnを、画像出力装置231、又は操作入力装置222の表示部に表示することが可能である。対象座標値Pnの表示方法は複数あり、全対象座標値Pn、全グループQn、異なる作業時間範囲ごと、特定の作業状態ごと、又は異なる作業時間範囲ごとかつ特定の作業状態ごとの何れかの形式で表示できる。オペレータは、表示された複数のグループQnから特定のグループQnを選択できる。
 本発明に係る遠隔操作処理装置は、作業中のアタッチメントの位置を取得して対象座標値として記憶し、対象座標値の分布に基づいて撮像装置の撮像方向が指向するように撮像角度を決定し、撮像装置の撮像角度を制御するので、オペレータが視認すべき適切な撮像視野を容易に得ることができる。
 本発明に係る遠隔操作処理装置は、オペレータからの撮像角度の調整開始の指示を受け付けた場合に、前記撮像装置の撮像角度を制御することが好ましい。
 本発明の遠隔操作処理装置は、オペレータの意思に基づいて撮像装置の撮像角度を制御することができる。
 本発明に係る遠隔操作処理装置は、アタッチメントの位置を自動的に取得して対象座標値として記憶することが好ましい。
 本発明の遠隔操作処理装置は、オペレータが視認すべき適切な撮像視野を容易に得ることができる。
 本発明の遠隔操作処理装置は、オペレータが所定の操作をした時点の作業機械が備えるアタッチメントの座標値、及びオペレータが操作入力装置で指定する対象物の座標値の少なくとも何れか一方を取得して対象座標値として記憶することが好ましい。
 本発明の遠隔操作処理装置は、オペレータが所定の操作、例えばスイッチ操作をした時点の作業機械が備えるアタッチメントの座標値、及びオペレータが操作入力装置で指定する対象座標値の少なくとも何れか一方から取得されるので、視認すべき対象物の座標値を容易、かつ確実に認識することができる。
 本発明の遠隔操作処理装置は、アタッチメントの作業中の座標値である対象座標値とともに、対象座標値に関連付けられた関連情報を記憶し、現在における関連情報を検出して、当該関連情報に関連付けて記憶されている対象座標値を読み出して、撮像装置の撮像角度を制御することが好ましい。
 本発明の遠隔操作処理装置は、現在における関連情報を検出し、当該関連情報に関連付けて記憶されている対象座標値を読み出して、撮像装置の撮像角度を制御するので、オペレータが視認すべき適切な撮像視野を容易に得ることができる。
 本発明の遠隔操作処理装置に記憶された対象座標値はオペレータの所定の操作により消去可能であることが好ましい。
 本発明の遠隔操作処理装置は、オペレータの操作により、対象座標値を消去できるので、必要な対象座標値だけを残すことができ、オペレータが視認すべき適切な撮像視野を効率よく得ることができる。
 本発明の遠隔操作処理システムは、遠隔操作処理装置、遠隔操作装置、及び作業機械を含む、遠隔操作処理システムであることが好ましい。
 本発明の遠隔操作処理システムは、必要な構成である、遠隔操作処理装置、遠隔操作装置、及び作業機械を含んでいるため、オペレータが視認すべき適切な撮像視野を効率よく得ることができる。
 100 遠隔操作処理装置、200 遠隔操作装置、222 操作入力装置、230 遠隔出力インターフェース、300 作業機械、301 下部走行体、322 撮像装置、344 アタッチメント、500 遠隔操作処理システム、P,Pn 対象座標値、Q,Qn グループ、R,Rn 代表座標値。
 
  

Claims (7)

  1.  遠隔操作される作業機械に配置されている撮像装置の撮像角度を制御可能であり、遠隔操作装置を用いた作業機械の遠隔操作を支援するための遠隔操作処理装置であって、
     前記遠隔操作処理装置は、前記作業機械に備えられたアタッチメントの作業中の位置を取得して対象座標値として記憶し、前記対象座標値の分布に基づいて前記撮像装置の撮像角度を制御する、遠隔操作処理装置。
  2.  前記遠隔操作処理装置は、オペレータからの撮像角度の調整開始の指示を受け付けた場合に、前記撮像装置の撮像角度を制御する、請求項1に記載の遠隔操作処理装置。
  3.  前記遠隔操作処理装置は、アタッチメントの位置を自動的に取得して前記対象座標値として記憶する、請求項1又は2に記載の遠隔操作処理装置。
  4.  前記遠隔操作処理装置は、オペレータが所定の操作をした時点の前記作業機械が備えるアタッチメントの座標値、及びオペレータが操作入力装置で指定する対象物の座標値の少なくとも何れか一方を取得して前記対象座標値として記憶する、請求項1から3の何れか一項に記載の遠隔操作処理装置。
  5.  前記遠隔操作処理装置は、前記アタッチメントの作業中の座標値である対象座標値とともに、対象座標値に関連付けられた関連情報を記憶し、現在における関連情報を検出して、当該関連情報に関連付けて記憶されている対象座標値を読み出して、前記撮像装置の撮像角度を制御する、請求項1~4の何れか一項に記載の遠隔操作処理装置。
  6.  前記遠隔操作処理装置に記憶された前記対象座標値はオペレータの所定の操作により消去可能である、請求項1~5の何れか一項に記載の遠隔操作処理装置。
  7.  請求項1~6に記載された、前記遠隔操作処理装置、前記遠隔操作装置、及び前記作業機械を含む、遠隔操作処理システム。
      
PCT/JP2022/043403 2022-03-02 2022-11-24 遠隔操作処理装置、及び遠隔操作処理システム WO2023166797A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022031807A JP2023127864A (ja) 2022-03-02 2022-03-02 遠隔操作処理装置、及び遠隔操作処理システム
JP2022-031807 2022-03-02

Publications (1)

Publication Number Publication Date
WO2023166797A1 true WO2023166797A1 (ja) 2023-09-07

Family

ID=87883570

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/043403 WO2023166797A1 (ja) 2022-03-02 2022-11-24 遠隔操作処理装置、及び遠隔操作処理システム

Country Status (2)

Country Link
JP (1) JP2023127864A (ja)
WO (1) WO2023166797A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2875954B2 (ja) * 1994-09-02 1999-03-31 新キャタピラー三菱株式会社 建設機械におけるカメラ自動追尾制御装置
JP5383121B2 (ja) * 2008-08-29 2014-01-08 Jx日鉱日石エネルギー株式会社 無線による重機遠隔操作システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2875954B2 (ja) * 1994-09-02 1999-03-31 新キャタピラー三菱株式会社 建設機械におけるカメラ自動追尾制御装置
JP5383121B2 (ja) * 2008-08-29 2014-01-08 Jx日鉱日石エネルギー株式会社 無線による重機遠隔操作システム

Also Published As

Publication number Publication date
JP2023127864A (ja) 2023-09-14

Similar Documents

Publication Publication Date Title
JP7151392B2 (ja) 建設機械の遠隔操作装置
CN111386369B (zh) 工程机械
JPWO2019003431A1 (ja) 撮像装置、建設機械および撮像システム
US20220041411A1 (en) Crane inspection system and crane
KR102509346B1 (ko) 교정 작업 지원 시스템
JP2024028464A (ja) 表示制御システムおよび表示制御方法
EP3837095A1 (en) Method of programming an industrial robot
CN110716457B (zh) 用于控制机械的工具的控制系统
JP2020142326A (ja) ロボットシステム
US20170254050A1 (en) System and method for operating implement system of machine
WO2023166797A1 (ja) 遠隔操作処理装置、及び遠隔操作処理システム
WO2021176883A1 (ja) 作業支援サーバ、作業支援方法
JP5549631B2 (ja) 携帯型設定端末、及び監視システム
US11618166B2 (en) Robot operating device, robot, and robot operating method
JP2019198905A (ja) 画像表示装置、画像表示方法および遠隔操縦システム
US20230023778A1 (en) Work assisting server and work assisting system
TW202235239A (zh) 調整參數的裝置、機器人系統、方法及電腦程式
CN114730440A (zh) 作业支援服务器、作业支援方法及作业支援系统
JP2020175453A (ja) 遠隔操作装置
US20230056724A1 (en) Remote operation device, remote operation assistance server, remote operation assistance system, and remote operation assistance method
US20220391811A1 (en) Work assist server, work assist method, and work assist system
WO2023026568A1 (ja) 遠隔操作システムおよび遠隔操作複合システム
JP2020157394A (ja) ロボット装置
CN115516175A (zh) 远程操作支援装置及远程操作支援方法
JP2023151585A (ja) 建設機械の作業支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22929941

Country of ref document: EP

Kind code of ref document: A1