WO2018168163A1 - 表示システム、表示方法、及び遠隔操作システム - Google Patents

表示システム、表示方法、及び遠隔操作システム Download PDF

Info

Publication number
WO2018168163A1
WO2018168163A1 PCT/JP2017/047205 JP2017047205W WO2018168163A1 WO 2018168163 A1 WO2018168163 A1 WO 2018168163A1 JP 2017047205 W JP2017047205 W JP 2017047205W WO 2018168163 A1 WO2018168163 A1 WO 2018168163A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
display
image data
image
viewpoint
Prior art date
Application number
PCT/JP2017/047205
Other languages
English (en)
French (fr)
Inventor
大祐 近藤
貴頌 谷本
優 南里
裕 吉灘
Original Assignee
株式会社小松製作所
国立大学法人大阪大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小松製作所, 国立大学法人大阪大学 filed Critical 株式会社小松製作所
Priority to AU2017404218A priority Critical patent/AU2017404218B2/en
Priority to CA3053100A priority patent/CA3053100C/en
Priority to US16/484,250 priority patent/US20190387219A1/en
Publication of WO2018168163A1 publication Critical patent/WO2018168163A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom

Definitions

  • the present invention relates to a display system, a display method, and a remote operation system.
  • Patent Document 1 discloses a TV camera that captures a work site, a head position detection sensor that detects the position of the head of the worker, and a direction in which the shooting direction of the TV camera corresponds to the detection result of the head position detection sensor.
  • a teleoperating system including an actuator that controls the orientation of a TV camera and a projector that generates an image light wave from a photographing signal and projects it onto a screen is disclosed.
  • the detection signal of the head position detection sensor is transmitted from a remote location to the actuator at the work site, the actuator is operated so that the camera moves in conjunction with the operator's head, and the image captured by the camera is To the remote display device, the viewpoint of the image displayed on the display device moves in conjunction with the operator's head. Thereby, the worker can perceive a sense of perspective through the movement stereoscopic view by presenting the movement parallax linked to the viewpoint movement, and the remote operation can be easily performed smoothly.
  • the movement of the viewpoint of the image displayed on the display device is caused by the communication delay of the detection signal transmitted from the remote site to the work site or the communication delay of the image transmitted from the work site to the remote site. May be delayed with respect to the movement of the head.
  • An object of an aspect of the present invention is to provide a display system, a display method, and a remote operation system that allow a worker to effectively perceive the perspective of a work site in remote operation of a work machine.
  • an image data acquisition unit that acquires image data including three-dimensional data of an object at a work site, a viewpoint position data acquisition unit that acquires viewpoint position data of an operator,
  • a display system includes a display control unit that displays a free viewpoint image of the object based on image data and the viewpoint position data.
  • the image data including the three-dimensional data of the object is acquired, the viewpoint position data of the operator is acquired, and based on the image data and the viewpoint position data.
  • a display method including displaying a free viewpoint image of the object.
  • an imaging device that is mounted on a work machine and acquires image data including three-dimensional data of an object at a work site, and a display device provided at a remote location of the work site;
  • a head position sensor for detecting the position and posture of an operator's head provided at the remote location, and a control device provided at the remote location and capable of communicating with the work machine.
  • An image data acquisition unit that acquires the image data captured by the imaging device, a viewpoint position data acquisition unit that acquires viewpoint position data of the worker based on measurement data of the head position sensor,
  • a remote operation system including a display control unit that displays a free viewpoint image of the object on the display device based on the image data and the viewpoint position data.
  • a display system and a display method capable of causing a worker to effectively perceive the perspective of a work site in remote operation of a work machine.
  • FIG. 1 is a diagram schematically illustrating an example of a remote control system for a work machine according to the present embodiment.
  • FIG. 2 is a diagram schematically illustrating an example of the work machine according to the present embodiment.
  • FIG. 3 is a diagram schematically illustrating an example of a remote control facility according to the present embodiment.
  • FIG. 4 is a functional block diagram illustrating an example of the display system according to the present embodiment.
  • FIG. 5 is a schematic diagram for explaining motion parallax caused by a free viewpoint image according to the present embodiment.
  • FIG. 6 is a flowchart illustrating an example of the display method of the display system according to the present embodiment.
  • FIG. 7 is a flowchart illustrating an example of the display method of the display system according to the present embodiment.
  • FIG. 1 is a diagram schematically illustrating an example of a remote control system for a work machine according to the present embodiment.
  • FIG. 2 is a diagram schematically illustrating an example of the work machine according to the present embodiment.
  • FIG. 8 is a schematic diagram for explaining a coordinate system set in the work machine according to the present embodiment.
  • FIG. 9 is a schematic diagram for explaining a coordinate system set in the remote operation facility according to the present embodiment.
  • FIG. 10 is a schematic diagram for explaining a reference coordinate system according to the present embodiment.
  • FIG. 11 is a diagram schematically illustrating image data acquired by the camera according to the present embodiment.
  • FIG. 12 is a diagram schematically illustrating three-dimensional data acquired by the distance sensor according to the present embodiment.
  • FIG. 13 is a schematic diagram for explaining the three-dimensional data according to the present embodiment.
  • FIG. 14 is a diagram schematically illustrating a remote control facility according to the present embodiment.
  • FIG. 15 is a diagram schematically illustrating a relationship between the head marker of the cap according to the present embodiment and the viewpoint position of the operator.
  • FIG. 16 is a schematic diagram for explaining a coordinate system defined in the display device according to the present embodiment.
  • FIG. 17 is a diagram schematically illustrating a state in which an operator according to the present embodiment is performing a remote operation.
  • FIG. 1 is a diagram schematically illustrating an example of a remote operation system 100 for a work machine 1 according to the present embodiment.
  • FIG. 2 is a diagram schematically illustrating an example of the work machine 1 according to the present embodiment.
  • the work machine 1 is a hydraulic excavator.
  • the work machine 1 is appropriately referred to as a hydraulic excavator 1.
  • the hydraulic excavator 1 includes a work machine 2, a swivel body 3, and a traveling body 5 that supports the swivel body 3 so as to be turnable.
  • the traveling body 5 has a crawler belt. As the crawler belt rotates, the excavator 1 travels.
  • the work machine 2 is connected to the swing body 3.
  • the work implement 2 drives a boom 6 connected to the swing body 3, an arm 7 connected to the boom 6, a bucket 8 connected to the arm 7, a boom cylinder 10 that drives the boom 6, and the arm 7.
  • Each of the boom cylinder 10, the arm cylinder 11, and the bucket cylinder 12 is a hydraulic cylinder driven by hydraulic pressure.
  • the hydraulic excavator 1 exists at the work site and works at the work site.
  • the remote operation system 100 includes a remote operation device 40 provided in a remote operation facility existing in a remote place of the work site.
  • the excavator 1 is remotely operated by the remote operation device 40.
  • the remote operation system 100 includes a display system 200 that displays an image relating to a work site at a remote operation facility.
  • the display system 200 includes a display device 50 and a control device 60 provided in a remote operation facility.
  • Each of the remote control device 40, the display device 50, and the control device 60 is provided separately from the hydraulic excavator 1.
  • the display system 200 includes an imaging device 30 that is provided at a work site and photographs a target object at the work site.
  • the imaging device 30 is mounted on the excavator 1.
  • the imaging device 30 includes a camera 31 and a distance sensor 32 that can measure the distance to the object on the work site.
  • the camera 31 and the distance sensor 32 are fixed to the swing body 3.
  • the imaging device 30 captures an object existing in front of the revolving unit 3.
  • the object photographed by the imaging device 30 includes a construction object to be constructed at a work site.
  • the construction object includes an excavation object excavated by the work machine 2 of the excavator 1.
  • the construction object may be a construction object constructed by a work machine different from the hydraulic excavator 1 or a construction object constructed by an operator.
  • a construction object is a concept including a construction object before construction, a construction object during construction, and a construction object after construction.
  • the object photographed by the imaging device 30 includes at least a part of the excavator 1.
  • the object photographed by the imaging device 30 includes, for example, at least one of the work machine 2, the revolving body 3, and the traveling body 5.
  • the work machine 2 that is the object may be the work machine 2 in a state of performing excavation operation, or may be the work machine 2 in a state of not performing excavation operation.
  • the revolving body 3 that is the object may be the revolving body 3 that is in a revolving state or the revolving body 3 that is not in a revolving state.
  • the traveling body 5 that is the object may be the traveling body 5 that is traveling, or the traveling body 5 that is not traveling.
  • the object photographed by the imaging device 30 may be a work machine disposed around the hydraulic excavator 1 that is remotely operated.
  • the object photographed by the imaging device 30 may be a hydraulic excavator different from the remotely operated hydraulic excavator 1 or a dump truck.
  • the camera 31 has an optical system and an image sensor that receives light that has passed through the optical system.
  • the image sensor includes a CCD (Couple Charged Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the distance sensor 32 includes a laser range finder.
  • the laser range finder is an optical device that measures the distance to an object based on the reflected light of the laser light reflected by the object by irradiating the object with laser light.
  • the camera 31 acquires image data of the object on the work site.
  • the distance sensor 32 irradiates the visual field region of the optical system of the camera 31 with laser light, and acquires distance data to an object existing in the visual field region.
  • the distance sensor 32 acquires distance data to the object for each of a plurality of pixels of the image sensor, for example. By acquiring distance data to each of the plurality of portions of the object, three-dimensional data of the object is acquired.
  • the imaging device 30 can acquire image data including three-dimensional data of the object at the work site.
  • the hydraulic excavator 1 is equipped with a control device 300.
  • the control device 300 and the control device 60 communicate via the communication system 400.
  • the communication system 400 includes a wireless communication device 401 mounted on the excavator 1.
  • the communication system 400 includes at least one of the Internet, a local area network (LAN), a mobile phone communication network, and a satellite communication network.
  • the remote operation device 40 includes a working lever for remotely operating the working machine 2 and the swing body 3 of the excavator 1 and a traveling lever for remotely operating the traveling body 5.
  • the operator operates the remote operation device 40 in the remote operation facility.
  • An operation signal generated by operating the remote operation device 40 is transmitted to the control device 300 via the communication system 400.
  • the control device 300 outputs a control signal for controlling the work implement 2, the turning body 3, and the traveling body 5 based on the operation signal. Thereby, the hydraulic excavator 1 is remotely operated.
  • a three-dimensional global coordinate system (Xg, Yg, Zg) and a three-dimensional vehicle body coordinate system (Xm, Ym, Zm) are defined.
  • FIG. 3 is a diagram schematically illustrating an example of a remote control facility according to the present embodiment.
  • a head position sensor 41 for detecting the position and posture of the operator's head a cap 42 attached to the operator's head, a control seat 43 on which the operator sits,
  • the operation device 40, the display device 50, and the control device 60 are provided in the remote operation facility.
  • the head position sensor 41 measures the position and posture data of the operator's head.
  • the cap 42 is mounted on the operator's head.
  • a head marker is provided on the cap 42.
  • the head position sensor 41 optically measures the head marker of the cap 42 to measure the position and posture data of the operator's head.
  • the operator sits on the cockpit 43 so as to face the display screen of the display device 50.
  • the operator operates the remote operation device 40 while looking at the display screen of the display device 50.
  • the head position sensor 41 measures the position and posture data of the head of the worker sitting on the cockpit.
  • the display device 50 includes a flat panel display such as a liquid crystal display (LCD: Liquid Crystal Display) or an organic EL display (OELD: Organic Electroluminescence Display).
  • LCD Liquid Crystal Display
  • OELD Organic Electroluminescence Display
  • the control device 60 includes a computer system.
  • the control device 60 includes an arithmetic processing device including a processor such as a CPU (Central Processing Unit), a volatile memory such as a RAM (Random Access Memory), and a nonvolatile memory such as a ROM (Read Only Memory).
  • a processor such as a CPU (Central Processing Unit)
  • a volatile memory such as a RAM (Random Access Memory)
  • a nonvolatile memory such as a ROM (Read Only Memory).
  • a device and an input / output interface is an input / output interface.
  • FIG. 4 is a functional block diagram illustrating an example of the display system 200 according to the present embodiment.
  • the display system 200 includes a head position sensor 41 provided in a remote operation facility, a display device 50, and a control device 60.
  • the imaging device 30 includes a camera 31 and a distance sensor 32.
  • the imaging device 30 acquires image data including three-dimensional data of an object at a work site.
  • Image data acquired by the imaging device 30 is transmitted to the control device 60 via the communication system 400.
  • the meter side data of the head position sensor 41 is output to the control device 60.
  • the control device 60 includes an image data acquisition unit 61, a three-dimensional model generation unit 62, a viewpoint position data acquisition unit 63, a display control unit 66, a storage unit 67, and an input / output unit 68.
  • the image data acquisition unit 61 acquires image data including the three-dimensional data of the target object at the work site from the imaging device 30 via the communication system 400.
  • the image data acquired by the image data acquisition unit 61 is temporarily stored in the storage unit 67.
  • the 3D model generation unit 62 generates a 3D model of the object based on the image data acquired by the image data acquisition unit 61.
  • the 3D model generated by the 3D model generation unit 62 is temporarily stored in the storage unit 67.
  • the viewpoint position data acquisition unit 63 acquires the viewpoint position data of the worker based on the measurement data of the head position sensor 41.
  • the head position sensor 41 can sequentially acquire the position and posture data of the operator's head.
  • the viewpoint position data changes sequentially.
  • the viewpoint position can be regarded as being dependent on the position and posture of the head.
  • the relative position between the head and the viewpoint is known data and is stored in the storage unit 67.
  • the viewpoint position data acquisition unit 63 can acquire the worker's viewpoint position data based on the measurement data of the head position sensor 41 and the known data stored in the storage unit 67.
  • the storage unit 67 temporarily stores the image data acquired by the image data acquisition unit 61.
  • the image data acquisition unit 61 acquires image data at a data update cycle that is a predetermined cycle.
  • the acquired image data is sequentially stored in the storage unit 67 at a data update cycle.
  • the image data stored in the storage unit 67 is sequentially updated at a data update cycle. That is, the storage unit 67 temporarily stores the latest image data acquired by the image data acquisition unit 61 and erases old image data.
  • the storage unit 67 temporarily stores the 3D model generated by the 3D model generation unit 62.
  • the three-dimensional model generation unit 62 generates a three-dimensional model at a data update period that is a predetermined period.
  • the generated three-dimensional model is sequentially stored in the storage unit 67 at a data update cycle.
  • the three-dimensional model stored in the storage unit 67 is sequentially updated at a data update period. That is, the storage unit 67 temporarily stores the latest three-dimensional model generated by the three-dimensional model generation unit 62 and deletes the old three-dimensional model.
  • the storage unit 67 stores position data of the imaging device 30 in the vehicle body coordinate system.
  • the position data of the imaging device 30 in the vehicle body coordinate system is known data derived from design data or specification data of the excavator 1 and the imaging device 30 and is stored in the storage unit 67.
  • the display control unit 66 performs free viewpoint image generation for converting the object into an image viewed from an arbitrary virtual viewpoint based on the image data including the three-dimensional data of the object.
  • An image generated by free viewpoint image generation is called a free viewpoint image.
  • the display control unit 66 includes at least one of the latest image data and the latest three-dimensional model temporarily stored in the storage unit 67, and the viewpoint position data acquired by the viewpoint position data acquisition unit 63. Based on the above, free viewpoint image generation is performed, and the free viewpoint image is displayed on the display device 50.
  • the display control unit 66 continuously displays an image of an object viewed from a virtual viewpoint corresponding to the viewpoint position, that is, a free viewpoint image in conjunction with the movement of the viewpoint position of the operator.
  • a virtual viewpoint corresponding to the viewpoint position that is, a free viewpoint image in conjunction with the movement of the viewpoint position of the operator.
  • the viewpoint position data changes sequentially.
  • the display control unit 66 sequentially generates free viewpoint images corresponding to changes in the viewpoint position data and causes the display device 60 to display them.
  • FIG. 5 is a schematic diagram for explaining motion parallax caused by a free viewpoint image according to the present embodiment.
  • the display control unit 66 continuously displays a free viewpoint image of the object viewed from the virtual viewpoint corresponding to the viewpoint position on the display device 50 in conjunction with the movement of the worker's viewpoint (pupil). Let The display control unit 66 displays the free viewpoint image on the display device 50 so that the apparent movement amount of the portion near the operator in the continuously displayed free viewpoint images is large and the apparent movement amount of the far portion is small. To display.
  • the display control unit 66 moves the viewing position of the portion Oa located at a distance La close to the operator by an angle Da,
  • the viewing position of the portion Ob located at a distance Lb far from the operator is moved by an angle Db smaller than the angle Da, and the viewing position of the portion Ob located at a distance Lc farther from the operator is moved by an angle Dc smaller than the angle Db.
  • the operator exists at a position where the portion Oa is separated by the distance La, and the portion Ob is the distance It can be perceived that the part Oc exists at a position separated by Lb and the portion Oc exists at a position separated by a distance Lc.
  • the free viewpoint image changes in conjunction with the movement of the worker's viewpoint, motion parallax occurs, and the worker can perceive a sense of perspective due to motion stereoscopic vision.
  • Display method 6 and 7 are flowcharts illustrating an example of the display method of the display system 200 according to the present embodiment.
  • the display method according to the present embodiment includes a data update loop SA as shown in FIG. 6 and a display loop SB as shown in FIG.
  • the data update loop SA is a step SA10 for waiting for the arrival (reception) of distance data and image data from the imaging device 30 existing at the work site, and the distance data of the object on the work site from the distance sensor 32 of the imaging device 30.
  • Step SA20 to be acquired
  • step SA40 for temporarily storing the three-dimensional model in the storage unit 67.
  • the display loop SB includes step SB10 for acquiring the position and posture of the head marker, step SB20 for converting the position and posture of the head marker into a viewpoint position and acquiring the worker's viewpoint position data, and a viewing frustum.
  • the step SB40 to access the 3D model temporarily stored in the storage unit 67, the viewpoint position data of the worker and the 3D model acquired from the storage unit 67, Step SB50 which produces
  • the image data captured by the imaging device 30 is transmitted to the image data acquisition unit 61 of the remote operation facility at a specified sampling period.
  • the data update loop SA is performed at a data update cycle. Since the data update loop SA includes step SA10 that waits for reception of distance data and image data from the imaging device 30, the data update period depends on the specified sampling period. In addition, depending on the state of the communication system 400, the reception of data may be delayed, stagnated, not at a constant period, or lost, and therefore the data update period may be unstable.
  • the display control unit 66 causes the display device 50 to display a free viewpoint image with a display cycle shorter than the data update cycle based on the three-dimensional model stored in the storage unit 67. That is, in the present embodiment, the display loop SB is performed with a display cycle shorter than the data update cycle.
  • the data update loop SA and the display loop SB are performed in parallel at mutually independent timings.
  • FIG. 8 is a schematic diagram for explaining a coordinate system set in the hydraulic excavator 1 according to the present embodiment.
  • FIG. 9 is a schematic diagram for explaining a coordinate system set in the remote operation facility according to the present embodiment.
  • a vehicle body coordinate system is set for the revolving structure 3.
  • a camera coordinate system is set for the camera 31, and a distance sensor coordinate system is set for the distance sensor 32.
  • the position and orientation of the camera 31 are represented by Cmachine, which is a matrix defined in the vehicle body coordinate system of the revolving structure 3.
  • the position and orientation of the distance sensor 32 are represented by Dmachine, which is a matrix defined in the vehicle body coordinate system of the revolving structure 3.
  • the matrix Cmachine and the matrix Dmachine are 4 ⁇ 4 homogeneous transformation matrices representing the position and orientation, respectively.
  • the operation facility coordinate system is set in the remote operation facility. Further, a display device coordinate system is set for the display device 50, and a head position sensor coordinate system is set for the head position sensor 41.
  • the position and orientation of the display device 50 are represented by Scockpit, which is a matrix defined in the operation facility coordinate system of the remote operation facility.
  • the position and orientation of the head position sensor 41 are represented by Tcockpit, which is a matrix defined in the operation facility coordinate system of the remote operation facility.
  • the matrix Scockpit and the matrix Tcockpit are 4 ⁇ 4 homogeneous transformation matrices representing the position and orientation, respectively.
  • FIG. 10 is a schematic diagram for explaining a reference coordinate system according to the present embodiment.
  • the vehicle body coordinate system defined for the revolving structure 3 and the operation facility coordinate system defined for the remote operation facility are integrated. That is, a new matrix Omachine and matrix Ocockpit are introduced into the excavator 1 and the remote control facility, respectively.
  • the vehicle body coordinate system defined in the revolving structure 3 and the operation facility coordinate system defined in the remote operation facility are integrated so that both reference positions and postures coincide.
  • the camera 31 and the distance sensor 32 are fixed to the revolving structure 3 at different positions and postures.
  • the three-dimensional model generation unit 62 combines the image data acquired by the camera 31 and the distance data acquired by the distance sensor 32 to generate a colored three-dimensional model.
  • the three-dimensional model generation unit 62 generates a three-dimensional model by combining the position, angle, and size of the image data with the position, angle, and size of the distance data.
  • the image data acquisition unit 61 waits for the arrival (reception) of the image data from the camera 31 and the distance data from the distance sensor 32 (step SA10). As described above, in the present embodiment, the distance data and the image data acquired by the imaging device 30 are transmitted to the image data acquisition unit 61 at a specified sampling period.
  • the image data acquisition unit 61 acquires distance data from the distance sensor 32 (step SA20). Further, the image data acquisition unit 61 acquires image data from the camera 31 (step SA30).
  • FIG. 11 is a diagram schematically showing image data acquired by the camera 31 according to the present embodiment.
  • FIG. 12 is a diagram schematically illustrating distance data (three-dimensional data) acquired by the distance sensor 32 according to the present embodiment.
  • the image data acquired by the camera 31 includes a set of colored pixel data arranged on two-dimensional UV coordinates.
  • the distance data acquired by the distance sensor 32 includes a set of three-dimensional data of a plurality of portions of the object.
  • the three-dimensional data acquired by the distance sensor 32 is expressed in the local coordinate system of the distance sensor 32.
  • the three-dimensional model generation unit 62 converts the three-dimensional data into the reference coordinate system based on the distance sensor matrix D.
  • the three-dimensional model generation unit 62 is acquired by the distance sensor 32 based on the position and orientation of the camera 31, the internal parameters (view angle and optical axis center) of the camera 31, and the position and orientation of the distance sensor 32.
  • a colored three-dimensional model is generated by assigning the pixel data of the camera 31 to be projected onto the three-dimensional data.
  • FIG. 13 is a schematic diagram for explaining the three-dimensional model according to the present embodiment.
  • FIG. 13 is a diagram schematically showing a three-dimensional model obtained by projecting the pixel data of the camera 31 onto the three-dimensional data acquired by the distance sensor 32 and coloring the three-dimensional data.
  • the three-dimensional model generation unit 62 generates a three-dimensional model expressing the color and shape of the object (step SA40).
  • the 3D model generated by the 3D model generation unit 62 is temporarily stored in the storage unit 67.
  • the three-dimensional model generation unit 62 generates a three-dimensional model at a data update period.
  • the storage unit 67 sequentially stores the generated three-dimensional model at a data update period.
  • the three-dimensional model stored in the storage unit 67 is sequentially updated at a data update period.
  • the storage unit 67 temporarily stores the latest three-dimensional model and deletes the old three-dimensional model.
  • FIG. 14 is a diagram schematically illustrating a remote control facility according to the present embodiment.
  • FIG. 15 is a diagram schematically illustrating the relationship between the head marker of the cap 42 according to the present embodiment and the operator's viewpoint position.
  • the viewpoint position means a pupil position of the right eye, a pupil position of the left eye, or an intermediate position (center of gravity) between the pupil position of the right eye and the pupil position of the left eye.
  • the viewpoint position refers to the pupil position of both eyes.
  • the head position sensor 41 measures the position and posture of the head marker provided on the cap 42 attached to the worker.
  • the viewpoint position data acquisition unit 63 acquires the position and orientation of the head marker measured by the head position sensor 41 (step SB10).
  • the viewpoint position data acquisition unit 63 converts the position and posture of the head marker into the coordinates of the worker's viewpoint (step SB20).
  • the position Mtracker of the head marker measured by the head position sensor 41 is shown in the local coordinate system of the head position sensor 41 and represents the position and orientation viewed from the head position sensor 41. Therefore, the viewpoint position data acquisition unit 63 converts the position and posture of the head marker into the worker's viewpoint position in the reference coordinate system.
  • the viewpoint position data acquisition unit 63 introduces a column vector represented by equation (5) in order to convert the position and orientation of the head marker into the worker's viewpoint position.
  • the worker's viewpoint position in the reference coordinate system is obtained based on equation (6).
  • the viewpoint position data acquisition unit 63 can acquire the worker's viewpoint position in the reference coordinate system, that is, the position data of the pupil.
  • FIG. 16 is a schematic diagram for explaining a coordinate system defined in the display device 50 according to the present embodiment.
  • the spatial arrangement of the display device 50 can be expressed by a matrix S, a display area width 2w, and a display area height 2h. These values are obtained in advance by calibrating the display device 50.
  • the display control unit 66 performs a rendering process to display a free viewpoint image.
  • the display control unit 66 performs perspective projection conversion of the three-dimensional model viewed from the viewpoint position and maps it on the display device 50. As a result, a free viewpoint image (completed image) having a viewpoint different from that of the image data acquired by the camera 31 is obtained.
  • S is an expression (7)
  • the matrix A for converting the S coordinate system to the P coordinate system is as shown in an expression (9). become.
  • the display control unit 66 sets the parameters (l p , r p , b p , t p , n p ) of the view frustum with P as a reference, the expressions (10), (11), (12), ( 13) Set as shown in the equation (step SB30).
  • the display control unit 66 accesses the three-dimensional model stored in the storage unit 67 (step SB40).
  • the three-dimensional model stored in the storage unit 67 is sequentially updated at a data update period. Therefore, the display control unit 66 can acquire the latest three-dimensional model.
  • FIG. 17 is a diagram schematically illustrating a state in which an operator according to the present embodiment is performing a remote operation.
  • the display control unit 66 generates a free viewpoint image by performing perspective projection conversion of the three-dimensional model with Fp ⁇ P ⁇ 1 based on the equation (14) (step SB50).
  • the display control unit 66 causes the display device 50 to display the free viewpoint image generated in step SB50 (step SB60).
  • a free viewpoint image is generated so that the appearance of the object viewed through the screen changes when the worker moves the viewpoint, and so that the object looks correct with respect to the three-dimensional shape of the object. Is done.
  • image data including three-dimensional data is transmitted from the work site to the remote operation facility.
  • the display control unit 66 causes the display device 50 to display a free viewpoint image based on the worker's viewpoint position data in the remote operation facility.
  • the worker's viewpoint position data is not transmitted to the work site, but is used for generating and displaying a free viewpoint image in the remote operation facility. Therefore, the display control unit 66 can display a free viewpoint image based on the worker's viewpoint position data without being affected by the communication delay between the work site and the remote operation facility. Thereby, it is suppressed that the display of the free viewpoint image displayed on the display device 50 is delayed with respect to the movement of the operator's viewpoint.
  • An update loop SA and a display loop SB that sequentially displays a free viewpoint image generated from the three-dimensional model stored in the storage unit 67 in a display cycle shorter than the data update cycle based on the viewpoint position data of the worker. are carried out in parallel at mutually independent timings. Therefore, even if the transmission of the image data from the work site to the remote operation facility is delayed or impossible to transmit, the display control unit 66 is based on the latest three-dimensional model generated recently. A free viewpoint image can be displayed on the display device 50. Thereby, it is possible to continue presenting motion parallax that correctly corresponds to the movement of the viewpoint.
  • the display control unit 66 is free based on the latest three-dimensional model generated and stored in the storage unit 67.
  • the viewpoint image can be displayed on the display device 50. That is, even if the frequency of receiving image data including three-dimensional data from the work site is low or unstable, the control device 60 rotates the display loop SB at high speed to display the free viewpoint image. It is possible to display the display device 50 with a good display quality that is small enough that the delay from the viewpoint movement until the corresponding image is observed is not recognized. Thereby, the operator can operate the remote control device 40 while viewing the free viewpoint image displayed in a favorable display environment.
  • the three-dimensional model generated by the three-dimensional model generation unit 62 is sequentially stored in the storage unit 67 at the data update period in the data update loop SA.
  • the image data acquired by the image data acquisition unit 61 may be sequentially stored in the storage unit 67 at a data update cycle.
  • the image data stored in the storage unit 67 may be sequentially updated at a data update period.
  • the display control unit 66 can display the free viewpoint image on the display device 50 with a display cycle shorter than the data update cycle based on the latest image data stored in the storage unit 67.
  • the image data or the three-dimensional model stored in the storage unit 67 is sequentially updated at the data update cycle. That is, the latest image data or 3D model is temporarily stored in the storage unit 67, and the old image data or 3D model is deleted.
  • the old image data or the three-dimensional model may be stored in the storage unit 67 without being erased.
  • the display control unit 66 includes a plurality of image data or a plurality of three-dimensional models stored in the storage unit 67 in the data update period, a turning history of the swing body 3 of the excavator 1, or a travel history of the traveling body 5. Based on the above, a wide range and high-definition free viewpoint image can be displayed on the display device 50.
  • a plurality of display devices 50 may be provided in parallel.
  • the display screen of the display device 50 may be a flat surface or a dome-shaped curved surface.
  • the display device 50 may be a head-mounted display attached to the operator's head.
  • the imaging device 30 is mounted on the excavator 1.
  • the imaging device 30 can be provided at an arbitrary position as long as an object on the work site can be photographed.
  • the imaging device 30 may be mounted on a work machine different from the hydraulic excavator 1 that is a remote operation target, or may be mounted on a flying body such as a drone, or a structure provided at a work site. It may be installed on an object.
  • the viewpoint position data of the worker is acquired by measuring the position and posture data of the worker's head with the optical head position sensor 41.
  • the position and orientation data of the operator's head may be measured by a magnetic head position sensor, or the position data of the operator's pupil may be directly measured by the visual line detection device.
  • the imaging device 30 includes the camera 31 that acquires the two-dimensional image data and the distance sensor 32 that acquires the distance data.
  • the imaging device 30 may be a stereo camera. Even in a stereo camera, image data including three-dimensional data of an object at a work site can be acquired.
  • the work machine 1 is a hydraulic excavator.
  • the work machine 1 may be a work machine capable of constructing a construction target, and may be a drilling machine capable of excavating the construction target and a transport machine capable of transporting earth and sand.
  • the work machine 1 may be a wheel loader, a bulldozer, or a dump truck, for example.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Selective Calling Equipment (AREA)

Abstract

表示システムは、作業現場における対象物の3次元データを含む画像データを取得する画像データ取得部と、作業者の視点位置データを取得する視点位置データ取得部と、画像データと視点位置データとに基づいて、前記対象物の自由視点画像を表示させる表示制御部と、を備える。

Description

表示システム、表示方法、及び遠隔操作システム
 本発明は、表示システム、表示方法、及び遠隔操作システムに関する。
 作業機械を無人化する方法の一つとして作業機械を遠隔操作する方法が提案されている。作業機械を遠隔操作する場合、作業現場の画像が遠隔地に存在する表示装置に送信される。作業者は、表示装置に表示された作業現場の画像を見ながら作業機械を遠隔操作する。特許文献1には、作業現場を撮影するTVカメラと、作業者の頭部の位置を検出する頭部位置検出センサと、TVカメラの撮影方向が頭部位置検出センサの検出結果に対応する方向となるようにTVカメラの向きを制御するアクチュエータと、撮影信号から画像光波を作成してスクリーンに投影するプロジェクタとを備えるテレオペレーティングシステムが開示されている。
特開平06-339153号公報
 作業現場の2次元画像が表示装置に表示される場合、作業者は作業現場の遠近感を知覚し難い。その結果、作業者は遠隔操作を円滑に実施することができず、作業機械の作業効率が低下する可能性がある。頭部位置検出センサの検出信号が遠隔地から作業現場のアクチュエータに送信され、作業者の頭部に連動してカメラが移動するようにアクチュエータが作動され、そのカメラで撮影された画像が作業現場から遠隔地の表示装置に送信されることにより、表示装置に表示される画像の視点が作業者の頭部に連動して移動する。これにより、作業者は、視点移動に連動した運動視差が提示されることによって、運動立体視により遠近感を知覚することができ、遠隔操作を円滑に実施し易くなる。
 しかし、遠隔地から作業現場に送信される検出信号の通信遅延又は作業現場から遠隔地に送信される画像の通信遅延などに起因して、表示装置に表示される画像の視点の移動が作業者の頭部の移動に対して遅延する可能性がある。その結果、視点に正しく対応した運動視差を提示し難くなり、作業者は運動立体視による遠近感を知覚し難くなる。
 本発明の態様は、作業機械の遠隔操作において、作業現場の遠近感を作業者に効果的に知覚させることができる表示システム、表示方法、及び遠隔操作システムを提供することを目的とする。
 本発明の第1の態様に従えば、作業現場における対象物の3次元データを含む画像データを取得する画像データ取得部と、作業者の視点位置データを取得する視点位置データ取得部と、前記画像データと前記視点位置データとに基づいて、前記対象物の自由視点画像を表示させる表示制御部と、を備える表示システムが提供される。
 本発明の第2の態様に従えば、対象物の3次元データを含む画像データを取得することと、作業者の視点位置データを取得することと、前記画像データと前記視点位置データとに基づいて、前記対象物の自由視点画像を表示させることと、を含む表示方法が提供される。
 本発明の第3の態様に従えば、作業機械に搭載され、作業現場における対象物の3次元データを含む画像データを取得する撮像装置と、前記作業現場の遠隔地に設けられた表示装置と、前記遠隔地に設けられ、作業者の頭部の位置及び姿勢を検出する頭部位置センサと、前記遠隔地に設けられ、前記作業機械と通信可能な制御装置と、を備え、前記制御装置は、前記撮像装置で撮影された前記画像データを取得する画像データ取得部と、前記頭部位置センサの計測データに基づいて、前記作業者の視点位置データを取得する視点位置データ取得部と、前記画像データと前記視点位置データとに基づいて、前記対象物の自由視点画像を前記表示装置に表示させる表示制御部と、を備える遠隔操作システムが提供される。
 本発明の態様によれば、作業機械の遠隔操作において、作業現場の遠近感を作業者に効果的に知覚させることができる表示システム及び表示方法が提供される。
図1は、本実施形態に係る作業機械の遠隔操作システムの一例を模式的に示す図である。 図2は、本実施形態に係る作業機械の一例を模式的に示す図である。 図3は、本実施形態に係る遠隔操作施設の一例を模式的に示す図である。 図4は、本実施形態に係る表示システムの一例を示す機能ブロック図である。 図5は、本実施形態に係る自由視点画像により生じる運動視差を説明するための模式図である。 図6は、本実施形態に係る表示システムの表示方法の一例を示すフローチャートである。 図7は、本実施形態に係る表示システムの表示方法の一例を示すフローチャートである。 図8は、本実施形態に係る作業機械に設定される座標系を説明するための模式図である。 図9は、本実施形態に係る遠隔操作施設に設定される座標系を説明するための模式図である。 図10は、本実施形態に係る基準座標系を説明するための模式図である。 図11は、本実施形態に係るカメラによって取得される画像データを模式的に示す図である。 図12は、本実施形態に係る距離センサによって取得される3次元データを模式的に示す図である。 図13は、本実施形態に係る3次元データを説明するための模式図である。 図14は、本実施形態に係る遠隔操作施設を模式的に示す図である。 図15は、本実施形態に係るキャップの頭部マーカと作業者の視点位置との関係を模式的に示す図である。 図16は、本実施形態に係る表示装置に規定される座標系を説明するための模式図である。 図17は、本実施形態に係る作業者が遠隔操作を実施している状態を模式的に示す図である。
 以下、本発明に係る実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下で説明する実施形態の構成要素は適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。
[遠隔操作システム]
 図1は、本実施形態に係る作業機械1の遠隔操作システム100の一例を模式的に示す図である。図2は、本実施形態に係る作業機械1の一例を模式的に示す図である。本実施形態においては、作業機械1が油圧ショベルであることとする。以下の説明においては、作業機械1を適宜、油圧ショベル1、と称する。
 油圧ショベル1は、作業機2と、旋回体3と、旋回体3を旋回可能に支持する走行体5とを有する。走行体5は、履帯を有する。履帯が回転することにより、油圧ショベル1が走行する。作業機2は、旋回体3に連結される。
 作業機2は、旋回体3に連結されるブーム6と、ブーム6に連結されるアーム7と、アーム7に連結されるバケット8と、ブーム6を駆動するブームシリンダ10と、アーム7を駆動するアームシリンダ11と、バケット8を駆動するバケットシリンダ12とを有する。ブームシリンダ10、アームシリンダ11、及びバケットシリンダ12はそれぞれ、油圧によって駆動される油圧シリンダである。
 油圧ショベル1は、作業現場に存在し、作業現場で作業する。遠隔操作システム100は、作業現場の遠隔地に存在する遠隔操作施設に設けられる遠隔操作装置40を有する。油圧ショベル1は、遠隔操作装置40によって遠隔操作される。
 遠隔操作システム100は、作業現場に係る画像を遠隔操作施設において表示させる表示システム200を有する。表示システム200は、遠隔操作施設に設けられる表示装置50及び制御装置60を有する。遠隔操作装置40、表示装置50、及び制御装置60のそれぞれは、油圧ショベル1とは別体で設けられる。
 また、表示システム200は、作業現場に設けられ、作業現場における対象物を撮影する撮像装置30を有する。本実施形態において、撮像装置30は、油圧ショベル1に搭載される。撮像装置30は、カメラ31と、作業現場の対象物までの距離を計測可能な距離センサ32とを含む。カメラ31及び距離センサ32は、旋回体3に固定される。撮像装置30は、旋回体3の前方に存在する対象物を撮影する。
 本実施形態において、撮像装置30によって撮影される対象物は、作業現場において施工される施工対象を含む。施工対象は、油圧ショベル1の作業機2で掘削される掘削対象を含む。なお、施工対象は、油圧ショベル1とは別の作業機械によって施工される施工対象でもよいし、作業者によって施工される施工対象でもよい。また、施工対象は、施工前の施工対象、施工中の施工対象、及び施工後の施工対象を含む概念である。
 また、本実施形態において、撮像装置30によって撮影される対象物は、油圧ショベル1の少なくとも一部を含む。撮像装置30によって撮影される対象物は、例えば作業機2、旋回体3、及び走行体5の少なくとも一つを含む。対象物である作業機2は、掘削動作している状態の作業機2でもよいし、掘削動作していない状態の作業機2でもよい。対象物である旋回体3は、旋回している状態の旋回体3でもよいし、旋回していない状態の旋回体3でもよい。対象物である走行体5は、走行している状態の走行体5でもよいし、走行していない状態の走行体5でもよい。また、本実施形態において、撮像装置30によって撮影される対象物は、遠隔操作される油圧ショベル1の周囲に配置される作業機械でもよい。撮像装置30によって撮影される対象物は、遠隔操作される油圧ショベル1とは別の油圧ショベルでもよいし、ダンプトラックでもよい。
 カメラ31は、光学系と、光学系を通過した光を受光するイメージセンサとを有する。イメージセンサは、CCD(Couple Charged Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。距離センサ32は、レーザレンジファインダ(Laser Range Finder)を含む。レーザレンジファインダは、対象物にレーザ光を照射して、対象物で反射したレーザ光の反射光に基づいて、対象物までの距離を計測する光学機器である。
 カメラ31は、作業現場の対象物の画像データを取得する。距離センサ32は、カメラ31の光学系の視野領域にレーザ光を照射して、視野領域に存在する対象物までの距離データを取得する。距離センサ32は、例えばイメージセンサの複数の画素毎に対象物までの距離データを取得する。対象物の複数の部分のそれぞれまでの距離データが取得されることにより、対象物の3次元データが取得される。カメラ31の視野領域における対象物の複数の部分のそれぞれまでの距離データが取得されることにより、撮像装置30は、作業現場における対象物の3次元データを含む画像データを取得することができる。
 油圧ショベル1は、制御装置300を搭載する。制御装置300と制御装置60とは、通信システム400を介して通信する。通信システム400は、油圧ショベル1に搭載される無線通信機401を有する。通信システム400は、インターネット(internet)、ローカルエリアネットワーク(LAN:Local Area Network)、携帯電話通信網、及び衛星通信網の少なくとも一つを含む。
 遠隔操作装置40は、油圧ショベル1の作業機2及び旋回体3を遠隔操作する作業レバー及び走行体5を遠隔操作する走行レバーを含む。作業者は、遠隔操作施設において遠隔操作装置40を操作する。遠隔操作装置40が操作されることにより生成された操作信号は、通信システム400を介して制御装置300に送信される。制御装置300は、操作信号に基づいて、作業機2、旋回体3、及び走行体5を制御する制御信号を出力する。これにより、油圧ショベル1は遠隔操作される。
 図2に示すように、本実施形態においては、3次元のグローバル座標系(Xg、Yg、Zg)及び3次元の車体座標系(Xm、Ym、Zm)が規定される。
[遠隔操作施設]
 図3は、本実施形態に係る遠隔操作施設の一例を模式的に示す図である。図3に示すように、作業者の頭部の位置及び姿勢を検出する頭部位置センサ41と、作業者の頭部に装着されるキャップ42と、作業者が着座する操縦席43と、遠隔操作装置40と、表示装置50と、制御装置60とが、遠隔操作施設に設けられる。
 頭部位置センサ41は、作業者の頭部の位置及び姿勢データを計測する。本実施形態においては、キャップ42が作業者の頭部に装着される。キャップ42に頭部マーカが設けられる。頭部位置センサ41は、キャップ42の頭部マーカを光学的に計測して、作業者の頭部の位置及び姿勢データを計測する。
 作業者は、表示装置50の表示画面と正対するように操縦席43に着座する。作業者は、表示装置50の表示画面を見ながら、遠隔操作装置40を操作する。頭部位置センサ41は、操縦席に着座している作業者の頭部の位置及び姿勢データを計測する。
 表示装置50は、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイを含む。
 制御装置60は、コンピュータシステムを含む。制御装置60は、CPU(Central Processing Unit)のようなプロセッサを含む演算処理装置と、RAM(Random Access Memory)のような揮発性メモリ及びROM(Read Only Memory)のような不揮発性メモリを含む記憶装置と、入出力インターフェースとを有する。
[表示システム]
 図4は、本実施形態に係る表示システム200の一例を示す機能ブロック図である。図4に示すように、表示システム200は、遠隔操作施設に設けられた頭部位置センサ41と、表示装置50と、制御装置60とを有する。
 撮像装置30は、カメラ31及び距離センサ32を含む。撮像装置30は、作業現場における対象物の3次元データを含む画像データを取得する。撮像装置30で取得された画像データは、通信システム400を介して制御装置60に送信される。頭部位置センサ41の計側データは、制御装置60に出力される。
 制御装置60は、画像データ取得部61と、3次元モデル生成部62と、視点位置データ取得部63と、表示制御部66と、記憶部67と、入出力部68とを有する。
 画像データ取得部61は、作業現場における対象物の3次元データを含む画像データを撮像装置30から通信システム400を介して取得する。画像データ取得部61で取得された画像データは、記憶部67に一時的に記憶される。
 3次元モデル生成部62は、画像データ取得部61で取得された画像データに基づいて、対象物の3次元モデルを生成する。3次元モデル生成部62で生成された3次元モデルは、記憶部67に一時的に記憶される。
 視点位置データ取得部63は、頭部位置センサ41の計測データに基づいて、作業者の視点位置データを取得する。頭部位置センサ41は、作業者の頭部の位置及び姿勢データを逐次取得可能である。視点位置データは逐次変化する。視点位置は、頭部の位置及び姿勢から従属的に決まるとみなせる。頭部と視点との相対位置は既知データであり、記憶部67に記憶されている。視点位置データ取得部63は、頭部位置センサ41の計測データと記憶部67に記憶されている既知データとに基づいて、作業者の視点位置データを取得することができる。
 記憶部67は、画像データ取得部61で取得された画像データを一時的に記憶する。画像データ取得部61は、所定の周期であるデータ更新周期で画像データを取得する。取得された画像データは、データ更新周期で記憶部67に順次記憶される。本実施形態において、記憶部67に記憶される画像データは、データ更新周期で順次更新される。すなわち、記憶部67は、画像データ取得部61で取得された最新の画像データを一時的に記憶し、古い画像データを消去する。
 また、記憶部67は、3次元モデル生成部62で生成された3次元モデルを一時的に記憶する。3次元モデル生成部62は、所定の周期であるデータ更新周期で3次元モデルを生成する。生成された3次元モデルは、データ更新周期で記憶部67に順次記憶される。本実施形態において、記憶部67に記憶される3次元モデルは、データ更新周期で順次更新される。すなわち、記憶部67は、3次元モデル生成部62で生成された最新の3次元モデルを一時的に記憶し、古い3次元モデルを消去する。
 また、記憶部67は、車体座標系における撮像装置30の位置データを記憶する。車体座標系における撮像装置30の位置データは、油圧ショベル1及び撮像装置30の設計データ又は諸元データから導出される既知データであり、記憶部67に記憶される。
 表示制御部66は、対象物の3次元データを含む画像データに基づいて、その対象物を任意の仮想視点から見た画像に変換する自由視点画像生成を実施する。自由視点画像生成によって生成された画像を自由視点画像という。
 本実施形態において、表示制御部66は、記憶部67に一時的に記憶されている最新の画像データ及び直近の3次元モデルの少なくとも一方と、視点位置データ取得部63で取得された視点位置データとに基づいて、自由視点画像生成を行い、自由視点画像を表示装置50に表示させる。
 本実施形態においては、表示制御部66は、作業者の視点位置の移動に連動して、その視点位置に応じた仮想視点から見た対象物の画像、すなわち自由視点画像を連続的に表示装置50に表示させることによって、作業者に運動視差を提示する。作業者は提示された運動視差に基づく運動立体視によって、表示された対象物の遠近感を知覚し認識することができる。
 視点位置データは逐次変化する。表示制御部66は、視点位置データの変化に対応して自由視点画像を逐次生成して表示装置60に表示させる。
 図5は、本実施形態に係る自由視点画像により生じる運動視差を説明するための模式図である。本実施形態において、表示制御部66は、作業者の視点(瞳孔)の移動に連動して、視点位置に応じた仮想視点から見た対象物の自由視点画像を表示装置50に連続的に表示させる。表示制御部66は、連続的に表示される自由視点画像のうち作業者から近い部分の見かけの移動量が大きく、遠い部分の見かけの移動量が小さくなるように、自由視点画像を表示装置50に表示させる。
 すなわち、図5に示すように、作業者の視点が距離Mだけ移動した場合、表示制御部66は、作業者から近い距離Laに位置する部分Oaの視認位置を角度Daだけ移動させ、作業者から遠い距離Lbに位置する部分Obの視認位置を角度Daよりも小さい角度Dbだけ移動させ、作業者から更に遠い距離Lcに位置する部分Ocの視認位置を角度Dbよりも更に小さい角度Dcだけ移動させて、自由視点画像を表示させる。部分Oa、部分Ob、及び部分Ocそれぞれの視認位置が移動した角度Da、角度Db、及び角度Dcの違いにより、作業者は、部分Oaが距離Laだけ離れた位置に存在し、部分Obが距離Lbだけ離れた位置に存在し、部分Ocが距離Lcだけ離れた位置に存在することを知覚することができる。作業者の視点の移動に連動して自由視点画像が変化することにより、運動視差が生じ、作業者は運動立体視による遠近感を知覚することができる。
[表示方法]
 図6及び図7は、本実施形態に係る表示システム200の表示方法の一例を示すフローチャートである。本実施形態に係る表示方法は、図6に示すようなデータ更新ループSAと、図7に示すような表示ループSBとを含む。
 データ更新ループSAは、作業現場に存在する撮像装置30からの距離データ及び画像データの到達(受信)を待機するステップSA10と、作業現場の対象物の距離データを撮像装置30の距離センサ32から取得するステップSA20と、作業現場の対象物の画像データを撮像装置30のカメラ31から取得するステップSA30と、距離データを含む画像データに基づいて対象物の3次元モデルを生成し、生成された3次元モデルを記憶部67に一時的に記憶するステップSA40とを含む。
 表示ループSBは、頭部マーカの位置及び姿勢を取得するステップSB10と、頭部マーカの位置及び姿勢を視点位置に変換して作業者の視点位置データを取得するステップSB20と、視錐台を設定するステップSB30と、記憶部67に一時的に記憶されている3次元モデルにアクセスするステップSB40と、作業者の視点位置データ及び記憶部67から取得した3次元モデルに基づいて、対象物の自由視点画像を生成するステップSB50と、ステップSB50で生成された自由視点画像を表示装置50に表示させるステップSB60とを含む。
 撮像装置30で撮影された画像データは、規定サンプリング周期で遠隔操作施設の画像データ取得部61に送信される。データ更新ループSAは、データ更新周期で実施される。データ更新ループSAは、撮像装置30からの距離データ及び画像データの受信を待機するステップSA10を含むため、データ更新周期は、規定サンプリング周期に依存する。また、通信システム400の状態により、テータの受信が遅延したり、停滞したり、一定周期でなかったり、欠落したりする可能性があるため、データ更新周期は不安定となり得る。
 表示制御部66は、記憶部67に記憶されている3次元モデルに基づいて、データ更新周期よりも短い表示周期で自由視点画像を表示装置50に表示させる。すなわち、本実施形態において、表示ループSBは、データ更新周期よりも短い表示周期で実施される。
 本実施形態において、データ更新ループSAと表示ループSBとは、互いに独立したタイミングで並行して実施される。
(座標系)
 データ更新ループSA及び表示ループSBの詳細を説明する前に、油圧ショベル1及び遠隔操作施設のそれぞれにおいて設定される座標系について説明する。図8は、本実施形態に係る油圧ショベル1に設定される座標系を説明するための模式図である。図9は、本実施形態に係る遠隔操作施設に設定される座標系を説明するための模式図である。
 図8に示すように、旋回体3に車体座標系が設定される。また、カメラ31にカメラ座標系が設定され、距離センサ32に距離センサ座標系が設定される。カメラ31の位置及び姿勢を、旋回体3の車体座標系において規定される行列であるCmachineで表す。距離センサ32の位置及び姿勢を、旋回体3の車体座標系において規定される行列であるDmachineで表す。行列Cmachine及び行列Dmachineはそれぞれ、位置及び姿勢を表わす4行4列の同次変換行列である。
 図9に示すように、遠隔操作施設に操作施設座標系が設定される。また、表示装置50に表示装置座標系が設定され、頭部位置センサ41に頭部位置センサ座標系が設定される。表示装置50の位置及び姿勢を、遠隔操作施設の操作施設座標系において規定される行列であるScockpitで表す。頭部位置センサ41の位置及び姿勢を、遠隔操作施設の操作施設座標系において規定される行列であるTcockpitで表す。行列Scockpit及び行列Tcockpitはそれぞれ、位置及び姿勢を表わす4行4列の同次変換行列である。
 図10は、本実施形態に係る基準座標系を説明するための模式図である。図10に示すように、本実施形態においては、旋回体3に規定される車体座標系と遠隔操作施設に規定される操作施設座標系とが統合される。すなわち、油圧ショベル1及び遠隔操作施設のそれぞれに新たな行列Omachine及び行列Ocockpitが導入される。旋回体3に規定される車体座標系と遠隔操作施設に規定される操作施設座標系とは、双方の基準位置及び姿勢が一致するように統合される。車体座標系と操作施設座標系とが統合されることにより、例えば遠隔操作施設のある部分の位置が油圧ショベル1のどの位置に相当するのかを決定することができる。
 基準座標系における油圧ショベル1及び遠隔操作施設それぞれの構成要素の位置及び姿勢は、以下の(1)式から(4)式で表わされる。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
(データ更新ループ)
 次に、データ更新ループSAについて説明する。カメラ31と距離センサ32とは異なる位置及び姿勢で旋回体3に固定される。3次元モデル生成部62は、カメラ31で取得された画像データと距離センサ32で取得された距離データとを合成して、有色の3次元モデルを生成する。3次元モデル生成部62は、画像データの位置、角度、及び大きさと、距離データの位置、角度、及び大きさとを合わせて合成することによって、3次元モデルを生成する。
 画像データ取得部61は、カメラ31からの画像データ及び距離センサ32からの距離データの到達(受信)を待機する(ステップSA10)。上述のように、本実施形態においては、撮像装置30で取得された距離データ及び画像データは、規定サンプリング周期で画像データ取得部61に送信される。
 画像データ取得部61は、距離センサ32から距離データを取得する(ステップSA20)。また、画像データ取得部61は、カメラ31から画像データを取得する(ステップSA30)。
 図11は、本実施形態に係るカメラ31によって取得される画像データを模式的に示す図である。図12は、本実施形態に係る距離センサ32によって取得される距離データ(3次元データ)を模式的に示す図である。
 図11に示すように、カメラ31で取得される画像データは、2次元のUV座標上に配置された有色の画素データの集合を含む。
 図12に示すように、距離センサ32で取得される距離データは、対象物の複数の部分の3次元データの集合を含む。
 距離センサ32で取得される3次元データは、距離センサ32の局所座標系で表わされている。3次元モデル生成部62は、距離センサの行列Dに基づいて3次元データを基準座標系に変換する。
 3次元モデル生成部62は、カメラ31の位置及び姿勢と、カメラ31の内部パラメータ(画角及び光軸中心)と、距離センサ32の位置及び姿勢とに基づいて、距離センサ32で取得された3次元データにカメラ31の画素データを投影するように割り当てることによって有色の3次元モデルを生成する。
 図13は、本実施形態に係る3次元モデルを説明するための模式図である。図13は、距離センサ32で取得された3次元データにカメラ31の画素データを投影して3次元データを着色することで得られた3次元モデルを模式的に示す図である。以上により、3次元モデル生成部62は、対象物の色と形状を表現した3次元モデルを生成する(ステップSA40)。
 3次元モデル生成部62で生成された3次元モデルは、記憶部67に一時的に記憶される。上述のように、3次元モデル生成部62は、データ更新周期で3次元モデルを生成する。記憶部67は、生成された3次元モデルをデータ更新周期で順次記憶する。記憶部67に記憶される3次元モデルは、データ更新周期で順次更新される。記憶部67は、最新の3次元モデルを一時的に記憶し、古い3次元モデルを消去する。
(表示ループ)
 次に、表示ループSBについて説明する。図14は、本実施形態に係る遠隔操作施設を模式的に示す図である。図15は、本実施形態に係るキャップ42の頭部マーカと作業者の視点位置との関係を模式的に示す図である。視点位置とは、右眼の瞳孔位置、又は左眼の瞳孔位置、又は右眼の瞳孔位置と左眼の瞳孔位置との中間位置(重心)をいう。両眼立体視と併用する場合、視点位置とは、両眼の瞳孔位置をいう。
 頭部位置センサ41は、作業者に装着されたキャップ42に設けられている頭部マーカの位置及び姿勢を計測する。視点位置データ取得部63は、頭部位置センサ41で計測された頭部マーカの位置及び姿勢を取得する(ステップSB10)。
 視点位置データ取得部63は、頭部マーカの位置及び姿勢を作業者の視点の座標に変換する(ステップSB20)。頭部位置センサ41により計測される頭部マーカの位置Mtrackerは、頭部位置センサ41の局所座標系で示され、頭部位置センサ41から見た位置及び姿勢を表わす。そのため、視点位置データ取得部63は、頭部マーカの位置及び姿勢を基準座標系における作業者の視点位置に変換する。
 視点位置データ取得部63は、頭部マーカの位置及び姿勢を作業者の視点位置に変換するために、(5)式で示す列ベクトルを導入する。
Figure JPOXMLDOC01-appb-M000005
 基準座標系における作業者の視点位置は、(6)式に基づいて求められる。
Figure JPOXMLDOC01-appb-M000006
 以上により、視点位置データ取得部63は、基準座標系における作業者の視点位置、すなわち瞳孔の位置データを取得することができる。
(表示装置の位置、姿勢、及び大きさの計測)
 次に、表示装置50の表示画面の位置・姿勢と大きさの計測について説明する。運動立体視の成立には、表示装置50の表示画面があたかも素通しの窓であるように、3次元空間を歪めることなく提示する必要がある。そのためには、表示装置50の空間的配置情報を厳密に分かっている必要がある。
 図16は、本実施形態に係る表示装置50に規定される座標系を説明するための模式図である。図16に示すように、表示装置50の空間配置は、行列S、表示領域の幅2w、及び表示領域の高さ2hによって表現できる。これらの値は、予め表示装置50に対するキャリブレーションを行い求めておく。
(自由視点画像の表示)
 次に、表示制御部66は、自由視点画像を表示するためにレンダリング(描画)処理を行う。
 表示制御部66は、視点位置から見た3次元モデルを透視投影変換して表示装置50上へと写像する。その結果、カメラ31で取得された画像データとは視点が異なる自由視点画像(完成画像)が得られる。Sが(7)式のとき、表示装置50に正対する姿勢を持つ、(8)式で表わされる視点を考えると、S座標系をP座標系に変換する行列Aは(9)式のようになる。
Figure JPOXMLDOC01-appb-M000007
Figure JPOXMLDOC01-appb-M000008
Figure JPOXMLDOC01-appb-M000009
 表示制御部66は、Pを基準とした視錐台のパラメータ(l、r、b、t、n)を、(10)式、(11)式、(12)式、(13)式のように設定する(ステップSB30)。
Figure JPOXMLDOC01-appb-M000010
Figure JPOXMLDOC01-appb-M000011
Figure JPOXMLDOC01-appb-M000012
Figure JPOXMLDOC01-appb-M000013
 表示制御部66は、記憶部67に記憶されている3次元モデルにアクセスする(ステップSB40)。記憶部67に記憶されている3次元モデルは、データ更新周期で順次更新されている。そのため、表示制御部66は、最新の3次元モデルを取得することができる。
 遠方描画範囲fを適当に定めると、プロジェクション行列Fpが(14)式のように求まる。
Figure JPOXMLDOC01-appb-M000014
 図17は、本実施形態に係る作業者が遠隔操作を実施している状態を模式的に示す図である。表示制御部66は、(14)式に基づいて、3次元モデルをFp×P-1により透視投影変換することによって、自由視点画像を生成する(ステップSB50)。表示制御部66は、ステップSB50で生成された自由視点画像を表示装置50に表示させる(ステップSB60)。以上により、作業者が視点を動かしたときに画面を通して見ている対象物の見え方が変わるように、かつ、対象物の3次元形状に対して正しい見え方となるように自由視点画像が生成される。
[効果]
 以上説明したように、本実施形態によれば、3次元データを含む画像データが作業現場から遠隔操作施設に送信される。表示制御部66は、遠隔操作施設において、作業者の視点位置データに基づいて、自由視点画像を表示装置50に表示させる。本実施形態においては、作業者の視点位置データは、作業現場に送信されず、遠隔操作施設において自由視点画像の生成及び表示に利用される。そのため、表示制御部66は、作業現場と遠隔操作施設との通信遅延の影響を受けることなく、作業者の視点位置データに基づいて、自由視点画像を表示させることができる。これにより、表示装置50に表示される自由視点画像の表示が作業者の視点の移動に対して遅延することが抑制される。そのため、運動視差が作業者の視点の移動に対して遅延することが抑制され、運動立体視による作業現場の遠近感を作業者に効果的に知覚させることができる。したがって、作業者は、表示装置50に表示された自由視点画像を見ながら、遠隔操作を円滑に実施することができる。これにより、油圧ショベル1の作業効率の低下が抑制される。
 また、本実施形態においては、作業現場から遠隔操作施設に送信される3次元データを含む画像データに基づいてデータ更新周期で3次元モデルを生成し記憶部67にデータ更新周期で順次記憶させるデータ更新ループSAと、記憶部67に記憶されている3次元モデルから生成される自由視点画像を作業者の視点位置データに基づいてデータ更新周期よりも短い表示周期で順次表示させる表示ループSBとは、互いに独立したタイミングで並行して実施される。したがって、作業現場から遠隔操作施設への画像データの送信が遅延したり、送信が不可能になったりしても、表示制御部66は、直近に生成された最新の3次元モデルに基づいて、自由視点画像を表示装置50に表示させることができる。これにより、視点の移動に正しく対応した運動視差を提示し続けることができる。
 また、データ更新ループSAと表示ループSBとは互いに独立したタイミングで並行して実施されるため、遠隔操作施設が作業現場から3次元データを含む画像データを受信するする頻度に依存するデータ更新周期が、自由視点画像を表示装置50に順次表示させるときの表示周期よりも長くても、表示制御部66は、直近に生成され記憶部67に記憶されている最新の3次元モデルに基づいて自由視点画像を表示装置50に表示させることができる。すなわち、遠隔操作施設が作業現場から3次元データを含む画像データを受信する頻度が低かったり、不安定になったりしても、制御装置60は、表示ループSBを高速で廻して自由視点画像を表示装置50に、視点移動から対応した画像が観察されるまでの遅延が認識されない程度に小さい良好な表示品質で表示させることができる。これにより、作業者は、良好な表示環境で表示された自由視点画像を見ながら遠隔操作装置40を操作することができる。
[その他の実施形態]
 なお、上述の実施形態においては、データ更新ループSAにおいて、3次元モデル生成部62で生成された3次元モデルが記憶部67にデータ更新周期で順次記憶されることとした。データ更新ループSAにおいて、画像データ取得部61で取得された画像データが記憶部67にデータ更新周期で順次記憶されてもよい。また、記憶部67に記憶される画像データは、データ更新周期で順次更新されてもよい。表示制御部66は、その記憶部67に記憶されている最新の画像データに基づいて、データ更新周期よりも短い表示周期で自由視点画像を表示装置50に表示させることができる。
 なお、上述の実施形態においては、データ更新ループSAにおいて、記憶部67に記憶される画像データ又は3次元モデルは、データ更新周期で順次更新されることとした。すなわち、最新の画像データ又は3次元モデルが一時的に記憶部67に記憶され、古い画像データ又は3次元モデルは消去されることとした。古い画像データ又は3次元モデルが消去されず、記憶部67に保持されてもよい。この場合、表示制御部66は、データ更新周期で記憶部67に記憶されている複数の画像データ又は複数の3次元モデルと、油圧ショベル1の旋回体3の旋回履歴又は走行体5の走行履歴とに基づいて、広範囲且つ高精細な自由視点画像を表示装置50に表示させることができる。
 なお、上述の実施形態において、表示装置50は並列に複数設けられてもよい。また、表示装置50の表示画面はフラット面でもよいしドーム状の曲面でもよい。また、表示装置50が、作業者の頭部に装着されるヘッドマウントディスプレイでもよい。
 なお、上述の実施形態においては、撮像装置30が油圧ショベル1に搭載されることとした。撮像装置30は、作業現場の対象物を撮影可能であれば任意の位置に設けることができる。例えば、撮像装置30は遠隔操作対象である油圧ショベル1とは別の作業機械に搭載されてもよいし、ドローンのような飛行体に搭載されてもよいし、作業現場に設けられている構造物に設置されてもよい。
 なお、上述の実施形態においては、光学式の頭部位置センサ41で作業者の頭部の位置及び姿勢データを計測することによって、作業者の視点位置データが取得されることとした。例えば、磁気式の頭部位置センサで作業者の頭部の位置及び姿勢データを計測してもよいし、視線検出装置によって作業者の瞳孔の位置データが直接的に計測されてもよい。
 なお、上述の実施形態においては、撮像装置30は2次元画像データを取得するカメラ31と距離データを取得する距離センサ32とを含むこととした。撮像装置30は、ステレオカメラでもよい。ステレオカメラにおいても、作業現場の対象物の3次元データを含む画像データを取得することができる。
 なお、上述の各実施形態においては、作業機械1が油圧ショベルであることとした。作業機械1は、施工対象を施工可能な作業機械であればよく、施工対象を掘削可能な掘削機械及び土砂を運搬可能な運搬機械でもよい。作業機械1は、例えばホイールローダでもよいし、ブルドーザでもよいし、ダンプトラックでもよい。
 1…油圧ショベル(作業機械)、2…作業機、3…旋回体、5…走行体、6…ブーム、7…アーム、8…バケット、10…ブームシリンダ、11…アームシリンダ、12…バケットシリンダ、30…撮像装置、31…カメラ、32…距離センサ、40…遠隔操作装置、41…頭部位置センサ、42…キャップ、43…操縦席、50…表示装置、60…制御装置、61…画像データ取得部、62…3次元モデル生成部、63…視点位置データ取得部、66…表示制御部、67…記憶部、68…入出力部、100…遠隔操作システム、200…表示システム、300…制御装置、400…通信システム、401…無線通信機。

Claims (8)

  1.  作業現場における対象物の3次元データを含む画像データを取得する画像データ取得部と、
     作業者の視点位置データを取得する視点位置データ取得部と、
     前記画像データと前記視点位置データとに基づいて、前記対象物の自由視点画像を表示させる表示制御部と、
    を備える表示システム。
  2.  前記画像データ取得部、前記視点位置データ取得部、及び前記表示制御部は、前記作業現場の遠隔地に設けられ、
     前記画像データ又は前記画像データに基づいて生成される前記対象物の3次元モデルは、前記遠隔地に設けられている記憶部にデータ更新周期で順次記憶され、
     前記表示制御部は、前記記憶部に記憶されている前記画像データ又は前記3次元モデルに基づいて、前記データ更新周期よりも短い表示周期で前記自由視点画像を表示させる、
    請求項1に記載の表示システム。
  3.  前記記憶部に記憶される前記画像データ又は前記3次元モデルは、前記データ更新周期で順次更新され、
     前記表示制御部は、前記記憶部に記憶されている最新の前記画像データ又は前記3次元モデルに基づいて前記自由視点画像を表示させる、
    請求項2に記載の表示システム。
  4.  前記視点位置データは逐次変化し、
     前記表示制御部は、前記視点位置データの変化に対応して前記自由視点画像を逐次生成して表示させる、
    請求項1から請求項3のいずれか一項に記載の表示システム。
  5.  前記撮像装置は、カメラと、前記対象物までの距離を計測可能な距離センサとを含む、
    請求項1から請求項4のいずれか一項に記載の表示システム。
  6.  前記撮像装置は、前記作業現場で作業する作業機械に搭載される、
    請求項1から請求項5のいずれか一項に記載の表示システム。
  7.  対象物の3次元データを含む画像データを取得することと、
     作業者の視点位置データを取得することと、
     前記画像データと前記視点位置データとに基づいて、前記対象物の自由視点画像を表示させることと、
    を含む表示方法。
  8.  作業機械に搭載され、作業現場における対象物の3次元データを含む画像データを取得する撮像装置と、
     前記作業現場の遠隔地に設けられた表示装置と、
     前記遠隔地に設けられ、作業者の頭部の位置及び姿勢を検出する頭部位置センサと、
     前記遠隔地に設けられ、前記作業機械と通信可能な制御装置と、を備え、
     前記制御装置は、
     前記撮像装置で撮影された前記画像データを取得する画像データ取得部と、
     前記頭部位置センサの計測データに基づいて、前記作業者の視点位置データを取得する視点位置データ取得部と、
     前記画像データと前記視点位置データとに基づいて、前記対象物の自由視点画像を前記表示装置に表示させる表示制御部と、
    を備える遠隔操作システム。
PCT/JP2017/047205 2017-03-13 2017-12-28 表示システム、表示方法、及び遠隔操作システム WO2018168163A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2017404218A AU2017404218B2 (en) 2017-03-13 2017-12-28 Display system, display method, and remote operation system
CA3053100A CA3053100C (en) 2017-03-13 2017-12-28 A display system and method for remote operation using acquired three-dimensional data of an object and viewpoint position data of a worker
US16/484,250 US20190387219A1 (en) 2017-03-13 2017-12-28 Display system, display method, and remote operation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017047904A JP6807781B2 (ja) 2017-03-13 2017-03-13 表示システム、表示方法、及び遠隔操作システム
JP2017-047904 2017-03-13

Publications (1)

Publication Number Publication Date
WO2018168163A1 true WO2018168163A1 (ja) 2018-09-20

Family

ID=63523462

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/047205 WO2018168163A1 (ja) 2017-03-13 2017-12-28 表示システム、表示方法、及び遠隔操作システム

Country Status (5)

Country Link
US (1) US20190387219A1 (ja)
JP (1) JP6807781B2 (ja)
AU (1) AU2017404218B2 (ja)
CA (1) CA3053100C (ja)
WO (1) WO2018168163A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020122789A1 (en) 2018-12-14 2020-06-18 Brokk Aktiebolag A remote-controlled demolition robot with improved field of application and a method to achieve such a demolition robot
WO2021020292A1 (ja) * 2019-07-26 2021-02-04 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017170900A1 (ja) * 2016-03-31 2017-10-05 住友建機株式会社 ショベル
CN110574078B (zh) * 2017-07-14 2023-03-28 株式会社小松制作所 显示控制装置、显示控制方法、记录介质以及显示系统
JP7183744B2 (ja) * 2018-11-30 2022-12-06 コベルコ建機株式会社 建設機械の遠隔操作装置
JP7219099B2 (ja) 2019-01-23 2023-02-07 株式会社小松製作所 作業機械のためのシステム及び方法
JP7287047B2 (ja) * 2019-03-27 2023-06-06 コベルコ建機株式会社 遠隔操作システムおよび遠隔操作サーバ
JP7479793B2 (ja) * 2019-04-11 2024-05-09 キヤノン株式会社 画像処理装置、仮想視点映像を生成するシステム、画像処理装置の制御方法及びプログラム
JP7344675B2 (ja) 2019-05-31 2023-09-14 株式会社小松製作所 表示システム、遠隔操作システムおよび表示方法
JP7356697B2 (ja) * 2019-06-11 2023-10-05 国立大学法人静岡大学 画像観察システム
JP2021001472A (ja) * 2019-06-21 2021-01-07 ナブテスコ株式会社 建設機械用操縦支援システム、建設機械用操縦支援方法、建設機械
DE112020006061T5 (de) * 2019-12-09 2022-10-27 Sony Group Corporation Informationsverarbeitungsvorrichtung und -verfahren, programm und informationsverarbeitungssystem

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08107516A (ja) * 1994-10-04 1996-04-23 Tokyu Constr Co Ltd 建設ロボット用立体カメラ雲台装置及び建設ロボット用立体カメラ自動追従装置
JP2009213401A (ja) * 2008-03-11 2009-09-24 Yanmar Co Ltd 不整地用走行車両

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9335545B2 (en) * 2014-01-14 2016-05-10 Caterpillar Inc. Head mountable display system
JP6586824B2 (ja) * 2015-08-27 2019-10-09 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08107516A (ja) * 1994-10-04 1996-04-23 Tokyu Constr Co Ltd 建設ロボット用立体カメラ雲台装置及び建設ロボット用立体カメラ自動追従装置
JP2009213401A (ja) * 2008-03-11 2009-09-24 Yanmar Co Ltd 不整地用走行車両

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020122789A1 (en) 2018-12-14 2020-06-18 Brokk Aktiebolag A remote-controlled demolition robot with improved field of application and a method to achieve such a demolition robot
EP3894638A4 (en) * 2018-12-14 2022-08-31 Brokk Aktiebolag REMOTE CONTROLLED DEMOLITION ROBOT HAVING AN IMPROVED FIELD OF APPLICATION AND METHOD FOR MAKING SUCH DEMOLITION ROBOT
WO2021020292A1 (ja) * 2019-07-26 2021-02-04 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
JP7351478B2 (ja) 2019-07-26 2023-09-27 株式会社小松製作所 表示システム、遠隔操作システム、及び表示方法
US11939744B2 (en) 2019-07-26 2024-03-26 Komatsu Ltd. Display system, remote operation system, and display method

Also Published As

Publication number Publication date
JP2018152738A (ja) 2018-09-27
US20190387219A1 (en) 2019-12-19
CA3053100A1 (en) 2018-09-20
CA3053100C (en) 2021-12-07
AU2017404218B2 (en) 2021-04-29
JP6807781B2 (ja) 2021-01-06
AU2017404218A1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
WO2018168163A1 (ja) 表示システム、表示方法、及び遠隔操作システム
JP6474905B2 (ja) 遠隔操作システムおよび操作支援システム
AU2018333191B2 (en) Display system, display method, and display apparatus
US10293752B2 (en) Display system for work vehicle, display control device, work vehicle, and display control method
WO2019189430A1 (ja) 建設機械
JP6832548B2 (ja) 作業機械の画像表示システム、作業機械の遠隔操作システム、作業機械及び作業機械の画像表示方法
JP6947101B2 (ja) 遠隔操作システム及び主操作装置
CN103890282A (zh) 作业机械的周围监视装置
JP2016089388A (ja) 作業支援画像生成装置、及びそれを備えた作業機械の遠隔操縦システム
US10721397B2 (en) Image processing system using predefined stitching configurations
WO2021124654A1 (ja) 作業支援サーバ、作業支援方法および作業支援システム
KR20200037285A (ko) 작업기의 외형 형상 측정 시스템, 작업기의 외형 형상 표시 시스템, 작업기의 제어 시스템 및 작업 기계
US11732440B2 (en) Remote operation system and remote operation server
KR102509346B1 (ko) 교정 작업 지원 시스템
JP7351478B2 (ja) 表示システム、遠隔操作システム、及び表示方法
JP2007221179A (ja) 画像表示装置および画像表示方法
US20220398512A1 (en) Work assist server, work assist method, and work assist system
WO2023100533A1 (ja) 画像表示システム、遠隔操作支援システムおよび画像表示方法
US11908076B2 (en) Display system and display method
WO2023026568A1 (ja) 遠隔操作システムおよび遠隔操作複合システム
KR20180060078A (ko) 건설장비에서의 작업 모니터링 시스템
JP2023032997A (ja) 遠隔操作システム
JP2014056496A (ja) 仮想カメラ画像生成装置、仮想カメラ画像生成システム、仮想カメラ画像生成方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17900733

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3053100

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2017404218

Country of ref document: AU

Date of ref document: 20171228

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17900733

Country of ref document: EP

Kind code of ref document: A1