WO2020153292A1 - 作業機械のシステム及び方法 - Google Patents

作業機械のシステム及び方法 Download PDF

Info

Publication number
WO2020153292A1
WO2020153292A1 PCT/JP2020/001696 JP2020001696W WO2020153292A1 WO 2020153292 A1 WO2020153292 A1 WO 2020153292A1 JP 2020001696 W JP2020001696 W JP 2020001696W WO 2020153292 A1 WO2020153292 A1 WO 2020153292A1
Authority
WO
WIPO (PCT)
Prior art keywords
work machine
panoramic video
image
viewpoint
processor
Prior art date
Application number
PCT/JP2020/001696
Other languages
English (en)
French (fr)
Inventor
浩一 中沢
修 矢津田
Original Assignee
株式会社小松製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小松製作所 filed Critical 株式会社小松製作所
Priority to CA3116828A priority Critical patent/CA3116828A1/en
Priority to AU2020212836A priority patent/AU2020212836B2/en
Priority to US17/289,766 priority patent/US20210395980A1/en
Publication of WO2020153292A1 publication Critical patent/WO2020153292A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/28Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with an adjustable field of view
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/76Graders, bulldozers, or the like with scraper plates or ploughshare-like elements; Levelling scarifying devices
    • E02F3/7604Combinations of scraper blades with soil loosening tools working independently of scraper blades
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/22Hydraulic or pneumatic drives
    • E02F9/2221Control of flow rate; Load sensing arrangements
    • E02F9/2225Control of flow rate; Load sensing arrangements using pressure-compensating valves
    • E02F9/2228Control of flow rate; Load sensing arrangements using pressure-compensating valves including an electronic controller
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/22Hydraulic or pneumatic drives
    • E02F9/2278Hydraulic circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Definitions

  • the present disclosure relates to a work machine system and method.
  • the system includes a plurality of cameras attached to a work machine and a controller.
  • a plurality of cameras capture images of the work machine and its surroundings.
  • the controller synthesizes an overhead image from images captured by a plurality of cameras.
  • the controller synthesizes a plurality of images captured by the camera to generate an image showing the work machine and its surroundings. Therefore, the controller can generate images from various viewpoints.
  • the system includes a work machine, a plurality of cameras, a processor, and a display.
  • the work machine includes a work machine. Multiple cameras capture peripheral images of the work machine.
  • the processor acquires image data indicating a peripheral image.
  • the processor synthesizes the peripheral images to generate a panoramic video from a viewpoint moving around the work machine.
  • the display displays a panoramic video from a viewpoint moving around the work machine based on a signal from the processor.
  • the method according to the second aspect is a method executed by the processor to display the periphery of the work machine including the work machine on the display.
  • the method includes the following processes.
  • the first process is to acquire image data indicating a peripheral image of the work machine.
  • the second process is to combine the peripheral images to generate a panoramic video from a viewpoint moving around the work machine.
  • the third process is to display a panoramic video from the viewpoint moving around the work machine on the display.
  • the system includes a processor and a display.
  • the processor acquires image data indicating a peripheral image of the work machine.
  • the processor synthesizes the peripheral images to generate a panoramic video from a viewpoint moving around the work machine.
  • the display displays a panoramic video from a viewpoint moving around the work machine based on a signal from the processor.
  • a panoramic video from the viewpoint of moving around the work machine is displayed on the display. Therefore, the operator can easily overlook a wide range around the work machine by the display.
  • FIG. 1 is a side view showing a work machine 1 according to the embodiment.
  • the work machine 1 is a bulldozer.
  • the work machine 1 includes a vehicle body 2, a work machine 3, and a traveling device 4.
  • the vehicle body 2 includes an engine room 11.
  • a driver's cab 12 is arranged behind the engine compartment 11.
  • a ripper device 5 is attached to the rear portion of the vehicle body 2.
  • the traveling device 4 is a device for traveling the work machine 1.
  • the traveling device 4 includes a pair of crawler belts 13 arranged on the left and right sides of the vehicle body 2.
  • the work machine 1 runs by driving the crawler belt 13.
  • the work machine 3 is arranged in front of the vehicle body 2.
  • the work machine 3 is used for work such as excavation, soil transportation, or leveling.
  • the work machine 3 includes a blade 14, a lift cylinder 15, a tilt cylinder 16, and an arm 17.
  • the blade 14 is supported by the vehicle body 2 via an arm 17.
  • the blade 14 is provided so as to be vertically movable.
  • the lift cylinder 15 and the tilt cylinder 16 are driven by hydraulic oil discharged from a hydraulic pump 22 described later to change the attitude of the blade 14.
  • FIG. 2 is a block diagram showing the configuration of a system 100 for controlling the work machine 1.
  • the work machine 1 includes an engine 21, a hydraulic pump 22, a power transmission device 23, and a control valve 24.
  • the engine 21, the hydraulic pump 22, and the power transmission device 23 are arranged in the engine compartment 11.
  • the hydraulic pump 22 is driven by the engine 21 and discharges hydraulic oil.
  • the hydraulic oil discharged from the hydraulic pump 22 is supplied to the lift cylinder 15 and the tilt cylinder 16.
  • one hydraulic pump 22 is shown in FIG. 2, a plurality of hydraulic pumps may be provided.
  • the power transmission device 23 transmits the driving force of the engine 21 to the traveling device 4.
  • the power transmission device 23 may be, for example, an HST (Hydro Static Transmission).
  • the power transmission device 23 may be, for example, a torque converter or a transmission having a plurality of transmission gears.
  • the control valve 24 is a proportional control valve and is controlled according to an input command signal.
  • the control valve 24 is arranged between hydraulic actuators such as the lift cylinder 15 and the tilt cylinder 16 and the hydraulic pump 22.
  • the control valve 24 controls the flow rate of the hydraulic oil supplied from the hydraulic pump 22 to the lift cylinder 15 and the tilt cylinder 16.
  • the control valve 24 may be a pressure proportional control valve.
  • the control valve 24 may be an electromagnetic proportional control valve.
  • the system 100 includes a first controller 31, a second controller 32, an input device 33, and communication devices 34 and 35.
  • the first controller 31 and the communication device 34 are mounted on the work machine 1.
  • the second controller 32, the input device 33, and the communication device 35 are arranged outside the work machine 1.
  • the second controller 32, the input device 33, and the communication device 35 are arranged in a control center remote from the work site.
  • the work machine 1 can be remotely controlled by the input device 33.
  • the first controller 31 and the second controller 32 are programmed to control the work machine 1.
  • the first controller 31 includes a memory 311 and a processor 312.
  • the memory 311 includes, for example, a volatile memory such as a RAM and a non-volatile memory such as a ROM.
  • the memory 311 stores programs and data for controlling the work machine 1.
  • the processor 312 is, for example, a CPU (Central Processing Unit), and executes processing for controlling the work machine 1 according to a program.
  • the first controller 31 drives the work machine 1 by controlling the traveling device 4 or the power transmission device 23.
  • the first controller 31 operates the work machine 3 by controlling the control valve 24.
  • the second controller 32 includes a memory 321 and a processor 322.
  • the memory 321 includes, for example, a volatile memory such as a RAM and a non-volatile memory such as a ROM.
  • the memory 321 stores programs and data for controlling the work machine 1.
  • the processor 322 is, for example, a CPU (Central Processing Unit), and executes processing for controlling the work machine 1 according to a program.
  • the second controller 32 receives an operation signal from the input device 33.
  • the input device 33 receives an operation by the operator and outputs an operation signal according to the operation.
  • the input device 33 outputs an operation signal to the second controller 32.
  • the input device 33 includes an operator such as an operating lever, a pedal, or a switch for operating the traveling device 4 and the working machine 3.
  • the input device 33 may include a touch panel.
  • the traveling of the work machine 1 such as forward and backward, is controlled. Further, operations such as raising and lowering of the work machine 3 are controlled according to the operation of the input device 33.
  • the second controller 32 can communicate with the first controller 31 wirelessly via the communication devices 34 and 35.
  • the second controller 32 acquires the operation data D4 from the operation signal from the input device 33, and transmits the operation data D4 to the first controller 31.
  • the operation data D4 indicates the operation of the input device 33 for operating the traveling device 4 and the working machine 3.
  • the first controller 31 controls the traveling device 4 and the work machine 3 according to the operation data D4.
  • FIG. 3 is a block diagram showing a configuration of a system 100 for displaying an image of the work machine 1 and its surroundings, and a flow of processing by the system.
  • the system 100 includes a plurality of cameras C1-C4.
  • the plurality of cameras C1-C4 are attached to the vehicle body 2.
  • the plurality of cameras C1-C4 are fisheye cameras.
  • the angle of view of each of the plurality of cameras C1-C4 is 180 degrees. However, the angle of view of each of the plurality of cameras C1-C4 may be smaller than 180 degrees. Alternatively, the angle of view of each of the plurality of cameras C1-C4 may be greater than 180 degrees.
  • the plurality of cameras C1-C4 includes a front camera C1, a first side camera C2, a rear camera C3, and a second side camera C4.
  • the front camera C1 is attached to the front part of the vehicle body 2.
  • the vehicle body 2 includes a support member 18.
  • the support member 18 extends upward and forward from the front portion of the vehicle body 2.
  • the front camera C1 is attached to the support member 18.
  • the rear camera C3 is attached to the rear part of the vehicle body 2.
  • the first side camera C2 is attached to one side of the vehicle body 2.
  • the second side camera C4 is attached to the other side portion of the vehicle body 2.
  • the first side camera C2 is attached to the left side portion of the vehicle body 2, and the second side camera C4 is attached to the right side portion of the vehicle body 2.
  • the first side camera C2 may be attached to the right side portion of the vehicle body 2, and the second side camera C4 may be attached to the left side portion of the vehicle body 2.
  • the front camera C1 acquires an image in front of the vehicle body 2.
  • the rear camera C3 acquires an image behind the work machine 1.
  • the first side camera C2 acquires an image on the left side of the vehicle body 2.
  • the second side camera C4 acquires an image on the right side of the vehicle body 2.
  • the cameras C1-C4 output image data indicating the acquired image.
  • the system 100 includes a shape sensor 36, a posture sensor 37, and a position sensor 38.
  • the shape sensor 36 measures a three-dimensional shape around the work machine 1 and outputs shape data D1 indicating the three-dimensional shape.
  • the shape sensor 36 is, for example, a lidar (LIDAR: Laser Imaging and Ranging).
  • the shape sensor 36 measures the distance to the measurement point by irradiating a laser and measuring the reflected light.
  • the attitude sensor 37 detects the attitude of the work machine 1 and outputs attitude data D2 indicating the attitude.
  • the posture sensor 37 includes, for example, an IMU (Inertial Measurement Unit).
  • the posture data D2 includes an angle (pitch angle) with respect to the horizontal in the vehicle front-rear direction and an angle (roll angle) with respect to the horizontal in the vehicle lateral direction.
  • the attitude sensor outputs attitude data D2.
  • the position sensor 38 includes a GNSS (Global Navigation Satellite System) receiver such as a GPS (Global Positioning System).
  • the position sensor receives the positioning signal from the satellite, and acquires the position data D3 indicating the position coordinates of the work machine 1 from the positioning signal.
  • the position sensor outputs position data D3.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the shape sensor 36 is attached to the support member 18, for example. Alternatively, the shape sensor 36 may be attached to another part of the vehicle body 2.
  • the attitude sensor 37 and the position sensor 38 are attached to the vehicle body 2. Alternatively, the attitude sensor 37 and the position sensor 38 may be attached to the work machine 3.
  • the system 100 includes an image controller 41 and a display 42.
  • the image controller 41 is programmed to generate an image IS showing the work machine 1 and its periphery and display the image IS on the display 42.
  • the image controller 41 includes a storage device 411 and a processor 412.
  • the storage device 411 includes, for example, a volatile memory such as a RAM and a non-volatile memory such as a ROM.
  • the storage device 411 may include an auxiliary storage device such as an HDD or SSD.
  • the storage device 411 stores a program and data for generating the image IS.
  • the processor 412 is, for example, a CPU (Central Processing Unit), and executes processing for generating an image IS and displaying it on the display 42 according to a program.
  • CPU Central Processing Unit
  • the image controller 41 is connected to the first controller 31 by wire or wirelessly so as to be communicable.
  • the image controller 41 is connected to the second controller 32 in a wired or wireless manner so that they can communicate with each other.
  • the image controller 41 may be mounted on the work machine 1.
  • the image controller 41 may be integrated with the first controller 31 or may be a separate body.
  • the image controller 41 may be arranged outside the work machine 1.
  • the image controller 41 may be arranged in the control center.
  • the image controller 41 may be integrated with the second controller 32 or may be a separate body.
  • the image controller 41 is connected to the cameras C1-C4 by wire or wirelessly so that they can communicate with each other.
  • the image controller 41 receives image data from the cameras C1-C4.
  • the image controller 41 may receive the image data via the first controller 31 and/or the second controller 32.
  • the image controller 41 is connected to the shape sensor 36, the posture sensor 37, and the position sensor 38 by wire or wirelessly so that they can communicate with each other.
  • the image controller 41 receives the shape data D1 from the shape sensor 36.
  • the image controller 41 receives the posture data D2 from the posture sensor 37.
  • the image controller 41 receives the position data D3 from the position sensor 38.
  • the image controller 41 may receive the shape data D1, the posture data D2, and the position data D3 via the first controller 31 and/or the second controller 32.
  • the image controller 41 receives the operation data D4 from the input device 33.
  • the image controller 41 may receive the operation data D4 via the first controller 31 and/or the second controller 32.
  • the display 42 is, for example, a CRT, LCD or OELD. However, the display 42 is not limited to these displays and may be another type of display.
  • the display 42 displays an image based on the signal from the image controller 41.
  • the display 42 may receive a signal from the image controller 41 via the first controller 31 and/or the second controller 32.
  • the image controller 41 generates an image IS based on the above-mentioned image data, shape data D1, posture data D2, and position data D3.
  • FIG. 4 is a diagram showing an example of the image IS.
  • the image IS includes the work machine 1 and objects around the work machine 1.
  • the target around the work machine 1 includes the terrain around the work machine 1. Objects around the work machine 1 may include other work machines, buildings, or people. The generation of the image IS will be described below.
  • the cameras C1-C4 take images of the work machine 1 and its surroundings.
  • the image controller 41 acquires the front image Im1, the left image Im2, the rear image Im3, and the right image Im4 from the cameras C1-C4.
  • the front image Im1 is an image in front of the vehicle body 2.
  • the left image Im2 is an image on the left side of the vehicle body 2.
  • the rear image Im3 is an image behind the vehicle body 2.
  • the right image Im4 is an image on the right side of the vehicle body 2.
  • the image controller 41 generates a peripheral image IS1 from the images Im1-Im4 acquired by the cameras C1-C4.
  • the peripheral image IS1 is a synthetic image that shows a bird's eye view of the periphery of the work machine 1.
  • the image controller 41 generates the peripheral image IS1 by projecting the images Im1-Im4 acquired by the cameras C1-C4 on the three-dimensional projection model M1 by texture mapping.
  • the three-dimensional projection model M1 is composed of a polygon mesh indicating the shape of the target around the work machine 1.
  • the image controller 41 may use a three-dimensional projection model M1 stored in advance. Alternatively, the image controller 41 may generate the three-dimensional projection model M1 based on the shape data D1 acquired from the shape sensor 36.
  • the image controller 41 synthesizes the machine image IS2 showing the work machine 1 and the peripheral image IS1.
  • the machine image IS2 is a three-dimensional image of the work machine 1 itself.
  • the image controller 41 determines the posture of the machine image IS2 on the image IS from the posture data D2.
  • the image controller 41 determines the orientation of the machine image IS2 on the image IS from the position data D3.
  • the image controller 41 synthesizes the mechanical image IS2 with the image IS so that the orientation and orientation of the mechanical image IS2 on the image IS match the actual orientation and orientation of the work machine 1.
  • the image controller 41 may generate the machine image IS2 from the images Im1-Im4 acquired by the cameras C1-C4.
  • the image of the work machine 1 is included in each of the images captured by the cameras C1-C4, and the image controller 41 generates the machine image IS2 by projecting each part of the image onto the machine model M2.
  • the machine model M2 may be a projection model having the shape of the work machine 1 and may be stored in the storage device 411.
  • the machine image IS2 may be a preset image captured in advance or a three-dimensional computer graphics created in advance.
  • the display 42 displays the image IS.
  • the image IS is updated in real time and displayed on the display 42 as a moving image. Therefore, when the work machine 1 is running, the posture, orientation, and orientation of the peripheral image IS1 and the machine image IS2 in the image IS are determined according to the surrounding objects, the orientation, orientation, and actual position of the work machine 1. The position is also changed and displayed in real time.
  • the three-dimensional projection model M1 and the machine model M2 are changed from the posture, orientation, and position when the work machine 1 starts traveling. It rotates according to the rotation matrix that it represents and translates according to the translation vector.
  • the rotation vector and the translation vector are acquired from the posture data D2 and the position data D3 described above.
  • the image IS is an image of the work machine 1 and its surroundings viewed from the left.
  • the image controller 41 can switch the image IS to an image of the work machine 1 and its surroundings from a perspective of forward, backward, rightward, upward, or an oblique direction in each direction.
  • the image controller 41 also generates a panoramic video from the viewpoint VP moving around the work machine 1 and displays it on the display 42.
  • FIG. 5A is a side view showing the movement of the viewpoint VP.
  • FIG. 5A is a top view showing the movement of the viewpoint VP.
  • the viewpoint VP is located diagonally above the work machine 1.
  • the image controller 41 rotates the viewpoint VP around the work machine 360 by 360 degrees.
  • the image controller 41 rotates the viewpoint VP once along a circular trajectory centered on the work machine 1 in a top view of the work machine 1.
  • the viewpoint VP is always arranged so as to face the work machine 1.
  • FIGS. 6 and 7 show a part of the frame of the panoramic video PV. As shown in FIGS. 6 and 7, in the panoramic video PV, the work machine 1 is displayed at the center of the screen.
  • the panoramic video PV shows the work machine 1 and the entire periphery of the work machine 1.
  • the work machine 1 is displayed in the horizontal center of the screen in the panoramic video PV.
  • the work machine 1 is displayed in the vertical center of the screen in the panoramic video PV.
  • the work machine 1 may be displayed eccentric from the center of the screen in the left-right direction or the vertical direction.
  • the frame F1 shown in FIG. 6 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP1 shown in FIG. 5B.
  • the viewpoint VP1 is located in front of and above the work machine 1.
  • a frame F2 shown in FIG. 6 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP2 shown in FIG. 5B.
  • the viewpoint VP2 is located diagonally to the front right of the work machine 1 and above.
  • a frame F3 shown in FIG. 6 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP3 shown in FIG. 5B.
  • the viewpoint VP3 is located to the right and above the work machine 1.
  • the frame F4 shown in FIG. 6 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP4 shown in FIG. 5B.
  • the viewpoint VP4 is located diagonally rearward and rightward of the work machine 1 and upward.
  • a frame F5 shown in FIG. 6 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP5 shown in FIG. 5B.
  • the viewpoint VP5 is located behind and above the work machine 1.
  • a frame F6 shown in FIG. 7 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP6 shown in FIG. 5B.
  • the viewpoint VP6 is located diagonally left rearward and upward of the work machine 1.
  • a frame F7 shown in FIG. 7 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP7 shown in FIG. 5B.
  • the viewpoint VP7 is located diagonally to the front left of the work machine 1 and above.
  • a frame F9 shown in FIG. 7 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP1 shown in FIG. 5B.
  • the viewpoint VP starts moving from the viewpoint VP1, passes through the viewpoints VP2-VP8, and returns to the viewpoint VP1.
  • the panoramic video PV is continuously generated while moving the viewpoints VP1 to VP9 and the positions between them.
  • the start position of movement of the viewpoint VP is not limited to the viewpoint PV1 and may be another position.
  • the image controller 41 generates the panoramic video PV and displays it on the display 42 when receiving the start signal of the work machine 1.
  • the image controller 41 also stores data indicating the panoramic video PV in the storage device 411.
  • the image controller 41 receives, for example, a start signal of the work machine 1 as the operation data D4 from the input device 33 described above.
  • the start signal of the work machine 1 is, for example, a signal for starting the engine 21.
  • the start signal of the work machine 1 may be a signal that activates the system of the work machine 1.
  • the panoramic video PV from the viewpoint VP moving around the work machine 1 is displayed on the display 42. Therefore, the operator can easily overlook a wide range around the work machine 1 by the display 42.
  • the panoramic video PV is generated when the work machine 1 is started and displayed on the display 42. Therefore, the operator can confirm the situation around the work machine 1 at the start of work by the work machine 1.
  • the panoramic video PV is stored in the storage device 411. Thereby, the panoramic video PV can be stored as a safety record at the work site.
  • the work machine is not limited to a bulldozer, but may be another type such as a wheel loader or a hydraulic excavator.
  • the work machine 1 may be operated in the cab instead of being operated remotely.
  • FIG. 8 is a figure which shows the structure of the working machine 1 which concerns on other embodiment.
  • the work machine 1 may include a controller 30 mounted on the work machine 1.
  • the input device 33 may be arranged in the cab.
  • the controller 30 may execute the above-described process of generating the image IS and the panoramic video PV.
  • the controller 30 has the same configuration as the first controller 31 and the second controller 32 described above, and thus detailed description thereof will be omitted.
  • the first controller 31 is not limited to a single unit and may be divided into a plurality of controllers.
  • the second controller 32 is not limited to be integrated, and may be divided into a plurality of controllers.
  • the controller 30 is not limited to a single unit and may be divided into a plurality of controllers.
  • the image controller 41 is not limited to a single unit and may be divided into a plurality of controllers.
  • All or part of the above-described processing for generating the image IS may be executed by another controller instead of the image controller 41.
  • All or part of the above-described processing of generating the panoramic video PV may be executed by the other controller instead of the image controller 41.
  • the number of cameras is not limited to four, but may be three or less, or five or more.
  • the camera is not limited to a fisheye camera, and may be another type of camera.
  • the arrangement of the cameras is not limited to the arrangement of the above-described embodiment, but may be different arrangement.
  • the attitude sensor 37 is not limited to the IMU and may be another sensor.
  • the position sensor 38 is not limited to the GNSS receiver and may be another sensor.
  • the shape sensor 36 is not limited to the rider, but may be another measuring device such as a radar.
  • the panoramic video PV may be generated and displayed on the display 42 not only at the time of receiving the start signal of the work machine but at another timing. For example, when the operator operates the input device 33, the panoramic video PV may be generated at any timing and displayed on the display 42.
  • the position and orientation of the viewpoint VP in the panoramic video PV are not limited to those in the above embodiment, and may be changed.
  • the viewpoint VP may be at the same height as the work machine 1.
  • the viewpoint VP may move so that the work machine 1 is displayed at a position eccentric from the center of the screen.
  • FIG. 8A is a side view showing the movement of the viewpoint VP according to the modification.
  • FIG. 8B is a side view showing the movement of the viewpoint VP according to the modification.
  • the viewpoint VP is located obliquely above the work machine 1 as in the above embodiment.
  • the controller 30 moves the viewpoint VP along an elliptical trajectory surrounding the work machine 1 in a top view of the work machine 1 to generate the panoramic video PV.
  • the viewpoint VP is arranged so that it does not pass through the work machine 1.
  • the viewpoint VP is arranged toward the work machine 1 in a direction passing through one side of the work machine 1 on the left and right sides.
  • the viewpoint VP is arranged so as to face the work machine 1 and pass through the left side of the work machine 1.
  • the viewpoint VP may be arranged so as to face the work machine 1 and pass through the right side of the work machine 1.
  • FIGS. 9 and 10 show a part of the frame of the panoramic video PV according to the modified example.
  • the work machine 1 is displayed to the right of the center of the screen.
  • the work machine 1 may be displayed to the left of the center of the screen.
  • a frame F1 shown in FIG. 10 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP1 shown in FIG. 9B.
  • a frame F2 shown in FIG. 10 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP2 shown in FIG. 9B.
  • a frame F3 shown in FIG. 10 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP3 shown in FIG. 9B.
  • a frame F4 shown in FIG. 10 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP4 shown in FIG. 9B.
  • a frame F5 shown in FIG. 10 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP5 shown in FIG. 9B.
  • a frame F6 shown in FIG. 11 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP6 shown in FIG. 9B.
  • a frame F7 shown in FIG. 11 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP7 shown in FIG. 9B.
  • a frame F9 shown in FIG. 11 is an image of the work machine 1 and its surroundings viewed from the viewpoint VP1 shown in FIG. 9B.
  • the viewpoint VP starts moving from the viewpoint VP1, passes through the viewpoints VP2-VP8, and returns to the viewpoint VP1.
  • the panoramic video PV is continuously generated while moving the viewpoints VP1 to VP9 and the positions between them.
  • the movement start position is not limited to the viewpoint PV1 and may be another position.
  • a panoramic video from the viewpoint of moving around the work machine is displayed on the display. Therefore, the operator can easily overlook a wide range around the work machine by the display.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Structural Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Civil Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Theoretical Computer Science (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

複数のカメラは、作業機械の周辺画像を撮影する。プロセッサは、周辺画像を示す画像データを取得する。プロセッサは、周辺画像を合成して、作業機械の周りを移動する視点からのパノラマ動画を生成する。ディスプレイは、プロセッサからの信号に基づき、作業機械の周りを移動する視点からのパノラマ動画を表示する。

Description

作業機械のシステム及び方法
 本開示は、作業機械のシステム及び方法に関する。
 従来、作業機械とその周辺を示す画像をディスプレイに表示するシステムが知られている。例えば、特許文献1では、システムは、作業機械に取り付けられる複数のカメラとコントローラとを含む。複数のカメラは、作業機械及びその周辺を撮影する。コントローラは、複数のカメラによって撮影された画像から、俯瞰画像を合成する。
国際公開WO2016/031009号公報
 上述したように、コントローラは、カメラが撮影した複数の画像を合成することで、作業機械及びその周辺を示す画像を生成する。従って、コントローラは、様々な視点からの画像を生成することができる。
 オペレータが作業機械の周辺の広い範囲をディスプレイによって見渡すことができれば、作業機械の周辺の状況を容易に確認することができる。しかし、ディスプレイに表示できる範囲には限界がある。そのため、広い範囲を確認するためには、オペレータが視点を切り換える操作を行う必要があり、煩雑である。本開示の目的は、オペレータがディスプレイによって作業機械の周辺の広い範囲を容易に見渡すことができるシステム及び方法を提供することにある。
 第1の態様に係るシステムは、作業機械と、複数のカメラと、プロセッサと、ディスプレイとを備える。作業機械は、作業機を含む。複数のカメラは、作業機械の周辺画像を撮影する。プロセッサは、周辺画像を示す画像データを取得する。プロセッサは、周辺画像を合成して、作業機械の周りを移動する視点からのパノラマ動画を生成する。ディスプレイは、プロセッサからの信号に基づき、作業機械の周りを移動する視点からのパノラマ動画を表示する。
 第2の態様に係る方法は、作業機を含む作業機械の周辺をディスプレイに表示するためにプロセッサによって実行される方法である。当該方法は以下の処理を含む。第1の処理は、作業機械の周辺画像を示す画像データを取得することである。第2の処理は、周辺画像を合成して、作業機械の周りを移動する視点からのパノラマ動画を生成することである。第3の処理は、作業機械の周りを移動する視点からのパノラマ動画をディスプレイに表示することである。
 第3の態様に係るシステムは、プロセッサとディスプレイとを備える。プロセッサは、作業機械の周辺画像を示す画像データを取得する。プロセッサは、周辺画像を合成して、作業機械の周りを移動する視点からのパノラマ動画を生成する。ディスプレイは、プロセッサからの信号に基づき、作業機械の周りを移動する視点からのパノラマ動画を表示する。
 本開示では、作業機械の周りを移動する視点からのパノラマ動画がディスプレイに表示される。そのため、オペレータは、ディスプレイによって作業機械の周辺の広い範囲を容易に見渡すことができる。
実施形態に係る作業機械を示す側面図である。 実施形態に係るシステムの構成を示す図である。 システムの構成、及び、システムによる処理の流れを示すブロック図である。 画像の一例を示す図である。 パノラマ動画における視点の移動を示す図である。 パノラマ動画のフレームの一部を示す図である。 パノラマ動画のフレームの一部を示す図である。 他の実施形態に係るシステムの構成を示す図である。 変形例に係るパノラマ動画における視点の移動を示す図である。 変形例に係るパノラマ動画のフレームの一部を示す図である。 変形例に係るパノラマ動画のフレームの一部を示す図である。
 以下、図面を参照して、実施形態に係る作業機械のシステムについて説明する。図1は、実施形態に係る作業機械1を示す側面図である。本実施形態において、作業機械1はブルドーザである。作業機械1は、車体2と、作業機3と、走行装置4とを含む。
 車体2は、エンジン室11を含む。エンジン室11の後方には、運転室12が配置されている。車体2の後部には、リッパ装置5が取り付けられている。走行装置4は、作業機械1を走行させるための装置である。走行装置4は、車体2の左右の側方に配置される一対の履帯13を含む。履帯13が駆動されることにより作業機械1が走行する。
 作業機3は、車体2の前方に配置されている。作業機3は、掘削、運土、或いは整地などの作業に用いられる。作業機3は、ブレード14と、リフトシリンダ15と、チルトシリンダ16と、アーム17とを有する。ブレード14は、アーム17を介して車体2に支持されている。ブレード14は、上下方向に動作可能に設けられている。リフトシリンダ15とチルトシリンダ16とは、後述する油圧ポンプ22から吐出された作動油によって駆動され、ブレード14の姿勢を変更する。
 図2は、作業機械1を制御するためのシステム100の構成を示すブロック図である。図2に示すように、作業機械1は、エンジン21と、油圧ポンプ22と、動力伝達装置23と、制御弁24とを含む。エンジン21と、油圧ポンプ22と、動力伝達装置23とは、エンジン室11に配置されている。油圧ポンプ22は、エンジン21によって駆動され、作動油を吐出する。油圧ポンプ22から吐出された作動油は、リフトシリンダ15及びチルトシリンダ16に供給される。なお、図2では、1つの油圧ポンプ22が図示されているが、複数の油圧ポンプが設けられてもよい。
 動力伝達装置23は、エンジン21の駆動力を走行装置4に伝達する。動力伝達装置23は、例えば、HST(Hydro Static Transmission)であってもよい。或いは、動力伝達装置23は、例えば、トルクコンバーター、或いは複数の変速ギアを有するトランスミッションであってもよい。
 制御弁24は、比例制御弁であり、入力される指令信号に応じて制御される。制御弁24は、リフトシリンダ15及びチルトシリンダ16などの油圧アクチュエータと、油圧ポンプ22との間に配置される。制御弁24は、油圧ポンプ22からリフトシリンダ15及びチルトシリンダ16に供給される作動油の流量を制御する。なお、制御弁24は、圧力比例制御弁であってもよい。或いは、制御弁24は、電磁比例制御弁であってもよい。
 システム100は、第1コントローラ31と、第2コントローラ32と、入力装置33と、通信装置34,35とを含む。第1コントローラ31と通信装置34とは、作業機械1に搭載されている。第2コントローラ32と、入力装置33と、通信装置35とは、作業機械1の外部に配置されている。例えば、第2コントローラ32と、入力装置33と、通信装置35とは、作業現場から離れたコントロールセンタ内に配置される。作業機械1は、入力装置33によって遠隔操縦可能である。
 第1コントローラ31と第2コントローラ32とは、作業機械1を制御するようにプログラムされている。第1コントローラ31は、メモリ311とプロセッサ312とを含む。メモリ311は、例えばRAMなどの揮発性メモリと、ROM等の不揮発性メモリとを含む。メモリ311は、作業機械1を制御するためのプログラム及びデータを記憶している。プロセッサ312は、例えばCPU(Central Processing Unit)であり、プログラムに従って、作業機械1を制御するための処理を実行する。第1コントローラ31は、走行装置4、或いは動力伝達装置23を制御することで、作業機械1を走行させる。第1コントローラ31は、制御弁24を制御することで、作業機3を動作させる。
 第2コントローラ32は、メモリ321とプロセッサ322とを含む。メモリ321は、例えばRAMなどの揮発性メモリと、ROM等の不揮発性メモリとを含む。メモリ321は、作業機械1を制御するためのプログラム及びデータを記憶している。プロセッサ322は、例えばCPU(Central Processing Unit)であり、プログラムに従って、作業機械1を制御するための処理を実行する。第2コントローラ32は、入力装置33から操作信号を受信する。
 入力装置33は、オペレータによる操作を受け付け、操作に応じた操作信号を出力する。入力装置33は、第2コントローラ32に操作信号を出力する。入力装置33は、走行装置4と作業機3とを操作するための操作レバー、ペダル、或いはスイッチ等の操作子を含む。入力装置33は、タッチパネルを含んでもよい。入力装置33の操作に応じて、作業機械1の前進及び後進などの走行が制御される。また、入力装置33の操作に応じて、作業機3の上昇及び下降などの動作が制御される。
 第2コントローラ32は、第1コントローラ31と、通信装置34,35を介して無線により通信可能である。第2コントローラ32は、入力装置33から操作信号から操作データD4を取得し、操作データD4を第1コントローラ31に送信する。操作データD4は、走行装置4と作業機3とを操作するための入力装置33の操作を示す。第1コントローラ31は、操作データD4に応じて、走行装置4及び作業機3を制御する。
 図3は、作業機械1及びその周辺の画像を表示するためのシステム100の構成、及び、システムによる処理の流れを示すブロック図である。図3に示すように、システム100は、複数のカメラC1-C4を含む。複数のカメラC1-C4は、車体2に取り付けられている。複数のカメラC1-C4は、魚眼カメラである。複数のカメラC1-C4のそれぞれの画角は180度である。ただし、複数のカメラC1-C4のそれぞれの画角は180度より小さくてもよい。或いは、複数のカメラC1-C4のそれぞれの画角は180度より大きくてもよい。複数のカメラC1-C4は、前カメラC1と、第1サイドカメラC2と、後カメラC3と、第2サイドカメラC4とを有する。
 図1に示すように、前カメラC1は、車体2の前部に取り付けられる。詳細には、図1に示すように、車体2は支持部材18を含む。支持部材18は、車体2の前部から上方、且つ、前方に延びている。前カメラC1は、支持部材18に取り付けられている。後カメラC3は、車体2の後部に取り付けられる。
 第1サイドカメラC2は、車体2の一方の側部に取り付けられている。第2サイドカメラC4は、車体2の他方の側部に取り付けられている。本実施形態では、第1サイドカメラC2は、車体2の左側部に取り付けられ、第2サイドカメラC4は、車体2の右側部に取り付けられている。ただし、第1サイドカメラC2が、車体2の右側部に取り付けられ、第2サイドカメラC4が、車体2の左側部に取り付けられてもよい。
 前カメラC1は、車体2の前方の画像を取得する。後カメラC3は、作業機械1の後方の画像を取得する。第1サイドカメラC2は、車体2の左方の画像を取得する。第2サイドカメラC4は、車体2の右方の画像を取得する。カメラC1-C4は、取得した画像を示す画像データを出力する。
 システム100は、形状センサ36と、姿勢センサ37と、位置センサ38とを含む。形状センサ36は、作業機械1の周辺の3次元形状を測定し、3次元形状を示す形状データD1を出力する。形状センサ36は、例えばライダー(LIDAR:Laser Imaging Detection and Ranging)である。形状センサ36は、レーザーを照射して、その反射光を計測することで、計測点までの距離を測定する。
 姿勢センサ37は、作業機械1の姿勢を検出し、姿勢を示す姿勢データD2を出力する。姿勢センサ37は、例えばIMU(慣性計測装置:Inertial Measurement Unit)を含む。姿勢データD2は、車両前後方向の水平に対する角度(ピッチ角)と、車両横方向の水平に対する角度(ロール角)とを含む。姿勢センサは、姿勢データD2を出力する。
 位置センサ38は、例えばGPS(Global Positioning System)などのGNSS(Global Navigation Satellite System)レシーバを含む。位置センサは、衛星より測位信号を受信し、測位信号により作業機械1の位置座標を示す位置データD3を取得する。位置センサは、位置データD3を出力する。
 形状センサ36は、例えば支持部材18に取り付けられる。或いは、形状センサ36は、車体2の他の部分に取り付けられてもよい。姿勢センサ37と位置センサ38とは、車体2に取り付けられる。或いは、姿勢センサ37と位置センサ38とは、作業機3に取り付けられてもよい。
 システム100は、画像コントローラ41とディスプレイ42とを含む。画像コントローラ41は、作業機械1及びその周辺を示す画像ISを生成してディスプレイ42に表示するようにプログラムされている。画像コントローラ41は、記憶装置411とプロセッサ412とを含む。記憶装置411は、例えばRAMなどの揮発性メモリと、ROM等の不揮発性メモリとを含む。記憶装置411は、HDD或いはSSDなどの補助記憶装置を含んでもよい。記憶装置411は、画像ISを生成するためのプログラム及びデータを記憶している。プロセッサ412は、例えばCPU(Central Processing Unit)であり、プログラムに従って、画像ISを生成してディスプレイ42に表示させるための処理を実行する。
 画像コントローラ41は、第1コントローラ31と、有線、或いは無線により通信可能に接続されている。画像コントローラ41は、第2コントローラ32と、有線、或いは無線により通信可能に接続されている。画像コントローラ41は、作業機械1に搭載されてもよい。画像コントローラ41は、第1コントローラ31と一体であってもよく、別体であってもよい。
 或いは、画像コントローラ41は、作業機械1の外部に配置されてもよい。例えば、画像コントローラ41は、コントロールセンタ内に配置されてもよい。画像コントローラ41は、第2コントローラ32と一体であってもよく、別体であってもよい。
 画像コントローラ41は、カメラC1-C4と有線、或いは無線により通信可能に接続されている。画像コントローラ41は、カメラC1-C4から画像データを受信する。或いは、画像コントローラ41は、第1コントローラ31、及び/又は、第2コントローラ32を介して、画像データを受信してもよい。
 画像コントローラ41は、形状センサ36、姿勢センサ37、及び位置センサ38と有線、或いは無線により通信可能に接続されている。画像コントローラ41は、形状センサ36から形状データD1を受信する。画像コントローラ41は、姿勢センサ37から姿勢データD2を受信する。画像コントローラ41は、位置センサ38から位置データD3を受信する。或いは、画像コントローラ41は、第1コントローラ31、及び/又は、第2コントローラ32を介して、形状データD1、姿勢データD2、及び位置データD3を受信してもよい。
 画像コントローラ41は、入力装置33から操作データD4を受信する。画像コントローラ41は、第1コントローラ31、及び/又は、第2コントローラ32を介して、操作データD4を受信してもよい。
 ディスプレイ42は、例えばCRT、LCD或いはOELDである。ただし、ディスプレイ42はこれらのディスプレイに限らず、他の種類のディスプレイであってもよい。ディスプレイ42は、画像コントローラ41からの信号に基づいて画像を表示する。ディスプレイ42は、第1コントローラ31、及び/又は、第2コントローラ32を介して、画像コントローラ41からの信号を受信してもよい。
 画像コントローラ41は、上述した画像データと、形状データD1と、姿勢データD2と、位置データD3とに基づいて、画像ISを生成する。図4は、画像ISの一例を示す図である。画像ISは、作業機械1及びその周辺の対象を含む。作業機械1の周辺の対象は、作業機械1の周辺の地形を含む。作業機械1の周辺の対象は、他の作業機械、建物、或いは人を含んでもよい。以下、画像ISの生成について説明する。
 まず、カメラC1-C4が作業機械1及びその周辺を撮影する。それにより、図3に示すように、画像コントローラ41は、カメラC1-C4から、前方画像Im1と、左方画像Im2と、後方画像Im3と、右方画像Im4とを取得する。前方画像Im1は、車体2の前方の画像である。左方画像Im2は、車体2の左方の画像である。後方画像Im3は、車体2の後方の画像である。右方画像Im4は、車体2の右方の画像である。
 画像コントローラ41は、カメラC1-C4が取得した画像Im1-Im4から周辺画像IS1を生成する。周辺画像IS1は、作業機械1の周辺を俯瞰的に示す合成画像である。図4に示すように、画像コントローラ41は、3次元投影モデルM1に、カメラC1-C4が取得した画像Im1-Im4をテクスチャマッピングにより投影することで、周辺画像IS1を生成する。3次元投影モデルM1は、作業機械1の周辺の対象の形状を示すポリゴンメッシュで構成される。画像コントローラ41は、予め保存された3次元投影モデルM1を使用してもよい。或いは、画像コントローラ41は、形状センサ36から取得した形状データD1に基づいて、3次元投影モデルM1を生成してもよい。
 次に、画像コントローラ41は、作業機械1を示す機械画像IS2と周辺画像IS1とを合成する。機械画像IS2は、作業機械1自体を3次元的に示す画像である。画像コントローラ41は、姿勢データD2から画像IS上の機械画像IS2の姿勢を決定する。画像コントローラ41は、位置データD3から画像IS上の機械画像IS2の向きを決定する。画像コントローラ41は、画像IS上の機械画像IS2の姿勢と向きとが、作業機械1の実際の姿勢及び向きと一致するように、画像ISに機械画像IS2を合成する。
 なお、画像コントローラ41は、カメラC1-C4が取得した画像Im1-Im4から機械画像IS2を生成してもよい。例えば、カメラC1-C4が取得した画像中に作業機械1の部分がそれぞれ含まれており、画像コントローラ41は、機械モデルM2に、画像中の各部分を投影することで機械画像IS2を生成してもよい。或いは、機械モデルM2は、作業機械1の形状を有する投影モデルであり、記憶装置411に保存されていてもよい。機械画像IS2は、予め撮影された既定の画像、或いは予め作成された3次元のコンピュータグラフィックスであってもよい。
 ディスプレイ42は、画像ISを表示する。画像ISは、リアルタイムに更新され、動画としてディスプレイ42に表示される。従って、作業機械1が走行しているときには、周辺の対象、作業機械1の姿勢、向き、位置の実際の変化に応じて、画像IS中の周辺画像IS1、機械画像IS2の姿勢、向き、及び位置も、リアルタイムに変化して表示される。
 作業機械1の姿勢、向き、及び位置の変化を表現するためには、3次元投影モデルM1及び機械モデルM2を、作業機械1が走行を開始したときの姿勢、向き、及び位置からの変化を表す回転行列に従って回転させ、並進ベクトルに従って並進させる。回転ベクトルと並進ベクトルとは、上述した姿勢データD2及び位置データD3から取得される。
 画像ISの合成のための具体的な手法については、例えば“Spatio-temporal bird’s-eye view images using multiple fish- eye cameras,”(Proceedings of the 2013 IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013.)において示されている手法が用いられてもよい。“Visualization of the surrounding environment and operational part in a 3DCG model for the teleoperation of construction machines,” (Proceedings of the 2015 IEEE/SICE International Symposium on System Integration, pp. 81-87, 2015.)において示されている手法が用いられてもよい。
 図4では、画像ISは、作業機械1及びその周辺を左方から見た画像である。しかし、画像コントローラ41は、前方、後方、右方、上方、或いは、各方向の斜め方向の視点から、作業機械1及びその周辺を見た画像に、画像ISを切り換えることができる。
 また、画像コントローラ41は、作業機械1の周りを移動する視点VPからのパノラマ動画を生成して、ディスプレイ42に表示する。図5Aは、視点VPの移動を示す側面図である。図5Aは、視点VPの移動を示す上面図である。図5Aに示すように、視点VPは、作業機械1の斜め上方に位置する。図5Bに示すように、画像コントローラ41は、視点VPを作業機械1の周りに360度回転させる。画像コントローラ41は、作業機械1の上面視で、作業機械1を中心とする円状の軌跡に沿って、視点VPを1回転させる。視点VPは、常に作業機械1を向くように配置される。
 図6及び図7は、パノラマ動画PVのフレームの一部を示す。図6及び図7に示すように、パノラマ動画PVにおいて、作業機械1は、画面の中心に表示される。パノラマ動画PVは、作業機械1、及び作業機械1の全周囲の周辺を示す。
 詳細には、作業機械1は、パノラマ動画PVにおいて、画面の左右方向の中心に表示される。作業機械1は、パノラマ動画PVにおいて、画面の上下方向の中心に表示される。ただし、作業機械1は、画面の左右方向又は上下方向の中心から偏心して表示されてもよい。
 図6に示すフレームF1は、図5Bに示す視点VP1から作業機械1及びその周辺を見た画像である。視点VP1は、作業機械1の前方且つ上方に位置している。図6に示すフレームF2は、図5Bに示す視点VP2から作業機械1及びその周辺を見た画像である。視点VP2は、作業機械1の前斜め右方、且つ上方に位置している。図6に示すフレームF3は、図5Bに示す視点VP3から作業機械1及びその周辺を見た画像である。視点VP3は、作業機械1の右方且つ上方に位置している。
 図6に示すフレームF4は、図5Bに示す視点VP4から作業機械1及びその周辺を見た画像である。視点VP4は、作業機械1の後斜め右方、且つ上方に位置している。図6に示すフレームF5は、図5Bに示す視点VP5から作業機械1及びその周辺を見た画像である。視点VP5は、作業機械1の後方且つ上方に位置している。
 図7に示すフレームF6は、図5Bに示す視点VP6から作業機械1及びその周辺を見た画像である。視点VP6は、作業機械1の後斜め左方、且つ、上方に位置している。図7に示すフレームF7は、図5Bに示す視点VP7から作業機械1及びその周辺を見た画像である。視点VP7は、作業機械1の前斜め左方、且つ上方に位置している。図7に示すフレームF9は、図5Bに示す視点VP1から作業機械1及びその周辺を見た画像である。
 以上のように、視点VPは、視点VP1から移動を開始し、視点VP2-VP8を経て、視点VP1に戻る。パノラマ動画PVは、視点VP1-VP9及びそれらの間の位置を移動しながら、連続的に生成される。なお、視点VPの移動の開始位置は、視点PV1に限らず、他の位置であってもよい。
 画像コントローラ41は、作業機械1の始動信号を受信したときに、パノラマ動画PVを生成してディスプレイ42に表示させる。また、画像コントローラ41は、パノラマ動画PVを示すデータを記憶装置411に保存する。画像コントローラ41は、例えば、上述した入力装置33から、操作データD4として作業機械1の始動信号を受信する。作業機械1の始動信号は、例えばエンジン21を始動させるための信号である。或いは、作業機械1の始動信号は、作業機械1のシステムを起動する信号であってもよい。
 以上説明した本実施形態に係るシステム100では、作業機械1の周りを移動する視点VPからのパノラマ動画PVがディスプレイ42に表示される。そのため、オペレータは、ディスプレイ42によって作業機械1の周辺の広い範囲を容易に見渡すことができる。
 パノラマ動画PVは、作業機械1の始動時に生成されて、ディスプレイ42に表示される。そのため、オペレータは、作業機械1による作業の開始時に、作業機械1の周囲の状況を確認することができる。
 パノラマ動画PVは、記憶装置411に保存される。それにより、作業現場の安全記録として、パノラマ動画PVを保存しておくことができる。
 以上、本開示の実施形態について説明したが、本発明はこれらに限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。例えば、作業機械は、ブルドーザに限らず、ホイールローダ、或いは油圧ショベルなどの他の種類のものであってもよい。
 作業機械1は、遠隔操作ではなく、運転室内で操作されてもよい。図8は、他の実施形態に係る作業機械1の構成を示す図である。図8に示すように、作業機械1は、作業機械1に搭載されたコントローラ30を含んでもよい。この場合、入力装置33は、運転室内に配置されてもよい。コントローラ30は、上述した画像IS及びパノラマ動画PVを生成する処理を実行してもよい。コントローラ30は、上述した第1コントローラ31及び第2コントローラ32と同様の構成であるため、詳細な説明を省略する。
 第1コントローラ31は、一体に限らず、複数のコントローラに分かれていてもよい。第2コントローラ32は、一体に限らず、複数のコントローラに分かれていてもよい。コントローラ30は、一体に限らず、複数のコントローラに分かれていてもよい。画像コントローラ41は、一体に限らず、複数のコントローラに分かれていてもよい。
 上述した画像ISを生成する処理の全部、或いは一部は、画像コントローラ41ではなく、他のコントローラによって実行されてもよい。上述したパノラマ動画PVを生成する処理の全部、或いは一部は、画像コントローラ41ではなく、他のコントローラによって実行されてもよい。
 カメラの数は、4つに限らず、3つ以下、或いは5つ以上であってもよい。カメラは、魚眼カメラに限らず、他の種類のカメラであってもよい。カメラの配置は、上記の実施形態の配置に限らず、異なる配置であってもよい。
 姿勢センサ37は、IMUに限らず、他のセンサであってもよい。位置センサ38は、GNSSレシーバに限らず、他のセンサであってもよい。形状センサ36は、ライダーに限らず、レーダー等の他の測定装置であってもよい。
 パノラマ動画PVは、作業機械の始動信号の受信時に限らず、他のタイミングで生成され、ディスプレイ42に表示されてもよい。例えば、オペレータが入力装置33を操作することで、任意のタイミングでパノラマ動画PVが生成され、ディスプレイ42に表示されてもよい。
 パノラマ動画PVにおける視点VPの位置及び向きは、上記の実施形態のものに限らず、変更されてもよい。例えば、視点VPは、作業機械1と同じ高さであってもよい。或いは、作業機械1が画面の中心から偏心した位置に表示されるように、視点VPが移動してもよい。
 図8Aは、変形例に係る視点VPの移動を示す側面図である。図8Bは、変形例に係る視点VPの移動を示す側面図である。図8Aに示すように、変形例では、上記の実施形態と同様に、視点VPは、作業機械1の斜め上方に位置している。図8Bに示すように、変形例では、コントローラ30は、作業機械1の上面視で、作業機械1を囲む楕円状の軌跡に沿って視点VPを移動させて、パノラマ動画PVを生成する。
 視点VPは、作業機械1を通らない向きに配置される。視点VPは、作業機械1に向かって、作業機械1の左右の一側方を通る向きに配置される。本変形例では、視点VPは、作業機械1に向かって、作業機械1の左側方を通る向きに配置される。ただし、視点VPは、作業機械1に向かって、作業機械1の右側方を通る向きに配置されてもよい。
 図9及び図10は、変形例に係るパノラマ動画PVのフレームの一部を示す。図9及び図10に示すように、パノラマ動画PVにおいて、作業機械1は、画面の中心よりも右方に表示される。ただし、作業機械1は、画面の中心よりも左方に表示されてもよい。
 図10に示すフレームF1は、図9Bに示す視点VP1から作業機械1及びその周辺を見た画像である。図10に示すフレームF2は、図9Bに示す視点VP2から作業機械1及びその周辺を見た画像である。図10に示すフレームF3は、図9Bに示す視点VP3から作業機械1及びその周辺を見た画像である。図10に示すフレームF4は、図9Bに示す視点VP4から作業機械1及びその周辺を見た画像である。図10に示すフレームF5は、図9Bに示す視点VP5から作業機械1及びその周辺を見た画像である。
 図11に示すフレームF6は、図9Bに示す視点VP6から作業機械1及びその周辺を見た画像である。図11に示すフレームF7は、図9Bに示す視点VP7から作業機械1及びその周辺を見た画像である。図11に示すフレームF9は、図9Bに示す視点VP1から作業機械1及びその周辺を見た画像である。
 以上のように、視点VPは、視点VP1から移動を開始し、視点VP2-VP8を経て、視点VP1に戻る。パノラマ動画PVは、視点VP1-VP9及びそれらの間の位置を移動しながら、連続的に生成される。なお、移動の開始位置は、視点PV1に限らず、他の位置であってもよい。
 本開示では、作業機械の周りを移動する視点からのパノラマ動画がディスプレイに表示される。そのため、オペレータは、ディスプレイによって作業機械の周辺の広い範囲を容易に見渡すことができる。
1     作業機械
3     作業機
42    ディスプレイ
411   記憶装置
412   プロセッサ
C1-C4 カメラ
 

Claims (19)

  1.  作業機を含む作業機械と、
     前記作業機械の周辺画像を撮影する複数のカメラと、
     前記周辺画像を示す画像データを取得し、前記周辺画像を合成して、前記作業機械の周りを移動する視点からのパノラマ動画を生成するプロセッサと、
     前記プロセッサからの信号に基づき、前記作業機械の周りを移動する視点からの前記パノラマ動画を表示するディスプレイと、
    を備えるシステム。
     
  2.  前記プロセッサは、前記視点を前記作業機械の回りに少なくとも360度回転させて、前記パノラマ動画を生成する、
    請求項1に記載のシステム。
     
  3.  前記プロセッサは、前記作業機械の上面視で、前記作業機械を囲む円状の軌跡に沿って前記視点を移動させて、前記パノラマ動画を生成する、
    請求項1に記載のシステム。
     
  4.  前記プロセッサは、前記作業機械の上面視で、前記作業機械を囲む楕円状の軌跡に沿って前記視点を移動させて、前記パノラマ動画を生成する、
    請求項1に記載のシステム。
     
  5.  前記パノラマ動画は、前記作業機械の全周囲における前記作業機械の周辺を示す、
    請求項1に記載のシステム。
     
  6.  前記パノラマ動画において、前記作業機械は画面の中心に表示される、
    請求項1に記載のシステム。
     
  7.  前記パノラマ動画において、前記作業機械は、画面の中心よりも右方、又は左方に表示される、
    請求項1に記載のシステム。
     
  8.  前記プロセッサは、前記作業機械の始動信号を受信したときに、前記パノラマ動画を生成して前記ディスプレイに表示させる、
    請求項1に記載のシステム。
     
  9.  データを記憶する記憶装置をさらに備え、
     前記プロセッサは、前記パノラマ動画を示すデータを前記記憶装置に保存する、
    請求項1に記載のシステム。
     
  10.  作業機を含む作業機械の周辺をディスプレイに表示するためにプロセッサによって実行される方法であって、
     前記作業機械の周辺画像を示す画像データを取得することと、
     前記周辺画像を合成して、前記作業機械の周りを移動する視点からのパノラマ動画を生成することと、
     前記作業機械の周りを移動する視点からの前記パノラマ動画を前記ディスプレイに表示すること、
    を備える方法。
     
  11.  前記パノラマ動画を生成することは、前記視点を前記作業機械の回りに少なくとも360度回転させることを含む、
    請求項10に記載の方法。
     
  12.  前記パノラマ動画を生成することは、前記作業機械の上面視で、前記作業機械を囲む円状の軌跡に沿って前記視点を移動させることを含む、
    請求項10に記載の方法。
     
  13.  前記パノラマ動画を生成することは、前記作業機械の上面視で、前記作業機械を囲む楕円状の軌跡に沿って前記視点を移動させることを含む、
    請求項10に記載の方法。
     
  14.  前記パノラマ動画は、前記作業機械の全周囲における前記作業機械の周辺を示す、
    請求項10に記載の方法。
     
  15.  前記パノラマ動画において、前記作業機械は画面の中心に表示される、
    請求項10に記載の方法。
     
  16.  前記パノラマ動画において、前記作業機械は、画面の中心よりも右方、又は左方に表示される、
    請求項10に記載の方法。
     
  17.  前記作業機械の始動信号を受信したときに、前記パノラマ動画が生成されて前記ディスプレイに表示される、
    請求項10に記載の方法。
     
  18.  前記パノラマ動画を示すデータを記憶装置に保存することをさらに備える、
    請求項10に記載の方法。
     
  19.  作業機械の周辺画像を示す画像データを取得し、前記周辺画像を合成して、前記作業機械の周りを移動する視点からのパノラマ動画を生成するプロセッサと、
     前記プロセッサからの信号に基づき、前記作業機械の周りを移動する視点からの前記パノラマ動画を表示するディスプレイと、
    を備えるシステム。
PCT/JP2020/001696 2019-01-23 2020-01-20 作業機械のシステム及び方法 WO2020153292A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CA3116828A CA3116828A1 (en) 2019-01-23 2020-01-20 System and method for work machine
AU2020212836A AU2020212836B2 (en) 2019-01-23 2020-01-20 System and method for work machine
US17/289,766 US20210395980A1 (en) 2019-01-23 2020-01-20 System and method for work machine

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019008906A JP7160702B2 (ja) 2019-01-23 2019-01-23 作業機械のシステム及び方法
JP2019-008906 2019-01-23

Publications (1)

Publication Number Publication Date
WO2020153292A1 true WO2020153292A1 (ja) 2020-07-30

Family

ID=71735469

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/001696 WO2020153292A1 (ja) 2019-01-23 2020-01-20 作業機械のシステム及び方法

Country Status (5)

Country Link
US (1) US20210395980A1 (ja)
JP (1) JP7160702B2 (ja)
AU (1) AU2020212836B2 (ja)
CA (1) CA3116828A1 (ja)
WO (1) WO2020153292A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081729A (ja) * 2009-10-09 2011-04-21 Sumitomo Heavy Ind Ltd 画像変換装置及び操作支援システム
JP2013121056A (ja) * 2011-12-07 2013-06-17 Fujitsu Ten Ltd 画像処理装置、車両、画像処理方法、及び、プログラム
JP2014069629A (ja) * 2012-09-28 2014-04-21 Fujitsu Ten Ltd 画像処理装置、及び画像処理システム
JP2016134001A (ja) * 2015-01-20 2016-07-25 富士通テン株式会社 画像生成装置、画像生成方法及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100866450B1 (ko) * 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP5627253B2 (ja) * 2009-05-29 2014-11-19 富士通テン株式会社 画像処理装置、電子装置、および、画像処理方法
JP6258000B2 (ja) * 2013-10-31 2018-01-10 株式会社デンソーテン 画像表示システム、画像表示方法及びプログラム
US9961259B2 (en) * 2013-09-19 2018-05-01 Fujitsu Ten Limited Image generation device, image display system, image generation method and image display method
EP3222042B1 (en) * 2014-11-17 2022-07-27 Yanmar Power Technology Co., Ltd. Display system for remote control of working machine
WO2017110144A1 (ja) * 2015-12-22 2017-06-29 株式会社Jvcケンウッド 俯瞰映像生成装置、俯瞰映像生成システム、俯瞰映像生成方法およびプログラム
JP6766557B2 (ja) * 2016-09-29 2020-10-14 アイシン精機株式会社 周辺監視装置
JP7171436B2 (ja) * 2016-11-01 2022-11-15 住友建機株式会社 作業機械用周辺監視システム、表示装置
JP6639379B2 (ja) * 2016-12-21 2020-02-05 トヨタ自動車株式会社 車両周辺監視装置
JP7220734B2 (ja) * 2021-03-24 2023-02-10 本田技研工業株式会社 画像表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011081729A (ja) * 2009-10-09 2011-04-21 Sumitomo Heavy Ind Ltd 画像変換装置及び操作支援システム
JP2013121056A (ja) * 2011-12-07 2013-06-17 Fujitsu Ten Ltd 画像処理装置、車両、画像処理方法、及び、プログラム
JP2014069629A (ja) * 2012-09-28 2014-04-21 Fujitsu Ten Ltd 画像処理装置、及び画像処理システム
JP2016134001A (ja) * 2015-01-20 2016-07-25 富士通テン株式会社 画像生成装置、画像生成方法及びプログラム

Also Published As

Publication number Publication date
JP2020120234A (ja) 2020-08-06
AU2020212836B2 (en) 2022-03-10
CA3116828A1 (en) 2020-07-30
US20210395980A1 (en) 2021-12-23
AU2020212836A1 (en) 2021-05-20
JP7160702B2 (ja) 2022-10-25

Similar Documents

Publication Publication Date Title
AU2018333191B2 (en) Display system, display method, and display apparatus
JP6927821B2 (ja) 表示システム、及び表示装置
US20170050566A1 (en) Display system for work vehicle, display control device, work vehicle, and display control method
AU2017318911B2 (en) Image display system of work machine, remote operation system of work machine, work machine, and method for displaying image of work machine
US10787127B2 (en) Display system for work vehicle
WO2020153292A1 (ja) 作業機械のシステム及び方法
US11549238B2 (en) System and method for work machine
US20210388580A1 (en) System and method for work machine
US20220316188A1 (en) Display system, remote operation system, and display method
JP7160701B2 (ja) 作業機械のシステム及び方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20744727

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 3116828

Country of ref document: CA

ENP Entry into the national phase

Ref document number: 2020212836

Country of ref document: AU

Date of ref document: 20200120

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20744727

Country of ref document: EP

Kind code of ref document: A1