WO2019159687A1 - 作業車両の表示システム及び生成方法 - Google Patents

作業車両の表示システム及び生成方法 Download PDF

Info

Publication number
WO2019159687A1
WO2019159687A1 PCT/JP2019/003013 JP2019003013W WO2019159687A1 WO 2019159687 A1 WO2019159687 A1 WO 2019159687A1 JP 2019003013 W JP2019003013 W JP 2019003013W WO 2019159687 A1 WO2019159687 A1 WO 2019159687A1
Authority
WO
WIPO (PCT)
Prior art keywords
work vehicle
image
shape
controller
surrounding environment
Prior art date
Application number
PCT/JP2019/003013
Other languages
English (en)
French (fr)
Inventor
山下 淳
宗一郎 岩滝
浩光 藤井
正隆 淵田
アレッサンドロ モロ
一 淺間
一樹 久禮
Original Assignee
国立大学法人東京大学
株式会社小松製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立大学法人東京大学, 株式会社小松製作所 filed Critical 国立大学法人東京大学
Priority to CA3075426A priority Critical patent/CA3075426C/en
Priority to AU2019222009A priority patent/AU2019222009B2/en
Priority to CN201980004602.5A priority patent/CN111149355B/zh
Priority to US16/640,154 priority patent/US11377824B2/en
Publication of WO2019159687A1 publication Critical patent/WO2019159687A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/76Graders, bulldozers, or the like with scraper plates or ploughshare-like elements; Levelling scarifying devices
    • E02F3/7609Scraper blade mounted forwardly of the tractor on a pair of pivoting arms which are linked to the sides of the tractor, e.g. bulldozers
    • E02F3/7618Scraper blade mounted forwardly of the tractor on a pair of pivoting arms which are linked to the sides of the tractor, e.g. bulldozers with the scraper blade adjustable relative to the pivoting arms about a horizontal axis
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/60Structural details of dashboards or instruments
    • B60K2360/61Specially adapted for utility vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/40Special vehicles
    • B60Y2200/41Construction vehicles, e.g. graders, excavators
    • B60Y2200/411Bulldozers, Graders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Definitions

  • the present invention relates to a work vehicle display system and generation method.
  • the shape of the projection model is always a hemispherical shape and constant. Therefore, it is difficult to grasp the actual shape of the surrounding environment of the work vehicle from the overhead image.
  • the bottom surface of the projection model is always a flat plane. Therefore, even when the ground surface around the work vehicle has an inclination or unevenness, an image obtained by photographing them is projected on a flat projection surface. For this reason, it is not easy to grasp that the topographic image is inclined or uneven terrain.
  • An object of the present invention is to generate a display image that can easily grasp the shape of the surrounding environment of the work vehicle.
  • the work vehicle display system includes a camera, a shape sensor, and a controller.
  • the camera captures an image of the surrounding environment of the work vehicle and outputs image data indicating the image.
  • the shape sensor measures the three-dimensional shape of the surrounding environment and outputs 3D shape data indicating the three-dimensional shape.
  • the controller acquires image data and 3D shape data.
  • the controller generates a three-dimensional projection model based on the 3D shape data.
  • the three-dimensional projection model represents the three-dimensional shape of the surrounding environment.
  • the three-dimensional shape of the environment surrounding the work vehicle is measured by the shape sensor, and a three-dimensional projection model is generated based on the measured three-dimensional shape. Therefore, the three-dimensional projection model has the same or approximate shape as the actual shape of the environment surrounding the work vehicle. Therefore, by projecting the image captured by the camera onto the three-dimensional projection model, it is possible to generate a display image that can easily grasp the shape of the surrounding environment of the work vehicle.
  • a generation method is a generation method executed by a controller to generate display image data indicating a display image of the surrounding environment of the work vehicle, and includes the following processing.
  • the first process is to acquire image data indicating an image of the surrounding environment of the work vehicle.
  • the second process is to acquire 3D shape data indicating the three-dimensional shape of the surrounding environment.
  • the third process is to generate a three-dimensional projection model that represents the three-dimensional shape of the surrounding environment based on the 3D shape data.
  • the fourth process is to generate display image data by projecting an image onto a three-dimensional projection model based on the image data.
  • the three-dimensional shape of the environment surrounding the work vehicle is measured by the shape sensor, and a three-dimensional projection model is generated based on the measured three-dimensional shape. Therefore, the three-dimensional projection model has the same or approximate shape as the actual shape of the environment surrounding the work vehicle. Therefore, by projecting the image captured by the camera onto the three-dimensional projection model, it is possible to generate a display image that can easily grasp the shape of the surrounding environment of the work vehicle.
  • FIG. 1 is a side view showing a work vehicle 1 according to the embodiment.
  • the work vehicle 1 is a bulldozer.
  • the work vehicle 1 includes a vehicle main body 3, a work implement 4, and a traveling device 5.
  • the vehicle body 3 has an engine room 6. Drive units such as an engine 7 and a hydraulic pump 8 are arranged in the engine chamber 6. A ripper device 9 is attached to the rear portion of the vehicle body 3.
  • the traveling device 5 is a device for traveling the work vehicle 1.
  • the traveling device 5 has a pair of crawler belts 11 disposed on one side and the other side in the short direction of the work vehicle 1.
  • the crawler belt 11 is a loop-like chain extending in the longitudinal direction of the work vehicle 1. When the crawler belt 11 is driven, the work vehicle 1 travels.
  • the work machine 4 is disposed in front of the vehicle body 3.
  • the work machine 4 is used for work such as excavation, earthing, or leveling.
  • the work machine 4 includes a blade 12, a tilt cylinder 13, a lift cylinder 14, and an arm 15.
  • the blade 12 is supported by the vehicle body 3 via the arm 15.
  • the blade 12 is provided so as to be swingable in the vertical direction.
  • the tilt cylinder 13 and the lift cylinder 14 are driven by the hydraulic oil discharged from the hydraulic pump 8 to change the posture of the blade 12.
  • FIG. 2 is a block diagram showing the configuration of the display system 2 according to the first embodiment and the flow of processing by the display system 2.
  • the display system 2 includes a plurality of cameras C1-C4.
  • the plurality of cameras C1-C4 are attached to the vehicle main body 3.
  • the plurality of cameras C1-C4 are fisheye cameras.
  • the angle of view of each of the plurality of cameras C1-C4 is 180 degrees. However, the angle of view of each of the plurality of cameras C1-C4 may be smaller than 180 degrees. Alternatively, the angle of view of each of the plurality of cameras C1-C4 may be greater than 180 degrees.
  • the plurality of cameras C1-C4 includes a front camera C1, a first side camera C2, a rear camera C3, and a second side camera C4.
  • the front camera C ⁇ b> 1 is attached to the front portion of the vehicle body 3.
  • the vehicle main body 3 has a front camera support portion 16.
  • the front camera support portion 16 extends upward and forward from the front portion of the vehicle body 3.
  • the front camera C1 is attached to the front camera support 16.
  • the rear camera C3 is attached to the rear part of the vehicle main body 3.
  • the first side camera C2 is attached to one side of the vehicle body 3.
  • the second side camera C4 is attached to the other side portion of the vehicle body 3.
  • the first side camera C ⁇ b> 2 is attached to the left side portion of the vehicle main body 3, and the second side camera C ⁇ b> 4 is attached to the right side portion of the vehicle main body 3.
  • the first side camera C ⁇ b> 2 may be attached to the right side portion of the vehicle body 3, and the second side camera C ⁇ b> 4 may be attached to the left side portion of the vehicle body 3.
  • the front camera C1 images the front of the vehicle body 3 and acquires an image including the surrounding environment of the work vehicle 1.
  • the rear camera C ⁇ b> 3 captures the rear of the vehicle body 3 and acquires an image including the surrounding environment of the work vehicle 1.
  • the first side camera C ⁇ b> 2 images the left side of the vehicle body 3 and acquires an image including the surrounding environment of the work vehicle 1.
  • the second side camera C ⁇ b> 4 captures the right side of the vehicle body 3 and acquires an image including the surrounding environment of the work vehicle 1.
  • Cameras C1-C4 output image data indicating the acquired image.
  • the display system 2 includes a controller 20, a shape sensor 21, a posture sensor 22, a position sensor 23, and a display 24.
  • the shape sensor 21 measures the three-dimensional shape of the surrounding environment of the work vehicle 1 and outputs 3D shape data D1 indicating the three-dimensional shape.
  • the shape sensor 21 measures the positions of a plurality of points on the surrounding environment of the work vehicle 1.
  • the 3D shape data D1 indicates the positions of a plurality of points on the surrounding environment of the work vehicle 1.
  • the surrounding environment of the work vehicle 1 includes, for example, the ground surface around the work vehicle 1. That is, the 3D shape data D1 includes the positions of a plurality of points on the ground surface around the work vehicle 1. In particular, the 3D shape data D1 includes the positions of a plurality of points on the ground surface in front of the work vehicle 1.
  • the shape sensor 21 measures the distance from the work vehicle 1 at a plurality of positions on the surrounding environment. The positions of the plurality of points are obtained from the distances from the plurality of work vehicles 1.
  • the shape sensor 21 is a lidar (LIDAR: Laser Imaging Detection and Ranging). The shape sensor 21 measures the distance to a measurement point by irradiating a laser and measuring the reflected light.
  • the shape sensor 21 includes, for example, a plurality of laser distance measuring elements arranged in the vertical direction.
  • the shape sensor 21 measures the positions of a plurality of points at a predetermined cycle while rotating a plurality of laser distance measuring elements laterally around an axis extending in the vertical direction. Therefore, the shape sensor 21 measures the distance to a point on the surrounding environment at every fixed rotation angle, and acquires the position of the three-dimensional point group.
  • the shape data includes information on which element is measured for each point, information on which rotation angle is measured, and information on the positional relationship of each element. Further, the controller 20 has information indicating the positional relationship between each element and the work vehicle 1. Therefore, the controller 20 can acquire the positional relationship between each point on the surrounding environment and the work vehicle from the shape data.
  • the attitude sensor 22 detects the attitude of the work vehicle 1 and outputs attitude data D2 indicating the attitude.
  • the attitude sensor 22 is, for example, an IMU (Inertial Measurement Unit: Inertial Measurement Unit).
  • the attitude data D2 includes an angle (pitch angle) with respect to the horizontal in the vehicle longitudinal direction and an angle (roll angle) with respect to the horizontal in the vehicle lateral direction.
  • the IMU outputs attitude data D2.
  • the position sensor 23 is, for example, a GNSS (Global Navigation Satellite System) receiver.
  • the GNSS receiver is a receiver for GPS (Global Positioning System), for example.
  • the GNSS receiver receives a positioning signal from the satellite, and acquires position data D3 indicating the position coordinates of the work vehicle 1 from the positioning signal.
  • the GNSS receiver outputs position data D3.
  • the shape sensor 21 is attached to the front camera support portion 16, for example. Alternatively, the shape sensor 21 may be attached to another part of the vehicle body 3.
  • the attitude sensor 22 and the position sensor 23 are attached to the vehicle body 3. Alternatively, the position sensor 23 may be attached to the work machine 4.
  • the controller 20 is connected to the cameras C1-C4 so that they can communicate with each other by wire or wirelessly.
  • the controller 20 receives image data from the cameras C1-C4.
  • the controller 20 is connected to the shape sensor 21, the attitude sensor 22, and the position sensor 23 so that they can communicate with each other by wire or wirelessly.
  • the controller 20 receives 3D shape data D1 from the shape sensor 21.
  • the controller 20 receives posture data D ⁇ b> 2 from the posture sensor 22.
  • the controller 20 receives the position data D3 from the position sensor 23.
  • the controller 20 is programmed to generate a display image Is for displaying the surrounding environment of the work vehicle 1 based on the above-described image data, 3D shape data D1, attitude data D2, and position data D3.
  • the controller 20 may be disposed outside the work vehicle 1. Alternatively, the controller 20 may be disposed inside the work vehicle 1.
  • the controller 20 includes an arithmetic device 25 and a storage device 26.
  • the arithmetic unit 25 is constituted by a processor such as a CPU.
  • the arithmetic device 25 performs a process for generating the display image Is.
  • the storage device 26 includes a memory such as a RAM or a ROM, or an auxiliary storage device 26 such as a hard disk.
  • the storage device 26 stores data and programs used for generating the display image Is.
  • the display 24 is, for example, a CRT, LCD, or OELD. However, the display 24 is not limited to these displays, and may be other types of displays.
  • the display 24 displays the display image Is based on the output signal from the controller 20.
  • the controller 20 acquires a front image Im1, a left image Im2, a rear image Im3, and a right image Im4 from the cameras C1-C4.
  • the front image Im1 is an image in front of the vehicle body 3.
  • the left image Im ⁇ b> 2 is a left image of the vehicle body 3.
  • the rear image Im3 is a rear image of the vehicle body 3.
  • the right image Im4 is a right image of the vehicle body 3.
  • the controller 20 generates a three-dimensional projection model M1 based on the 3D shape data D1 acquired from the shape sensor 21. As shown in FIG. 3, the controller 20 generates a polygon mesh that represents the shape of the surrounding environment based on the positions of a plurality of points on the surrounding environment of the work vehicle 1.
  • the three-dimensional projection model M1 includes a polygon connecting adjacent points among a plurality of points.
  • the controller 20 has a plurality of points P (1,1), P (2,1),..., P (i) measured by one scan by the shape sensor 21. , j) A mesh is generated by connecting adjacent points of,.
  • P (i, j) represents a point measured by the i-th laser distance measuring element in the vertical direction and obtained at the j-th rotation angle in the lateral direction.
  • the controller 20 uses the triangle (P (i, j)) for the points P (i, j), P (i + 1, j), P (i, j + 1), and P (i + 1, j + 1).
  • the controller 20 generates a three-dimensional projection model M1 represented by a triangular polygon.
  • the shape sensor 21 periodically measures the three-dimensional shape of the surrounding environment.
  • the controller 20 updates the 3D shape data D1, and generates a three-dimensional projection model M1 based on the updated 3D shape data D1.
  • the controller 20 generates a surrounding composite image Is1 from the images Im1-Im4 acquired by the cameras C1-C4.
  • the surrounding composite image Is1 is an image showing the surroundings of the work vehicle 1 in an overhead view.
  • the controller 20 synthesizes the vehicle image Is2 showing the work vehicle 1 with the display image.
  • the vehicle image Is2 is an image that three-dimensionally shows the work vehicle 1 itself.
  • the controller 20 determines the attitude of the vehicle image Is2 on the display image Is from the attitude data D2.
  • the controller 20 determines the direction of the vehicle image Is2 on the display image Is from the position data D3.
  • the controller 20 synthesizes the vehicle image Is2 with the display image Is such that the posture and orientation of the vehicle image Is2 on the display image Is match the actual posture and orientation of the work vehicle 1.
  • the controller 20 may generate the vehicle image Is2 from the images Im1-Im4 acquired by the cameras C1-C4. For example, each part of the work vehicle 1 is included in the image acquired by the cameras C1-C4, and the controller 20 generates a vehicle image Is2 by projecting each part in the image onto the vehicle model M2. Also good.
  • the vehicle model M ⁇ b> 2 is a projection model having the shape of the work vehicle 1 and may be stored in the storage device 26.
  • the vehicle image Is2 may be a predetermined image taken in advance or three-dimensional computer graphics created in advance.
  • FIG. 4 is a diagram illustrating an example of the display image Is.
  • the display image Is is an image that three-dimensionally represents the work vehicle 1 and its surroundings.
  • the display image Is is displayed using a three-dimensional projection model M ⁇ b> 1 having an inclined shape in accordance with the inclined actual terrain around the work vehicle 1.
  • the vehicle image Is2 is displayed on the display image Is in a tilted state in accordance with the actual tilted posture of the work vehicle 1.
  • the display image Is is updated in real time and displayed as a moving image. Therefore, when the work vehicle 1 is traveling, the posture, direction, and direction of the surrounding composite image IS1 and the vehicle image Is2 in the display image Is according to the actual environment, the posture, orientation, and position of the work vehicle. The position is also changed and displayed in real time.
  • the three-dimensional projection model M1 and the vehicle model M2 are changed from the posture, orientation, and position when the work vehicle 1 starts traveling. Rotate according to the represented rotation matrix and translate according to the translation vector. The rotation vector and the translation vector are acquired from the attitude data D2 and the position data D3 described above.
  • the display image Is is an image of the work vehicle 1 and its surroundings viewed from the left side.
  • the controller 20 can switch the display image Is to an image in which the work vehicle 1 and its surroundings are viewed from the front, rear, right side, upper side, or obliquely in each direction.
  • the three-dimensional shape of the surrounding environment of the work vehicle 1 is measured by the shape sensor 21, and the three-dimensional projection model M1 is generated based on the measured three-dimensional shape. Therefore, the three-dimensional projection model M1 has a shape that is the same as or approximate to the actual topography around the work vehicle 1. Therefore, an image of the surrounding environment can be presented in the display image Is in a shape reflecting the actual topography around the work vehicle 1. Therefore, in the display system 2 according to the present embodiment, the display image Is that can easily grasp the shape of the surrounding environment of the work vehicle 1 can be generated.
  • the actual posture of the work vehicle 1 is measured by the posture sensor 22, and the vehicle image Is2 is displayed on the display image Is in accordance with the measured posture. Therefore, the vehicle image Is2 can be presented in the display image Is in a posture that reflects the actual posture of the work vehicle 1. Thereby, the posture change of the work vehicle 1 can be clearly presented to the operator, such as the work vehicle 1 entering the inclined surface and the turning operation.
  • the controller 20 evaluates a plurality of regions included in the surrounding environment based on the 3D shape data D1.
  • the controller 20 defines the triangular polygon of the three-dimensional projection model M1 described above as one area. Note that the configuration of the display system 2 and the method of generating the display image Is are the same as those in the first embodiment, and thus description thereof is omitted.
  • the controller 20 classifies each area into a plurality of levels for evaluation.
  • the controller 20 classifies each region into a first level and a second level.
  • the first level indicates that the work vehicle 1 is allowed to enter.
  • the second level indicates an area where entry of the work vehicle 1 is prohibited.
  • FIG. 5 is a flowchart showing a process performed by the controller 20 in order to evaluate a region.
  • the controller 20 determines whether the point group density warning condition is satisfied for each region.
  • the warning condition of the point group density is expressed by the following formula (1).
  • L1 (i), L2 (i), and L3 (i) are the lengths of line segments connecting points that define each region.
  • the controller 20 sets the lengths L1 (i), L2 (i), and L3 (i) of each side of a triangle (Pi, Pi + 1, Pi + 2) representing each region to each region. Calculated as the length of the line segment.
  • the controller 20 compares the length of the line segment of each region (Pi, Pi + 1, Pi + 2) with a predetermined threshold k ⁇ Lc, and each region (Pi, Pi + 1, Pi + 2) It is determined whether a line segment larger than the threshold value k ⁇ Lc is included.
  • a certain region (Pi, Pi + 1, Pi + 2) satisfies the point cloud density warning condition, that is, a certain region (Pi, Pi + 1, Pi + 2) includes a line segment larger than the threshold k ⁇ Lc.
  • the controller 20 determines that the region (Pi, Pi + 1, Pi + 2) is the second level.
  • “Lc” is the length of the crawler belt 11.
  • the length of the crawler belt 11 is a length where the crawler belt placed on the flat surface is in contact with the flat surface, and is called a contact length.
  • “K” is a predetermined coefficient larger than 0 and smaller than 1. Therefore, the threshold value k ⁇ Lc is defined based on the length of the crawler belt 11, for example, the coefficient “k” is 1 ⁇ 2. However, the coefficient “k” may be a value other than 1 ⁇ 2.
  • the coefficient “k” may be a fixed value or may be arbitrarily set by an operator.
  • the length Lc of the crawler belt 11 may be a length related to the contact length. For example, it may be the entire length of the crawler belt 11 in the front-rear direction. In that case, the value of the coefficient k is changed as appropriate.
  • the warning condition for the point group density may further include a condition represented by the following expression (2).
  • Lc ′ is the distance between the centers of the left and right crawler belts 11 and is called a crawler track gauge width.
  • the coefficient k ′ is approximately 1.
  • the controller 20 may determine that the warning condition is satisfied when both the expressions (1) and (2) are satisfied.
  • step S ⁇ b> 103 the controller 20 determines whether or not the tilt warning condition is satisfied for an area that does not satisfy the point cloud density warning condition.
  • the tilt warning condition is expressed by the following equation (3).
  • the controller 20 calculates the normal vector Ni of the target area (Pi, Pi + 1, Pi + 2) and the area included in the surrounding predetermined range A1 (i).
  • the average Nav of the normals of those areas is calculated.
  • the angle formed by the normal Nav and the gravity direction is determined as the inclination angle of the target region (Pi, Pi + 1, Pi + 2).
  • the above-described tilt warning condition means that the tilt angle of the target region (Pi, Pi + 1, Pi + 2) exceeds the threshold ⁇ max.
  • ez is a unit vector in the direction of gravity.
  • the threshold value ⁇ max is, for example, an upper limit inclination angle at which the work vehicle 1 is allowed to enter. However, the threshold value ⁇ max may be another value.
  • the threshold value ⁇ max may be a fixed value or may be arbitrarily set by an operator.
  • the predetermined range A1 (i) is represented by, for example, a circle with a radius R centered on the centroid of the target region (Pi, Pi + 1, Pi + 2).
  • the radius R may be a fixed value. Alternatively, the radius R may be arbitrarily set by the operator.
  • step S102 The controller 20 determines that the region (Pi, Pi + 1, Pi + 2) is the second level.
  • a certain region (Pi, Pi + 1, Pi + 2) does not satisfy the inclination warning condition, that is, when the inclination angle of a certain region (Pi, Pi + 1, Pi + 2) is less than or equal to the threshold ⁇ max, the processing Advances to step S104.
  • step S104 the controller 20 determines whether or not the undulation warning condition is satisfied for an area that does not satisfy the point cloud density warning condition.
  • the undulation warning condition is expressed by the following equation (4).
  • n is the number of points included in the target determination range A2 (i).
  • the determination range A2 (i) here may be the same as or different from the predetermined range A1 (i) in step S103.
  • Zi is the height of the point Pi in the direction of gravity.
  • Zav is an average of the heights of the points included in the determination range A2 (i).
  • ⁇ 2 z indicates the variance of the height of the points in the determination range A2 (i).
  • the above undulation warning condition means that the variance ⁇ 2 z of the heights of the points included in the target determination range A2 (i) exceeds the threshold ⁇ 2 max. That is, the undulation warning condition means that the undulation change in the determination range A2 (i) is large.
  • the threshold value ⁇ 2 max is, for example, the upper limit of the undulation change that allows the work vehicle 1 to enter. However, the threshold value ⁇ 2 max may be another value. The threshold ⁇ 2 max may be a fixed value or may be arbitrarily set by an operator.
  • step S102 the controller 20 determines that the region included in the determination range A2 (i) is the second level.
  • step S105 the process proceeds to step S105.
  • step S105 the controller 20 determines the first level for an area that does not satisfy all of the point cloud density warning condition, the inclination warning condition, and the undulation warning condition.
  • the controller 20 displays the display image Is on the display 24.
  • the controller 20 displays each of the plurality of regions in the display image Is in a manner corresponding to the evaluation. Specifically, the controller 20 displays the second level area in a different color from the first level area.
  • FIG. 9 is a diagram illustrating an example of the display image Is according to the second embodiment.
  • a steep down slope Sp2 exists on the right side of the work vehicle 1.
  • Controller 20 determines area Sp1 in front of work vehicle 1 as the first level. Further, the controller 20 determines that the right downward slope Sp2 and the left upward slope Sp3 are the second level. The controller 20 represents the right downward slope Sp2 and the left upward slope Sp3 in the display image Is in a color different from the front area Sp1.
  • the controller 20 evaluates a plurality of areas included in the surrounding environment based on the 3D shape data D1, and sets the second level area as the first level area. Display on the display image Is in a different manner. Therefore, the operator can easily notice the presence of the second level area from the display image Is. Further, the display image Is is projected onto the three-dimensional projection model M1 reflecting the actual topography around the work vehicle 1. Therefore, the area determined to be the second level can be expressed in the display image Is in a shape close to the actual terrain.
  • the controller 20 determines that the area satisfying the point cloud density warning condition is the second level, and displays the area on the display image Is in a manner different from the area of the first level.
  • the range between the points is a portion where measurement by the shape sensor 21 is not performed, the lengths of the line segments L1 (i), L2 (i), and L3 (i) of each region are longer. This means that the range in which measurement by the shape sensor 21 is not performed is large. Therefore, as shown in FIG. 10A, even if there is a steep slope between the point Pi and the point Pi + 1, the shape sensor 21 may not be able to measure.
  • the region is The second level is determined. Therefore, it is possible to determine a region where a sufficient point cloud density is not obtained as the second level. Therefore, a region where a sufficient density of point clouds is not obtained because it is far away from the shape sensor 21 can be determined as the second region. Alternatively, since the laser is blocked by the terrain, an area where the accurate terrain cannot be measured can be determined as the second level.
  • the threshold value k ⁇ Lc is defined from the length of the crawler belt 11. If the area that has not been measured is longer than the threshold value k ⁇ Lc defined by the length of the crawler belt 11, the inclination of the work vehicle 1 exceeds the upper limit inclination angle ⁇ max if there is a concave terrain in the area. there is a possibility.
  • a region can be determined as the second level and displayed on the display image Is in a manner different from the region of the first level.
  • the controller 20 determines that the region satisfying the tilt warning condition is the second level, and displays the region on the display image Is in a manner different from the region of the first level. Therefore, for example, as shown in FIG. 10B, an area having a steep inclination exceeding the upper limit inclination angle ⁇ max allowed for the work vehicle 1 is determined as the second level, and is different from the first level area. It can be displayed on the display image Is.
  • the controller 20 evaluates the target area not only by the inclination angle of the area to be determined but also by the average of the inclination angles of the other areas included in the surrounding predetermined range A1 (i). Thereby, the influence that a point cloud density changes with distance from the shape sensor 21 or topography can be eased, and it can evaluate accurately.
  • the controller 20 determines the determination area A2 (i) satisfying the undulation warning condition as the second level, and displays it on the display image Is in a manner different from the determination area of the first level.
  • the controller 20 evaluates the intensity of undulation in the determination range A2 (i) based on the variance of the height of each point in a certain determination range A2 (i).
  • a region with a large undulation can be determined as the second level and displayed on the display image Is in a manner different from the region of the first level.
  • the display image Is shown in FIG. 9 is an image generated from a viewpoint viewed from the right front of the work vehicle 1, but the controller 20 may arbitrarily change the viewpoint to generate the display image Is. .
  • the controller 20 may switch the viewpoint according to, for example, an operator's operation. As a result, the display image Is can be generated so that a portion that the operator particularly wants to visually recognize can be seen in the surrounding environment of the work vehicle 1.
  • Work vehicle 1 is not limited to a bulldozer, but may be another type of vehicle such as a wheel loader, a hydraulic excavator, or a dump truck.
  • the work vehicle 1 may be a vehicle that is remotely operated from a controller 20 disposed outside the work vehicle 1. In that case, the cab may be omitted from the vehicle body 3 as in the work vehicle 100 shown in FIG. In FIG. 11, the same reference numerals are given to the portions corresponding to the work vehicle 1 shown in FIG.
  • the work vehicle 1 may be a vehicle that is directly operated by an operator in a cab mounted on the work vehicle 1.
  • the number of cameras is not limited to four, but may be three or less, or five or more.
  • the camera is not limited to a fisheye camera, and may be another type of camera.
  • the arrangement of the camera is not limited to the arrangement of the above embodiment, and may be a different arrangement.
  • the attitude sensor 22 is not limited to the IMU, and may be another sensor.
  • the position sensor 23 is not limited to a GNSS receiver, and may be another sensor.
  • the shape sensor 21 is not limited to a lidar, and may be another measuring device such as a radar.
  • a part of the warning condition may be omitted or changed.
  • other warning conditions may be added.
  • the content of the warning condition may be changed.
  • the evaluation of the area is not limited to the two stages of the first level and the second level, and may be an evaluation at a higher level.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

カメラは、作業車両の周囲環境の画像を撮影し、画像を示す画像データを出力する。形状センサは、周囲環境の3次元形状を測定し、3次元形状を示す3D形状データを出力する。コントローラは、画像データと3D形状データとを取得する。コントローラは、3D形状データに基づいて3次元投影モデルを生成する。3次元投影モデルは、周囲環境の3次元形状を表現する。画像データに基づいて3次元投影モデルに画像を投影することで、車両の周囲環境の表示画像を示す表示画像データを生成する。

Description

作業車両の表示システム及び生成方法
 本発明は、作業車両の表示システム及び生成方法に関する。
 作業車両の周囲をカメラで撮影し、作業車両の周囲を上方より見下ろした俯瞰画像をディスプレイに表示する技術がある。例えば、特許文献1に記載の表示システムでは、作業車両に車載された複数のカメラが、作業車両の周囲環境の画像データを取得する。表示システムのコントローラは、取得された画像を半球面形状の投影モデルにマッピングすることにより、俯瞰画像を生成する。
国際公開公報WO2016/031009号
 上述した表示システムでは、投影モデルの形状は常に半球面形状で一定である。そのため、作業車両の周囲環境の実際の形状を俯瞰画像から把握することは難しい。例えば、投影モデルの底面は常に平坦な平面である。そのため、作業車両の周囲の地表面が傾斜や凹凸を有している場合であっても、それらを撮影した画像は平坦な投影面に投影される。そのため、俯瞰画像から傾斜や凹凸な地形であることを把握することは容易ではない。
 本発明の目的は、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することにある。
 一態様に係る作業車両の表示システムは、カメラと、形状センサと、コントローラとを含む。カメラは、作業車両の周囲環境の画像を撮影し、画像を示す画像データを出力する。形状センサは、周囲環境の3次元形状を測定し、3次元形状を示す3D形状データを出力する。コントローラは、画像データと3D形状データとを取得する。コントローラは、3D形状データに基づいて3次元投影モデルを生成する。3次元投影モデルは、周囲環境の3次元形状を表現する。画像データに基づいて3次元投影モデルに画像を投影することで、作業車両の周囲環境の表示画像を示す表示画像データを生成する。
 本態様に係る作業車両の表示システムでは、作業車両の周囲環境の3次元形状が形状センサによって測定され、測定された3次元形状に基づいて3次元投影モデルが生成される。そのため、3次元投影モデルは、作業車両の周囲環境の実際の形状と同じ、或いは近似した形状を有している。従ってカメラが撮影した画像を3次元投影モデルに投影することで、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することができる。
 他の態様に係る生成方法は、作業車両の周囲環境の表示画像を示す表示画像データを生成するためにコントローラによって実行される生成方法であって、以下の処理を含む。第1の処理は、作業車両の周囲環境の画像を示す画像データを取得することである。第2の処理は、周囲環境の3次元形状を示す3D形状データを取得することである。第3の処理は、3D形状データに基づいて周囲環境の3次元形状を表現する3次元投影モデルを生成することである。第4の処理は、画像データに基づいて3次元投影モデルに画像を投影することで、表示画像データを生成することである。
 本態様に係る生成方法では、作業車両の周囲環境の3次元形状が形状センサによって測定され、測定された3次元形状に基づいて3次元投影モデルが生成される。そのため、3次元投影モデルは、作業車両の周囲環境の実際の形状と同じ、或いは近似した形状を有している。従ってカメラが撮影した画像を3次元投影モデルに投影することで、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することができる。
 本発明によれば、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することができる。
実施形態に係る作業車両を示す側面図である。 第1実施形態に係る表示システムの構成を示す図である。 形状センサによって取得される3D形状データを説明するための図である。 第1実施形態に係る表示画像の一例を示す図である。 第2実施形態に係る表示システムのコントローラによって実行される処理を示すフローチャートである。 点群密度の警告条件を説明するための図である。 傾斜の警告条件を説明するための図である。 起伏の警告条件を説明するための図である。 第2実施形態に係る表示画像の一例を示す図である。 表示システムによって評価される地形の例を示す図である。 他の実施形態に係る作業車両を示す側面図である。
 以下、図面を参照して、実施形態に係る作業車両の表示システムについて説明する。本実施形態に係る表示システムは、作業車両及びその周囲環境を表示するためのシステムである。図1は、実施形態に係る作業車両1を示す側面図である。本実施形態において、作業車両1はブルドーザである。作業車両1は、車両本体3と、作業機4と、走行装置5とを有する。
 車両本体3は、エンジン室6を有する。エンジン室6内には、エンジン7、及び、油圧ポンプ8などの駆動装置が配置されている。車両本体3の後部には、リッパ装置9が取り付けられている。
 走行装置5は、作業車両1を走行させるための装置である。走行装置5は、作業車両1の短手方向の一方および他方の側部に配置される一対の履帯11を有している。履帯11は、作業車両1の長手方向に延びるループ状のチェーンである。履帯11が駆動されることにより作業車両1が走行する。
 作業機4は、車両本体3の前方に配置されている。作業機4は、掘削、運土、或いは整地などの作業に用いられる。作業機4は、ブレード12と、チルトシリンダ13と、リフトシリンダ14と、アーム15と、を有する。ブレード12は、アーム15を介して車両本体3に支持されている。ブレード12は、上下方向に揺動可能に設けられている。チルトシリンダ13とリフトシリンダ14とは、油圧ポンプ8から吐出された作動油によって駆動され、ブレード12の姿勢を変更する。
 図2は、第1実施形態に係る表示システム2の構成、及び、表示システム2による処理の流れを示すブロック図である。図2に示すように、表示システム2は、複数のカメラC1-C4を有する。複数のカメラC1-C4は、車両本体3に取り付けられている。複数のカメラC1-C4は、魚眼カメラである。複数のカメラC1-C4のそれぞれの画角は180度である。ただし、複数のカメラC1-C4のそれぞれの画角は180度より小さくてもよい。或いは、複数のカメラC1-C4のそれぞれの画角は180度より大きくてもよい。複数のカメラC1-C4は、前カメラC1と、第1サイドカメラC2と、後カメラC3と、第2サイドカメラC4とを有する。
 図1に示すように、前カメラC1は、車両本体3の前部に取り付けられる。詳細には、図1に示すように、車両本体3は前カメラ支持部16を有する。前カメラ支持部16は、車両本体3の前部から上方、且つ、前方に延びている。前カメラC1は、前カメラ支持部16に取り付けられている。後カメラC3は、車両本体3の後部に取り付けられる。
 第1サイドカメラC2は、車両本体3の一方の側部に取り付けられている。第2サイドカメラC4は、車両本体3の他方の側部に取り付けられている。本実施形態では、第1サイドカメラC2は、車両本体3の左側部に取り付けられ、第2サイドカメラC4は、車両本体3の右側部に取り付けられている。ただし、第1サイドカメラC2が、車両本体3の右側部に取り付けられ、第2サイドカメラC4が、車両本体3の左側部に取り付けられてもよい。
 前カメラC1は、車両本体3の前方を撮像し、作業車両1の周囲環境を含む画像を取得する。後カメラC3は、車両本体3の後方を撮像し、作業車両1の周囲環境を含む画像を取得する。第1サイドカメラC2は、車両本体3の左方を撮像し、作業車両1の周囲環境を含む画像を取得する。第2サイドカメラC4は、車両本体3の右方を撮像し、作業車両1の周囲環境を含む画像を取得する。カメラC1-C4は、取得した画像を示す画像データを出力する。
 図2に示すように、表示システム2は、コントローラ20と、形状センサ21と、姿勢センサ22と、位置センサ23と、ディスプレイ24とを含む。形状センサ21は、作業車両1の周囲環境の3次元形状を測定し、3次元形状を示す3D形状データD1を出力する。形状センサ21は、作業車両1の周囲環境上の複数点の位置を測定する。3D形状データD1は、作業車両1の周囲環境上の複数点の位置を示す。作業車両1の周囲環境は、例えば作業車両1の周囲の地表面を含む。すなわち、3D形状データD1は、作業車両1の周囲の地表面上の複数点の位置を含む。特に、3D形状データD1は、作業車両1の前方の地表面上の複数点の位置を含む。
 詳細には、形状センサ21は、周囲環境上の複数点の位置の作業車両1からの距離を測定する。複数点の位置は、複数点の作業車両1からの距離により求められる。本実施形態において、形状センサ21は、ライダ(LIDAR:Laser Imaging Detection and Ranging)である。形状センサ21は、レーザーを照射して、その反射光を計測することで、計測点までの距離を測定する。
 形状センサ21は、例えば鉛直方向に並んだ複数のレーザー距離計測素子を含む。形状センサ21は、複数のレーザー距離計測素子を、鉛直方向に延びる軸回りに横方向に回転させながら、所定周期で複数点の位置の測定を行う。従って、形状センサ21は、一定の回転角ごとに周囲環境上の点までの距離を測定し、3次元の点群の位置を取得する。
 形状データは、各点について、どの素子によって測定されたかという情報と、どの回転角で測定されたかという情報、及び、各素子の位置関係の情報とを含む。また、コントローラ20は、各素子と作業車両1との位置関係を示す情報を有している。従って、コントローラ20は、形状データより、周囲環境上の各点、及び作業車両の位置関係を取得することができる。
 姿勢センサ22は、作業車両1の姿勢を検出し、姿勢を示す姿勢データD2を出力する。姿勢センサ22は、例えばIMU(慣性計測装置:Inertial Measurement Unit)である。姿勢データD2は、車両前後方向の水平に対する角度(ピッチ角)と、車両横方向の水平に対する角度(ロール角)とを含む。IMUは、姿勢データD2を出力する。
 位置センサ23は、例えばGNSS(Global Navigation Satellite System)レシーバである。GNSSレシーバは、例えばGPS(Global Positioning System)用の受信機である。GNSSレシーバは、衛星より測位信号を受信し、測位信号により作業車両1の位置座標を示す位置データD3を取得する。GNSSレシーバは、位置データD3を出力する。
 形状センサ21は、例えば前カメラ支持部16に取り付けられる。或いは、形状センサ21は、車両本体3の他の部分に取り付けられてもよい。姿勢センサ22と位置センサ23とは、車両本体3に取り付けられる。或いは、位置センサ23は、作業機4に取り付けられてもよい。
 コントローラ20は、カメラC1-C4と有線、或いは無線により通信可能に接続されている。コントローラ20は、カメラC1-C4から画像データを受信する。コントローラ20は、形状センサ21、姿勢センサ22、及び位置センサ23と有線、或いは無線により通信可能に接続されている。コントローラ20は、形状センサ21から3D形状データD1を受信する。コントローラ20は、姿勢センサ22から姿勢データD2を受信する。コントローラ20は、位置センサ23から位置データD3を受信する。
 コントローラ20は、上述した画像データと3D形状データD1と姿勢データD2と位置データD3とに基づいて、作業車両1の周囲環境を表示するための表示画像Isを生成するようプログラムされている。コントローラ20は、作業車両1の外部に配置されてもよい。或いは、コントローラ20は、作業車両1の内部に配置されてもよい。コントローラ20は、演算装置25と記憶装置26とを含む。
 演算装置25は、CPUなどのプロセッサによって構成される。演算装置25は、表示画像Isを生成するための処理を行う。記憶装置26は、RAM或いはROMなどのメモリ、或いは、ハードディスクなどの補助記憶装置26によって構成される。記憶装置26は、表示画像Isの生成に用いられるデータ及びプログラムを記憶している。
 ディスプレイ24は、例えばCRT、LCD或いはOELDである。ただし、ディスプレイ24はこれらのディスプレイに限らず、他の種類のディスプレイであってもよい。ディスプレイ24は、コントローラ20からの出力信号に基づいて表示画像Isを表示する。
 次に、表示画像Isの生成について詳細に説明する。まず、カメラC1-C4による撮像が行われる。コントローラ20は、カメラC1-C4から、前方画像Im1と、左方画像Im2と、後方画像Im3と、右方画像Im4と、を取得する。前方画像Im1は、車両本体3の前方の画像である。左方画像Im2は、車両本体3の左方の画像である。後方画像Im3は、車両本体3の後方の画像である。右方画像Im4は、車両本体3の右方の画像である。
 コントローラ20は、形状センサ21から取得した3D形状データD1に基づいて3次元投影モデルM1を生成する。図3に示すように、コントローラ20は、作業車両1の周囲環境上の複数点の位置に基づいて、周囲環境の形状を表現するポリゴンメッシュを生成する。3次元投影モデルM1は、複数点のうち隣接する点を結んだポリゴンを含む。
 詳細には、図3に示すように、コントローラ20は、形状センサ21による1回のスキャンで測定された複数点P(1,1),P(2,1) ,・・・,P(i,j) ,・・・のうち、隣接する点を結んでメッシュを生成する。ここで、P(i,j)は、それぞれ鉛直方向においてi番目のレーザー距離計測素子で測定され、横方向にj番目の回転角で得られた点を表している。コントローラ20は、点P(i,j), P(i+1,j), P(i,j+1), P(i+1,j+1)について、三角形(P(i,j), P(i+1,j), P(i,j+1))と三角形(P(i+1,j),P(i,j+1), P(i+1,j+1))を生成する。それにより、コントローラ20は、三角形のポリゴンで表された3次元投影モデルM1を生成する。
 なお、形状センサ21は、周期的に周囲環境の3次元形状を測定する。コントローラ20は、3D形状データD1を更新し、更新された3D形状データD1に基づいて、3次元投影モデルM1を生成する。
 コントローラ20は、カメラC1-C4が取得した画像Im1-Im4から周囲合成画像Is1を生成する。周囲合成画像Is1は、作業車両1の周囲を俯瞰的に示す画像である。3次元投影モデルM1に、カメラC1-C4が取得した画像Im1-Im4をテクスチャマッピングにより投影することで、周囲合成画像Is1を生成する。
 また、コントローラ20は、作業車両1を示す車両画像Is2を表示画像に合成する。車両画像Is2は、作業車両1自体を3次元的に示す画像である。コントローラ20は、姿勢データD2から表示画像Is上の車両画像Is2の姿勢を決定する。コントローラ20は、位置データD3から表示画像Is上の車両画像Is2の向きを決定する。コントローラ20は、表示画像Is上の車両画像Is2の姿勢と向きとが、作業車両1の実際の姿勢及び向きと一致するように、表示画像Isに車両画像Is2を合成する。
 なお、コントローラ20は、カメラC1-C4が取得した画像Im1-Im4から車両画像Is2を生成してもよい。例えば、カメラC1-C4が取得した画像中に作業車両1の部分がそれぞれ含まれており、コントローラ20は、車両モデルM2に、画像中の各部分を投影することで車両画像Is2を生成してもよい。車両モデルM2は、作業車両1の形状を有する投影モデルであり、記憶装置26に保存されていてもよい。或いは、車両画像Is2は、予め撮影された既定の画像、或いは予め作成された3次元のコンピュータグラフィックスであってもよい。
 ディスプレイ24は、表示画像Isを表示する。図4は、表示画像Isの一例を示す図である。図4に示すように、表示画像Isは、作業車両1及びその周囲を三次元的に表した画像である。図4に示すように、作業車両1の周囲の傾斜した実際の地形に合わせて、傾斜した形状を有する3次元投影モデルM1を用いて、表示画像Isが表示される。また、作業車両1の傾斜した実際の姿勢に合わせて、車両画像Is2が傾斜した状態で表示画像Isに表示されている。
 表示画像Isは、リアルタイムに更新され、動画として表示される。従って、作業車両1が走行しているときには、周囲環境、作業車両の姿勢、向き、位置の実際の変化に応じて、表示画像Is中の周囲合成画像IS1、車両画像Is2の姿勢、向き、及び位置も、リアルタイムに変化して表示される。
 作業車両1の姿勢、向き、及び位置の変化を表現するためには、3次元投影モデルM1及び車両モデルM2を、作業車両1が走行を開始したときの姿勢、向き、及び位置からの変化を表す回転行列に従って回転させ、並進ベクトルに従って並進させる。回転ベクトルと並進ベクトルとは、上述した姿勢データD2及び位置データD3から取得される。
 画像の合成のための具体的な手法については、例えば“Spatio-temporal bird’s-eye view images using multiple fish- eye cameras,”(Proceedings of the 2013 IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013.)において示されている手法が用いられてもよい。“Visualization of the surrounding environment and operational part ina 3DCG model for the teleoperation of construction machines,” (Proceedings of the 2015 IEEE/SICE International Symposium on System Integration, pp. 81-87, 2015.)において示されている手法が用いられてもよい。
 なお、図4では、表示画像Isは、作業車両1及びその周囲を左側方から見た画像である。しかし、コントローラ20は、前方、後方、右側方、上方、或いは、各方向の斜めから、作業車両1及びその周囲を見た画像に、表示画像Isを切り換えることができる。
 以上説明した本実施形態に係る表示システム2では、作業車両1の周囲環境の3次元形状が形状センサ21によって測定され、測定された3次元形状に基づいて3次元投影モデルM1が生成される。そのため、3次元投影モデルM1は、作業車両1の周囲の実際の地形と同じ、或いは近似した形状を有している。従って、作業車両1の周囲の実際の地形を反映した形状で、周囲環境の画像を表示画像Is中に提示することができる。従って、本実施形態に係る表示システム2では、作業車両1の周囲環境の形状を容易に把握できる表示画像Isを生成することができる。
 また、作業車両1の実際の姿勢が姿勢センサ22によって測定され、測定された姿勢に合わせて、表示画像Isに車両画像Is2が表示される。そのため、作業車両1の実際の姿勢を反映した姿勢で車両画像Is2を表示画像Is中に提示することができる。それにより、作業車両1が傾斜面に侵入したことや、旋回の動作をしている様子など、作業車両1の姿勢変化をオペレータに明確に提示することができる。
 次に、第2実施形態に係る表示システム2について説明する。第2実施形態に係る表示システム2では、コントローラ20は、3D形状データD1に基づいて周囲環境に含まれる複数の領域の評価を行う。本実施形態では、コントローラ20は、上述した3次元投影モデルM1の三角形ポリゴンを1つの領域として定義する。なお、表示システム2の構成及び表示画像Isの生成方法については、第1実施形態と同様であるため、説明を省略する。
 コントローラ20は、各領域を複数のレベルに分類して評価する。本実施形態では、コントローラ20は、各領域を第1レベルと第2レベルとに分類する。第1レベルは、作業車両1の進入を許容する領域であることを示す。第2レベルは、作業車両1の進入を禁止する領域であることを示す。
 図5は、領域の評価を行うためにコントローラ20によって行われる処理を示すフローチャートである。ステップS101では、コントローラ20は、各領域に対して点群密度の警告条件を満たしているかを判定する。点群密度の警告条件は、以下の式(1)で表される。 
Figure JPOXMLDOC01-appb-I000001
 L1(i), L2(i), L3(i)は、各領域を規定する点を結んだ線分の長さである。図6に示すように、コントローラ20は、各領域を表す三角形(Pi, Pi+1, Pi+2)の各辺の長さL1(i), L2(i), L3(i)を各領域の線分の長さとして算出する。
 すなわち、コントローラ20は、各領域(Pi, Pi+1, Pi+2)の線分の長さを所定の閾値k×Lcと比較し、各領域(Pi, Pi+1, Pi+2)が閾値k×Lcより大きい線分を含むかを判定する。ある領域(Pi, Pi+1, Pi+2)が点群密度の警告条件を満たすとき、すなわち、ある領域(Pi, Pi+1, Pi+2)が閾値k×Lcより大きい線分を含むときには、ステップS102において、コントローラ20は、当該領域(Pi, Pi+1, Pi+2)を第2レベルと判定する。
 図1に示すように、“Lc”は、履帯11の長さである。履帯11の長さとは、平坦な面の上に置かれた履帯が平坦な面と接する長さであり、接地長と呼ばれる。“k”は、0より大きく1より小さい所定の係数である。従って、閾値k×Lcは、履帯11の長さに基づいて規定される、例えば係数“k”は、1/2である。ただし、係数“k”は1/2以外の値であってもよい。係数“k”は、固定値であってもよく、或いはオペレータによって任意に設定可能であってもよい。履帯11の長さLcは、接地長と関連のある長さであってもよい。例えば、履帯11の前後方向の全長であってよい。その場合、係数kの値は、適宜、変更される。
 点群密度の警告条件は、更に、以下の式(2)で示される条件を含んでもよい。
Figure JPOXMLDOC01-appb-I000002
ここで、Lc’は、左右の履帯11の中心間距離であり、履帯ゲージ幅と呼ばれる。係数k’は、略1である。コントローラ20は、式(1)と式(2)の両者が満足したときに、警告条件が満たされたと判定してもよい。
 ある領域(Pi, Pi+1, Pi+2)が点群密度の警告条件を満たさないとき、すなわち、ある領域(Pi, Pi+1, Pi+2)が閾値k×Lcより大きい線分を含まないときには、処理はステップS103に進む。
 ステップS103では、コントローラ20は、点群密度の警告条件を満たさない領域に対して、傾斜の警告条件を満たすかを判定する。傾斜の警告条件は、以下の式(3)で表される。
Figure JPOXMLDOC01-appb-I000003
 ここでは、図7に示すように、コントローラ20は、対象とする領域(Pi, Pi+1, Pi+2)と、その周囲の所定範囲A1(i)に含まれる領域の法線ベクトルNiを求め、それらの領域の法線の平均Navを算出する。法線の平均Navと重力方向とのなす角を、当該対象とする領域(Pi, Pi+1, Pi+2)の傾斜角として決定する。上記の傾斜の警告条件は、対象とする領域(Pi, Pi+1, Pi+2)の傾斜角が閾値θmaxを超えていることを意味する。式(3)において、ezは、重力方向の単位ベクトルである。
 閾値θmaxは、例えば、作業車両1の進入が許容される上限傾斜角である。ただし、閾値θmaxは、他の値であってもよい。閾値θmaxは、固定値であってもよく、或いはオペレータによって任意に設定されてもよい。所定範囲A1(i)は、例えば、対象とする領域(Pi, Pi+1, Pi+2)の図心を中心とする半径Rの円で表される。半径Rは固定値であってもよい。或いは、半径Rはオペレータによって任意に設定されてもよい。
 ある領域(Pi, Pi+1, Pi+2)が傾斜の警告条件を満たすとき、すなわち、ある領域(Pi, Pi+1, Pi+2)の傾斜角が閾値θmaxより大きいときには、ステップS102において、コントローラ20は、当該領域(Pi, Pi+1, Pi+2)を第2レベルと判定する。ある領域(Pi, Pi+1, Pi+2)が傾斜の警告条件を満たさないとき、すなわち、ある領域(Pi, Pi+1, Pi+2)の傾斜角が閾値θmax以下であるときには、処理はステップS104に進む。
 ステップS104では、コントローラ20は、点群密度の警告条件を満たさない領域に対して、起伏の警告条件を満たすかを判定する。起伏の警告条件は、以下の式(4)で表される。
Figure JPOXMLDOC01-appb-I000004
 nは、図8に示すように、対象とする判定範囲A2(i)内に含まれる点の数である。ここでの判定範囲A2(i)は、ステップS103での所定範囲A1(i)と同じであってもよく、或いは異なってもよい。Ziは、点Piの重力方向における高さである。Zavは、判定範囲A2(i)に含まれる点の高さの平均である。σ2zは、判定範囲A2(i)内の点の高さの分散を示している。上記の起伏の警告条件は、対象とする判定範囲A2(i)に含まれる点の高さの分散σ2zが、閾値σ2maxを超えていることを意味する。すなわち、起伏の警告条件は、判定範囲A2(i)の起伏の変化が大きいことを意味している。
 閾値σ2maxは、例えば、作業車両1の進入が許容される起伏の変化の上限である。ただし、閾値σ2maxは、他の値であってもよい。閾値σ2maxは、固定値であってもよく、或いはオペレータによって任意に設定されてもよい。
 ある判定範囲A2(i)が起伏の警告条件を満たすときには、ステップS102において、コントローラ20は、当該判定範囲A2(i)に含まれる領域を第2レベルと判定する。ある判定範囲A2(i)が起伏の警告条件を満たさないときには、処理はステップS105に進む。
 ステップS105では、コントローラ20は、点群密度の警告条件と、傾斜の警告条件と、起伏の警告条件との全てを満たさない領域に対して、第1レベルと判定する。
 次に、コントローラ20は、表示画像Isをディスプレイ24に表示する。コントローラ20は、表示画像Isにおいて、評価に応じた態様で、複数の領域のそれぞれを表示する。詳細には、コントローラ20は、第2レベルの領域を第1レベルの領域と異なる色で表示する。
 図9は、第2実施形態に係る表示画像Isの一例を示す図である。図9に示す表示画像Isにおいて、作業車両1の右方には、急な下り斜面Sp2が存在している。作業車両1の左方には、急な上り斜面Sp3が存在している。
 コントローラ20は、作業車両1の正面の領域Sp1を第1レベルと判定する。また、コントローラ20は、右方の下り斜面Sp2と左方の上り斜面Sp3を第2レベルと判定する。コントローラ20は、右方の下り斜面Sp2と左方の上り斜面Sp3を、正面の領域Sp1とは異なる色で、表示画像Isに表現する。
 以上説明した第2実施形態に係る表示システム2では、コントローラ20は、3D形状データD1に基づいて周囲環境に含まれる複数の領域の評価を行い、第2レベルの領域を第1レベルの領域と異なる態様で表示画像Is上に表示する。そのため、オペレータは、表示画像Isによって、第2レベルの領域の存在に容易に気付くことができる。また、表示画像Isは、作業車両1の周囲の実際の地形を反映した3次元投影モデルM1に投影されている。そのため、第2レベルと判定された領域を実際の地形に近い形状で、表示画像Isに表現することができる。
 コントローラ20は、点群密度の警告条件を満たす領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Isに表示する。ここで、各点の間の範囲は、形状センサ21による計測がなされていない部分であるため、各領域の線分L1(i), L2(i), L3(i)の長さが長いほど、形状センサ21による計測がなされていない範囲が大きいことを意味する。そのため、図10(A)に示すように、点Piと点Pi+1との間に急な傾斜が存在していても、形状センサ21によって計測できない場合があり得る。
 本実施形態に係る表示システム2では、ある領域において、線分の長さL1(i), L2(i), L3(i)のうち少なくとも1つが閾値k×Lcよりも長いときには、当該領域を第2レベルと判定する。そのため、十分な点群の密度が得られていない領域を第2レベルと判定することができる。従って、形状センサ21から大きく離れているために十分な点群の密度が得られていない領域を、第2領域と判定することができる。或いは、地形によってレーザーが遮られているために、正確な地形が測定できない領域を第2レベルと判定することができる。
 閾値k×Lcは、履帯11の長さから規定される。もし、計測できていない領域が、履帯11の長さから規定される閾値k×Lcよりも長い場合には、当該領域に凹地形が存在すると、作業車両1の傾きが上限傾斜角θmaxを越える可能性がある。本実施形態に係る表示システム2では、そのような領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Is上に表示することができる。
 コントローラ20は、傾斜の警告条件を満たす領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Isに表示する。そのため、例えば図10(B)に示すように、作業車両1に許容される上限傾斜角θmaxを越える急な傾斜のある領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Is上に表示することができる。
 コントローラ20は、判定の対象とする領域の傾斜角だけではなく、その周囲の所定範囲A1(i)に含まれる他の領域の傾斜角を合わせた平均によって、対象とする領域を評価する。それにより、形状センサ21からの距離や地形によって点群密度が変化する影響を緩和して、精度よく評価を行うことができる。
 コントローラ20は、起伏の警告条件を満たす判定領域A2(i)を第2レベルと判定して、第1レベルの判定領域と異なる態様で表示画像Isに表示する。起伏の大きい地形では、当該地形に含まれる点の高さの変化が激しくなる。そのため、コントローラ20は、ある判定範囲A2(i)での各点の高さの分散によって、判定範囲A2(i)の起伏の激しさを評価する。それにより、例えば図10(C)に示すように、起伏の大きな領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Is上に表示することができる。
 なお図9に示す表示画像Isは、作業車両1の右前方から見た視点で生成された映像であるが、コントローラ20は、任意に視点を変更して、表示画像Isを生成してもよい。コントローラ20は、例えばオペレータの操作に応じて、視点を切り換えてもよい。それにより、作業車両1の周囲環境のうちオペレータが特に視認したい部分を見えるように、表示画像Isを生成することができる。
 以上、本発明の実施形態について説明したが、本発明はこれらに限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
 作業車両1は、ブルドーザに限らず、ホイールローダ、油圧ショベル、ダンプトラックなどの他の種類の車両であってもよい。作業車両1は、作業車両1の外部に配置されたコントローラ20から遠隔操作される車両であってもよい。その場合、図11に示す作業車両100のように、運転室が車両本体3から省略されてもよい。なお、図11では、図1に示す作業車両1に対応する部分に同じ符号を付している。或いは、作業車両1は、作業車両1に搭載される運転室内のオペレータによって直接的に操作される車両であってもよい。
 カメラの数は、4つに限らず、3つ以下、或いは5つ以上であってもよい。カメラは、魚眼カメラに限らず、他の種類のカメラであってもよい。カメラの配置は、上記の実施形態の配置に限らず、異なる配置であってもよい。
 姿勢センサ22は、IMUに限らず、他のセンサであってもよい。位置センサ23は、GNSSレシーバに限らず、他のセンサであってもよい。形状センサ21は、ライダに限らず、レーダー等の他の測定装置であってもよい。
 第2実施形態において、警告条件の一部が省略、或いは変更されてもよい。或いは、他の警告条件が追加されてもよい。警告条件の内容が変更されてもよい。領域の評価は、第1レベルと第2レベルとの2段階に限らず、より多くのレベルでの評価であってもよい
 本発明によれば、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することができる。
1,100 作業車両
11    履帯
21    形状センサ
20    コントローラ
22    姿勢センサ
C1-C4 カメラ
Is    表示画像
M1    3次元投影モデル
 

Claims (15)

  1.  作業車両の周囲環境の画像を撮影し、前記画像を示す画像データを出力するカメラと、
     前記周囲環境の3次元形状を測定し、前記3次元形状を示す3D形状データを出力する形状センサと、
     前記画像データと前記3D形状データとを取得するコントローラと、
    を備え、
     前記コントローラは、
      前記3D形状データに基づいて前記周囲環境の前記3次元形状を表現する3次元投影モデルを生成し、
      前記画像データに基づいて前記3次元投影モデルに前記画像を投影することで、前記作業車両の周囲環境の表示画像を示す表示画像データを生成する、
    作業車両の表示システム。
  2.  前記形状センサは、前記周囲環境上の複数点の位置を測定し、
     前記3D形状データは、前記複数点の位置を示す、
    請求項1に記載の作業車両の表示システム。
  3.  前記3次元投影モデルは、前記複数点のうち隣接する点を結んだポリゴンを含む、
    請求項2に記載の作業車両の表示システム。
  4.  前記形状センサは、前記周囲環境の3次元形状について周期的測定を行い、
     前記コントローラは、
      前記周期的測定に伴い前記3D形状データを更新し、
      更新された前記3D形状データに基づいて、前記3次元投影モデルを生成する、
    請求項1に記載の作業車両の表示システム。
  5.  前記作業車両の姿勢を検出し、前記姿勢を示す姿勢データを出力する姿勢センサをさらに備え、
     前記コントローラは、
      前記姿勢データを取得し、
      前記作業車両を示す車両画像を前記表示画像に合成し、
      前記姿勢データに応じて、前記表示画像上の前記車両画像の姿勢を変化させる、
    請求項1に記載の作業車両の表示システム。
  6.  前記コントローラは、
      前記3D形状データに基づいて前記周囲環境に含まれる複数の領域の評価を行い、
      前記表示画像において、前記評価に応じた態様で、前記複数の領域のそれぞれを表示する、
    請求項1に記載の作業車両の表示システム。
  7.  前記コントローラは、
      前記複数の領域のそれぞれの傾斜角を取得し、
      前記傾斜角に基づいて前記複数の領域のそれぞれを評価する、
    請求項6に記載の作業車両の表示システム。
  8.  前記コントローラは、
      前記複数の領域のそれぞれの傾斜角と所定の閾値とを比較し、
      前記閾値以下の傾斜角を有する領域と、前記閾値よりも大きな傾斜角を有する領域とを異なる態様で前記表示画像に表示する、
    請求項7に記載の作業車両の表示システム。
  9.  前記コントローラは、
      前記複数の領域のうち対象とする領域の傾斜角と、前記対象とする領域の周囲の所定範囲に含まれる他の領域の傾斜角との平均を算出し、
     前記傾斜角の平均に基づいて前記対象とする領域を評価する、
    請求項7に記載の作業車両の表示システム。
  10.  前記コントローラは、
      前記複数の領域のぞれぞれに含まれる複数点の高さを取得し、
      前記複数点の高さの分散を算出し、
      前記分散に基づいて前記複数の領域のそれぞれを評価する、
    請求項6に記載の作業車両の表示システム。
  11.  前記コントローラは、
      前記分散と所定の閾値とを比較し、
      前記閾値以下の分散を有する領域と、前記閾値よりも大きな分散を有する領域とを異なる態様で前記表示画像に表示する、
    請求項10に記載の作業車両の表示システム。
  12.  前記形状センサは、前記周囲環境上の複数点の位置を測定し、
     前記3D形状データは、前記複数点の位置を示し、
     前記コントローラは、
      前記3D形状データに基づいて、前記複数点を結んだ線分で囲まれた複数の領域を定義し、
      前記複数の領域のそれぞれについて、前記線分の長さを算出し、
      前記線分の長さに基づいて、前記複数の領域をそれぞれ評価し、
      前記表示画像において、前記評価の結果に応じた態様で、前記複数の領域をそれぞれ表示する、
    請求項1に記載の作業車両の表示システム。
  13.  前記コントローラは、
      前記線分の長さを所定の閾値と比較し、
      前記閾値より大きい線分を含む領域と、前記閾値より大きい線分を含まない領域とを異なる態様で前記表示画像に表示する、
    請求項1に記載の作業車両の表示システム。
  14.  前記作業車両は履帯を含み、
     前記閾値は、前記履帯の長さに基づいて規定される、
    請求項13に記載の作業車両の表示システム。
  15.  作業車両の周囲環境の表示画像を示す表示画像データを生成するためにコントローラによって実行される生成方法であって、
     前記作業車両の周囲環境の画像を示す画像データを取得することと、
     前記周囲環境の3次元形状を示す3D形状データを取得することと、
     前記3D形状データに基づいて前記周囲環境の前記3次元形状を表現する3次元投影モデルを生成することと、
     前記画像データに基づいて前記3次元投影モデルに前記画像を投影することで、前記表示画像データを生成すること、
    を備える生成方法。
     
PCT/JP2019/003013 2018-02-19 2019-01-29 作業車両の表示システム及び生成方法 WO2019159687A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CA3075426A CA3075426C (en) 2018-02-19 2019-01-29 Display system for work vehicle and generation method
AU2019222009A AU2019222009B2 (en) 2018-02-19 2019-01-29 Display system for work vehicle and generation method
CN201980004602.5A CN111149355B (zh) 2018-02-19 2019-01-29 工作车辆的显示系统以及生成方法
US16/640,154 US11377824B2 (en) 2018-02-19 2019-01-29 Display system for work vehicle and generation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-027202 2018-02-19
JP2018027202A JP7232437B2 (ja) 2018-02-19 2018-02-19 作業車両の表示システム及び生成方法

Publications (1)

Publication Number Publication Date
WO2019159687A1 true WO2019159687A1 (ja) 2019-08-22

Family

ID=67619363

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/003013 WO2019159687A1 (ja) 2018-02-19 2019-01-29 作業車両の表示システム及び生成方法

Country Status (6)

Country Link
US (1) US11377824B2 (ja)
JP (1) JP7232437B2 (ja)
CN (1) CN111149355B (ja)
AU (1) AU2019222009B2 (ja)
CA (1) CA3075426C (ja)
WO (1) WO2019159687A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4060286A3 (en) * 2021-03-19 2022-12-07 Topcon Corporation Surveying system, surveying method, and surveying program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7160004B2 (ja) * 2019-08-30 2022-10-25 トヨタ自動車株式会社 表示システム、車両、および、二次電池の状態表示方法
US11595618B2 (en) * 2020-04-07 2023-02-28 Caterpillar Inc. Enhanced visibility system for work machines
JP2022042420A (ja) * 2020-09-02 2022-03-14 株式会社Subaru 車両制御装置
JP7244036B2 (ja) * 2021-05-14 2023-03-22 学校法人 芝浦工業大学 作業支援システムおよび、作業支援方法
JP7076114B1 (ja) 2021-05-14 2022-05-27 学校法人 芝浦工業大学 作業支援システムおよび、作業支援方法
JP2023050332A (ja) * 2021-09-30 2023-04-11 株式会社トプコン 測量システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012202063A (ja) * 2011-03-24 2012-10-22 Komatsu Ltd 油圧ショベルの較正装置及び油圧ショベルの較正方法
JP2012233353A (ja) * 2011-05-02 2012-11-29 Komatsu Ltd 油圧ショベルの較正システム及び油圧ショベルの較正方法
JP2012255286A (ja) * 2011-06-08 2012-12-27 Topcon Corp 建設機械制御システム
JP2013036243A (ja) * 2011-08-09 2013-02-21 Topcon Corp 建設機械制御システム
WO2016031009A1 (ja) * 2014-08-28 2016-03-03 国立大学法人東京大学 作業車両の表示システム、表示制御装置、作業車両、及び表示制御方法
JP2017215240A (ja) * 2016-06-01 2017-12-07 株式会社トプコン 測定装置及び測量システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4727068B2 (ja) * 2001-05-29 2011-07-20 株式会社トプコン 施工監視システム、施工管理方法
EP1452651A1 (en) * 2001-06-20 2004-09-01 Hitachi Construction Machinery Co., Ltd. Remote control system and remote setting system of construction machinery
KR100916638B1 (ko) * 2007-08-02 2009-09-08 인하대학교 산학협력단 구조광을 이용한 토공량 산출 장치 및 방법
CN102448681B (zh) * 2009-12-28 2014-09-10 松下电器产业株式会社 动作空间提示装置、动作空间提示方法以及程序
JP5550970B2 (ja) * 2010-04-12 2014-07-16 住友重機械工業株式会社 画像生成装置及び操作支援システム
US9113047B2 (en) * 2010-10-22 2015-08-18 Hitachi Construction Machinery Co., Ltd. Peripheral monitoring device for working machine
EP3235773B8 (en) * 2012-09-21 2023-09-20 Tadano Ltd. Surrounding information-obtaining device for working vehicle
WO2014110502A1 (en) * 2013-01-11 2014-07-17 The Regents Of The University Of Michigan Monitoring proximity of objects at construction jobsites via three-dimensional virtuality in real-time
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
CN107655461B (zh) * 2014-05-05 2020-07-24 赫克斯冈技术中心 测量子系统和测量系统
US9639958B2 (en) * 2015-03-19 2017-05-02 Caterpillar Inc. Synthetic colorization of real-time immersive environments
JP6496182B2 (ja) * 2015-04-28 2019-04-03 株式会社小松製作所 施工計画システム
US9824490B1 (en) * 2015-06-08 2017-11-21 Bentley Systems, Incorporated Augmentation of a dynamic terrain surface
WO2018020954A1 (ja) 2016-07-29 2018-02-01 株式会社日立製作所 機械学習用データベース作成システム
JP6581139B2 (ja) * 2017-03-31 2019-09-25 日立建機株式会社 作業機械の周囲監視装置
EP3617410A4 (en) * 2017-04-26 2020-06-24 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. SHOVEL, SHOVEL MANAGEMENT DEVICE AND AUXILIARY DEVICE FOR SHOVEL MANAGEMENT
CN111344460B (zh) * 2017-12-04 2022-04-26 住友重机械工业株式会社 周边监视装置
EP3733977B1 (en) * 2017-12-27 2023-11-22 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. Shovel

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012202063A (ja) * 2011-03-24 2012-10-22 Komatsu Ltd 油圧ショベルの較正装置及び油圧ショベルの較正方法
JP2012233353A (ja) * 2011-05-02 2012-11-29 Komatsu Ltd 油圧ショベルの較正システム及び油圧ショベルの較正方法
JP2012255286A (ja) * 2011-06-08 2012-12-27 Topcon Corp 建設機械制御システム
JP2013036243A (ja) * 2011-08-09 2013-02-21 Topcon Corp 建設機械制御システム
WO2016031009A1 (ja) * 2014-08-28 2016-03-03 国立大学法人東京大学 作業車両の表示システム、表示制御装置、作業車両、及び表示制御方法
JP2017215240A (ja) * 2016-06-01 2017-12-07 株式会社トプコン 測定装置及び測量システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4060286A3 (en) * 2021-03-19 2022-12-07 Topcon Corporation Surveying system, surveying method, and surveying program

Also Published As

Publication number Publication date
CA3075426C (en) 2021-07-20
US20210214922A1 (en) 2021-07-15
JP7232437B2 (ja) 2023-03-03
CN111149355B (zh) 2022-04-22
CA3075426A1 (en) 2019-08-22
CN111149355A (zh) 2020-05-12
US11377824B2 (en) 2022-07-05
AU2019222009A1 (en) 2020-02-27
JP2019145953A (ja) 2019-08-29
AU2019222009B2 (en) 2020-12-24

Similar Documents

Publication Publication Date Title
WO2019159687A1 (ja) 作業車両の表示システム及び生成方法
US9378554B2 (en) Real-time range map generation
JP4671317B2 (ja) 地形形状計測装置およびガイダンス装置
US9449397B2 (en) Real-time visual odometry system for determining motion of a machine with a range detection unit
US9678210B2 (en) Error estimation in real-time visual odometry system
JP7365122B2 (ja) 画像処理システムおよび画像処理方法
US20170050566A1 (en) Display system for work vehicle, display control device, work vehicle, and display control method
US20210209799A1 (en) Position measurement system, work machine, and position measurement method
JP6867132B2 (ja) 作業機械の検出処理装置及び作業機械の検出処理方法
JP7203616B2 (ja) 作業機械
AU2019213435B2 (en) Display system for work vehicle
US20240028042A1 (en) Visual overlays for providing perception of depth
US20210388580A1 (en) System and method for work machine
US20210404151A1 (en) System and method for work machine
JP2018112051A (ja) 作業機械の制御システム、作業機械、作業機械の制御方法及びナビゲーションコントローラ
Borthwick Mining haul truck pose estimation and load profiling using stereo vision
JP7160701B2 (ja) 作業機械のシステム及び方法
AU2020212836B2 (en) System and method for work machine
US11908076B2 (en) Display system and display method
US20230340755A1 (en) Continuous calibration of grade control system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19753779

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019222009

Country of ref document: AU

Date of ref document: 20190129

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3075426

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19753779

Country of ref document: EP

Kind code of ref document: A1