JP2019145953A - 作業車両の表示システム及び生成方法 - Google Patents

作業車両の表示システム及び生成方法 Download PDF

Info

Publication number
JP2019145953A
JP2019145953A JP2018027202A JP2018027202A JP2019145953A JP 2019145953 A JP2019145953 A JP 2019145953A JP 2018027202 A JP2018027202 A JP 2018027202A JP 2018027202 A JP2018027202 A JP 2018027202A JP 2019145953 A JP2019145953 A JP 2019145953A
Authority
JP
Japan
Prior art keywords
work vehicle
shape
image
controller
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018027202A
Other languages
English (en)
Other versions
JP7232437B2 (ja
Inventor
山下 淳
Atsushi Yamashita
淳 山下
宗一郎 岩滝
Soichiro Iwataki
宗一郎 岩滝
浩光 藤井
Hiromitsu Fujii
浩光 藤井
正隆 淵田
Masataka Fuchida
正隆 淵田
モロ アレッサンドロ
Moro Alessandro
モロ アレッサンドロ
一 淺間
Hajime Asama
一 淺間
一樹 久禮
Kazuki Kure
一樹 久禮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
University of Tokyo NUC
Original Assignee
Komatsu Ltd
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd, University of Tokyo NUC filed Critical Komatsu Ltd
Priority to JP2018027202A priority Critical patent/JP7232437B2/ja
Priority to CA3075426A priority patent/CA3075426C/en
Priority to AU2019222009A priority patent/AU2019222009B2/en
Priority to CN201980004602.5A priority patent/CN111149355B/zh
Priority to PCT/JP2019/003013 priority patent/WO2019159687A1/ja
Priority to US16/640,154 priority patent/US11377824B2/en
Publication of JP2019145953A publication Critical patent/JP2019145953A/ja
Application granted granted Critical
Publication of JP7232437B2 publication Critical patent/JP7232437B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/76Graders, bulldozers, or the like with scraper plates or ploughshare-like elements; Levelling scarifying devices
    • E02F3/7609Scraper blade mounted forwardly of the tractor on a pair of pivoting arms which are linked to the sides of the tractor, e.g. bulldozers
    • E02F3/7618Scraper blade mounted forwardly of the tractor on a pair of pivoting arms which are linked to the sides of the tractor, e.g. bulldozers with the scraper blade adjustable relative to the pivoting arms about a horizontal axis
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/176Camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/60Structural details of dashboards or instruments
    • B60K2360/61Specially adapted for utility vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/40Special vehicles
    • B60Y2200/41Construction vehicles, e.g. graders, excavators
    • B60Y2200/411Bulldozers, Graders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • General Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】作業車両の周囲環境の形状を容易に把握できる表示画像を生成する。【解決手段】表示システム2は、カメラC1〜C4と、形状センサ21と、コントローラ20とを含む。各カメラは、作業車両の周囲環境の画像を撮影し、画像を示す画像データを出力する。形状センサは、周囲環境の3次元形状を測定し、3次元形状を示す3D形状データを出力する。コントローラは、画像データと3D形状データとを取得し、3D形状データに基づいて3次元投影モデルを生成する。3次元投影モデルは、周囲環境の3次元形状を表現する。画像データに基づいて3次元投影モデルに画像を投影することで、車両の周囲環境の表示画像を示す表示画像データを生成する。【選択図】図2

Description

本発明は、作業車両の表示システム及び生成方法に関する。
作業車両の周囲をカメラで撮影し、作業車両の周囲を上方より見下ろした俯瞰画像をディスプレイに表示する技術がある。例えば、特許文献1に記載の表示システムでは、作業車両に車載された複数のカメラが、作業車両の周囲環境の画像データを取得する。表示システムのコントローラは、取得された画像を半球面形状の投影モデルにマッピングすることにより、俯瞰画像を生成する。
国際公開公報WO2016/031009号
上述した表示システムでは、投影モデルの形状は常に半球面形状で一定である。そのため、作業車両の周囲環境の実際の形状を俯瞰画像から把握することは難しい。例えば、投影モデルの底面は常に平坦な平面である。そのため、作業車両の周囲の地表面が傾斜や凹凸を有している場合であっても、それらを撮影した画像は平坦な投影面に投影される。そのため、俯瞰画像から傾斜や凹凸な地形であることを把握することは容易ではない。
本発明の目的は、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することにある。
一態様に係る作業車両の表示システムは、カメラと、形状センサと、コントローラとを含む。カメラは、作業車両の周囲環境の画像を撮影し、画像を示す画像データを出力する。形状センサは、周囲環境の3次元形状を測定し、3次元形状を示す3D形状データを出力する。コントローラは、画像データと3D形状データとを取得する。コントローラは、3D形状データに基づいて3次元投影モデルを生成する。3次元投影モデルは、周囲環境の3次元形状を表現する。画像データに基づいて3次元投影モデルに画像を投影することで、作業車両の周囲環境の表示画像を示す表示画像データを生成する。
本態様に係る作業車両の表示システムでは、作業車両の周囲環境の3次元形状が形状センサによって測定され、測定された3次元形状に基づいて3次元投影モデルが生成される。そのため、3次元投影モデルは、作業車両の周囲環境の実際の形状と同じ、或いは近似した形状を有している。従ってカメラが撮影した画像を3次元投影モデルに投影することで、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することができる。
他の態様に係る生成方法は、作業車両の周囲環境の表示画像を示す表示画像データを生成するためにコントローラによって実行される生成方法であって、以下の処理を含む。第1の処理は、作業車両の周囲環境の画像を示す画像データを取得することである。第2の処理は、周囲環境の3次元形状を示す3D形状データを取得することである。第3の処理は、3D形状データに基づいて周囲環境の3次元形状を表現する3次元投影モデルを生成することである。第4の処理は、画像データに基づいて3次元投影モデルに画像を投影することで、表示画像データを生成することである。
本態様に係る生成方法では、作業車両の周囲環境の3次元形状が形状センサによって測定され、測定された3次元形状に基づいて3次元投影モデルが生成される。そのため、3次元投影モデルは、作業車両の周囲環境の実際の形状と同じ、或いは近似した形状を有している。従ってカメラが撮影した画像を3次元投影モデルに投影することで、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することができる。
本発明によれば、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することができる。
実施形態に係る作業車両を示す側面図である。 第1実施形態に係る表示システムの構成を示す図である。 形状センサによって取得される3D形状データを説明するための図である。 第1実施形態に係る表示画像の一例を示す図である。 第2実施形態に係る表示システムのコントローラによって実行される処理を示すフローチャートである。 点群密度の警告条件を説明するための図である。 傾斜の警告条件を説明するための図である。 起伏の警告条件を説明するための図である。 第2実施形態に係る表示画像の一例を示す図である。 表示システムによって評価される地形の例を示す図である。 他の実施形態に係る作業車両を示す側面図である。
以下、図面を参照して、実施形態に係る作業車両の表示システムについて説明する。本実施形態に係る表示システムは、作業車両及びその周囲環境を表示するためのシステムである。図1は、実施形態に係る作業車両1を示す側面図である。本実施形態において、作業車両1はブルドーザである。作業車両1は、車両本体3と、作業機4と、走行装置5とを有する。
車両本体3は、エンジン室6を有する。エンジン室6内には、エンジン7、及び、油圧ポンプ8などの駆動装置が配置されている。車両本体3の後部には、リッパ装置9が取り付けられている。
走行装置5は、作業車両1を走行させるための装置である。走行装置5は、作業車両1の短手方向の一方および他方の側部に配置される一対の履帯11を有している。履帯11は、作業車両1の長手方向に延びるループ状のチェーンである。履帯11が駆動されることにより作業車両1が走行する。
作業機4は、車両本体3の前方に配置されている。作業機4は、掘削、運土、或いは整地などの作業に用いられる。作業機4は、ブレード12と、チルトシリンダ13と、リフトシリンダ14と、アーム15と、を有する。ブレード12は、アーム15を介して車両本体3に支持されている。ブレード12は、上下方向に揺動可能に設けられている。チルトシリンダ13とリフトシリンダ14とは、油圧ポンプ8から吐出された作動油によって駆動され、ブレード12の姿勢を変更する。
図2は、第1実施形態に係る表示システム2の構成、及び、表示システム2による処理の流れを示すブロック図である。図2に示すように、表示システム2は、複数のカメラC1−C4を有する。複数のカメラC1−C4は、車両本体3に取り付けられている。複数のカメラC1−C4は、魚眼カメラである。複数のカメラC1−C4のそれぞれの画角は180度である。ただし、複数のカメラC1−C4のそれぞれの画角は180度より小さくてもよい。或いは、複数のカメラC1−C4のそれぞれの画角は180度より大きくてもよい。複数のカメラC1−C4は、前カメラC1と、第1サイドカメラC2と、後カメラC3と、第2サイドカメラC4とを有する。
図1に示すように、前カメラC1は、車両本体3の前部に取り付けられる。詳細には、図1に示すように、車両本体3は前カメラ支持部16を有する。前カメラ支持部16は、車両本体3の前部から上方、且つ、前方に延びている。前カメラC1は、前カメラ支持部16に取り付けられている。後カメラC3は、車両本体3の後部に取り付けられる。
第1サイドカメラC2は、車両本体3の一方の側部に取り付けられている。第2サイドカメラC4は、車両本体3の他方の側部に取り付けられている。本実施形態では、第1サイドカメラC2は、車両本体3の左側部に取り付けられ、第2サイドカメラC4は、車両本体3の右側部に取り付けられている。ただし、第1サイドカメラC2が、車両本体3の右側部に取り付けられ、第2サイドカメラC4が、車両本体3の左側部に取り付けられてもよい。
前カメラC1は、車両本体3の前方を撮像し、作業車両1の周囲環境を含む画像を取得する。後カメラC3は、車両本体3の後方を撮像し、作業車両1の周囲環境を含む画像を取得する。第1サイドカメラC2は、車両本体3の左方を撮像し、作業車両1の周囲環境を含む画像を取得する。第2サイドカメラC4は、車両本体3の右方を撮像し、作業車両1の周囲環境を含む画像を取得する。カメラC1−C4は、取得した画像を示す画像データを出力する。
図2に示すように、表示システム2は、コントローラ20と、形状センサ21と、姿勢センサ22と、位置センサ23と、ディスプレイ24とを含む。形状センサ21は、作業車両1の周囲環境の3次元形状を測定し、3次元形状を示す3D形状データD1を出力する。形状センサ21は、作業車両1の周囲環境上の複数点の位置を測定する。3D形状データD1は、作業車両1の周囲環境上の複数点の位置を示す。作業車両1の周囲環境は、例えば作業車両1の周囲の地表面を含む。すなわち、3D形状データD1は、作業車両1の周囲の地表面上の複数点の位置を含む。特に、3D形状データD1は、作業車両1の前方の地表面上の複数点の位置を含む。
詳細には、形状センサ21は、周囲環境上の複数点の位置の作業車両1からの距離を測定する。複数点の位置は、複数点の作業車両1からの距離により求められる。本実施形態において、形状センサ21は、ライダ(LIDAR:Laser Imaging Detection and Ranging)である。形状センサ21は、レーザーを照射して、その反射光を計測することで、計測点までの距離を測定する。
形状センサ21は、例えば鉛直方向に並んだ複数のレーザー距離計測素子を含む。形状センサ21は、複数のレーザー距離計測素子を、鉛直方向に延びる軸回りに横方向に回転させながら、所定周期で複数点の位置の測定を行う。従って、形状センサ21は、一定の回転角ごとに周囲環境上の点までの距離を測定し、3次元の点群の位置を取得する。
形状データは、各点について、どの素子によって測定されたかという情報と、どの回転角で測定されたかという情報、及び、各素子の位置関係の情報とを含む。また、コントローラ20は、各素子と作業車両1との位置関係を示す情報を有している。従って、コントローラ20は、形状データより、周囲環境上の各点、及び作業車両の位置関係を取得することができる。
姿勢センサ22は、作業車両1の姿勢を検出し、姿勢を示す姿勢データD2を出力する。姿勢センサ22は、例えばIMU(慣性計測装置:Inertial Measurement Unit)である。姿勢データD2は、車両前後方向の水平に対する角度(ピッチ角)と、車両横方向の水平に対する角度(ロール角)とを含む。IMUは、姿勢データD2を出力する。
位置センサ23は、例えばGNSS(Global Navigation Satellite System)レシーバである。GNSSレシーバは、例えばGPS(Global Positioning System)用の受信機である。GNSSレシーバは、衛星より測位信号を受信し、測位信号により作業車両1の位置座標を示す位置データD3を取得する。GNSSレシーバは、位置データD3を出力する。
形状センサ21は、例えば前カメラ支持部16に取り付けられる。或いは、形状センサ21は、車両本体3の他の部分に取り付けられてもよい。姿勢センサ22と位置センサ23とは、車両本体3に取り付けられる。或いは、位置センサ23は、作業機4に取り付けられてもよい。
コントローラ20は、カメラC1−C4と有線、或いは無線により通信可能に接続されている。コントローラ20は、カメラC1−C4から画像データを受信する。コントローラ20は、形状センサ21、姿勢センサ22、及び位置センサ23と有線、或いは無線により通信可能に接続されている。コントローラ20は、形状センサ21から3D形状データD1を受信する。コントローラ20は、姿勢センサ22から姿勢データD2を受信する。コントローラ20は、位置センサ23から位置データD3を受信する。
コントローラ20は、上述した画像データと3D形状データD1と姿勢データD2と位置データD3とに基づいて、作業車両1の周囲環境を表示するための表示画像Isを生成するようプログラムされている。コントローラ20は、作業車両1の外部に配置されてもよい。或いは、コントローラ20は、作業車両1の内部に配置されてもよい。コントローラ20は、演算装置25と記憶装置26とを含む。
演算装置25は、CPUなどのプロセッサによって構成される。演算装置25は、表示画像Isを生成するための処理を行う。記憶装置26は、RAM或いはROMなどのメモリ、或いは、ハードディスクなどの補助記憶装置26によって構成される。記憶装置26は、表示画像Isの生成に用いられるデータ及びプログラムを記憶している。
ディスプレイ24は、例えばCRT、LCD或いはOELDである。ただし、ディスプレイ24はこれらのディスプレイに限らず、他の種類のディスプレイであってもよい。ディスプレイ24は、コントローラ20からの出力信号に基づいて表示画像Isを表示する。
次に、表示画像Isの生成について詳細に説明する。まず、カメラC1−C4による撮像が行われる。コントローラ20は、カメラC1−C4から、前方画像Im1と、左方画像Im2と、後方画像Im3と、右方画像Im4と、を取得する。前方画像Im1は、車両本体3の前方の画像である。左方画像Im2は、車両本体3の左方の画像である。後方画像Im3は、車両本体3の後方の画像である。右方画像Im4は、車両本体3の右方の画像である。
コントローラ20は、形状センサ21から取得した3D形状データD1に基づいて3次元投影モデルM1を生成する。図3に示すように、コントローラ20は、作業車両1の周囲環境上の複数点の位置に基づいて、周囲環境の形状を表現するポリゴンメッシュを生成する。3次元投影モデルM1は、複数点のうち隣接する点を結んだポリゴンを含む。
詳細には、図3に示すように、コントローラ20は、形状センサ21による1回のスキャンで測定された複数点P(1,1),P(2,1) ,・・・,P(i,j) ,・・・のうち、隣接する点を結んでメッシュを生成する。ここで、P(i,j)は、それぞれ鉛直方向においてi番目のレーザー距離計測素子で測定され、横方向にj番目の回転角で得られた点を表している。コントローラ20は、点P(i,j), P(i+1,j), P(i,j+1), P(i+1,j+1)について、三角形(P(i,j), P(i+1,j), P(i,j+1))と三角形(P(i+1,j),P(i,j+1), P(i+1,j+1))を生成する。それにより、コントローラ20は、三角形のポリゴンで表された3次元投影モデルM1を生成する。
なお、形状センサ21は、周期的に周囲環境の3次元形状を測定する。コントローラ20は、3D形状データD1を更新し、更新された3D形状データD1に基づいて、3次元投影モデルM1を生成する。
コントローラ20は、カメラC1−C4が取得した画像Im1−Im4から周囲合成画像Is1を生成する。周囲合成画像Is1は、作業車両1の周囲を俯瞰的に示す画像である。3次元投影モデルM1に、カメラC1−C4が取得した画像Im1−Im4をテクスチャマッピングにより投影することで、周囲合成画像Is1を生成する。
また、コントローラ20は、作業車両1を示す車両画像Is2を表示画像に合成する。車両画像Is2は、作業車両1自体を3次元的に示す画像である。コントローラ20は、姿勢データD2から表示画像Is上の車両画像Is2の姿勢を決定する。コントローラ20は、位置データD3から表示画像Is上の車両画像Is2の向きを決定する。コントローラ20は、表示画像Is上の車両画像Is2の姿勢と向きとが、作業車両1の実際の姿勢及び向きと一致するように、表示画像Isに車両画像Is2を合成する。
なお、コントローラ20は、カメラC1−C4が取得した画像Im1−Im4から車両画像Is2を生成してもよい。例えば、カメラC1−C4が取得した画像中に作業車両1の部分がそれぞれ含まれており、コントローラ20は、車両モデルM2に、画像中の各部分を投影することで車両画像Is2を生成してもよい。車両モデルM2は、作業車両1の形状を有する投影モデルであり、記憶装置26に保存されていてもよい。或いは、車両画像Is2は、予め撮影された既定の画像、或いは予め作成された3次元のコンピュータグラフィックスであってもよい。
ディスプレイ24は、表示画像Isを表示する。図4は、表示画像Isの一例を示す図である。図4に示すように、表示画像Isは、作業車両1及びその周囲を三次元的に表した画像である。図4に示すように、作業車両1の周囲の傾斜した実際の地形に合わせて、傾斜した形状を有する3次元投影モデルM1を用いて、表示画像Isが表示される。また、作業車両1の傾斜した実際の姿勢に合わせて、車両画像Is2が傾斜した状態で表示画像Isに表示されている。
表示画像Isは、リアルタイムに更新され、動画として表示される。従って、作業車両1が走行しているときには、周囲環境、作業車両の姿勢、向き、位置の実際の変化に応じて、表示画像Is中の周囲合成画像IS1、車両画像Is2の姿勢、向き、及び位置も、リアルタイムに変化して表示される。
作業車両1の姿勢、向き、及び位置の変化を表現するためには、3次元投影モデルM1及び車両モデルM2を、作業車両1が走行を開始したときの姿勢、向き、及び位置からの変化を表す回転行列に従って回転させ、並進ベクトルに従って並進させる。回転ベクトルと並進ベクトルとは、上述した姿勢データD2及び位置データD3から取得される。
画像の合成のための具体的な手法については、例えば“Spatio-temporal bird’s-eye view images using multiple fish- eye cameras,”(Proceedings of the 2013 IEEE/SICE International Symposium on System Integration, pp. 753-758, 2013.)において示されている手法が用いられてもよい。“Visualization of the surrounding environment and operational part ina 3DCG model for the teleoperation of construction machines,” (Proceedings of the 2015 IEEE/SICE International Symposium on System Integration, pp. 81-87, 2015.)において示されている手法が用いられてもよい。
なお、図4では、表示画像Isは、作業車両1及びその周囲を左側方から見た画像である。しかし、コントローラ20は、前方、後方、右側方、上方、或いは、各方向の斜めから、作業車両1及びその周囲を見た画像に、表示画像Isを切り換えることができる。
以上説明した本実施形態に係る表示システム2では、作業車両1の周囲環境の3次元形状が形状センサ21によって測定され、測定された3次元形状に基づいて3次元投影モデルM1が生成される。そのため、3次元投影モデルM1は、作業車両1の周囲の実際の地形と同じ、或いは近似した形状を有している。従って、作業車両1の周囲の実際の地形を反映した形状で、周囲環境の画像を表示画像Is中に提示することができる。従って、本実施形態に係る表示システム2では、作業車両1の周囲環境の形状を容易に把握できる表示画像Isを生成することができる。
また、作業車両1の実際の姿勢が姿勢センサ22によって測定され、測定された姿勢に合わせて、表示画像Isに車両画像Is2が表示される。そのため、作業車両1の実際の姿勢を反映した姿勢で車両画像Is2を表示画像Is中に提示することができる。それにより、作業車両1が傾斜面に侵入したことや、旋回の動作をしている様子など、作業車両1の姿勢変化をオペレータに明確に提示することができる。
次に、第2実施形態に係る表示システム2について説明する。第2実施形態に係る表示システム2では、コントローラ20は、3D形状データD1に基づいて周囲環境に含まれる複数の領域の評価を行う。本実施形態では、コントローラ20は、上述した3次元投影モデルM1の三角形ポリゴンを1つの領域として定義する。なお、表示システム2の構成及び表示画像Isの生成方法については、第1実施形態と同様であるため、説明を省略する。
コントローラ20は、各領域を複数のレベルに分類して評価する。本実施形態では、コントローラ20は、各領域を第1レベルと第2レベルとに分類する。第1レベルは、作業車両1の進入を許容する領域であることを示す。第2レベルは、作業車両1の進入を禁止する領域であることを示す。
図5は、領域の評価を行うを行うためにコントローラ20によって行われる処理を示すフローチャートである。ステップS101では、コントローラ20は、各領域に対して点群密度の警告条件を満たしているかを判定する。点群密度の警告条件は、以下の式(1)で表される。
Figure 2019145953
L1(i), L2(i), L3(i)は、各領域を規定する点を結んだ線分の長さである。図6に示すように、コントローラ20は、各領域を表す三角形(Pi, Pi+1, Pi+2)の各辺の長さL1(i), L2(i), L3(i)を各領域の線分の長さとして算出する。
すなわち、コントローラ20は、各領域(Pi, Pi+1, Pi+2)の線分の長さを所定の閾値k×Lcと比較し、各領域(Pi, Pi+1, Pi+2)が閾値k×Lcより大きい線分を含むかを判定する。ある領域(Pi, Pi+1, Pi+2)が点群密度の警告条件を満たすとき、すなわち、ある領域(Pi, Pi+1, Pi+2)が閾値k×Lcより大きい線分を含むときには、ステップS102において、コントローラ20は、当該領域(Pi, Pi+1, Pi+2)を第2レベルと判定する。
図1に示すように、“Lc”は、履帯11の長さである。履帯11の長さとは、平坦な面の上に置かれた履帯が平坦な面と接する長さであり、接地長と呼ばれる。“k”は、0より大きく1より小さい所定の係数である。従って、閾値k×Lcは、履帯11の長さに基づいて規定される、例えば係数“k”は、1/2である。ただし、係数“k”は1/2以外の値であってもよい。係数“k”は、固定値であってもよく、或いはオペレータによって任意に設定可能であってもよい。履帯11の長さLcは、接地長と関連のある長さであってもよい。例えば、履帯11の前後方向の全長であってよい。その場合、係数kの値は、適宜、変更される。
点群密度の警告条件は、更に、以下の式(2)で示される条件を含んでもよい。
Figure 2019145953
ここで、Lc’は、左右の履帯11の中心間距離であり、履帯ゲージ幅と呼ばれる。係数k’は、略1である。コントローラ20は、式(1)と式(2)の両者が満足したときに、警告条件が満たされたと判定してもよい。
ある領域(Pi, Pi+1, Pi+2)が点群密度の警告条件を満たさないとき、すなわち、ある領域(Pi, Pi+1, Pi+2)が閾値k×Lcより大きい線分を含まないときには、処理はステップS103に進む。
ステップS103では、コントローラ20は、点群密度の警告条件を満たさない領域に対して、傾斜の警告条件を満たすかを判定する。傾斜の警告条件は、以下の式(3)で表される。
Figure 2019145953
ここでは、図7に示すように、コントローラ20は、対象とする領域(Pi, Pi+1, Pi+2)と、その周囲の所定範囲A1(i)に含まれる領域の法線ベクトルNiを求め、それらの領域の法線の平均Navを算出する。法線の平均Navと重力方向とのなす角を、当該対象とする領域(Pi, Pi+1, Pi+2)の傾斜角として決定する。上記の傾斜の警告条件は、対象とする領域(Pi, Pi+1, Pi+2)の傾斜角が閾値θmaxを超えていることを意味する。式(3)において、ezは、重力方向の単位ベクトルである。
閾値θmaxは、例えば、作業車両1の進入が許容される上限傾斜角である。ただし、閾値θmaxは、他の値であってもよい。閾値θmaxは、固定値であってもよく、或いはオペレータによって任意に設定されてもよい。所定範囲A1(i)は、例えば、対象とする領域(Pi, Pi+1, Pi+2)の図心を中心とする半径Rの円で表される。半径Rは固定値であってもよい。或いは、半径Rはオペレータによって任意に設定されてもよい。
ある領域(Pi, Pi+1, Pi+2)が傾斜の警告条件を満たすとき、すなわち、ある領域(Pi, Pi+1, Pi+2)の傾斜角が閾値θmaxより大きいときには、ステップS102において、コントローラ20は、当該領域(Pi, Pi+1, Pi+2)を第2レベルと判定する。ある領域(Pi, Pi+1, Pi+2)が傾斜の警告条件を満たさないとき、すなわち、ある領域(Pi, Pi+1, Pi+2)の傾斜角が閾値θmax以下であるときには、処理はステップS104に進む。
ステップS104では、コントローラ20は、点群密度の警告条件を満たさない領域に対して、起伏の警告条件を満たすかを判定する。起伏の警告条件は、以下の式(4)で表される。
Figure 2019145953
nは、図8に示すように、対象とする判定範囲A2(i)内に含まれる点の数である。ここでの判定範囲A2(i)は、ステップS103での所定範囲A1(i)と同じであってもよく、或いは異なってもよい。Ziは、点Piの重力方向における高さである。Zavは、判定範囲A2(i)に含まれる点の高さの平均である。σ2zは、判定範囲A2(i)内の点の高さの分散を示している。上記の起伏の警告条件は、対象とする判定範囲A2(i)に含まれる点の高さの分散σ2zが、閾値σ2maxを超えていることを意味する。すなわち、起伏の警告条件は、判定範囲A2(i)の起伏の変化が大きいことを意味している。
閾値σ2maxは、例えば、作業車両1の進入が許容される起伏の変化の上限である。ただし、閾値σ2maxは、他の値であってもよい。閾値σ2maxは、固定値であってもよく、或いはオペレータによって任意に設定されてもよい。
ある判定範囲A2(i)が起伏の警告条件を満たすときには、ステップS102において、コントローラ20は、当該判定範囲A2(i)に含まれる領域を第2レベルと判定する。ある判定範囲A2(i)が起伏の警告条件を満たさないときには、処理はステップS105に進む。
ステップS105では、コントローラ20は、点群密度の警告条件と、傾斜の警告条件と、起伏の警告条件との全てを満たさない領域に対して、第1レベルと判定する。
次に、コントローラ20は、表示画像Isをディスプレイ24に表示する。コントローラ20は、表示画像Isにおいて、評価に応じた態様で、複数の領域のそれぞれを表示する。詳細には、コントローラ20は、第2レベルの領域を第1レベルの領域と異なる色で表示する。
図9は、第2実施形態に係る表示画像Isの一例を示す図である。図9に示す表示画像Isにおいて、作業車両1の右方には、急な下り斜面Sp2が存在している。作業車両1の左方には、急な上り斜面Sp3が存在している。
コントローラ20は、作業車両1の正面の領域Sp1を第1レベルと判定する。また、コントローラ20は、右方の下り斜面Sp2と左方の上り斜面Sp3を第2レベルと判定する。コントローラ20は、右方の下り斜面Sp2と左方の上り斜面Sp3を、正面の領域Sp1とは異なる色で、表示画像Isに表現する。
以上説明した第2実施形態に係る表示システム2では、コントローラ20は、3D形状データD1に基づいて周囲環境に含まれる複数の領域の評価を行い、第2レベルの領域を第1レベルの領域と異なる態様で表示画像Is上に表示する。そのため、オペレータは、表示画像Isによって、第2レベルの領域の存在に容易に気付くことができる。また、表示画像Isは、作業車両1の周囲の実際の地形を反映した3次元投影モデルM1に投影されている。そのため、第2レベルと判定された領域を実際の地形に近い形状で、表示画像Isに表現することができる。
コントローラ20は、点群密度の警告条件を満たす領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Isに表示する。ここで、各点の間の範囲は、形状センサ21による計測がなされていない部分であるため、各領域の線分L1(i), L2(i), L3(i)の長さが長いほど、形状センサ21による計測がなされていない範囲が大きいことを意味する。そのため、図10(A)に示すように、点Piと点Pi+1との間に急な傾斜が存在していても、形状センサ21によって計測できない場合があり得る。
本実施形態に係る表示システム2では、ある領域において、線分の長さL1(i), L2(i), L3(i)のうち少なくとも1つが閾値k×Lcよりも長いときには、当該領域を第2レベルと判定する。そのため、十分な点群の密度が得られていない領域を第2レベルと判定することができる。従って、形状センサ21から大きく離れているために十分な点群の密度が得られていない領域を、第2領域と判定することができる。或いは、地形によってレーザーが遮られているために、正確な地形が測定できない領域を第2レベルと判定することができる。
閾値k×Lcは、履帯11の長さから規定される。もし、計測できていない領域が、履帯11の長さから規定される閾値k×Lcよりも長い場合には、当該領域に凹地形が存在すると、作業車両1の傾きが上限傾斜角θmaxを越える可能性がある。本実施形態に係る表示システム2では、そのような領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Is上に表示することができる。
コントローラ20は、傾斜の警告条件を満たす領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Isに表示する。そのため、例えば図10(B)に示すように、作業車両1に許容される上限傾斜角θmaxを越える急な傾斜のある領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Is上に表示することができる。
コントローラ20は、判定の対象とする領域の傾斜角だけではなく、その周囲の所定範囲A1(i)に含まれる他の領域の傾斜角を合わせた平均によって、対象とする領域を評価する。それにより、形状センサ21からの距離や地形によって点群密度が変化する影響を緩和して、精度よく評価を行うことができる。
コントローラ20は、起伏の警告条件を満たす判定領域A2(i)を第2レベルと判定して、第1レベルの判定領域と異なる態様で表示画像Isに表示する。起伏の大きい地形では、当該地形に含まれる点の高さの変化が激しくなる。そのため、コントローラ20は、ある判定範囲A2(i)での各点の高さの分散によって、判定範囲A2(i)の起伏の激しさを評価する。それにより、例えば図10(C)に示すように、起伏の大きな領域を第2レベルと判定して、第1レベルの領域と異なる態様で表示画像Is上に表示することができる。
なお図9に示す表示画像Isは、作業車両1の右前方から見た視点で生成された映像であるが、コントローラ20は、任意に視点を変更して、表示画像Isを生成してもよい。コントローラ20は、例えばオペレータの操作に応じて、視点を切り換えてもよい。それにより、作業車両1の周囲環境のうちオペレータが特に視認したい部分を見えるように、表示画像Isを生成することができる。
以上、本発明の実施形態について説明したが、本発明はこれらに限定されるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。
作業車両1は、ブルドーザに限らず、ホイールローダ、油圧ショベル、ダンプトラックなどの他の種類の車両であってもよい。作業車両1は、作業車両1の外部に配置されたコントローラ20から遠隔操作される車両であってもよい。その場合、図11に示す作業車両100のように、運転室が車両本体3から省略されてもよい。なお、図11では、図1に示す作業車両1に対応する部分に同じ符号を付している。或いは、作業車両1は、作業車両1に搭載される運転室内のオペレータによって直接的に操作される車両であってもよい。
カメラの数は、4つに限らず、3つ以下、或いは5つ以上であってもよい。カメラは、魚眼カメラに限らず、他の種類のカメラであってもよい。カメラの配置は、上記の実施形態の配置に限らず、異なる配置であってもよい。
姿勢センサ22は、IMUに限らず、他のセンサであってもよい。位置センサ23は、GNSSレシーバに限らず、他のセンサであってもよい。形状センサ21は、ライダに限らず、レーダー等の他の測定装置であってもよい。
第2実施形態において、警告条件の一部が省略、或いは変更されてもよい。或いは、他の警告条件が追加されてもよい。警告条件の内容が変更されてもよい。領域の評価は、第1レベルと第2レベルとの2段階に限らず、より多くのレベルでの評価であってもよい
本発明によれば、作業車両の周囲環境の形状を容易に把握できる表示画像を生成することができる。
1,100 作業車両
11 履帯
21 形状センサ
20 コントローラ
22 姿勢センサ
C1−C4 カメラ
Is 表示画像
M1 3次元投影モデル

Claims (15)

  1. 作業車両の周囲環境の画像を撮影し、前記画像を示す画像データを出力するカメラと、
    前記周囲環境の3次元形状を測定し、前記3次元形状を示す3D形状データを出力する形状センサと、
    前記画像データと前記3D形状データとを取得するコントローラと、
    を備え、
    前記コントローラは、
    前記3D形状データに基づいて前記周囲環境の前記3次元形状を表現する3次元投影モデルを生成し、
    前記画像データに基づいて前記3次元投影モデルに前記画像を投影することで、前記作業車両の周囲環境の表示画像を示す表示画像データを生成する、
    作業車両の表示システム。
  2. 前記形状センサは、前記周囲環境上の複数点の位置を測定し、
    前記3D形状データは、前記複数点の位置を示す、
    請求項1に記載の作業車両の表示システム。
  3. 前記3次元投影モデルは、前記複数点のうち隣接する点を結んだポリゴンを含む、
    請求項2に記載の作業車両の表示システム。
  4. 前記形状センサは、前記周囲環境の3次元形状について周期的測定を行い、
    前記コントローラは、
    前記周期的測定に伴い前記3D形状データを更新し、
    更新された前記3D形状データに基づいて、前記3次元投影モデルを生成する、
    請求項1に記載の作業車両の表示システム。
  5. 前記作業車両の姿勢を検出し、前記姿勢を示す姿勢データを出力する姿勢センサをさらに備え、
    前記コントローラは、
    前記姿勢データを取得し、
    前記作業車両を示す車両画像を前記表示画像に合成し、
    前記姿勢データに応じて、前記表示画像上の前記車両画像の姿勢を変化させる、
    請求項1に記載の作業車両の表示システム。
  6. 前記コントローラは、
    前記3D形状データに基づいて前記周囲環境に含まれる複数の領域の評価を行い、
    前記表示画像において、前記評価に応じた態様で、前記複数の領域のそれぞれを表示する、
    請求項1に記載の作業車両の表示システム。
  7. 前記コントローラは、
    前記複数の領域のそれぞれの傾斜角を取得し、
    前記傾斜角に基づいて前記複数の領域のそれぞれを評価する、
    請求項6に記載の作業車両の表示システム。
  8. 前記コントローラは、
    前記複数の領域のそれぞれの傾斜角と所定の閾値とを比較し、
    前記閾値以下の傾斜角を有する領域と、前記閾値よりも大きな傾斜角を有する領域とを異なる態様で前記表示画像に表示する、
    請求項7に記載の作業車両の表示システム。
  9. 前記コントローラは、
    前記複数の領域のうち対象とする領域の傾斜角と、前記対象とする領域の周囲の所定範囲に含まれる他の領域の傾斜角との平均を算出し、
    前記傾斜角の平均に基づいて前記対象とする領域を評価する、
    請求項7に記載の作業車両の表示システム。
  10. 前記コントローラは、
    前記複数の領域のぞれぞれに含まれる複数点の高さを取得し、
    前記複数点の高さの分散を算出し、
    前記分散に基づいて前記複数の領域のそれぞれを評価する、
    請求項6に記載の作業車両の表示システム。
  11. 前記コントローラは、
    前記分散と所定の閾値とを比較し、
    前記閾値以下の分散を有する領域と、前記閾値よりも大きな分散を有する領域とを異なる態様で前記表示画像に表示する、
    請求項10に記載の作業車両の表示システム。
  12. 前記形状センサは、前記周囲環境上の複数点の位置を測定し、
    前記3D形状データは、前記複数点の位置を示し、
    前記コントローラは、
    前記3D形状データに基づいて、前記複数点を結んだ線分で囲まれた複数の領域を定義し、
    前記複数の領域のそれぞれについて、前記線分の長さを算出し、
    前記線分の長さに基づいて、前記複数の領域をそれぞれ評価し、
    前記表示画像において、前記評価の結果に応じた態様で、前記複数の領域をそれぞれ表示する、
    請求項1に記載の作業車両の表示システム。
  13. 前記コントローラは、
    前記線分の長さを所定の閾値と比較し、
    前記閾値より大きい線分を含む領域と、前記閾値より大きい線分を含まない領域とを異なる態様で前記表示画像に表示する、
    請求項1に記載の作業車両の表示システム。
  14. 前記作業車両は履帯を含み、
    前記閾値は、前記履帯の長さに基づいて規定される、
    請求項13に記載の作業車両の表示システム。
  15. 作業車両の周囲環境の表示画像を示す表示画像データを生成するためにコントローラによって実行される生成方法であって、
    前記作業車両の周囲環境の画像を示す画像データを取得することと、
    前記周囲環境の3次元形状を示す3D形状データを取得することと、
    前記3D形状データに基づいて前記周囲環境の前記3次元形状を表現する3次元投影モデルを生成することと、
    前記画像データに基づいて前記3次元投影モデルに前記画像を投影することで、前記表示画像データを生成すること、
    を備える生成方法。
JP2018027202A 2018-02-19 2018-02-19 作業車両の表示システム及び生成方法 Active JP7232437B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018027202A JP7232437B2 (ja) 2018-02-19 2018-02-19 作業車両の表示システム及び生成方法
CA3075426A CA3075426C (en) 2018-02-19 2019-01-29 Display system for work vehicle and generation method
AU2019222009A AU2019222009B2 (en) 2018-02-19 2019-01-29 Display system for work vehicle and generation method
CN201980004602.5A CN111149355B (zh) 2018-02-19 2019-01-29 工作车辆的显示系统以及生成方法
PCT/JP2019/003013 WO2019159687A1 (ja) 2018-02-19 2019-01-29 作業車両の表示システム及び生成方法
US16/640,154 US11377824B2 (en) 2018-02-19 2019-01-29 Display system for work vehicle and generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018027202A JP7232437B2 (ja) 2018-02-19 2018-02-19 作業車両の表示システム及び生成方法

Publications (2)

Publication Number Publication Date
JP2019145953A true JP2019145953A (ja) 2019-08-29
JP7232437B2 JP7232437B2 (ja) 2023-03-03

Family

ID=67619363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018027202A Active JP7232437B2 (ja) 2018-02-19 2018-02-19 作業車両の表示システム及び生成方法

Country Status (6)

Country Link
US (1) US11377824B2 (ja)
JP (1) JP7232437B2 (ja)
CN (1) CN111149355B (ja)
AU (1) AU2019222009B2 (ja)
CA (1) CA3075426C (ja)
WO (1) WO2019159687A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076114B1 (ja) 2021-05-14 2022-05-27 学校法人 芝浦工業大学 作業支援システムおよび、作業支援方法
JP2022176119A (ja) * 2021-05-14 2022-11-25 学校法人 芝浦工業大学 作業支援システムおよび、作業支援方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7160004B2 (ja) * 2019-08-30 2022-10-25 トヨタ自動車株式会社 表示システム、車両、および、二次電池の状態表示方法
US11595618B2 (en) * 2020-04-07 2023-02-28 Caterpillar Inc. Enhanced visibility system for work machines
JP2022042420A (ja) * 2020-09-02 2022-03-14 株式会社Subaru 車両制御装置
US20220299318A1 (en) * 2021-03-19 2022-09-22 Topcon Corporation Surveying system, surveying method, and storage medium storing surveying program
JP2023050332A (ja) * 2021-09-30 2023-04-11 株式会社トプコン 測量システム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012202063A (ja) * 2011-03-24 2012-10-22 Komatsu Ltd 油圧ショベルの較正装置及び油圧ショベルの較正方法
JP2012233353A (ja) * 2011-05-02 2012-11-29 Komatsu Ltd 油圧ショベルの較正システム及び油圧ショベルの較正方法
JP2012255286A (ja) * 2011-06-08 2012-12-27 Topcon Corp 建設機械制御システム
JP2013036243A (ja) * 2011-08-09 2013-02-21 Topcon Corp 建設機械制御システム
WO2016031009A1 (ja) * 2014-08-28 2016-03-03 国立大学法人東京大学 作業車両の表示システム、表示制御装置、作業車両、及び表示制御方法
JP2017215240A (ja) * 2016-06-01 2017-12-07 株式会社トプコン 測定装置及び測量システム
WO2018020954A1 (ja) * 2016-07-29 2018-02-01 株式会社日立製作所 機械学習用データベース作成システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4727068B2 (ja) * 2001-05-29 2011-07-20 株式会社トプコン 施工監視システム、施工管理方法
EP1452651A1 (en) * 2001-06-20 2004-09-01 Hitachi Construction Machinery Co., Ltd. Remote control system and remote setting system of construction machinery
KR100916638B1 (ko) * 2007-08-02 2009-09-08 인하대학교 산학협력단 구조광을 이용한 토공량 산출 장치 및 방법
CN102448681B (zh) * 2009-12-28 2014-09-10 松下电器产业株式会社 动作空间提示装置、动作空间提示方法以及程序
JP5550970B2 (ja) * 2010-04-12 2014-07-16 住友重機械工業株式会社 画像生成装置及び操作支援システム
US9113047B2 (en) * 2010-10-22 2015-08-18 Hitachi Construction Machinery Co., Ltd. Peripheral monitoring device for working machine
EP3235773B8 (en) * 2012-09-21 2023-09-20 Tadano Ltd. Surrounding information-obtaining device for working vehicle
WO2014110502A1 (en) * 2013-01-11 2014-07-17 The Regents Of The University Of Michigan Monitoring proximity of objects at construction jobsites via three-dimensional virtuality in real-time
US9013286B2 (en) * 2013-09-23 2015-04-21 Volkswagen Ag Driver assistance system for displaying surroundings of a vehicle
CN107655461B (zh) * 2014-05-05 2020-07-24 赫克斯冈技术中心 测量子系统和测量系统
US9639958B2 (en) * 2015-03-19 2017-05-02 Caterpillar Inc. Synthetic colorization of real-time immersive environments
JP6496182B2 (ja) * 2015-04-28 2019-04-03 株式会社小松製作所 施工計画システム
US9824490B1 (en) * 2015-06-08 2017-11-21 Bentley Systems, Incorporated Augmentation of a dynamic terrain surface
JP6581139B2 (ja) * 2017-03-31 2019-09-25 日立建機株式会社 作業機械の周囲監視装置
EP3617410A4 (en) * 2017-04-26 2020-06-24 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. SHOVEL, SHOVEL MANAGEMENT DEVICE AND AUXILIARY DEVICE FOR SHOVEL MANAGEMENT
CN111344460B (zh) * 2017-12-04 2022-04-26 住友重机械工业株式会社 周边监视装置
EP3733977B1 (en) * 2017-12-27 2023-11-22 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. Shovel

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012202063A (ja) * 2011-03-24 2012-10-22 Komatsu Ltd 油圧ショベルの較正装置及び油圧ショベルの較正方法
JP2012233353A (ja) * 2011-05-02 2012-11-29 Komatsu Ltd 油圧ショベルの較正システム及び油圧ショベルの較正方法
JP2012255286A (ja) * 2011-06-08 2012-12-27 Topcon Corp 建設機械制御システム
JP2013036243A (ja) * 2011-08-09 2013-02-21 Topcon Corp 建設機械制御システム
WO2016031009A1 (ja) * 2014-08-28 2016-03-03 国立大学法人東京大学 作業車両の表示システム、表示制御装置、作業車両、及び表示制御方法
JP2017215240A (ja) * 2016-06-01 2017-12-07 株式会社トプコン 測定装置及び測量システム
WO2018020954A1 (ja) * 2016-07-29 2018-02-01 株式会社日立製作所 機械学習用データベース作成システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7076114B1 (ja) 2021-05-14 2022-05-27 学校法人 芝浦工業大学 作業支援システムおよび、作業支援方法
JP2022175988A (ja) * 2021-05-14 2022-11-25 学校法人 芝浦工業大学 作業支援システムおよび、作業支援方法
JP2022176119A (ja) * 2021-05-14 2022-11-25 学校法人 芝浦工業大学 作業支援システムおよび、作業支援方法
JP7244036B2 (ja) 2021-05-14 2023-03-22 学校法人 芝浦工業大学 作業支援システムおよび、作業支援方法

Also Published As

Publication number Publication date
CA3075426C (en) 2021-07-20
US20210214922A1 (en) 2021-07-15
JP7232437B2 (ja) 2023-03-03
CN111149355B (zh) 2022-04-22
CA3075426A1 (en) 2019-08-22
CN111149355A (zh) 2020-05-12
US11377824B2 (en) 2022-07-05
AU2019222009A1 (en) 2020-02-27
AU2019222009B2 (en) 2020-12-24
WO2019159687A1 (ja) 2019-08-22

Similar Documents

Publication Publication Date Title
WO2019159687A1 (ja) 作業車両の表示システム及び生成方法
JP4671317B2 (ja) 地形形状計測装置およびガイダンス装置
US9378554B2 (en) Real-time range map generation
US9449397B2 (en) Real-time visual odometry system for determining motion of a machine with a range detection unit
US9678210B2 (en) Error estimation in real-time visual odometry system
US20170050566A1 (en) Display system for work vehicle, display control device, work vehicle, and display control method
JP7365122B2 (ja) 画像処理システムおよび画像処理方法
JPWO2017119517A1 (ja) 作業機械の制御システム、作業機械、作業機械の制御方法、及びナビゲーションコントローラ
JP6867132B2 (ja) 作業機械の検出処理装置及び作業機械の検出処理方法
JP7203616B2 (ja) 作業機械
US10787127B2 (en) Display system for work vehicle
US20240028042A1 (en) Visual overlays for providing perception of depth
JP2018112051A (ja) 作業機械の制御システム、作業機械、作業機械の制御方法及びナビゲーションコントローラ
US20210388580A1 (en) System and method for work machine
US20210404151A1 (en) System and method for work machine
Borthwick Mining haul truck pose estimation and load profiling using stereo vision
JP7160701B2 (ja) 作業機械のシステム及び方法
US20230340755A1 (en) Continuous calibration of grade control system
US20220299318A1 (en) Surveying system, surveying method, and storage medium storing surveying program
US11908076B2 (en) Display system and display method
WO2020153292A1 (ja) 作業機械のシステム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230209

R150 Certificate of patent or registration of utility model

Ref document number: 7232437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150