WO2020003631A1 - 表示制御装置、および表示制御方法 - Google Patents
表示制御装置、および表示制御方法 Download PDFInfo
- Publication number
- WO2020003631A1 WO2020003631A1 PCT/JP2019/010088 JP2019010088W WO2020003631A1 WO 2020003631 A1 WO2020003631 A1 WO 2020003631A1 JP 2019010088 W JP2019010088 W JP 2019010088W WO 2020003631 A1 WO2020003631 A1 WO 2020003631A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- bucket
- image
- work machine
- unit
- display control
- Prior art date
Links
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/20—Drives; Control devices
- E02F9/2025—Particular purposes of control systems not otherwise provided for
- E02F9/205—Remotely operated machines, e.g. unmanned vehicles
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/26—Indicating devices
-
- E—FIXED CONSTRUCTIONS
- E02—HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
- E02F—DREDGING; SOIL-SHIFTING
- E02F9/00—Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
- E02F9/26—Indicating devices
- E02F9/264—Sensors and their calibration for indicating the position of the work tool
- E02F9/265—Sensors and their calibration for indicating the position of the work tool with follow-up actions (e.g. control signals sent to actuate the work tool)
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/363—Image reproducers using image projection screens
Definitions
- the work machine 130 includes a boom 131, an arm 132, and a bucket 133.
- the work machine 130 is driven by the expansion and contraction of the boom cylinder 134, the arm cylinder 135, and the bucket cylinder 136.
- a boom angle sensor 137, an arm angle sensor 138, and a bucket angle sensor 139 are mounted on the boom 131, the arm 132, and the bucket 133, respectively.
- the position and orientation calculator 123 calculates the position of the revolving superstructure 120 and the direction in which the revolving superstructure 120 faces.
- the position and orientation calculator 123 includes two receivers that receive positioning signals from artificial satellites that make up the GNSS. The two receivers are installed at different positions of the revolving superstructure 120, respectively.
- the position and orientation calculator 123 detects the position of the representative point (the origin of the shovel coordinate system) of the revolving body 120 in the on-site coordinate system based on the positioning signal received by the receiver. Using the positioning signals received by the two receivers, the position / azimuth calculator 123 calculates the azimuth of the revolving unit 120 as the relationship between the installation position of one receiver and the installation position of the other receiver.
- the position and orientation calculator 123 may detect the orientation of the revolving superstructure 120 based on the measurement value of the rotary encoder or the IMU.
- the control device 127 includes an image captured by the imaging device 122, a turning speed, a position, an azimuth, and an inclination angle of the revolving unit 120, an inclination angle of the boom 131, the arm 132, and the bucket 133, a traveling speed of the traveling unit 110, and a depth detection device. 126 transmits the detected depth information to the remote cab 500.
- the position and orientation of the cutting edge of the bucket 133 can be calculated using the turning speed, position, azimuth, and inclination angle of the revolving unit 120, and the inclination angles of the boom 131, the arm 132, and the bucket 133.
- the position and orientation of the cutting edge of the bucket 133 are also referred to as bucket attitude information indicating the attitude of the bucket 133.
- information such as the turning speed, the position, the azimuth, and the inclination angle of the revolving body 120, the boom 131, the arm 132, and the inclination angle of the bucket 133 used for calculating the position and orientation of the cutting edge of the bucket 133 are also examples of the bucket posture information. It is. That is, the position / azimuth calculator 123, the tilt measuring device 124, the boom angle sensor 137, the arm angle sensor 138, and the bucket angle sensor 139 are examples of a posture detecting device.
- the operation device 530 is an operation device for a remote operation system.
- the operating device 530 is operated by the operator to operate the boom cylinder 134, the arm cylinder 135, the bucket cylinder 136, the swinging body 120 to turn left and right, and the traveling body 110 to move forward and backward. And outputs it to the control device 540.
- the operating device 530 includes, for example, a lever, a knob switch, and a pedal (not shown).
- the operation device 530 is arranged near the driver's seat 510.
- the operating device 530 is located within an operable range of the operator when the operator sits in the driver's seat 510.
- the work implement attitude specifying unit 5104 determines the relative angle of the boom 131 with respect to the revolving unit 120, the relative angle of the arm 132 with respect to the boom 131, and the relative angle with respect to the arm 132 based on the cylinder length and the known dimensions.
- the posture of the work implement 130 may be specified by calculating the relative angle of the bucket 133.
- the occupied area specifying unit 5108 specifies an area (occupied area) occupied by the work machine 130 in the captured image based on the posture of the work machine 130 specified by the work machine posture specifying unit 5104. For example, based on the coordinates and the absolute angle of the tip of the boom 131, the arm 132, and the bucket 133 specified by the work implement posture specifying unit 5104, the occupied area specifying unit 5108 may use the known boom 131, arm 132, and bucket 133 in the virtual space. Is arranged.
- the occupation region specifying unit 5108 obtains a work machine image by rendering the three-dimensional shape of the boom 131, the arm 132, and the bucket 133 based on the parameters of the rendering camera C.
- the occupation area specifying unit 5108 specifies an area where the boom 131, the arm 132, and the bucket 133 appear in the obtained work implement image as an occupation area.
- the depth image generation unit 5107 planarly projects the grid texture T onto the three-dimensional map M from vertically above (step S11).
- the depth image generation unit 5107 generates a depth image by rendering the three-dimensional map M on which the grid texture T is projected based on the parameters of the rendering camera C determined in step S8 (step S12).
- the occupied area complementing unit 5113 is configured based on the coordinates and the absolute angle of the tip of the boom 131, the arm 132, and the bucket 133 specified by the work implement posture specifying unit 5104, and the shape of the construction target indicated by the depth information after the coordinate conversion into the virtual space. Then, the known three-dimensional shapes of the boom 131, the arm 132, and the bucket 133 are arranged (step S57).
- the occupation area complementing unit 5113 specifies an occupation area that is a shadow of the work machine 130 in the construction target shape by ray tracing centering on the rendering camera C determined in step S56.
- the occupation area complementing unit 5113 removes a portion related to the occupation area from the depth information (Step S58).
- the occupation region complementing unit 5113 complements the portion relating to the occupation region in the depth information from which the portion relating to the occupation region has been removed (step S59).
- the depth image generation unit 5107 planarly projects the grid texture T onto the construction target represented by the depth information from above vertically (step S62).
- the depth image generation unit 5107 generates a depth image by rendering the construction target shape on which the grid texture T is projected based on the parameters of the rendering camera C determined in step S56 (step S63).
- the control device 540 separately generates the blade edge position image and the depth image, but is not limited thereto.
- the control device 540 renders the three-dimensional map M or the depth information on which the grid texture T is projected and the cutting edge position graphic F together, so that the grid texture T and the cutting edge position graphic F May be generated.
- the control device 540 according to another embodiment superimposes the blade position image and the depth image on the captured image, but is not limited thereto.
- the control device 540 according to another embodiment may superimpose only one of the blade position image and the depth image on the captured image.
- the cutting edge position image is an example of a depth image generated based on the three-dimensional map M, and is therefore an example of a depth image.
- the cutting edge position graphic F does not necessarily include all of the downward projection line F1, the downward extension line F2, the downward auxiliary line F3, the forward projection line F4, the forward extension line F5, and the forward auxiliary line F6. You may. Further, the cutting edge position graphic F according to another embodiment may be another graphic.
- the cutting edge position graphic F may be another graphic such as a bucket shadow graphic that projects the shape of the bucket 133 or a cutting edge center plot that projects the center point of the cutting edge of the bucket 133.
- a bucket shadow figure in which the shape of the bucket 133 is projected on the ground surface and a blade center plot in which the center point of the blade edge of the bucket 133 is projected on the ground surface are both examples of the ground surface projected figure.
- the bucket shadow figure in which the shape of the bucket 133 is projected on the digging surface and the cutting edge center plot in which the center point of the cutting edge of the bucket 133 is projected on the digging plane are both examples of the forward projection figure.
Landscapes
- Engineering & Computer Science (AREA)
- Mining & Mineral Resources (AREA)
- Civil Engineering (AREA)
- General Engineering & Computer Science (AREA)
- Structural Engineering (AREA)
- Computer Hardware Design (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Component Parts Of Construction Machinery (AREA)
- Operation Control Of Excavators (AREA)
- Controls And Circuits For Display Device (AREA)
- Materials For Photolithography (AREA)
Abstract
Description
本願は、2018年6月29日に日本に出願された特願2018-125426号について優先権を主張し、その内容をここに援用する。
本発明の目的は、上述した課題を解決する表示制御装置、および表示制御方法を提供することにある。
《作業システム》
図1は、第1の実施形態に係る遠隔操作システムの構成を示す概略図である。
作業システム1は、作業機械100と、遠隔運転室500とを備える。作業機械100は、作業現場(例えば、鉱山、採石場)で稼働する。遠隔運転室500は、作業現場から離れた地点(例えば、市街、作業現場内)に設けられる。つまり、オペレータは、作業機械100を視認できない距離から、当該作業機械100を遠隔操作する。
図2は、第1の実施形態に係る作業機械の外観図である。
第1の実施形態に係る作業機械100は、ローディングショベル(フェイスショベル)である。なお、他の実施形態に係る作業機械100は、ホイールローダやブルドーザなどの、刃先が前方を向くバケットを有する他の作業機械であってもよい。
作業機械100は、走行体110と、走行体110に支持される旋回体120と、油圧により作動し旋回体120に支持される作業機130とを備える。旋回体120は旋回中心O(図5を参照)を中心として旋回自在に支持される。作業機130は、旋回体120の前部に設けられる。
アーム132は、ブーム131とバケット133とを連結する。アーム132の基端部は、ブーム131の先端部にピンを介して取り付けられる。
バケット133は、土砂などを掘削するための刃と掘削した土砂を収容するための容器とを備える。バケット133の基端部は、アーム132の先端部にピンを介して取り付けられる。
アームシリンダ135は、アーム132を駆動するための油圧シリンダである。アームシリンダ135の基端部は、ブーム131に取り付けられる。アームシリンダ135の先端部は、アーム132に取り付けられる。
バケットシリンダ136は、バケット133を駆動するための油圧シリンダである。バケットシリンダ136の基端部は、ブーム131に取り付けられる。バケットシリンダ136の先端部は、バケット133に取り付けられる。
アーム角度センサ138は、アーム132に取り付けられ、アーム132の傾斜角を検出する。
バケット角度センサ139は、バケット133に取り付けられ、バケット133の傾斜角を検出する。
第1の実施形態に係るブーム角度センサ137、アーム角度センサ138、およびバケット角度センサ139は、地平面に対する傾斜角を検出する。なお、他の実施形態に係る角度センサはこれに限られず、他の基準面に対する傾斜角を検出してもよい。例えば、他の実施形態においては、角度センサは、ブーム131、アーム132およびバケット133の基端部に設けられたポテンショメータによって相対回転角を検出してもよいし、ブームシリンダ134、アームシリンダ135およびバケットシリンダ136のシリンダ長さを計測し、シリンダ長さを角度に変換することで傾斜角を検出するものであってもよい。
旋回体120には、運転室121が備えられる。運転室121には、撮像装置122が設けられる。撮像装置122は、運転室121内の前部かつ上部に設置される。撮像装置122は、運転室121前部のフロントガラスを通して、運転室121の前方を撮像する。ここで、「前方」とは、旋回体120において作業機130が装着された方向をいい、「後方」は「前方」の逆方向をいう。「側方」とは、前後方向に対して交差する方向(左右方向)をいう。撮像装置122の例としては、例えばCCD(Charge Coupled Device)センサ、およびCMOS(Complementary Metal Oxide Semiconductor)センサを用いた撮像装置が挙げられる。なお、他の実施形態においては、撮像装置122は、必ずしも運転室121内に設けられなくてもよく、撮像装置122は、図3に示すように、少なくとも施工対象と作業機130とを撮像可能な位置に設けられていればよい。つまり、撮像装置122の撮像範囲R1には、少なくとも作業機130の一部が含まれる。
位置方位演算器123は、2つの受信器が受信した各測位信号を用いて、一方の受信器の設置位置に対する他方の受信器の設置位置の関係として、旋回体120の向く方位を演算する。
なお、他の実施形態においては、位置方位演算器123は、ロータリーエンコーダやIMUの計測値に基づいて旋回体120が向く方位を検出してもよい。
図3に示すように、深度検出装置126は、その検出範囲R2に作業機130が干渉しない位置に設けられる。深度検出装置126の例としては、例えば、LiDAR装置、レーダ装置、ステレオカメラなどが挙げられる。
また、以下、旋回体120の位置、方位および傾斜角を、旋回体120の姿勢を表す旋回体姿勢情報ともいう。
制御装置127は、遠隔運転室500から操作信号を受信する。制御装置127は、受信した操作信号に基づいて、作業機130、旋回体120、または走行体110を駆動させる。
遠隔運転室500は、運転席510、表示装置520、操作装置530、制御装置540を備える。
表示装置520は、運転席510の前方に配置される。表示装置520は、オペレータが運転席510に座ったときにオペレータの眼前に位置する。表示装置520は、並べられた複数のディスプレイによって構成されてもよいし、図1に示すように、1つの大きなディスプレイによって構成されてもよい。また、表示装置520は、プロジェクタ等によって曲面や球面に画像を投影するものであってもよい。
操作装置530は、運転席510の近傍に配置される。操作装置530は、オペレータが運転席510に座ったときにオペレータの操作可能な範囲内に位置する。
制御装置540は、プロセッサ5100、メインメモリ5200、ストレージ5300、インタフェース5400を備えるコンピュータである。ストレージ5300は、プログラムを記憶する。プロセッサ5100は、プログラムをストレージ5300から読み出してメインメモリ5200に展開し、プログラムに従った処理を実行する。制御装置540は、インタフェース5400を介してネットワークに接続される。
マップ記憶部5201は、施工対象の三次元形状を示す三次元マップを記憶する。三次元マップにおいて、施工対象の座標は、現場座標系で表される。三次元マップは、地形情報の一例である。
なお、他の実施形態において、作業機姿勢特定部5104は、シリンダ長さと既知の寸法とに基づいて、旋回体120に対するブーム131の相対角度、ブーム131に対するアーム132の相対角度、およびアーム132に対するバケット133の相対角度を算出して作業機130の姿勢を特定してもよい。
図5は、仮想空間における三次元マップとレンダリングカメラの関係の例を示す図である。
撮像範囲特定部5105は、特定した撮像範囲に基づいて、三次元形状をレンダリングするためのレンダリングカメラCのパラメータを決定する。レンダリングカメラCは、現場座標系で表される仮想空間に配置された三次元形状から二次元画像を描画するための視点を示す仮想的なカメラである。
下方投影線F1および下方延長線F2は、バケット133の刃先を施工対象の地表面に鉛直方向に投影した点を表す地表投影図形の一例である。前方投影線F4および前方延長線F5は、バケット133の刃先を施工対象の掘削面に水平方向に投影した点を表す前方投影図形の一例である。なお、他の実施形態に係る地表投影図形および前方投影図形は、例えば刃先の中心点を投影した点であってもよい。つまり、地表投影図形および前方投影図形は、必ずしも線でなくてもよい。
刃先位置図形生成部5106は、撮像範囲特定部5105が決定したレンダリングカメラCのパラメータに基づいて、刃先位置図形Fをレンダリングすることで、刃先位置画像を得る。刃先位置画像は投影画像の一例である。刃先位置図形生成部5106は、投影画像生成部の一例である。
表示画像生成部5109は、受信した撮像画像と深度画像と刃先位置画像とを合成することで、表示装置520に表示するための表示画像を生成する。具体的には、表示画像生成部5109は、以下の手順で表示画像を生成する。表示画像生成部5109は、深度画像のうち占有領域に係る部分を削除する。また、表示画像生成部5109は、刃先位置画像のうち占有領域に係る部分を、他の部分と異なる態様に変形する。例えば、表示画像生成部5109は、刃先位置画像のうち占有領域に係る部分の線種、色、透明度を、他の部分と異ならせる。表示画像生成部5109は、検出情報取得部5101が受信した撮像画像に、占有領域に係る部分を削除した深度画像および占有領域に係る部分の態様を異ならせた刃先位置画像を合成することで、表示画像を生成する。図6に示すように、表示画像には、作業機130および施工対象と、格子テクスチャTおよび刃先位置図形Fとが写っている。
刃先位置画像および深度画像のうち占有領域に係る部分が削除されることにより、表示画面において作業機130に対応する部分には格子テクスチャTおよび刃先位置図形Fが表示されない。これにより、表示装置520は、作業者にとって見やすい画面を表示することができる。
操作信号出力部5112は、操作信号入力部5111に入力された操作信号を作業機械100に出力する。
図7は、第1の実施形態に係る遠隔運転室の制御装置による表示制御処理を示すフローチャートである。
遠隔運転室500による作業機械100の遠隔運転を開始すると、制御装置540は、一定時間ごとに、図7に示す表示制御処理を実行する。
検出情報取得部5101は、作業機械100の制御装置127から、撮像装置122が撮像した画像、旋回体120の位置、方位および傾斜角、ブーム131、アーム132およびバケット133の傾斜角、走行体110の走行速度、ならびに深度検出装置126が検出した深度情報を受信する(ステップS1)。次に、座標変換部5102は、受信した旋回体120の位置、方位および傾斜角に基づいて、深度検出装置126の現場座標系における位置、光軸が向く方位、および光軸の傾斜角を特定する(ステップS2)。深度検出装置126は、旋回体120の規定の箇所に固定されているため、座標変換部5102は所定のオフセットおよび回転の計算により、旋回体120の姿勢に基づいて深度検出装置126の姿勢を特定することができる。座標変換部5102は、深度検出装置126の現場座標系における位置、光軸が向く方位、および光軸の傾斜角に基づいて、受信した深度情報の座標系を現場座標系に変換する(ステップS3)。
次に、表示画像生成部5109は、検出情報取得部5101が受信した撮像画像に、占有領域に係る部分を削除した深度画像と、占有領域に係る部分の態様を異ならせた刃先位置画像とを合成することで、表示画像を生成する(ステップS17)。そして、表示制御部5110は、表示画像を表示するための表示信号を表示装置520に出力する(ステップS18)。
これにより、表示装置520には、図6に示すような表示画像が表示される。
このように、第1の実施形態によれば、制御装置540は、バケット姿勢情報および三次元マップMに基づいて、バケット133の刃先を施工対象に投影した点を表す刃先位置画像を生成し、撮像画像のうち少なくとも作業機130が写る個所に刃先位置画像を重畳して表示するための表示信号を出力する。これにより、オペレータは、バケット133の影となる部分の刃先位置を容易に認識することができる。
第1の実施形態に係る作業システム1は、異なるタイミングに得られた複数の深度情報に基づいて生成された三次元マップMに基づいて刃先位置画像を生成する。これに対し、第2の実施形態に係る作業システム1は、深度情報の瞬時データに基づいて刃先位置画像を生成する。
図8は、第2の実施形態に係る作業機械の外観図である。
第2の実施形態に係る作業機械100の深度検出装置126は、運転室121内に、撮像装置122と並んで設けられる。そのため、深度検出装置126の検出範囲R2は、撮像装置122の撮像範囲R1と略同一となる。つまり、深度検出装置126は、検出範囲R2にバケット133が干渉する箇所に設けられる。
図9は、第2の実施形態に係る遠隔運転室の制御装置の構成を示す概略ブロック図である。
第2の実施形態に係る遠隔運転室500の制御装置540は、第1の実施形態のマップ生成部5103および占有領域特定部5108を備えず、占有領域補完部5113を備える。占有領域補完部5113は、深度情報のうち占有領域に係る部分を除去し、占有領域の周辺の情報に基づいて、占有領域に係る部分を補完する。例えば、占有領域補完部5113は深度情報のうち、占有領域を除去した深度情報に係る点群に基づいて、除去された領域にポリゴンを貼ることで、深度情報の占有領域に係る部分を補完することができる。
図10は、第2の実施形態に係る遠隔運転室の制御装置による表示制御処理を示すフローチャートである。
遠隔運転室500による作業機械100の遠隔運転を開始すると、制御装置540は、一定時間ごとに、図10に示す表示制御処理を実行する。
検出情報取得部5101は、作業機械100の制御装置127から、撮像装置122が撮像した画像、旋回体120の位置、方位および傾斜角、ブーム131、アーム132およびバケット133の傾斜角、走行体110の走行速度、ならびに深度検出装置126が検出した深度情報を受信する(ステップS51)。次に、座標変換部5102は、受信した旋回体120の位置、方位および傾斜角に基づいて、深度検出装置126の現場座標系における位置、光軸が向く方位、および光軸の傾斜角を特定する(ステップS52)。座標変換部5102は、深度検出装置126の現場座標系における位置、光軸が向く方位、および光軸の傾斜角に基づいて、受信した深度情報の座標系を現場座標系に変換する(ステップS53)。
このように、第2の実施形態によれば、制御装置540は、バケット姿勢情報および深度情報に基づいて、バケット133の刃先を施工対象に投影した点を表す刃先位置画像を生成し、撮像画像のうち少なくとも作業機130が写る個所に刃先位置画像を重畳して表示するための表示信号を出力する。これにより、オペレータは、第1の実施形態と同様に、バケット133の影となる部分の刃先位置を容易に認識することができる。
以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。
また、他の実施形態に係る制御装置540は、撮像画像に刃先位置画像と深度画像とを重ね合わせるが、これに限られない。例えば、他の実施形態に係る制御装置540は、撮像画像に刃先位置画像および深度画像の一方だけを重ね合わせてもよい。なお、刃先位置画像は、三次元マップMに基づいて生成された深度を表す画像であるため、深度画像の一例でもある。
なお、バケット133の形状を地表面に投影したバケット影図形、およびバケット133の刃先の中心点を地表面に投影した刃先中心プロットは、いずれも地表投影図形の一例である。また、バケット133の形状を掘削面に投影したバケット影図形、およびバケット133の刃先の中心点を掘削面に投影した刃先中心プロットは、いずれも前方投影図形の一例である。
Claims (6)
- 刃先が前方を向くバケットを備える作業機械の操作のために用いられる画像を表示させる表示制御装置であって、
前記作業機械の、前記バケットが撮像範囲に含まれる箇所に設けられた撮像装置が撮像した撮像画像を取得する撮像画像取得部と、
前記バケットの姿勢を表すバケット姿勢情報を取得する姿勢取得部と、
前記作業機械の施工対象の三次元形状を示す地形情報を取得する地形取得部と、
前記バケット姿勢情報および前記地形情報に基づいて、前記バケットの刃先を前記施工対象に投影した投影画像を生成する投影画像生成部と、
前記撮像画像のうち少なくとも前記バケットが写る個所に前記投影画像を重畳して表示するための表示信号を出力する表示制御部と
を備える表示制御装置。 - 前記表示制御部は、前記バケットが写る個所に重畳された前記投影画像と、前記バケットが写らない個所に重畳された前記投影画像とを異なる態様で表示する前記表示信号を出力する
請求項1に記載の表示制御装置。 - 前記地形取得部は、前記作業機械に設けられた深度検出装置が生成した深度情報を、前記地形情報として取得する
請求項1または請求項2に記載の表示制御装置。 - 前記バケットの影となる占有領域における深度情報を補完する占有領域補完部を備え、
前記深度検出装置は、検出範囲に前記バケットが干渉する箇所に設けられる
請求項3に記載の表示制御装置。 - 前記投影画像は、前記バケットの刃先を前記施工対象の掘削面に水平方向に投影した前方投影図形を含む
請求項1から請求項4の何れか1項に記載の表示制御装置。 - 刃先が前方を向くバケットを備える作業機械の操作のために用いられる画像を表示させる表示制御方法であって、
前記作業機械の、前記バケットが撮像範囲に含まれる箇所に設けられた撮像装置が撮像した撮像画像を取得するステップと、
前記バケットの姿勢を表すバケット姿勢情報を取得するステップと、
前記作業機械の施工対象の三次元形状を示す地形情報を取得するステップと、
前記バケット姿勢情報および前記地形情報に基づいて、前記バケットの刃先を前記施工対象に投影した投影画像を生成するステップと、
前記撮像画像のうち少なくとも前記バケットが写る個所に前記投影画像を重畳して表示するための表示信号を出力するステップと
を備える表示制御方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
AU2019292456A AU2019292456A1 (en) | 2018-06-29 | 2019-03-12 | Display control device and display control method |
US17/049,157 US11427988B2 (en) | 2018-06-29 | 2019-03-12 | Display control device and display control method |
AU2022209235A AU2022209235B2 (en) | 2018-06-29 | 2022-07-26 | Display control device and display control method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-125426 | 2018-06-29 | ||
JP2018125426A JP7285051B2 (ja) | 2018-06-29 | 2018-06-29 | 表示制御装置、および表示制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020003631A1 true WO2020003631A1 (ja) | 2020-01-02 |
Family
ID=68986917
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2019/010088 WO2020003631A1 (ja) | 2018-06-29 | 2019-03-12 | 表示制御装置、および表示制御方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11427988B2 (ja) |
JP (1) | JP7285051B2 (ja) |
AU (2) | AU2019292456A1 (ja) |
WO (1) | WO2020003631A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022070720A1 (ja) * | 2020-09-29 | 2022-04-07 | 株式会社小松製作所 | 表示制御装置及び表示方法 |
US20230035181A1 (en) * | 2021-07-28 | 2023-02-02 | Hyundai Doosan Infracore Co., Ltd. | System and method of controlling construction machinery |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7010072B2 (ja) * | 2018-03-09 | 2022-01-26 | 株式会社タダノ | 作業車両 |
JP7372029B2 (ja) * | 2018-06-29 | 2023-10-31 | 株式会社小松製作所 | 表示制御装置、表示制御システムおよび表示制御方法 |
JP7165638B2 (ja) * | 2019-09-25 | 2022-11-04 | 日立建機株式会社 | 作業機械 |
JP7366702B2 (ja) * | 2019-11-15 | 2023-10-23 | 株式会社熊谷組 | 合成距離画像の作成方法、土砂採取モニター用画像の作成方法、及び、合成距離画像の作成装置 |
JP7263287B2 (ja) * | 2020-03-26 | 2023-04-24 | 日立建機株式会社 | 作業機械 |
JP7536580B2 (ja) | 2020-09-29 | 2024-08-20 | 株式会社小松製作所 | 表示制御装置及び表示方法 |
CN112884710B (zh) * | 2021-01-19 | 2024-09-06 | 上海三一重机股份有限公司 | 作业机械的辅助影像生成方法、远程操控方法及其装置 |
JP2023120743A (ja) * | 2022-02-18 | 2023-08-30 | 日立建機株式会社 | 表示制御装置、及び遠隔操作装置 |
JP2023172301A (ja) * | 2022-05-23 | 2023-12-06 | 日立建機株式会社 | 遠隔制御システム、遠隔操作型作業機械システム、および作業情報表示制御方法 |
US20240018746A1 (en) * | 2022-07-12 | 2024-01-18 | Caterpillar Inc. | Industrial machine remote operation systems, and associated devices and methods |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5996702A (en) * | 1995-06-29 | 1999-12-07 | David Hall | System for monitoring movement of a vehicle tool |
JP2013113044A (ja) * | 2011-11-30 | 2013-06-10 | Sumitomo (Shi) Construction Machinery Co Ltd | 建設機械用モニタシステム |
JP2016160741A (ja) * | 2015-03-05 | 2016-09-05 | 株式会社小松製作所 | 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械 |
JP2018035645A (ja) * | 2016-09-02 | 2018-03-08 | 株式会社小松製作所 | 作業機械の画像表示システム |
WO2018043299A1 (ja) * | 2016-08-31 | 2018-03-08 | 株式会社小松製作所 | 作業機械の画像表示システム、作業機械の遠隔操作システム、作業機械及び作業機械の画像表示方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6782644B2 (en) * | 2001-06-20 | 2004-08-31 | Hitachi Construction Machinery Co., Ltd. | Remote control system and remote setting system for construction machinery |
WO2012053105A1 (ja) * | 2010-10-22 | 2012-04-26 | 日立建機株式会社 | 作業機械の周辺監視装置 |
WO2016157462A1 (ja) * | 2015-03-31 | 2016-10-06 | 株式会社小松製作所 | 作業機械の周辺監視装置 |
US9824490B1 (en) * | 2015-06-08 | 2017-11-21 | Bentley Systems, Incorporated | Augmentation of a dynamic terrain surface |
JP6271818B2 (ja) * | 2015-09-10 | 2018-01-31 | 富士フイルム株式会社 | 投写型表示装置及び投写制御方法 |
JP6353989B2 (ja) * | 2015-09-17 | 2018-07-04 | 富士フイルム株式会社 | 投写型表示装置及び投写制御方法 |
JP6582144B2 (ja) * | 2016-12-19 | 2019-09-25 | 富士フイルム株式会社 | 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム |
WO2018131241A1 (ja) * | 2017-01-10 | 2018-07-19 | 富士フイルム株式会社 | 投写型表示装置、投写型表示装置の制御方法、投写型表示装置の制御プログラム |
JP7330107B2 (ja) * | 2017-12-21 | 2023-08-21 | 住友建機株式会社 | ショベル及びショベルの管理システム |
CN111919001A (zh) * | 2018-03-20 | 2020-11-10 | 住友重机械工业株式会社 | 挖土机、信息处理装置、信息处理方法、程序 |
JP7087545B2 (ja) * | 2018-03-28 | 2022-06-21 | コベルコ建機株式会社 | 建設機械 |
CN112041510A (zh) * | 2018-06-19 | 2020-12-04 | 住友建机株式会社 | 挖掘机、信息处理装置 |
-
2018
- 2018-06-29 JP JP2018125426A patent/JP7285051B2/ja active Active
-
2019
- 2019-03-12 US US17/049,157 patent/US11427988B2/en active Active
- 2019-03-12 WO PCT/JP2019/010088 patent/WO2020003631A1/ja active Application Filing
- 2019-03-12 AU AU2019292456A patent/AU2019292456A1/en not_active Abandoned
-
2022
- 2022-07-26 AU AU2022209235A patent/AU2022209235B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5996702A (en) * | 1995-06-29 | 1999-12-07 | David Hall | System for monitoring movement of a vehicle tool |
JP2013113044A (ja) * | 2011-11-30 | 2013-06-10 | Sumitomo (Shi) Construction Machinery Co Ltd | 建設機械用モニタシステム |
JP2016160741A (ja) * | 2015-03-05 | 2016-09-05 | 株式会社小松製作所 | 作業機械の画像表示システム、作業機械の遠隔操作システム及び作業機械 |
WO2018043299A1 (ja) * | 2016-08-31 | 2018-03-08 | 株式会社小松製作所 | 作業機械の画像表示システム、作業機械の遠隔操作システム、作業機械及び作業機械の画像表示方法 |
JP2018035645A (ja) * | 2016-09-02 | 2018-03-08 | 株式会社小松製作所 | 作業機械の画像表示システム |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022070720A1 (ja) * | 2020-09-29 | 2022-04-07 | 株式会社小松製作所 | 表示制御装置及び表示方法 |
JP7436339B2 (ja) | 2020-09-29 | 2024-02-21 | 株式会社小松製作所 | 表示制御装置及び表示方法 |
US20230035181A1 (en) * | 2021-07-28 | 2023-02-02 | Hyundai Doosan Infracore Co., Ltd. | System and method of controlling construction machinery |
Also Published As
Publication number | Publication date |
---|---|
AU2019292456A1 (en) | 2020-11-19 |
US11427988B2 (en) | 2022-08-30 |
AU2022209235A1 (en) | 2022-08-18 |
US20210238828A1 (en) | 2021-08-05 |
JP2020002718A (ja) | 2020-01-09 |
JP7285051B2 (ja) | 2023-06-01 |
AU2022209235B2 (en) | 2024-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020003631A1 (ja) | 表示制御装置、および表示制御方法 | |
JP7080750B2 (ja) | 表示制御システム、遠隔操作システム、表示制御装置、および表示制御方法 | |
US11384515B2 (en) | Image display system for work machine, remote operation system for work machine, and work machine | |
WO2020241618A1 (ja) | マップ生成システム及びマップ生成方法 | |
JP7372029B2 (ja) | 表示制御装置、表示制御システムおよび表示制御方法 | |
JP7420733B2 (ja) | 表示制御システムおよび表示制御方法 | |
JP2016008484A (ja) | 建設機械 | |
JP2002328022A (ja) | 地形形状計測装置およびガイダンス装置 | |
JP2024052764A (ja) | 表示制御装置及び表示方法 | |
JP2022164713A (ja) | 作業機械の画像表示システム及び作業機械の画像表示方法 | |
WO2022070707A1 (ja) | 表示制御装置及び表示方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19826561 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2019292456 Country of ref document: AU Date of ref document: 20190312 Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19826561 Country of ref document: EP Kind code of ref document: A1 |