JP2019143995A - Construction machine position estimation device - Google Patents

Construction machine position estimation device Download PDF

Info

Publication number
JP2019143995A
JP2019143995A JP2018025649A JP2018025649A JP2019143995A JP 2019143995 A JP2019143995 A JP 2019143995A JP 2018025649 A JP2018025649 A JP 2018025649A JP 2018025649 A JP2018025649 A JP 2018025649A JP 2019143995 A JP2019143995 A JP 2019143995A
Authority
JP
Japan
Prior art keywords
camera
construction machine
unit
estimation device
reference point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018025649A
Other languages
Japanese (ja)
Other versions
JP6947659B2 (en
Inventor
昭 筒井
Akira Tsutsui
昭 筒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobelco Construction Machinery Co Ltd
Kobe Steel Ltd
Original Assignee
Kobelco Construction Machinery Co Ltd
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobelco Construction Machinery Co Ltd, Kobe Steel Ltd filed Critical Kobelco Construction Machinery Co Ltd
Priority to JP2018025649A priority Critical patent/JP6947659B2/en
Publication of JP2019143995A publication Critical patent/JP2019143995A/en
Application granted granted Critical
Publication of JP6947659B2 publication Critical patent/JP6947659B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Component Parts Of Construction Machinery (AREA)

Abstract

To make it possible to estimate a three-dimensional position of a construction machine without using a satellite positioning system.SOLUTION: A reference point acquisition unit 33 acquires three map reference points (Pm) in three-dimensional map information (M). A camera 35 is attached to an upper swing body 13 and acquires an image (Im) (distance image) including three existing reference points (Pr) corresponding to the three map reference points (Pm). A distance acquisition unit 41 acquires a distance (L) from each of the three existing reference points (Pr) to the camera 35 on the basis of the image (Im). A position calculation unit 43 calculates a position of a construction machine 1 with respect to the existing reference points (Pr) on the basis of the distance (L) calculated by the distance acquisition unit 41.SELECTED DRAWING: Figure 1

Description

本発明は、建設機械の三次元位置を推定する装置に関する。   The present invention relates to an apparatus for estimating a three-dimensional position of a construction machine.

例えば、特許文献1などに、衛星測位システム(同文献ではGPS(Global Positioning System))を用いて、建設機械の三次元位置を計測する技術が記載されている(同文献の段落0029、0030、および図1などを参照)。   For example, Patent Document 1 describes a technique for measuring the three-dimensional position of a construction machine using a satellite positioning system (GPS (Global Positioning System in the same document)) (paragraphs 0029 and 0030 of the document). And see FIG.

特開2009−42175号公報JP 2009-42175 A

しかし、通常、建設機械で用いられる衛星測位システムは高価である(具体例は後述)。   However, satellite positioning systems usually used in construction machines are expensive (specific examples will be described later).

そこで、本発明は、衛星測位システムを用いなくても、建設機械の三次元位置を推定できる、建設機械の位置推定装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a position estimation device for a construction machine that can estimate the three-dimensional position of the construction machine without using a satellite positioning system.

本発明の建設機械の位置推定装置は、前記建設機械の三次元位置を推定する。前記建設機械は、下部走行体と、前記下部走行体に対して旋回可能な上部旋回体と、を備える。建設機械の位置推定装置は、地図情報取得部と、基準点取得部と、カメラと、距離取得部と、位置計算部と、を備える。前記地図情報取得部は、三次元の地図情報を取得する。前記基準点取得部は、前記地図情報における3つの地図上基準点を取得する。前記カメラは、前記上部旋回体に取り付けられ、3つの前記地図上基準点に対応する3つの実在基準点を含む距離画像を取得する。前記距離取得部は、前記距離画像に基づいて、3つの前記実在基準点のそれぞれから前記カメラまでの距離を取得する。前記位置計算部は、前記距離取得部により計算された距離に基づいて、前記実在基準点に対する前記建設機械の位置を計算する。   The construction machine position estimation apparatus of the present invention estimates the three-dimensional position of the construction machine. The construction machine includes a lower traveling body and an upper revolving body that can pivot with respect to the lower traveling body. A position estimation device for a construction machine includes a map information acquisition unit, a reference point acquisition unit, a camera, a distance acquisition unit, and a position calculation unit. The map information acquisition unit acquires three-dimensional map information. The reference point acquisition unit acquires three reference points on the map in the map information. The camera is attached to the upper swing body, and acquires a distance image including three real reference points corresponding to the three reference points on the map. The distance acquisition unit acquires a distance from each of the three real reference points to the camera based on the distance image. The position calculation unit calculates the position of the construction machine with respect to the actual reference point based on the distance calculated by the distance acquisition unit.

上記構成により、衛星測位システムを用いなくても、建設機械の三次元位置を推定できる。   With the above configuration, the three-dimensional position of the construction machine can be estimated without using a satellite positioning system.

建設機械1の位置推定装置20を示す図である。It is a figure which shows the position estimation apparatus 20 of the construction machine 1. FIG. 図1に示す位置推定装置20が取得する地図情報を示す図である。It is a figure which shows the map information which the position estimation apparatus 20 shown in FIG. 1 acquires. 図1に示すカメラ35が撮影した画像を示す図である。It is a figure which shows the image which the camera 35 shown in FIG. 1 image | photographed. 図1に示す位置推定装置20の作動のフローチャートである。It is a flowchart of an action | operation of the position estimation apparatus 20 shown in FIG. 図4に示すステップS30の制御のフローチャートである。It is a flowchart of control of step S30 shown in FIG. 図1に示す建設機械1などを上から見た図である。It is the figure which looked at the construction machine 1 etc. which are shown in FIG. 1 from the top. 図1に示す建設機械1などを上から見た図である。It is the figure which looked at the construction machine 1 etc. which are shown in FIG. 1 from the top. 図7に示す建設機械1が地面に対して回転した状態を示す図7相当図である。FIG. 8 is a view corresponding to FIG. 7 illustrating a state in which the construction machine 1 illustrated in FIG. 7 is rotated with respect to the ground.

図1〜図8を参照して、図1に示す建設機械1の位置推定装置20について説明する。   With reference to FIGS. 1-8, the position estimation apparatus 20 of the construction machine 1 shown in FIG. 1 is demonstrated.

建設機械1は、建設作業などの作業を行う機械である。建設機械1は、例えばショベルである。建設機械1は、下部走行体11と、上部旋回体13と、アタッチメント15と、を備える。下部走行体11は、建設機械1を走行させる部分である。下部走行体11は、左右のクローラを備える(図6参照)。上部旋回体13は、下部走行体11よりも上に配置され、下部走行体11に対して旋回可能である。   The construction machine 1 is a machine that performs work such as construction work. The construction machine 1 is, for example, an excavator. The construction machine 1 includes a lower traveling body 11, an upper swing body 13, and an attachment 15. The lower traveling body 11 is a part that causes the construction machine 1 to travel. The lower traveling body 11 includes left and right crawlers (see FIG. 6). The upper swing body 13 is disposed above the lower travel body 11 and can swing with respect to the lower travel body 11.

アタッチメント15は、上部旋回体13に取り付けられ、作業を行う部分である。アタッチメント15は、ブーム15aと、アーム15bと、バケット15cと、を備える。ブーム15aは、上部旋回体13に回転可能に取り付けられる。アーム15bは、ブーム15aに回転可能に取り付けられる。バケット15c(先端アタッチメント)は、アーム15bに回転可能に取り付けられる。アタッチメント15の先端部を、アタッチメント先端部15tとする。アタッチメント先端部15tは、例えば、バケット15cの先端の刃先などである。   The attachment 15 is a part that is attached to the upper swing body 13 and performs work. The attachment 15 includes a boom 15a, an arm 15b, and a bucket 15c. The boom 15 a is rotatably attached to the upper swing body 13. The arm 15b is rotatably attached to the boom 15a. The bucket 15c (tip attachment) is rotatably attached to the arm 15b. Let the front-end | tip part of the attachment 15 be the attachment front-end | tip part 15t. The attachment tip 15t is, for example, a cutting edge at the tip of the bucket 15c.

位置推定装置20は、建設機械1の三次元位置を計算(推定)する。以下では、三次元位置を単に「位置」ともいう。位置推定装置20は、例えばアタッチメント15の位置を計算し、例えばアタッチメント先端部15tの位置を計算する。位置推定装置20は、地図情報取得部31と、基準点取得部33と、カメラ35と、カメラ回動部37と、演算部40と、検出部50と、を備える。   The position estimation device 20 calculates (estimates) the three-dimensional position of the construction machine 1. Hereinafter, the three-dimensional position is also simply referred to as “position”. The position estimation device 20 calculates the position of the attachment 15, for example, and calculates the position of the attachment tip 15t, for example. The position estimation device 20 includes a map information acquisition unit 31, a reference point acquisition unit 33, a camera 35, a camera rotation unit 37, a calculation unit 40, and a detection unit 50.

地図情報取得部31は、三次元の地図情報Mを取得する。地図情報取得部31は、ドローンなどを用いた空撮によって地図情報Mを取得するものでもよく、予め記憶装置などに記憶された既知の地図情報Mを取得するものでもよい。地図情報Mは、建設機械1が作業を行う現場(施工現場)の情報を含む、電子地図である。図2に、地図情報Mの一例を示す。なお、図2の下部に示す地図情報Maは、施工現場などを上から見た状態に相当する情報である。図2の上部に示す地図情報Mbは、地図情報Ma内に示す矢印V1の向きに建物などを見た状態に相当する情報である。   The map information acquisition unit 31 acquires three-dimensional map information M. The map information acquisition unit 31 may acquire the map information M by aerial photography using a drone or the like, or may acquire known map information M stored in advance in a storage device or the like. The map information M is an electronic map including information on a site (construction site) where the construction machine 1 performs work. FIG. 2 shows an example of the map information M. Note that the map information Ma shown in the lower part of FIG. 2 is information corresponding to a state where the construction site is viewed from above. The map information Mb shown in the upper part of FIG. 2 is information corresponding to a state where a building or the like is seen in the direction of the arrow V1 shown in the map information Ma.

基準点取得部33(図1参照)は、3つの地図上基準点Pm(Pm1、Pm2、およびPm3)を取得する。地図上基準点Pmは、地図情報Mにおける基準点である。地図上基準点Pmの位置(座標)は、既知である。基準点取得部33は、少なくとも3つの地図上基準点Pmを取得し、4つ以上の地図上基準点Pmを取得してもよい。以下では、地図上基準点Pmの数が3の場合について説明する。図1に示す基準点取得部33は、例えば、操作者に操作されることで地図上基準点Pmを取得するものでもよく、具体的には、タッチパネルの操作やカーソルの操作などにより地図上基準点Pmを取得するものでもよい。例えば、基準点取得部33は、予め記憶装置などに記憶された地図上基準点Pmを取得するものでもよい。地図上基準点Pm(Pm1、Pm2、およびPm3)に対応する、実在の基準点を、実在基準点Pr(Pr1、Pr2、およびPr3)とする。   The reference point acquisition unit 33 (see FIG. 1) acquires three map reference points Pm (Pm1, Pm2, and Pm3). The reference point Pm on the map is a reference point in the map information M. The position (coordinates) of the reference point Pm on the map is known. The reference point acquisition unit 33 may acquire at least three on-map reference points Pm and may acquire four or more on-map reference points Pm. Hereinafter, a case where the number of reference points Pm on the map is 3 will be described. The reference point acquisition unit 33 illustrated in FIG. 1 may acquire the reference point Pm on the map by being operated by an operator, for example, specifically, the reference point on the map by operating the touch panel or operating the cursor. The point Pm may be acquired. For example, the reference point acquisition unit 33 may acquire a map reference point Pm stored in advance in a storage device or the like. The actual reference points Pr (Pr1, Pr2, and Pr3) corresponding to the reference points Pm (Pm1, Pm2, and Pm3) on the map are set as the actual reference points Pr (Pr1, Pr2, and Pr3).

カメラ35は、図3に示すように、3つの実在基準点Prを含む画像Im(距離画像)を取得する。画像Imは、3つの実在基準点Prのそれぞれからカメラ35までの距離L(図6参照)の情報を含む。カメラ35は、例えばステレオカメラでもよく、例えば距離の情報を取得可能な単眼カメラでもよく、例えばTOF(Time of Flight)カメラなどでもよい。図1に示すように、カメラ35は、上部旋回体13に取り付けられる。   As shown in FIG. 3, the camera 35 acquires an image Im (distance image) including three actual reference points Pr. The image Im includes information on the distance L (see FIG. 6) from each of the three real reference points Pr to the camera 35. The camera 35 may be a stereo camera, for example, a monocular camera capable of acquiring distance information, for example, a TOF (Time of Flight) camera, or the like. As shown in FIG. 1, the camera 35 is attached to the upper swing body 13.

カメラ回動部37は、上部旋回体13に対してカメラ35を回動させる。カメラ回動部37は、カメラ35を水平方向に(上下方向の回転軸回りに)回動させる。カメラ回動部37は、カメラ35を上下方向に(水平方向の回転軸回りに)回動させてもよい。   The camera rotation unit 37 rotates the camera 35 with respect to the upper swing body 13. The camera rotation unit 37 rotates the camera 35 in the horizontal direction (around the vertical rotation axis). The camera rotation unit 37 may rotate the camera 35 in the vertical direction (about the horizontal rotation axis).

演算部40は、信号の入出力、および演算などを行う。演算部40は、距離取得部41と、位置計算部43と、撮影範囲制御部45と、を備える。   The computing unit 40 performs signal input / output, computation, and the like. The calculation unit 40 includes a distance acquisition unit 41, a position calculation unit 43, and an imaging range control unit 45.

距離取得部41は、カメラ35に取得された画像Im(図3参照)に基づいて、3つの実在基準点Pr(図6参照)のそれぞれからカメラ35までの距離L(図6参照)を取得する。位置計算部43は、距離取得部41により取得された距離L(図6参照)に基づいて、実在基準点Pr(図6参照)に対する建設機械1の位置(相対位置)を計算する。撮影範囲制御部45は、3つの実在基準点Pr(図6参照)をカメラ35が撮影し続けるように、カメラ35の撮影範囲を制御する。撮影範囲制御部45は、建設機械1の作動に応じて、カメラ35の撮影範囲を制御する。距離取得部41、位置計算部43、および撮影範囲制御部45のそれぞれの機能の詳細は後述する。   The distance acquisition unit 41 acquires a distance L (see FIG. 6) from each of the three real reference points Pr (see FIG. 6) to the camera 35 based on the image Im (see FIG. 3) acquired by the camera 35. To do. The position calculation unit 43 calculates the position (relative position) of the construction machine 1 with respect to the actual reference point Pr (see FIG. 6) based on the distance L (see FIG. 6) acquired by the distance acquisition unit 41. The photographing range control unit 45 controls the photographing range of the camera 35 so that the camera 35 continues to photograph three real reference points Pr (see FIG. 6). The shooting range control unit 45 controls the shooting range of the camera 35 in accordance with the operation of the construction machine 1. Details of the functions of the distance acquisition unit 41, the position calculation unit 43, and the imaging range control unit 45 will be described later.

検出部50は、建設機械1の状態を検出する。検出部50は、回転検出部51と、アタッチメント姿勢検出部53と、を備える。なお、図1に示す並進情報取得部155については、後述する変形例1で説明する。   The detection unit 50 detects the state of the construction machine 1. The detection unit 50 includes a rotation detection unit 51 and an attachment posture detection unit 53. Note that the translation information acquisition unit 155 illustrated in FIG. 1 will be described in Modification 1 described later.

回転検出部51は、地面および下部走行体11の少なくともいずれかに対する、上部旋回体13の回転の情報を検出する。上記「回転の情報」は、角度、角速度、および角加速度の少なくともいずれかである。回転検出部51は、ジャイロセンサ51aと、旋回角度検出部51bと、を備える。ジャイロセンサ51aは、地面に対する上部旋回体13の角速度を検出する。ジャイロセンサ51aは、上部旋回体13のヨー角速度を検出する。ジャイロセンサ51aの検出値を時間で積分することにより、地面に対する上部旋回体13の角度が求められてもよい。旋回角度検出部51bは、下部走行体11に対する上部旋回体13の旋回角度を検出する。下部走行体11が地面に対して回転していない場合は、旋回角度検出部51bは、地面に対する上部旋回体13の回転の角度を検出する。旋回角度検出部51bの検出値を時間で微分することにより、下部走行体11に対する上部旋回体13の角速度が求められてもよい。例えば、旋回角度検出部51bは、上部旋回体13に設けられる角度センサ(エンコーダ)である。   The rotation detection unit 51 detects information about the rotation of the upper swing body 13 with respect to at least one of the ground and the lower traveling body 11. The “rotation information” is at least one of an angle, an angular velocity, and an angular acceleration. The rotation detection unit 51 includes a gyro sensor 51a and a turning angle detection unit 51b. The gyro sensor 51a detects the angular velocity of the upper swing body 13 with respect to the ground. The gyro sensor 51 a detects the yaw angular velocity of the upper swing body 13. The angle of the upper swing body 13 with respect to the ground may be obtained by integrating the detection value of the gyro sensor 51a with time. The turning angle detector 51 b detects the turning angle of the upper turning body 13 with respect to the lower traveling body 11. When the lower traveling body 11 is not rotating with respect to the ground, the turning angle detection unit 51b detects the angle of rotation of the upper turning body 13 with respect to the ground. The angular velocity of the upper turning body 13 with respect to the lower traveling body 11 may be obtained by differentiating the detection value of the turning angle detection unit 51b with time. For example, the turning angle detector 51 b is an angle sensor (encoder) provided in the upper turning body 13.

アタッチメント姿勢検出部53は、アタッチメント15の姿勢を検出する。アタッチメント姿勢検出部53は、ブーム角度検出部53aと、アーム角度検出部53bと、バケット角度検出部53cと、を備える。ブーム角度検出部53aは、上部旋回体13に対するブーム15aの回転角度(ブーム角度)を検出する。例えば、ブーム角度検出部53aは、角度センサ(エンコーダ)でもよい(アーム角度検出部53bおよびバケット角度検出部53cも同様)。例えば、ブーム角度検出部53aは、ブーム15aを駆動するシリンダ(図示なし)の伸縮量を検出することで、ブーム角度を検出してもよい。この場合、シリンダの伸縮量から、ブーム角度が算出される。シリンダの伸縮量を検出してもよい点は、アーム角度検出部53bおよびバケット角度検出部53cも同様である。アーム角度検出部53bは、ブーム15aに対するアーム15bの回転角度(アーム角度)を検出する。バケット角度検出部53c(先端アタッチメント角度検出部)は、アーム15bに対するバケット15cの回転角度(バケット角度)を検出する。   The attachment posture detection unit 53 detects the posture of the attachment 15. The attachment posture detection unit 53 includes a boom angle detection unit 53a, an arm angle detection unit 53b, and a bucket angle detection unit 53c. The boom angle detection unit 53a detects the rotation angle (boom angle) of the boom 15a relative to the upper swing body 13. For example, the boom angle detection unit 53a may be an angle sensor (encoder) (the same applies to the arm angle detection unit 53b and the bucket angle detection unit 53c). For example, the boom angle detection unit 53a may detect the boom angle by detecting the amount of expansion / contraction of a cylinder (not shown) that drives the boom 15a. In this case, the boom angle is calculated from the amount of expansion / contraction of the cylinder. The same applies to the arm angle detection unit 53b and the bucket angle detection unit 53c in that the amount of expansion / contraction of the cylinder may be detected. The arm angle detector 53b detects the rotation angle (arm angle) of the arm 15b with respect to the boom 15a. The bucket angle detection unit 53c (tip attachment angle detection unit) detects the rotation angle (bucket angle) of the bucket 15c with respect to the arm 15b.

(作動)
図4および図5に示すフローチャートを参照して、図1に示す位置推定装置20の作動(ステップS11〜S40)について説明する。上記の位置推定装置20の各構成要素については、主に図1を参照して説明する。
(Operation)
The operation (steps S11 to S40) of the position estimation device 20 shown in FIG. 1 will be described with reference to the flowcharts shown in FIGS. Each component of said position estimation apparatus 20 is mainly demonstrated with reference to FIG.

ステップS11(図4参照)では、図1に示す地図情報取得部31が、三次元の地図情報M(図2参照)を取得する。   In step S11 (see FIG. 4), the map information acquisition unit 31 shown in FIG. 1 acquires three-dimensional map information M (see FIG. 2).

ステップS13(図4参照)では、基準点取得部33が、地図情報Mにおける3つの地図上基準点Pm(Pm1、Pm2、およびPm3)(図2参照)を取得する。ここで、図6に示すように、地図上基準点Pm1の座標を(X1、Y1、Z1)、地図上基準点Pm2の座標を(X2、Y2、Z2)、地図上基準点Pm3の座標を(X3、Y3、Z3)とする。 In step S13 (see FIG. 4), the reference point acquisition unit 33 acquires three on-map reference points Pm (Pm1, Pm2, and Pm3) (see FIG. 2) in the map information M. Here, as shown in FIG. 6, the coordinates of the reference point Pm1 on the map are (X 1 , Y 1 , Z 1 ), the coordinates of the reference point Pm2 on the map are (X 2 , Y 2 , Z 2 ), The coordinates of the reference point Pm3 are (X 3 , Y 3 , Z 3 ).

地図上基準点Pmは、例えば次のように選択される。まず、図3に示す実在基準点Prが、後述するように選択される。そして、選択された実在基準点Prに対応する、図2に示す地図情報M上の位置が、地図上基準点Pmとして選択される。   The reference point Pm on the map is selected as follows, for example. First, the actual reference point Pr shown in FIG. 3 is selected as will be described later. Then, the position on the map information M shown in FIG. 2 corresponding to the selected real reference point Pr is selected as the map reference point Pm.

実在基準点Prは、次のように選択される。図3に示す実在基準点Prとして選択される位置は、画像Imから識別可能な位置である。具体的には例えば、実在基準点Prは、次のように選択される。[例A1]実在基準点Prとして選択される位置は、カメラ35で撮影可能な位置(画像Imに映る位置)である。例えば、建物に隠れる位置、および、建物の屋根の上など、カメラ35で撮影できない位置は、実在基準点Prとして不適である。[例A2]実在基準点Prとして選択される位置は、画像Imに基づいて、実在基準点Prとそれ以外の位置とを演算部40(図1参照)で識別できるような位置である。例えば、建物の壁の中央部など、画像Imに映っている位置でも、演算部40で識別できない位置は、実在基準点Prとして不適である。[例A3]実在基準点Prとして選択される位置は、地図情報Mに情報(座標の情報)が存在している位置である。例えば、図2に示すビルの角(頂点)の位置、および、街灯の上部の位置などは、地図情報Mに情報が存在しており、実在基準点Prとして適している。一方、図3に示すビルの窓、および、街灯の支柱部分は、図2に示す地図情報Mに情報が存在しておらず、実在基準点Prとして不適である。[例A4]図3に示す実在基準点Prとして選択される位置は、画像Imにおける位置(画像Im中のどこに映っているか)を演算部40が容易に(正確に、精度よく)識別できる位置であることが好ましい。[例A4a]例えば、形状や色彩などが、周囲の物と区別しやすい位置は、実在基準点Prとして好ましい。例えば、図3に示す例では、ビルの角の位置、および、街灯の上部の位置など、周囲の物と区別しやすい位置は、実在基準点Prとして好ましい。[例A4b]例えば、識別用(画像認識用)のマーカー(目印)が取り付けられた位置は、画像Imにおける位置を特定しやすく、実在基準点Prとして好ましい。[例A4b−1]例えば、マーカーは、周囲の物と区別しやすい位置(上記[例A4a]参照)に取り付けられてもよい。この場合、画像Imにおける位置の識別を、より容易に行える。[例A4b−2]例えば、マーカーの位置の情報を含んだ地図情報M(図2参照)を取得し、地図情報Mにおけるマーカーの位置の情報に対応する実在の位置に、マーカーを取り付けてもよい。また、ある位置にマーカーを取り付け、マーカーを取り付けた位置の情報を、地図情報M(図2参照)に追加してもよい。これらの場合、例えば、ビルの壁の中央部など、周囲の物と区別不可能な位置であっても、マーカーが取り付けられた位置を、実在基準点Prとして選択できる。   The real reference point Pr is selected as follows. The position selected as the real reference point Pr shown in FIG. 3 is a position that can be identified from the image Im. Specifically, for example, the actual reference point Pr is selected as follows. [Example A1] The position selected as the real reference point Pr is a position that can be photographed by the camera 35 (position shown in the image Im). For example, a position hidden by a building and a position that cannot be captured by the camera 35 such as on the roof of the building are not suitable as the real reference point Pr. [Example A2] The position selected as the real reference point Pr is a position at which the real reference point Pr and other positions can be identified by the calculation unit 40 (see FIG. 1) based on the image Im. For example, a position that cannot be identified by the calculation unit 40 even in a position shown in the image Im, such as the center of a building wall, is not suitable as the real reference point Pr. [Example A3] The position selected as the real reference point Pr is a position where information (coordinate information) exists in the map information M. For example, information on the position of the corner (vertex) of the building shown in FIG. 2 and the position of the upper part of the streetlight exists in the map information M and is suitable as the actual reference point Pr. On the other hand, the window of the building shown in FIG. 3 and the column portion of the streetlight do not have information in the map information M shown in FIG. 2, and are not suitable as the real reference point Pr. [Example A4] The position selected as the real reference point Pr shown in FIG. 3 is a position at which the calculation unit 40 can easily (accurately and accurately) identify the position in the image Im (where it appears in the image Im). It is preferable that [Example A4a] For example, a position where the shape, color, etc. are easily distinguishable from surrounding objects is preferable as the actual reference point Pr. For example, in the example shown in FIG. 3, a position that can be easily distinguished from surrounding objects such as the position of the corner of the building and the position of the upper part of the streetlight is preferable as the actual reference point Pr. [Example A4b] For example, a position where an identification (image recognition) marker (mark) is attached is easy to specify the position in the image Im, and is preferable as the actual reference point Pr. [Example A4b-1] For example, the marker may be attached to a position that is easily distinguishable from surrounding objects (see [Example A4a] above). In this case, the position in the image Im can be identified more easily. [Example A4b-2] For example, even if the map information M (see FIG. 2) including the marker position information is acquired and the marker is attached to the actual position corresponding to the marker position information in the map information M Good. Further, a marker may be attached to a certain position, and information on the position where the marker is attached may be added to the map information M (see FIG. 2). In these cases, for example, even if the position is indistinguishable from surrounding objects such as the center of a building wall, the position where the marker is attached can be selected as the actual reference point Pr.

次に、ステップS15(図4参照)では、図3に示すように、カメラ35の撮影範囲に3つの実在基準点Prが含まれるように、カメラ35の撮影範囲の初期位置が設定される。カメラ35の撮影範囲に3つの実在基準点Prが含まれるように、例えば、図1に示すカメラ回動部37でカメラ35が回動させられてもよく、例えば、地面に対する上部旋回体13の向きが変えられてもよい。例えば、操作者が、画像Imまたはカメラ35を見ながら、カメラ35または上部旋回体13の向きを操作することで、カメラ35の撮影範囲が設定される。   Next, in step S15 (see FIG. 4), as shown in FIG. 3, the initial position of the shooting range of the camera 35 is set so that the three shooting reference points Pr are included in the shooting range of the camera 35. For example, the camera 35 may be rotated by the camera rotation unit 37 shown in FIG. 1 so that the shooting range of the camera 35 includes the three real reference points Pr. The orientation may be changed. For example, the imaging range of the camera 35 is set by the operator operating the direction of the camera 35 or the upper swing body 13 while looking at the image Im or the camera 35.

ここで、3つの実在基準点Prの中央部の位置を、基準点中央位置P0とする。基準点中央位置P0は、3つの実在基準点Prからの距離が等しい位置である。図8に示すように、カメラ35から、基準点中央位置P0の位置に向かう方向(向き)を、基準点中央位置方向D0とする。また、カメラ35から、カメラ35の正面に向かう方向(向き)を、カメラ撮影方向D35とする。また、図3に示す画像Imの中央部の位置を、画像Im中央部とする。画像Im中央部は、画像Imの横方向における中央部、かつ、画像Imの縦方向における中央部でもよい。画像Im中央部は、画像Imの横方向における中央部(縦に長い範囲)でもよい。   Here, the position of the central part of the three actual reference points Pr is defined as a reference point center position P0. The reference point center position P0 is a position where the distances from the three actual reference points Pr are equal. As shown in FIG. 8, the direction (direction) from the camera 35 toward the reference point center position P0 is defined as a reference point center position direction D0. A direction (orientation) from the camera 35 toward the front of the camera 35 is a camera shooting direction D35. Further, the position of the central portion of the image Im shown in FIG. 3 is defined as the central portion of the image Im. The central portion of the image Im may be a central portion in the horizontal direction of the image Im and a central portion in the vertical direction of the image Im. The central portion of the image Im may be a central portion (long range in the vertical direction) in the horizontal direction of the image Im.

このステップS15(図4参照)では、例えば、基準点中央位置P0が、画像Im中央部(またはその近傍)に映るように、カメラ35の撮影範囲が設定される。例えば、図7に示すように、基準点中央位置方向D0とカメラ撮影方向D35とが一致(またはほぼ一致)するように、カメラ35の撮影範囲が設定される。   In step S15 (see FIG. 4), for example, the shooting range of the camera 35 is set so that the reference point center position P0 is reflected in the center (or the vicinity thereof) of the image Im. For example, as shown in FIG. 7, the shooting range of the camera 35 is set so that the reference point center position direction D0 and the camera shooting direction D35 match (or substantially match).

ステップS21(図4参照)では、図3に示すように、カメラ35が、3つの実在基準点Prを含む画像Imを撮影する。画像Im中の3つの実在基準点Prの位置は、次のように演算部40(図1参照)に認識される。例えば、操作者が、画像Im内の3つの実在基準点Prを、操作により指定することで、実在基準点Prの位置が演算部40に認識されてもよい。上記操作は、例えば、タッチパネルの操作やカーソルの操作などであり、基準点取得部33の操作と同様の操作などである。また、例えば、演算部40が、画像Im内の3つの実在基準点Pr(例えば識別用のマーカーの位置など)を、自動的に認識してもよい。   In step S21 (see FIG. 4), as shown in FIG. 3, the camera 35 captures an image Im including three real reference points Pr. The positions of the three real reference points Pr in the image Im are recognized by the calculation unit 40 (see FIG. 1) as follows. For example, the operator may recognize the position of the actual reference point Pr by the operator by designating three actual reference points Pr in the image Im. The operation is, for example, a touch panel operation or a cursor operation, and is the same operation as the operation of the reference point acquisition unit 33. Further, for example, the calculation unit 40 may automatically recognize three real reference points Pr (for example, the positions of identification markers) in the image Im.

次に、ステップS23(図4参照)では、距離取得部41(図1参照)が、図6に示す3つの実在基準点Prのそれぞれからカメラ35までの距離Lを取得する。距離取得部41(図1参照)は、画像Im(図3参照)に基づいて、距離Lを取得する。ここで、実在基準点Pr1からカメラ35までの距離を距離L1とする。実在基準点Pr2からカメラ35までの距離を距離L2とする。実在基準点Pr3からカメラ35までの距離を距離L3とする。 Next, in step S23 (see FIG. 4), the distance acquisition unit 41 (see FIG. 1) acquires the distance L from each of the three real reference points Pr shown in FIG. The distance acquisition unit 41 (see FIG. 1) acquires the distance L based on the image Im (see FIG. 3). Here, the distance from the real reference point Pr1 to the camera 35 and the distance L 1. The distance from the real reference point Pr2 to the camera 35 and the distance L 2. The distance from the real reference point Pr3 to the camera 35 and the distance L 3.

次に、ステップS25(図4参照)では、位置計算部43(図1参照)が、実在基準点Prに対するカメラ35の位置を計算する。位置計算部43は、距離取得部41(図1参照)により取得された距離Lに基づいて、カメラ35の位置を計算する。さらに詳しくは、位置計算部43が、各距離L1、L2、およびL3、ならびに、各実在基準点Pr1、Pr2、およびPr3の座標から、カメラ35の三次元座標(XC、YC、ZC)を計算する。具体的には、位置計算部43は、次の連立方程式を解くことで、カメラ35の三次元座標を計算する。 Next, in step S25 (see FIG. 4), the position calculation unit 43 (see FIG. 1) calculates the position of the camera 35 with respect to the actual reference point Pr. The position calculation unit 43 calculates the position of the camera 35 based on the distance L acquired by the distance acquisition unit 41 (see FIG. 1). More specifically, the position calculation unit 43 calculates the three-dimensional coordinates (X C , Y C) of the camera 35 from the distances L 1 , L 2 , and L 3 and the coordinates of the real reference points Pr 1, Pr 2, and Pr 3. , Z C ). Specifically, the position calculation unit 43 calculates the three-dimensional coordinates of the camera 35 by solving the following simultaneous equations.

Figure 2019143995
Figure 2019143995

次に、ステップS27(図4参照)では、図1に示す位置計算部43が、アタッチメント先端部15tの位置を計算する。位置計算部43は、カメラ35の位置と、カメラ回動角度Rc(図7参照)と、アタッチメント15の姿勢と、に基づいて、アタッチメント先端部15tの位置を計算する。   Next, in step S27 (see FIG. 4), the position calculator 43 shown in FIG. 1 calculates the position of the attachment tip 15t. The position calculation unit 43 calculates the position of the attachment tip 15t based on the position of the camera 35, the camera rotation angle Rc (see FIG. 7), and the attitude of the attachment 15.

さらに詳しくは、位置計算部43は、図7に示す基準点中央位置方向D0と、カメラ回動角度Rcと、に基づいて、上部旋回体方向D13を計算する。上部旋回体方向D13は、上部旋回体13の方向(向き)であり、例えば、上部旋回体13からアタッチメント15が延びる方向である。そして、カメラ35の位置と、上部旋回体方向D13と、アタッチメント15の姿勢と、に基づいて、アタッチメント先端部15tの位置を計算する。その結果、アタッチメント15を用いた作業を行っている位置(例えば土砂を掘削している位置など)を計算できる。   More specifically, the position calculation unit 43 calculates the upper swing body direction D13 based on the reference point center position direction D0 and the camera rotation angle Rc shown in FIG. The upper swing body direction D13 is the direction (orientation) of the upper swing body 13 and is, for example, the direction in which the attachment 15 extends from the upper swing body 13. Then, based on the position of the camera 35, the upper swing body direction D13, and the attitude of the attachment 15, the position of the attachment tip 15t is calculated. As a result, it is possible to calculate a position where the work using the attachment 15 is performed (for example, a position where excavation is performed).

ここで、ステップS27の計算に用いられる基準点中央位置方向D0は、ステップS25(図4参照)で計算したカメラ35の位置と、基準点中央位置P0の位置から計算可能である。基準点中央位置P0の位置は、3つの地図上基準点Pm(図2参照)の位置から計算可能である。   Here, the reference point center position direction D0 used for the calculation in step S27 can be calculated from the position of the camera 35 calculated in step S25 (see FIG. 4) and the position of the reference point center position P0. The position of the reference point center position P0 can be calculated from the positions of three map reference points Pm (see FIG. 2).

また、ステップS27の計算に用いられるカメラ回動角度Rcは、上部旋回体方向D13に対する、カメラ撮影方向D35の角度である。カメラ回動角度Rcは、例えば、カメラ回動部37(図1参照)に設けられたセンサなどにより取得可能である。   The camera rotation angle Rc used for the calculation in step S27 is an angle of the camera photographing direction D35 with respect to the upper swing body direction D13. The camera rotation angle Rc can be acquired by, for example, a sensor provided in the camera rotation unit 37 (see FIG. 1).

また、ステップS27の計算に用いられるアタッチメント15の姿勢は、図1に示すアタッチメント姿勢検出部53により検出される。さらに詳しくは、ブーム角度検出部53aによりブーム角度が検出され、アーム角度検出部53bによりアーム角度が検出され、バケット角度検出部53cによりバケット角度が検出される。また、アタッチメント先端部15tの位置の計算に必要な、アタッチメント15の寸法などの情報は、位置計算部43に(演算部40に)予め設定される。   Further, the posture of the attachment 15 used for the calculation in step S27 is detected by the attachment posture detection unit 53 shown in FIG. More specifically, the boom angle detection unit 53a detects the boom angle, the arm angle detection unit 53b detects the arm angle, and the bucket angle detection unit 53c detects the bucket angle. Also, information such as the dimensions of the attachment 15 necessary for calculating the position of the attachment tip 15t is preset in the position calculator 43 (in the calculator 40).

次に、ステップS30(図4参照)では、撮影範囲制御部45が、図3に示す3つの実在基準点Prをカメラ35が撮影し続けるように、カメラ35の撮影範囲を制御する。この制御を行う理由は次の通りである。図1に示す建設機械1が作業を行うとき、下部走行体11による並進移動、地面に対する下部走行体11の回転(左右のクローラの走行速度の相違による回転)、および、下部走行体11に対する上部旋回体13の旋回、の少なくともいずれかが行われる。すると、図3に示すカメラ35の撮影範囲から実在基準点Prが外れようとする。そこで、撮影範囲制御部45は、3つの実在基準点Prをカメラ35が撮影し続けるように、建設機械1(図1参照)の作動に応じて、カメラ35の撮影範囲を制御する。制御の具体例として、図8に示すように、上部旋回体方向D13が、方向13aから方向13bに、角度θだけ回転した場合の、カメラ35の撮影範囲の制御について説明する。   Next, in step S30 (see FIG. 4), the photographing range control unit 45 controls the photographing range of the camera 35 so that the camera 35 continues to photograph the three real reference points Pr shown in FIG. The reason for this control is as follows. When the construction machine 1 shown in FIG. 1 performs work, the lower traveling body 11 translates, the lower traveling body 11 rotates with respect to the ground (rotation due to the difference in traveling speed between the left and right crawlers), and the upper traveling body 11 moves upward. At least one of the turning of the turning body 13 is performed. Then, the actual reference point Pr tends to deviate from the shooting range of the camera 35 shown in FIG. Therefore, the imaging range control unit 45 controls the imaging range of the camera 35 according to the operation of the construction machine 1 (see FIG. 1) so that the camera 35 continues to capture the three real reference points Pr. As a specific example of the control, as shown in FIG. 8, the control of the shooting range of the camera 35 when the upper swing body direction D13 is rotated by the angle θ from the direction 13a to the direction 13b will be described.

ステップS31(図5参照)では、回転検出部51(図1参照)が、上部旋回体13の回転の情報を検出する。回転検出部51に検出される回転の情報は、例えば、角度θおよび角速度である。この検出は、例えば次の[例B1]、[例B2]のように行われる。[例B1]地面に対して下部走行体11が回転していない場合は、この検出は、図1に示すジャイロセンサ51aおよび旋回角度検出部51bの少なくともいずれかにより行われる。[例B1a]ジャイロセンサ51aで角速度を検出した場合、この角速度を時間で積分することで、所定時間内での角度の変化量(図8に示す角度θ)を求めてもよい。この計算を行う場合、ジャイロセンサ51aの検出値を積分することで生じる誤差を、旋回角度検出部51bで検出した角度に基づいて、補正してもよい。[例B1b]旋回角度検出部51bで角度を検出した場合、この角度を時間で微分することで、角速度を求めてもよい。[例B2]地面に対して下部走行体11が回転している場合は、この検出は、ジャイロセンサ51aにより行われる。   In step S31 (see FIG. 5), the rotation detection unit 51 (see FIG. 1) detects information on the rotation of the upper swing body 13. The rotation information detected by the rotation detection unit 51 is, for example, an angle θ and an angular velocity. This detection is performed, for example, as in [Example B1] and [Example B2] below. [Example B1] When the lower traveling body 11 is not rotating with respect to the ground, this detection is performed by at least one of the gyro sensor 51a and the turning angle detector 51b shown in FIG. [Example B1a] When the angular velocity is detected by the gyro sensor 51a, the angular change amount (angle θ shown in FIG. 8) within a predetermined time may be obtained by integrating the angular velocity with time. When this calculation is performed, an error caused by integrating the detection value of the gyro sensor 51a may be corrected based on the angle detected by the turning angle detection unit 51b. [Example B1b] When an angle is detected by the turning angle detector 51b, the angular velocity may be obtained by differentiating this angle with time. [Example B2] When the lower traveling body 11 is rotating with respect to the ground, this detection is performed by the gyro sensor 51a.

次に、ステップS33(図5参照)では、撮影範囲制御部45(図1参照)が、図8に示す地面に対する上部旋回体方向D13の変化量(角度θ)に基づいて、ズレ角度Rsを計算(推定)する。ズレ角度Rsは、基準点中央位置方向D0に対する、カメラ撮影方向D35の角度のズレの大きさである(例えば、上から見て右回りを正、左回りを負、などとする)。例えば、ズレ角度Rsは、角度θと等しい。なお、建設機械1が並進しながら上部旋回体方向D13が角度θだけ回転した場合は、ズレ角度Rsは、角度θとほぼ等しい。以下では、撮影範囲制御部45については図1を参照して説明する。   Next, in step S33 (see FIG. 5), the imaging range control unit 45 (see FIG. 1) sets the deviation angle Rs based on the amount of change (angle θ) in the upper turning body direction D13 with respect to the ground shown in FIG. Calculate (estimate). The deviation angle Rs is the magnitude of the angle deviation of the camera photographing direction D35 with respect to the reference point center position direction D0 (for example, the clockwise direction as viewed from above is positive and the counterclockwise direction is negative). For example, the deviation angle Rs is equal to the angle θ. When the upper swing body direction D13 rotates by the angle θ while the construction machine 1 is translated, the deviation angle Rs is substantially equal to the angle θ. Hereinafter, the photographing range control unit 45 will be described with reference to FIG.

次に、ステップS35(図5参照)では、撮影範囲制御部45が、ズレ角度Rsを用いて、カメラ35の撮影範囲の目標範囲(目標撮影範囲)を設定する。具体的には、撮影範囲制御部45は、ズレ角度Rsがゼロに近づくように、目標撮影範囲を設定する。撮影範囲制御部45は、ズレ角度Rsがゼロに近づくように、カメラ回動部37(図1参照)の目標角度を設定する。撮影範囲制御部45は、ズレ角度Rsとは逆向き、かつ、ズレ角度Rsと同じ大きさだけ、カメラ35が回動するように、カメラ回動部37の目標角度を設定する。   Next, in step S35 (see FIG. 5), the shooting range control unit 45 sets a target range (target shooting range) of the shooting range of the camera 35 using the deviation angle Rs. Specifically, the shooting range control unit 45 sets the target shooting range so that the shift angle Rs approaches zero. The imaging range control unit 45 sets the target angle of the camera rotation unit 37 (see FIG. 1) so that the shift angle Rs approaches zero. The imaging range control unit 45 sets the target angle of the camera rotation unit 37 so that the camera 35 rotates in the opposite direction to the shift angle Rs and by the same magnitude as the shift angle Rs.

次に、ステップS37(図5参照)では、撮影範囲制御部45が、地面に対する上部旋回体13の角速度(ステップS31で検出された値)を用いて、カメラ35の撮影範囲の回転の目標角速度を設定する。具体的には、撮影範囲制御部45は、ズレ角度Rsの変化の向きとは逆向き、かつ、ズレ角度Rsの角速度と同じ大きさの角速度で、カメラ35が回動するように、カメラ回動部37の目標角速度を設定する。   Next, in step S37 (see FIG. 5), the shooting range control unit 45 uses the angular velocity of the upper swing body 13 with respect to the ground (the value detected in step S31), and the target angular velocity of rotation of the shooting range of the camera 35. Set. Specifically, the imaging range control unit 45 rotates the camera so that the camera 35 rotates at an angular velocity opposite to the direction of change of the deviation angle Rs and at the same magnitude as the angular velocity of the deviation angle Rs. The target angular velocity of the moving part 37 is set.

次に、ステップS39(図5参照)では、撮影範囲制御部45が、目標角度(ステップS35で設定)および目標角速度(ステップS37で設定)に基づいて、カメラ35の撮影範囲を変える。具体的には、撮影範囲制御部45が、目標角度および目標角速度に基づいて、カメラ回動部37(図1参照)に駆動指令を出力し、カメラ35を回動させる。よって、建設機械1が作動しても、カメラ35は(カメラ撮影方向D35は)、常に基準点中央位置P0を向くように制御される。   Next, in step S39 (see FIG. 5), the shooting range control unit 45 changes the shooting range of the camera 35 based on the target angle (set in step S35) and the target angular velocity (set in step S37). Specifically, the imaging range control unit 45 outputs a drive command to the camera rotation unit 37 (see FIG. 1) based on the target angle and the target angular velocity, and rotates the camera 35. Therefore, even when the construction machine 1 is operated, the camera 35 (camera shooting direction D35) is controlled to always face the reference point center position P0.

次に、S40(図4参照)では、図1に示す位置推定装置20による位置推定を終了するか否かが判定される。例えば、位置推定の終了の操作が、操作者によってされたか否かが判定される。位置推定を終了する場合は、フローを終了する。位置推定を終了しない場合は、ステップS21(図4参照)に戻り、建設機械1の位置の計算(図4のステップS25、ステップ27)が継続され、カメラ35の撮影範囲の制御(ステップS30)が継続される。このように、本実施形態では、GPSなどの衛星測位システムを用いなくても、建設機械1の位置を把握し続けることが可能である。   Next, in S40 (see FIG. 4), it is determined whether or not the position estimation by the position estimation device 20 shown in FIG. For example, it is determined whether or not an operation for ending position estimation has been performed by the operator. When the position estimation ends, the flow ends. When the position estimation is not completed, the process returns to step S21 (see FIG. 4), the calculation of the position of the construction machine 1 (step S25, step 27 in FIG. 4) is continued, and the photographing range of the camera 35 is controlled (step S30). Will continue. Thus, in this embodiment, it is possible to keep track of the position of the construction machine 1 without using a satellite positioning system such as GPS.

(情報化施工について)
従来、施工現場の三次元地形の電子情報に基づく建設作業である、情報化施工が行われている。情報化施工により、丁張や、作業途中の測量検査作業をなくすことが図られている。情報化施工を行うためには、建設機械の位置の取得が必要である。そこで、従来、GPSなどの衛星測位システムを利用して、建設機械の位置が取得されていた。また、情報化施工では、高精度に位置を取得する必要があるため、例えば、固定局の情報を利用した高精度な衛星測位システム(例えばリアルタイムキネマティック測位など)が用いられる場合があった。しかし、高精度な衛星測位システムは、コストが高く、例えば中型〜小型ショベルの価格よりも高価である。
(About computerized construction)
Conventionally, information-oriented construction, which is construction work based on electronic information on the three-dimensional topography of construction sites, has been performed. By computerized construction, it is planned to eliminate choking and surveying work in the middle of work. In order to carry out computerized construction, it is necessary to acquire the position of the construction machine. Therefore, conventionally, the position of the construction machine has been acquired using a satellite positioning system such as GPS. Moreover, since it is necessary to acquire a position with high accuracy in the information construction, for example, a high-accuracy satellite positioning system (for example, real-time kinematic positioning) using information of a fixed station may be used. However, a high-accuracy satellite positioning system is expensive, and is more expensive than, for example, the price of medium to small excavators.

建設機械の位置を取得するだけであれば、衛星測位システムの受信機は1基で済む。しかし、情報化施工を行うには、作業を行う部分の位置、具体的には例えば、アタッチメントの先端部の位置を取得する必要がある。そのためには、地面に対する上部旋回体の方向の情報が必要である。そこで、従来、地面に対する上部旋回体の方向の情報を取得するために、衛星測位システムの受信機が、建設機械に2基設けられる場合があった。そのため、受信機が1基のみ設けられる場合に比べ、コストがかかる。このように、衛星測位システムを用いて建設機械の位置を取得する技術には、高いコストがかかっていた。一方、本実施形態では、衛星測位システムを用いなくても、建設機械1の位置を取得(推定)できる。よって、衛星測位システムを用いた技術に比べ、コストを低減できる。また、本実施形態では、衛星測位システムを用いなくても、情報化施工を行える。   If only the position of the construction machine is acquired, only one receiver of the satellite positioning system is required. However, in order to perform computerized construction, it is necessary to acquire the position of the part where the work is performed, specifically, for example, the position of the tip of the attachment. For this purpose, information on the direction of the upper-part turning body with respect to the ground is necessary. Therefore, conventionally, there are cases where two receivers of the satellite positioning system are provided in the construction machine in order to acquire information on the direction of the upper-part turning body with respect to the ground. Therefore, the cost is higher than the case where only one receiver is provided. As described above, the technology for acquiring the position of the construction machine using the satellite positioning system is expensive. On the other hand, in this embodiment, the position of the construction machine 1 can be acquired (estimated) without using a satellite positioning system. Therefore, the cost can be reduced as compared with the technology using the satellite positioning system. Moreover, in this embodiment, information construction can be performed without using a satellite positioning system.

(効果)
図1に示す建設機械1の位置推定装置20による効果は、次の通りである。
(effect)
The effects of the position estimation device 20 of the construction machine 1 shown in FIG. 1 are as follows.

(第1の発明の効果)
位置推定装置20は、建設機械1の三次元位置を推定する。建設機械1は、下部走行体11と、下部走行体11に対して旋回可能な上部旋回体13と、を備える。位置推定装置20は、地図情報取得部31と、基準点取得部33と、カメラ35と、距離取得部41と、位置計算部43と、を備える。
(Effect of the first invention)
The position estimation device 20 estimates the three-dimensional position of the construction machine 1. The construction machine 1 includes a lower traveling body 11 and an upper revolving body 13 that can pivot with respect to the lower traveling body 11. The position estimation device 20 includes a map information acquisition unit 31, a reference point acquisition unit 33, a camera 35, a distance acquisition unit 41, and a position calculation unit 43.

[構成1]地図情報取得部31は、三次元の地図情報Mを取得する。基準点取得部33は、図2に示すように、地図情報Mにおける3つの地図上基準点Pmを取得する。図1に示すように、カメラ35は、上部旋回体13に取り付けられる。図3に示すように、カメラ35は、3つの地図上基準点Pm(図2参照)に対応する、3つの実在基準点Prを含む画像Im(距離画像)を取得する。距離取得部41(図1参照)は、画像Im(図3参照)に基づいて、図6に示すように、3つの実在基準点Prのそれぞれからカメラ35までの距離Lを取得する。図1に示す位置計算部43は、距離取得部41により計算された距離L(図6参照)に基づいて、実在基準点Pr(図6参照)に対する建設機械1の位置を計算する。   [Configuration 1] The map information acquisition unit 31 acquires three-dimensional map information M. The reference point acquisition unit 33 acquires three on-map reference points Pm in the map information M as shown in FIG. As shown in FIG. 1, the camera 35 is attached to the upper swing body 13. As shown in FIG. 3, the camera 35 acquires an image Im (distance image) including three real reference points Pr corresponding to the three map reference points Pm (see FIG. 2). The distance acquisition unit 41 (see FIG. 1) acquires the distance L from each of the three real reference points Pr to the camera 35, as shown in FIG. 6, based on the image Im (see FIG. 3). The position calculation unit 43 illustrated in FIG. 1 calculates the position of the construction machine 1 with respect to the actual reference point Pr (see FIG. 6) based on the distance L (see FIG. 6) calculated by the distance acquisition unit 41.

上記[構成1]では、図3に示す、カメラ35が画像Imを取得する。そして、画像Imに基づいて、図6に示す実在基準点Prからカメラ35までの距離Lが取得される。そして、この距離Lに基づいて、実在基準点Prに対する建設機械1の位置が計算される。よって、衛星測位システムを用いなくても、実在基準点Prに対する建設機械1の位置(三次元位置)を推定できる。通常、衛星測位システムを用いるための装置に比べ、位置推定装置20を構成する装置(距離画像を取得可能なカメラ35など)の方が、コストが低い。よって、衛星測位システムを用いる技術に比べ、位置推定装置20のコストを低減できる。   In the above [Configuration 1], the camera 35 shown in FIG. 3 acquires the image Im. Then, based on the image Im, a distance L from the real reference point Pr shown in FIG. 6 to the camera 35 is acquired. Based on the distance L, the position of the construction machine 1 with respect to the actual reference point Pr is calculated. Therefore, the position (three-dimensional position) of the construction machine 1 with respect to the actual reference point Pr can be estimated without using a satellite positioning system. Usually, a device (such as the camera 35 capable of acquiring a distance image) constituting the position estimation device 20 is lower in cost than a device for using a satellite positioning system. Therefore, the cost of the position estimation device 20 can be reduced as compared with the technology using the satellite positioning system.

(第2の発明の効果)
[構成2]図1に示すように、位置推定装置20は、カメラ回動部37と、撮影範囲制御部45と、を備える。カメラ回動部37は、上部旋回体13に対してカメラ35を回動させる。撮影範囲制御部45は、3つの実在基準点Pr(図3参照)をカメラ35が撮影し続けるように、建設機械1の作動に応じてカメラ回動部37にカメラ35を回動させることで、カメラ35の撮影範囲を制御する。
(Effect of the second invention)
[Configuration 2] As shown in FIG. 1, the position estimation device 20 includes a camera rotation unit 37 and an imaging range control unit 45. The camera rotation unit 37 rotates the camera 35 with respect to the upper swing body 13. The imaging range control unit 45 causes the camera rotation unit 37 to rotate the camera 35 according to the operation of the construction machine 1 so that the camera 35 continues to capture the three real reference points Pr (see FIG. 3). The imaging range of the camera 35 is controlled.

上記[構成2]により、建設機械1が作動しても、カメラ35は、3つの実在基準点Pr(図3参照)を撮影し続けることができる。よって、位置推定装置20は、建設機械1が作動しても、建設機械1の位置を計算し続けることができる。   With the above [Configuration 2], even when the construction machine 1 operates, the camera 35 can continue to photograph the three real reference points Pr (see FIG. 3). Therefore, the position estimation device 20 can continue to calculate the position of the construction machine 1 even if the construction machine 1 is operated.

(第3の発明の効果)
[構成3]位置推定装置20は、回転検出部51を備える。回転検出部51は、地面および下部走行体11の少なくともいずれかに対する、上部旋回体13の回転の情報を検出する。撮影範囲制御部45は、回転検出部51に検出された情報に基づいて、カメラ35の撮影範囲を制御する。
(Effect of the third invention)
[Configuration 3] The position estimation device 20 includes a rotation detection unit 51. The rotation detection unit 51 detects information about the rotation of the upper swing body 13 with respect to at least one of the ground and the lower traveling body 11. The shooting range control unit 45 controls the shooting range of the camera 35 based on the information detected by the rotation detection unit 51.

上記[構成3]により、地面または下部走行体11に対して、上部旋回体13が回転しても、カメラ35は、3つの実在基準点Pr(図3参照)を撮影し続けることができる。よって、位置推定装置20は、上部旋回体13が回転しても、建設機械1の位置を計算し続けることができる。   With the above [Configuration 3], even when the upper swing body 13 rotates relative to the ground or the lower traveling body 11, the camera 35 can continue to photograph the three real reference points Pr (see FIG. 3). Therefore, the position estimation device 20 can continue to calculate the position of the construction machine 1 even when the upper swing body 13 rotates.

(変形例1)
図8に示す建設機械1が並進移動すると、基準点中央位置方向D0に対してカメラ撮影方向D35がずれる(ズレ角度Rsの大きさが大きくなる)場合がある。そこで、撮影範囲制御部45は、建設機械1の並進移動の情報に基づいて、カメラ35の撮影範囲を制御してもよい。本変形例では、図1に示す検出部50は、並進情報取得部155を備える。
(Modification 1)
When the construction machine 1 shown in FIG. 8 moves in translation, the camera photographing direction D35 may deviate from the reference point center position direction D0 (the displacement angle Rs increases). Therefore, the shooting range control unit 45 may control the shooting range of the camera 35 based on the translational movement information of the construction machine 1. In the present modification, the detection unit 50 illustrated in FIG. 1 includes a translation information acquisition unit 155.

並進情報取得部155は、地面に対する建設機械1の並進移動の情報を取得する。並進情報取得部155が取得する情報は、例えば、並進移動の速度(速さおよび方向)または加速度(加速度の大きさおよび方向)である。例えば、並進情報取得部155は、下部走行体11を駆動させるための指令(電気指令または油圧指令など)を検出することで、並進移動の速さ、または加速度の大きさを取得してもよい。例えば、並進情報取得部155は、建設機械1の並進移動の方向を、上部旋回体方向D13(図8参照)と、下部走行体11に対する上部旋回体13の角度(旋回角度検出部51bの検出値)と、に基づいて取得してもよい。例えば、並進情報取得部155は、位置計算部43に計算された建設機械1の位置の変化から、並進移動の情報を取得(計算)してもよい。   The translation information acquisition unit 155 acquires information on the translational movement of the construction machine 1 with respect to the ground. The information acquired by the translation information acquisition unit 155 is, for example, the speed (speed and direction) or acceleration (magnitude and direction of acceleration) of translation. For example, the translation information acquisition unit 155 may acquire the speed of translation or the magnitude of acceleration by detecting a command (such as an electrical command or a hydraulic command) for driving the lower traveling body 11. . For example, the translation information acquisition unit 155 determines the direction of translation of the construction machine 1 as the upper turning body direction D13 (see FIG. 8) and the angle of the upper turning body 13 with respect to the lower traveling body 11 (detection by the turning angle detection unit 51b). Value). For example, the translation information acquisition unit 155 may acquire (calculate) information about translation from the change in the position of the construction machine 1 calculated by the position calculation unit 43.

(第4の発明の効果)
[構成4]図1に示すように、位置推定装置20は、並進情報取得部155を備える。並進情報取得部155は、地面に対する建設機械1の並進移動の情報を取得する。撮影範囲制御部45は、並進情報取得部155に取得された情報に基づいて、カメラ35の撮影範囲を制御する。
(Effect of the fourth invention)
[Configuration 4] As shown in FIG. 1, the position estimation device 20 includes a translation information acquisition unit 155. The translation information acquisition unit 155 acquires information on the translational movement of the construction machine 1 with respect to the ground. The shooting range control unit 45 controls the shooting range of the camera 35 based on the information acquired by the translation information acquisition unit 155.

上記[構成4]により、建設機械1が並進移動しても、カメラ35は、3つの実在基準点Pr(図3参照)を撮影し続けることができる。よって、位置推定装置20は、上部旋回体13が並進移動しても、建設機械1の位置を計算し続けることができる。   With the above [Configuration 4], even when the construction machine 1 moves in translation, the camera 35 can continue to photograph the three real reference points Pr (see FIG. 3). Therefore, the position estimation device 20 can continue to calculate the position of the construction machine 1 even if the upper swing body 13 moves in translation.

(変形例2)
撮影範囲制御部45は、カメラ35の撮影範囲を上下方向に制御してもよい。例えば、水平面に対する建設機械1の傾きの変化に基づいて、カメラ回動部37にカメラ35を上下方向に回動(水平方向の軸回りに回動)させてもよい。また、図6に示す建設機械1が、実在基準点Prに近づく、または遠ざかることで、図8に示すカメラ撮影方向D35に対して、基準点中央位置方向D0が、上下方向にずれる場合がある。そこで、撮影範囲制御部45は、並進移動の情報に基づいて、カメラ35の撮影範囲を上下方向に制御してもよい。
(Modification 2)
The shooting range control unit 45 may control the shooting range of the camera 35 in the vertical direction. For example, based on the change in the inclination of the construction machine 1 with respect to the horizontal plane, the camera 35 may be rotated in the vertical direction (rotated about the horizontal axis) by the camera rotation unit 37. Further, when the construction machine 1 shown in FIG. 6 approaches or moves away from the actual reference point Pr, the reference point center position direction D0 may be shifted in the vertical direction with respect to the camera photographing direction D35 shown in FIG. . Therefore, the shooting range control unit 45 may control the shooting range of the camera 35 in the vertical direction based on the translation information.

(他の変形例)
上記実施形態は様々に変形されてもよい。例えば、上記実施形態および各変形例の構成要素どうしが組み合わされてもよい。例えば、図4、および図5に示すフローチャートのステップの順序は変更されてもよい。例えば、図1に示す位置推定装置20の構成要素の数が変更されてもよく、構成要素の一部が設けられなくてもよい。
(Other variations)
The above embodiment may be variously modified. For example, the constituent elements of the above-described embodiment and each modification may be combined. For example, the order of the steps in the flowcharts shown in FIGS. 4 and 5 may be changed. For example, the number of components of the position estimation device 20 illustrated in FIG. 1 may be changed, and some of the components may not be provided.

例えば、上記実施形態では、撮影範囲制御部45は、建設機械1の作動に応じてカメラ35の撮影範囲を制御した。一方、演算部40が、図3に示す画像Im内での実在基準点Prの移動を認識(画像認識)し、実在基準点Prの移動に追従するように、カメラ35の撮影範囲を制御してもよい(画像認識による追従をしてもよい)。例えば、画像認識による追従が可能なほど、図8に示すズレ角度Rsの変化が遅い場合(例えば、建設機械1が並進移動する場合など)は、画像認識による追従をしてもよい。一方、下部走行体11に対して上部旋回体13が旋回する場合は、通常、画像認識による追従が不可能なほど、ズレ角度Rsの変化が速い。そのため、下部走行体11に対して上部旋回体13が旋回する場合は、回転検出部51が検出した上部旋回体13の回転の情報に基づいて、カメラ35の撮影範囲を制御することが好ましい。   For example, in the above embodiment, the shooting range control unit 45 controls the shooting range of the camera 35 according to the operation of the construction machine 1. On the other hand, the calculation unit 40 recognizes the movement of the real reference point Pr in the image Im shown in FIG. 3 (image recognition), and controls the shooting range of the camera 35 so as to follow the movement of the real reference point Pr. (Following by image recognition may be performed). For example, when the change in the deviation angle Rs shown in FIG. 8 is so slow that tracking by image recognition is possible (for example, when the construction machine 1 moves in translation), tracking by image recognition may be performed. On the other hand, when the upper turning body 13 turns with respect to the lower traveling body 11, the change in the deviation angle Rs is usually so fast that tracking by image recognition is impossible. Therefore, when the upper turning body 13 turns with respect to the lower traveling body 11, it is preferable to control the imaging range of the camera 35 based on the rotation information of the upper turning body 13 detected by the rotation detection unit 51.

例えば、図1に示すカメラ35は、全方位カメラでもよい。この場合、カメラ35を回動させるカメラ回動部37は不要である。この場合、カメラ35で得られた画像Im(図3参照)から、実在基準点Pr(図3参照)を含む部分を切り出し(トリミング)し、切り出した部分から距離L(図6参照)を取得してもよい。この場合、撮影範囲制御部45による撮影範囲の制御と同様に、建設機械1の作動に応じて切り出しの範囲を制御してもよい。   For example, the camera 35 shown in FIG. 1 may be an omnidirectional camera. In this case, the camera rotation part 37 which rotates the camera 35 is unnecessary. In this case, a part including the actual reference point Pr (see FIG. 3) is cut out (trimmed) from the image Im (see FIG. 3) obtained by the camera 35, and a distance L (see FIG. 6) is obtained from the cut out part. May be. In this case, the cutout range may be controlled in accordance with the operation of the construction machine 1 in the same manner as the shooting range control by the shooting range control unit 45.

位置推定装置20の構成要素のうち、カメラ35およびカメラ回動部37は、建設機械1に設けられる。一方、位置推定装置20の構成要素のうち、カメラ35およびカメラ回動部37を除く構成要素は、建設機械1に設けられてもよく、建設機械1の外部に設けられてもよい。例えば、地図情報取得部31、基準点取得部33、および演算部40は、建設機械1の外部のコンピュータなどにより実現されてもよい。例えば、検出部50の少なくとも一部は、建設機械1の外部に設けられてもよく、例えば、建設機械1の外部から建設機械1の状態を検出するカメラなどでもよい。   Among the components of the position estimation device 20, the camera 35 and the camera rotation unit 37 are provided in the construction machine 1. On the other hand, among the components of the position estimation device 20, the components other than the camera 35 and the camera rotation unit 37 may be provided in the construction machine 1 or may be provided outside the construction machine 1. For example, the map information acquisition unit 31, the reference point acquisition unit 33, and the calculation unit 40 may be realized by a computer outside the construction machine 1 or the like. For example, at least a part of the detection unit 50 may be provided outside the construction machine 1, for example, a camera that detects the state of the construction machine 1 from the outside of the construction machine 1.

位置推定装置20の構成要素の少なくとも一部は、一体的に構成されてもよく、別々に設けられてもよい。具体的には例えば、地図情報取得部31、基準点取得部33、および演算部40は、一体的に構成された一台のコンピュータにより実現されてもよい。例えば、距離取得部41、位置計算部43、および撮影範囲制御部45の、少なくともいずれか(例えば撮影範囲制御部45)が、他の部分(例えば距離取得部41および位置計算部43)とは別々に設けられてもよい。   At least some of the components of the position estimation device 20 may be configured integrally or may be provided separately. Specifically, for example, the map information acquisition unit 31, the reference point acquisition unit 33, and the calculation unit 40 may be realized by a single computer configured integrally. For example, at least one of the distance acquisition unit 41, the position calculation unit 43, and the shooting range control unit 45 (for example, the shooting range control unit 45) is different from the other parts (for example, the distance acquisition unit 41 and the position calculation unit 43). It may be provided separately.

1 建設機械
11 下部走行体
13 上部旋回体
20 位置推定装置
31 地図情報取得部
33 基準点取得部
35 カメラ
37 カメラ回動部
41 距離取得部
43 位置計算部
45 撮影範囲制御部
51 回転検出部
155 並進情報取得部
Im 画像(距離画像)
L、L1、L2、L3 距離
M 地図情報
Pm、Pm1、Pm2、Pm3 地図上基準点
Pr、Pr1、Pr2、Pr3 実在基準点
DESCRIPTION OF SYMBOLS 1 Construction machine 11 Lower traveling body 13 Upper turning body 20 Position estimation apparatus 31 Map information acquisition part 33 Reference point acquisition part 35 Camera 37 Camera rotation part 41 Distance acquisition part 43 Position calculation part 45 Shooting range control part 51 Rotation detection part 155 Translation information acquisition unit Im image (distance image)
L, L 1 , L 2 , L 3 distance M Map information Pm, Pm1, Pm2, Pm3 Map reference point Pr, Pr1, Pr2, Pr3 Real reference point

Claims (4)

下部走行体と、前記下部走行体に対して旋回可能な上部旋回体と、を備える建設機械の三次元位置を推定する、建設機械の位置推定装置であって、
三次元の地図情報を取得する地図情報取得部と、
前記地図情報における3つの地図上基準点を取得する基準点取得部と、
前記上部旋回体に取り付けられ、3つの前記地図上基準点に対応する3つの実在基準点を含む距離画像を取得するカメラと、
前記距離画像に基づいて、3つの前記実在基準点のそれぞれから前記カメラまでの距離を取得する距離取得部と、
前記距離取得部により計算された距離に基づいて、前記実在基準点に対する前記建設機械の位置を計算する位置計算部と、
を備える、
建設機械の位置推定装置。
A position estimation device for a construction machine that estimates a three-dimensional position of a construction machine comprising a lower traveling body and an upper swinging body that is capable of swiveling relative to the lower traveling body,
A map information acquisition unit for acquiring three-dimensional map information;
A reference point acquisition unit for acquiring three reference points on the map in the map information;
A camera attached to the upper swing body for obtaining a distance image including three real reference points corresponding to the three reference points on the map;
A distance acquisition unit that acquires a distance from each of the three real reference points to the camera based on the distance image;
A position calculation unit that calculates the position of the construction machine with respect to the real reference point based on the distance calculated by the distance acquisition unit;
Comprising
Construction machine position estimation device.
請求項1に記載の建設機械の位置推定装置であって、
前記上部旋回体に対して前記カメラを回動させるカメラ回動部と、
3つの前記実在基準点を前記カメラが撮影し続けるように、前記建設機械の作動に応じて前記カメラ回動部に前記カメラを回動させることで、前記カメラの撮影範囲を制御する撮影範囲制御部と、
を備える、
建設機械の位置推定装置。
The position estimation device for a construction machine according to claim 1,
A camera rotation unit that rotates the camera with respect to the upper swing body;
Shooting range control for controlling the shooting range of the camera by rotating the camera to the camera rotation unit according to the operation of the construction machine so that the camera continues to capture the three real reference points And
Comprising
Construction machine position estimation device.
請求項2に記載の建設機械の位置推定装置であって、
地面および前記下部走行体の少なくともいずれかに対する前記上部旋回体の回転の情報を検出する回転検出部を備え、
前記撮影範囲制御部は、前記回転検出部に検出された情報に基づいて、前記カメラの撮影範囲を制御する、
建設機械の位置推定装置。
A position estimation device for a construction machine according to claim 2,
A rotation detection unit that detects rotation information of the upper swing body with respect to at least one of the ground and the lower traveling body;
The shooting range control unit controls the shooting range of the camera based on information detected by the rotation detection unit.
Construction machine position estimation device.
請求項2または3に記載の建設機械の位置推定装置であって、
地面に対する前記建設機械の並進移動の情報を取得する並進情報取得部を備え、
前記撮影範囲制御部は、前記並進情報取得部に取得された情報に基づいて、前記カメラの撮影範囲を制御する、
建設機械の位置推定装置。
A position estimation device for a construction machine according to claim 2 or 3,
A translation information obtaining unit for obtaining information on translational movement of the construction machine with respect to the ground;
The imaging range control unit controls the imaging range of the camera based on the information acquired by the translation information acquisition unit.
Construction machine position estimation device.
JP2018025649A 2018-02-16 2018-02-16 Construction machine position estimation device Active JP6947659B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018025649A JP6947659B2 (en) 2018-02-16 2018-02-16 Construction machine position estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018025649A JP6947659B2 (en) 2018-02-16 2018-02-16 Construction machine position estimation device

Publications (2)

Publication Number Publication Date
JP2019143995A true JP2019143995A (en) 2019-08-29
JP6947659B2 JP6947659B2 (en) 2021-10-13

Family

ID=67773670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018025649A Active JP6947659B2 (en) 2018-02-16 2018-02-16 Construction machine position estimation device

Country Status (1)

Country Link
JP (1) JP6947659B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112854355A (en) * 2019-11-27 2021-05-28 诺瓦特伦有限公司 Method for determining position and orientation of machine
WO2021256528A1 (en) * 2020-06-19 2021-12-23 株式会社小松製作所 Calibration device and calibration method
WO2022248766A1 (en) * 2021-05-26 2022-12-01 Novatron Oy Method for determining location and orientation of earthworks machine in worksite
JP2023504772A (en) * 2019-11-27 2023-02-07 ノバトロン オサケ ユキチュア Methods for Determining Situational Awareness in the Workplace
JP2023052738A (en) * 2019-11-27 2023-04-12 ノバトロン オサケ ユキチュア Method and positioning system for determining location and orientation of machine

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024007313A (en) 2022-07-05 2024-01-18 吉谷土木株式会社 Crop support method and field work support system or the like

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031206A (en) * 2007-07-30 2009-02-12 Nakagawa Kenkyusho:Kk Position measuring device
WO2015049717A1 (en) * 2013-10-01 2015-04-09 株式会社日立製作所 Device for estimating position of moving body and method for estimating position of moving body
US20170089032A1 (en) * 2014-03-18 2017-03-30 Novatron Oy System and method for positioning construction machine

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031206A (en) * 2007-07-30 2009-02-12 Nakagawa Kenkyusho:Kk Position measuring device
WO2015049717A1 (en) * 2013-10-01 2015-04-09 株式会社日立製作所 Device for estimating position of moving body and method for estimating position of moving body
US20170089032A1 (en) * 2014-03-18 2017-03-30 Novatron Oy System and method for positioning construction machine

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112854355A (en) * 2019-11-27 2021-05-28 诺瓦特伦有限公司 Method for determining position and orientation of machine
JP2021085322A (en) * 2019-11-27 2021-06-03 ノバトロン オサケ ユキチュア Method for determining place and direction of machine
JP2023504772A (en) * 2019-11-27 2023-02-07 ノバトロン オサケ ユキチュア Methods for Determining Situational Awareness in the Workplace
JP2023052738A (en) * 2019-11-27 2023-04-12 ノバトロン オサケ ユキチュア Method and positioning system for determining location and orientation of machine
CN112854355B (en) * 2019-11-27 2023-08-18 诺瓦特伦有限公司 Method for determining the position and orientation of a machine
US11796316B2 (en) 2019-11-27 2023-10-24 Novatron Oy Method for determining location and orientation of machine
JP7445756B2 (en) 2019-11-27 2024-03-07 ノバトロン オサケ ユキチュア Methods for determining situational awareness at the work site
WO2021256528A1 (en) * 2020-06-19 2021-12-23 株式会社小松製作所 Calibration device and calibration method
WO2022248766A1 (en) * 2021-05-26 2022-12-01 Novatron Oy Method for determining location and orientation of earthworks machine in worksite

Also Published As

Publication number Publication date
JP6947659B2 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
JP6947659B2 (en) Construction machine position estimation device
US10481265B2 (en) Apparatus, systems and methods for point cloud generation and constantly tracking position
US9481982B1 (en) Method and control system for surveying and mapping a terrain while operating a bulldozer
Thrun et al. Scan alignment and 3-D surface modeling with a helicopter platform
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
US9142063B2 (en) Positioning system utilizing enhanced perception-based localization
CN207360243U (en) Automotive positioning pan and tilt head
CN111833717B (en) Method, device, equipment and storage medium for positioning vehicle
JP5227139B2 (en) Construction machinery
JP6995767B2 (en) Measurement system, work machine and measurement method
EP3779357A1 (en) Localisation of a surveying instrument
CN107235013A (en) Automotive positioning pan and tilt head
KR102606049B1 (en) construction machinery
US11821167B2 (en) Excavator with improved movement sensing
CA3074462A1 (en) Systems and methods to apply markings
US11609562B2 (en) Using generated markings for vehicle control and object avoidance
GB2571004A (en) Method for operating a mobile working machine and mobile working machine
JP2024514793A (en) Method and system for determining machine condition - Patents.com
CN116202511B (en) Method and device for determining pose of mobile equipment under long roadway ultra-wideband one-dimensional constraint
US11970839B2 (en) Excavator with improved movement sensing
US20230092265A1 (en) Laser reference tracking and target corrections for work machines
CN117268404B (en) Unmanned aerial vehicle indoor and outdoor autonomous navigation method utilizing multi-sensor fusion
BR102022012468A2 (en) METHOD FOR OPERATING A WORKING MACHINE, AND, WORKING MACHINE
JP2023068408A (en) Position information setting system
CN117739982A (en) Indoor real-time positioning method, updating method and device for unmanned engineering machinery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210907

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210916

R150 Certificate of patent or registration of utility model

Ref document number: 6947659

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250