JP6713190B2 - Shovel operating device and shovel operating method - Google Patents

Shovel operating device and shovel operating method Download PDF

Info

Publication number
JP6713190B2
JP6713190B2 JP2015200795A JP2015200795A JP6713190B2 JP 6713190 B2 JP6713190 B2 JP 6713190B2 JP 2015200795 A JP2015200795 A JP 2015200795A JP 2015200795 A JP2015200795 A JP 2015200795A JP 6713190 B2 JP6713190 B2 JP 6713190B2
Authority
JP
Japan
Prior art keywords
work element
command
shovel
touch operation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015200795A
Other languages
Japanese (ja)
Other versions
JP2017071992A (en
Inventor
朗 山口
朗 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2015200795A priority Critical patent/JP6713190B2/en
Publication of JP2017071992A publication Critical patent/JP2017071992A/en
Application granted granted Critical
Publication of JP6713190B2 publication Critical patent/JP6713190B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ショベル操作装置及びショベル操作方法に関する。 The present invention relates to a shovel operating device and a shovel operating method.

下記の特許文献1に、ショベルの操作を補助するための情報を提供する表示システムが開示されている。この表示システムでは、掘削対象の目標面と、バケットの刃先との位置関係が表示画面に表示される。ショベルの操作者は、表示された画像を見ながらショベルを操作することによって、掘削対象を目標とする形状に掘削することができる。 Patent Document 1 below discloses a display system that provides information for assisting the operation of a shovel. In this display system, the positional relationship between the target surface to be excavated and the blade edge of the bucket is displayed on the display screen. The operator of the shovel can excavate the excavation target into a target shape by operating the shovel while looking at the displayed image.

特開2014−74319号公報JP, 2014-74319, A

掘削時に、操作者は、2本の操作レバーを操作することにより、ブームの上げ下げ、アームの開閉、バケットの開閉、及び上部旋回体の旋回を行う。操作レバーの倒し方向と、駆動対象のアクチュエータとが1対1に対応する。バケットの目標とする移動方向から、ブーム、アーム及びバケットを駆動するアクチュエータのそれぞれの駆動量を導き出し、かつ適切に操作レバーを操作するには、高い熟練度が求められる。 At the time of excavation, the operator operates the two operation levers to raise and lower the boom, open and close the arm, open and close the bucket, and swing the upper swing body. The tilting direction of the operation lever and the actuator to be driven have a one-to-one correspondence. A high degree of skill is required to derive the drive amounts of the boom, the arm, and the actuator that drives the bucket from the target moving direction of the bucket, and to appropriately operate the operation lever.

本発明の目的は、ショベルの操作に高い熟練度が求められないショベル操作装置及びショベル操作方法を提供することである。 An object of the present invention is to provide a shovel operating device and a shovel operating method that do not require a high degree of skill in operating a shovel.

本発明の一観点によると、
ブーム、アーム、及びアタッチメントからなる作業要素を含むショベルと通信する通信装置と、
画像を表示するとともに、タッチ入力が行われる操作画面と、
処理装置と
を有し、
前記処理装置は、
前記通信装置を介して、操作対象のショベルの前記作業要素の姿勢情報を受信し、
受信した姿勢情報が反映された前記作業要素を、前記操作画面に立面画像として表示し、
前記立面画像に対して行われる第1のタッチ操作を検出し、
前記第1のタッチ操作が、前記作業要素のうち移動の指示対象となる着目箇所、及び前記着目箇所を移動させるべき目標地点を指令する操作であるとき、前記作業要素を駆動する指令として速度の目標値を生成し、前記第1のタッチ操作が、前記作業要素のうち力を発生させる箇所、発生すべき力の大きさ及び方向を指令する操作であるとき、前記作業要素を駆動する指令として推力の目標値を生成して、前記通信装置を介して前記ショベルに送信するショベル操作装置が提供される。
According to one aspect of the invention,
A communication device for communicating with the shovel including a work element consisting of a boom, an arm, and an attachment;
While displaying an image, an operation screen where touch input is performed,
And a processing device,
The processing device is
Via the communication device, receives the posture information of the work element of the shovel to be operated,
The work element on which the received posture information is reflected is displayed as an elevation image on the operation screen,
Detecting a first touch operation performed on the elevation image,
When the first touch operation is an operation of instructing a point of interest to be a movement instruction target of the work element and a target point to which the point of interest is to be moved, a speed of the operation element is set as a command for driving the work element. When a target value is generated and the first touch operation is an operation for instructing a place where force is generated in the work element, the magnitude and direction of the force to be generated, as a command for driving the work element There is provided a shovel operating device that generates a target value of thrust and transmits it to the shovel via the communication device.

本発明の他の観点によると、
ブーム、アーム、及びアタッチメントからなる作業要素を含む操作対象のショベルから、前記作業要素の姿勢情報を受信し、
受信した前記作業要素の姿勢が反映された前記作業要素を、タッチ入力が行われる操作画面に立面画像として表示し、
前記操作画面に表示された前記立面画像に対して行われるタッチ操作を検出し、
前記タッチ操作が、前記作業要素のうち移動の指示対象となる着目箇所、及び前記着目箇所を移動させるべき目標地点を指令する操作であるとき、前記作業要素を駆動する指令として速度の目標値を生成し、前記タッチ操作が、前記作業要素のうち力を発生させる箇所、発生すべき力の大きさ及び方向を指令する操作であるとき、前記作業要素を駆動する指令として推力の目標値を生成して、前記ショベルに送信するショベル操作方法が提供される。
According to another aspect of the invention,
From a shovel to be operated including a work element including a boom, an arm, and an attachment, receives attitude information of the work element,
The work element in which the posture of the received work element is reflected is displayed as an elevation image on an operation screen where touch input is performed,
Detecting a touch operation performed on the elevation image displayed on the operation screen,
When the touch operation is an operation of instructing a point of interest to be a movement instruction target of the work element and a target point to move the point of interest, a target value of speed is set as a command for driving the work element. When the touch operation is an operation for instructing a place where a force is generated in the work element, a magnitude and a direction of the force to be generated, a target value of thrust is generated as a command for driving the work element. Then, a shovel operating method for transmitting to the shovel is provided.

作業要素の立面画像に対する操作と、作業要素の姿勢の変化との関係は、操作レバーの操作と、作業要素の姿勢の変化との関係に比べて直接的である。このため、作業要素の立面画像に対する操作には、操作レバーの操作に比べて熟練度が要求されない。 The relationship between the operation of the work element on the elevation image and the change in the posture of the work element is more direct than the relationship between the operation of the operation lever and the change in the posture of the work element. Therefore, the skill level is not required for the operation of the work element with respect to the elevation image as compared with the operation of the operation lever.

図1は、実施例によるショベル操作装置の斜視図とブロック図、及びショベルの側面図とブロック図である。FIG. 1 is a perspective view and a block diagram of a shovel operating device according to an embodiment, and a side view and a block diagram of a shovel. 図2は、ショベル操作装置の処理装置の機能ブロック図である。FIG. 2 is a functional block diagram of a processing device of the shovel operating device. 図3は、ショベル操作装置の処理装置で実行される処理のフローチャートである。FIG. 3 is a flowchart of processing executed by the processing device of the shovel operating device. 図4は、ステップS13(図3)の詳細なフローチャートである。FIG. 4 is a detailed flowchart of step S13 (FIG. 3). 図5は、ショベル操作装置の操作画面に表示されたショベルの立面画像の一例を示す図である。FIG. 5: is a figure which shows an example of the elevation image of the shovel displayed on the operation screen of the shovel operating device. 図6は、ショベル操作装置の操作画面に表示されたショベルの立面画像の他の例を示す図である。FIG. 6 is a diagram showing another example of the elevation image of the shovel displayed on the operation screen of the shovel operating device. 図7は、他の実施例によるショベル操作装置の処理装置で実行される処理のフローチャートである。FIG. 7 is a flowchart of processing executed by the processing device of the shovel operating device according to another embodiment. 図8は、操作画面に表示された作業要素の立面画像と、下部走行体及び上部旋回体の平面画像の一例を示す図である。FIG. 8 is a diagram showing an example of an elevation image of the work element displayed on the operation screen and a plane image of the lower traveling body and the upper swing body. 図9A〜図9Hは、ショベルが掘削作業を行うときの一連の姿勢変化を示す図である。9A to 9H are diagrams showing a series of posture changes when the shovel performs excavation work. 図10は、制御装置、油圧回路、及びアクチュエータのブロック図である。FIG. 10 is a block diagram of a control device, a hydraulic circuit, and an actuator. 図11は、さらに他の実施例によるショベル操作装置の操作画面に表示された立面画像を示す図である。FIG. 11 is a diagram showing an elevation image displayed on the operation screen of the shovel operating device according to still another embodiment.

図1に、実施例によるショベル操作装置の斜視図とブロック図、及びショベルの側面図とブロック図を示す。 FIG. 1 shows a perspective view and a block diagram of a shovel operating device according to an embodiment, and a side view and a block diagram of the shovel.

ショベル50の操作者が、ショベル操作装置10を操作すると、ショベル操作装置10がショベル50に、指令を送信する。ショベル50は、この指令を受信すると、指令に応じた動作を行う。 When the operator of the shovel 50 operates the shovel operating device 10, the shovel operating device 10 sends a command to the shovel 50. Upon receipt of this command, the shovel 50 operates according to the command.

ショベル50は、下部走行体51、上部旋回体52、ブーム53、アーム54、及びバケット55を含む。上部旋回体52は、下部走行体51に旋回可能に搭載されている。本明細書において、ブーム53、アーム54、及びバケット55をまとめて「作業要素」ということとする。 The shovel 50 includes a lower traveling body 51, an upper swing body 52, a boom 53, an arm 54, and a bucket 55. The upper swing body 52 is rotatably mounted on the lower traveling body 51. In the present specification, the boom 53, the arm 54, and the bucket 55 are collectively referred to as “working element”.

ブーム53は、上部旋回体52に連結され、アーム54はブーム53の先端に連結され、バケット55は、アーム54の先端に連結される。ショベル50は、ブームシリンダ57、アームシリンダ58、バケットシリンダ59、旋回モータ56等の複数のアクチュエータを有する。ブームシリンダ57は、ブーム53を上下に駆動する。アームシリンダ58は、アーム54を開閉駆動する。バケットシリンダ59は、バケット55を開閉駆動する。旋回モータ56は、下部走行体51に対して上部旋回体52を旋回させる動力を発生する。 The boom 53 is connected to the upper swing body 52, the arm 54 is connected to the tip of the boom 53, and the bucket 55 is connected to the tip of the arm 54. The shovel 50 has a plurality of actuators such as a boom cylinder 57, an arm cylinder 58, a bucket cylinder 59, and a turning motor 56. The boom cylinder 57 drives the boom 53 up and down. The arm cylinder 58 drives the arm 54 to open and close. The bucket cylinder 59 drives the bucket 55 to open and close. The swing motor 56 generates power for swinging the upper swing body 52 with respect to the lower traveling body 51.

ショベル50は、さらに2本の操作レバー62を有する。操作者が操作レバー62を前後左右に倒すことにより、ショベル50の操作を行う。 The shovel 50 further has two operating levers 62. The operator operates the shovel 50 by tilting the operation lever 62 back and forth and left and right.

ショベル50に搭載された通信装置61が、ショベル操作装置10との通信を行う。制御装置60が、操作レバー62の操作、またはショベル操作装置10から通信装置61を介して受信した指令に基づいて、旋回モータ56、ブームシリンダ57、アームシリンダ58、及びバケットシリンダ59の動作を制御する。これらのアクチュエータの油圧回路に挿入された制御弁がパイロット圧で制御される場合には、制御装置60は、指令に基づいて電気信号を発生し、この電気信号によって、パイロット圧を変化させればよい。アクチュエータの油圧回路に電磁制御弁が挿入されている場合には、制御装置60が発生する電気信号によって電磁制御弁を制御すればよい。 The communication device 61 mounted on the shovel 50 communicates with the shovel operating device 10. The control device 60 controls the operation of the swing motor 56, the boom cylinder 57, the arm cylinder 58, and the bucket cylinder 59 based on an operation of the operation lever 62 or a command received from the shovel operation device 10 via the communication device 61. To do. When the control valves inserted in the hydraulic circuits of these actuators are controlled by the pilot pressure, the control device 60 generates an electric signal based on the command and changes the pilot pressure by this electric signal. Good. When the electromagnetic control valve is inserted in the hydraulic circuit of the actuator, the electromagnetic control valve may be controlled by an electric signal generated by the control device 60.

測長センサ63、64、及び65が、それぞれブームシリンダ57、アームシリンダ58、及びバケットシリンダ59の伸縮長を計測する。伸縮長の計測結果が制御装置60に入力される。角度センサ66が、旋回モータ56の旋回角度を計測する。旋回角度の計測結果が制御装置60に入力される。 The length measurement sensors 63, 64, and 65 measure the expansion/contraction lengths of the boom cylinder 57, the arm cylinder 58, and the bucket cylinder 59, respectively. The measurement result of the expansion/contraction length is input to the control device 60. The angle sensor 66 measures the turning angle of the turning motor 56. The measurement result of the turning angle is input to the control device 60.

測長センサ63、64、及び65による測定結果に基づいて、上部旋回体52に対する作業要素(ブーム53、アーム54、及びバケット55)の姿勢を求めることができる。角度センサ66による測定結果に基づいて、下部走行体51に対する上部旋回体52の旋回方向の姿勢を求めることができる。測長センサ63、64、65に替えて、上部旋回体52に対してブーム53のなす角、ブーム53に対してアーム54のなす角、及びアーム54に対してバケット55のなす角を測定する角度センサを用いることも可能である。 The postures of the work elements (the boom 53, the arm 54, and the bucket 55) with respect to the upper swing body 52 can be obtained based on the measurement results of the length measuring sensors 63, 64, and 65. Based on the measurement result of the angle sensor 66, the posture of the upper swing body 52 with respect to the lower traveling body 51 in the swing direction can be obtained. Instead of the length measuring sensors 63, 64, 65, the angle of the boom 53 with respect to the upper swing body 52, the angle of the arm 54 with respect to the boom 53, and the angle of the bucket 55 with respect to the arm 54 are measured. It is also possible to use an angle sensor.

ショベル操作装置10は、処理装置11、操作画面12、通信装置13、及び記憶装置14を含む。操作画面12は、画像を表示する表示画面と、タッチ入力を行う入力画面とを兼ねる。ショベル操作装置10として、タッチパネルを含むタブレット端末を用いることができる。一例として、ショベル操作用のコンピュータプログラム(アプリケーションプログラム)をインストールした汎用のスマートフォンを、ショベル操作装置10として使用することも可能である。 The shovel operating device 10 includes a processing device 11, an operation screen 12, a communication device 13, and a storage device 14. The operation screen 12 serves as both a display screen for displaying an image and an input screen for performing touch input. As the shovel operating device 10, a tablet terminal including a touch panel can be used. As an example, a general-purpose smartphone in which a computer program (application program) for operating a shovel is installed can be used as the shovel operating device 10.

通信装置13は、操作対象のショベル50と通信する。ショベル操作装置10とショベル50との通信には、近距離無線通信方式、有線通信方式等を採用することができる。操作画面12は、タッチ入力が行われると、タッチ入力されたタッチ位置を検出する。タッチ入力の操作子として、操作者の指、タッチペン等を用いることができる。操作画面12の複数個所にタッチ入力が行われると、操作画面12は、複数のタッチ位置を検出することができる。検出されたタッチ位置情報は、処理装置11に入力される。 The communication device 13 communicates with the shovel 50 to be operated. For communication between the shovel operating device 10 and the shovel 50, a short-range wireless communication system, a wire communication system, or the like can be adopted. When the touch input is performed, the operation screen 12 detects the touch position touch-input. As a touch input operator, an operator's finger, a touch pen, or the like can be used. When touch input is performed on a plurality of locations on the operation screen 12, the operation screen 12 can detect a plurality of touch positions. The detected touch position information is input to the processing device 11.

操作画面12内でタッチ位置が移動すると、処理装置11は、タッチ位置の移動に基づいて、ショベル50のアクチュエータを駆動する指令を生成する。さらに、生成された指令を、通信装置13を介してショベル50に送信する。記憶装置14に、処理装置11で実行されるショベル操作用プログラム、処理装置11の処理で用いられる種々のデータが格納されている。 When the touch position moves within the operation screen 12, the processing device 11 generates a command to drive the actuator of the shovel 50 based on the movement of the touch position. Further, the generated command is transmitted to the shovel 50 via the communication device 13. The storage device 14 stores a shovel operation program executed by the processing device 11 and various data used in the processing of the processing device 11.

図2に、ショベル操作装置10に搭載された処理装置11の機能ブロック図を示す。通信装置13を介して、ショベル50(図1)から姿勢演算部111に、ショベル50の姿勢情報が入力される。姿勢情報には、測長センサ63、64、65(図1)によりそれぞれ測定されたブームシリンダ57、アームシリンダ58、及びバケットシリンダ59の伸縮長、及び角度センサ66で測定された旋回角度が含まれる。姿勢演算部111は、受信した姿勢情報を演算することにより、ショベル50の現時点の姿勢を求める。 FIG. 2 shows a functional block diagram of the processing device 11 mounted on the shovel operating device 10. The attitude information of the shovel 50 is input from the shovel 50 (FIG. 1) to the attitude calculation unit 111 via the communication device 13. The attitude information includes the extension/contraction lengths of the boom cylinder 57, the arm cylinder 58, and the bucket cylinder 59 measured by the length measurement sensors 63, 64, 65 (FIG. 1), and the turning angle measured by the angle sensor 66. Be done. The posture calculation unit 111 calculates the current posture of the shovel 50 by calculating the received posture information.

姿勢表示部112が、受信した姿勢情報が反映された形態で、作業要素を操作画面12に立面画像として表示する。 The posture display unit 112 displays the work element on the operation screen 12 as an elevation image in a form in which the received posture information is reflected.

操作検出部113が、操作画面12に対して行われたタッチ操作を検出する。これにより、タッチ位置、及びタッチ位置の移動の軌跡が検出される。さらに、操作検出部113は、入力されたタッチ操作が、ドラッグ操作であるかフリック操作であるかを判別する。 The operation detection unit 113 detects a touch operation performed on the operation screen 12. As a result, the touch position and the locus of movement of the touch position are detected. Further, the operation detection unit 113 determines whether the input touch operation is a drag operation or a flick operation.

指令生成部114が、操作検出部113で検出されたタッチ操作に基づいて、ショベル50の各アクチュエータに対する指令を生成する。生成された指令は、通信装置13を介してショベル50に送信される。 The command generation unit 114 generates a command for each actuator of the shovel 50 based on the touch operation detected by the operation detection unit 113. The generated command is transmitted to the shovel 50 via the communication device 13.

周辺環境表示部115が、ショベル50の周辺環境の形状、例えば掘削対象の形状等を表す画像を操作画面12に表示する。周辺環境の形状データは、予め記憶装置14に格納されている。周辺環境演算部116が、指令生成部114で生成された指令通りにショベル50が動作した場合の周辺環境の形状の変化を求める。周辺環境演算部116は、姿勢演算部111で求められたショベル50の姿勢の時間変化に基づいて、周辺環境の形状の変化を求めてもよい。形状変化後の周辺環境の形状が、周辺環境表示部115によって、操作画面12に表示される。 The surrounding environment display unit 115 displays an image representing the shape of the surrounding environment of the shovel 50, for example, the shape of the excavation target on the operation screen 12. The shape data of the surrounding environment is stored in the storage device 14 in advance. The surrounding environment calculation unit 116 obtains a change in the shape of the surrounding environment when the shovel 50 operates according to the command generated by the command generation unit 114. The surrounding environment calculation unit 116 may calculate the change in the shape of the surrounding environment based on the time change of the posture of the shovel 50 calculated by the posture calculation unit 111. The shape of the surrounding environment after the shape change is displayed on the operation screen 12 by the surrounding environment display unit 115.

図3に、ショベル操作装置10に搭載された処理装置11(図1)で実行される処理のフローチャートを示す。ステップS10において、ショベル操作装置10が操作対象のショベル50から、作業要素の姿勢情報を受信する。 FIG. 3 shows a flowchart of processing executed by the processing device 11 (FIG. 1) mounted on the shovel operating device 10. In step S10, the shovel operating device 10 receives the posture information of the work element from the shovel 50 to be operated.

ステップS11において、処理装置11は、姿勢情報に基づいて作業要素の姿勢を算出し、算出された姿勢の作業要素の立面画像を操作画面12に表示する。なお、作業要素とともに、下部走行体51及び上部旋回体52の画像を表示してもよい。ショベル50の操作者は、操作画面12に表示された立面画像に対してタッチ操作を行う。具体的なタッチ操作の方法については、後に図5及び図6を参照して詳細に説明する。 In step S11, the processing device 11 calculates the posture of the work element based on the posture information, and displays the elevation image of the work element having the calculated posture on the operation screen 12. The images of the lower traveling body 51 and the upper revolving body 52 may be displayed together with the work elements. The operator of the shovel 50 performs a touch operation on the elevation image displayed on the operation screen 12. A specific touch operation method will be described later in detail with reference to FIGS. 5 and 6.

ステップS12において、処理装置11は、立面画像に対して行われたタッチ操作を検出する。ステップS13において、処理装置11は、立面画像に対して行われたタッチ操作に基づいて、ショベル50(図1)の作業要素を駆動する指令を生成する。 In step S12, the processing device 11 detects a touch operation performed on the elevation image. In step S13, the processing device 11 generates a command to drive the work element of the shovel 50 (FIG. 1) based on the touch operation performed on the elevation image.

ステップS14において、生成された指令に基づいてショベル50が動作するときの作業要素の姿勢変化を表す立面画像を、操作画面12に表示する。例えば、姿勢変化前、姿勢変化の途中段階、及び姿勢変化後の作業要素の立面画像を重ねて表示する。 In step S<b>14, the elevation screen image showing the posture change of the work element when the shovel 50 operates based on the generated instruction is displayed on the operation screen 12. For example, the elevation images of the work elements before the posture change, in the middle of the posture change, and after the posture change are displayed in an overlapping manner.

ステップS15において、操作者が、操作画面12に示された作業要素の姿勢の変化が目標通りであるか否かを判断する。作業要素の姿勢の変化が目標通りである場合には、操作者は、操作画面12に表示されている送信ボタンをタップする。送信ボタンがタップされると、ステップS16において、生成された指令がショベル50に送信される。この指令に基づいて、ショベル50の作業要素が実際に駆動される。 In step S15, the operator determines whether the change in the posture of the work element shown on the operation screen 12 is as desired. If the change in the posture of the work element is as desired, the operator taps the send button displayed on the operation screen 12. When the send button is tapped, the generated command is sent to the shovel 50 in step S16. Based on this command, the work element of the shovel 50 is actually driven.

ステップS15で、作業者が、操作画面12に示された作業要素の姿勢の変化が目標通りではないと判断した場合は、操作画面12に表示されている戻るボタンをタップする。これにより、操作画面12に姿勢変化前の作業要素の立面画像が表示される。操作者は、再表示された立面画像に対して、タッチ操作をやり直す。処理装置11(図1)は、ステップS12において、新たに行われたタッチ操作を検出する。 When the worker determines in step S15 that the change in the posture of the work element shown on the operation screen 12 is not as desired, the operator taps the return button displayed on the operation screen 12. As a result, the elevation image of the work element before the posture change is displayed on the operation screen 12. The operator performs the touch operation again on the re-displayed elevation image. The processing device 11 (FIG. 1) detects a newly performed touch operation in step S12.

ステップS16で指令をショベルに送信した後、ステップS17において、処理装置11が、操作終了か否かを判定する。操作が終了していない場合は、ステップS10に戻って、ショベル50から、作業要素が駆動された後の姿勢情報を受信する。新たな姿勢情報に基づいて、ステップS11以降の処理が実行される。 After transmitting the instruction to the shovel in step S16, in step S17, the processing device 11 determines whether or not the operation has ended. If the operation has not been completed, the process returns to step S10, and the posture information after the work element is driven is received from the shovel 50. The processing from step S11 is executed based on the new posture information.

特に微細な操作を行う場合、ステップS15のように作業要素の姿勢の変化が所望の変化であることを確認することは有効である。しかし、操作に対応する指令をショベル50(図1)に送信する前に、操作者の判断が必要となるため、作業効率が低下するおそれがある。作業効率の低下を防止するために、ステップS15を省略し、ステップS13で生成された指令を直ちにショベル50に送信する手順を採用してもよい。この場合、タッチ操作に追従して、ショベル50の姿勢が変化する。 When performing a particularly fine operation, it is effective to confirm that the change in the posture of the work element is a desired change as in step S15. However, the operator's judgment is required before the command corresponding to the operation is transmitted to the shovel 50 (FIG. 1), which may reduce the work efficiency. In order to prevent a reduction in work efficiency, step S15 may be omitted and a procedure may be adopted in which the command generated in step S13 is immediately transmitted to the shovel 50. In this case, the posture of the shovel 50 changes following the touch operation.

図4に、ステップS13(図3)の詳細なフローチャートを示す。ステップS131において、ステップS12で検出されたタッチ操作がドラッグ操作であるか否かを判定する。ステップS12で検出されたタッチ操作がドラッグ操作ではない場合、ステップS132において、そのタッチ操作がフリック操作であるか否かを判定する。検出されたタッチ操作がドラッグ操作でもフリック操作でもない場合には、ステップS12(図3)に戻って、新たに行われたタッチ操作を検出する。 FIG. 4 shows a detailed flowchart of step S13 (FIG. 3). In step S131, it is determined whether the touch operation detected in step S12 is a drag operation. If the touch operation detected in step S12 is not a drag operation, it is determined in step S132 whether the touch operation is a flick operation. If the detected touch operation is neither a drag operation nor a flick operation, the process returns to step S12 (FIG. 3) to detect a newly performed touch operation.

検出された操作がドラッグ操作である場合には、ステップS133において、アクチュエータに対する速度指令(速度の目標値)を生成する。これにより、各アクチュエータが、指令された速度で伸縮する。作業要素のある箇所(例えばバケットの先端)を、目標位置まで移動させたい場合に、ドラッグ操作が行われる。 If the detected operation is a drag operation, a speed command (speed target value) for the actuator is generated in step S133. As a result, each actuator expands and contracts at the commanded speed. A drag operation is performed when it is desired to move a location (for example, the tip of a bucket) of a work element to a target position.

検出された操作がフリック操作である場合には、ステップS134において、アクチュエータに対する推力指令(推力の目標値)を生成する。これにより、各アクチュエータが、指令された推力を発生する。フリック操作は、作業要素のある箇所(例えばバケットの先端)を対象物に押し当てて対象物に力を加えるような作業に用いられる。アクチュエータに速度指令または推力指令が与えられたときのアクチュエータの制御方法については、後に図10を参照して説明する。 If the detected operation is a flick operation, a thrust command (target value of thrust) for the actuator is generated in step S134. This causes each actuator to generate a commanded thrust force. The flick operation is used for a work in which a portion of a work element (for example, the tip of a bucket) is pressed against an object to apply a force to the object. A method of controlling the actuator when a speed command or a thrust command is given to the actuator will be described later with reference to FIG.

次に、図5を参照して、ドラッグ操作について説明する。
図5は、ショベル操作装置10の操作画面12に表示されたショベル50の立面画像の一例を示す。立面画像においては、ブーム53及びアーム54が、それぞれ簡略化されて直線で表示されている。操作画面12に、さらに、送信ボタン及び戻るボタンが表示されている。送信ボタン及び戻るボタンは、ステップS15(図3)における判断後に、操作者によって操作される。
Next, the drag operation will be described with reference to FIG.
FIG. 5 shows an example of an elevation image of the shovel 50 displayed on the operation screen 12 of the shovel operating device 10. In the elevation image, the boom 53 and the arm 54 are simplified and displayed as straight lines. A send button and a return button are further displayed on the operation screen 12. The send button and the return button are operated by the operator after the determination in step S15 (FIG. 3).

操作者は、まず、作業要素のうち移動の指示対象となる箇所(着目箇所)P0にタッチする。図5では、バケット55の先端が着目箇所P0として選択されている。着目箇所P0を移動させるべき目標地点P1まで、ドラッグ操作を行う。着目箇所P0から目標地点P1までのタッチ位置の軌跡TRが、矢印付曲線で示されている。着目箇所P0が目標地点P1まで移動したときの作業要素を破線で示している。 The operator first touches a portion (focused portion) P0 that is a movement instruction target among the work elements. In FIG. 5, the tip of the bucket 55 is selected as the point of interest P0. A drag operation is performed to the target point P1 to which the point of interest P0 should be moved. The locus TR of the touch position from the point of interest P0 to the target point P1 is shown by a curved line with an arrow. The work elements when the point of interest P0 moves to the target point P1 are indicated by broken lines.

処理装置11(図2)の指令生成部114(図2)は、バケット55の先端が軌跡TRに沿って移動するように、アクチュエータを駆動する指令を生成する(ステップS13)。ブーム53、アーム54、及びバケット55からなる作業要素は、3リンクのマニピュレータとして定義することができる。このため、逆運動学を適用することにより、作業要素の着目箇所P0の移動の軌跡から、ブーム53、アーム54、及びバケット55の各々の姿勢をどのように変化させればよいか求めることができる。 The command generation unit 114 (FIG. 2) of the processing device 11 (FIG. 2) generates a command to drive the actuator so that the tip of the bucket 55 moves along the trajectory TR (step S13). The work element including the boom 53, the arm 54, and the bucket 55 can be defined as a three-link manipulator. Therefore, by applying the inverse kinematics, it is possible to determine how to change the respective postures of the boom 53, the arm 54, and the bucket 55 from the trajectory of the movement of the target point P0 of the work element. it can.

バケット55の先端の軌跡TRが規定されただけでは、ブーム53、アーム54、及びバケット55の姿勢の変化は一意に求まらない。ブーム53、アーム54、及びバケット55を駆動する3つのアクチュエータのうち1つを動作させない(固定する)という条件を設けると、ブーム53、アーム54、及びバケット55は、2リンクのマニピュレータと考えることができる。この場合、バケット55の先端の軌跡TRを規定することにより、ブーム53、アーム54、及びバケット55の姿勢の変化を一意に算出することができる。軌跡TR上の複数の点を、移動先の目標地点として、着目箇所P0を次の目標地点まで移動させるのに必要なブーム53、アーム54、及びバケット55の姿勢の変化を順次算出することにより、着目箇所P0を軌跡TRに沿って移動させるための指令を生成することができる。 Only by defining the trajectory TR of the tip of the bucket 55, changes in the attitudes of the boom 53, the arm 54, and the bucket 55 cannot be uniquely obtained. Under the condition that one of the three actuators that drive the boom 53, the arm 54, and the bucket 55 is not operated (fixed), the boom 53, the arm 54, and the bucket 55 are considered as a two-link manipulator. You can In this case, by defining the trajectory TR of the tip of the bucket 55, the changes in the attitudes of the boom 53, the arm 54, and the bucket 55 can be uniquely calculated. By sequentially calculating changes in the postures of the boom 53, the arm 54, and the bucket 55, which are necessary to move the point of interest P0 to the next target point, using a plurality of points on the trajectory TR as target points of the movement destination. It is possible to generate a command for moving the point of interest P0 along the locus TR.

ブーム53、アーム54、及びバケット55の姿勢の変化が求まると、姿勢を変化させるためのアクチュエータの伸縮量が求まる。指令生成部114は、この伸縮量に応じて、アクチュエータを駆動するための速度指令を生成する。速度指令には、速度の目標値、及び動作時間が含まれる。速度指令は、着目箇所P0を目標地点までできるだけ速く移動させるように、生成することが好ましい。 When the changes in the postures of the boom 53, the arm 54, and the bucket 55 are obtained, the expansion/contraction amount of the actuator for changing the postures is obtained. The command generation unit 114 generates a speed command for driving the actuator according to the expansion/contraction amount. The speed command includes a speed target value and an operation time. The speed command is preferably generated so as to move the point of interest P0 to the target point as fast as possible.

次に、図6を参照して、フリック操作について説明する。図5と同様に、ショベル操作装置10の操作画面12に、ショベル50の立面画像が表示されている。 Next, the flick operation will be described with reference to FIG. Similar to FIG. 5, an elevation image of the shovel 50 is displayed on the operation screen 12 of the shovel operating device 10.

操作者は、まず、作業要素のうち力を発生させる箇所(着目箇所)P0にタッチする。図6では、バケット55の先端が着目箇所P0として選択されている。着目箇所P0に発生させる力の向きに、フリック操作を行う。フリック操作の方向FDが白抜きの矢印で示されている。発生すべき力の大きさは、例えばフリック操作の長さまたは速さで指定することができる。 The operator first touches a portion (focused portion) P0 of the work element where a force is generated. In FIG. 6, the tip of the bucket 55 is selected as the point of interest P0. A flick operation is performed in the direction of the force generated at the point of interest P0. The direction FD of the flick operation is indicated by a white arrow. The magnitude of the force to be generated can be specified by, for example, the length or speed of the flick operation.

処理装置11(図2)の指令生成部114(図2)は、バケット55の先端がフリック操作の方向の力を発生するように、アクチュエータを駆動する指令を生成する。各アクチュエータが発生すべき推力の大きさは、ヤコビアン行列を用いて算出することができる。3つのアクチュエータが発生すべき推力が一意に求まらない場合は、いずれか1つのアクチュエータを固定した条件の下で、残りの2つのアクチュエータの推力を算出することができる。 The command generation unit 114 (FIG. 2) of the processing device 11 (FIG. 2) generates a command to drive the actuator so that the tip of the bucket 55 generates a force in the direction of the flick operation. The magnitude of the thrust to be generated by each actuator can be calculated using the Jacobian matrix. When the thrusts to be generated by the three actuators cannot be uniquely determined, the thrusts of the remaining two actuators can be calculated under the condition that any one actuator is fixed.

次に、上記実施例によるショベル操作装置10を用いてショベル50を操作するときの優れた効果について説明する。 Next, an excellent effect of operating the shovel 50 using the shovel operating device 10 according to the above-described embodiment will be described.

上記実施例では、着目箇所P0(図5)を移動させるべき軌跡TRを指定すれば、着目箇所P0が軌跡TRを辿るように、処理装置11(図1)がアクチュエータに対する指令を生成する。また、着目箇所P0(図6)が発生すべき力の方向と大きさをタッチ操作で指定すれば、処理装置11(図1)がアクチュエータに対する指令を生成する。このため、操作者は、ブーム53、アーム54、バケット55のそれぞれのアクチュエータに対する操作を行う場合に比べて、直感的に操作を行うことができる。 In the above embodiment, if the locus TR to move the point of interest P0 (FIG. 5) is specified, the processing device 11 (FIG. 1) generates a command to the actuator so that the point of interest P0 follows the locus TR. Further, if the direction and magnitude of the force to be generated at the point of interest P0 (FIG. 6) are designated by the touch operation, the processing device 11 (FIG. 1) generates a command for the actuator. Therefore, the operator can intuitively perform the operation as compared with the case where the actuators of the boom 53, the arm 54, and the bucket 55 are operated.

実施例によるショベル操作装置10を用いることにより、熟練度の低い操作者も、容易にショベル50の操作を行うことができる。 By using the shovel operating device 10 according to the embodiment, an operator having a low degree of skill can easily operate the shovel 50.

さらに、上記実施例では、アクチュエータに対して、速度指令の他に、推力指令を与えることができる。このため、対象物に力を加えて作業を行う場合、例えば地面の掘削等の作業を行う場合に、バケット55が対象物に対して所望の力を与えるように、作業要素を操作することができる。 Further, in the above embodiment, the thrust command can be given to the actuator in addition to the speed command. Therefore, when performing work by applying force to the object, for example, when performing work such as excavation of the ground, the work element can be operated so that the bucket 55 gives a desired force to the object. it can.

さらに、上記実施例では、周辺環境表示部115によって表示された周辺環境の画像が、作業が進むに従って、作業に応じて変化する。このため、実際の作業現場から離れた場所から、操作画面12を見ながらショベル50を遠隔操作することも可能である。 Further, in the above-described embodiment, the image of the surrounding environment displayed by the surrounding environment display unit 115 changes according to the work as the work progresses. Therefore, it is possible to remotely operate the shovel 50 while looking at the operation screen 12 from a place away from the actual work site.

次に、図7及び図8を参照して、他の実施例について説明する。以下、図1〜図6に示した実施例との相違点について説明し、共通の構成については説明を省略する。 Next, another embodiment will be described with reference to FIGS. 7 and 8. Hereinafter, differences from the embodiment shown in FIGS. 1 to 6 will be described, and description of common configurations will be omitted.

図7に、本実施例によるショベル操作装置10の処理装置11で実行される処理のフローチャートを示す。 FIG. 7 shows a flowchart of processing executed by the processing device 11 of the shovel operating device 10 according to this embodiment.

ステップS10は、図3に示したステップS10の処理と同一である。ステップS11aにおいて、ショベル50の作業要素の立面画像に加えて、受信した姿勢情報が反映された下部走行体51と上部旋回体52(図1)との平面画像を表示する。 Step S10 is the same as the process of step S10 shown in FIG. In step S11a, in addition to the elevation image of the work element of the shovel 50, the planar images of the lower traveling body 51 and the upper revolving body 52 (FIG. 1) in which the received posture information is reflected are displayed.

図8に、操作画面12に表示された作業要素の立面画像と、下部走行体51及び上部旋回体52の平面画像の一例を示す。操作画面12の左半分に立面画像が表示されており、右半分に平面画像が表示されている。
FIG. 8 shows an example of an elevation image of the work element displayed on the operation screen 12 and a plane image of the lower traveling body 51 and the upper swing body 52. An elevation image is displayed on the left half of the operation screen 12, and a plane image is displayed on the right half.

ステップS12a(図7)において、立面画像または平面画像に対して行われたタッチ操作を検出する。立面画像に対してタッチ操作が行われた場合の処理は、図3に示した処理と同一である。平面画像に対するタッチ操作は、下部走行体51に対して上部旋回体52を旋回させる操作に相当する。以下、平面画像に対してタッチ操作が行われた場合について説明する。 In step S12a (FIG. 7), the touch operation performed on the elevation image or the plane image is detected. The process when the touch operation is performed on the elevation image is the same as the process shown in FIG. The touch operation on the plane image corresponds to the operation of turning the upper swing body 52 with respect to the lower traveling body 51. Hereinafter, a case where a touch operation is performed on a plane image will be described.

ステップS13aにおいて、アクチュエータの1つである旋回モータ56を駆動する指令を生成する。タッチ操作がドラッグ操作である場合には、旋回モータ56に対する速度指令(速度の目標値及び動作時間)が生成される。ドラッグ操作によって、旋回方向及び旋回角度が指示される。タッチ操作がフリック操作である場合には、旋回モータ56に対するトルク指令(トルクの目標値及び動作時間)が生成される。フリック操作によって、発生すべきトルクの方向及び大きさが指示される。 In step S13a, a command to drive the swing motor 56, which is one of the actuators, is generated. When the touch operation is a drag operation, a speed command (target value of speed and operation time) for the turning motor 56 is generated. The turning direction and the turning angle are designated by the drag operation. When the touch operation is a flick operation, a torque command (target value of torque and operation time) for the turning motor 56 is generated. The flick operation indicates the direction and magnitude of the torque to be generated.

ステップS14aにおいて、生成された指令に基づいて上部旋回体52が旋回するときの上部旋回体52の姿勢変化を表す平面画像を、操作画面12に表示する。例えば、姿勢変化前、姿勢変化の途中段階、及び姿勢変化後の上部旋回体52の平面画像を重ねて表示する。 In step S14a, a plane image representing the posture change of the upper swing body 52 when the upper swing body 52 turns based on the generated command is displayed on the operation screen 12. For example, the planar images of the upper swing body 52 before the posture change, in the middle of the posture change, and after the posture change are overlapped and displayed.

ステップS15aにおいて、上部旋回体52の姿勢変化が目標通りであると判定された場合には、ステップS16aにおいて、指令をショベル50に送信する。上部旋回体52の姿勢変化が目標通りではないと判定された場合には、ステップS12aにおいて、新たなタッチ操作が検出される。 If it is determined in step S15a that the posture change of the upper swing body 52 is as desired, a command is transmitted to the shovel 50 in step S16a. If it is determined that the posture change of the upper swing body 52 is not as desired, a new touch operation is detected in step S12a.

図3に示した実施例のフローチャートにおいて、ステップS15の処理を省略する手順を採用する場合と同様に、図7に示した実施例のフローチャートにおいても、ステップS15aを省略してもよい。この場合、タッチ操作に追従して、ショベル50の姿勢が変化する。 Similarly to the case of adopting the procedure of omitting the process of step S15 in the flowchart of the embodiment shown in FIG. 3, step S15a may be omitted in the flowchart of the embodiment shown in FIG. In this case, the posture of the shovel 50 changes following the touch operation.

次に、図9A〜図9Hを参照して、掘削作業を行うときの一連の操作について説明する。図9A〜図9Hにおいて、ドラッグ操作の軌跡TRが矢印付実線で表されており、フリック操作の方向FDが、白抜き矢印で表されている。 Next, a series of operations when performing excavation work will be described with reference to FIGS. 9A to 9H. 9A to 9H, the trajectory TR of the drag operation is represented by a solid line with an arrow, and the direction FD of the flick operation is represented by a white arrow.

図9Aに示すように、バケット55の先端が掘削対象物70に接触するように、作業要素の立面画像(図8)に対してドラッグ操作を行う。この操作により、図9Bに示すように、バケット55の先端が掘削対象物70の表面に接触する。 As shown in FIG. 9A, a drag operation is performed on the elevation image (FIG. 8) of the work element so that the tip of the bucket 55 contacts the excavation target 70. By this operation, as shown in FIG. 9B, the tip of the bucket 55 comes into contact with the surface of the object 70 to be excavated.

図9Bに示した状態の立面画像に対して、バケット55の先端が掘削対象物70に向って力を発生するようにフリック操作を行う。このフリック操作により、図9Cに示すように、掘削が行われる。 A flick operation is performed on the elevation image in the state shown in FIG. 9B so that the tip of the bucket 55 generates a force toward the excavation target 70. By this flick operation, excavation is performed as shown in FIG. 9C.

図9Cに示した状態の立面画像に対して、さらにフリック操作を行う。このフリック操作により、図9Dに示すように掘削が進む。 A flick operation is further performed on the elevation image in the state shown in FIG. 9C. By this flick operation, excavation proceeds as shown in FIG. 9D.

図9Dに示した状態の立面画像に対して、さらにフリック操作を行う。この操作により、図9Eに示すように、掘削された土砂がバケット55によって持ち上げられる。 A flick operation is further performed on the elevation image in the state shown in FIG. 9D. By this operation, the excavated earth and sand is lifted by the bucket 55, as shown in FIG. 9E.

図9Eに示した状態の立面画像に対して、ドラッグ操作を行うことにより、バケット55を旋回可能な高さまで上昇させる。このとき、着目箇所P0(図5)として、アーム54とバケット55との連結箇所を選択してもよい。このドラッグ操作により、図9Fに示すように、バケット55が旋回可能な高さまで上昇する。 By performing a drag operation on the elevation image in the state shown in FIG. 9E, the bucket 55 is raised to a height at which it can turn. At this time, the connection point between the arm 54 and the bucket 55 may be selected as the point of interest P0 (FIG. 5). By this drag operation, as shown in FIG. 9F, the bucket 55 rises to a height at which it can turn.

図9Fに示した状態の平面画像に対して、旋回を指示するドラッグ操作を行う。このドラッグ操作により、図9Gに示すように、バケット55が掘削地点から土砂の積み上げ地点まで移動する。 A drag operation for instructing turning is performed on the planar image in the state shown in FIG. 9F. By this drag operation, as shown in FIG. 9G, the bucket 55 moves from the excavation point to the earth and sand accumulation point.

図9Gに示した状態の立面画像に対して、ドラッグ操作を行うことにより、バケット55に保持されていた土砂を排出する。この操作により、図9Hに示すように、アーム54及びバケット55が開き、土砂が排出される。 By performing a drag operation on the elevation image in the state shown in FIG. 9G, the earth and sand held in the bucket 55 is discharged. By this operation, as shown in FIG. 9H, the arm 54 and the bucket 55 are opened, and the earth and sand are discharged.

図9Hに示した状態の平面画像に対してドラッグ操作を行うことにより、上部旋回体52を旋回させ、バケット55を掘削地点まで移動させる。このドラッグ操作により、ショベル50が、図9Aに示した姿勢に戻る。 By performing a drag operation on the planar image in the state shown in FIG. 9H, the upper swing body 52 is swung, and the bucket 55 is moved to the excavation point. By this drag operation, the shovel 50 returns to the posture shown in FIG. 9A.

図9A〜図9Hに示したように、操作画面12(図8)に表示された立面画像及び平面画像に対してタッチ操作を行うことにより、掘削作業における一連の操作を行うことができる。 As shown in FIGS. 9A to 9H, a series of operations in excavation work can be performed by performing a touch operation on the elevation image and the plane image displayed on the operation screen 12 (FIG. 8 ).

次に、図10を参照して、アクチュエータに対する速度制御及び推力制御について説明する。
図10は、制御装置60、油圧回路80、及びアクチュエータのブロック図を示す。図10では、アクチュエータとして、ブームシリンダ57が示されている。油圧回路80が、油圧ポンプ及び制御弁等を含む。油圧回路80は、油圧ラインを介して、ブームシリンダ57のボトム室に及びロッド室に接続されている。
Next, speed control and thrust control for the actuator will be described with reference to FIG.
FIG. 10 shows a block diagram of the control device 60, the hydraulic circuit 80, and the actuator. In FIG. 10, a boom cylinder 57 is shown as an actuator. The hydraulic circuit 80 includes a hydraulic pump, a control valve, and the like. The hydraulic circuit 80 is connected to the bottom chamber of the boom cylinder 57 and to the rod chamber via a hydraulic line.

圧力センサ81、82が、それぞれボトム室に接続された油圧ライン及びロッド室に接続された油圧ラインを流れる作動油の圧力を測定する。一方の圧力センサ81による圧力の測定値と、他方の圧力センサ82による圧力の測定値との差から、ブームシリンダ57が発生する推力を算出することができる。流量センサ83が、ボトム室に接続された油圧ラインを流れる作動油の流量を測定する。流量センサ83で測定された流量から、ブームシリンダ57の伸縮速度を算出することができる。 The pressure sensors 81 and 82 measure the pressures of the hydraulic oil flowing in the hydraulic line connected to the bottom chamber and the hydraulic line connected to the rod chamber, respectively. The thrust force generated by the boom cylinder 57 can be calculated from the difference between the pressure measurement value of one pressure sensor 81 and the pressure measurement value of the other pressure sensor 82. The flow rate sensor 83 measures the flow rate of the hydraulic oil flowing through the hydraulic line connected to the bottom chamber. From the flow rate measured by the flow rate sensor 83, the expansion/contraction speed of the boom cylinder 57 can be calculated.

制御装置60が、指令受信部601、速度制御部602、及び推力制御部603を含む。圧力センサ81、82による測定値が推力制御部603にフィードバックされる。流量センサ83による測定値が速度制御部602にフィードバックされる。 The control device 60 includes a command receiving unit 601, a speed control unit 602, and a thrust control unit 603. The values measured by the pressure sensors 81 and 82 are fed back to the thrust control unit 603. The value measured by the flow rate sensor 83 is fed back to the speed controller 602.

ショベル操作装置10(図1)から受信した指令CMDが、指令受信部601に入力される。受信した指令が速度指令である場合には、指令に速度の目標値TSが含まれる。受信した指令が推力指令である場合には、指令に推力の目標値TTが含まれる。 The command CMD received from the shovel operating device 10 (FIG. 1) is input to the command receiving unit 601. When the received command is the speed command, the command includes the target speed value TS. When the received command is a thrust command, the command includes the thrust target value TT.

指令受信部601は、受信した指令が速度指令である場合には、速度の目標値TSを速度制御部602に与える。受信した指令が推力指令である場合には、推力の目標値TTを推力制御部603に与える。 If the received command is a speed command, the command receiving unit 601 gives the speed target value TS to the speed control unit 602. When the received command is a thrust command, the thrust control unit 603 is provided with a target value TT of thrust.

速度制御部602は、速度の目標値TSと、流量センサ83の測定値から算出された速度との差分に基づいて、差分が0に近づくように油圧回路80を制御する。推力制御部603は、推力の目標値TTと、圧力センサ81、82の測定値から算出された推力との差分に基づいて、差分が0に近づくように油圧回路80を制御する。これらの制御には、例えばPI制御が用いられる。 The speed control unit 602 controls the hydraulic circuit 80 so that the difference approaches 0 based on the difference between the target value TS of the speed and the speed calculated from the measured value of the flow rate sensor 83. The thrust control unit 603 controls the hydraulic circuit 80 so that the difference approaches 0 based on the difference between the thrust target value TT and the thrust calculated from the measured values of the pressure sensors 81 and 82. PI control is used for these controls, for example.

上述の制御を行うことにより、ブームシリンダ57が、ショベル操作装置10(図1)から指令された速度で動作し、または推力を発生する。アームシリンダ58、バケットシリンダ59も、同様に制御される。旋回モータ56に油圧モータが使用される場合には、ブームシリンダ57と同様に、油圧回路が制御される。旋回モータ56に電動モータが使用される場合には、制御装置60が、旋回モータ56に電流を供給するインバータを制御する。 By performing the control described above, the boom cylinder 57 operates at a speed commanded by the shovel operating device 10 (FIG. 1) or generates thrust. The arm cylinder 58 and the bucket cylinder 59 are similarly controlled. When a hydraulic motor is used as the swing motor 56, the hydraulic circuit is controlled similarly to the boom cylinder 57. When an electric motor is used as the swing motor 56, the control device 60 controls the inverter that supplies a current to the swing motor 56.

次に、図11を参照して、さらに他の実施例について説明する。以下、図1〜図6に示した実施例との相違点について説明し、共通の構成については説明を省略する。 Next, still another embodiment will be described with reference to FIG. Hereinafter, differences from the embodiment shown in FIGS. 1 to 6 will be described, and description of common configurations will be omitted.

図11は、ショベル操作装置10の操作画面12に表示された立面画像を示す。図1〜図6に示した実施例では、作業要素上の1つの着目箇所P0(図5)に対してタッチ操作が行われた。図11に示した実施例では、作業要素上の2つの着目箇所P0a、P0bに対してタッチ操作が行われる。図11に示した例では、一方の着目箇所P0aとして、バケット55の先端が選択され、他方の着目箇所P0bとして、アーム54とバケット55との連結箇所が選択されている。 FIG. 11 shows an elevation image displayed on the operation screen 12 of the shovel operating device 10. In the embodiment shown in FIGS. 1 to 6, the touch operation is performed on one point of interest P0 (FIG. 5) on the work element. In the embodiment shown in FIG. 11, a touch operation is performed on two focus points P0a and P0b on the work element. In the example shown in FIG. 11, the tip of the bucket 55 is selected as the one point of interest P0a, and the connecting point between the arm 54 and the bucket 55 is selected as the other point of interest P0b.

タッチ操作によって、着目箇所P0a及びP0bが、それぞれ目標地点P1a及びP1bまでドラッグされる。2つの着目箇所P0a、P0bの軌跡が指定されると、ブーム53、アーム54、及びバケット55の姿勢の変化が一意に決定される。 By the touch operation, the points of interest P0a and P0b are dragged to the target points P1a and P1b, respectively. When the loci of the two points of interest P0a and P0b are designated, the changes in the postures of the boom 53, the arm 54, and the bucket 55 are uniquely determined.

図11に示した実施例では、ブーム53、アーム54、及びバケット55を駆動する3つのアクチュエータを、同時に動作させることができる。 In the embodiment shown in FIG. 11, the three actuators that drive the boom 53, the arm 54, and the bucket 55 can be operated simultaneously.

上記実施例では、アーム54の先端にバケット55が連結されたショベル50について説明した。バケット55に替えて、その他のアタッチメントを連結してもよい。上記実施例によるショベル操作装置10は、掴み動作を行うことができるアタッチメントを用いて、土砂に埋まった杭を引き抜く作業や、地中に埋まった水道管、ガス管等を持ち上げる作業を行うことができる。 In the above embodiment, the shovel 50 in which the bucket 55 is connected to the tip of the arm 54 has been described. Instead of the bucket 55, other attachments may be connected. The shovel operating device 10 according to the above-described embodiment can perform the work of pulling out the piles buried in the soil and the work of lifting the water pipes, gas pipes, etc. buried in the ground by using the attachment capable of grasping. it can.

以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。 Although the present invention has been described with reference to the embodiments, the present invention is not limited to these. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

10 ショベル操作装置
11 処理装置
12 操作画面
13 通信装置
14 記憶装置
50 ショベル
51 下部走行体
52 上部旋回体
53 ブーム
54 アーム
55 バケット
56 旋回モータ
57 ブームシリンダ
58 アームシリンダ
59 バケットシリンダ
60 制御装置
61 通信装置
62 操作レバー
63、64、65 測長センサ
66 角度センサ
70 掘削対象物
80 油圧回路
81、82 圧力センサ
83 流量センサ
111 姿勢演算部
112 姿勢表示部
113 操作検出部
114 指令生成部
115 周辺環境表示部
116 周辺環境演算部
601 指令受信部
602 速度制御部
603 推力制御部
CMD 指令
FD フリック操作の方向
P0、P0a、P0b 着目箇所
P1、P1a、P1b 目標地点
TR 軌跡
TS 速度の目標値
TT 推力の目標値
10 Shovel Operating Device 11 Processing Device 12 Operation Screen 13 Communication Device 14 Storage Device 50 Shovel 51 Lower Traveling Body 52 Upper Revolving Body 53 Boom 54 Arm 55 Bucket 56 Slewing Motor 57 Boom Cylinder 58 Arm Cylinder 59 Bucket Cylinder 60 Control Device 61 Communication Device 61 62 operation levers 63, 64, 65 length measurement sensor 66 angle sensor 70 excavation target object 80 hydraulic circuit 81, 82 pressure sensor 83 flow rate sensor 111 attitude calculation unit 112 attitude display unit 113 operation detection unit 114 command generation unit 115 peripheral environment display unit 116 Surrounding environment calculation unit 601 Command receiving unit 602 Speed control unit 603 Thrust control unit CMD Command FD Flick operation direction P0, P0a, P0b Target point P1, P1a, P1b Target point TR Locus TS Target value TT Target value of thrust

Claims (8)

ブーム、アーム、及びアタッチメントからなる作業要素を含むショベルと通信する通信装置と、
画像を表示するとともに、タッチ入力が行われる操作画面と、
処理装置と
を有し、
前記処理装置は、
前記通信装置を介して、操作対象のショベルの前記作業要素の姿勢情報を受信し、
受信した姿勢情報が反映された前記作業要素を、前記操作画面に立面画像として表示し、
前記立面画像に対して行われる第1のタッチ操作を検出し、
前記第1のタッチ操作が、前記作業要素のうち移動の指示対象となる着目箇所と、前記着目箇所を移動させるべき目標地点とを指令する操作であるとき、前記作業要素を駆動する指令として速度の目標値を生成し、前記第1のタッチ操作が、前記作業要素のうち力を発生させる箇所と、発生すべき力の大きさ及び方向とを指令する操作であるとき、前記作業要素を駆動する指令として推力の目標値を生成して、前記通信装置を介して前記ショベルに送信するショベル操作装置。
A communication device for communicating with the shovel including a work element consisting of a boom, an arm, and an attachment;
While displaying an image, an operation screen where touch input is performed,
And a processing device,
The processing device is
Via the communication device, receives the posture information of the work element of the shovel to be operated,
The work element on which the received posture information is reflected is displayed as an elevation image on the operation screen,
Detecting a first touch operation performed on the elevation image,
When the first touch operation is an operation of instructing a point of interest to be a movement instruction target of the work element and a target point to which the point of interest should be moved, a speed is used as a command for driving the work element. Drive the work element when the first touch operation is an operation of instructing a position of the work element that generates a force and the magnitude and direction of the force that should be generated. A shovel operating device that generates a target value of thrust as a command to transmit the command to the shovel through the communication device.
ブーム、アーム、及びアタッチメントからなる作業要素を含むショベルと通信する通信装置と、
画像を表示するとともに、タッチ入力が行われる操作画面と、
処理装置と
を有し、
前記処理装置は、
前記通信装置を介して、操作対象のショベルの前記作業要素の姿勢情報を受信し、
受信した姿勢情報が反映された前記作業要素を、前記操作画面に立面画像として表示し、
前記立面画像に対して行われる第1のタッチ操作を検出し、
前記第1のタッチ操作に基づいて、前記作業要素を駆動する指令を生成して、前記通信装置を介して前記ショベルに送信し、
前記処理装置は、さらに、
前記立面画像に対して前記第1のタッチ操作が行われると、前記第1のタッチ操作がドラッグ操作かフリック操作かを判定し、
前記第1のタッチ操作がドラッグ操作であると判定した場合には、前記作業要素を駆動する指令として、前記作業要素を駆動するアクチュエータの速度の目標値を生成し、
前記第1のタッチ操作がフリック操作であると判定した場合には、前記作業要素を駆動する指令として、前記作業要素を駆動するアクチュエータの推力の目標値を生成するショベル操作装置。
A communication device for communicating with the shovel including a work element consisting of a boom, an arm, and an attachment;
While displaying an image, an operation screen where touch input is performed,
And a processing device,
The processing device is
Via the communication device, receives the posture information of the work element of the shovel to be operated,
The work element on which the received posture information is reflected is displayed as an elevation image on the operation screen,
Detecting a first touch operation performed on the elevation image,
A command for driving the work element is generated based on the first touch operation, and the command is transmitted to the excavator via the communication device,
The processing device further comprises
When the first touch operation is performed on the elevation image, it is determined whether the first touch operation is a drag operation or a flick operation,
When it is determined that the first touch operation is a drag operation, a target value of the speed of an actuator that drives the work element is generated as a command that drives the work element,
A shovel operating device that, when it is determined that the first touch operation is a flick operation, generates a target value of thrust of an actuator that drives the work element, as a command to drive the work element.
前記処理装置は、前記作業要素を駆動するアクチュエータの速度の目標値を生成する処理において、前記第1のタッチ操作で指定した前記作業要素の着目箇所が、タッチ位置の軌跡を辿るように、前記作業要素を駆動する指令を生成する請求項2に記載のショベル操作装置。 In the processing for generating the target value of the speed of the actuator that drives the work element, the processing device may be configured such that the point of interest of the work element designated by the first touch operation follows the trajectory of the touch position. The shovel operating device according to claim 2, which generates a command for driving the work element. 前記処理装置は、前記作業要素を駆動するアクチュエータの推力の目標値を生成する処理において、前記第1のタッチ操作で指定した前記作業要素の着目箇所が、前記第1のタッチ操作で指定した方向に、かつ前記第1のタッチ操作で指定した大きさの力を発生するように、前記作業要素を駆動する指令を生成する請求項2または3に記載のショベル操作装置。 In the processing for generating the target value of the thrust force of the actuator that drives the work element, the processing device determines that the focus point of the work element designated by the first touch operation is the direction designated by the first touch operation. The shovel operating device according to claim 2 or 3, which generates a command to drive the work element so as to generate a force having a magnitude specified by the first touch operation. 前記処理装置は、さらに、
前記ショベルの下部走行体に対する上部旋回体の姿勢情報を受信し、
受信した姿勢情報が反映された前記下部走行体と前記上部旋回体とを、前記操作画面に平面画像として表示し、
前記平面画像に対して行われる第2のタッチ操作を検出し、
前記第2のタッチ操作に基づいて、前記上部旋回体を駆動する指令を生成して、前記通信装置を介して前記ショベルに送信する請求項1乃至4のいずれか1項に記載のショベル操作装置。
The processing device further comprises
Receives the attitude information of the upper swing body with respect to the lower traveling body of the excavator,
The lower traveling body and the upper revolving superstructure in which the received attitude information is reflected are displayed as a plane image on the operation screen,
Detecting a second touch operation performed on the planar image,
The shovel operating device according to claim 1, wherein a command for driving the upper swing body is generated based on the second touch operation, and the command is transmitted to the shovel through the communication device. ..
ブーム、アーム、及びアタッチメントからなる作業要素を含むショベルと通信する通信装置と、
画像を表示するとともに、タッチ入力が行われる操作画面と、
処理装置と
を有し、
前記処理装置は、
前記通信装置を介して、操作対象のショベルの前記作業要素の姿勢情報を受信し、
受信した姿勢情報が反映された前記作業要素を、前記操作画面に立面画像として表示し、
前記立面画像に対して行われる第1のタッチ操作を検出し、
前記第1のタッチ操作に基づいて、前記作業要素を駆動する指令を生成して、前記通信装置を介して前記ショベルに送信し、
前記処理装置は、さらに、
前記ショベルの下部走行体に対する上部旋回体の姿勢情報を受信し、
受信した姿勢情報が反映された前記下部走行体と前記上部旋回体とを、前記操作画面に平面画像として表示し、
前記平面画像に対して行われる第2のタッチ操作を検出し、
前記第2のタッチ操作に基づいて、前記上部旋回体を駆動する指令を生成して、前記通信装置を介して前記ショベルに送信し、
前記処理装置は、さらに、
前記平面画像に対して前記第2のタッチ操作が行われると、前記第2のタッチ操作がドラッグ操作かフリック操作かを判定し、
前記第2のタッチ操作がドラッグ操作であると判定した場合には、前記上部旋回体を駆動する指令として、前記上部旋回体を駆動するアクチュエータの速度の目標値を生成し、
前記第2のタッチ操作がフリック操作であると判定した場合には、前記上部旋回体を駆動する指令として、前記上部旋回体を駆動するアクチュエータのトルクの目標値を生成するショベル操作装置。
A communication device for communicating with the shovel including a work element consisting of a boom, an arm, and an attachment;
While displaying an image, an operation screen where touch input is performed,
And a processing device,
The processing device is
Via the communication device, receives the posture information of the work element of the shovel to be operated,
The work element on which the received posture information is reflected is displayed as an elevation image on the operation screen,
Detecting a first touch operation performed on the elevation image,
A command for driving the work element is generated based on the first touch operation, and the command is transmitted to the excavator via the communication device,
The processing device further comprises
Receives the attitude information of the upper swing body with respect to the lower traveling body of the excavator,
The lower traveling body and the upper revolving superstructure in which the received attitude information is reflected are displayed as a plane image on the operation screen,
Detecting a second touch operation performed on the planar image,
A command for driving the upper swing body is generated based on the second touch operation, and the command is transmitted to the excavator via the communication device,
The processing device further comprises
When the second touch operation is performed on the planar image, it is determined whether the second touch operation is a drag operation or a flick operation,
When it is determined that the second touch operation is a drag operation, a target value of the speed of an actuator that drives the upper swing body is generated as a command to drive the upper swing body,
A shovel operating device that, when it is determined that the second touch operation is a flick operation, generates a target value of a torque of an actuator that drives the upper swing body as a command to drive the upper swing body.
前記通信装置が通信するショベルは、さらに下部走行体及び上部旋回体を含み、
前記処理装置は、
前記通信装置を介して、前記下部走行体に対する前記上部旋回体の姿勢情報を受信し、
受信した姿勢情報が反映された前記作業要素を、前記操作画面に立面画像として表示するとともに、前記操作画面の他の領域に前記下部走行体と前記上部旋回体とを平面画像として表示し、
前記立面画像に対して行われる前記第1のタッチ操作、及び前記平面画像に対する第2のタッチ操作を検出し、
前記第1のタッチ操作に基づいて、前記作業要素を駆動する指令を生成し、前記第2のタッチ操作に基づいて、前記上部旋回体を駆動する指令を生成して、前記通信装置を介して前記ショベルに送信する請求項1に記載のショベル操作装置。
The shovel with which the communication device communicates further includes a lower traveling body and an upper revolving body,
The processing device is
Via the communication device, receives the attitude information of the upper swing body with respect to the lower traveling body,
The work element on which the received posture information is reflected is displayed as an elevation image on the operation screen, and the lower traveling body and the upper revolving structure are displayed as a plane image on another area of the operation screen,
The made to the elevational image first touch operation, and detecting a second touch operation to the planar image,
A command for driving the work element is generated based on the first touch operation, a command for driving the upper swing body is generated based on the second touch operation, and the command is generated via the communication device. The shovel operating device according to claim 1, which transmits to the shovel.
ブーム、アーム、及びアタッチメントからなる作業要素を含む操作対象のショベルから、前記作業要素の姿勢情報を受信し、
受信した前記作業要素の姿勢が反映された前記作業要素を、タッチ入力が行われる操作画面に立面画像として表示し、
前記操作画面に表示された前記立面画像に対して行われるタッチ操作を検出し、
前記タッチ操作が、前記作業要素のうち移動の指示対象となる着目箇所、及び前記着目箇所を移動させるべき目標地点を指令する操作であるとき、前記作業要素を駆動する指令として速度の目標値を生成し、前記タッチ操作が、前記作業要素のうち力を発生させる箇所、発生すべき力の大きさ及び方向を指令する操作であるとき、前記作業要素を駆動する指令として推力の目標値を生成して、前記ショベルに送信するショベル操作方法。
From a shovel to be operated including a work element including a boom, an arm, and an attachment, receives attitude information of the work element,
The work element in which the posture of the received work element is reflected is displayed as an elevation image on an operation screen where touch input is performed,
Detecting a touch operation performed on the elevation image displayed on the operation screen,
When the touch operation is an operation of instructing a point of interest to be a movement instruction target of the work element and a target point to move the point of interest, a target value of speed is set as a command for driving the work element. When the touch operation is an operation for instructing a place where a force is generated in the work element, a magnitude and a direction of the force to be generated, a target value of thrust is generated as a command for driving the work element. Then, the excavator operating method for transmitting to the excavator.
JP2015200795A 2015-10-09 2015-10-09 Shovel operating device and shovel operating method Active JP6713190B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015200795A JP6713190B2 (en) 2015-10-09 2015-10-09 Shovel operating device and shovel operating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015200795A JP6713190B2 (en) 2015-10-09 2015-10-09 Shovel operating device and shovel operating method

Publications (2)

Publication Number Publication Date
JP2017071992A JP2017071992A (en) 2017-04-13
JP6713190B2 true JP6713190B2 (en) 2020-06-24

Family

ID=58538135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015200795A Active JP6713190B2 (en) 2015-10-09 2015-10-09 Shovel operating device and shovel operating method

Country Status (1)

Country Link
JP (1) JP6713190B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6962841B2 (en) * 2018-03-22 2021-11-05 ヤンマーパワーテクノロジー株式会社 Turning work vehicle display system
JP6980595B2 (en) * 2018-04-10 2021-12-15 株式会社クボタ Working machine demonstration system and method
JP7202193B2 (en) * 2019-01-18 2023-01-11 株式会社小松製作所 WORKING MACHINE CONTROL DEVICE, WORKING MACHINE, AND WORKING MACHINE CONTROL METHOD

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9206589B2 (en) * 2009-03-31 2015-12-08 Caterpillar Inc. System and method for controlling machines remotely
JP5246672B2 (en) * 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 Robot system
JP2014055407A (en) * 2012-09-11 2014-03-27 Kayaba Ind Co Ltd Operation support apparatus
JP5624101B2 (en) * 2012-10-05 2014-11-12 株式会社小松製作所 Excavator display system, excavator and computer program for excavator display
JP2014172413A (en) * 2013-03-06 2014-09-22 Aisin Aw Co Ltd Operation support system, operation support method, and computer program
JP6297784B2 (en) * 2013-03-21 2018-03-20 株式会社椿本チエイン Manipulator device
KR20150025006A (en) * 2013-08-28 2015-03-10 현대중공업 주식회사 Monitor system for excavator
JP6095592B2 (en) * 2014-02-17 2017-03-15 日立建機株式会社 Monitoring image display device for hydraulic excavator
JPWO2015125979A1 (en) * 2015-04-28 2018-02-15 株式会社小松製作所 Work machine periphery monitoring device and work machine periphery monitoring method
JP2015164847A (en) * 2015-05-07 2015-09-17 株式会社小松製作所 Construction machine management system

Also Published As

Publication number Publication date
JP2017071992A (en) 2017-04-13

Similar Documents

Publication Publication Date Title
JP4734214B2 (en) Hydraulic excavator front alignment control device
JP6526321B2 (en) Work machine
CN103890273B (en) Control system and method of construction machine
US7007415B2 (en) Method and system of controlling a work tool
WO2018008188A1 (en) Work machinery
WO2014192473A1 (en) Hydraulic shovel
WO2019131979A1 (en) Excavator
CN107882080A (en) Excavator fine work control method, system and excavator
EP4006235B1 (en) Excavator
JP4455465B2 (en) Front control device for construction machinery
WO2019131980A1 (en) Excavator
JP6713190B2 (en) Shovel operating device and shovel operating method
CN109024751B (en) Semi-automatic construction control system and control method for excavator
JP2014528528A (en) Flattening level control system using excavator
JP2016079677A (en) Area limited excavation control device and construction machine
JP6615058B2 (en) Work machine
CN109689978A (en) Work machine
JP2023174887A (en) Work machine, information processing device
US20170254050A1 (en) System and method for operating implement system of machine
JP3308450B2 (en) Construction machine front control device, area setting method and operation panel
JP2003105795A (en) Drilling control device of hydraulic shovel
KR102378264B1 (en) working machine
EP3951071A1 (en) Construction equipment
JP5756576B2 (en) Excavator
JP3682352B2 (en) Front control device for construction machinery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200602

R150 Certificate of patent or registration of utility model

Ref document number: 6713190

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150