JP2021042569A - Information processing device, information processing system, information processing method, computer program, and construction machine - Google Patents

Information processing device, information processing system, information processing method, computer program, and construction machine Download PDF

Info

Publication number
JP2021042569A
JP2021042569A JP2019164810A JP2019164810A JP2021042569A JP 2021042569 A JP2021042569 A JP 2021042569A JP 2019164810 A JP2019164810 A JP 2019164810A JP 2019164810 A JP2019164810 A JP 2019164810A JP 2021042569 A JP2021042569 A JP 2021042569A
Authority
JP
Japan
Prior art keywords
unit
work
information
data
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019164810A
Other languages
Japanese (ja)
Other versions
JP7282002B2 (en
Inventor
裕平 西田
Yuhei Nishida
裕平 西田
富雄 志垣
Tomio Shigaki
富雄 志垣
謙 大前
Ken Omae
謙 大前
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nabtesco Corp
Original Assignee
Nabtesco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nabtesco Corp filed Critical Nabtesco Corp
Priority to JP2019164810A priority Critical patent/JP7282002B2/en
Priority to KR1020200113664A priority patent/KR20210030875A/en
Priority to CN202010939634.9A priority patent/CN112482460B/en
Publication of JP2021042569A publication Critical patent/JP2021042569A/en
Application granted granted Critical
Publication of JP7282002B2 publication Critical patent/JP7282002B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/30Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom
    • E02F3/32Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets with a dipper-arm pivoted on a cantilever beam, i.e. boom working downwardly and towards the machine, e.g. with backhoes
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • E02F3/437Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like providing automatic sequences of movements, e.g. linear excavation, keeping dipper angle constant
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mining & Mineral Resources (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Pathology (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Paleontology (AREA)
  • Multimedia (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)

Abstract

To provide an information processing device for a work machine that can estimate the moving speed of a work unit with a simple configuration.SOLUTION: An information processing device 10 includes a storage unit 30, an image information acquisition unit 12, and a speed estimation unit 20e. The storage unit 30 stores the correspondence information generated by associating data Gs of the reference image of a work unit 40 of a work machine 100 with posture data Ks of the work unit 40 of the work machine 100. The image information acquisition unit 12 acquires image data Gj of the work unit 40 of the work machine 100 for comparison with the data Gs of the reference image. The speed estimation unit 20e generates speed information Ve regarding the speed of the work unit 40 of the work machine 100 based on the image data Gj acquired by the image information acquisition unit 12 and the correspondence information.SELECTED DRAWING: Figure 2

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、コンピュータプログラムおよび建設機械に関する。 The present invention relates to information processing devices, information processing systems, information processing methods, computer programs and construction machines.

作業装置を撮像するカメラを備えた建設機械が知られている。例えば、特許文献1には、旋回体に設置されて作業装置を撮像するカメラと、相対角度を検出する角度検出部と、姿勢を特定する姿勢特定部とを備えた建設機械が記載されている。この建設機械は、カメラの画像に基づいて抽出した各リンクのエッジからリンク同士の相対角度を検出し、その相対角度に基づいて、旋回体に対する作業装置の姿勢を特定する。 Construction machines equipped with cameras that image working equipment are known. For example, Patent Document 1 describes a construction machine including a camera installed on a swivel body to image a working device, an angle detecting unit for detecting a relative angle, and a posture specifying unit for specifying a posture. .. This construction machine detects the relative angle between the links from the edge of each link extracted based on the image of the camera, and identifies the posture of the working device with respect to the swivel body based on the relative angle.

特開2017−053627号公報JP-A-2017-053627

本発明者らは、油圧等の動力で駆動されるブーム・アームとアタッチメントとを備える建設機械について、以下の認識を得た。 The present inventors have obtained the following recognition about a construction machine provided with a boom arm and an attachment driven by power such as flood control.

ある建設機械は、動力を利用してブームとアームなどからなる腕機構を駆動し、腕機構に取り付けられたバケット等のアタッチメントを動かして所定の施工を行う。例えば、地面を施工する際には、設計図に従って正確な施工を短時間で効率よく行うことが望ましい。しかし、アタッチメントを移動させるとき、その移動速度が速すぎると、オーバーシュートが大きくなり、位置決め精度が低下する。逆に、移動速度が遅すぎると移動時間が長くなり作業効率が低下する。このため、アタッチメントの移動精度を向上させる観点から、アタッチメントの移動速度を検知して精密な機体制御を行う必要がある。 A certain construction machine uses power to drive an arm mechanism including a boom and an arm, and moves an attachment such as a bucket attached to the arm mechanism to perform a predetermined construction. For example, when constructing the ground, it is desirable to perform accurate construction in a short time and efficiently according to the design drawing. However, when moving the attachment, if the moving speed is too fast, the overshoot becomes large and the positioning accuracy deteriorates. On the contrary, if the moving speed is too slow, the moving time becomes long and the work efficiency decreases. Therefore, from the viewpoint of improving the movement accuracy of the attachment, it is necessary to detect the movement speed of the attachment and perform precise airframe control.

移動速度を検知するために、腕機構およびアタッチメントの各部に位置センサを設け、その検知結果の時間当りの変化から速度を推定することが考えられる。しかし、この構成では、センサとその配線を設けるために構成が複雑になる。また、センサや配線のコストが余計にかかるためコスト的にも不利である。移動速度を検知する観点からは、特許文献1に記載の建設機械は、この課題に十分に対処しているとはいえない。このような課題は、上述の建設機械に限らず他の種類の作業機械についても生じうる。 In order to detect the moving speed, it is conceivable to provide a position sensor in each part of the arm mechanism and the attachment, and estimate the speed from the change in the detection result per time. However, in this configuration, the configuration is complicated because the sensor and its wiring are provided. In addition, the cost of the sensor and wiring is extra, which is disadvantageous in terms of cost. From the viewpoint of detecting the moving speed, it cannot be said that the construction machine described in Patent Document 1 sufficiently copes with this problem. Such a problem may occur not only in the above-mentioned construction machines but also in other types of work machines.

本発明は、こうした課題に鑑みてなされたものであり、簡単な構成で作業部の移動速度を推定可能な作業機械の情報処理装置を提供することを目的の一つとしている。 The present invention has been made in view of these problems, and one object of the present invention is to provide an information processing device for a work machine capable of estimating the moving speed of a work unit with a simple configuration.

上記課題を解決するために、本発明のある態様の情報処理装置は、作業機械の作業部の参照画像のデータと作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶している記憶部と、参照画像のデータと比較するために作業機械の作業部の画像のデータを取得する取得部と、取得部で取得された画像のデータと対応情報とに基づいて作業機械の作業部の速度に関する速度情報を生成する速度推定部とを備える。 In order to solve the above-mentioned problems, the information processing apparatus according to an aspect of the present invention provides correspondence information generated by associating the data of the reference image of the working part of the working machine with the data of the posture of the working part of the working machine. Work based on the storage unit that is stored, the acquisition unit that acquires the image data of the work unit of the work machine for comparison with the data of the reference image, and the image data acquired by the acquisition unit and the corresponding information. It is provided with a speed estimation unit that generates speed information regarding the speed of the working unit of the machine.

なお、以上の任意の組み合わせや、本発明の構成要素や表現を方法、装置、プログラム、プログラムを記録した一時的なまたは一時的でない記憶媒体、システムなどの間で相互に置換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above, and those in which the components and expressions of the present invention are mutually replaced between methods, devices, programs, temporary or non-temporary storage media on which programs are recorded, systems, and the like are also used. It is effective as an aspect of the present invention.

本発明によれば、簡単な構成で作業部の移動速度を推定可能な作業機械の情報処理装置を提供できる。 According to the present invention, it is possible to provide an information processing device for a work machine capable of estimating the moving speed of a work unit with a simple configuration.

第1実施形態の情報処理装置を備えた作業機械を概略的に示す側面図である。It is a side view which shows typically the work machine provided with the information processing apparatus of 1st Embodiment. 図1の情報処理装置を概略的に示すブロック図である。It is a block diagram which shows schematic the information processing apparatus of FIG. 図1の作業機械の作業部の姿勢を説明する説明図である。It is explanatory drawing explaining the posture of the work part of the work machine of FIG. 図1の情報処理装置の学習データを示す図である。It is a figure which shows the learning data of the information processing apparatus of FIG. 図1の情報処理装置の姿勢推定処理を説明する説明図である。It is explanatory drawing explaining the posture estimation process of the information processing apparatus of FIG. 図1の情報処理装置の速度推定処理および加速度推定処理を説明する説明図である。It is explanatory drawing explaining the speed estimation processing and acceleration estimation processing of the information processing apparatus of FIG. 図1の情報処理装置の姿勢情報と速度情報と加速度情報の一例を示す図である。It is a figure which shows an example of attitude information, velocity information, and acceleration information of the information processing apparatus of FIG. 図1の情報処理装置の異常検知部を概略的に示すブロック図である。It is a block diagram which shows schematic the abnormality detection part of the information processing apparatus of FIG. 図1の情報処理装置の外観検知部を概略的に示すブロック図である。It is a block diagram which shows schematic the appearance detection part of the information processing apparatus of FIG. 図1の情報処理装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the information processing apparatus of FIG. 図1の情報処理装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the information processing apparatus of FIG. 図1の情報処理装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the information processing apparatus of FIG. 図1の情報処理装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the information processing apparatus of FIG. 第5実施形態の情報処理システムを使用した作業機械を概略的に示すブロック図である。It is a block diagram which shows schematic the work machine which used the information processing system of 5th Embodiment.

以下、本発明を好適な実施形態をもとに各図面を参照しながら説明する。実施形態および変形例では、同一または同等の構成要素、部材には、同一の符号を付するものとし、適宜重複した説明は省略する。また、各図面における部材の寸法は、理解を容易にするために適宜拡大、縮小して示される。また、各図面において実施形態を説明する上で重要ではない部材の一部は省略して表示する。 Hereinafter, the present invention will be described with reference to each drawing based on a preferred embodiment. In the embodiments and modifications, the same or equivalent components and members are designated by the same reference numerals, and redundant description will be omitted as appropriate. In addition, the dimensions of the members in each drawing are shown enlarged or reduced as appropriate for easy understanding. In addition, some of the members that are not important for explaining the embodiment in each drawing are omitted and displayed.

また、第1、第2などの序数を含む用語は多様な構成要素を説明するために用いられるが、この用語は一つの構成要素を他の構成要素から区別する目的でのみ用いられ、この用語によって構成要素が限定されるものではない。 Also, terms including ordinal numbers such as 1st and 2nd are used to describe various components, but this term is used only for the purpose of distinguishing one component from other components. The components are not limited by.

[第1実施形態]
図面を参照して、本発明の第1実施形態の作業機械の情報処理装置10の構成について説明する。図1は、第1実施形態の情報処理装置10を備えた作業機械100を概略的に示す側面図である。図2は、情報処理装置10を概略的に示すブロック図である。
[First Embodiment]
The configuration of the information processing apparatus 10 of the work machine according to the first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a side view schematically showing a work machine 100 provided with the information processing device 10 of the first embodiment. FIG. 2 is a block diagram schematically showing the information processing apparatus 10.

情報処理装置10は、画像情報取得部12と、環境情報取得部14と、姿勢情報取得部16と、制御部20と、記憶部30とを備える。情報処理装置10は、機械学習時と、機械学習時でない通常の動作時(以下、「非学習動作時」という)とを有する。情報処理装置10は、機械学習時に、作業機械100の作業部40の各部の学習画像情報と学習姿勢情報とに基づいて姿勢推定モデルを生成できる。この姿勢推定モデルは、対応情報を例示している。情報処理装置10は、非学習動作時に、リアルタイムな画像情報と姿勢推定モデルとに基づいて作業部40の姿勢を推定できる。作業機械100は、情報処理装置10で推定した作業部40の姿勢に基づいて、作業部40の動作を制御することができる。 The information processing device 10 includes an image information acquisition unit 12, an environment information acquisition unit 14, a posture information acquisition unit 16, a control unit 20, and a storage unit 30. The information processing device 10 has a machine learning time and a normal operation time (hereinafter, referred to as “non-learning operation time”) other than the machine learning time. At the time of machine learning, the information processing device 10 can generate a posture estimation model based on the learning image information and the learning posture information of each part of the work unit 40 of the work machine 100. This attitude estimation model exemplifies correspondence information. The information processing device 10 can estimate the posture of the working unit 40 based on real-time image information and a posture estimation model during a non-learning operation. The work machine 100 can control the operation of the work unit 40 based on the posture of the work unit 40 estimated by the information processing device 10.

画像情報取得部12は、作業部40の画像のデータを取得する。環境情報取得部14は、作業機械100の周囲環境に関する情報を取得する。姿勢情報取得部16は、作業部40の姿勢に関するデータ(以下、「姿勢のデータ」という)を取得する。制御部20は、姿勢推定モデルの生成と、作業部40の姿勢推定に関わる種々のデータ処理を実行する。記憶部30は、制御部20により参照または更新されるデータを記憶する。先に、作業機械100の構成を説明し、その他の構成については後述する。 The image information acquisition unit 12 acquires image data of the work unit 40. The environmental information acquisition unit 14 acquires information on the surrounding environment of the work machine 100. The posture information acquisition unit 16 acquires data related to the posture of the work unit 40 (hereinafter, referred to as “posture data”). The control unit 20 executes various data processing related to the generation of the posture estimation model and the posture estimation of the work unit 40. The storage unit 30 stores data that is referenced or updated by the control unit 20. First, the configuration of the work machine 100 will be described, and other configurations will be described later.

本実施形態の作業機械100は、バケット46を移動させて作業を行う建設機械であり、いわゆるパワーショベルとして機能する。作業機械100は、下部走行部36と、上部車体部34と、腕機構48と、バケット46とを有する。本実施形態において腕機構48と、バケット46とは作業部40を構成する。下部走行部36は、無限軌道などにより所定方向に走行可能に構成される。上部車体部34は、下部走行部36に搭載されている。上部車体部34と作業部40とは、旋回駆動部60により下部走行部36に対して旋回軸Laまわりに旋回可能に構成される。旋回駆動部60は、例えば、旋回モータ(不図示)と旋回ギア(不図示)とで構成できる。上部車体部34には、操縦室38が設けられる。 The work machine 100 of the present embodiment is a construction machine that moves a bucket 46 to perform work, and functions as a so-called power excavator. The work machine 100 has a lower traveling portion 36, an upper vehicle body portion 34, an arm mechanism 48, and a bucket 46. In the present embodiment, the arm mechanism 48 and the bucket 46 form a working unit 40. The lower traveling portion 36 is configured to be able to travel in a predetermined direction by an endless track or the like. The upper vehicle body portion 34 is mounted on the lower traveling portion 36. The upper vehicle body portion 34 and the working portion 40 are configured to be rotatable around the turning shaft La with respect to the lower traveling portion 36 by the turning drive unit 60. The swivel drive unit 60 can be composed of, for example, a swivel motor (not shown) and a swivel gear (not shown). A cockpit 38 is provided in the upper vehicle body portion 34.

操縦室38には、作業部40を操縦する操作部54が設けられる。操作部54から操作が入力されると、その操作に応じて複数の油圧バルブ58が開閉する。油圧バルブ58の開閉に応じて、油圧ポンプ(不図示)から供給される作動油が複数の油圧シリンダ56に送出される。油圧シリンダ56は、腕機構48の基端側から先端側に順に配置される油圧シリンダ56a、56b、56cを含む。油圧シリンダ56a、56b、56cは、作動油の送出量に応じて伸縮する。操縦室38には、後述する異常検知部や外観検知部からの情報などが表示される表示部38dが設けられる。 The control room 38 is provided with an operation unit 54 that controls the work unit 40. When an operation is input from the operation unit 54, the plurality of hydraulic valves 58 open and close according to the operation. The hydraulic oil supplied from the hydraulic pump (not shown) is sent to the plurality of hydraulic cylinders 56 according to the opening and closing of the hydraulic valve 58. The hydraulic cylinder 56 includes hydraulic cylinders 56a, 56b, and 56c that are sequentially arranged from the base end side to the tip end side of the arm mechanism 48. The hydraulic cylinders 56a, 56b, and 56c expand and contract according to the amount of hydraulic oil delivered. The cockpit 38 is provided with a display unit 38d for displaying information from an abnormality detection unit and an appearance detection unit, which will be described later.

また、本実施形態の作業機械100は、上位の制御システムからの指令に基づき作業部40の動作を制御する作業機械制御部62を有する。作業機械制御部62については後述する。 Further, the work machine 100 of the present embodiment has a work machine control unit 62 that controls the operation of the work unit 40 based on a command from a higher-level control system. The work machine control unit 62 will be described later.

腕機構48の基端部は、一例として、上部車体部34において操縦室38の右側に設けられる。腕機構48は、例えば、上部車体部34から前方に延びるブーム42とアーム44とを含む。腕機構48の先端側にはバケット46が取り付けられる。このように、作業機械100は、操縦者の操縦に応じて作業部40の姿勢を変化させることによりバケット46を駆動して目的の作業を行うことができる。また、作業機械100は、上部車体部34と作業部40とを旋回させることにより、バケット46を三次元的に移動させることができる。 The base end portion of the arm mechanism 48 is provided on the right side of the cockpit 38 in the upper vehicle body portion 34 as an example. The arm mechanism 48 includes, for example, a boom 42 and an arm 44 extending forward from the upper body portion 34. A bucket 46 is attached to the tip end side of the arm mechanism 48. In this way, the work machine 100 can drive the bucket 46 to perform the desired work by changing the posture of the work unit 40 according to the operation of the operator. Further, the work machine 100 can move the bucket 46 three-dimensionally by turning the upper vehicle body portion 34 and the work portion 40.

図3は、作業部40の姿勢を説明する説明図である。油圧シリンダ56a、56b、56cは、油圧に応じてその伸縮長L1、L2、L3を変えることができる。ブーム42は、油圧シリンダ56aの伸縮により、上部車体部34側の基端部を中心に先端部が上下に回動するように構成される。アーム44は、油圧シリンダ56bの伸縮により、ブーム42側の基端部を中心に先端部が前後に回動するように構成される。バケット46は、油圧シリンダ56cの伸縮により、アーム44側の基端部を中心に先端部が前後または上下に回動するように構成される。 FIG. 3 is an explanatory diagram illustrating the posture of the working unit 40. The expansion and contraction lengths L1, L2, and L3 of the hydraulic cylinders 56a, 56b, and 56c can be changed according to the flood pressure. The boom 42 is configured such that the tip portion rotates up and down around the base end portion on the upper vehicle body portion 34 side due to the expansion and contraction of the hydraulic cylinder 56a. The arm 44 is configured such that the tip end portion rotates back and forth around the base end portion on the boom 42 side due to the expansion and contraction of the hydraulic cylinder 56b. The bucket 46 is configured such that the tip portion rotates back and forth or up and down around the base end portion on the arm 44 side due to the expansion and contraction of the hydraulic cylinder 56c.

作業部40は、油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3を変化させることにより、ブーム42、アーム44およびバケット46を接続する関節部の屈曲角度θ1、θ2、θ3を変化させることができる。一例として、角度θ1は、ブーム42の水平面に対する角度であり、角度θ2は、ブーム42とアーム44を接続する関節部の屈曲角度であり、角度θ3は、アーム44とバケット46を接続する関節部の屈曲角度である。 The working unit 40 changes the flexion angles θ1, θ2, and θ3 of the joints connecting the boom 42, the arm 44, and the bucket 46 by changing the expansion and contraction lengths L1, L2, and L3 of the hydraulic cylinders 56a, 56b, and 56c. be able to. As an example, the angle θ1 is the angle of the boom 42 with respect to the horizontal plane, the angle θ2 is the bending angle of the joint connecting the boom 42 and the arm 44, and the angle θ3 is the bending angle of the joint connecting the arm 44 and the bucket 46. The bending angle of.

作業部40の姿勢は、ブーム42、アーム44およびバケット46の位置および相対角度によって定義できる。ブーム42、アーム44およびバケット46の形状が一定として、作業部40の姿勢は、ブーム42、アーム44およびバケット46の各部の大きさと、油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3または屈曲角度θ1、θ2、θ3に基づいて幾何学演算により特定できる。 The posture of the working unit 40 can be defined by the positions and relative angles of the boom 42, the arm 44 and the bucket 46. Assuming that the shapes of the boom 42, the arm 44 and the bucket 46 are constant, the posture of the working portion 40 is the size of each part of the boom 42, the arm 44 and the bucket 46 and the expansion and contraction lengths L1, L2 and L3 of the hydraulic cylinders 56a, 56b and 56c. Alternatively, it can be specified by geometric calculation based on the bending angles θ1, θ2, and θ3.

図2に戻る。図2で示す各ブロックは、ハードウェア的には、コンピュータのプロセッサ、CPU、メモリをはじめとする素子や電子回路、機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。 Return to FIG. Each block shown in FIG. 2 can be realized by elements such as a computer processor, CPU, and memory, electronic circuits, and mechanical devices in terms of hardware, and can be realized by a computer program or the like in terms of software. Then, I draw a functional block realized by their cooperation. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by combining hardware and software.

画像情報取得部12を説明する。本実施形態の画像情報取得部12は、作業部40を撮像する画像センサを有する。画像情報取得部12は、後述する機械学習時には、作業部40を撮像した撮像結果を画像のデータとして制御部20に提供する。以下、機械学習時に取得する画像のデータを「参照画像のデータGs」という。画像情報取得部12は、非学習動作時にも、作業部40を撮像した撮像結果を画像のデータとして制御部20に提供する。以下、非学習動作時に取得する画像のデータを単に「画像のデータGj」という。画像のデータGjはリアルタイムな画像のデータであってもよい。 The image information acquisition unit 12 will be described. The image information acquisition unit 12 of the present embodiment has an image sensor that captures an image of the work unit 40. At the time of machine learning, which will be described later, the image information acquisition unit 12 provides the control unit 20 with the image capture result obtained by imaging the work unit 40 as image data. Hereinafter, the image data acquired during machine learning is referred to as "reference image data Gs". The image information acquisition unit 12 provides the control unit 20 with the image capture result of the image of the work unit 40 as image data even during the non-learning operation. Hereinafter, the image data acquired during the non-learning operation is simply referred to as "image data Gj". The image data Gj may be real-time image data.

画像情報取得部12は、作業部40と一体的に旋回するように構成されている。具体的には、画像情報取得部12は、操縦室38の屋根上において作業部40を撮像可能に配置されている。作業部40が旋回するとき、画像情報取得部12は作業部40と一体的に移動するので、旋回しても作業部40との相対的な位置関係は変化しない。 The image information acquisition unit 12 is configured to rotate integrally with the work unit 40. Specifically, the image information acquisition unit 12 is arranged so that the work unit 40 can be imaged on the roof of the cockpit 38. When the working unit 40 turns, the image information acquisition unit 12 moves integrally with the working unit 40, so that the relative positional relationship with the working unit 40 does not change even if the working unit 40 turns.

姿勢情報取得部16を説明する。本実施形態の姿勢情報取得部16は、油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3を取得するストロークセンサ16a、16b、16cを含む。姿勢情報取得部16は、機械学習時に取付けられ、非学習動作時には取外される。姿勢情報取得部16は、機械学習時に伸縮長L1、L2、L3のデータを制御部20に提供する。 The posture information acquisition unit 16 will be described. The posture information acquisition unit 16 of the present embodiment includes stroke sensors 16a, 16b, 16c that acquire the expansion / contraction lengths L1, L2, and L3 of the hydraulic cylinders 56a, 56b, and 56c. The posture information acquisition unit 16 is attached during machine learning and is removed during non-learning operation. The posture information acquisition unit 16 provides the control unit 20 with data of the expansion / contraction lengths L1, L2, and L3 during machine learning.

環境情報取得部14を説明する。画像のデータを取得する際に、天候などの周囲環境が異なると、画像の明るさや色温度も異なり、このことによって姿勢推定の誤差が増える要因になる。そこで、本実施形態では、環境情報取得部14によって周囲環境に関する情報を取得し、その取得結果に応じて画像のデータを補正する。本実施形態の環境情報取得部14は、周囲の明るさを取得する照度センサと色温度を取得する色温度センサとを含む。環境情報取得部14は、取得結果を環境情報Mpとして制御部20に提供する。この例では、環境情報取得部14は、操縦室38の屋根上に配置されている。 The environmental information acquisition unit 14 will be described. When acquiring image data, if the surrounding environment such as the weather is different, the brightness and color temperature of the image will also be different, which will increase the error in posture estimation. Therefore, in the present embodiment, the environment information acquisition unit 14 acquires information on the surrounding environment, and corrects the image data according to the acquisition result. The environmental information acquisition unit 14 of the present embodiment includes an illuminance sensor that acquires the ambient brightness and a color temperature sensor that acquires the color temperature. The environmental information acquisition unit 14 provides the acquisition result as the environmental information Mp to the control unit 20. In this example, the environmental information acquisition unit 14 is arranged on the roof of the cockpit 38.

記憶部30を説明する。記憶部30は、モデル記憶部32を含む。モデル記憶部32は、参照画像のデータGsと姿勢のデータとをもとに公知の機械学習により生成されたモデルであって、作業部40の姿勢を推定する姿勢推定モデルを記憶する。姿勢推定モデルは、入力および出力のデータ形式が予め定められた関数とも言える。実施形態の姿勢推定モデルには、画像のデータGjが入力される。また、実施形態の姿勢推定モデルは、その画像データに対応する推定姿勢に関する情報を出力する。なお、姿勢推定モデルの生成手法については後述する。 The storage unit 30 will be described. The storage unit 30 includes a model storage unit 32. The model storage unit 32 stores a posture estimation model that estimates the posture of the working unit 40, which is a model generated by known machine learning based on the data Gs of the reference image and the posture data. The posture estimation model can be said to be a function in which the input and output data formats are predetermined. Image data Gj is input to the posture estimation model of the embodiment. Further, the posture estimation model of the embodiment outputs information on the estimated posture corresponding to the image data. The method for generating the posture estimation model will be described later.

制御部20を説明する。制御部20は、モデル生成部22と、画像情報受付部20aと、姿勢情報受付部20bと、姿勢推定部20cと、位置推定部20dと、速度推定部20eと、加速度推定部20fと、個体情報保持部20hと、環境情報受付部20gと、画像情報補正部20jと、背景情報除去部20kと、色情報除去部20mとを含む。また、制御部20は、異常検知部24と、外観検知部26とを含む。これら複数の機能ブロックに対応する複数のモジュールが実装されたアプリケーションプログラムが、情報処理装置10のストレージ(例えば記憶部30)にインストールされてもよい。情報処理装置10のプロセッサ(例えばCPU)は、そのアプリケーションプログラムをメインメモリに読み出して実行することにより各機能ブロックの機能を発揮してもよい。 The control unit 20 will be described. The control unit 20 includes a model generation unit 22, an image information reception unit 20a, a posture information reception unit 20b, a posture estimation unit 20c, a position estimation unit 20d, a speed estimation unit 20e, an acceleration estimation unit 20f, and an individual. It includes an information holding unit 20h, an environmental information receiving unit 20g, an image information correction unit 20j, a background information removing unit 20k, and a color information removing unit 20m. Further, the control unit 20 includes an abnormality detection unit 24 and an appearance detection unit 26. An application program in which a plurality of modules corresponding to the plurality of functional blocks are mounted may be installed in a storage (for example, a storage unit 30) of the information processing apparatus 10. The processor (for example, CPU) of the information processing device 10 may exert the function of each functional block by reading the application program into the main memory and executing the program.

まず、モデル生成部22、画像情報受付部20a、姿勢情報受付部20bおよび姿勢推定部20cを説明する。画像情報受付部20aは、画像情報取得部12から作業部40の撮像結果の入力を受付ける。特に、機械学習時には、画像情報受付部20aは、画像情報取得部12から学習用の参照画像のデータGsを受信する。また、非学習動作時には、画像情報受付部20aは、画像情報取得部12から画像のデータGjを受信する。 First, the model generation unit 22, the image information reception unit 20a, the posture information reception unit 20b, and the posture estimation unit 20c will be described. The image information receiving unit 20a receives input of the imaging result of the working unit 40 from the image information acquisition unit 12. In particular, at the time of machine learning, the image information receiving unit 20a receives the data Gs of the reference image for learning from the image information acquisition unit 12. Further, during the non-learning operation, the image information receiving unit 20a receives the image data Gj from the image information acquisition unit 12.

姿勢情報受付部20bは、姿勢情報取得部16から作業部40の姿勢情報の入力を受付ける。具体的には、姿勢情報受付部20bは、機械学習時にストロークセンサ16a、16b、16cの伸縮長L1、L2、L3のデータを受信する。伸縮長L1、L2、L3のデータを総称するときは姿勢のデータKsという。 The posture information reception unit 20b receives input of posture information of the work unit 40 from the posture information acquisition unit 16. Specifically, the posture information receiving unit 20b receives the data of the expansion / contraction lengths L1, L2, and L3 of the stroke sensors 16a, 16b, and 16c during machine learning. When the data of the expansion and contraction lengths L1, L2, and L3 are collectively referred to as the posture data Ks.

図4は、情報処理装置10の学習データを示す図である。この図では、理解を容易にするために、画像情報取得部12からの参照画像のデータGsを、姿勢のデータKsとともに平面上の図に置き換えて説明している。制御部20は、機械学習時に、受信した参照画像のデータGsと姿勢のデータKsとを対応づけて記憶部30に記憶させる。機械学習時には、制御部20は、作業部40の姿勢を可動範囲内で広く変化させ、その変化の都度、参照画像のデータGsと姿勢のデータKsとを対応づけて記憶部30に記憶させる。記憶部30に記憶された参照画像のデータGsと姿勢のデータKsとを学習データSdという。学習データSdは、作業部40がとりうる姿勢を網羅することが望ましい。したがって、学習データSdは、図4に示すように、互いに対応づけされた参照画像のデータGsと姿勢のデータKsとを大量に含んでいる。 FIG. 4 is a diagram showing learning data of the information processing device 10. In this figure, in order to facilitate understanding, the data Gs of the reference image from the image information acquisition unit 12 is replaced with the figure on the plane together with the posture data Ks. At the time of machine learning, the control unit 20 associates the received reference image data Gs with the posture data Ks and stores them in the storage unit 30. At the time of machine learning, the control unit 20 widely changes the posture of the work unit 40 within the movable range, and each time the change is made, the reference image data Gs and the posture data Ks are associated with each other and stored in the storage unit 30. The reference image data Gs and the posture data Ks stored in the storage unit 30 are referred to as learning data Sd. It is desirable that the learning data Sd covers the postures that the working unit 40 can take. Therefore, as shown in FIG. 4, the learning data Sd includes a large amount of reference image data Gs and posture data Ks associated with each other.

モデル生成部22は、学習データSdの互いに対応づけされた参照画像のデータGsと姿勢のデータKsとを教師データとして用いて、姿勢推定モデルを生成する。本実施形態のモデル生成部22は、参照画像のデータGsと姿勢のデータKsとを教師データとして機械学習(教師有り学習)により姿勢推定モデルを生成する。モデル生成部22は、サポートベクターマシン、ニューラルネットワーク(ディープラーニングを含む)、ランダムフォレスト等、公知の機械学習手法を用いて姿勢推定モデルを生成してもよい。モデル生成部22は、生成した姿勢推定モデルをモデル記憶部32に格納する。 The model generation unit 22 generates a posture estimation model by using the data Gs of the reference images and the posture data Ks of the learning data Sd associated with each other as teacher data. The model generation unit 22 of the present embodiment generates a posture estimation model by machine learning (teachered learning) using the reference image data Gs and the posture data Ks as teacher data. The model generation unit 22 may generate a posture estimation model using a known machine learning method such as a support vector machine, a neural network (including deep learning), or a random forest. The model generation unit 22 stores the generated posture estimation model in the model storage unit 32.

姿勢推定部20cは、非学習動作時において、画像のデータGjと記憶部30の記憶情報とに基づいて作業部40の姿勢を推定する。一例として、姿勢推定部20cは、画像のデータGjと学習データSdの参照画像のデータGsとを比較して、その類似度合いが最も高い参照画像のデータGsに対応づけられた姿勢のデータKsを推定結果としてもよい。この場合、多数の参照画像のデータGsが参照されるため、結果を得るのに時間がかかる可能性がある。そこで、本実施形態の姿勢推定部20cは、モデル生成部22で生成された姿勢推定モデルを用いて、画像のデータGjから推定姿勢を導出する。 The posture estimation unit 20c estimates the posture of the working unit 40 based on the image data Gj and the stored information of the storage unit 30 during the non-learning operation. As an example, the posture estimation unit 20c compares the image data Gj with the reference image data Gs of the training data Sd, and obtains the posture data Ks associated with the reference image data Gs having the highest degree of similarity. It may be an estimation result. In this case, since the data Gs of a large number of reference images are referred to, it may take time to obtain the result. Therefore, the posture estimation unit 20c of the present embodiment derives the estimated posture from the image data Gj by using the posture estimation model generated by the model generation unit 22.

図5は、モデル生成部22で生成された姿勢推定モデルにおける姿勢推定処理を説明する説明図である。この姿勢推定モデルは、画像のデータGjが入力されると、その画像データに対応する推定姿勢情報Keを出力する。本実施形態の推定姿勢情報Keは、作業部40のブーム42、アーム44およびバケット46の各関節の屈曲角度θ1、θ2、θ3を含んでいる。姿勢推定部20cは、推定姿勢情報Keを作業機械100の作業機械制御部62に送信する。 FIG. 5 is an explanatory diagram illustrating a posture estimation process in the posture estimation model generated by the model generation unit 22. When the image data Gj is input, this posture estimation model outputs the estimated posture information Ke corresponding to the image data. The estimated posture information Ke of the present embodiment includes the flexion angles θ1, θ2, and θ3 of the joints of the boom 42, the arm 44, and the bucket 46 of the working unit 40. The posture estimation unit 20c transmits the estimated posture information Ke to the work machine control unit 62 of the work machine 100.

次に、位置推定部20d、速度推定部20eおよび加速度推定部20fを説明する。図6は、速度推定部20eにおける速度推定処理を説明する説明図である。図6では、あるタイミングT(n)における作業部40の姿勢を実線で示し、タイミングT(n)より過去のタイミングT(n−1)における作業部40の姿勢を破線で示している。図7は、各タイミングTにおける位置情報Pe、速度情報Veおよび加速度情報Aeの一例を示している。この図では、タイミングT(n)における位置情報PeをPe(n)で示し、速度情報VeをVe(n)で示し、加速度情報AeをAe(n)で示している。位置情報Pe、速度情報Veおよび加速度情報Aeについては後述する。 Next, the position estimation unit 20d, the velocity estimation unit 20e, and the acceleration estimation unit 20f will be described. FIG. 6 is an explanatory diagram illustrating a speed estimation process in the speed estimation unit 20e. In FIG. 6, the posture of the working unit 40 at a certain timing T (n) is shown by a solid line, and the posture of the working unit 40 at the timing T (n-1) past the timing T (n) is shown by a broken line. FIG. 7 shows an example of position information Pe, velocity information Ve, and acceleration information Ae at each timing T. In this figure, the position information Pe at the timing T (n) is indicated by Pe (n), the velocity information Ve is indicated by Ve (n), and the acceleration information Ae is indicated by Ae (n). The position information Pe, the velocity information Ve, and the acceleration information Ae will be described later.

位置推定部20dは、推定姿勢情報Keをもとに作業部40の所定の部位の位置を推定する。所定の部位に限定はないが、この例では、所定の部位はバケット46である。バケット46の位置は、ブーム42、アーム44およびバケット46の形状情報と推定姿勢情報Ke(屈曲角度θ1、θ2、θ3)とに基づいて計算により特定できる。なお、ブーム42、アーム44およびバケット46の形状情報は、予め記憶部30に記憶させることができる。 The position estimation unit 20d estimates the position of a predetermined portion of the work unit 40 based on the estimated posture information Ke. The predetermined portion is not limited, but in this example, the predetermined portion is the bucket 46. The position of the bucket 46 can be specified by calculation based on the shape information of the boom 42, the arm 44 and the bucket 46 and the estimated posture information Ke (bending angles θ1, θ2, θ3). The shape information of the boom 42, the arm 44, and the bucket 46 can be stored in the storage unit 30 in advance.

位置推定部20dによって推定された位置に関する情報を位置情報Peという。位置推定部20dは、位置情報Peを作業機械制御部62に送信するとともに、記憶部30に時系列的に記憶する。一例として、位置情報Peは、伸縮長L1、L2、L3のデータを含んでもよい。位置情報Peは二次元または三次元情報であってもよい。 Information about the position estimated by the position estimation unit 20d is called position information Pe. The position estimation unit 20d transmits the position information Pe to the work machine control unit 62 and stores it in the storage unit 30 in time series. As an example, the position information Pe may include data of expansion / contraction lengths L1, L2, and L3. The position information Pe may be two-dimensional or three-dimensional information.

速度推定部20eは、時間差を有する複数のタイミングに取得された複数の画像のデータGjと当該時間差とに基づいて速度情報Veを生成する。特に、速度推定部20eは、位置情報Peをもとに作業部40の所定の部位(例えば、バケット46)の速度を推定し、その速度に関する速度情報Veを生成する。バケット46の速度は、バケット46の位置変化を時間で微分することによって得ることができる。例えば、記憶部30に時系列的に記憶された位置情報Peについて、異なる複数のタイミングで生成されて記憶された複数の位置情報Peの差をそのタイミングの時間差dTで除することによってバケット46の速度を推定できる。この時間差dTは、画像のデータGjのフレーム(画像のもとになる静止画像の1コマ)ごとの時間差であってもよい。 The speed estimation unit 20e generates speed information Ve based on the data Gj of a plurality of images acquired at a plurality of timings having a time difference and the time difference. In particular, the speed estimation unit 20e estimates the speed of a predetermined portion (for example, the bucket 46) of the work unit 40 based on the position information Pe, and generates speed information Ve related to the speed. The velocity of the bucket 46 can be obtained by differentiating the change in the position of the bucket 46 with respect to time. For example, with respect to the position information Pe stored in the storage unit 30 in time series, the difference between the plurality of position information Pes generated and stored at a plurality of different timings is divided by the time difference dT of the timings of the bucket 46. The speed can be estimated. This time difference dT may be the time difference for each frame of the image data Gj (one frame of the still image that is the basis of the image).

一例として、タイミングT(n)は、現在のフレームのタイミングで、タイミングT(n−1)は、現在のフレームより1または複数フレーム前のタイミングであってもよい。この場合、時間差dTは、フレームレート(1秒間当りのフレーム数(fps))の逆数である。速度推定部20eによって推定された速度に関する情報を速度情報Veという。この例では、タイミングT(n)における速度情報Ve(n)は、式(1)で求められる。
Ve(n)=(Pe(n)−Pe(n−1))/dT ・・・(1)
つまり、速度情報Veは、2つのフレームそれぞれの2つの位置情報Peの差をフレームの時間差で除して求められる。
As an example, the timing T (n) may be the timing of the current frame, and the timing T (n-1) may be the timing one or more frames before the current frame. In this case, the time difference dT is the reciprocal of the frame rate (the number of frames per second (fps)). Information about the speed estimated by the speed estimation unit 20e is called speed information Ve. In this example, the velocity information Ve (n) at the timing T (n) is obtained by the equation (1).
Ve (n) = (Pe (n) -Pe (n-1)) / dT ... (1)
That is, the velocity information Ve is obtained by dividing the difference between the two position information Pes of each of the two frames by the time difference of the frames.

速度推定部20eは、速度情報Veを作業機械制御部62に送信するとともに、記憶部30に時系列的に記憶する。速度情報Veは二次元または三次元情報であってもよい。 The speed estimation unit 20e transmits the speed information Ve to the work machine control unit 62 and stores it in the storage unit 30 in time series. The velocity information Ve may be two-dimensional or three-dimensional information.

加速度推定部20fは、複数の速度情報Veと、時間差とに基づいて作業部40の加速度に関する加速度情報Aeを生成する。特に、加速度推定部20fは、速度情報Veをもとに作業部40の所定の部位(例えば、バケット46)の加速度を推定し、その加速度に関する加速度情報Aeを生成する。バケット46の加速度は、バケット46の速度変化を時間で微分することによって得ることができる。例えば、記憶部30に時系列的に記憶された速度情報Veについて、異なるタイミングで生成されて記憶された複数の速度情報Veの差をその特定タイミングの時間差dTで除することによってバケット46の加速度を推定できる。この時間差dTは、画像のデータGjの各フレームの時間差であってもよい。加速度推定部20fによって推定された加速度に関する情報を加速度情報Aeという。この例では、タイミングT(n)におけるAe(n)は式(2)で求められる。
Ae(n)=(Ve(n)−Ve(n−1))/dT ・・・(2)
つまり、加速度情報Aeは、2つのフレームそれぞれの2つの速度情報Veの差をフレームの時間差で除して求められる。
The acceleration estimation unit 20f generates acceleration information Ae regarding the acceleration of the working unit 40 based on the plurality of velocity information Ve and the time difference. In particular, the acceleration estimation unit 20f estimates the acceleration of a predetermined portion (for example, the bucket 46) of the working unit 40 based on the velocity information Ve, and generates acceleration information Ae related to the acceleration. The acceleration of the bucket 46 can be obtained by differentiating the velocity change of the bucket 46 with respect to time. For example, with respect to the speed information Ve stored in the storage unit 30 in time series, the acceleration of the bucket 46 is obtained by dividing the difference between a plurality of speed information Ve generated and stored at different timings by the time difference dT of the specific timing. Can be estimated. This time difference dT may be the time difference of each frame of the image data Gj. Information about the acceleration estimated by the acceleration estimation unit 20f is called acceleration information Ae. In this example, Ae (n) at the timing T (n) is calculated by the equation (2).
Ae (n) = (Ve (n) -Ve (n-1)) / dT ... (2)
That is, the acceleration information Ae is obtained by dividing the difference between the two velocity information Ves of each of the two frames by the time difference of the frames.

加速度推定部20fは、加速度情報Aeを作業機械制御部62に送信するとともに、記憶部30に時系列的に記憶する。加速度情報Aeは二次元または三次元情報であってもよい。以下、位置情報Pe、速度情報Veおよび加速度情報Aeを総称するときはフィードバック情報という。 The acceleration estimation unit 20f transmits the acceleration information Ae to the work machine control unit 62 and stores it in the storage unit 30 in time series. The acceleration information Ae may be two-dimensional or three-dimensional information. Hereinafter, the position information Pe, the speed information Ve, and the acceleration information Ae are collectively referred to as feedback information.

図2に戻り、作業機械制御部62を説明する。作業機械制御部62は、上位の制御システムからの指令情報に基づき、作業機械100の動作を制御する。本実施形態の指令情報は、所定の部位(バケット46)の位置に関する目標位置情報Psと、所定の部位(バケット46)の速度に関する目標速度情報Vsと、所定の部位(バケット46)の加速度に関する目標加速度情報Asとを含んでいる。以下、目標位置情報Ps、目標速度情報Vsおよび目標加速度情報Asを総称するときは目標情報という。 Returning to FIG. 2, the work machine control unit 62 will be described. The work machine control unit 62 controls the operation of the work machine 100 based on the command information from the upper control system. The command information of the present embodiment relates to the target position information Ps regarding the position of the predetermined portion (bucket 46), the target speed information Vs regarding the speed of the predetermined portion (bucket 46), and the acceleration of the predetermined portion (bucket 46). It includes the target acceleration information As. Hereinafter, the target position information Ps, the target speed information Vs, and the target acceleration information As are collectively referred to as target information.

図2に示すように、作業機械制御部62は、動作制御部62aを有する。動作制御部62aは、目標情報とフィードバック情報とに基づいて、所定の制御アルゴリズムにより、制御信号Sjを油圧バルブ58に与え、制御信号Skを旋回駆動部60に与える。動作制御部62aは、制御信号Sjにより油圧バルブ58の開閉を制御し、油圧シリンダ56a、56b、56cを伸縮させ、ブーム42、アーム44およびバケット46の動作を制御する。動作制御部62aは、位置情報Peをフィードバックすることで、所定の部位(バケット46)を所望の位置に制御できる。また、動作制御部62aは、制御信号Skにより旋回駆動部60を制御できる。 As shown in FIG. 2, the work machine control unit 62 has an operation control unit 62a. The operation control unit 62a gives the control signal Sj to the flood control valve 58 and the control signal Sk to the swivel drive unit 60 by a predetermined control algorithm based on the target information and the feedback information. The operation control unit 62a controls the opening and closing of the hydraulic valve 58 by the control signal Sj, expands and contracts the hydraulic cylinders 56a, 56b, and 56c, and controls the operation of the boom 42, the arm 44, and the bucket 46. The motion control unit 62a can control a predetermined portion (bucket 46) to a desired position by feeding back the position information Pe. Further, the operation control unit 62a can control the turning drive unit 60 by the control signal Sk.

動作制御部62aは、速度情報Veをフィードバックすることで、所定の部位(バケット46)の速度を所望のレベルに制御できる。また、位置情報Peの微分要素をフィードバックすることで、位置制御のオーバーシュートやハンチングを抑制できる。また、動作制御部62aは、加速度情報Aeをフィードバックすることで、所定の部位(バケット46)の加速度を所望のレベルに制御できる。また、速度情報Veの微分要素をフィードバックすることで、速度制御のオーバーシュートやハンチングを抑制できる。このように、本実施形態によれば、応答性が高く高精度な制御を実現できる。 The motion control unit 62a can control the speed of a predetermined portion (bucket 46) to a desired level by feeding back the speed information Ve. Further, by feeding back the differential element of the position information Pe, overshoot and hunting of the position control can be suppressed. Further, the motion control unit 62a can control the acceleration of a predetermined portion (bucket 46) to a desired level by feeding back the acceleration information Ae. Further, by feeding back the differential element of the speed information Ve, overshoot and hunting of speed control can be suppressed. As described above, according to the present embodiment, highly responsive and highly accurate control can be realized.

次に、異常検知部24を説明する。異常検知部24は、推定姿勢情報Keをもとに作業部40の不具合状態や故障状態を検知し、その検知結果を上位制御システムに出力する。図8は、異常検知部24を概略的に示すブロック図である。この図に示すように、本実施形態の異常検知部24は、予想姿勢演算部24bと、異常判定部24cと、状態出力部24dとを有する。予想姿勢演算部24bは、作業部40が制御された結果として予想される作業部40の姿勢の情報(以下、「予想姿勢情報Ka」という)を演算により決定する。つまり、予想姿勢演算部24bは、制御の結果として作業部40の本来あるべき姿勢を決定する。 Next, the abnormality detection unit 24 will be described. The abnormality detection unit 24 detects a malfunction state or a failure state of the work unit 40 based on the estimated posture information Ke, and outputs the detection result to the host control system. FIG. 8 is a block diagram schematically showing the abnormality detection unit 24. As shown in this figure, the abnormality detection unit 24 of the present embodiment includes a prediction posture calculation unit 24b, an abnormality determination unit 24c, and a state output unit 24d. The predicted posture calculation unit 24b calculates information on the posture of the work unit 40 (hereinafter, referred to as “predicted posture information Ka”) that is expected as a result of the work unit 40 being controlled. That is, the expected posture calculation unit 24b determines the original posture of the work unit 40 as a result of the control.

本実施形態では、予想姿勢演算部24bは、制御信号Sjに基づいて、油圧バルブ58の開閉動作および油圧シリンダ56a、56b、56cの伸縮長L1、L2、L3をシミュレーションし、この伸縮長L1、L2、L3をもとに予想姿勢情報Kaを決定する。また、別の例として、油圧シリンダ56a、56b、56cに供給される油圧を油圧センサで検知し、予想姿勢演算部24bは、その油圧センサの検知結果に基づいて、伸縮長L1、L2、L3をシミュレーションしてもよい。また、この油圧センサの検知結果と制御信号Sjとに基づいて、伸縮長L1、L2、L3をシミュレーションしてもよい。 In the present embodiment, the predicted posture calculation unit 24b simulates the opening / closing operation of the hydraulic valve 58 and the expansion / contraction lengths L1, L2, and L3 of the hydraulic cylinders 56a, 56b, and 56c based on the control signal Sj. The expected posture information Ka is determined based on L2 and L3. Further, as another example, the hydraulic pressure supplied to the hydraulic cylinders 56a, 56b, 56c is detected by the hydraulic sensor, and the predicted posture calculation unit 24b detects the expansion and contraction lengths L1, L2, and L3 based on the detection result of the hydraulic sensor. May be simulated. Further, the expansion / contraction lengths L1, L2, and L3 may be simulated based on the detection result of the oil pressure sensor and the control signal Sj.

異常判定部24cは、画像のデータGjから導出された推定姿勢情報Keと、制御信号Sjとに基づいて作業部40の動作異常を判定する。特に、異常判定部24cは、推定姿勢情報Keと予想姿勢情報Kaとの差dKに応じて作業部40の不具合状態や故障状態を判定する。異常判定部24cは、差dKを複数の閾値により区分けし、その区分けを判定結果J24として出力してもよい。例えば、異常判定部24cは、第1閾値と、第1閾値よりも大きい第2閾値とを用いる。異常判定部24cは、差dKが第1閾値未満の場合は正常状態と判定し、差dKが第1閾値以上第2閾値未満の場合は不具合状態と判定し、差dKが第2閾値以上の場合は故障状態と判定してもよい。なお、本明細書では、故障の可能性が高く直ちに動作を停止させるべき状態を故障状態と定義し、故障に至る可能性があり早期に検査をすべき状態を不具合状態と定義する。 The abnormality determination unit 24c determines the operation abnormality of the work unit 40 based on the estimated posture information Ke derived from the image data Gj and the control signal Sj. In particular, the abnormality determination unit 24c determines a malfunction state or a failure state of the work unit 40 according to the difference dK between the estimated posture information Ke and the expected posture information Ka. The abnormality determination unit 24c may divide the difference dK by a plurality of threshold values and output the division as the determination result J24. For example, the abnormality determination unit 24c uses a first threshold value and a second threshold value larger than the first threshold value. The abnormality determination unit 24c determines that the difference dK is less than the first threshold value as a normal state, and if the difference dK is greater than or equal to the first threshold value and less than the second threshold value, determines that the state is defective, and the difference dK is greater than or equal to the second threshold value. In that case, it may be determined as a failure state. In this specification, a state in which there is a high possibility of failure and the operation should be stopped immediately is defined as a failure state, and a state in which a failure may occur and should be inspected at an early stage is defined as a failure state.

状態出力部24dは、異常判定部24cの判定結果J24を上位制御システムまたは所定のデバイスに提示する。この例では、状態出力部24dは、操縦室38に設けられた表示部38dに異常判定部24cの判定結果J24を表示させる。状態出力部24dは、ネットワークなどの通信手段を介して操縦者または管理者が所持する携帯端末(不図示)に異常判定部24cの判定結果を表示させてもよい。 The state output unit 24d presents the determination result J24 of the abnormality determination unit 24c to the host control system or a predetermined device. In this example, the state output unit 24d causes the display unit 38d provided in the cockpit 38 to display the determination result J24 of the abnormality determination unit 24c. The state output unit 24d may display the determination result of the abnormality determination unit 24c on a mobile terminal (not shown) possessed by the operator or the administrator via a communication means such as a network.

次に、外観検知部26を説明する。外観検知部26は、画像情報取得部12により取得された画像のデータGjにおいて、油圧シリンダ56a、56b、56cなどの構成部材のいずれかが外れているなど、存在すべき外観形状が表示されていない場合に作業部40が外的に損傷していると判断する。外観検知部26は、推定姿勢情報Keをもとに作業部40の外観上の異常の有無を検知し、その検知結果を上位制御システムに出力する。図9は、外観検知部26を概略的に示すブロック図である。この図に示すように、本実施形態の外観検知部26は、基準画像生成部26bと、外観判定部26cと、状態出力部26dとを有する。 Next, the appearance detection unit 26 will be described. The appearance detection unit 26 displays the appearance shape that should exist, such as one of the constituent members such as the hydraulic cylinders 56a, 56b, and 56c being removed from the image data Gj acquired by the image information acquisition unit 12. If not, it is determined that the working unit 40 is externally damaged. The appearance detection unit 26 detects the presence or absence of an abnormality in the appearance of the work unit 40 based on the estimated posture information Ke, and outputs the detection result to the host control system. FIG. 9 is a block diagram schematically showing the appearance detection unit 26. As shown in this figure, the appearance detection unit 26 of the present embodiment includes a reference image generation unit 26b, an appearance determination unit 26c, and a state output unit 26d.

基準画像生成部26bは、推定姿勢情報Keに基づいて、その姿勢において正常と考えられる状態における作業部40の画像に関するデータ(以下、「基準画像のデータGh」という)を生成する。基準画像のデータGhは、正常な初期状態における作業部40の画像に関するデータであってもよい。作業部40の部位ごとの画像データを記憶部30に予め記憶させておき、基準画像生成部26bは、推定姿勢情報Keに基づいて記憶された各部位の画像データを合成し、基準画像のデータGhを生成できる。 The reference image generation unit 26b generates data related to the image of the work unit 40 in a state considered to be normal in the posture (hereinafter, referred to as “reference image data Gh”) based on the estimated posture information Ke. The reference image data Gh may be data related to the image of the working unit 40 in the normal initial state. The image data for each part of the working unit 40 is stored in the storage unit 30 in advance, and the reference image generation unit 26b synthesizes the image data of each part stored based on the estimated posture information Ke, and the data of the reference image. Gh can be generated.

外観判定部26cは、画像のデータGjと、基準画像のデータGhとに基づいて作業部40の外観異常を判定する。特に、外観判定部26cは、画像のデータGjと、基準画像生成部26bで生成された基準画像のデータGhとを比較して、その相違度合い(以下、「相違度Sh」という)に応じて作業部40の外観上の異常の有無を判定する。この例では、両画像の類似度合いが高い場合に相違度Shは低く、両画像の類似度合いが低い場合に相違度Shは高い。 The appearance determination unit 26c determines the appearance abnormality of the work unit 40 based on the image data Gj and the reference image data Gh. In particular, the appearance determination unit 26c compares the image data Gj with the reference image data Gh generated by the reference image generation unit 26b, and according to the degree of difference (hereinafter, referred to as “difference degree Sh”). It is determined whether or not there is an abnormality in the appearance of the working unit 40. In this example, when the degree of similarity between the two images is high, the degree of difference Sh is low, and when the degree of similarity between the two images is low, the degree of difference Sh is high.

外観判定部26cは、相違度Shを複数の閾値により区分けし、その区分けを判定結果J26として出力してもよい。例えば、外観判定部26cは、第1閾値と、第1閾値よりも大きい第2閾値とを用いることができる。外観判定部26cは、相違度Shが第1閾値未満の場合は外観異常なしと判定し、相違度Shが第1閾値以上第2閾値未満の場合は一部に外観異常ありと判定し、相違度Shが第2閾値以上の場合は外観異常ありと判定してもよい。 The appearance determination unit 26c may divide the difference degree Sh by a plurality of threshold values and output the division as the determination result J26. For example, the appearance determination unit 26c can use a first threshold value and a second threshold value larger than the first threshold value. The appearance determination unit 26c determines that there is no appearance abnormality when the difference degree Sh is less than the first threshold value, and determines that there is a partial appearance abnormality when the difference degree Sh is equal to or more than the first threshold value and is less than the second threshold value. When the degree Sh is equal to or higher than the second threshold value, it may be determined that there is an appearance abnormality.

状態出力部26dは、外観判定部26cの判定結果J26を上位制御システムまたは所定のデバイスに提示する。この例では、状態出力部26dは、操縦室38に設けられた表示部38dに外観判定部26cの判定結果を表示させる。状態出力部26dは、ネットワークなどの通信手段を介して操縦者または管理者が所持する携帯端末(不図示)に外観判定部26cの判定結果を表示させてもよい。 The state output unit 26d presents the determination result J26 of the appearance determination unit 26c to the host control system or a predetermined device. In this example, the state output unit 26d causes the display unit 38d provided in the cockpit 38 to display the determination result of the appearance determination unit 26c. The state output unit 26d may display the determination result of the appearance determination unit 26c on a mobile terminal (not shown) possessed by the operator or the administrator via a communication means such as a network.

図2に戻り、画像情報補正部20j、環境情報受付部20g、個体情報保持部20h、背景情報除去部20kおよび色情報除去部20mを説明する。 Returning to FIG. 2, the image information correction unit 20j, the environmental information reception unit 20g, the individual information holding unit 20h, the background information removal unit 20k, and the color information removal unit 20m will be described.

本実施形態の画像情報補正部20jは、画像のデータGjを取得する際の周囲環境に関する情報、作業機械の経年数または作業機械の個体差に応じて画像のデータGjを補正する。また、環境情報受付部20gと、個体情報保持部20hとは画像情報補正部20jに補正情報を提供する。 The image information correction unit 20j of the present embodiment corrects the image data Gj according to the information on the surrounding environment when acquiring the image data Gj, the age of the work machine, or the individual difference of the work machine. Further, the environmental information receiving unit 20g and the individual information holding unit 20h provide correction information to the image information correction unit 20j.

環境情報受付部20gは、環境情報取得部14から取得結果の入力を受付ける。特に、環境情報受付部20gは、環境情報取得部14から環境情報Mpを受信する。画像情報補正部20jは、環境情報Mpに基づいて画像のデータGjの明るさや色温度を補正する。画像情報補正部20jは、画像のデータGjの明るさを、参照画像のデータGsの明るさと同じになるように補正する。画像情報補正部20jは、画像のデータGjの色温度を、参照画像のデータGsの色温度と同じになるように補正する。この構成により、周囲環境に起因する推定誤差を低減できる。 The environmental information reception unit 20g accepts the input of the acquisition result from the environmental information acquisition unit 14. In particular, the environmental information reception unit 20g receives the environmental information Mp from the environmental information acquisition unit 14. The image information correction unit 20j corrects the brightness and color temperature of the image data Gj based on the environmental information Mp. The image information correction unit 20j corrects the brightness of the image data Gj so as to be the same as the brightness of the reference image data Gs. The image information correction unit 20j corrects the color temperature of the image data Gj so as to be the same as the color temperature of the reference image data Gs. With this configuration, the estimation error due to the surrounding environment can be reduced.

個々の作業機械100によって作業部40の外観は個体差を有する。この個体差は姿勢推定における誤差要因となる可能性がある。このため、本実施形態の個体情報保持部20hは、各個体の個体情報Meを保持する。個体情報Meは、作業機械100の経年数、作業部40の傷、付着物、変形などによる外観の個体差に関する情報を含んでいる。画像情報補正部20jは、個体情報Meに応じて画像のデータGjを補正する。この構成により、個体差に起因する推定誤差を低減できる。 The appearance of the work unit 40 varies from individual to individual work machine 100. This individual difference may be an error factor in posture estimation. Therefore, the individual information holding unit 20h of the present embodiment holds the individual information Me of each individual. The individual information Me includes information on individual differences in appearance due to age of the work machine 100, scratches on the work unit 40, deposits, deformation, and the like. The image information correction unit 20j corrects the image data Gj according to the individual information Me. With this configuration, the estimation error due to individual differences can be reduced.

画像のデータGjは、作業機械100が稼働する現場ごとに異なる背景画像を含んでいる。このため、画像のデータGjに含まれる背景画像が姿勢推定における誤差要因となる可能性がある。このため、本実施形態の背景情報除去部20kは、画像のデータGjから、背景画像に関する情報を除去する。この構成により、背景画像に起因する推定誤差を低減できる。 The image data Gj includes a background image that differs depending on the site where the work machine 100 operates. Therefore, the background image included in the image data Gj may be an error factor in the posture estimation. Therefore, the background information removing unit 20k of the present embodiment removes information about the background image from the image data Gj. With this configuration, the estimation error caused by the background image can be reduced.

参照画像のデータGsと画像のデータGjとをフルカラーの画像データとして記憶して処理をすると、取り扱うデータ量が大きくなり、処理速度や記憶容量の点で不利となる。このため、本実施形態の色情報除去部20mは、参照画像のデータGsおよび画像のデータGjから色情報を除去してグレースケールの画像データとする。この構成により、取り扱うデータ量が小さくなり、処理速度や記憶容量の点で有利になる。 If the reference image data Gs and the image data Gj are stored and processed as full-color image data, the amount of data to be handled becomes large, which is disadvantageous in terms of processing speed and storage capacity. Therefore, the color information removing unit 20m of the present embodiment removes the color information from the reference image data Gs and the image data Gj to obtain grayscale image data. With this configuration, the amount of data to be handled is reduced, which is advantageous in terms of processing speed and storage capacity.

以上のように構成された情報処理装置10の動作を説明する。図10は、情報処理装置10の動作を示すフローチャートである。この図は、機械学習時に機械学習によって姿勢推定モデルを生成する動作S70を示している。動作S70は、事前に作業機械100に姿勢情報取得部16が取付けられ、管理者によりモデル作成の指示が入力されたタイミングで開始される。 The operation of the information processing apparatus 10 configured as described above will be described. FIG. 10 is a flowchart showing the operation of the information processing device 10. This figure shows an operation S70 that generates a posture estimation model by machine learning during machine learning. The operation S70 is started at the timing when the posture information acquisition unit 16 is attached to the work machine 100 in advance and the instruction for model creation is input by the administrator.

モデル生成タイミングに至ったら(ステップS71のY)、情報処理装置10の制御部20は、画像情報取得部12および姿勢情報取得部16から参照画像のデータGsと姿勢のデータKsとを受信する(ステップS72)。このステップでは、制御部20は、作業部40の姿勢を可動範囲内で広く変化させ、その変化の都度、参照画像のデータGsと姿勢のデータKsとを受信して記憶部30に記憶させる。 When the model generation timing is reached (Y in step S71), the control unit 20 of the information processing device 10 receives the reference image data Gs and the attitude data Ks from the image information acquisition unit 12 and the attitude information acquisition unit 16 (Y). Step S72). In this step, the control unit 20 widely changes the posture of the work unit 40 within the movable range, and each time the change is made, the control unit 20 receives the reference image data Gs and the posture data Ks and stores them in the storage unit 30.

背景情報除去部20kは、参照画像のデータGsから、背景画像に関する情報を除去する(ステップS73)。色情報除去部20mは、参照画像のデータGsから色情報を除去する(ステップS74)。背景画像の除去、色情報の除去は、受信した参照画像のデータGsに対してその都度実行されてもよいし、記憶部30に記憶された参照画像のデータGsに対して実行されてもよい。 The background information removing unit 20k removes information about the background image from the data Gs of the reference image (step S73). The color information removing unit 20m removes color information from the data Gs of the reference image (step S74). The removal of the background image and the removal of the color information may be executed for the received reference image data Gs each time, or may be executed for the reference image data Gs stored in the storage unit 30. ..

モデル生成部22は、背景画像と色情報が除去された参照画像のデータGsと姿勢のデータKsをもとに機械学習により姿勢推定モデルを生成し、モデル記憶部32に格納する(ステップS75)。姿勢推定モデルが格納されたら動作S70は終了する。動作S70の終了後、作業機械100から姿勢情報取得部16が取り外されてもよい。 The model generation unit 22 generates a posture estimation model by machine learning based on the data Gs of the reference image from which the background image and the color information have been removed and the posture data Ks, and stores the posture estimation model in the model storage unit 32 (step S75). .. When the posture estimation model is stored, the operation S70 ends. After the end of the operation S70, the posture information acquisition unit 16 may be removed from the work machine 100.

モデル生成タイミングに至らなければ(ステップS71のN)、S72〜S75をスキップする。この動作S70は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。 If the model generation timing is not reached (N in step S71), S72 to S75 are skipped. This operation S70 is merely an example, and the order of the steps may be changed, or some steps may be added / deleted / changed.

図11も、情報処理装置10の動作を示すフローチャートである。この図は、姿勢推定モデルを用いて画像のデータGjをもとに作業部40の姿勢を推定する動作S80を示している。動作S80は、非学習動作時に管理者により姿勢推定の指示が入力されたタイミングで開始される。 FIG. 11 is also a flowchart showing the operation of the information processing device 10. This figure shows an operation S80 that estimates the posture of the working unit 40 based on the image data Gj using the posture estimation model. The operation S80 is started at the timing when the posture estimation instruction is input by the administrator during the non-learning operation.

姿勢推定のタイミングに至ったら(ステップS81のY)、情報処理装置10の制御部20は、画像情報取得部12から画像のデータGjを受信する(ステップS82)。このステップで、受信した画像のデータGjは記憶部30に記憶される。 When the posture estimation timing is reached (Y in step S81), the control unit 20 of the information processing device 10 receives the image data Gj from the image information acquisition unit 12 (step S82). In this step, the received image data Gj is stored in the storage unit 30.

背景情報除去部20kは、画像のデータGjから、背景画像に関する情報を除去する(ステップS83)。色情報除去部20mは、画像のデータGjから色情報を除去する(ステップS84)。 The background information removing unit 20k removes information about the background image from the image data Gj (step S83). The color information removing unit 20m removes color information from the image data Gj (step S84).

画像情報補正部20jは、個体情報保持部20hに保持された個体情報Meに応じて画像のデータGjを補正する(ステップS85)。背景画像の除去、色情報の除去および画像の補正は、記憶部30に記憶された画像のデータGjに対して実行される。 The image information correction unit 20j corrects the image data Gj according to the individual information Me held in the individual information holding unit 20h (step S85). The removal of the background image, the removal of the color information, and the correction of the image are executed for the image data Gj stored in the storage unit 30.

姿勢推定部20cは、背景画像の除去、色情報の除去および画像の補正がなされた画像のデータGjをもとに、姿勢推定モデルに基づき作業部40の姿勢を推定する(ステップS86)。このステップで、姿勢推定モデルから推定姿勢情報Keが出力される。 The posture estimation unit 20c estimates the posture of the working unit 40 based on the posture estimation model based on the image data Gj in which the background image is removed, the color information is removed, and the image is corrected (step S86). In this step, the estimated posture information Ke is output from the posture estimation model.

速度推定部20eは、姿勢推定モデルから出力された推定姿勢情報Keを情報処理装置10の外部に送信する(ステップS87)。例えば、速度推定部20eは、推定姿勢情報Keを作業機械制御部62に送信する。推定姿勢情報Keが送信されたら動作S80は終了する。動作S80は、姿勢推定の指示が無くなるまで、繰り返し実行される。 The speed estimation unit 20e transmits the estimated attitude information Ke output from the attitude estimation model to the outside of the information processing device 10 (step S87). For example, the speed estimation unit 20e transmits the estimated posture information Ke to the work machine control unit 62. When the estimated posture information Ke is transmitted, the operation S80 ends. The operation S80 is repeatedly executed until there is no instruction for posture estimation.

姿勢推定のタイミングに至らなければ(ステップS81のN)、S82〜S87をスキップする。この動作S80は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。 If the timing of posture estimation is not reached (N in step S81), S82 to S87 are skipped. This operation S80 is merely an example, and the order of the steps may be changed, or some steps may be added / deleted / changed.

図12も、情報処理装置10の動作を示すフローチャートである。この図は、推定姿勢情報Keをもとに作業部40の位置、速度および加速度を特定し、その特定結果を作業機械制御部62に送信する動作S90を示している。動作S90は、非学習動作時に管理者により速度および加速度を検知する指示が入力されたタイミングで開始される。 FIG. 12 is also a flowchart showing the operation of the information processing device 10. This figure shows an operation S90 in which the position, speed, and acceleration of the work unit 40 are specified based on the estimated posture information Ke, and the identification result is transmitted to the work machine control unit 62. The operation S90 is started at the timing when the administrator inputs an instruction to detect the speed and the acceleration during the non-learning operation.

速度および加速度を検知するタイミングに至ったら(ステップS91のY)、位置推定部20dは、推定姿勢情報Keをもとに作業部40の所定の部位(バケット46)の位置情報Peを生成し、作業機械制御部62に送信するとともに、記憶部30に記憶させる(ステップS92)。 When the timing for detecting the velocity and the acceleration is reached (Y in step S91), the position estimation unit 20d generates the position information Pe of the predetermined part (bucket 46) of the work unit 40 based on the estimated posture information Ke. It is transmitted to the work machine control unit 62 and stored in the storage unit 30 (step S92).

位置情報Peが記憶されたら、速度推定部20eは、位置情報Peをもとに作業部40の速度情報Veを生成し、作業機械制御部62に送信するとともに、記憶部30に記憶させる(ステップS93)。 When the position information Pe is stored, the speed estimation unit 20e generates the speed information Ve of the work unit 40 based on the position information Pe, transmits it to the work machine control unit 62, and stores it in the storage unit 30 (step). S93).

速度情報Veが記憶されたら、加速度推定部20fは、速度情報Veをもとに作業部40の加速度情報Aeを生成し、作業機械制御部62に送信するとともに、記憶部30に記憶させる(ステップS94)。加速度情報Aeが記憶されたら、動作S90は終了する。動作S90は、速度および加速度の検知の指示が無くなるまで、繰り返し実行される。 When the speed information Ve is stored, the acceleration estimation unit 20f generates the acceleration information Ae of the work unit 40 based on the speed information Ve, transmits it to the work machine control unit 62, and stores it in the storage unit 30 (step). S94). When the acceleration information Ae is stored, the operation S90 ends. The operation S90 is repeatedly executed until there are no instructions for detecting the speed and acceleration.

速度および加速度を検知するタイミングに至らなければ(ステップS91のN)、S92〜S94をスキップする。この動作S90は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。 If the timing for detecting the velocity and acceleration is not reached (N in step S91), S92 to S94 are skipped. This operation S90 is merely an example, and the order of the steps may be changed, or some steps may be added / deleted / changed.

図13も、情報処理装置10の動作を示すフローチャートである。この図は、推定姿勢情報Keをもとに作業部40の不具合状態、故障状態または作業部40の外観上の異常の有無を検知し、その検知結果を操縦室38に設けられた表示部38dに出力する動作S100を示している。動作S100は、非学習動作時に管理者により状態検知の指示が入力されたタイミングで開始される。 FIG. 13 is also a flowchart showing the operation of the information processing device 10. In this figure, the presence or absence of a malfunction state, a failure state, or an abnormality in the appearance of the work unit 40 is detected based on the estimated posture information Ke, and the detection result is displayed on the display unit 38d provided in the cockpit 38. The operation S100 to be output to is shown. The operation S100 is started at the timing when the state detection instruction is input by the administrator during the non-learning operation.

状態検知のタイミングに至ったら(ステップS101のY)、予想姿勢演算部24bは、作業機械制御部62の動作制御部62aから制御信号Sjを取得し、予想姿勢情報Kaを決定する(ステップS102)。 When the timing of state detection is reached (Y in step S101), the predicted posture calculation unit 24b acquires the control signal Sj from the operation control unit 62a of the work machine control unit 62 and determines the predicted posture information Ka (step S102). ..

予想姿勢情報Kaが決定されたら、異常判定部24cは、推定姿勢情報Keと予想姿勢情報Kaとの差dKに応じて作業部40の不具合状態や故障状態を判定する(ステップS103)。 When the predicted posture information Ka is determined, the abnormality determination unit 24c determines a malfunction state or a failure state of the working unit 40 according to the difference dK between the estimated posture information Ke and the predicted posture information Ka (step S103).

作業部40の状態が判定されたら、状態出力部24dは、異常判定部24cの判定結果を表示部38dに表示させる(ステップS104)。 When the state of the working unit 40 is determined, the state output unit 24d causes the display unit 38d to display the determination result of the abnormality determination unit 24c (step S104).

上述の判定結果が表示されたら、基準画像生成部26bは、姿勢のデータKsに基づいて、その姿勢における基準画像のデータGhを生成する(ステップS105)。 When the above-mentioned determination result is displayed, the reference image generation unit 26b generates the data Gh of the reference image in the posture based on the posture data Ks (step S105).

基準画像のデータGhが生成されたら、外観判定部26cは、基準画像のデータGhと、画像のデータGjとの相違度Shに応じて作業部40の外観上の異常の有無を判定する(ステップS106)。 After the reference image data Gh is generated, the appearance determination unit 26c determines whether or not there is an abnormality in the appearance of the work unit 40 according to the degree of difference Sh between the reference image data Gh and the image data Gj (step). S106).

作業部40の外観状態が判定されたら、状態出力部26dは、外観判定部26cの判定結果を表示部38dに表示させる(ステップS107)。上述の判定結果が表示されたら動作S100は終了する。動作S100は、状態検知の指示が無くなるまで、繰り返し実行される。 When the appearance state of the work unit 40 is determined, the state output unit 26d causes the display unit 38d to display the determination result of the appearance determination unit 26c (step S107). When the above determination result is displayed, the operation S100 ends. The operation S100 is repeatedly executed until there is no instruction for state detection.

状態検知のタイミングに至らなければ(ステップS101のN)、S102〜S107をスキップする。この動作S100は、あくまでも一例であって、ステップの順序を入れ替えたり、一部のステップを追加・削除・変更したりしてもよい。 If the timing of state detection is not reached (N in step S101), S102 to S107 are skipped. This operation S100 is merely an example, and the order of the steps may be changed, or some steps may be added / deleted / changed.

以上のように構成された本実施形態の情報処理装置10の特徴を説明する。この情報処理装置10は、作業部40の参照画像のデータGsと作業部40の姿勢のデータKsとを対応づけて生成された対応情報を記憶している記憶部30と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得する画像情報取得部12と、画像のデータGjと対応情報とに基づいて作業部40の速度に関する速度情報Veを生成する速度推定部20eとを備える。この構成によれば、画像情報取得部12で取得した画像のデータGjと、参照画像のデータGsと姿勢のデータKsとから作業部40の速度に関する速度情報Veを生成できる。対応情報は、上述の姿勢推定モデルであってもよい。 The features of the information processing apparatus 10 of the present embodiment configured as described above will be described. The information processing device 10 has a storage unit 30 that stores correspondence information generated by associating the reference image data Gs of the work unit 40 with the attitude data Ks of the work unit 40, and the reference image data Gs. The image information acquisition unit 12 that acquires the image data Gj of the work unit 40 for comparison with, and the speed estimation unit 20e that generates the speed information Ve related to the speed of the work unit 40 based on the image data Gj and the corresponding information. And. According to this configuration, the speed information Ve related to the speed of the working unit 40 can be generated from the image data Gj acquired by the image information acquisition unit 12, the reference image data Gs, and the posture data Ks. The correspondence information may be the above-mentioned posture estimation model.

画像情報取得部12は、作業部40と一体的に旋回するように構成されてもよい。この場合、画像情報取得部12と作業部40との位置関係が一定になるため、作業部40の速度情報Veを容易に生成できる。 The image information acquisition unit 12 may be configured to rotate integrally with the work unit 40. In this case, since the positional relationship between the image information acquisition unit 12 and the work unit 40 is constant, the speed information Ve of the work unit 40 can be easily generated.

情報処理装置10は、画像のデータGjと対応情報とに基づいて作業部40の姿勢を推定する姿勢推定部20cを有してもよい。この場合、画像のデータGjから作業部40の姿勢を容易に推定できる。 The information processing device 10 may have a posture estimation unit 20c that estimates the posture of the work unit 40 based on the image data Gj and the corresponding information. In this case, the posture of the working unit 40 can be easily estimated from the image data Gj.

記憶部30は、参照画像のデータGsおよび姿勢のデータKsをもとに機械学習により生成された姿勢推定モデルを記憶してもよい。この場合、機械学習により生成された姿勢推定モデルを利用できる。 The storage unit 30 may store the posture estimation model generated by machine learning based on the reference image data Gs and the posture data Ks. In this case, the attitude estimation model generated by machine learning can be used.

速度推定部20eは、時間差を有する複数のタイミングに画像情報取得部12で取得された複数の画像のデータGjと当該時間差とに基づいて速度情報Veを生成してもよい。この場合、簡単な演算処理により速度情報Veを生成できる。 The speed estimation unit 20e may generate speed information Ve based on the data Gj of a plurality of images acquired by the image information acquisition unit 12 at a plurality of timings having a time difference and the time difference. In this case, the speed information Ve can be generated by a simple arithmetic process.

情報処理装置10は、速度推定部20eで生成された複数の速度情報Veと、時間差とに基づいて作業部40の加速度に関する加速度情報Aeを生成する加速度推定部20fを備えてもよい。この場合、簡単な演算処理により加速度情報Aeを生成できる。 The information processing device 10 may include an acceleration estimation unit 20f that generates acceleration information Ae regarding the acceleration of the work unit 40 based on a plurality of speed information Ves generated by the speed estimation unit 20e and a time difference. In this case, the acceleration information Ae can be generated by a simple arithmetic process.

情報処理装置10は、画像情報取得部12で取得された画像のデータGjと、作業部40の動作を制御するための制御信号とに基づいて作業部40の動作異常を判定する異常判定部24cを備えてもよい。この場合、特別なセンサを用いなくても、画像のデータGjと制御信号とにより動作異常を検知できる。 The information processing device 10 determines an abnormality determination unit 24c that determines an operation abnormality of the work unit 40 based on the image data Gj acquired by the image information acquisition unit 12 and a control signal for controlling the operation of the work unit 40. May be provided. In this case, the operation abnormality can be detected by the image data Gj and the control signal without using a special sensor.

情報処理装置10は、画像情報取得部12で取得された画像のデータGjと、正常と考えられる状態における作業部40の基準画像のデータGhとに基づいて作業部40の外観異常を判定する外観判定部26cをさらに備えてもよい。この場合、特別なセンサを用いなくても、画像のデータGjと正常時の画像のデータとにより外観異常を検知できる。 The information processing device 10 determines the appearance abnormality of the work unit 40 based on the image data Gj acquired by the image information acquisition unit 12 and the reference image data Gh of the work unit 40 in a state considered to be normal. The determination unit 26c may be further provided. In this case, the appearance abnormality can be detected from the image data Gj and the normal image data without using a special sensor.

情報処理装置10は、画像のデータGjを取得する際の周囲環境に関する情報、作業機械100の経年数または作業機械100の個体差に応じて画像のデータGjを補正する画像情報補正部20jを有してもよい。この場合、画像のデータGjを補正して姿勢の推定精度を改善できる。 The information processing device 10 has an image information correction unit 20j that corrects the image data Gj according to the information on the surrounding environment when acquiring the image data Gj, the age of the work machine 100, or the individual difference of the work machine 100. You may. In this case, the image data Gj can be corrected to improve the posture estimation accuracy.

情報処理装置10は、参照画像のデータGsの色情報を圧縮または除去する色情報除去部20mを有してもよい。この場合、記憶部30の記憶容量および処理速度の点で有利になる。 The information processing device 10 may have a color information removing unit 20m that compresses or removes the color information of the data Gs of the reference image. In this case, it is advantageous in terms of the storage capacity and processing speed of the storage unit 30.

情報処理装置10は、参照画像のデータGsの背景画像を除去する背景情報除去部20kを有してもよい。この場合、背景画像に起因する推定精度の低下を抑制できる。 The information processing device 10 may have a background information removing unit 20k that removes the background image of the data Gs of the reference image. In this case, it is possible to suppress a decrease in estimation accuracy due to the background image.

次に、本発明の第2〜第5実施形態を説明する。第2〜第5実施形態の図面および説明では、第1実施形態と同一または同等の構成要素、部材には、同一の符号を付する。第1実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。 Next, the second to fifth embodiments of the present invention will be described. In the drawings and description of the second to fifth embodiments, the same or equivalent components and members as those of the first embodiment are designated by the same reference numerals. The description that overlaps with the first embodiment will be omitted as appropriate, and the configuration different from that of the first embodiment will be mainly described.

[第2実施形態]
本発明の第2実施形態は、作業機械の情報処理方法である。この情報処理方法は、作業機械100の作業部40の参照画像のデータGsと作業部40の姿勢のデータKsとを対応づけて生成された対応情報を記憶部30に記憶するステップ(S72〜S75)と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得するステップ(S82)と、時間差を有する複数のタイミングに取得された複数の画像のデータGjと当該時間差と対応情報とに基づいて速度情報Veを生成するステップ(S92)とを含む。
[Second Embodiment]
A second embodiment of the present invention is an information processing method for a work machine. In this information processing method, the steps (S72 to S75) of storing the correspondence information generated by associating the data Gs of the reference image of the work unit 40 of the work machine 100 with the attitude data Ks of the work unit 40 in the storage unit 30. ), The step (S82) of acquiring the image data Gj of the working unit 40 for comparison with the reference image data Gs, and the data Gj of a plurality of images acquired at a plurality of timings having a time difference and the time difference. It includes a step (S92) of generating speed information Ve based on the corresponding information.

上述の速度情報Veを生成するステップは参照画像のデータGsと姿勢のデータKsとをもとに機械学習により生成された姿勢推定モデルを参照するステップを含んでもよい。つまり、対応情報は姿勢推定モデルであってもよい。第2実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。 The step of generating the speed information Ve may include a step of referring to the posture estimation model generated by machine learning based on the reference image data Gs and the posture data Ks. That is, the correspondence information may be a posture estimation model. According to the configuration of the second embodiment, the same function and effect as those of the first embodiment are obtained.

[第3実施形態]
本発明の第3実施形態は、建設機械1000である。この建設機械1000は、作業部40と、作業部40の参照画像のデータGsと作業部40の姿勢のデータKsとを対応づけて生成された対応情報を記憶している記憶部30と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得する画像情報取得部12と、画像のデータGjと対応情報とに基づいて作業部40の速度に関する速度情報Veを生成する速度推定部20eとを備える。対応情報は、上述の姿勢推定モデルであってもよい。
[Third Embodiment]
A third embodiment of the present invention is a construction machine 1000. The construction machine 1000 refers to a storage unit 30 that stores correspondence information generated by associating the work unit 40 with the data Gs of the reference image of the work unit 40 and the attitude data Ks of the work unit 40. The image information acquisition unit 12 that acquires the image data Gj of the work unit 40 for comparison with the image data Gs, and the speed information Ve related to the speed of the work unit 40 is generated based on the image data Gj and the corresponding information. It is provided with a speed estimation unit 20e. The correspondence information may be the above-mentioned posture estimation model.

建設機械1000は、例えば腕機構48に取り付けられたバケット46を移動させて建設作業を行う機械であってもよい。建設機械1000の腕機構48には、バケットの代わりにフォーク、ハンマー、クラッシャー等の多様なアタッチメントが取り付けられてもよい。第3実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。 The construction machine 1000 may be, for example, a machine that moves a bucket 46 attached to the arm mechanism 48 to perform construction work. Various attachments such as a fork, a hammer, and a crusher may be attached to the arm mechanism 48 of the construction machine 1000 instead of the bucket. According to the configuration of the third embodiment, the same function and effect as those of the first embodiment are obtained.

[第4実施形態]
本発明の第4実施形態は、コンピュータプログラムP100である。このコンピュータプログラムP100は、作業部40の参照画像のデータGsと作業部40の姿勢のデータKsとを対応づけて生成された対応情報を記憶部30に記憶する機能と、参照画像のデータGsと比較するために作業部40の画像のデータGjを取得する機能と、時間差を有する複数のタイミングに取得された複数の画像のデータGjと時間差と対応情報とに基づいて作業部40の速度情報Veを生成する機能とをコンピュータに実現させる。対応情報は、上述の姿勢推定モデルであってもよい。
[Fourth Embodiment]
A fourth embodiment of the present invention is a computer program P100. The computer program P100 has a function of storing the correspondence information generated by associating the reference image data Gs of the work unit 40 with the posture data Ks of the work unit 40 in the storage unit 30, and the data Gs of the reference image. The speed information Ve of the working unit 40 based on the function of acquiring the data Gj of the image of the working unit 40 for comparison, the data Gj of a plurality of images acquired at a plurality of timings having a time difference, the time difference, and the corresponding information. The function to generate is realized in the computer. The correspondence information may be the above-mentioned posture estimation model.

コンピュータプログラムP100では、これらの機能は制御部20の機能ブロックに対応する複数のモジュールが実装されたアプリケーションプログラムとして、情報処理装置10のストレージ(例えば記憶部30)にインストールされてもよい。コンピュータプログラムP100は、情報処理装置10のプロセッサ(例えばCPU)のメインメモリに読み出しされて実行されてもよい。第4実施形態の構成によれば、第1実施形態と同様の作用効果を奏する。 In the computer program P100, these functions may be installed in the storage (for example, the storage unit 30) of the information processing apparatus 10 as an application program in which a plurality of modules corresponding to the functional blocks of the control unit 20 are mounted. The computer program P100 may be read into the main memory of the processor (for example, CPU) of the information processing device 10 and executed. According to the configuration of the fourth embodiment, the same effects as those of the first embodiment are obtained.

[第5実施形態]
本発明の第5実施形態は、情報処理システム1である。図14は、本実施形態の情報処理システム1を使用した作業機械100を概略的に示すブロック図であり、図2に対応する。情報処理システム1は、作業機械100の作業部40の画像のデータGjに基づいて作業部40の速度に関する速度情報Veを推定する点で第1実施形態と同様である。情報処理システム1は、その構成の一部がネットワークサーバ120に設けられる点で第1実施形態の情報処理装置10と異なる。この例では、推定部120jがネットワークサーバ120に設けられている。
[Fifth Embodiment]
A fifth embodiment of the present invention is an information processing system 1. FIG. 14 is a block diagram schematically showing a work machine 100 using the information processing system 1 of the present embodiment, and corresponds to FIG. The information processing system 1 is similar to the first embodiment in that the speed information Ve regarding the speed of the work unit 40 is estimated based on the data Gj of the image of the work unit 40 of the work machine 100. The information processing system 1 is different from the information processing device 10 of the first embodiment in that a part of its configuration is provided in the network server 120. In this example, the estimation unit 120j is provided on the network server 120.

本実施形態の情報処理システム1は、情報処理装置110と、ネットワークサーバ120とを備える。情報処理装置110およびネットワークサーバ120は、有線通信または無線通信を利用した通信ネットワークNWを介して互いに通信する。通信ネットワークNWとして、インターネットなどの汎用ネットワークや専用ネットワークを採用できる。ネットワークサーバ120として、クラウドコンピューティングシステムとも称されるクラウドサーバを採用できる。 The information processing system 1 of the present embodiment includes an information processing device 110 and a network server 120. The information processing device 110 and the network server 120 communicate with each other via a communication network NW using wired communication or wireless communication. As a communication network NW, a general-purpose network such as the Internet or a dedicated network can be adopted. As the network server 120, a cloud server, which is also called a cloud computing system, can be adopted.

情報処理装置110は、取得部12と、制御部20とを有する。制御部20は、画像情報受付部20aと、画像情報送信部20pと、推定結果受信部20qとを有する。取得部12は、作業機械100の作業部40の画像のデータGjを取得する。画像情報送信部20pは、取得部12で取得された画像のデータGjを通信ネットワークNWを介してネットワークサーバ120に送信する。 The information processing device 110 has an acquisition unit 12 and a control unit 20. The control unit 20 includes an image information receiving unit 20a, an image information transmitting unit 20p, and an estimation result receiving unit 20q. The acquisition unit 12 acquires the data Gj of the image of the work unit 40 of the work machine 100. The image information transmission unit 20p transmits the image data Gj acquired by the acquisition unit 12 to the network server 120 via the communication network NW.

ネットワークサーバ120は、記憶部120mと、推定部120jと、受信部120qと、送信部120pとを有する。推定部120jは、姿勢推定部120cと、位置推定部120dと、速度推定部120eと、加速度推定部120fとを有する。記憶部120mは、作業部40の参照画像のデータGsと作業機械100の作業部40の姿勢のデータKsとを対応づけて生成された対応情報Ciを記憶する。この例の対応情報Ciは、参照画像のデータGsおよび姿勢のデータKsをもとに機械学習により生成された姿勢推定モデルである。姿勢推定モデルは、予め基準となる作業機械のデータをもとに生成されてモデル記憶部120nに格納されている。 The network server 120 has a storage unit 120m, an estimation unit 120j, a reception unit 120q, and a transmission unit 120p. The estimation unit 120j includes a posture estimation unit 120c, a position estimation unit 120d, a velocity estimation unit 120e, and an acceleration estimation unit 120f. The storage unit 120m stores the correspondence information Ci generated by associating the data Gs of the reference image of the work unit 40 with the posture data Ks of the work unit 40 of the work machine 100. The correspondence information Ci in this example is a posture estimation model generated by machine learning based on the reference image data Gs and the posture data Ks. The posture estimation model is generated in advance based on the data of the reference work machine and stored in the model storage unit 120n.

受信部120qは、画像のデータGjを受信する。姿勢推定部120cは、姿勢推定部20cと同様に動作して推定姿勢情報Keを生成する。位置推定部120dは、位置推定部20dと同様に動作して位置情報Peを生成する。速度推定部120eは、速度推定部20eと同様に動作して速度情報Veを生成する。この例では、速度推定部120eは、対応情報Ci(姿勢推定モデル)と、受信した画像のデータGjとに基づいて作業部40の速度に関する速度情報Veを生成する。加速度推定部120fは、加速度推定部20fと同様に動作して加速度情報Aeを生成する。送信部120pは、推定姿勢情報Keと、位置情報Peと、速度情報Veと、加速度情報Aeとを通信ネットワークNWを介して情報処理装置110に送信する。 The receiving unit 120q receives the image data Gj. The posture estimation unit 120c operates in the same manner as the posture estimation unit 20c to generate the estimated posture information Ke. The position estimation unit 120d operates in the same manner as the position estimation unit 20d to generate position information Pe. The speed estimation unit 120e operates in the same manner as the speed estimation unit 20e to generate speed information Ve. In this example, the speed estimation unit 120e generates speed information Ve regarding the speed of the work unit 40 based on the correspondence information Ci (posture estimation model) and the data Gj of the received image. The acceleration estimation unit 120f operates in the same manner as the acceleration estimation unit 20f to generate acceleration information Ae. The transmission unit 120p transmits the estimated posture information Ke, the position information Pe, the velocity information Ve, and the acceleration information Ae to the information processing device 110 via the communication network NW.

情報処理装置110の推定結果受信部20qは、ネットワークサーバ120から推定姿勢情報Keと、位置情報Peと、速度情報Veと、加速度情報Aeとを受信する。推定結果受信部20qは、推定姿勢情報Keと、位置情報Peと、速度情報Veと、加速度情報Aeとを作業機械制御部62に送信する。作業機械制御部62は、第1実施形態と同様に動作して、作業機械100の動作を制御する。 The estimation result receiving unit 20q of the information processing device 110 receives the estimated posture information Ke, the position information Pe, the speed information Ve, and the acceleration information Ae from the network server 120. The estimation result receiving unit 20q transmits the estimated posture information Ke, the position information Pe, the velocity information Ve, and the acceleration information Ae to the work machine control unit 62. The work machine control unit 62 operates in the same manner as in the first embodiment to control the operation of the work machine 100.

以上のように構成された情報処理システム1は、第1実施形態の情報処理装置10と同様に動作し、同様の作用・効果を奏する。加えて、推定部120jがネットワークサーバ120に設けられているため、より高度なアルゴリズムを使用して、推定精度を高められる。また、1つのネットワークサーバで複数の作業機械をサポートできる。 The information processing system 1 configured as described above operates in the same manner as the information processing apparatus 10 of the first embodiment, and exhibits the same actions and effects. In addition, since the estimation unit 120j is provided in the network server 120, the estimation accuracy can be improved by using a more advanced algorithm. In addition, one network server can support a plurality of work machines.

以上、本発明の実施形態の例について詳細に説明した。上述した実施形態は、いずれも本発明を実施するにあたっての具体例を示したものにすぎない。実施形態の内容は、本発明の技術的範囲を限定するものではなく、請求の範囲に規定された発明の思想を逸脱しない範囲において、構成要素の変更、追加、削除などの多くの設計変更が可能である。上述の実施形態では、このような設計変更が可能な内容に関して、「実施形態の」「実施形態では」等との表記を付して説明しているが、そのような表記のない内容に設計変更が許容されないわけではない。 The examples of the embodiments of the present invention have been described in detail above. All of the above-described embodiments are merely specific examples for carrying out the present invention. The content of the embodiment does not limit the technical scope of the present invention, and many design changes such as modification, addition, and deletion of components are made within the scope of the invention defined in the claims. It is possible. In the above-described embodiment, the contents that can be changed in such a design are described with notations such as "in the embodiment" and "in the embodiment", but the contents are designed without such notations. It's not that changes aren't tolerated.

[変形例]
以下、変形例について説明する。変形例の図面および説明では、実施形態と同一または同等の構成要素、部材には、同一の符号を付する。実施形態と重複する説明を適宜省略し、第1実施形態と相違する構成について重点的に説明する。
[Modification example]
Hereinafter, a modified example will be described. In the drawings and description of the modified examples, the same or equivalent components and members as those in the embodiment are designated by the same reference numerals. The description that overlaps with the embodiment will be omitted as appropriate, and the configuration different from that of the first embodiment will be mainly described.

第1実施形態では、速度情報Ve、加速度情報Aeがバケット46の速度、加速度に関する情報である例を示したが、本発明はこれに限定されない。速度情報Ve、加速度情報Aeは、アーム44やブーム42など作業部40のバケット46以外の部位の速度、加速度に関する情報であってもよい。また、速度情報Ve、加速度情報Aeは、2カ所以上の部位または部分の速度、加速度に関する情報を含んでもよい。 In the first embodiment, an example is shown in which the velocity information Ve and the acceleration information Ae are information related to the velocity and acceleration of the bucket 46, but the present invention is not limited thereto. The speed information Ve and the acceleration information Ae may be information on the speed and acceleration of a portion of the working unit 40 other than the bucket 46, such as the arm 44 and the boom 42. Further, the velocity information Ve and the acceleration information Ae may include information on the velocity and acceleration of two or more parts or parts.

第1実施形態では、速度情報Ve、加速度情報Aeをフィードバックして速度、加速度を制御する例を示したが、本発明はこれに限定されない。例えば、情報処理装置10は、位置情報Pe、速度情報Veおよび加速度情報Aeの少なくとも1つに応じて、作業部40が周囲の人や物との接触を回避する回避動作を制御してもよい。 In the first embodiment, an example in which the velocity information Ve and the acceleration information Ae are fed back to control the velocity and the acceleration is shown, but the present invention is not limited to this. For example, the information processing device 10 may control an avoidance operation in which the working unit 40 avoids contact with surrounding people or objects according to at least one of position information Pe, velocity information Ve, and acceleration information Ae. ..

第1実施形態では、姿勢推定モデルは、個々の作業機械100で生成されてその作業機械100のモデル記憶部32に記憶される例を示したが、本発明はこれに限定されない。姿勢推定モデルは、基準となる作業機械により生成されて、個々の作業機械100のモデル記憶部32に予め格納されてもよい。また、姿勢推定モデルは、適宜のタイミングに更新されてもよい。 In the first embodiment, the posture estimation model is generated by each work machine 100 and stored in the model storage unit 32 of the work machine 100, but the present invention is not limited thereto. The posture estimation model may be generated by a reference work machine and stored in advance in the model storage unit 32 of each work machine 100. Further, the posture estimation model may be updated at an appropriate timing.

第1実施形態の説明では、画像情報取得部12が1つの画像センサで構成される例を示したが、本発明はこれに限定されない。画像情報取得部12は、複数の画像センサで構成されてもよい。例えば、画像情報取得部12は、いわゆるステレオカメラを含んでもよい。 In the description of the first embodiment, an example in which the image information acquisition unit 12 is composed of one image sensor has been shown, but the present invention is not limited to this. The image information acquisition unit 12 may be composed of a plurality of image sensors. For example, the image information acquisition unit 12 may include a so-called stereo camera.

第1実施形態の説明では、画像情報取得部12が操縦室38の屋根に設けられる例を示したが、本発明はこれに限定されない。例えば、画像情報取得部12は、操縦室38の側面や上部車体部34のカバー上に配置されてもよい。また、画像情報取得部12は、作業部40上に配置されてもよい。 In the description of the first embodiment, an example in which the image information acquisition unit 12 is provided on the roof of the cockpit 38 is shown, but the present invention is not limited to this. For example, the image information acquisition unit 12 may be arranged on the side surface of the cockpit 38 or on the cover of the upper vehicle body unit 34. Further, the image information acquisition unit 12 may be arranged on the work unit 40.

第1実施形態の説明では、作業機械100がバケット46を移動させて建設作業を行う建設機械である例を示したが、本発明はこれに限定されず、建設機械以外の作業機械にも適用できる。 In the description of the first embodiment, an example is shown in which the work machine 100 is a construction machine for performing construction work by moving the bucket 46, but the present invention is not limited to this, and is applicable to work machines other than the construction machine. it can.

第1実施形態では、色情報除去部20mが参照画像のデータGsおよび画像のデータGjから色情報を完全に除去する例を示したが、本発明はこれに限定されない。色情報除去部20mは、減色などにより、参照画像のデータGsおよび画像のデータGjの色情報を圧縮するものであってもよい。 In the first embodiment, an example is shown in which the color information removing unit 20m completely removes the color information from the reference image data Gs and the image data Gj, but the present invention is not limited thereto. The color information removing unit 20m may compress the color information of the reference image data Gs and the image data Gj by color reduction or the like.

第1実施形態の説明では、腕機構48が操縦室38の右側に設けられる例を示したが、本発明はこれに限定されない。例えば、腕機構は、操縦室の左側や操縦室の前方に設けられてもよい。 In the description of the first embodiment, an example in which the arm mechanism 48 is provided on the right side of the cockpit 38 has been shown, but the present invention is not limited thereto. For example, the arm mechanism may be provided on the left side of the cockpit or in front of the cockpit.

第1実施形態の説明では、作業機械100が操縦室38から操縦者によって操縦される例を示したが、本発明はこれに限定されない。例えば、作業機械は、自動操縦や遠隔操縦されるものであってもよい。 In the description of the first embodiment, an example in which the work machine 100 is operated by the operator from the cockpit 38 is shown, but the present invention is not limited thereto. For example, the work machine may be autopilot or remote controlled.

第5実施形態の説明では、制御部20が、個体情報保持部20h、環境情報受付部20g、画像情報補正部20j、背景情報除去部20k、色情報除去部20m、異常検知部24および外観検知部26を含まない例を示したが、本発明はこれに限定されない。例えば、第5実施形態の制御部20は、個体情報保持部20h、環境情報受付部20g、画像情報補正部20j、背景情報除去部20k、色情報除去部20m、異常検知部24または外観検知部26の1つ以上を含んでもよい。 In the description of the fifth embodiment, the control unit 20 includes an individual information holding unit 20h, an environmental information receiving unit 20g, an image information correction unit 20j, a background information removing unit 20k, a color information removing unit 20m, an abnormality detecting unit 24, and an appearance detection unit. Although an example not including the part 26 is shown, the present invention is not limited thereto. For example, the control unit 20 of the fifth embodiment includes an individual information holding unit 20h, an environmental information receiving unit 20g, an image information correction unit 20j, a background information removing unit 20k, a color information removing unit 20m, an abnormality detecting unit 24, or an appearance detecting unit. It may contain one or more of 26.

上述の変形例は、第1実施形態と同様の作用・効果を奏する。 The above-mentioned modification has the same action / effect as that of the first embodiment.

上述した実施形態と変形例の任意の組み合わせもまた本発明の実施形態として有用である。組み合わせによって生じる新たな実施形態は、組み合わされる実施形態および変形例それぞれの効果をあわせもつ。 Any combination of the above-described embodiments and modifications is also useful as an embodiment of the present invention. The new embodiment produced by the combination has the effects of the combined embodiment and the modified example.

10 情報処理装置、 12 画像情報取得部、 14 環境情報取得部、 16 姿勢情報取得部、 20 制御部、 20e 速度推定部、 20f 加速度推定部、 22 モデル生成部、 24c 異常判定部、 26c 外観判定部、 30 記憶部、 32 モデル記憶部、 40 作業部、 42 ブーム、 44 アーム、 46 バケット、 62 作業機械制御部、 100 作業機械、 1000 建設機械。 10 Information processing equipment, 12 Image information acquisition unit, 14 Environmental information acquisition unit, 16 Attitude information acquisition unit, 20 Control unit, 20e Speed estimation unit, 20f Acceleration estimation unit, 22 Model generation unit, 24c Abnormality judgment unit, 26c Appearance judgment Department, 30 storage unit, 32 model storage unit, 40 work unit, 42 boom, 44 arm, 46 bucket, 62 work machine control unit, 100 work machine, 1000 construction machine.

Claims (14)

作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶している記憶部と、
前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
前記対応情報と前記画像のデータとに基づいて前記作業機械の作業部の速度に関する速度情報を生成する速度推定部と
を備える情報処理装置。
A storage unit that stores correspondence information generated by associating the data of the reference image of the work unit of the work machine with the posture data of the work unit of the work machine.
An acquisition unit that acquires image data of the work unit of the work machine for comparison with the data of the reference image, and an acquisition unit.
An information processing device including a speed estimation unit that generates speed information regarding the speed of the work unit of the work machine based on the correspondence information and the data of the image.
前記取得部は前記作業機械の作業部と一体的に旋回するように構成される請求項1に記載の情報処理装置。 The information processing device according to claim 1, wherein the acquisition unit is configured to rotate integrally with the work unit of the work machine. 前記画像のデータと前記対応情報とに基づいて前記作業機械の作業部の姿勢を推定する推定部を有する請求項1または2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2, further comprising an estimation unit that estimates the posture of the work unit of the work machine based on the image data and the corresponding information. 前記記憶部は前記参照画像のデータおよび前記姿勢のデータをもとに機械学習により生成された姿勢推定モデルを記憶する請求項1から3のいずれかに記載の情報処理装置。 The information processing device according to any one of claims 1 to 3, wherein the storage unit stores a posture estimation model generated by machine learning based on the reference image data and the posture data. 前記速度推定部は時間差を有する複数のタイミングに前記取得部で取得された複数の画像のデータと前記時間差とに基づいて前記速度情報を生成する請求項1から4のいずれかに記載の情報処理装置。 The information processing according to any one of claims 1 to 4, wherein the speed estimation unit generates the speed information based on the data of a plurality of images acquired by the acquisition unit at a plurality of timings having a time difference and the time difference. apparatus. 前記速度推定部で生成された複数の速度情報と前記時間差とに基づいて前記作業機械の作業部の加速度に関する加速度情報を生成する加速度推定部をさらに備える請求項5に記載の情報処理装置。 The information processing apparatus according to claim 5, further comprising an acceleration estimation unit that generates acceleration information regarding acceleration of the work unit of the work machine based on a plurality of speed information generated by the speed estimation unit and the time difference. 前記取得部で取得された前記画像のデータと前記作業機械の作業部の動作を制御するための制御信号とに基づいて前記作業機械の作業部の動作異常を判定する異常判定部をさらに備える請求項1から6のいずれかに記載の情報処理装置。 A claim further comprising an abnormality determination unit for determining an operation abnormality of the work unit of the work machine based on the image data acquired by the acquisition unit and a control signal for controlling the operation of the work unit of the work machine. Item 4. The information processing apparatus according to any one of Items 1 to 6. 前記取得部で取得された前記画像のデータと正常な状態における前記作業機械の作業部の画像のデータとに基づいて前記作業機械の作業部の外観異常を判定する外観判定部をさらに備える請求項1から7のいずれかに記載の情報処理装置。 A claim further comprising an appearance determination unit for determining an appearance abnormality of the work unit of the work machine based on the image data acquired by the acquisition unit and the image data of the work unit of the work machine in a normal state. The information processing apparatus according to any one of 1 to 7. 作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータをもとに機械学習により生成された姿勢推定モデルを記憶している記憶部と、
前記作業機械の作業部と一体的に旋回するように構成され前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
前記取得部で取得された前記画像のデータに基づいて前記姿勢推定モデルを参照して前記作業機械の作業部の姿勢を推定する姿勢推定部と、
前記姿勢推定部で推定された前記作業機械の作業部の姿勢に関する推定姿勢情報をもとに前記作業機械の作業部の所定の部位の位置を推定する位置推定部と、
前記位置推定部で推定された前記所定の部位の位置に関する位置情報をもとに前記作業機械の作業部の速度に関する速度情報を生成する速度推定部と
を備える情報処理装置。
A storage unit that stores a posture estimation model generated by machine learning based on the reference image data of the work unit of the work machine and the posture data of the work unit of the work machine.
An acquisition unit that is configured to rotate integrally with the work unit of the work machine and acquires image data of the work unit of the work machine for comparison with the data of the reference image.
A posture estimation unit that estimates the posture of the work unit of the work machine by referring to the posture estimation model based on the image data acquired by the acquisition unit.
A position estimation unit that estimates the position of a predetermined part of the work unit of the work machine based on the estimated posture information regarding the posture of the work unit of the work machine estimated by the posture estimation unit.
An information processing device including a speed estimation unit that generates speed information regarding the speed of the work unit of the work machine based on the position information regarding the position of the predetermined portion estimated by the position estimation unit.
作業機械の作業部の画像のデータを取得して送信する情報処理装置と、
前記情報処理装置から受信した前記画像のデータと前記作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて予め生成された対応情報とに基づいて前記作業機械の作業部の速度に関する速度情報を推定し当該速度情報を前記情報処理装置に送信するネットワークサーバと
を備える情報処理システム。
An information processing device that acquires and transmits image data of the work part of a work machine,
The above is based on the correspondence information generated in advance by associating the image data received from the information processing apparatus with the reference image data of the work unit of the work machine and the attitude data of the work unit of the work machine. An information processing system including a network server that estimates speed information related to the speed of a working unit of a work machine and transmits the speed information to the information processing apparatus.
作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶するステップと、
前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得するステップと、
時間差を有する複数のタイミングに取得された複数の画像のデータと前記時間差と前記対応情報とに基づいて速度情報を生成するステップと
を含む情報処理方法。
A step of storing correspondence information generated by associating the reference image data of the work part of the work machine with the posture data of the work part of the work machine, and
A step of acquiring image data of a working part of the work machine for comparison with the data of the reference image, and
An information processing method including a step of generating speed information based on data of a plurality of images acquired at a plurality of timings having a time difference, the time difference, and the corresponding information.
前記速度情報を生成するステップは前記参照画像のデータと前記姿勢のデータとをもとに機械学習により生成された姿勢推定モデルを参照するステップを含む
請求項11に記載の情報処理方法。
The information processing method according to claim 11, wherein the step of generating the speed information includes a step of referring to a posture estimation model generated by machine learning based on the data of the reference image and the data of the posture.
作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶する機能と、
前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する機能と、
時間差を有する複数のタイミングに取得された複数の画像のデータと前記時間差と前記対応情報とに基づいて前記作業機械の作業部の速度情報を生成する機能と
をコンピュータに実現させるためのコンピュータプログラム。
A function to store the correspondence information generated by associating the reference image data of the work part of the work machine with the posture data of the work part of the work machine, and
A function of acquiring image data of a working part of the work machine for comparison with the data of the reference image, and
A computer program for realizing a function of generating speed information of a work unit of a work machine based on data of a plurality of images acquired at a plurality of timings having a time difference, the time difference, and the corresponding information.
作業機械の作業部と、
前記作業機械の作業部の参照画像のデータと前記作業機械の作業部の姿勢のデータとを対応づけて生成された対応情報を記憶している記憶部と、
前記参照画像のデータと比較するために前記作業機械の作業部の画像のデータを取得する取得部と、
前記取得部で取得された前記画像のデータと前記対応情報とに基づいて前記作業機械の作業部の速度に関する速度情報を生成する速度推定部と
を備える建設機械。
The work part of the work machine and
A storage unit that stores correspondence information generated by associating the data of the reference image of the work unit of the work machine with the posture data of the work unit of the work machine.
An acquisition unit that acquires image data of the work unit of the work machine for comparison with the data of the reference image, and an acquisition unit.
A construction machine including a speed estimation unit that generates speed information regarding the speed of the work unit of the work machine based on the image data acquired by the acquisition unit and the corresponding information.
JP2019164810A 2019-09-10 2019-09-10 Information processing device, information processing system, information processing method, computer program, construction machine Active JP7282002B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019164810A JP7282002B2 (en) 2019-09-10 2019-09-10 Information processing device, information processing system, information processing method, computer program, construction machine
KR1020200113664A KR20210030875A (en) 2019-09-10 2020-09-07 Information processing apparatus, information processing system, information processing method, computer program, construction machine
CN202010939634.9A CN112482460B (en) 2019-09-10 2020-09-09 Information processing device, information processing system, information processing method, computer program, and construction machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019164810A JP7282002B2 (en) 2019-09-10 2019-09-10 Information processing device, information processing system, information processing method, computer program, construction machine

Publications (2)

Publication Number Publication Date
JP2021042569A true JP2021042569A (en) 2021-03-18
JP7282002B2 JP7282002B2 (en) 2023-05-26

Family

ID=74863806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019164810A Active JP7282002B2 (en) 2019-09-10 2019-09-10 Information processing device, information processing system, information processing method, computer program, construction machine

Country Status (3)

Country Link
JP (1) JP7282002B2 (en)
KR (1) KR20210030875A (en)
CN (1) CN112482460B (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6267208U (en) * 1985-10-16 1987-04-27
JP2008240361A (en) * 2007-03-27 2008-10-09 Komatsu Ltd Method and system for supporting fuel cost saving operation of construction machine
JP2017053627A (en) * 2015-09-07 2017-03-16 Kyb株式会社 Angle detecting apparatus
JP2018188957A (en) * 2018-09-06 2018-11-29 住友重機械工業株式会社 Shovel

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9598845B2 (en) * 2014-06-04 2017-03-21 Komatsu Ltd. Posture computing apparatus for work machine, work machine, and posture computation method for work machine
JP5893144B1 (en) * 2014-06-04 2016-03-23 株式会社小松製作所 Work machine attitude calculation device, work machine, and work machine attitude calculation method
US10586349B2 (en) * 2017-08-24 2020-03-10 Trimble Inc. Excavator bucket positioning via mobile device
CN109903337B (en) * 2019-02-28 2022-06-14 北京百度网讯科技有限公司 Method and apparatus for determining pose of bucket of excavator

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6267208U (en) * 1985-10-16 1987-04-27
JP2008240361A (en) * 2007-03-27 2008-10-09 Komatsu Ltd Method and system for supporting fuel cost saving operation of construction machine
JP2017053627A (en) * 2015-09-07 2017-03-16 Kyb株式会社 Angle detecting apparatus
JP2018188957A (en) * 2018-09-06 2018-11-29 住友重機械工業株式会社 Shovel

Also Published As

Publication number Publication date
CN112482460B (en) 2023-06-27
JP7282002B2 (en) 2023-05-26
KR20210030875A (en) 2021-03-18
CN112482460A (en) 2021-03-12

Similar Documents

Publication Publication Date Title
US20230330848A1 (en) Reinforcement and imitation learning for a task
US10317854B2 (en) Machine learning device that performs learning using simulation result, machine system, manufacturing system, and machine learning method
CN106780608B (en) Pose information estimation method and device and movable equipment
CN112109075B (en) Control system and control method
EP1975046B1 (en) Legged locomotion robot
JP2022504713A (en) Systems and methods for training machine models with extended data
US20130054028A1 (en) System and method for controlling robot
US20230330858A1 (en) Fine-grained industrial robotic assemblies
Liang et al. Fast dataset collection approach for articulated equipment pose estimation
JP2021042569A (en) Information processing device, information processing system, information processing method, computer program, and construction machine
CN110175523B (en) Self-moving robot animal identification and avoidance method and storage medium thereof
CN113551661A (en) Pose identification and track planning method, device and system, storage medium and equipment
JP2021033568A (en) Information processing system, information processing method, and construction machine
US20220143836A1 (en) Computer-readable recording medium storing operation control program, operation control method, and operation control apparatus
Zhou et al. Visual servo control system of 2-DOF parallel robot
US20220138535A1 (en) Source-agnostic image processing
Gietler et al. Forestry Crane Automation using Learning-based Visual Grasping Point Prediction
JP2022077228A (en) Operation control program, operation control method, and operation control device
KR20220065232A (en) Apparatus and method for controlling robot based on reinforcement learning
TWI788253B (en) Adaptive mobile manipulation apparatus and method
CN116295507B (en) Laser inertial odometer optimization method and system based on deep learning
WO2023100282A1 (en) Data generation system, model generation system, estimation system, trained model production method, robot control system, data generation method, and data generation program
US20210187747A1 (en) Reducing motion blur for robot-mounted cameras
Walter et al. Vision-based reacquisition for task-level control
Yang et al. A Human-Robot Collaboration System for Object Handover

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220812

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R151 Written notification of patent or utility model registration

Ref document number: 7282002

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151