JP7472034B2 - ショベル、ショベル支援システム - Google Patents

ショベル、ショベル支援システム Download PDF

Info

Publication number
JP7472034B2
JP7472034B2 JP2020554050A JP2020554050A JP7472034B2 JP 7472034 B2 JP7472034 B2 JP 7472034B2 JP 2020554050 A JP2020554050 A JP 2020554050A JP 2020554050 A JP2020554050 A JP 2020554050A JP 7472034 B2 JP7472034 B2 JP 7472034B2
Authority
JP
Japan
Prior art keywords
shovel
environmental information
trained model
unit
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020554050A
Other languages
English (en)
Other versions
JPWO2020091002A1 (ja
Inventor
亮太 黒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo SHI Construction Machinery Co Ltd
Original Assignee
Sumitomo SHI Construction Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo SHI Construction Machinery Co Ltd filed Critical Sumitomo SHI Construction Machinery Co Ltd
Publication of JPWO2020091002A1 publication Critical patent/JPWO2020091002A1/ja
Priority to JP2024000097A priority Critical patent/JP2024028372A/ja
Application granted granted Critical
Publication of JP7472034B2 publication Critical patent/JP7472034B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2004Control mechanisms, e.g. control levers
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/20Drives; Control devices
    • E02F9/2025Particular purposes of control systems not otherwise provided for
    • E02F9/205Remotely operated machines, e.g. unmanned vehicles
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/24Safety devices, e.g. for preventing overload
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • E02F9/262Surveying the work-site to be treated with follow-up actions to control the work tool, e.g. controller
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Structural Engineering (AREA)
  • Civil Engineering (AREA)
  • Mining & Mineral Resources (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Component Parts Of Construction Machinery (AREA)
  • Operation Control Of Excavators (AREA)

Description

本開示は、ショベル及びショベル支援システムに関する。
例えば、ショベルの周囲の状況を表す環境情報(例えば、ショベルの周囲の撮像画像やショベルの周囲に送信された検出波の反射波データ等)に基づき、ショベルの周囲の物体に関する判定(例えば、物体の有無、種類の判定等)を行う技術が知られている。
例えば、特許文献1では、オプティカルフロー、パターンマッチング等の画像処理技術を用いて、ショベルの周囲の撮像画像に基づき、周囲の物体を検出している(特許文献1参照)。
特許6290497号公報
しかしながら、ショベルは、多様な環境下で使用されうるところ、特許文献1等では、予め規定された判定基準で判定が行われるため、環境条件によっては、適切な判定精度を確保できない可能性がある。
そこで、上記課題に鑑み、ショベルの周囲の環境情報に基づき、ショベルの周囲の物体に関する判定を行う場合の多様な環境条件下での判定精度を向上させることが可能な技術を提供する。
本開示の一実施形態において、
ショベルの周囲の作業現場の環境情報を取得する環境情報取得部と、
機械学習が行われた学習済みモデルを用いて、前記環境情報取得部により取得される環境情報に基づき、ショベルの周囲の物体に関する判定を行う判定部と、を備え、
前記学習済みモデルは、取得された作業現場の環境情報から生成される教師情報に基づき追加学習が行われた、追加学習済みモデルに更新され、
前記判定部は、前記学習済みモデルが更新された場合、更新された前記学習済みモデルを用いて、前記環境情報取得部により取得される環境情報に基づき、前記判定を行
自ショベルを含む複数のショベルは、同一の前記学習済みモデルを有すると共に、前記学習済みモデルを用いて、前記判定を行い、
前記複数のショベルのそれぞれが有する前記学習済みモデルは、前記追加学習済みモデルに更新される、
ショベルが提供される。
また、本開示の他の実施形態において、
ショベルの周囲の作業現場の環境情報を取得する環境情報取得部と、
機械学習が行われた学習済みモデルを用いて、前記環境情報取得部により取得される環境情報に基づき、ショベルの周囲の物体に関する判定を行う判定部と、を備え、
前記学習済みモデルは、取得された作業現場の環境情報から生成される教師情報に基づき追加学習が行われた、追加学習済みモデルに更新され、
前記判定部は、前記学習済みモデルが更新された場合、更新された前記学習済みモデルを用いて、前記環境情報取得部により取得される環境情報に基づき、前記判定を行い、
前記学習済みモデルは、複数のショベルで取得される周囲の作業現場の環境情報から生成される前記教師情報に基づき前記追加学習が行われた前記追加学習済みモデルに更新される、
ショベルが提供される。
また、本開示の更に他の実施形態において、
第1のショベルと、第2のショベルと、前記第1のショベル及び前記第2のショベルと通信可能な外部装置と、を含むショベル支援システムであって、
前記第1のショベルに設けられ、前記第1のショベルの周囲の環境情報を取得する第1の環境情報取得部と、
前記第1のショベルに設けられ、機械学習が行われた学習済みモデルを用いて、前記第1の環境情報取得部により取得される環境情報に基づき、前記第1のショベルの周囲の物体に関する判定を行う判定部と、
前記第2のショベルに設けられ、前記第2のショベルの周囲の環境情報を取得する第2の環境情報取得部と、
前記第2のショベルに設けられ、前記第2の環境情報取得部により取得される環境情報を記録する記録部と、
前記第2のショベルに設けられ、前記記録部により記録される環境情報を前記外部装置に送信する環境情報送信部と、
前記外部装置に設けられ、前記第2のショベルから受信される、前記第2のショベルで取得された環境情報に基づき、教師情報を生成する教師情報生成部と、
前記外部装置に設けられ、前記教師情報生成部により生成された教師情報に基づき、前記第1のショベルで前記判定に用いられている前記学習済みモデルと同一の学習済みモデルに追加学習を行わせ、追加学習済みモデルを生成する学習部と、
前記外部装置に設けられ、前記学習部により追加学習が行われた前記追加学習済みモデルを前記第1のショベルに送信するモデル送信部と、を備え、
前記学習済みモデルは、前記第1のショベルにおいて、前記外部装置から受信される前記追加学習済みモデルに更新され、
前記判定部は、前記学習済みモデルが更新された場合、更新された前記学習済みモデルを用いて、前記第1の環境情報取得部により取得される環境情報に基づき、前記判定を行う、
ショベル支援システムが提供される。
上述の実施形態によれば、ショベルの周囲の環境情報に基づき、ショベルの周囲の物体に関する判定を行う場合の多様な環境条件下での判定精度を向上させることが可能な技術を提供することができる。
ショベル支援システムの構成の一例を示す概略図である。 ショベルの上面図である。 ショベル支援システムの機能的な構成の一例を示す機能ブロック図である。 判定部による判定処理の一例を示す概念図である。 判定部による判定処理の一例を示す概念図である。 判定部による判定処理の結果の具体例を示す図である。 ショベル支援システムの動作の一例を示すシーケンス図である。 ショベル支援システムの機能的な構成の他の例を示す機能ブロック図である。 ショベル支援システムの機能的な構成の更に他の例を示す機能ブロック図である。 判定部による判定処理の他の例を示す概念図である。
以下、図面を参照して実施形態について説明する。
[ショベル支援システムの概要]
まず、図1を参照して、本実施形態に係るショベル支援システムSYSについて説明する。
図1は、ショベル支援システムSYSの構成の一例を示す概略図である。
ショベル支援システムSYSは、複数のショベル100と、管理装置200とを含み、それぞれのショベル100で実行される、ショベル100の周囲の物体に関する判定を支援する。ショベル100の周囲の物体に関する判定には、例えば、ショベル100の周囲の物体の有無の判定(つまり、ショベル100の周囲の物体の検出に関する判定)や、ショベル100の周囲の物体の種類の判定(つまり、ショベル100の周囲で検出された物体の分類に関する判定)を含む。以下、複数のショベル100は、それぞれ、ショベル支援システムSYSに関して同じ構成を有する前提で説明を進める。
<ショベルの概要>
ショベル100は、下部走行体1と、下部走行体1に旋回機構2を介して旋回自在に搭載される上部旋回体3と、アタッチメントを構成するブーム4、アーム5、及び、バケット6と、キャビン10とを含む。
下部走行体1は、左右一対のクローラ1C、具体的には、左クローラ1CL及び右クローラ1CRを含む。下部走行体1は、左クローラ1CL及び右クローラ1CRが走行油圧モータ2M(2ML,2MR)でそれぞれ油圧駆動されることにより、ショベル100を走行させる。
上部旋回体3は、旋回油圧モータ2Aで駆動されることにより、下部走行体1に対して旋回する。また、上部旋回体3は、旋回油圧モータ2Aで油圧駆動される代わりに、電動機により電気駆動されてもよい。以下、便宜上、上部旋回体3におけるアタッチメントATが取り付けられている側を前方とし、カウンタウェイトが取り付けられている側を後方とする。
ブーム4は、上部旋回体3の前部中央に俯仰可能に枢着され、ブーム4の先端には、アーム5が上下回動可能に枢着され、アーム5の先端には、バケット6が上下回動可能に枢着される。ブーム4、アーム5、及びバケット6は、それぞれ、油圧アクチュエータとしてのブームシリンダ7、アームシリンダ8、及びバケットシリンダ9によりそれぞれ油圧駆動される。
キャビン10は、オペレータが搭乗する運転室であり、上部旋回体3の前部左側に搭載される。
また、ショベル100は、通信機器90を搭載する。ショベル100は、例えば、基地局を末端とする携帯電話網、上空の通信衛星を利用する衛星通信網、インターネット網等を含みうる所定の通信ネットワーク(以下、単に「通信ネットワーク」)を通じて、管理装置200と通信可能に接続される。これにより、ショベル100は、管理装置200から各種情報を取得したり、管理装置200に各種情報を送信したりすることができる。詳細は、後述する。
ショベル100は、キャビン10に搭乗するオペレータの操作装置26に対する操作に応じて、下部走行体1、上部旋回体3、ブーム4、アーム5、及びバケット6等の動作要素(被駆動要素)を動作させる。
また、ショベル100は、キャビン10のオペレータにより操作されるのに代えて、或いは、加えて、所定の外部装置(例えば、管理装置200)のオペレータによって遠隔操作されてもよい。この場合、ショベル100は、例えば、後述の撮像装置70が出力する画像情報(撮像画像)を管理装置200に送信する。これにより、オペレータは、管理装置200に設けられる表示装置(例えば、後述の表示装置230)に表示される画像情報を確認しながら、ショベル100を遠隔操作することができる。そして、ショベル100は、管理装置200から受信される、遠隔操作の内容を表す遠隔操作信号に応じて、下部走行体1、上部旋回体3、ブーム4、アーム5、及びバケット6等の被駆動要素を動作させてよい。以下、オペレータの操作には、オペレータの操作装置26に対する操作、及び管理装置200のオペレータの遠隔操作の少なくとも一方が含まれる前提で説明を進める。
<管理装置の概要>
管理装置200(外部装置の一例)は、ショベル100の外部の地理的に離れた位置に設置され、複数のショベル100の管理を行う。管理装置200は、例えば、ショベル100が作業する作業現場外に設けられる管理センタ等に設置され、一又は複数のサーバコンピュータ等を中心に構成されるサーバ装置(端末装置)である。この場合、サーバ装置は、ショベル支援システムSYSを運用する事業者或いは当該事業者に関連する関連事業者が運営する自社サーバであってもよいし、いわゆるクラウドサーバであってもよい。また、管理装置200は、ショベル100の作業現場内の管理事務所等に配置される定置型或いは携帯型のコンピュータ端末であってもよい。
管理装置200は、通信ネットワークを通じて、複数のショベル100のそれぞれと通信可能に接続される。これにより、管理装置200は、ショベル100に各種情報を送信したり、ショベル100から各種情報を受信したりすることができる。詳細は、後述する。
また、管理装置200は、ショベル100を遠隔操作可能に構成されてもよい。具体的には、管理装置200は、表示装置(例えば、表示装置230)にショベル100から配信される撮像装置70の画像情報を表示させ、遠隔操作のオペレータは、この画像情報を確認しながら、ショベル100の遠隔操作を行ってよい。この際、遠隔操作のオペレータは、管理装置200に設けられる遠隔操作用の操作装置(例えば、タッチパネル、タッチパッド、ジョイスティック等の汎用の操作装置や操作装置26を模した専用の操作装置等)を用いることができる。管理装置200は、通信ネットワークを通じて、遠隔操作の内容を含む遠隔操作信号をショベル100に送信する。これにより、ショベル100は、例えば、後述のコントローラ30の制御下で、管理装置200からの遠隔操作信号に応じて、動作することができ、管理装置200は、ショベル100の遠隔操作を支援することができる。
[ショベル支援システムの構成の一例]
図1に加えて、図2~図5を参照して、ショベル支援システムSYS(ショベル100、管理装置200)の具体的な構成について説明する。
図2は、ショベル100の上面図である。図3は、本実施形態に係るショベル支援システムSYSの構成の一例を示す構成図である。図4(図4A、図4B)は、後述する判定部344による判定処理の一例を示す概念図である。図5は、判定部344による判定処理結果の具体例を示す図である。
尚、上述の如く、複数のショベル100は、それぞれ、ショベル支援システムSYSに関して同じ構成を有するため、図3では、一のショベル100の詳細構成だけを記載している。
<ショベルの構成>
ショベル100は、油圧システムに関する構成として、上述の如く、走行油圧モータ2M(2ML,2MR)、旋回油圧モータ2A、ブームシリンダ7、アームシリンダ8、及びバケットシリンダ9等の油圧アクチュエータを含む。また、ショベル100は、油圧システムに関する構成として、エンジン11と、操作装置26とを含む。また、ショベル100は、制御システムに関する構成として、コントローラ30と、記録装置32と、判定装置34と、表示装置40と、撮像装置70と、向き検出装置85と、通信機器90と、ブーム角度センサS1と、アーム角度センサS2と、バケット角度センサS3と、機体傾斜センサS4と、旋回状態センサS5とを含む。
エンジン11は、ショベル100(の油圧システム)の駆動源であり、例えば、上部旋回体3の後部に搭載される。エンジン11は、例えば、軽油を燃料とするディーゼルエンジンである。エンジン11は、例えば、コントローラ30等による制御下で、所定の回転数(設定回転数)を維持するように動作する。エンジン11の回転軸は、油圧アクチュエータに作動油を供給するメインポンプ、及び操作装置26等の操作系の油圧機器に作動油を供給するパイロットポンプの回転軸に接続され、エンジン11の動力は、メインポンプ及びパイロットポンプに伝達される。
操作装置26は、キャビン10内の運転席に着座したオペレータ等から手足が届く範囲内に配置され、オペレータ等により、各種動作要素(下部走行体1、上部旋回体3、ブーム4、アーム5、及びバケット6等)、換言すれば、各種動作要素を駆動する油圧アクチュエータの操作のための操作入力が行われる。
操作装置26は、例えば、油圧パイロット式である。この場合、操作装置26は、パイロットポンプから作動油の供給を受けて所定のパイロット圧(操作内容に対応するパイロット圧)を生成する。そして、操作装置26は、油圧アクチュエータを駆動制御するコントロールバルブ内の対応する制御弁のパイロットポートにそのパイロット圧を作用させる。これにより、操作装置26における操作内容(例えば、操作方向及び操作量)がコントロールバルブの動作に反映され、油圧アクチュエータによって、操作装置26の操作内容に沿った各種動作要素(被駆動要素)の動作が実現される。
また、操作装置26は、例えば、操作内容に対応する電気信号(以下、「操作信号」)を出力する電気式であってもよい。この場合、操作装置26から出力される電気信号は、例えば、コントローラ30に取り込まれ、コントローラ30は、操作信号に対応する制御指令、即ち、操作装置26の操作内容に対応する制御指令を所定の油圧制御弁(以下、「操作用制御弁」)に出力してよい。そして、操作用制御弁は、パイロットポンプ或いはメインポンプから供給される作動油を用いて、コントローラ30からの制御指令に対応するパイロット圧を出力し、コントロールバルブ内の対応する制御弁のパイロットポートにそのパイロット圧を作用させてよい。これにより、操作装置26における操作内容がコントロールバルブの動作に反映され、油圧アクチュエータによって、操作装置26の操作内容に沿った各種動作要素の動作が実現される。
また、ショベル100が遠隔操作される場合、例えば、コントローラ30は、上記の操作用制御弁を用いて、ショベル100の遠隔操作を実現してよい。具体的には、コントローラ30は、通信機器90により受信される遠隔操作信号で指定される遠隔操作の内容に対応する制御指令を操作用制御弁に出力してよい。そして、操作用制御弁は、パイロットポンプ或いはメインポンプから供給される作動油を用いて、コントローラ30からの制御指令に対応するパイロット圧を出力し、コントロールバルブ内の対応する制御弁のパイロットポートにそのパイロット圧を作用させてよい。これにより、遠隔操作の内容がコントロールバルブの動作に反映され、油圧アクチュエータによって、遠隔操作の内容に沿った各種動作要素(被駆動要素)の動作が実現される。
コントローラ30は、例えば、キャビン10の内部に搭載され、ショベル100の駆動制御を行う。コントローラ30は、その機能が、任意のハードウェア、或いは、任意のハードウェア及びソフトウェアの組み合わせにより実現されてよい。例えば、コントローラ30は、CPU(Central Processing Unit)、RAM(Random Access Memory)等のメモリ装置(主記憶装置)、ROM(Read Only Memory)等の不揮発性の補助記憶装置、及び各種入出力用のインタフェース装置等を含むコンピュータを中心に構成される。
例えば、コントローラ30は、向き検出装置85、ブーム角度センサS1、アーム角度センサS2、バケット角度センサS3、機体傾斜センサS4、旋回状態センサS5等の各種センサの出力信号を取り込み、ショベル100の各種状態(例えば、上部旋回体3の向きや姿勢状態等)を把握する。そして、コントローラ30は、把握した各種状態に応じて、ショベル100の各種制御を行う。
また、例えば、コントローラ30は、判定装置34により、ショベル100の周囲の所定の監視領域内(例えば、ショベル100から5メートル以内の作業領域)で、監視対象の物体(例えば、人、トラック、他の建設機械、電柱、吊り荷、パイロン、建屋等)が検出された場合に、ショベル100と監視対象の物体との当接等を回避させる制御(以下、「当接回避制御」)を行う。コントローラ30は、例えば、補助記憶装置等にインストールされる一以上のプログラムをCPU上で実行することにより実現される、当接回避制御に関する機能部として、報知部302と、動作制御部304とを含む。
記録装置32は、撮像装置70の撮像画像を所定のタイミングで記録する。記録装置32は、任意のハードウェア、或いは、任意のハードウェア及びソフトウェアの組み合わせにより実現されてよい。例えば、記録装置32は、コントローラ30と同様のコンピュータを中心に構成されてよい。記録装置32は、例えば、補助記憶装置等にインストールされる一以上のプログラムをCPU上で実行することにより実現される機能部として、記録制御部322を含む。また、記録装置32は、例えば、補助記憶装置等の内部メモリに規定される記憶領域としての記憶部324を含む。
判定装置34は、撮像装置70の撮像画像に基づき、ショベル100の周囲の物体に関する判定(例えば、物体の検出判定や物体の分類判定等)を行う。判定装置34は、任意のハードウェア、或いは、任意のハードウェア及びソフトウェアの組み合わせにより実現されてよい。例えば、判定装置34は、コントローラ30等と同様の構成、つまり、CPU、メモリ装置、補助記憶装置、及びインタフェース装置等に加えて、CPUでの処理と連動し並列処理による高速演算を行う、画像処理用の演算デバイスを含むコンピュータを中心に構成されてよい。以下、後述する管理装置200の制御装置210についても同様の構成を有してよい。画像処理用の演算デバイスには、GPU(Graphics Processing Unit)、FPGA(Field -Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等が含まれうる。判定装置34は、例えば、補助記憶装置等にインストールされる一以上のプログラムをCPU上で実行することにより実現される機能部として、表示制御部342と、判定部344とを含む。また、判定装置34は、例えば、補助記憶装置等の内部メモリに規定される記憶領域としての記憶部346を含む。
尚、コントローラ30、記録装置32、及び判定装置34の一部又は全部は、一つに統合されてもよい。
表示装置40は、キャビン10の内部の運転席に着座したオペレータ等から視認し易い場所に設けられ、各種情報画像を表示する。表示装置40は、例えば、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイである。例えば、表示装置40は、判定装置34(表示制御部342)による制御下で、撮像装置70の撮像画像に基づくショベル100の周囲の様子を表す画像を表示する。具体的には、表示装置40は、撮像装置70の撮像画像を表示してよい。また、表示装置40は、判定装置34(表示制御部342)により生成される、撮像装置70の撮像画像に対して所定の変換処理(例えば、視点変換処理)等が施された変換画像を表示してもよい。変換画像は、例えば、ショベル100の真上から見た俯瞰画像と、ショベル100から遠方を水平方向に見た水平画像とを組み合わせた視点変換画像であってよい。また、当該視点変換画像は、後述する前方カメラ70F、後方カメラ70B、左方カメラ70L、及び右方カメラ70Rのそれぞれの撮像画像が、俯瞰画像及び水平画像による視点変換画像に変換された上で、合成された合成画像であってもよい。
撮像装置70(環境情報取得部の一例)は、ショベル100の周囲の様子を撮像し、撮像画像(環境情報の一例)を出力する。撮像装置70は、前方カメラ70Fと、後方カメラ70Bと、左方カメラ70Lと、右方カメラ70Rとを含む。撮像装置70(前方カメラ70F、後方カメラ70B、左方カメラ70L、及び右方カメラ70Rのそれぞれ)による撮像画像は、判定装置34に取り込まれる。
前方カメラ70Fは、例えば、キャビン10の上面前端に取り付けられ、上部旋回体3の前方の様子を撮像する。
後方カメラ70Bは、例えば、上部旋回体3の上面後端に取り付けられ、上部旋回体3の後方の様子を撮像する。
左方カメラ70Lは、例えば、上部旋回体3の上面左端に取り付けられ、上部旋回体3の左方の様子を撮像する。
右方カメラ70Rは、例えば、上部旋回体3の上面右端に取り付けられ、上部旋回体3の右方の様子を撮像する。
向き検出装置85は、上部旋回体3の向きと下部走行体1の向きとの相対的な関係に関する情報(以下、「向きに関する情報」)を検出するように構成されている。例えば、向き検出装置85は、下部走行体1に取り付けられた地磁気センサと上部旋回体3に取り付けられた地磁気センサの組み合わせで構成されてよい。また、向き検出装置85は、下部走行体1に取り付けられたGNSS(Global Navigation Satellite System)受信機と上部旋回体3に取り付けられたGNSS受信機の組み合わせで構成されていてもよい。上部旋回体3が電動機で駆動される構成の場合、向き検出装置85は、電動機に取り付けられるレゾルバにより構成されていてもよい。また、向き検出装置85は、例えば、下部走行体1と上部旋回体3との間の相対回転を実現する旋回機構2に関連して設けられるセンタージョイントに配置されていてもよい。向き検出装置85による検出情報は、コントローラ30に取り込まれる。
通信機器90は、通信ネットワークに接続し、管理装置200等の外部との通信を行う任意のデバイスである。通信機器90は、例えば、LTE(Long Term Evolution)、4G(4th Generation)、5G(5th Generation)等の所定の移動体通信規格に対応する移動体通信モジュールであってよい。
ブーム角度センサS1は、ブーム4に取り付けられ、ブーム4の上部旋回体3に対する俯仰角度(以下、「ブーム角度」)θ1を検出する。ブーム角度θ1は、例えば、ブーム4を最も下降させた状態からの上昇角度である。この場合、ブーム角度θ1は、ブーム4を最も上昇させたときに最大となる。ブーム角度センサS1は、例えば、ロータリエンコーダ、加速度センサ、角速度センサ、6軸センサ、IMU(Inertial Measurement Unit:慣性計測装置)等を含んでよく、以下、アーム角度センサS2、バケット角度センサS3、機体傾斜センサS4についても同様であってよい。また、ブーム角度センサS1は、ブームシリンダ7に取り付けられたストロークセンサであってもよく、以下、アーム角度センサS2、バケット角度センサS3についても同様であってよい。ブーム角度センサS1によるブーム角度θ1に対応する検出信号は、コントローラ30に取り込まれる。
アーム角度センサS2は、アーム5に取り付けられ、アーム5のブーム4に対する回動角度(以下、「アーム角度」)θ2を検出する。アーム角度θ2は、例えば、アーム5を最も閉じた状態からの開き角度である。この場合、アーム角度θ2は、アーム5を最も開いたときに最大となる。アーム角度センサS2によるアーム角度θ2に対応する検出信号は、コントローラ30に取り込まれる。
バケット角度センサS3は、バケット6に取り付けられ、バケット6のアーム5に対する回動角度(以下、「バケット角度」)θ3を検出する。バケット角度θ3は、バケット6を最も閉じた状態からの開き角度である。この場合、バケット角度θ3は、バケット6を最も開いたときに最大となる。バケット角度センサS3によるバケット角度θ3に対応する検出信号は、コントローラ30に取り込まれる。
機体傾斜センサS4は、所定の平面(例えば、水平面)に対する機体(例えば、上部旋回体3)の傾斜状態を検出する。機体傾斜センサS4は、例えば、上部旋回体3に取り付けられ、ショベル100(即ち、上部旋回体3)の前後方向及び左右方向の2軸回りの傾斜角度(以下、「前後傾斜角」及び「左右傾斜角」)を検出する。機体傾斜センサS4による傾斜角度(前後傾斜角及び左右傾斜角)に対応する検出信号は、コントローラ30に取り込まれる。
旋回状態センサS5は、上部旋回体3に取り付けられ、上部旋回体3の旋回状態に関する検出情報を出力する。旋回状態センサS5は、例えば、上部旋回体3の旋回角加速度、旋回角速度、旋回角度等を検出する。旋回状態センサS5は、例えば、ジャイロセンサ、レゾルバ、ロータリエンコーダ等を含みうる。
尚、機体傾斜センサS4に3軸回りの角速度を検出可能なジャイロセンサ、6軸センサ、IMU等が含まれる場合、機体傾斜センサS4の検出信号に基づき上部旋回体3の旋回状態(例えば、旋回角加速度)が検出されてもよい。この場合、旋回状態センサS5は、省略されてよい。
報知部302は、判定装置34(判定部344)により、ショベル100の周囲の監視領域内で、監視対象の物体が検出された場合に、オペレータ等にその旨を報知する。これにより、オペレータ等は、ショベル100の周囲の比較的近い範囲に、監視対象の物体が侵入した場合に、当該物体がキャビン10から見て死角に位置していても、侵入を認識し、操作装置26に対する操作を中止する等の安全確保を図ることができる。
例えば、報知部302は、キャビン10の内部に搭載される音出力装置(例えば、スピーカやブザー等)に制御信号を出力することにより、オペレータ等に対して、ショベル100に近接する監視領域内で監視対象の物体が検出されたことを報知する。
また、例えば、後述の如く、表示装置40を通じて、判定装置34によりショベル100の周囲の監視領域内で、監視対象の物体が検出されたことを表す報知が行われてもよい。
また、例えば、ショベル100が遠隔操作される場合、報知部302は、ショベル100の周囲の監視領域内で監視対象が検出された旨を表す信号(以下、「報知信号」)を管理装置200に送信してよい。これにより、管理装置200は、ショベル100から受信される報知信号に応じて、管理装置200に設けられる表示装置(例えば、表示装置230)や音出力装置を制御し、遠隔操作のオペレータにその旨を通知することができる。
動作制御部304(制御部の一例)は、判定装置34(判定部344)により、ショベル100の周囲の監視領域内で監視対象の物体が検出された場合に、ショベル100の動作を制限する。これにより、ショベル100に近接する監視領域内に監視対象の物体が侵入してしまった場合に、ショベル100の動作を制限し、ショベル100と監視対象の物体との接触等の可能性を低減させることができる。このとき、ショベル100の動作の制限には、操作装置26でのオペレータ等の操作内容(操作量)に対する出力としてのショベル100の各種動作要素(被駆動要素)の動作を遅くすることが含まれてよい。また、ショベル100の動作の制限には、操作装置26の操作内容に依らず、ショベル100の動作要素(被駆動要素)の動作を停止させることが含まれてもよい。また、ショベル100の動作の制限対象となるショベル100の動作要素(被駆動要素)は、操作装置26により操作可能な動作要素の全てであってもよいし、ショベル100と監視対象の物体との接触を回避させるのに必要な一部の動作要素であってもよい。
例えば、動作制御部304は、油圧パイロット式の操作装置26の二次側のパイロットラインに設けられる減圧弁に制御信号を出力し、操作装置26に対するオペレータ等の操作内容に対応するパイロット圧を減圧させてよい。また、動作制御部304は、電気式の操作装置26から入力される操作信号に対応する操作内容(操作量)よりも小さい操作量に制限された制御信号を電磁弁(操作用制御弁)へ出力することで電磁弁を制御し、電磁弁からコントロールバルブに作用するパイロット圧を減圧させてもよい。また、動作制御部304は、遠隔操作信号で指定される遠隔操作の内容(操作量)よりも小さい操作量に制限された制御信号を操作用制御弁へ出力することで、操作用制御弁からコントロールバルブに作用するパイロット圧を減圧させてもよい。これにより、油圧アクチュエータに供給する作動油を制御するコントロールバルブに作用する、操作装置26に対する操作内容や遠隔操作の内容に対応するパイロット圧を減圧させ、各種動作要素(被駆動要素)の動作を制限することができる。
記録制御部322(記録部の一例)は、所定のタイミング(以下、「記録タイミング」)で、撮像装置70(前方カメラ70F、後方カメラ70B、左方カメラ70L、及び右方カメラ70R)の撮像画像を記憶部324に記録する。これにより、記憶部324の容量が限られるところ、必要なタイミングを予め規定して、撮像装置70の撮像画像を記憶部324に記録することができる。また、後述の如く、記憶部324の撮像画像が管理装置200に送信される際の送信容量を抑制し、通信コストを抑制することができる。具体的には、記録制御部322は、例えば、記録タイミングになると、過去の分を含め、RAM等に規定されるリングバッファ内の撮像画像の中の当該記録タイミングに対応する撮像画像を取得し、記憶部324に記録する。
記録タイミングは、例えば、予め規定される周期的なタイミングであってよい。また、記録タイミングは、撮像装置70の撮像画像に基づく判定装置34(判定部344)によるショベル100の周囲の物体に関する判定の際に誤判定が生じ易いショベル100の状態が生じたときであってよい。具体的には、記録タイミングは、ショベル100の走行時や旋回時であってよい。また、記録タイミングは、判定部344がショベル100の周囲の監視領域で物体を検出したと判定したときであってもよい。また、記録タイミングは、コントローラONで開始してもよく、ゲートロックレバー解除で開始してもよく、操作レバーONで開始してもよい。以下、後述する図7、図8のショベル支援システムSYS(ショベル100)場合についても同様である。
尚、図3では、判定部344の判定結果が記録装置32(記録制御部322)に入力されるが、記録タイミングが判定部344の判定結果に依らず規定されている場合、判定部344の判定結果は、記録装置32に入力されなくてもよい。後述する図8の場合についても同様である。
記憶部324には、ショベル100の起動後の初期処理の完了後からショベル100の停止までの間において、記録制御部322による制御下で、上述の如く、撮像画像IM1が記録される。記憶部324に記録された一又は複数の撮像画像IM1は、所定のタイミング(以下、「画像送信タイミング」)で、通信機器90(環境情報送信部の一例)を通じて、管理装置200に送信される。
画像送信タイミングは、例えば、ショベル100の停止操作(例えば、キースイッチのOFF操作)が行われたときであってよい。また、送信タイミングは、記憶部324の空き容量が所定閾値を下回ったときであってもよい。ショベル100の起動から停止までの間で、記憶部324に記録される撮像画像IM1の全容量が相対的に多くなる場合もありうるからである。また、画像送信タイミングは、例えば、ショベル100の起動後の初期処理の完了後であってもよい。この場合、記憶部324は、不揮発性の内部メモリに規定される記憶領域であり、前回のショベル100の起動から停止までの間で記録された撮像画像IM1が管理装置200に送信される態様であってよい。以下、後述する図7、図8のショベル支援システムSYS(ショベル100)の場合についても同様である。
尚、撮像画像IM1は、記憶部324に記録されるたびに、逐次、通信機器90を通じて、管理装置200に送信される態様であってもよい。
表示制御部342は、上述の如く、ショベル100の周囲の様子を表す画像(以下、「ショベル周囲画像」)を表示装置40に表示させる。
例えば、表示制御部342は、ショベル周囲画像として、撮像装置70の撮像画像を表示装置40に表示させる。具体的には、表示制御部342は、前方カメラ70F、後方カメラ70B、左方カメラ70L、及び右方カメラ70Rの中から選択される一部のカメラの撮像画像を表示装置40に表示してよい。このとき、表示制御部342は、オペレータ等による所定の操作に応じて、表示装置40に表示させる撮像画像に対応するカメラを切り替える態様であってよい。また、表示制御部342は、前方カメラ70F、後方カメラ70B、左方カメラ70L、及び右方カメラ70Rの全ての撮像画像を表示装置40に表示させてもよい。
また、例えば、表示制御部342は、ショベル周囲画像として、撮像装置70の撮像画像に所定の変換処理を施した変換画像を生成し、生成した変換画像を表示装置40に表示させる。当該変換画像は、例えば、ショベル100の真上から見た俯瞰画像と、ショベル100から遠方を水平方向に見た水平画像とを組み合わせた視点変換画像であってよい。また、当該視点変換画像は、前方カメラ70F、後方カメラ70B、左方カメラ70L、及び右方カメラ70Rのそれぞれの撮像画像が、俯瞰画像及び水平画像の組み合わせによる視点変換画像に変換された上で、所定の方法で合成された合成画像(以下、「視点変換合成画像」)であってもよい。
また、表示制御部342は、判定部344により、ショベル100の周囲の所定の監視領域内で、監視対象の物体が検出された場合、ショベル周囲画像上の検出された物体に相当する領域(以下、「検出物体領域」)を強調させる画像を重畳して表示させる。これにより、オペレータ等は、ショベル周囲画像上で、検出された物体を容易に確認することができる。具体的な表示態様については、後述する(図5参照)。
尚、ショベル100が遠隔操作される場合、表示制御部342と同様の機能が管理装置200に設けられてよい。これにより、遠隔操作のオペレータは、管理装置200に設けられる表示装置(例えば、表示装置230)を通じて、ショベル周囲画像を確認したり、ショベル周囲画像上で、検出された物体を確認したりすることができる。
判定部344は、記憶部346に格納される、機械学習が行われた学習済みモデルLMを用いて、撮像装置70の撮像画像に基づき、ショベル100の周囲の物体に関する判定を行う。具体的には、判定部344は、記憶部346から学習済みモデルLMをRAM等の主記憶装置にロードし(経路344A)、CPUに実行させることにより、撮像装置70の撮像画像に基づき、ショベル100の周囲の物体に関する判定を行う。
例えば、判定部344は、上述の如く、ショベル100の周囲の監視領域内で、監視対象の物体の有無を判定しながら、監視対象の物体を検出する。
また、例えば、判定部344は、検出した監視対象の物体の種類を判定(特定)する、つまり、検出した監視対象の物体を予め規定される監視対象の分類リスト(以下、「監視対象リスト」)の中で分類する。監視対象リストには、上述の如く、人、トラック、他の建設機械、電柱、吊り荷、パイロン、建屋等が含まれうる。
また、例えば、判定部344は、ショベル100の周囲の監視領域内で検出されている監視対象の物体の状態を判定する。具体的には、検出されている監視対象の物体が人である場合、判定部344は、検出されている人が"座っている"、"立っている"、及び"倒れている"等の予め規定される状態に関する分類(以下、「状態分類」)の何れに該当するかを判定してよい。また、検出されている監視対象の物体がトラックである場合、判定部344は、検出されているトラックの荷台の左右のサイドシートの開閉状態を判定してよい。より具体的には、判定部344は、トラックが"左右のサイドシートを閉じている"、"左側のサイドシートだけを開いている"、"右側のサイドシートだけを開いている"、及び"左右のサイドシートを開いている"の何れの状態分類に該当するかを判定してよい。
また、例えば、判定部344は、ショベル100の周囲の監視領域内で検出されている監視対象の物体の各部位の状態を判定する。具体的には、検出されている監視対象が人である場合、判定部344は、人の各部位(例えば、左右の腕、左右の手のひら、左右の手の指等)の状態を判定してよい。これにより、判定装置34は、例えば、ジェスチャ等の人の動きを認識することができる。
例えば、図4A、図4Bに示すように、学習済みモデルLMは、ニューラルネットワーク(Neural Network)401を中心に構成される。
本例では、ニューラルネットワーク401は、入力層及び出力層の間に一層以上の中間層(隠れ層)を有する、いわゆるディープニューラルネットワークである。ニューラルネットワーク401では、それぞれの中間層を構成する複数のニューロンごとに、下位層との間の接続強度を表す重みづけパラメータが規定されている。そして、各層のニューロンは、上位層の複数のニューロンからの入力値のそれぞれに上位層のニューロンごとに規定される重み付けパラメータを乗じた値の総和を、閾値関数を通じて、下位層のニューロンに出力する態様で、ニューラルネットワーク401が構成される。
ニューラルネットワーク401を対象とし、後述の如く、管理装置200(学習部2103)により機械学習、具体的には、深層学習(ディープラーニング:Deep Learning)が行われ、上述の重み付けパラメータの最適化が図られる。これにより、例えば、図4Aに示すように、ニューラルネットワーク401は、入力信号xとして、撮像装置70の撮像画像が入力され、出力信号yとして、予め規定される監視対象リスト(本例では、"人"、"トラック"、・・・)に対応する物体の種類ごとの物体が存在する確率(予測確率)を出力することができる。ニューラルネットワーク401は、例えば、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)である。CNNは、既存の画像処理技術(畳み込み処理及びプーリング処理)を適用したニューラルネットワークである。具体的には、CNNは、撮像装置70の撮像画像に対する畳み込み処理及びプーリング処理の組み合わせを繰り返すことにより撮像画像よりもサイズの小さい特徴量データ(特徴マップ)を取り出す。そして、取り出した特徴マップの各画素の画素値が複数の全結合層により構成されるニューラルネットワークに入力され、ニューラルネットワークの出力層は、例えば、物体の種類ごとの物体が存在する予測確率を出力することができる。
また、ニューラルネットワーク401は、入力信号xとして撮像装置70の撮像画像が入力され、撮像画像における物体の位置及び大きさ(つまり、撮像画像上の物体の占有領域)及びその物体の種類を出力信号yとして出力可能な構成であってもよい。つまり、ニューラルネットワーク401は、撮像画像上の物体の検出(撮像画像上で物体の占有領域部分の判定)と、その物体の分類の判定とを行う構成であってもよい。また、この場合、出力信号yは、入力信号xとしての撮像画像に対して物体の占有領域及びその分類に関する情報が重畳的に付加された画像データ形式で構成されていてもよい。これにより、判定部344は、学習済みモデルLM(ニューラルネットワーク401)から出力される、撮像装置70の撮像画像の中の物体の占有領域の位置及び大きさに基づき、当該物体のショベル100からの相対位置(距離や方向)を特定することができる。撮像装置70(前方カメラ70F、後方カメラ70B、左方カメラ70L、及び右方カメラ70R)は、上部旋回体3に固定され、撮像範囲(画角)が予め規定(固定)されているからである。そして、判定部344は、学習済みモデルLMにより検出された物体の位置が監視領域内であり、且つ、監視対象リストの物体に分類されている場合、監視領域内で、監視対象の物体が検出されたと判定できる。
例えば、ニューラルネットワーク401は、撮像画像の中の物体が存在する占有領域(ウィンドウ)を抽出する処理、及び、抽出された領域の物体の種類を特定する処理のそれぞれに相当するニューラルネットワークを有する構成であってよい。つまり、ニューラルネットワーク401は、物体の検出と、物体の分類とを段階的に行う構成であってよい。また、例えば、ニューラルネットワーク401は、撮像画像の全領域が所定数の部分領域に区分されたグリッドセルごとに物体の分類及び物体の占有領域(バウンディングボックス:Bounding box)を規定する処理と、グリッドセルごとの物体の分類に基づき、種類ごとの物体の占有領域を結合し、最終的な物体の占有領域を確定させる処理とのそれぞれに対応するニューラルネットワークを有する構成であってもよい。つまり、ニューラルネットワーク401は、物体の検出と、物体の分類とを並列的に行う構成であってもよい。
判定部344は、例えば、所定の制御周期ごとに、撮像画像上における物体の種類ごとの予測確率を算出する。判定部344は、予測確率を算出する際、今回の判定結果と前回の判定結果とが一致する場合、今回の予測確率を更に上げるようにしてもよい。例えば、前回の判定時に、撮像画像上の所定の領域に映っている物体が"人"(y1)と判定される予測確率に対し、今回も継続して"人"(y1)と判定された場合、今回の"人"(y1)と判定される予測確率を更に高めてよい。これにより、例えば、同じ画像領域に関する物体の分類に関する判定結果が継続的に一致している場合に、予測確率が相対的に高く算出される。そのため、判定部344は、誤判定を抑制することができる。
また、判定部344は、ショベル100の走行や旋回等の動作を考慮して、撮像画像上の物体に関する判定を行ってもよい。ショベル100の周囲の物体が静止している場合であっても、ショベル100の走行や旋回によって、撮像画像上の物体の位置が移動し、同じ物体として認識できなくなる可能性があるからである。例えば、ショベル100の走行や旋回によって、今回の処理で"人"(y1)と判定された画像領域と前回の処理で"人"(y1)と判定された画像領域とが異なる場合がありうる。この場合、判定部344は、今回の処理で"人"(y1)と判定された画像領域が前回の処理で"人"(y1)と判定された画像領域から所定の範囲内にあれば、同一の物体とみなし、継続的な一致判定(即ち、同じ物体を継続して検出している状態の判定)を行ってよい。判定部344は、継続的な一致判定を行う場合、今回の判定で用いる画像領域を、前回の判定に用いた画像領域に加え、この画像領域から所定の範囲内の画像領域も含めてよい。これにより、ショベル100が走行したり、旋回したりしたとしても、判定部344は、ショベル100の周囲の同じ物体に関して継続的な一致判定を行うことができる。
また、図4Bに示すように、ニューラルネットワーク401は、入力信号xとして撮像装置70の撮像画像が入力され、撮像画像上で検出されている人の各部位の状態を出力信号yとして出力可能な構成であってもよい。本例では、ニューラルネットワーク401は、右腕の状態、左腕の状態、右手のひらの状態、左手のひらの状態のそれぞれに対応する出力信号y1(t)~y4(t)が時系列的に出力される。出力信号y1(t)~y4(t)は、時刻tにおける出力信号y1~y4を表す。これにより、判定装置34は、時刻t1~tnの間の複数の撮像画像から得られる出力信号y1~y4の変化、即ち、右腕の状態、左腕の状態、右手のひらの状態、及び左手のひらの状態の変化に基づき、撮像装置70の撮像画像に映っている作業者のジェスチャの動きを認識することができる。このように、物体の各部位の時系列的な変化に基づき、分類テーブルに入力された物体の動作内容ごとの確率が算出される。そして、最も高い動作内容が検出されている物体の動作内容として認識される。具体的には、本例の場合、判定装置34は、作業者の急停止を要求するジェスチャを認識することができる。
例えば、時刻t1において、ニューラルネットワーク401は、上げられた右腕、開かれた右手のひら、上げられた左腕、及び開かれた左手のひらに対応する出力信号y1(t1)~y4(t1)を出力する。その後、時刻t2において、下げられた右腕、開かれた右手のひら、下げられた左腕、及び開かれた左手のひらに対応する出力信号y1(t2)~y4(t2)を出力する。そして、時刻t1,t2の出力信号y1~y4の状態が時刻tnまで繰り返されることにより、判定装置34は、時刻t1~時刻tnの間におけるニューラルネットワーク401の出力信号y1~y4(即ち、判定部344の判定結果)に基づき、撮像装置70の撮像画像に映っている作業者の急停止を要求するジェスチャを認識してよい。この際、"アタッチメント上げ"、"アタッチメント下げ"、"水平移動(旋回)"、"水平移動(走行)"、"クローラスピンターン"、"停止"、"急停止"、及び"解除"等の作業者の動作内容(ジェスチャの内容)ごとに、確率が算出される。そして、最も高い確率が算出された"急停止"が作業者の要求するジェスチャとして認識される。これにより、判定装置34は、コントローラ30に急停止を要求する信号を出力し、コントローラ30(動作制御部304)は、当該信号に応じて、被駆動要素を駆動するアクチュエータの動作を停止させることができる。このように、コントローラ30は、ショベル100の周囲の物体の動作内容に基づきアクチュエータを制御することができる。
判定部344による判定結果は、例えば、表示制御部342を通じて、表示装置40に表示される。
例えば、図5に示すように、表示装置40には、メイン画面41Vが表示されており、メイン画面41Vの中のカメラ画像表示領域41mに撮像装置70の撮像画像が表示されている。この撮像画像は、図4Aの入力信号xに対応する撮像画像である。また、メイン画面41Vには、カメラ画像表示領域41mの他、日時表示領域41a、走行モード表示領域41b、アタッチメント表示領域41c、平均燃費表示領域41d、エンジン制御状態表示領域41e、エンジン作動時間表示領域41f、冷却水温表示領域41g、燃料残量表示領域41h、回転数モード表示領域41i、尿素水残量表示領域41j、作動油温表示領域41kが含まれる。
日時表示領域41aは、メイン画面41Vの中で、現在の日時を表示する領域である。
走行モード表示領域41bは、メイン画面41Vの中で、ショベル100の現在の走行モードを表す図形を表示する領域である。
アタッチメント表示領域41cは、メイン画面41Vの中で、ショベル100に現在装着されているアタッチメントの種類を模擬的に表す図形を表示する領域である。
平均燃費表示領域41dは、メイン画面41Vの中で、ショベル100の現在の平均燃費を表示する領域である。平均燃費は、例えば、所定時間における燃料消費量である。
エンジン制御状態表示領域41eは、メイン画面41Vの中で、エンジン11の制御状態を模擬的に表す図形を表示する領域である。
エンジン作動時間表示領域41fは、メイン画面41Vの中で、所定のタイミングからのエンジン11の総作動時間を表示する領域である。
冷却水温表示領域41gは、メイン画面41Vの中で、現在のエンジン11の冷却水の温度状態を表示する領域である。
燃料残量表示領域41hは、メイン画面41Vの中で、ショベル100の燃料タンクに貯蔵されている燃料の残量状態を表示する領域である。
回転数モード表示領域41iは、現在のエンジン11の設定回転数に関するモード(回転数モード)を表示する領域である。
尿素水残量表示領域41jは、メイン画面41Vの中で、尿素水タンクに貯蔵されている尿素水の残量状態を表示する領域である。
本例では、カメラ画像表示領域41mに、撮像装置70のうちの後方カメラ70Bの撮像画像が表示されており、当該撮像画像には、ショベル100の後方で作業を行う作業員PSと、ショベル100の後方に駐車されるトラックTKが映っている。
上述の如く、判定部344は、学習済みモデルLM(ニューラルネットワーク401)に後方カメラ70Bの撮像画像の画像データを入力することにより、学習済みモデルLMから出力される、撮像画像の中の物体の占有領域及びその占有領域の物体の種類を取得することができる。よって、本例では、学習済みモデルLMから出力される、"人"に分類される物体(作業員PS)の占有領域を取り囲む態様のボックスアイコン501、及び、検出(分類)された物体が人であることを表す文字情報アイコン502を撮像画像に重畳して表示させる。また、学習済みモデルLMから出力される"トラック"に分類される物体(トラックTK)の占有領域を取り囲む態様のボックスアイコン503及び、検出(分類)された物体がトラックであることを表す文字情報アイコン504を撮像画像に重畳して表示させる。これにより、オペレータ等は、検出された物体を容易に認識することができると共に、検出された物体の種類を容易に認識することができる。また、表示装置40のカメラ画像表示領域41mには、判定部344による判定時に用いられる、上述の予測確率、具体的には、"人"が存在する予測確率や"トラック"が存在する予測確率)が併せて表示されてもよい。そして、オペレータが操作装置26を操作する前に、ショベル100の周囲の所定範囲内に人が存在すると判定された場合、コントローラ30(動作制御部304)は、オペレータが操作レバーを操作しても、アクチュエータを動作不能、或いは、微速状態での動作に制限してもよい。具体的には、油圧パイロット式の操作装置26の場合、コントローラ30は、ショベル100の周囲の所定範囲内に人が存在すると判定された場合、ゲートロック弁をロック状態にすることでアクチュエータを動作不能にすることができる。電気式の操作装置26の場合には、コントローラ30から操作用制御弁への信号を無効にすることで、アクチュエータを動作不能にすることができる。他の方式の操作装置26が用いられる場合にも、コントローラ30からの制御指令に対応するパイロット圧を出力し、コントロールバルブ内の対応する制御弁のパイロットポートにそのパイロット圧を作用させる操作用制御弁を用いる場合には、同様である。アクチュエータの動作を微速にしたい場合には、コントローラ30から操作用制御弁への制御信号を相対的に小さいパイロット圧に対応する内容に制限することで、アクチュエータの動作を微速状態にすることができる。このように、検出される物体がショベル100の周囲の所定範囲内に存在すると判定されると、操作装置26が操作されてもアクチュエータは駆動されない、或いは、操作装置26への操作入力に対応する動作速度よりも低い動作速度(微速)で駆動される。更に、オペレータが操作装置26の操作中において、ショベル100の周囲の所定範囲内に人が存在すると判定された場合、オペレータの操作に関わらずアクチュエータの動作を停止、或いは、減速させてもよい。具体的には、操作装置26が油圧パイロット式である場合、ショベル100の周囲の所定範囲内に人が存在すると判定されると、コントローラ30は、ゲートロック弁をロック状態にすることでアクチュエータを停止させる。また、コントローラ30からの制御指令に対応するパイロット圧を出力し、コントロールバルブ内の対応する制御弁のパイロットポートにそのパイロット圧を作用させる操作用制御弁を用いる場合、コントローラ30は、操作用制御弁への信号を無効にする、或いは、操作用制御弁に減速指令を出力することで、アクチュエータを動作不能にしたり、その動作を減速させたりすることができる。また、検出された物体がトラックの場合、アクチュエータの停止或いは減速に関する制御は実施されなくてもよい。例えば、検出されたトラックを回避するようにアクチュエータは制御されてよい。このように、検出された物体の種類が認識され、その認識に基づきアクチュエータは制御される。
尚、撮像装置70の撮像画像は、表示装置40の表示領域全体に表示されてもよい。また、表示装置40には、上述した撮像装置70の撮像画像に基づく変換画像(例えば、上述の合成視点変換画像)が表示されてもよく、この場合、変換画像上の物体の占有領域に相当する部分にボックスアイコンや文字情報アイコンが重畳して表示されてよい。また、ショベル100が遠隔操作される場合、図5と同様の内容は、管理装置200の表示装置(例えば、表示装置230)に表示されてよい。
記憶部346には、学習済みモデルLMが保存されている。記憶部346の学習済みモデルLMは、通信機器90により管理装置200から更新版の学習済みモデル、つまり、後述の如く、追加学習がなされた学習済みモデル(以下、「追加学習済みモデル」)が受信された場合、受信された追加学習済みモデルに更新される。これにより、判定部344は、管理装置200で追加学習がなされた追加学習済みモデルを利用することができるため、学習済みモデルの更新に応じて、ショベル100の周囲の物体に関する判定精度を向上させることができる。
<管理装置の構成>
管理装置200は、制御装置210と、通信機器220と、表示装置230と、入力装置240を含む。
制御装置210は、管理装置200の各種動作を制御する。制御装置210は、例えば、ROMや不揮発性の補助記憶装置に格納される一以上のプログラムをCPU上で実行することにより実現される機能部として、判定部2101と、教師データ生成部2102と、学習部2103を含む。また、制御装置210は、例えば、補助記憶装置等の不揮発性の内部メモリ等に規定される記憶領域としての記憶部2104,2105を含む。
通信機器220は、通信ネットワークに接続し、複数のショベル100等の外部との通信を行う任意のデバイスである。
表示装置230は、例えば、液晶ディスプレイや有機ELディスプレイであり、制御装置210の制御下で、各種情報画像を表示する。
入力装置240は、ユーザからの操作入力を受け付ける。入力装置240は、例えば、液晶ディスプレイや有機ELディスプレイの上に実装されるタッチパネルを含む。また、入力装置240は、タッチパッド、キーボード、マウス、トラックボール等を含んでもよい。入力装置240の操作状態に関する情報は、制御装置210に取り込まれる。
判定部2101は、記憶部2105に格納される、学習部2103により機械学習が行われた学習済みモデルLMを用いて、複数のショベル100から受信された撮像画像IM1、即ち、記憶部2104から読み出される撮像画像IM1(経路2101A)に基づき、ショベル100の周囲の物体に関する判定を行う。具体的には、判定部2101は、記憶部346から学習済みモデルLMをRAM等の主記憶装置にロード(経路2101B)し、CPUに実行させることにより、記憶部2104から読み出される撮像画像IM1に基づき、ショベル100の周囲の物体に関する判定を行う。より具体的には、判定部2101は、記憶部2104に格納される複数の撮像画像IM1を学習済みモデルLMに順次入力し、ショベル100の周囲の物体に関する判定を行う。判定部2101の判定結果2101Dは、教師データ生成部2102に入力される。このとき、判定結果2101Dは、撮像画像IM1ごとに、順次、教師データ生成部2102に入力されてもよいし、例えば、リスト化等によりまとめられた上で、教師データ生成部2102に入力されてもよい。
教師データ生成部2102(教師情報生成部の一例)は、複数のショベル100から受信された複数の撮像画像IM1に基づき、学習部2103が学習モデルを機械学習させるための教師データ(教師情報の一例)を生成する。教師データは、任意の撮像画像IM1と、当該撮像画像IM1を学習モデルの入力としたときの学習モデルが出力すべき正解との組み合わせを表す。また、学習モデルは、機械学習の対象であり、当然の如く、学習済みモデルLMと同様の構成、例えば、上述のニューラルネットワーク401を中心として構成される。
例えば、教師データ生成部2102は、複数のショベル100から受信された撮像画像IM1を記憶部2104から読み出し(経路2102A)、表示装置40に表示させると共に、管理装置200の管理者や作業者等が教師データを作成するためのGUI(Graphical User Interface)(以下、「教師データ作成用GUI」)を表示させる。そして、管理者や作業者等は、入力装置240を用いて、教師データ作成用GUIを操作し、それぞれの撮像画像IM1に対応する正解を指示することにより、学習モデルのアルゴリズムに沿った形式の教師データを作成する。換言すれば、教師データ生成部2102は、複数の撮像画像IM1を対象とする管理者や作業者等による操作(作業)に応じて、複数の教師データ(教師データセット)を生成することができる。
また、教師データ生成部2102は、複数のショベル100から受信された複数の撮像画像IM1に基づき、学習部2103が学習済みモデルLMを追加学習させるための教師データを生成する。
例えば、教師データ生成部2102は、記憶部2104から複数の撮像画像IM1を読み出し(経路2102A)、それぞれの撮像画像IM1と、当該撮像画像IM1に対応する判定部2101の判定結果(出力結果)2101Dとを表示装置230に並べて表示させる。これにより、管理装置200の管理者や操作者等は、入力装置240を通じて、表示装置230に表示される撮像画像IM1と対応する判定結果との組み合わせの中から誤判定に対応する組み合わせを選択することができる。そして、管理者や作業者等は、入力装置240を用いて、教師データ作成用GUIを操作し、誤判定に対応する組み合わせの撮像画像IM1、即ち、学習済みモデルLMに誤判定をさせてしまった撮像画像IM1と、当該撮像画像IM1を入力としたときに学習済みモデルLMが出力すべき正解との組み合わせを表す追加学習用の教師データを作成することができる。換言すれば、教師データ生成部2102は、複数の撮像画像IM1の中から選択された、学習済みモデルLMでの誤判定に対応する撮像画像IM1を対象とする管理者や作業者等による操作(作業)に応じて、追加学習用の複数の教師データ(教師データセット)を生成することができる。
つまり、教師データ生成部2102は、複数のショベル100から受信された複数の撮像画像IM1から最初の学習済みモデルLMを生成するための教師データを生成する。そして、教師データ生成部2102は、所定のタイミング(以下、「追加学習タイミング」)ごとに、直近の学習済みモデルLMが複数のショベル100に実装された後に複数のショベル100から受信された撮像画像IM1の中から選択される、学習済みモデルLMが誤判定をしてしまう撮像画像IM1から追加学習用の教師データを生成する。
尚、複数のショベル100のそれぞれから受信される撮像画像IM1の一部は、学習済みモデルLMの検証用データセットのベースとして利用されてもよい。つまり、複数のショベル100のそれぞれから受信される撮像画像IM1は、教師データ生成用の撮像画像IM1と検証用データセット生成用の撮像画像IM1とに振り分けられてもよい。
追加学習タイミングは、定期的に規定されるタイミング、例えば、前回の機械学習(追加学習)から1ヶ月が経過したときであってよい。また、追加学習のタイミングは、例えば、撮像画像IM1の枚数が所定閾値を超えたとき、つまり、学習部2103による追加学習が行われるのに必要な枚数の撮像画像IM1が収集されたタイミングであってもよい。
学習部2103は、教師データ生成部2102により生成される教師データ2102B(教師データセット)に基づき、学習モデルに機械学習を行わせ、学習済みモデルLMを生成する。そして、生成された学習済みモデルLMは、予め準備される検証用データセットを用いて、精度検証が実施された上で、記憶部2105に格納される(経路2103B)。
また、学習部2103は、教師データ生成部2102により生成される教師データ(教師データセット)に基づき、記憶部2105から読み出した学習済みモデルLM(経路2103A)に追加学習を行わせることにより追加学習済みモデルを生成する。そして、追加学習済みモデルは、予め準備される検証用データセットを用いて、精度検証が実施された上で、記憶部2105の学習済みモデルLMは、精度検証が実施された追加学習済みモデルで更新される(経路2103B)。
例えば、上述の如く、学習モデルがニューラルネットワーク401を中心として構成される場合、学習部2103は、誤差逆伝搬法(バックプロパゲーション)等の既知のアルゴリズムを適用することにより、学習モデルの出力と教師データとの誤差が小さくなるように、重み付けパラメータの最適化を行い、学習済みモデルLMを生成する。追加学習済みモデルの生成についても同様である。
尚、学習モデルから生成される最初の学習済みモデルLMは、管理装置200とは異なる外部装置で生成されてもよい。この場合、教師データ生成部2102は、追加学習用の教師データだけを生成し、学習部2103は、追加学習済みモデルの生成だけを行う構成であってよい。
記憶部2104には、通信機器220を通じて、複数のショベル100のそれぞれから受信される撮像画像IM1が格納(保存)される。
尚、教師データ生成部2102による教師データの生成に利用済みの撮像画像IM1は、記憶部2104とは別の記憶装置に保存されてもよい。
記憶部2105には、学習済みモデルLMが格納(保存)される。学習部2103により生成される追加学習済みモデルで更新された学習済みモデルLMは、所定のタイミング(以下、「モデル送信タイミング」)で、通信機器220(モデル送信部の一例)を通じて、複数のショベル100のそれぞれに送信される。これにより、複数のショベル100の間で、更新された同じ学習済みモデルLM、つまり、追加学習済みモデルを共有化させることができる。
モデル送信タイミングは、記憶部2105の学習済みモデルLMが更新されたとき、つまり、学習済みモデルLMの更新後のすぐのタイミング、或いは、更新後に所定時間が経過したタイミング等であってよい。また、モデル送信タイミングは、例えば、学習済みモデルLMの更新後に、通信機器220を通じて、複数のショベル100に送信される、学習済みモデルLMの更新のお知らせに対する確認の返信が通信機器220により受信されたときであってもよい。
[ショベル支援システムの具体的な動作]
次に、図6を参照して、ショベル支援システムSYSの具体的な動作について説明する。
図6は、ショベル支援システムSYSの動作の一例を示すシーケンス図である。
ステップS10にて、複数のショベル100の通信機器90は、それぞれの画像送信タイミングで、管理装置200に撮像画像IM1を送信する。これにより、管理装置200は、通信機器220を通じて、複数のショベル100のそれぞれからの撮像画像IM1を受信し、記憶部2104に蓄積的に格納する。
ステップS12にて、管理装置200の判定部2101は、複数のショベル100から受信され、記憶部2104に格納された複数の撮像画像IM1を学習済みモデルLMに入力し、判定処理を行う。
ステップS14にて、管理装置200の管理者や作業者等は、学習済みモデルLMによる判定結果を検証し、入力装置240を通じて、複数の撮像画像IMの中から学習済みモデルLMで誤判定がなされた撮像画像IMを指定(選択)する。
ステップS16にて、管理装置200の教師データ生成部2102は、管理者や作業者等による入力装置240を通じた教師データ作成用GUIの操作に応じて、追加学習用の教師データセットを生成する。
ステップS18にて、管理装置200の学習部2103は、追加学習用の教師データセットを用いて、学習済みモデルLMの追加学習を行い、追加学習済みモデルを生成し、記憶部2104の学習済みモデルLMを追加学習済みモデルで更新させる。
ステップS20にて、管理装置200の通信機器220は、更新版の学習済みモデルLMを複数のショベル100のそれぞれに送信する。
尚、更新版の学習済みモデルLMがショベル100に送信されるタイミング(モデル送信タイミング)は、上述の如く、複数のショベル100ごとに異なっていてもよい。
ステップS22にて、複数のショベル100は、それぞれ、記憶部346の学習済みモデルLMを管理装置200から受信された更新版の学習済みモデルに更新する。
[ショベル支援システムの構成の他の例]
次に、図7を参照して、本実施形態に係るショベル支援システムSYSの構成の他の例について説明する。
図7は、本実施形態に係るショベル支援システムSYSの機能的な構成の他の例を示す機能ブロック図である。以下、本例では、上述の一例(図3)とは異なる部分を中心に説明する。
<ショベルの構成>
ショベル100は、制御システムに関する構成として、上述の一例と同様、記録装置32と、判定装置34等を含み、記録装置32は、上述の一例と同様、記録制御部322と、記憶部324を含む。
記録制御部322は、上述の一例と同様、所定の記録タイミングで、撮像装置70(前方カメラ70F、後方カメラ70B、左方カメラ70L、及び右方カメラ70R)の撮像画像を記憶部324に記録する。このとき、記録制御部322は、記録対象の撮像画像に基づく判定部344、つまり、学習済みモデルLMの判定結果を併せて記録する。本例では、記録制御部322は、判定結果に関する情報(判定情報)をタグ情報等として含む撮像画像(以下、「判定情報付き撮像画像」)IM2を記憶部324に記録する。
尚、撮像画像と判定情報とは別のファイルとして記録されてもよく、この場合、記憶部324において、撮像画像と判定情報との対応付けがなされるとよい。
記憶部324には、ショベル100の起動後の初期処理の完了後からショベル100の停止までの間において、記録制御部322による制御下で、上述の如く、判定情報付き撮像画像IM2が記録される。記憶部324に記録された一又は複数の判定情報付き撮像画像IM2は、所定の画像送信タイミングで、通信機器90を通じて、管理装置200に送信される。
<管理装置の構成>
管理装置200は、上述の一例と同様、制御装置210と、通信機器220と、表示装置230と、入力装置240を含み、制御装置210は、教師データ生成部2102と、学習部2103と、記憶部2104,2105を含む。つまり、本例では、図3の一例と異なり、判定部2101が省略される。
教師データ生成部2102は、通信機器220を通じて複数のショベル100から受信され、記憶部2104に格納された複数の判定情報付き撮像画像IM2に基づき、学習部2103が学習済みモデルLMを追加学習させるための教師データを生成する。
例えば、教師データ生成部2102は、判定情報付き撮像画像IM2に含まれる撮像画像と判定情報とを並べて表示させる。これにより、管理装置200の管理者や操作者等は、入力装置240を通じて、表示装置230に表示される撮像画像と対応する判定情報(判定結果)との組み合わせの中から誤判定に対応する組み合わせを選択することができる。そして、管理者や作業者等は、入力装置240を用いて、教師データ作成用GUIを操作し、誤判定の組み合わせに対応する撮像画像と、当該撮像画像を入力としたときに学習済みモデルLMが出力すべき正解との組み合わせを表す追加学習用の教師データを作成することができる。換言すれば、教師データ生成部2102は、複数の撮像画像の中から選択された、学習済みモデルLMでの誤判定に対応する撮像画像を対象とする管理者や作業者等による操作(作業)に応じて、追加学習用の複数の教師データ(教師データセット)を生成することができる。また、本例では、管理装置200側で、複数のショベル100から受信された複数の撮像画像を学習済みモデルLMに入力し、判定結果を得る処理を行う必要がなく、追加学習に係る処理効率を向上させることができる。
[ショベル支援システムの構成の更に他の例]
次に、図8を参照して、本実施形態に係るショベル支援システムSYSの構成の更に他の例について説明する。
図8は、本実施形態に係るショベル支援システムSYSの機能的な構成の更に他の例を示す機能ブロック図である。以下、本例では、上述の一例(図3)とは異なる部分を中心に説明する。
<管理装置の構成>
管理装置200は、制御装置210と、通信機器220と、表示装置230と、入力装置240と、コンピュータグラフィクス生成装置250(以下、「CG(Computer Graphics)画像生成装置」)250を含む。
CG画像生成装置250は、管理装置200の作業者等による操作に応じて、作業現場におけるショベル100の周囲の様子を表すコンピュータグラフィクス(以下、「CG画像」)IM3を生成する。例えば、CG画像生成装置250は、例えば、CPU、RAM等のメモリ装置、ROM等の補助記憶装置、及び各種入出力用のインタフェース装置等を含むコンピュータを中心に構成され、作業者等がCG画像IM3を作成可能なアプリケーションソフトウェアが予めインストールされる。そして、作業者等は、所定の入力装置を通じて、CG画像生成装置250の表示画面上で、CG画像IM3を作成する。これにより、CG画像生成装置250は、管理装置200の作業者等による作業(操作)に応じて、作業現場におけるショベル100の周囲の様子を表すCG画像IM3を生成することができる。また、CG画像生成装置250は、実際のショベル100の周囲の撮像画像(例えば、撮像画像IM1)を基に、撮像画像に対応する気象条件、日照条件とは異なる気象条件、日照条件における作業環境等に対応するCG画像IM3を生成することもできる。CG画像生成装置250により生成されるCG画像IM3は、制御装置210に取り込まれる。
尚、CG画像IM3は、管理装置200の外部で生成(作成)されてもよい。
制御装置210は、上述の一例と同様、判定部2101と、教師データ生成部2102と、学習部2103と、記憶部2104,2105を含む。
判定部2101は、記憶部2105に格納される、学習部2103により機械学習が行われた学習済みモデルLMを用いて、記憶部2104から読み出される複数の撮像画像IM1(経路2101A)及びCG画像IM3(経路2101C)に基づき、ショベル100の周囲の物体に関する判定を行う。具体的には、判定部2101は、記憶部346から学習済みモデルLMをRAM等の主記憶装置にロード(経路2101B)し、CPUに実行させることにより、記憶部2104から読み出される撮像画像IM1及びCG画像IM3に基づき、ショベル100の周囲の物体に関する判定を行う。より具体的には、判定部2101は、記憶部2104に格納される複数の撮像画像IM1及びCG画像IM3を学習済みモデルLMに順次入力し、ショベル100の周囲の物体に関する判定を行う。判定部2101の判定結果2101Dは、教師データ生成部2102に入力される。このとき、判定結果2101Dは、複数の撮像画像IM1及びCG画像IM3ごとに、順次、教師データ生成部2102に入力されてもよいし、例えば、リスト化等によりまとめられた上で、教師データ生成部2102に入力されてもよい。
教師データ生成部2102は、複数のショベル100から受信された複数の撮像画像IM1及びCG画像生成装置250で生成された(記憶部2104に格納された)CG画像IM3に基づき、学習部2103が学習モデルを機械学習させるための教師データを生成する。
例えば、教師データ生成部2102は、複数のショベル100から受信された撮像画像IM1及びCG画像生成装置250で生成されたCG画像IM3を記憶部2104から読み出し(経路2102A,2102C)、表示装置40に表示させると共に、教師データ作成用GUIを表示させる。そして、管理者や作業者等は、入力装置240を用いて、教師データ作成用GUIを操作し、それぞれの撮像画像IM1或いはCG画像IM3に対応する正解を指示することにより、学習モデルのアルゴリズムに沿った形式の教師データを作成する。換言すれば、教師データ生成部2102は、複数の撮像画像IM1及びCG画像IM3を対象とする管理者や作業者等による操作(作業)に応じて、複数の教師データ(教師データセット)を生成することができる。
また、教師データ生成部2102は、複数のショベル100から受信された複数の撮像画像IM1及びCG画像生成装置250で生成された(記憶部2104に格納された)CG画像IM3に基づき、学習部2103が学習済みモデルLMを追加学習させるための教師データを生成する。
教師データ生成部2102は、記憶部2104から複数の撮像画像IM1及びCG画像IM3を読み出し(経路2102A,2102C)、それぞれの撮像画像IM1或いはCG画像IM3と、当該撮像画像IM1或いはCG画像IM3と対応する判定部2101(学習済みモデルLM)の判定結果(出力結果)とを表示装置230に並べて表示させる。これにより、管理装置200の管理者や操作者等は、入力装置240を通じて、表示装置230に表示される撮像画像IM1或いはCG画像IM3と対応する学習済みモデルLMの判定結果との組み合わせの中から誤判定に対応する組み合わせを選択することができる。そして、管理者や作業者等は、入力装置240を用いて、教師データ作成用GUIを操作し、誤判定の組み合わせに対応する撮像画像IM1或いはCG画像IM3と、当該撮像画像IM1或いはCG画像IM3を入力としたときに学習済みモデルLMが出力すべき正解との組み合わせを表す追加学習用の教師データを作成することができる。換言すれば、教師データ生成部2102は、複数の撮像画像IM1及びCG画像IM3の中から選択された、学習済みモデルLMでの誤判定に対応する撮像画像IM1及びCG画像IM3の少なくとも一方を対象とする管理者や作業者等による操作(作業)に応じて、追加学習用の複数の教師データ(教師データセット)を生成することができる。これにより、複数のショベル100から収集される撮像画像IM1の他、CG画像IM3を利用して教師データを生成できるため、教師データの充実化を図ることができる。特に、CG画像IM3では、仮想的に、多様な作業現場の状況、つまり、多様な環境条件を自在に作り込むことが可能である。そのため、CG画像IM3を利用して教師データセットが生成されることにより、学習済みモデルLMは、より早いタイミングで、多様な作業現場に対応した相対的に高い判定精度を実現することができる。
尚、CG画像生成装置250により生成されるCG画像IM3は、人為的に作成されることから、CG画像IM3における人、トラック、パイロン、電柱等の監視対象の有無やその位置等は、既知である、つまり、CG画像IM3を入力としたときの学習済みモデルLMが出力すべき正解は、既知である。そのため、CG画像生成装置250は、CG画像IM3と共に、CG画像IM3を入力としたときに学習済みモデルLMが出力すべき正解関するデータ(以下、「正解データ」)を制御装置210に出力可能である。よって、制御装置210(教師データ生成部2102)は、CG画像生成装置250から入力される正解データに基づき、CG画像IM3を入力とする学習済みモデルLM(判定部2101)による判定処理での誤判定を自動で抽出し、抽出した誤判定に対応するCG画像IM3と、CG画像IM3を入力としたときに学習済みモデルLMが出力すべき正解との組み合わせを表す追加学習用の複数の教師データ(教師データセット)を自動で生成することができる。そして、学習部2103は、教師データ生成部2102により自動で生成される教師データに基づき、学習済みモデルLMの追加学習、例えば、上述の差逆伝搬法(バックプロパゲーション)等を行うことができる。つまり、制御装置210は、CG画像生成装置250により生成されるCG画像IM3及び正解データに基づき、追加学習済みモデルを自動で生成することもできる。
[作用]
次に、上述した本実施形態に係るショベル支援システムSYSの作用について説明する。
本実施形態では、撮像装置70は、自己が搭載されるショベル100(以下、「自ショベル」)の周囲の撮像画像を取得する。また、判定部344は、機械学習が行われた学習済みモデルLMを用いて、撮像装置70により取得される撮像画像IM1に基づき、自ショベルの周囲の物体に関する判定を行う。そして、学習済みモデルLMは、取得された環境情報、具体的には、自ショベル及び他のショベル100(以下、「他ショベル」)で取得される撮像装置70の撮像画像から生成される教師データに基づき追加学習が行われた、追加学習済みモデルに更新され、判定部344は、学習済みモデルLMが更新された場合、更新された学習済みモデルLMを用いて、撮像装置70により取得される撮像画像に基づき、上記判定を行う。
具体的には、管理装置200の教師データ生成部2102は、ショベル100から受信される、ショベル100で取得された撮像画像IM1に基づき、教師データを生成する。また、管理装置200の学習部2103は、教師データ生成部2102により生成された教師データに基づき、ショベル100で周囲の物体に関する判定に用いられている学習済みモデルと同一の学習済みモデル(つまり、学習済みモデルLM)に追加学習を行わせ、追加学習済みモデルを生成する。そして、管理装置200の通信機器220は、学習部2103により追加学習が行われた追加学習済みモデルをショベル100に送信し、ショベル100の学習済みモデルLMを追加学習済みモデルで更新させる。
これにより、ショベル100の学習済みモデルLMは、自ショベルや他ショベルによって多様な環境下で取得される撮像装置70の撮像画像から生成される教師データで追加学習が行われた追加学習済みモデルで更新される。よって、ショベル100は、ショベル100の周囲の環境情報(撮像装置70の撮像画像)に基づき、ショベル100の周囲の物体に関する判定を行う場合の多様な環境条件下での判定精度を向上させることができる。
尚、教師データの元になる周囲の撮像画像を取得するショベル100(第2のショベルの一例)と、学習済みモデルLMを用いて、撮像画像に基づき、周囲の物体に関する判定を行うショベル100(第1のショベルの一例)とは、別であってもよい。この場合、前者のショベル100の撮像装置70(第2の環境情報取得部の一例)は、教師データを生成するためのショベル100の周囲の撮像画像を取得し、後者のショベル100の撮像装置70(第1の環境情報取得部の一例)は、周囲の物体に関する判定を行うためのショベル100の周囲の撮像画像を取得する。また、例えば、管理装置200は、物体に関する判定機能を有さないショベル100とは異なる一又は複数のショベル(第2のショベル一例)から周囲の撮像画像を収集して、学習済みモデルLMの生成及び更新を行い、学習済みモデルLMをショベル100(第1のショベルの一例)に送信する構成であってもよい。つまり、ショベル100(判定部344)によりショベル100の周囲の物体に関する判定に用いられる学習済みモデルLMは、自ショベル及び自ショベルとは異なる他ショベルのうちの少なくとも一方で取得される環境情報(具体的には、周囲の撮像画像)から生成される教師データに基づき追加学習が行われた、追加学習済みモデルに更新されてよい。
また、本実施形態では、自ショベルを含む複数のショベル100は、それぞれ、同一の学習済みモデルLMを有すると共に、当該学習済みモデルLMを用いて、周囲の物体に関する判定を行う。つまり、学習済みモデルLMを用いて、周囲の環境情報(撮像装置70の撮像画像)に基づき、周囲の物体に関する判定を行うショベル100(第1のショベルの一例)は、複数ある。そして、複数のショベル100のそれぞれが有する学習済みモデルLMは、管理装置200で生成される同じ追加学習済みモデルに更新されてよい。
これにより、複数のショベル100において、一様に、多様な環境条件下での相対的に高い判定精度を実現できる。
また、本実施形態では、学習済みモデルLMは、複数のショベル100で取得される周囲の撮像画像から生成される教師データに基づき追加学習が行われた追加学習済みモデルに更新されてよい。つまり、教師データを生成するための周囲の環境情報(撮像装置70の撮像画像)を取得するショベル100(第2のショベルの一例)は、複数ある。
これにより、複数のショベル100からの撮像画像を利用できるため、より多様な環境に対応した教師データが準備されうる。よって、ショベル100は、ショベル100の周囲の環境情報(撮像装置70の撮像画像)に基づき、ショベル100の周囲の物体に関する判定を行う場合の多様な環境条件下での判定精度を更に向上させることができる。
尚、学習済みモデルLMは、一台のショベル100で取得される周囲の撮像画像から生成される教師データに基づき追加学習が行われた追加学習済みモデルに更新されてもよい。つまり、教師データを生成するための周囲の環境情報(撮像装置70の撮像画像)を取得するショベル100(第2のショベルの一例)は、一台であってもよい。
また、本実施形態では、記録制御部322は、所定の記録タイミングで、撮像装置70により取得される環境情報としての撮像画像を記録する。そして、ショベル100の学習済みモデルLMは、管理装置200において、記録制御部322により記録された撮像画像から生成される教師データに基づき追加学習が行われた、追加学習済みモデルに更新される。
これにより、教師データに利用するのに適切な品質の撮像画像(例えば、追加学習に適用すべき、誤判定が生じ易い動作条件での撮像画像や具体的に誤判定が発生している可能性があるときの撮像画像等)を選択的に記録することができる。よって、学習済みモデルLMの過学習等を抑制し、ショベル100の周囲の物体に関する判定精度を更に向上させることができる。
また、本実施形態では、所定の記録タイミングは、自ショベルの旋回動作時又は走行動作時であってよい。
これにより、追加学習に適用すべき誤判定が生じ易い動作条件としてのショベル100の旋回動作時や走行動作時の撮像画像を具体的に記録することができる。
また、本実施形態では、判定部344は、自ショベルの周囲の物体の検出に関する判定を行う。そして、所定の記録タイミングは、判定部344が自ショベルの周囲の物体を検出したと判定したときであってよい。
これにより、ショベル100の周囲の物体の検出に関する誤判定、つまり、誤検出が発生している可能性がある時点の撮像画像を記録することができる。
[変形・改良]
以上、実施形態について詳述したが、本開示はかかる特定の実施形態に限定されるものではなく、特許請求の範囲の要旨の範囲内において、種々の変形・変更が可能である。
例えば、上述した実施形態では、学習済みモデルLMに対する入力情報としてのショベル100の周囲の環境情報は、撮像装置70の撮像画像であるが、当該態様には限定されない。具体的には、学習済みモデルLMに対する入力情報は、例えば、ショベル100に搭載されるLIDAR(Light Detecting and Ranging)、ミリ波レーダ、距離画像センサ等の任意の空間認識センサ(環境情報取得部の一例)からの出力情報(距離画像データや反射波のスペクトルデータ等)であってもよい。この場合、管理装置200は、複数のショベル100から受信される、空間認識センサの出力情報から生成した教師データに基づき、学習モデルの機械学習や学習済みモデルLMの追加学習を行う。
また、上述した実施形態及び変形例では、一つの学習済みモデルLMが生成されると共に、一つの学習済みモデルLMで、ショベル100の周囲の物体に関する判定が行われるが、当該態様には限定されない。具体的には、ショベル100の周囲の予め規定される複数の環境条件ごとの学習済みモデルが生成されると共に、ショベル100の周囲の環境条件に合わせた学習済みモデルが選択された上で、選択された学習済みモデルで、ショベル100の周囲の物体に関する判定が行われてもよい。このとき、ショベル100の周囲の環境条件には、例えば、雨、晴れ、曇り等の天候条件や、撮像画像に映り込む背景の種別(例えば、住宅が映り込む住宅街、森林が映り込む山間地等の地理的な条件や、舗装の有無等の条件)等が含まれうる。これにより、学習済みモデルは、それぞれの環境条件に合わせて、追加学習がなされるため、ショベル100は、環境条件ごとの判定精度を向上させることができる。
また、上述した実施形態及び変形例では、ニューラルネットワークを中心とする機械学習の手法が適用された学習済みモデルLMが生成されるが、ニューラルネットワークに代えて、或いは、加えて、他の機械学習の手法が適用されてもよい。
例えば、図9は、学習済みモデルLMによる判定処理の他の例を示す概念図である。具体的には、図9は、機械学習の手法として、サポートベクターマシーン(Support Vector Machine:SVM)を適用した場合の物体に関する判定方法を概念的に示す図である。
図9に示すように、二次元平面上に、ショベル100で取得される、ショベル100の周囲の環境情報(例えば、撮像装置70の撮像画像)から抽出された所定の特徴量の二次元のベクトル情報(以下、「特徴量ベクトル」)が教師データとしてプロットされている。
例えば、特徴量ベクトル群902(図中の白丸のプロット群)及び特徴量ベクトル群903(図中の黒丸のプロット群)は、それぞれ、物体が存在しない場合及び存在する場合の環境情報に対応していると仮定する。すると、SVMの手法により、教師データとしての特徴量ベクトル群902及び黒丸でプロットされる特徴量ベクトル群903との間に、分離直線901を規定することができる。よって、分離直線901を用いることにより、ショベル100で取得された環境情報から特徴量ベクトルを算出し、算出された特徴量ベクトルが分離直線901から見て、特徴量ベクトル群902側にあるのか、特徴量ベクトル群903側にあるのかによって、物体の存在の有無に関する判定、つまり、物体検出を行うことができる。例えば、特徴量ベクトル904は、分離直線901から見て、特徴量ベクトル群903側にあるため、ショベル100で取得された環境情報から物体の存在を認識し、物体を検出することができる。同様の方法で、検出した物体の分類(特定の種類の物体であるか、それ以外の種類の物体であるかの分類)も可能である。
具体的には、特徴量ベクトルとして、例えば、撮像装置70の撮像画像のHOG(Histogram of Oriented Gradients)特徴量やLBP(Local Binary Pattern)特徴量等の画像特徴量が用いられる。また、特徴量ベクトルは、通常、三次元を超える多次元空間上で特定されるため、特徴量ベクトルに対応する多次元空間を物体の存在の有無や、特定の種類の物体(例えば、"人")とそれ以外の種類の物体とに分類する場合、SVMの手法により、分離超平面が規定される。
このように、SVMの手法を適用することにより、管理装置200は、複数のショベル100から収集される複数の環境情報から教師データとしての特徴量ベクトルを生成し、教師データに基づき、学習済みモデルLMに対応する分離超平面を規定することができる。そして、管理装置200は、分離超平面の規定後、更に、複数のショベル100から収集された環境情報から追加の教師データとしての特徴量ベクトルを生成し、従来の教師データと追加の教師データとに基づき、分離超平面を更新させてよい。これにより、上述の実施形態と同様、ショベル100は、ショベル100の周囲の環境情報に基づき、ショベル100の周囲の物体に関する判定を行う場合の多様な環境条件下での判定精度を向上させることができる。
また、ニューラルネットワークやSVMの他、他の機械学習の手法、例えば、ランダムフォレスト等の決定木による手法、最近傍法、単純ベイズ分類器等の既知の手法が適用されうる。
また、上述した実施形態及び変形例では、ショベル100が学習済みモデルLMを用いて周囲の物体に関する判定を行うが、他の建設機械が学習済みモデルLMを用いて周囲の物体に関する判定を行ってもよい。即ち、上述した実施形態に係るショベル支援システムSYSは、ショベル100に代えて、或いは、加えて、ブルドーザ、ホイールローダ、アスファルトフィニッシャ等の道路機械や、ハーベスタ等を備える林業機械等の他の建設機械を含む態様であってもよい。
最後に、本願は、2018年10月31日に出願した日本国特許出願2018-205906号に基づく優先権を主張するものであり、日本国特許出願の全内容を本願に参照により援用する。
30 コントローラ
32 記録装置
34 判定装置
40 表示装置
70 撮像装置(環境情報取得部、第1の環境情報取得部、第2の環境情報取得部)
90 通信機器(環境情報送信部)
100 ショベル(第1のショベル、第2のショベル)
200 管理装置(外部装置)
210 制御装置
220 通信機器(モデル送信部)
230 表示装置
240 入力装置
250 コンピュータグラフィクス生成装置
302 報知部
304 動作制御部(制御部)
322 記録制御部(記録部)
324 記憶部
342 表示制御部
344 判定部
346 記憶部
2101 判定部
2102 教師データ生成部(教師情報生成部)
2103 学習部
2104,2105 記憶部
IM1 撮像画像
IM2 判定情報付き撮像画像
IM3 コンピュータグラフィクス
LM 学習済みモデル
SYS ショベル支援システム

Claims (12)

  1. ショベルの周囲の作業現場の環境情報を取得する環境情報取得部と、
    機械学習が行われた学習済みモデルを用いて、前記環境情報取得部により取得される環境情報に基づき、ショベルの周囲の物体に関する判定を行う判定部と、を備え、
    前記学習済みモデルは、取得された作業現場の環境情報から生成される教師情報に基づき追加学習が行われた、追加学習済みモデルに更新され、
    前記判定部は、前記学習済みモデルが更新された場合、更新された前記学習済みモデルを用いて、前記環境情報取得部により取得される環境情報に基づき、前記判定を行い、
    自ショベルを含む複数のショベルは、同一の前記学習済みモデルを有すると共に、前記学習済みモデルを用いて、前記判定を行い、
    前記複数のショベルのそれぞれが有する前記学習済みモデルは、前記追加学習済みモデルに更新される
    ョベル。
  2. ショベルの周囲の作業現場の環境情報を取得する環境情報取得部と、
    機械学習が行われた学習済みモデルを用いて、前記環境情報取得部により取得される環境情報に基づき、ショベルの周囲の物体に関する判定を行う判定部と、を備え、
    前記学習済みモデルは、取得された作業現場の環境情報から生成される教師情報に基づき追加学習が行われた、追加学習済みモデルに更新され、
    前記判定部は、前記学習済みモデルが更新された場合、更新された前記学習済みモデルを用いて、前記環境情報取得部により取得される環境情報に基づき、前記判定を行い、
    前記学習済みモデルは、複数のショベルで取得される周囲の作業現場の環境情報から生成される前記教師情報に基づき前記追加学習が行われた前記追加学習済みモデルに更新される
    ョベル。
  3. 前記学習済みモデルは、自ショベル及び自ショベルとは異なる他ショベルのうちの少なくとも一方で取得される作業現場の環境情報から生成される前記教師情報に基づき前記追加学習が行われた、前記追加学習済みモデルに更新される、
    請求項1又は2に記載のショベル。
  4. 前記学習済みモデルは、人工的に生成される作業現場の環境情報から生成される前記教師情報に基づき前記追加学習が行われた前記追加学習済みモデルに更新される、
    請求項1又は2に記載のショベル。
  5. 自ショベルの旋回動作時又は走行動作時に、前記環境情報取得部により取得される環境情報を記録する記録部を更に備え、
    前記学習済みモデルは、前記記録部により記録された環境情報から生成される前記教師情報に基づき前記追加学習が行われた前記追加学習済みモデルに更新される、
    請求項1又は2に記載のショベル。
  6. 記録部を更に備え、
    前記判定部は、自ショベルの周囲の物体の検出に関する前記判定を行い、
    前記記録部は、前記判定部が自ショベルの周囲の物体を検出したと判定したときに、前記環境情報取得部により取得される環境情報を記録し、
    前記学習済みモデルは、前記記録部により記録された環境情報から生成される前記教師情報に基づき前記追加学習が行われた前記追加学習済みモデルに更新される、
    請求項1又は2に記載のショベル。
  7. アクチュエータと、
    前記判定に基づき、前記アクチュエータを制御する制御部と、を更に備える、
    請求項1又は2に記載のショベル。
  8. 操作装置と、
    前記操作装置に対する操作に基づき、駆動されるアクチュエータと、を備え、
    前記判定に基づき、前記物体が自ショベルの周囲の所定範囲内に存在すると判定されると、前記操作装置が操作されても前記アクチュエータは駆動されない、
    請求項1又は2に記載のショベル。
  9. 第1のショベルと、第2のショベルと、前記第1のショベル及び前記第2のショベルと通信可能な外部装置と、を含むショベル支援システムであって、
    前記第1のショベルに設けられ、前記第1のショベルの周囲の環境情報を取得する第1の環境情報取得部と、
    前記第1のショベルに設けられ、機械学習が行われた学習済みモデルを用いて、前記第1の環境情報取得部により取得される環境情報に基づき、前記第1のショベルの周囲の物体に関する判定を行う判定部と、
    前記第2のショベルに設けられ、前記第2のショベルの周囲の環境情報を取得する第2の環境情報取得部と、
    前記第2のショベルに設けられ、前記第2の環境情報取得部により取得される環境情報を記録する記録部と、
    前記第2のショベルに設けられ、前記記録部により記録される環境情報を前記外部装置に送信する環境情報送信部と、
    前記外部装置に設けられ、前記第2のショベルから受信される、前記第2のショベルで取得された環境情報に基づき、教師情報を生成する教師情報生成部と、
    前記外部装置に設けられ、前記教師情報生成部により生成された教師情報に基づき、前記第1のショベルで前記判定に用いられている前記学習済みモデルと同一の学習済みモデルに追加学習を行わせ、追加学習済みモデルを生成する学習部と、
    前記外部装置に設けられ、前記学習部により追加学習が行われた前記追加学習済みモデルを前記第1のショベルに送信するモデル送信部と、を備え、
    前記学習済みモデルは、前記第1のショベルにおいて、前記外部装置から受信される前記追加学習済みモデルに更新され、
    前記判定部は、前記学習済みモデルが更新された場合、更新された前記学習済みモデルを用いて、前記第1の環境情報取得部により取得される環境情報に基づき、前記判定を行う、
    ショベル支援システム。
  10. 前記第1のショベルと前記第2のショベルは、同一のショベルであり、
    前記第1の環境情報取得部と前記第2の環境情報取得部は、同一の環境情報取得部である、
    請求項に記載のショベル支援システム。
  11. 複数の前記第1のショベルと、複数の前記第1のショベルのそれぞれと通信可能な前記外部装置と、を含む、
    請求項に記載のショベル支援システム。
  12. 複数の前記第2のショベルと、複数の前記第2のショベルのそれぞれと通信可能な前記外部装置と、を含む、
    請求項に記載のショベル支援システム。
JP2020554050A 2018-10-31 2019-10-31 ショベル、ショベル支援システム Active JP7472034B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024000097A JP2024028372A (ja) 2018-10-31 2024-01-04 ショベル

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018205906 2018-10-31
JP2018205906 2018-10-31
PCT/JP2019/042896 WO2020091002A1 (ja) 2018-10-31 2019-10-31 ショベル、ショベル支援システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024000097A Division JP2024028372A (ja) 2018-10-31 2024-01-04 ショベル

Publications (2)

Publication Number Publication Date
JPWO2020091002A1 JPWO2020091002A1 (ja) 2021-09-24
JP7472034B2 true JP7472034B2 (ja) 2024-04-22

Family

ID=70462088

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020554050A Active JP7472034B2 (ja) 2018-10-31 2019-10-31 ショベル、ショベル支援システム
JP2024000097A Pending JP2024028372A (ja) 2018-10-31 2024-01-04 ショベル

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024000097A Pending JP2024028372A (ja) 2018-10-31 2024-01-04 ショベル

Country Status (6)

Country Link
US (1) US20210246631A1 (ja)
EP (1) EP3875697B1 (ja)
JP (2) JP7472034B2 (ja)
KR (1) KR102700865B1 (ja)
CN (1) CN112996963B (ja)
WO (1) WO2020091002A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7283070B2 (ja) * 2018-12-19 2023-05-30 コベルコ建機株式会社 作業機械用周辺監視装置
JP7287047B2 (ja) * 2019-03-27 2023-06-06 コベルコ建機株式会社 遠隔操作システムおよび遠隔操作サーバ
EP3919687A4 (en) * 2019-04-04 2022-11-16 Komatsu Ltd. WORK MACHINE SYSTEM, COMPUTER-EXECUTED METHOD, METHOD OF PRODUCTION FOR TRAINED POSITION ESTIMATION MODELS AND LEARNING DATA
KR102476268B1 (ko) * 2020-07-28 2022-12-14 현대엠시스템즈 주식회사 인공지능 기법과 탐지 센서 및 환경 센서를 이용한 건설 장비 안전 시스템
JP7473914B2 (ja) 2020-07-29 2024-04-24 株式会社安藤・間 自己位置推定システム、及び建設機械位置推定システム
CN116195245A (zh) * 2020-09-29 2023-05-30 索尼半导体解决方案公司 物体检测系统及物体检测方法
JP7444098B2 (ja) * 2021-02-15 2024-03-06 Jfeスチール株式会社 スラグ流出判定方法、転炉操業方法、溶鋼製造方法、スラグ流出判定装置、転炉操業設備、及び溶鋼製造設備
US20220366334A1 (en) * 2021-05-17 2022-11-17 Caterpillar Inc. Methods and systems for effective utilization of autonomous machines
US20240126260A1 (en) * 2022-10-17 2024-04-18 Deere & Company System and method for optimized perception sensing in a work area using virtual perimeters
US20240188477A1 (en) * 2022-12-12 2024-06-13 Cnh Industrial America Llc Agricultural vehicle with implement-specific operational profiles

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094627A1 (ja) 2015-11-30 2017-06-08 住友重機械工業株式会社 作業機械用周辺監視システム
JP2017224184A (ja) 2016-06-16 2017-12-21 株式会社日立製作所 機械学習装置
JP6290497B2 (ja) 2017-06-16 2018-03-07 住友重機械工業株式会社 ショベル
WO2018180562A1 (ja) 2017-03-27 2018-10-04 株式会社日立ハイテクノロジーズ 画像処理システム及び画像処理を行うためのコンピュータープログラム

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6290497U (ja) 1985-11-28 1987-06-10
DE19859169A1 (de) * 1997-12-19 1999-06-24 Univ Carnegie Mellon Lernsystem und Verfahren zur Optimierung der Steuerung autonomer Erdbewegungsmaschinen
CN1166841C (zh) * 1998-03-18 2004-09-15 日立建机株式会社 自动操作的挖土机和包括该挖土机的石头压碎系统
KR100284092B1 (ko) * 1999-02-26 2001-02-15 윤종용 인공신경망을 이용한 유압시스템 및 그 제어방법
JP2007016403A (ja) 2005-07-05 2007-01-25 Hitachi Constr Mach Co Ltd 作業機械のカメラ制御装置
CN101675195B (zh) * 2007-08-09 2012-02-15 日立建机株式会社 工程机械的机器诊断装置及机器诊断系统
EA201171337A1 (ru) * 2009-05-01 2012-05-30 Дзе Юниверсити Оф Сидней Комплексная автоматизированная система
CA2730951A1 (en) * 2009-05-29 2010-12-02 Mark Damm Method and system to manage complex systems knowledge
US8983738B2 (en) * 2010-02-23 2015-03-17 Israel Aerospace Industries Ltd. System and method of autonomous operation of multi-tasking earth moving machinery
JP2016023489A (ja) * 2014-07-23 2016-02-08 住友重機械工業株式会社 ショベル支援装置及びショベル管理方法
US20160129913A1 (en) * 2014-11-06 2016-05-12 Lars Boesen System and Method for the Automatic Persona Identification of a Person Post Motion
CN113131565A (zh) * 2016-06-01 2021-07-16 华为技术有限公司 一种充电的方法及终端
JP6391656B2 (ja) * 2016-11-29 2018-09-19 住友重機械工業株式会社 作業機械用周辺監視装置及び作業機械
US10867377B2 (en) * 2016-12-21 2020-12-15 Massachusetts Institute Of Technology Determining soil state and controlling equipment based on captured images
JP6882080B2 (ja) 2017-05-31 2021-06-02 キヤノン株式会社 画像処理装置、方法、プログラム及びシステム
JP7345236B2 (ja) * 2017-11-10 2023-09-15 株式会社小松製作所 作業車両の動作を推定するための方法、システム、学習済みの分類モデルの製造方法、学習データ、及び学習データの製造方法
US11003184B2 (en) * 2017-12-05 2021-05-11 Veniam, Inc. Cloud-aided and collaborative data learning among autonomous vehicles to optimize the operation and planning of a smart-city infrastructure
CN111670286A (zh) * 2018-01-30 2020-09-15 住友建机株式会社 挖土机及挖土机的管理系统
US10733885B2 (en) * 2018-06-07 2020-08-04 Complete Innovations Inc. Multi-vehicle prediction system
US10635945B2 (en) * 2018-06-28 2020-04-28 Schneider Electric Systems Usa, Inc. Machine learning analysis of piping and instrumentation diagrams
JP7420723B2 (ja) * 2018-08-10 2024-01-23 住友建機株式会社 ショベル
JP7540728B2 (ja) * 2018-11-08 2024-08-27 シナプス・パートナーズ・エルエルシー 乗り物データを管理するためのシステムおよび方法
JP7316052B2 (ja) * 2019-01-29 2023-07-27 株式会社小松製作所 作業機械を含むシステム、およびコンピュータによって実行される方法
US11320830B2 (en) * 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017094627A1 (ja) 2015-11-30 2017-06-08 住友重機械工業株式会社 作業機械用周辺監視システム
JP2017224184A (ja) 2016-06-16 2017-12-21 株式会社日立製作所 機械学習装置
WO2018180562A1 (ja) 2017-03-27 2018-10-04 株式会社日立ハイテクノロジーズ 画像処理システム及び画像処理を行うためのコンピュータープログラム
JP6290497B2 (ja) 2017-06-16 2018-03-07 住友重機械工業株式会社 ショベル

Also Published As

Publication number Publication date
EP3875697A4 (en) 2022-01-05
KR20210106410A (ko) 2021-08-30
CN112996963B (zh) 2022-12-02
JP2024028372A (ja) 2024-03-04
WO2020091002A1 (ja) 2020-05-07
EP3875697A1 (en) 2021-09-08
CN112996963A (zh) 2021-06-18
EP3875697B1 (en) 2023-12-06
JPWO2020091002A1 (ja) 2021-09-24
KR102700865B1 (ko) 2024-08-29
US20210246631A1 (en) 2021-08-12

Similar Documents

Publication Publication Date Title
JP7472034B2 (ja) ショベル、ショベル支援システム
WO2020204007A1 (ja) ショベル及び施工システム
WO2020196874A1 (ja) 建設機械、支援システム
CN111656412B (zh) 用于判定作业车辆所进行的作业的系统、方法以及已学习模型的制造方法
WO2021025123A1 (ja) ショベル、情報処理装置
WO2022210980A1 (ja) 建設機械、建設機械の支援システム
US20220002970A1 (en) Excavator
CN114341439A (zh) 施工机械、施工机械的管理系统、机器学习装置及施工机械的作业现场的管理系统
JP2022085617A (ja) 周辺監視システム、表示装置
KR102723549B1 (ko) 건설기계, 지원시스템
WO2024111596A1 (ja) 作業機械、情報処理装置、プログラム
US20240068202A1 (en) Autonomous Control Of Operations Of Powered Earth-Moving Vehicles Using Data From On-Vehicle Perception Systems
JP2023093109A (ja) 建設機械、及び情報処理装置
JP2023063989A (ja) ショベル
JP2023063990A (ja) ショベル
JP2023063991A (ja) ショベル
JP2023063993A (ja) ショベル
JP2023063992A (ja) ショベル
JP2023063988A (ja) ショベル
JP2023151642A (ja) ショベル、ショベルの支援システム
JP2024089387A (ja) ショベルの管理システム、ショベルの管理装置
JP2024076741A (ja) 作業機械、情報処理装置、プログラム

Legal Events

Date Code Title Description
A625 Written request for application examination (by other person)

Free format text: JAPANESE INTERMEDIATE CODE: A625

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240104

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20240112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240410

R150 Certificate of patent or registration of utility model

Ref document number: 7472034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150