JP7166108B2 - 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット - Google Patents

画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット Download PDF

Info

Publication number
JP7166108B2
JP7166108B2 JP2018163670A JP2018163670A JP7166108B2 JP 7166108 B2 JP7166108 B2 JP 7166108B2 JP 2018163670 A JP2018163670 A JP 2018163670A JP 2018163670 A JP2018163670 A JP 2018163670A JP 7166108 B2 JP7166108 B2 JP 7166108B2
Authority
JP
Japan
Prior art keywords
image
model
captured
stereo
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018163670A
Other languages
English (en)
Other versions
JP2020035380A (ja
Inventor
駿 川本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP2018163670A priority Critical patent/JP7166108B2/ja
Priority to PCT/JP2019/028510 priority patent/WO2020044852A1/ja
Priority to CN201980048815.8A priority patent/CN112469869A/zh
Priority to DE112019003159.7T priority patent/DE112019003159T5/de
Priority to US17/261,701 priority patent/US11414837B2/en
Publication of JP2020035380A publication Critical patent/JP2020035380A/ja
Application granted granted Critical
Publication of JP7166108B2 publication Critical patent/JP7166108B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F3/00Dredgers; Soil-shifting machines
    • E02F3/04Dredgers; Soil-shifting machines mechanically-driven
    • E02F3/28Dredgers; Soil-shifting machines mechanically-driven with digging tools mounted on a dipper- or bucket-arm, i.e. there is either one arm or a pair of arms, e.g. dippers, buckets
    • E02F3/36Component parts
    • E02F3/42Drives for dippers, buckets, dipper-arms or bucket-arms
    • E02F3/43Control of dipper or bucket position; Control of sequence of drive operations
    • E02F3/435Control of dipper or bucket position; Control of sequence of drive operations for dipper-arms, backhoes or the like
    • E02F3/439Automatic repositioning of the implement, e.g. automatic dumping, auto-return
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/08Superstructures; Supports for superstructures
    • E02F9/10Supports for movable superstructures mounted on travelling or walking gears or on other superstructures
    • E02F9/12Slewing or traversing gears
    • E02F9/121Turntables, i.e. structure rotatable about 360°
    • E02F9/123Drives or control devices specially adapted therefor
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/261Surveying the work-site to be treated
    • EFIXED CONSTRUCTIONS
    • E02HYDRAULIC ENGINEERING; FOUNDATIONS; SOIL SHIFTING
    • E02FDREDGING; SOIL-SHIFTING
    • E02F9/00Component parts of dredgers or soil-shifting machines, not restricted to one of the kinds covered by groups E02F3/00 - E02F7/00
    • E02F9/26Indicating devices
    • E02F9/264Sensors and their calibration for indicating the position of the work tool
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Description

本発明は、画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセットに関する。
特許文献1には、油圧ショベルに備えられた撮像装置によって撮像された画像からエッジを抽出することで、ダンプトラックのベッセルの位置を特定する技術が開示されている。
特開2000-192514号公報
ところで、積込機械が存在する現場においては、道路が舗装されていないことがあり、地表に轍が生成される。轍とダンプトラックとが写る画像からエッジを抽出すると、ダンプトラックのエッジに加え、轍のエッジも生じる。そのため、特許文献1に記載の技術により撮像画像からダンプトラックのベッセル位置を特定する場合、轍の存在により、適切にベッセルの位置を特定することができない可能性がある。
本発明は、運搬物の投下対象の位置を、ロバストに特定することができる画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセットを提供することを目的とする。
本発明の一態様によれば、画像処理システムは、作業機械の運搬物の投下対象が写る撮像画像を取得するデータ取得部と、画像を入力することで前記画像に写る投下対象の所定の部分の位置を出力する学習済みモデルである位置特定モデルと前記撮像画像とに基づいて、前記撮像画像に写る前記投下対象の所定の部分の位置を特定する位置特定部とを備える。前記位置特定モデルは、前記画像における前記部分の位置を示す情報を出力し、前記位置特定部は、前記撮像画像を前記位置特定モデルに入力することで出力される前記画像における前記部分の位置を示す情報に基づいて、前記部分の三次元位置を特定する。
上記態様によれば、画像から投下対象の所定の部分の位置を出力する学習済みモデルを用いて、精度よく投下対象の部分の位置を特定することができる。
一実施形態に係る積込場の構成を示す図である。 一実施形態に係る油圧ショベルの外観図である。 第1の実施形態に係る制御装置の構成を示す概略ブロック図である。 ベッセルの特徴点の例を示す図である。 ニューラルネットワークの構成の一例である。 Siamese Networkモデルの構成の例を示す図である。 ガイダンス情報の一例である。 第1の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。 第1の実施形態に係る特徴点特定モデルの学習方法を示すフローチャートである。 第1の実施形態に係る類似度特定モデルの学習方法を示すフローチャートである。 第2の実施形態に係る制御装置の構成を示す概略ブロック図である。 第2の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。 第2の実施形態に係るステレオ特徴点特定モデルの学習方法を示すフローチャートである。 第3の実施形態に係る制御装置の構成を示す概略ブロック図である。 第3の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。 第3の実施形態に係る三次元特徴点特定モデルの学習方法を示すフローチャートである。 第4の実施形態に係る制御装置の構成を示す概略ブロック図である。 第4の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。 第4の実施形態に係るステレオマッチングモデルの学習方法を示すフローチャートである。 第5の実施形態に係る制御装置の構成を示す概略ブロック図である。 第5の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。
〈第1の実施形態〉
以下、図面を参照しながら実施形態について詳しく説明する。
図1は、一実施形態に係る積込場の構成を示す図である。
施工現場には、積込機械である油圧ショベル100と運搬車両であるダンプトラック200とが配備される。油圧ショベル100は、施工現場から土砂等の運搬物Lをすくい、ダンプトラック200に積み込む。ダンプトラック200は、油圧ショベル100によって積み込まれた運搬物Lを所定の排土場に運搬する。ダンプトラック200は、運搬物Lを収容する容器であるベッセル210を備える。ベッセル210は、運搬物Lの投下対象の一例である。施工現場は、現場の一例である。現場とは、積込機械による作業が行われる土地である。
《油圧ショベルの構成》
図2は、一実施形態に係る油圧ショベルの外観図である。
油圧ショベル100は、油圧により作動する作業機110と、作業機110を支持する旋回体120と、旋回体120を支持する走行体130とを備える。
作業機110は、ブーム111と、アーム112と、バケット113と、ブームシリンダ114と、アームシリンダ115と、バケットシリンダ116とを備える。
ブーム111は、アーム112およびバケット113を支える支柱である。ブーム111の基端部は、旋回体120の前部にブームピンP1を介して取り付けられる。
アーム112は、ブーム111とバケット113とを連結する。アーム112の基端部は、ブーム111の先端部にアームピンP2を介して取り付けられる。
バケット113は、土砂などを掘削するための刃を有する容器である。バケット113の基端部は、アーム112の先端部にバケットピンP3を介して取り付けられる。
ブームシリンダ114は、ブーム111を作動させるための油圧シリンダである。ブームシリンダ114の基端部は、旋回体120に取り付けられる。ブームシリンダ114の先端部は、ブーム111に取り付けられる。
アームシリンダ115は、アーム112を駆動するための油圧シリンダである。アームシリンダ115の基端部は、ブーム111に取り付けられる。アームシリンダ115の先端部は、アーム112に取り付けられる。
バケットシリンダ116は、バケット113を駆動するための油圧シリンダである。バケットシリンダ116の基端部は、アーム112に取り付けられる。バケットシリンダ116の先端部は、バケット113に取り付けられる。
旋回体120には、オペレータが搭乗する運転室121が備えられる。運転室121は、旋回体120の前方かつ作業機110の左側(+Y側)に備えられる。
《油圧ショベルの制御系》
油圧ショベル100は、作業機位置検出器122、位置方位演算器123、傾斜検出器124、ステレオカメラ125、操作装置126、制御装置127、表示装置128を備える。
作業機位置検出器122は、作業機110の姿勢角を検出する。第1の実施形態に係る作業機位置検出器122は、ブームシリンダ114、アームシリンダ115、およびバケットシリンダ116のそれぞれのストローク長を検出するストローク検出器である。これにより、後述する制御装置127は、ブームシリンダ114、アームシリンダ115、およびバケットシリンダ116のそれぞれのストローク長に基づいて作業機110の姿勢角を検出することができる。他方、他の実施形態においては、これに限られず、作業機位置検出器122として、ストローク検出器に代えて、またはストローク検出器と併用して、IMU,ロータリーエンコーダや水平器等の角度検出器を用いてもよい。
位置方位演算器123は、旋回体120の位置および旋回体120が向く方位を演算する。位置方位演算器123は、GNSS(Global Navigation Satellite System)を構成する人工衛星から測位信号を受信する第1受信器1231および第2受信器1232を備える。第1受信器1231および第2受信器1232は、それぞれ旋回体120の異なる位置に設置される。位置方位演算器123は、第1受信器1231が受信した測位信号に基づいて、現場座標系における旋回体120の代表点(車体座標系の原点)の位置を検出する。
位置方位演算器123は、第1受信器1231が受信した測位信号と、第2受信器1232が受信した測位信号とを用いて、検出された第1受信器1231の設置位置に対する第2受信器1232の設置位置の関係として、旋回体120の方位を演算する。なお、他の実施形態に係る位置方位演算器123は、第1受信器1231および第2受信器1232に代えて、ロータリーエンコーダやIMUなどの他の装置を備えることで旋回体120の方位を計測してもよい。
傾斜検出器124は、旋回体120の加速度および角速度を計測し、計測結果に基づいて旋回体120の傾き(例えば、X軸に対する回転を表すロール、Y軸に対する回転を表すピッチ、およびZ軸に対する回転を表すヨー)を検出する。傾斜検出器124は、例えば運転室121の下面に設置される。傾斜検出器124は、例えば、慣性計測装置であるIMU(Inertial Measurement Unit)を用いることができる。
ステレオカメラ125は、運転室121の上部に設けられる。ステレオカメラ125は、運転室121内の前方(+X方向)かつ上方(+Z方向)に設置される。ステレオカメラ125は、運転室121前面のフロントガラスを通して、運転室121の前方(+X方向)を撮像する。ステレオカメラ125は、少なくとも1対のカメラを備える。
操作装置126は運転室121の内部に設けられる。操作装置126は、オペレータによって操作されることで作業機110のアクチュエータに作動油を供給する。操作装置126の操作量に応じて、ブームシリンダ114、アームシリンダ115、バケットシリンダ116、および図示しない旋回モータに作動油が供給され、作業機110および旋回体120が駆動する。
制御装置127は、作業機位置検出器122、位置方位演算器123、傾斜検出器124およびステレオカメラ125から情報を取得し、バケット113とダンプトラック200のベッセルとの位置関係を示すガイダンス情報を生成する。
表示装置128は、制御装置127が生成したガイダンス情報を表示する。
なお、実施形態によっては、油圧ショベル100は、作業機位置検出器122、位置方位演算器123、傾斜検出器124、ステレオカメラ125、および表示装置128を備えないものであってもよい。
《ステレオカメラの構成》
第1の実施形態においては、ステレオカメラ125は、右側カメラ1251および左側カメラ1252を備える。各カメラの例としては、例えばCCD(Charge Coupled Device)センサ、およびCMOS(Complementary Metal Oxide Semiconductor)センサを用いたカメラが挙げられる。
右側カメラ1251と左側カメラ1252は、それぞれ光軸が運転室121の床面に対して略平行となるように、左右方向(Y軸方向)に間隔を空けて設置される。ステレオカメラ125は撮像装置の一例である。制御装置127は、右側カメラ1251が撮像した画像と左側カメラ1252が撮像した画像とを用いることで、ステレオカメラ125と撮像対象との距離を算出することができる。以下、右側カメラ1251が撮像した画像を右目画像ともいう。また、左側カメラ1252が撮像した画像を左目画像ともいう。また、ステレオカメラ125の各カメラが撮像した画像の組み合わせをステレオ画像ともいう。なお、他の実施形態においては、ステレオカメラ125は、3個以上のカメラによって構成されてもよい。
《制御装置の構成》
図3は、第1の実施形態に係る制御装置の構成を示す概略ブロック図である。
制御装置127は、プロセッサ91、メインメモリ92、ストレージ93、インタフェース94を備える。
ストレージ93には、作業機110を制御するためのプログラムが記憶されている。ストレージ93の例としては、HDD(Hard Disk Drive)、不揮発性メモリ等が挙げられる。ストレージ93は、制御装置127のバスに直接接続された内部メディアであってもよいし、インタフェース94または通信回線を介して制御装置127に接続される外部メディアであってもよい。ストレージ93は、記憶部の一例である。
プロセッサ91は、ストレージ93からプログラムを読み出してメインメモリ92に展開し、プログラムに従って処理を実行する。またプロセッサ91は、プログラムに従ってメインメモリ92に記憶領域を確保する。メインメモリ92は、記憶部の一例である。インタフェース94は、作業機位置検出器122、位置方位演算器123、傾斜検出器124、ステレオカメラ125、表示装置128、およびその他の周辺機器と接続され、信号の授受を行う。
プロセッサ91は、プログラムの実行により、データ取得部1701、特徴点特定部1702、対応点特定部1703、ベッセル位置特定部1704、作業機位置特定部1705、ガイダンス情報生成部1706、表示制御部1707、学習部1801を備える。また、ストレージ93には、カメラパラメータCP、特徴点特定モデルM1、類似度特定モデルM2、および三次元モデルDが記憶される。カメラパラメータとは、旋回体120と右側カメラ1251との位置関係、および旋回体120と左側カメラ1252との位置関係を示す情報である。三次元モデルDは、ベッセル210の形状を表す三次元データである。なお、他の実施形態においては、ベッセルの形状に代えて、ダンプトラック200の形状を表す三次元モデルDを用いてもよい。また、ストレージ93は、三次元モデルDを記憶しなくてもよい。
なお、プログラムは、制御装置127に発揮させる機能の一部を実現するためのものであってもよい。例えば、プログラムは、ストレージ93に既に記憶されている他のプログラムとの組み合わせ、または他の装置に実装された他のプログラムとの組み合わせによって機能を発揮させるものであってもよい。なお、他の実施形態においては、制御装置127は、上記構成に加えて、または上記構成に代えてPLD(Programmable Logic Device)などのカスタムLSI(Large Scale Integrated Circuit)を備えてもよい。PLDの例としては、PAL(Programmable Array Logic)、GAL(Generic Array Logic)、CPLD(Complex Programmable Logic Device)、FPGA(Field Programmable Gate Array)が挙げられる。この場合、プロセッサによって実現される機能の一部または全部が当該集積回路によって実現されてよい。
データ取得部1701は、インタフェース94を介して作業機位置検出器122、位置方位演算器123、傾斜検出器124、およびステレオカメラ125からデータを取得する。すなわち、データ取得部1701は、作業機110の姿勢角、旋回体120の位置、方位、および傾き、ならびにステレオ画像を取得する。データ取得部1701は、画像取得部の一例である。以下、旋回体120の位置、方位、および傾きを、旋回体120の姿勢ともいう。またステレオカメラ125は旋回体120に設けられるため、旋回体120の位置、方位、および傾きは、ステレオカメラ125の姿勢でもある。すなわち、データ取得部1701は、姿勢取得部の一例である。
図4は、ベッセルの特徴点の例を示す図である。
特徴点特定部1702は、データ取得部1701が取得したステレオ画像の右目画像を、ストレージ93に記憶された特徴点特定モデルM1に入力することで、右目画像に写るベッセル210の複数の特徴点の位置を特定する。特徴点特定部1702は、第1位置特定部の一例である。右目画像は、第1画像の一例である。ベッセル210の特徴点の例としては、ベッセル210のフロントパネルの左上端p1、フロントパネルの右上端p2、フロントパネルの左ガードフレームと左サイドゲートとの交点p3、フロントパネルの右ガードフレームと右サイドゲートとの交点p4、テールゲートの左固定柱の上端p5、テールゲートの右固定柱の上端p6、テールゲートの左固定柱の下端p7、テールゲートの右固定柱の下端p8、フロントパネルの左固定柱の下端p9、およびフロントパネルの右固定柱の下端p10などが挙げられる。つまり、特徴点は、投下対象の所定の部分の位置の一例である。なお、他の実施形態においては、上記の特徴点p1~p10の一部、例えば、ベッセルの四隅の特徴点である特徴点p7、p8、p9、p10のみを特定してもよい。また、高さが異なる特徴点を含めて特定(例えば、p7、p8、p9、p10と、p1またはp2)することで、ベッセル210の傾きを特定することができる。
特徴点特定モデルM1は、図5に示すニューラルネットワーク140を含む。図5は、ニューラルネットワークの構成の例を示す図である。特徴点特定モデルM1は、例えば、DNN(Deep Neural Network)の学習済みモデルによって実現される。学習済みモデルとは、学習モデルと学習済みパラメータの組み合わせによって構成される。
図5に示すようにニューラルネットワーク140は、入力層141、1つまたは複数の中間層142(隠れ層)、及び出力層143を含む。各層141,142,143は、1又は複数のニューロンを備えている。中間層142のニューロンの数は、適宜設定することができる。出力層143は、特徴点の数に応じて適宜設定することができる。
互いに隣接する層のニューロン同士は結合されており、各結合には重み(結合荷重)が設定されている。ニューロンの結合数は、適宜設定されてよい。各ニューロンには閾値が設定されており、各ニューロンへの入力値と重みとの積の和が閾値を超えているか否かによって各ニューロンの出力値が決定される。
入力層141には、ダンプトラック200のベッセル210が写る画像が入力される。
出力層143には、画像の各画素について特徴点である確率を示す出力値が出力される。つまり、特徴点特定モデルM1は、ベッセル210が写る画像が入力されると、当該画像におけるベッセル210の特徴点の位置を出力するように訓練された学習済みモデルである。特徴点特定モデルM1は、例えば、ダンプトラック200のベッセル210が写る画像を学習データとし、ベッセル210の特徴点ごとに当該特徴点の位置をプロットした画像を教師データとする学習用データセットを用いて訓練される。教師データは、プロットに係る画素は特徴点である確率が1であることを示す値を有し、他の画素は特徴点である確率が0であることを示す値を有する画像である。なお、プロットに係る画素は特徴点である確率が1であることを示し、他の画素は特徴点である確率が0であることを示す情報であればよく、画像でなくてもよい。なお、本実施形態において「学習データ」とは、学習モデルの訓練時に入力層に入力されるデータをいう。本実施形態において「教師データ」とは、ニューラルネットワーク140の出力層の値と比較するための正解となるデータである。本実施形態において「学習用データセット」とは、学習データと教師データの組み合わせをいう。学習によって得られた特徴点特定モデルM1の学習済みパラメータは、ストレージ93に記憶されている。学習済みパラメータは、例えば、ニューラルネットワーク140の層数、各層におけるニューロンの個数、ニューロン同士の結合関係、各ニューロン間の結合の重み、及び各ニューロンの閾値を含む。
特徴点特定モデルM1のニューラルネットワーク140の構成としては、例えば、顔器官検出に用いられるDNN構成や、人物の姿勢推定に用いられるDNN構成を用いることができる。特徴点特定モデルM1は、位置特定モデルの一例である。なお、他の実施形態に係る特徴点特定モデルM1は、教師なし学習または強化学習によって訓練されたものであってもよい。
対応点特定部1703は、ステレオ画像と、特徴点特定部1702が特定した右目画像の各特徴点の位置とに基づいて、左目画像に写るベッセル210の複数の特徴点の位置を特定する。対応点特定部1703は、第2位置特定部の一例である。左目画像は、第2画像の一例である。例えば、対応点特定部1703は、以下の方法で左目画像に写るベッセル210の複数の特徴点の位置を特定する。まず、対応点特定部1703は、左目画像を所定サイズの複数の部分画像(部分左目画像)に分割する。次に、対応点特定部1703は、類似度特定モデルM2を用いて、右目画像のうち特徴点特定部1702が特定した各特徴点を含む部分画像(部分右目画像)と、各部分左目画像との類似度を演算する。対応点特定部1703は、各部分右目画像について、部分左目画像の中から最も類似度が高いものを抽出する。対応点特定部1703は、左目画像のうち抽出された部分左目画像が存在する位置を、左目画像に写るベッセル210の特徴点の位置と特定する。なお、このとき、対応点特定部1703は、複数の部分左目画像のうち、対応する部分右目画像と同一のエピポーラ線上に位置する部分左目画像のみを対象として類似度を計算してもよい。
類似度特定モデルM2は、例えば、DNN(Deep Neural Network)の学習済みモデルによって実現される。類似度特定モデルM2のDNN構成としては、例えば、Siamese Networkモデルを利用することができる。図6は、Siamese Networkモデルの構成の例を示す図である。類似度特定モデルM2は、入力画像から特徴量を算出する2つのニューラルネットワーク140と、距離演算部150とを備えるSiamese Networkモデルである。類似度特定モデルM2の各ニューラルネットワーク140の入力層141には、それぞれ部分画像が入力される。各ニューラルネットワーク140の出力層143からは、部分画像の特徴量を示す出力値が出力される。距離演算部150は、各ニューラルネットワーク140が出力した特徴量の距離を演算する。部分画像の特徴量の距離は、部分画像の類似度と等価である。距離は、例えばユークリッド距離、コサイン類似度などによって表されてよい。類似度特定モデルM2は、2つの部分画像と、当該部分画像の類似度との組み合わせを教師データとして訓練される。すなわち、類似度特定モデルM2は、2つの部分画像の類似度が高いほど、特徴量の値が近くなり、2つの部分画像の類似度が低いほど、特徴量の値が遠くなるように、ニューラルネットワーク140のパラメータを変更することで、訓練がなされる。学習によって得られた類似度特定モデルM2の学習済みパラメータは、ストレージ93に記憶されている。
なお、類似度特定モデルM2の訓練には、必ずしもベッセル210が写る画像を用いなくてもよい。類似度特定モデルM2は、対応位置特定モデルの一例である。また、他の実施形態においては、対応点特定部1703は、ORB(Oriented FAST and Rotated BRIEF)およびSIFT(Scale Invariant Feature Transform)等の画像特徴量、またはSAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、およびNCC(Normalized Cross Correlation)等のテンプレートマッチング手法を用いて、左目画像に写るベッセル210の複数の特徴点の位置を特定してもよい。
ベッセル位置特定部1704は、特徴点特定部1702が特定した右目画像上の特徴点と、対応点特定部1703が特定した左目画像上の特徴点と、ストレージ93に記憶されたカメラパラメータと、旋回体120の姿勢情報とを用いて、ベッセル210の現場座標系における位置を特定する。具体的には、ベッセル位置特定部1704は、以下の方法でベッセル210のベッセル210の現場座標系における位置を特定する。まず、ベッセル位置特定部1704は、特徴点特定部1702が特定した右目画像上の特徴点と、対応点特定部1703が特定した左目画像上の特徴点と、ストレージ93に記憶されたカメラパラメータに基づく三角測量により、車体座標系における各特徴点の位置を特定する。次に、ベッセル位置特定部1704は、旋回体120の姿勢情報に基づいて、車体座標系における各特徴点の位置を、現場座標系における各特徴点の位置に変換する。このとき、ベッセル位置特定部1704は、ベッセル210の少なくとも3つの特徴点を特定することで、ベッセル210の位置を特定することができる。例えば、ベッセル位置特定部1704は、当該少なくとも3つの特徴点に、ダンプトラック200の三次元モデルの特徴点を合わせるように、現場座標系で表される仮想空間に三次元モデルを配置することで、ベッセル210の現場座標系における位置を特定することができる。
なお、他の実施形態に係るベッセル位置特定部1704は、車体座標系またはカメラ座標系における特徴点の位置を特定してもよい。ベッセル位置特定部1704は、位置特定部の一例である。
作業機位置特定部1705は、データ取得部1701が取得した作業機110の姿勢角と旋回体120の姿勢情報とに基づいて、現場座標系におけるブーム111、アーム112、およびバケット113の位置を特定する。
ガイダンス情報生成部1706は、ベッセル位置特定部1704が特定したベッセル210の位置と、作業機位置特定部1705が特定したブーム111、アーム112、およびバケット113の位置と、データ取得部1701が取得した旋回体120の姿勢情報とに基づいて、ベッセル210とバケット113の位置関係を示すガイダンス情報を生成する。
図7は、ガイダンス情報の一例である。ガイダンス情報生成部1706は、例えば図7に示すように、作業機位置特定部1705が特定したブーム111、アーム112、およびバケット113の位置と、旋回体120の姿勢情報とに基づいて、仮想空間上に油圧ショベル100の三次元モデルを配置する。またガイダンス情報生成部1706は、ダンプトラック200の三次元モデルの特徴点に相当する部分を、ベッセル位置特定部1704が特定したベッセル210の少なくとも3つの特徴点の位置に合わせるように、三次元モデルを配置する。ガイダンス情報生成部1706は、仮想空間上に配置された油圧ショベル100およびダンプトラック200を任意の視点からレンダリングすることで、油圧ショベル100のバケット113とダンプトラック200のベッセル210との位置関係を表すガイダンス情報を生成する。ガイダンス情報生成部1706は、少なくとも3つの特徴点を用いて三次元モデルを配置することで、撮像画像において一部の特徴点が写っていなくても、三次元モデルを適切に配置することができる。またガイダンス情報生成部1706は、検出された他の特徴点に基づいて、三次元モデルの配置の良否を判定することで、ノイズによって誤った点を特徴点として抽出した場合にも、当該ノイズを除去することができる。なお、他の実施形態においては、2つの特徴点に基づいて三次元モデルを配置してもよい。また、他の実施形態に係るガイダンス情報は、バケット113とベッセル210との位置関係をグラフィカルに描くものでなくてもよい。例えば、他の実施形態に係るガイダンス情報は、上方からの平面視においてバケット113がベッセル210の外枠内に位置するか否かを示す情報であってもよい。また、他の実施形態に係るガイダンス情報は、バケット113の目標の掘削位置の表示、またはバケット113の掘削位置に対するガイダンス情報(例えば、現状のバケット113の位置と目標の掘削位置との差分を示す情報、または表示)であってもよい。また、目標の掘削位置までどれくらいの操作が必要であるかを示す情報、または表示であってもよい。また、少なくともベッセル210とバケット113のみを表示するものであってもよい。
表示制御部1707は、ガイダンス情報を表示する表示信号を表示装置128に出力する。
学習部1801は、特徴点特定モデルM1および類似度特定モデルM2の学習処理を行う。なお、学習部1801は、制御装置127と別個の装置に設けられてもよい。この場合、別個の装置において学習された学習済みモデルが、ストレージ93に記録されることとなる。
《表示方法》
図8は、第1の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。
まず、データ取得部1701は、インタフェース94を介して作業機位置検出器122から作業機110の姿勢角を取得し、位置方位演算器123から、旋回体120の位置および方位を取得し、傾斜検出器124から旋回体120の傾きを取得し、ステレオカメラ125からステレオ画像を取得する(ステップS1)。次に、特徴点特定部1702は、データ取得部1701が取得したステレオ画像の右目画像を、ストレージ93に記憶された特徴点特定モデルM1に入力することで、右目画像に写るベッセル210の複数の特徴点の位置を特定する(ステップS2)。
次に、対応点特定部1703は、データ取得部1701が取得したステレオ画像の左目画像を複数の部分左目画像に分割する(ステップS3)。次に、対応点特定部1703は、右目画像から、ステップS2で特定した各特徴点を含む複数の部分右目画像を抽出する(ステップS4)。次に、対応点特定部1703は、ストレージ93に記憶された類似度特定モデルM2に、複数の部分左目画像と複数の部分右目画像とをそれぞれ1つずつ入力し、当該部分左目画像と当該部分右目画像との類似度を演算する(ステップS5)。すなわち、部分左目画像の数がN、部分右目画像の数がMである場合、N×M個の組み合わせについて、類似度の演算を実行する。対応点特定部1703は、各部分右目画像について、複数の部分左目画像の中から最も類似度が高い部分左目画像を抽出する(ステップS6)。対応点特定部1703は、左目画像のうち抽出された部分左目画像が存在する位置を、左目画像に写るベッセル210の特徴点の位置と特定する(ステップS7)。
ベッセル位置特定部1704は、ステップS2で特定した右目画像上の特徴点と、ステップS7で特定した左目画像上の特徴点と、ストレージ93に記憶されたカメラパラメータとに基づく三角測量により、車体座標系における各特徴点の位置を特定する(ステップS8)。次に、ベッセル位置特定部1704は、旋回体120の姿勢情報に基づいて、車体座標系における各特徴点の位置を、現場座標系における各特徴点の位置に変換する(ステップS9)。
作業機位置特定部1705は、データ取得部1701が取得した作業機110の姿勢角と旋回体120の姿勢情報とに基づいて、現場座標系におけるブーム111、アーム112、およびバケット113の位置を特定する(ステップS10)。
ガイダンス情報生成部1706は、ステップS9で特定した特徴点の位置と、ステップS10で特定したブーム111、アーム112、およびバケット113の位置と、ステップS1で取得した旋回体120の姿勢情報とに基づいて、図5に示すガイダンス情報を生成する(ステップS11)。表示制御部1707は、ガイダンス情報を表示する表示信号を表示装置128に出力する(ステップS12)。
《学習方法》
図9は、第1の実施形態に係る特徴点特定モデルM1の学習方法を示すフローチャートである。データ取得部1701は、学習データを取得する(ステップS101)。例えば、特徴点特定モデルM1における学習データは、ベッセル210が写る画像である。学習データは、ステレオカメラ125が撮像する画像から取得してもよい。また、他の作業機械が撮像した画像から取得してもよい。なお、ダンプトラックとは異なる作業機械、例えばホイールローダのベッセルが写る画像を学習データとしてもよい。様々な種類の作業機械のベッセルを学習データとすることで、ベッセル認識のロバスト性を向上することができる。
次に、学習部1801は、特徴点特定モデルM1の学習を行う。学習部1801は、ステップS101で取得した学習データと、ベッセルの特徴点の位置をプロットした画像である教師データとの組み合わせを学習用データセットとして、特徴点特定モデルM1の学習を行う(ステップS102)。例えば、学習部1801は、学習データを入力として用いて、ニューラルネットワーク140の順伝播方向の演算処理を行う。これにより、学習部1801は、ニューラルネットワーク140の出力層143から出力される出力値を得る。なお、学習用データセットは、メインメモリ92、またはストレージ93に記憶してもよい。次に、学習部1801は、出力層143からの出力値と、教師データとの誤差を算出する。出力層143からの出力値は、各画素について特徴点である確率を表す値であり、教師データは、特徴点の位置をプロットした情報である。学習部1801は、算出した出力値の誤差から、バックプロパゲーションにより、各ニューロン間の結合の重み、及び、各ニューロンの閾値のそれぞれの誤差を算出する。そして、学習部1801は、算出した各誤差に基づいて、各ニューロン間の結合の重み、及び、各ニューロンの閾値の更新を行う。
学習部1801は、特徴点特定モデルM1からの出力値が、教師データと一致するか否かを判定する(ステップS103)。なお、出力値と、教師データとの誤差が所定値以内であれば、一致すると判定してもよい。特徴点特定モデルM1からの出力値が、教師データと一致しない場合(ステップS103:NO)、特徴点特定モデルM1からの出力値が、教師データと一致するまで、上記の処理を繰り返す。それにより、特徴点特定モデルM1のパラメータが最適化され、特徴点特定モデルM1を学習させることができる。
特徴点特定モデルM1からの出力値が、教師データと一致する場合(ステップS103:YES)、学習部1801は、学習によって最適化されたパラメータを含む学習済みモデルである特徴点特定モデルM1を、ストレージ93に記録する(ステップS104)。
図10は、第1の実施形態に係る類似度特定モデルM2の学習方法を示すフローチャートである。データ取得部1701は、学習データを取得する(ステップS111)。例えば、類似度特定モデルM2における学習データは、対応点特定部が切り出すサイズの2つの画像パッチである。学習データは、ステレオカメラ125が撮像する画像から生成してもよい。また、任意の画像から生成してもよい。なお、ダンプトラックとは異なる作業機械、例えばホイールローダのベッセルが写る画像を学習データとしてもよい。
次に、学習部1801は、類似度特定モデルM2の学習を行う。学習部1801は、ステップS111で取得した学習データと、学習データに係る画像パッチどうしの類似度である教師データとの組み合わせを学習用データセットとして、類似度特定モデルM2の学習を行う(ステップS112)。例えば、学習部1801は、学習データに係る2つの画像をそれぞれ入力として用いて、ニューラルネットワーク140の順伝播方向の演算処理を行う。ニューラルネットワーク140は、2つの画像の特徴量を演算する。そして、距離演算部150は、2つの特徴量の距離を演算する。距離演算部150が演算する距離は、2つの画像の類似度と等価である。なお、学習用データセットは、メインメモリ92、またはストレージ93に記憶してもよい。次に、学習部1801は、距離演算部150から出力される距離と、教師データである類似度との誤差を算出する。学習部1801は、算出した出力値の誤差から、バックプロパゲーションにより、各ニューロン間の結合の重み、及び、各ニューロンの閾値のそれぞれの誤差を算出する。そして、学習部1801は、算出した各誤差に基づいて、各ニューロン間の結合の重み、及び、各ニューロンの閾値の更新を行う。
学習部1801は、類似度特定モデルM2からの出力値が、教師データと一致するか否かを判定する(ステップS113)。なお、出力値と、教師データとの誤差が所定値以内であれば、一致すると判定してもよい。類似度特定モデルM2からの出力値が、教師データと一致しない場合(ステップS113:NO)、類似度特定モデルM2からの出力値が、教師データと一致するまで、上記の処理を繰り返す。それにより、類似度特定モデルM2のパラメータが最適化され、類似度特定モデルM2を学習させることができる。
類似度特定モデルM2からの出力値が、教師データと一致する場合(ステップS113:YES)、学習部1801は、学習によって最適化されたパラメータを含む学習済みモデルである類似度特定モデルM2を、ストレージ93に記録する(ステップS114)。
《作用・効果》
このように、第1の実施形態によれば、制御装置127は、運搬物の投下対象が写る撮像画像を学習済みモデルである位置特定モデルに入力することで、撮像画像に写る投下対象の特徴点の現場における位置を特定する。このように、第1の実施形態に係る制御装置127は、投下対象の位置を、画像に含まれるエッジによらずに特定することができる。これにより、第1の実施形態に係る制御装置127は、撮像画像に轍などの直線部分が写っていたとしても、運搬物の投下対象の位置を、ロバストに特定することができる。また、ステレオカメラを用いて投下対象の位置を特定する場合、投下対象の三次元位置を特定することができる。なお、実施形態によっては、図8に示す制御装置127による処理のうち、ステップS2~ステップS7、ステップS9~S12の処理が実施されなくてもよい。
また、第1の実施形態に係る制御装置127は、ガイダンス情報を表示する。これにより、作業機械と運搬物の投下対象との相対位置によっては、オペレータは、投下対象を視認しづらい場合であっても、投下対象を認識することができる。また、ガイダンス情報として表示される投下対象を目安に作業機110を操作することによって、作業効率を高めることができる。
また、第1の実施形態に係る制御装置127は、撮像画像から、当該撮像画像上の特徴点の位置を特定し、ステレオカメラ125の姿勢に基づいて、撮像画像上の特徴点の位置から現場座標系における特徴点の位置を特定する。これにより、油圧ショベル100の動作によりステレオカメラ125の姿勢が変わる場合にも、現場座標系における特徴点の位置を特定することができる。なお、他の実施形態においては、ステレオカメラ125が施工現場に固設されたものである場合、ステレオカメラ125の姿勢情報を得ることなく、撮像画像から現場座標系における特徴点の位置を特定してもよい。
また、第1の実施形態に係る制御装置127は、右目画像から特徴点を抽出する特徴点特定モデルM1と、部分右目画像と部分左目画像の類似度を特定する類似度特定モデルM2とを用いて右目画像における特徴点および左目画像における特徴点を特定する。右目画像の特徴点を抽出するモデルと、左目画像の特徴点を抽出するモデルとを分けることで、適切に特徴点の位置が取得できなかった場合の原因を明確にすることができる。また、類似度特定モデルM2の入力画像は、特徴点特定モデルM1の入力画像と比較して小さく、計算量が小さいため、右目画像および左目画像の両方を特徴点特定モデルM1に基づいてする場合と比較して、速く計算を終えることができる。なお、第1の実施形態に係る制御装置127は、特徴点特定モデルM1を用いて右目画像から特徴点を抽出し、類似度特定モデルM2を用いて左目画像における特徴点を特定するが、これに限られない。例えば、他の実施形態においては、制御装置127は、特徴点特定モデルM1を用いて左目画像から特徴点を抽出し、類似度特定モデルM2を用いて右目画像における特徴点を特定してもよい。
〈第2の実施形態〉
以下、図面を参照しながら第2の実施形態について説明する。第1の実施形態に係る制御装置127は、特徴点特定モデルM1と類似度特定モデルM2を用いて、それぞれ右目画像上の特徴点の位置および左目画像上の特徴点の位置を特定する。これに対し、第2の実施形態に係る制御装置127は、1つの学習済みモデルを用いて、右目画像上の特徴点の位置および左目画像上の特徴点の位置を特定する。
《制御装置の構成》
図11は、第2の実施形態に係る制御装置の構成を示す概略ブロック図である。
第2の実施形態に係るプロセッサ91は、第1の実施形態に係る特徴点特定部1702および対応点特定部1703に代えて、ステレオ特徴点特定部1708を備える。また、ストレージ93には、第1の実施形態に係る特徴点特定モデルM1および類似度特定モデルM2に代えて、ステレオ特徴点特定モデルM3が記憶される。
ステレオ特徴点特定部1708は、データ取得部1701が取得したステレオ画像を、ストレージ93に記憶されたステレオ特徴点特定モデルM3に入力することで、右目画像および左目画像に写るベッセル210の複数の特徴点の位置をそれぞれ特定する。ステレオ特徴点特定部1708は、ステレオ位置特定部の一例である。
ステレオ特徴点特定モデルM3は、例えば、DNN(Deep Neural Network)の学習済みモデルによって実現される。つまり、ステレオ特徴点特定モデルM3は、図5に示すニューラルネットワーク140を備える。ステレオ特徴点特定モデルM3は、ダンプトラック200のベッセル210が写るステレオ画像が入力された場合に、当該ステレオ画像の右目画像および左目画像におけるベッセル210の特徴点の位置をそれぞれ出力するように訓練された学習済みモデルである。ステレオ特徴点特定モデルM3は、例えば、ステレオマッチングモデルの転移学習により生成することができる。ステレオマッチングモデルとは、ステレオマッチング用に訓練された学習済みモデルであって、例えば、ステレオ画像が入力された場合に、深度を示す深度画像を出力するモデルである。ステレオマッチングモデルは、必ずしもダンプトラックが写るステレオによって学習されたものでなくてよい。具体的には、ステレオ特徴点特定モデルM3は、ステレオマッチングモデルの出力層を、当該ステレオ画像の右目画像および左目画像におけるベッセル210の特徴点の位置を出力するように置換したモデルに対し、入力層および入力層側の一部の中間層の値を固定し、ダンプトラック200のベッセル210が写るステレオ画像と、右目画像および左目画像における複数の特徴点の位置との組み合わせを教師データとして用いて訓練される。ステレオ特徴点特定モデルM3は、位置特定モデルの一例である。
《表示方法》
図12は、第2の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。
まず、データ取得部1701は、インタフェース94を介して作業機位置検出器122から作業機110の姿勢角を取得し、位置方位演算器123から、旋回体120の位置および方位を取得し、傾斜検出器124から旋回体120の傾きを取得し、ステレオカメラ125からステレオ画像を取得する(ステップS21)。次に、ステレオ特徴点特定部1708は、データ取得部1701が取得したステレオ画像を、ストレージ93に記憶されたステレオ特徴点特定モデルM3に入力することで、右目画像および左目画像に写るベッセル210の複数の特徴点の位置を特定する(ステップS22)。
ベッセル位置特定部1704は、ステップS22で特定した右目画像および左目画像の特徴点と、ストレージ93に記憶されたカメラパラメータとに基づく三角測量により、車体座標系における各特徴点の位置を特定する(ステップS23)。次に、ベッセル位置特定部1704は、旋回体120の姿勢情報に基づいて、車体座標系における各特徴点の位置を、現場座標系における各特徴点の位置に変換する(ステップS24)。
作業機位置特定部1705は、ステップS21で取得した作業機110の姿勢角と旋回体120の姿勢情報とに基づいて、現場座標系におけるブーム111、アーム112、およびバケット113の位置を特定する(ステップS25)。
ガイダンス情報生成部1706は、ステップS23で特定した特徴点の位置と、ステップS25で特定したブーム111、アーム112、およびバケット113の位置と、ステップS21で取得した旋回体120の姿勢情報とに基づいて、ガイダンス情報を生成する(ステップS26)。表示制御部1707は、ガイダンス情報を表示する表示信号を表示装置128に出力する(ステップS27)。
《学習方法》
図13は、第2の実施形態に係るステレオ特徴点特定モデルM3の学習方法を示すフローチャートである。データ取得部1701は、学習データを取得する(ステップS121)。例えば、学習データは、ベッセル210が写るステレオ画像である。また、他の作業機械が撮像したステレオ画像から取得してもよい。
次に、学習部1801は、ステレオ特徴点特定モデルM3の学習を行う。なお、ステレオ特徴点特定モデルM3のパラメータの初期値として、入力層141および一部の中間層142のパラメータは、既存の学習済みステレオマッチングモデルのパラメータを流用してよい。学習部1801は、学習データであるベッセル210が写るステレオ画像と、教師データである右目画像のベッセルの特徴点の位置をプロットした画像と左目画像のベッセルの特徴点の位置をプロットした画像との組み合わせを学習用データセットとして、学習モデルの学習を行う(ステップS122)。すなわち、教師データは、ベッセルの特徴点の位置をプロットしたステレオ画像である。なお、学習用データセットは、メインメモリ92、またはストレージ93に記憶してもよい。
学習部1801は、ステレオ特徴点特定モデルM3からの出力値が、教師データと一致するか否かを判定する(ステップS123)。なお、出力値と、教師データとの誤差が所定値以内であれば、一致すると判定してもよい。ステレオ特徴点特定モデルM3からの出力値が、教師データと一致しない場合(ステップS123:NO)、ステレオ特徴点特定モデルM3からの出力値が、教師データと一致するまで、上記の処理を繰り返す。それにより、学習モデルのパラメータが最適化され、学習を学習させることができる。
ステレオ特徴点特定モデルM3からの出力値が、教師データと一致する場合(ステップS123:YES)、制御装置127は、学習によって最適化されたパラメータを学習済みパラメータとする学習済みモデルであるステレオ特徴点特定モデルM3をストレージ93に保存する(ステップS124)。
《作用・効果》
このように、第2の実施形態によれば、制御装置127は、ステレオ画像から特徴点を抽出するステレオ特徴点特定モデルM3を用いて右目画像における特徴点および左目画像における特徴点を特定する。ステレオ特徴点特定モデルM3は、ステレオマッチングモデルの強化学習により得ることができるため、少ない学習コストで、ステレオ特徴点特定モデルM3を生成することができる。
〈第3の実施形態〉
以下、図面を参照しながら第3の実施形態について説明する。第1の実施形態および第2の実施形態に係る制御装置127は、学習済みモデルを用いて、画像上の特徴点の位置を特定し、これに基づく三角測量により、特徴点の三次元位置を特定する。これに対し、第3の実施形態に係る制御装置127は、学習済みモデルを用いて、特徴点の三次元位置を特定する。
《制御装置の構成》
図14は、第3の実施形態に係る制御装置の構成を示す概略ブロック図である。
第3の実施形態に係るプロセッサ91は、第1の実施形態に係る特徴点特定部1702および対応点特定部1703に代えて、三次元特徴点特定部1709を備える。また、ストレージ93には、第1の実施形態に係る特徴点特定モデルM1および類似度特定モデルM2に代えて、三次元特徴点特定モデルM4が記憶される。また第3の実施形態に係るストレージ93は、カメラパラメータを記憶しなくてもよい。
三次元特徴点特定部1709は、データ取得部1701が取得したステレオ画像を、ストレージ93に記憶された三次元特徴点特定モデルM4に入力することで、ベッセル210の複数の特徴点の車体座標系における位置をそれぞれ特定する。
三次元特徴点特定モデルM4は、例えば、DNNの学習済みモデルによって実現される。三次元特徴点特定モデルM4は、ダンプトラック200のベッセル210が写るステレオ画像が入力された場合に、特徴点の車体座標系における位置を出力するように訓練された学習済みモデルである。例えば、ステレオ特徴点特定モデルM3は、ダンプトラック200のベッセル210が写るステレオ画像と、車体座標系における複数の特徴点の位置との組み合わせを教師データとして用いて訓練される。
《表示方法》
図15は、第3の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。
まず、データ取得部1701は、インタフェース94を介して作業機位置検出器122から作業機110の姿勢角を取得し、位置方位演算器123から、旋回体120の位置および方位を取得し、傾斜検出器124から旋回体120の傾きを取得し、ステレオカメラ125からステレオ画像を取得する(ステップS41)。次に、三次元特徴点特定部1709は、データ取得部1701が取得したステレオ画像を、ストレージ93に記憶された三次元特徴点特定モデルM4に入力することで、車体座標系におけるベッセル210の複数の特徴点の位置を特定する(ステップS42)。ベッセル位置特定部1704は、ステップS41で取得した旋回体120の姿勢情報に基づいて、車体座標系における各特徴点の位置を、現場座標系における各特徴点の位置に変換する(ステップS43)。
作業機位置特定部1705は、ステップS41で取得した作業機110の姿勢角と旋回体120の姿勢情報とに基づいて、現場座標系におけるブーム111、アーム112、およびバケット113の位置を特定する(ステップS44)。
ガイダンス情報生成部1706は、ステップS43で特定した特徴点の位置と、ステップS44で特定したブーム111、アーム112、およびバケット113の位置と、ステップS41で取得した旋回体120の姿勢情報とに基づいて、ガイダンス情報を生成する(ステップS45)。表示制御部1707は、ガイダンス情報を表示する表示信号を表示装置128に出力する(ステップS46)。
《学習方法》
図16は、第3の実施形態に係る三次元特徴点特定モデルM4の学習方法を示すフローチャートである。データ取得部1701は、学習データを取得する(ステップS141)。例えば、学習データは、ベッセル210が写るステレオ画像である。学習データは、ステレオカメラ125が撮像する画像から取得してもよい。また、他の作業機械が撮像した画像から取得してもよい。
次に、学習部1801は、三次元特徴点特定モデルM4の学習を行う。学習部1801は、学習データであるベッセル210が写るステレオ画像と、教師データである車体座標系における複数の特徴点の位置との組み合わせを学習用データセットとして、三次元特徴点特定モデルM4の学習を行う(ステップS142)。なお、学習用データセットは、メインメモリ92、またはストレージ93に記憶してもよい。
学習部1801は、三次元特徴点特定モデルM4からの出力値が、教師データと一致するか否かを判定する(ステップS143)。なお、出力値と、教師データとの誤差が所定値以内であれば、一致すると判定してもよい。三次元特徴点特定モデルM4からの出力値が、教師データと一致しない場合(ステップS143:NO)、出力値が教師データと一致するまで、上記の処理を繰り返す。それにより、三次元特徴点特定モデルM4のパラメータが最適化され、三次元特徴点特定モデルM4を学習させることができる。
三次元特徴点特定モデルM4からの出力値が、教師データと一致する場合(ステップS143:YES)、学習部1801は、学習によって最適化されたパラメータを学習済みパラメータとする学習済みモデルである三次元特徴点特定モデルM4をストレージ93に保存する(ステップS144)。
《作用・効果》
このように、第3の実施形態によれば、制御装置127は、ステレオ画像から特徴点の三次元位置を抽出する三次元特徴点特定モデルM4を用いて車体座標系における特徴点の位置を特定する。これにより、制御装置127は、少ない構成でダンプトラック200の位置を特定することができる。
〈第4の実施形態〉
以下、図面を参照しながら第4の実施形態について説明する。第1の実施形態に係る制御装置127は、特徴点特定モデルM1と類似度特定モデルM2を用いて、それぞれ右目画像上の特徴点の位置および左目画像上の特徴点の位置を特定する。これに対し、第4の実施形態に係る制御装置127は、特徴点特定モデルM1と、ステレオ画像から深度画像を生成するステレオマッチングモデルM5とを用いて、特徴点の三次元位置を特定する。
《制御装置の構成》
図17は、第4の実施形態に係る制御装置の構成を示す概略ブロック図である。
第4の実施形態に係るプロセッサ91は、第1の実施形態に係る対応点特定部1703に代えて、深度画像生成部1710を備える。また、ストレージ93には、第1の実施形態に係る類似度特定モデルM2に代えて、ステレオマッチングモデルM5が記憶される。また第3の実施形態に係るストレージ93は、カメラパラメータを記憶しなくてもよい。
深度画像生成部1710は、データ取得部1701が取得したステレオ画像を、ストレージ93に記憶されたステレオマッチングモデルM5に入力することで、右目画像の各画素についての深度情報を含む深度画像を出力する。ステレオマッチングモデルM5は、例えば、DNNの学習済みモデルによって実現される。ステレオマッチングモデルM5は、ステレオマッチング用に訓練された学習済みモデルであって、例えば、ステレオ画像が入力された場合に、深度を示す深度画像を出力するモデルである。ステレオマッチングモデルは、必ずしもダンプトラックが写るステレオによって訓練されたものでなくてよい。
《表示方法》
図18は、第4の実施形態に係る制御装置によるガイダンス情報の表示方法を示すフローチャートである。
まず、データ取得部1701は、インタフェース94を介して作業機位置検出器122から作業機110の姿勢角を取得し、位置方位演算器123から、旋回体120の位置および方位を取得し、傾斜検出器124から旋回体120の傾きを取得し、ステレオカメラ125からステレオ画像を取得する(ステップS61)。次に、特徴点特定部1702は、データ取得部1701が取得したステレオ画像の右目画像を、ストレージ93に記憶された特徴点特定モデルM1に入力することで、右目画像に写るベッセル210の複数の特徴点の位置を特定する(ステップS62)。
次に、深度画像生成部1710は、データ取得部1701が取得したステレオ画像をステレオマッチングモデルM5に入力することで、深度画像を生成する(ステップS63)。ベッセル位置特定部1704は、ステップS62で特定した右目画像上の特徴点に対応する深度を、ステップS63で生成した深度画像から読み取ることで、車体座標系における各特徴点の位置を特定する(ステップS64)。次に、ベッセル位置特定部1704は、旋回体120の姿勢情報に基づいて、車体座標系における各特徴点の位置を、現場座標系における各特徴点の位置に変換する(ステップS65)。
作業機位置特定部1705は、データ取得部1701が取得した作業機110の姿勢角と旋回体120の姿勢情報とに基づいて、現場座標系におけるブーム111、アーム112、およびバケット113の位置を特定する(ステップS66)。
ガイダンス情報生成部1706は、ステップS65で特定した特徴点の位置と、ステップS66で特定したブーム111、アーム112、およびバケット113の位置と、ステップS61で取得した旋回体120の姿勢情報とに基づいて、ガイダンス情報を生成する(ステップS67)。表示制御部1707は、ガイダンス情報を表示する表示信号を表示装置128に出力する(ステップS68)。
《学習方法》
図19は、第4の実施形態に係るステレオマッチングモデルM5の学習方法を示すフローチャートである。データ取得部1701は、学習データを取得する(ステップS161)。例えば、学習データは、ステレオ画像である。学習データは、ステレオカメラ125が撮像する画像から取得してもよい。また、他の作業機械が撮像した画像から取得してもよい。なお、学習データは、必ずしもベッセル210が写る画像でなくてよい。
次に、学習部1801は、ステレオマッチングモデルM5の学習を行う。学習部1801は、学習データであるステレオ画像と、教師データである右目画像の各画素についての深度を表す深度画像との組み合わせを学習用データセットとして、ステレオマッチングモデルM5の学習を行う(ステップS162)。なお、学習用データセットは、メインメモリ92、またはストレージ93に記憶してもよい。
学習部1801は、ステレオマッチングモデルM5からの出力値が教師データと一致するか否かを判定する(ステップS163)。なお、出力値と、教師データとの誤差が所定値以内であれば、一致すると判定してもよい。ステレオマッチングモデルM5からの出力値が教師データと一致しない場合(ステップS163:NO)、出力値が教師データと一致するまで、上記の処理を繰り返す。それにより、ステレオマッチングモデルM5のパラメータが最適化され、ステレオマッチングモデルM5を学習させることができる。
他方、ステレオマッチングモデルM5からの出力値が教師データと一致する場合(ステップS163:YES)、制御装置127は、学習によって最適化されたパラメータを学習済みパラメータとする学習済みモデルであるステレオマッチングモデルM5をしてストレージ93に保存する(ステップS164)。
《作用・効果》
このように、第4の実施形態によれば、制御装置127は、ステレオ画像から深度画像を生成するステレオマッチングモデルM5を用いて車体座標系における特徴点の位置を特定する。これにより、制御装置127は、既知のステレオマッチングモデルM5を利用してダンプトラック200の位置を特定することができる。
なお、第4の実施形態に係る制御装置127は、特徴点特定モデルM1を用いて右目画像から特徴点を抽出するが、これに限られない。例えば、他の実施形態においては、制御装置127は、特徴点特定モデルM1を用いて左目画像から特徴点を抽出してもよい。
〈第5の実施形態〉
以下、図面を参照しながら第5の実施形態について説明する。第1から第4の実施形態に係る制御装置127は、特定したベッセル210の特徴点の位置に基づいてガイダンス情報を生成し、これをオペレータに提示する。これに対し、第5の実施形態に係る制御装置127は、特定したベッセル210の特徴点の位置に基づいて作業機の積込作業を制御する。
《制御装置の構成》
図20は、第5の実施形態に係る制御装置の構成を示す概略ブロック図である。
第5の実施形態に係るプロセッサ91は、第1の実施形態に係るガイダンス情報生成部1706および表示制御部1707に代えて、作業機械制御部1711を備える。
作業機械制御部1711は、オペレータによって、操作装置126に設けられた自動積込ボタンの押下がなされた場合に、ベッセル位置特定部1704が特定したベッセル210の特徴点の位置に基づいて、旋回体120および作業機110の挙動を制御する。
《表示方法》
図21は、第5の実施形態に係る油圧ショベルの制御方法を示すフローチャートである。
自動積込ボタンが押下されると、制御装置127は、第1の実施形態のステップS1からステップS10までと同様の処理により、ベッセル210の特徴点および作業機110の現場座標系における位置を特定する。そして、作業機械制御部1711は、ベッセル210の特徴点および作業機110の現場座標系における位置に基づいて、旋回体120および作業機110の制御信号を生成し、出力する(ステップS81)。
例えば、作業機械制御部1711は、バケット113の高さが特徴点の高さより低い場合、ブーム111を上げる制御信号を生成する。作業機械制御部1711は、バケット113の高さが特徴点の高さ以上になった場合、ブーム111を上げる制御信号の出力を停止し、旋回体120を旋回させる制御信号の出力を開始する。作業機械制御部1711は、バケット113の高さが特徴点の高さ以上であり、かつバケット113の上方から平面視したときの位置が、特徴点の位置から特定されるベッセル210の範囲内に位置する場合、旋回体120を旋回させる制御信号の出力を停止し、バケット113をダンプさせる制御信号を生成する。
《作用・効果》
このように、第5の実施形態によれば、制御装置127は、撮像画像に基づいて油圧ショベル100を自動制御することができる。制御装置127は、学習済みモデルを用いてベッセル210の位置を特定するため、撮像画像に轍などの直線部分が写っていたとしても、運搬物の投下対象の位置を、ロバストに特定することができる。
なお、第5の実施形態に係る制御装置127は、第1の実施形態と同様の学習済みモデルを用いてベッセル210の位置を特定するが、これに限られず、第2から第4の実施形態に係る学習済みモデルを用いてベッセル210の位置を特定してもよい。
また、第5の実施形態に係る制御装置127は、特徴点特定モデルM1を用いて右目画像から特徴点を抽出し、類似度特定モデルM2を用いて左目画像における特徴点を特定するが、これに限られない。例えば、他の実施形態においては、制御装置127は、特徴点特定モデルM1を用いて左目画像から特徴点を抽出し、類似度特定モデルM2を用いて右目画像における特徴点を特定してもよい。
〈他の実施形態〉
以上、図面を参照して一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、様々な設計変更等をすることが可能である。
例えば、上述の実施形態に係る制御装置127は、油圧ショベル100に搭載されるが、これに限られない。例えば、他の実施形態に係る制御装置127は、遠隔のサーバ装置に設けられてもよい。また、制御装置127は、複数のコンピュータから実現されるものであってもよい。この場合、制御装置127の一部の構成が遠隔のサーバ装置に設けられるものであってもよい。すなわち、制御装置127は、複数の装置からなる画像処理システムとして実装されてもよい。また、油圧ショベル100は、完全自律型、一部自律型の油圧ショベルであってもよい。また、ガイダンス情報を表示する表示信号を作業機械を遠隔操作するための遠隔運転室に送信するものであってもよい。
また、上述の実施形態に係る投下対象は、ダンプトラック200のベッセル210だが、これに限られない。例えば、他の実施形態に係る投下対象は、ホッパなどの他の投下対象であってもよい。
また、上述の実施形態に係る撮像画像はステレオ画像であるが、これに限られない。例えば、他の実施形態においては、ステレオ画像に代えて1枚の画像に基づいて計算を行ってもよい。この場合、制御装置127は、例えば1枚の画像から深度情報を生成する学習済みモデルを用いることで、現場座標系における特徴点の位置を特定することができる。
また、上述の実施形態に係る学習済みモデルは、それぞれストレージ93に記憶されているが、これに限られない。例えば、他の実施形態に係る学習済みモデルは、プログラムの形式でメインメモリ92に展開されて、プロセッサ91が推論を行うものであってもよい。
91…プロセッサ 92…メインメモリ 93…ストレージ 94…インタフェース 100…油圧ショベル 110…作業機 111…ブーム 112…アーム 113…バケット 114…ブームシリンダ 115…アームシリンダ 116…バケットシリンダ 120…旋回体 121…運転室 122…作業機位置検出器 123…位置方位演算器 1231…第1受信器 1232…第2受信器 124…傾斜検出器 125…ステレオカメラ 1251…右側カメラ 1252…左側カメラ 126…操作装置 127…制御装置 1701…データ取得部 1702…特徴点特定部 1704…ベッセル位置特定部 1705…作業機位置特定部 1706…ガイダンス情報生成部 1707…表示制御部 1703…対応点特定部 1708…ステレオ特徴点特定部 1709…三次元特徴点特定部 1710…深度画像生成部 1711…作業機械制御部 128…表示装置 130…走行体 200…ダンプトラック 210…ベッセル P1…ブームピン P2…アームピン P3…バケットピン L…運搬物 CP…カメラパラメータ M1…特徴点特定モデル M2…類似度特定モデル M3…ステレオ特徴点特定モデル M4…三次元特徴点特定モデル M5…ステレオマッチングモデル

Claims (10)

  1. 作業機械の運搬物の投下対象が写る撮像画像を取得するデータ取得部と、
    画像を入力することで前記画像に写る投下対象の所定の部分の位置を出力する学習済みモデルである位置特定モデルと前記撮像画像とに基づいて、前記撮像画像に写る前記投下対象の所定の部分の位置を特定する位置特定部と
    を備え
    前記位置特定モデルは、前記画像における前記部分の位置を示す情報を出力し、
    前記位置特定部は、前記撮像画像を前記位置特定モデルに入力することで出力される前記画像における前記部分の位置を示す情報に基づいて、前記部分の三次元位置を特定する 画像処理システム。
  2. 前記撮像画像は、ステレオカメラによって撮像された、少なくとも第1画像と第2画像を含むステレオ画像である
    請求項1に記載の画像処理システム。
  3. 前記第1画像を前記位置特定モデルに入力することで、前記第1画像における前記部分の位置を特定する第1位置特定部と、
    特定された前記第1画像における前記部分の位置に基づいて、前記第2画像における前記部分の位置を特定する第2位置特定部と、
    を備え、
    前記位置特定部は、前記第1画像における前記部分の位置と、前記第2画像における前記部分の位置とに基づいて、前記部分の三次元位置を特定する
    請求項2に記載の画像処理システム。
  4. 前記第2位置特定部は、前記第1画像と、前記第2画像と、前記第1画像における投下対象の所定の部分の位置とを入力することで、前記第2画像における投下対象の所定の部分の位置を出力する学習済みモデルである対応位置特定モデルに基づいて、前記第2画像における前記部分の位置を特定する
    請求項3に記載の画像処理システム。
  5. 前記位置特定モデルに前記第1画像と前記第2画像とを入力することで、前記第1画像における前記部分の位置および前記第2画像における前記部分の位置を特定するステレオ位置特定部を備え、
    前記位置特定部は、前記第1画像における前記部分の位置と、前記第2画像における前記部分の位置とに基づいて、前記部分の三次元位置を特定する
    請求項2に記載の画像処理システム。
  6. 前記データ取得部は、前記撮像画像を撮像する撮像装置の撮像姿勢を取得し、
    前記位置特定部は、特定された前記部分の位置と、前記撮像姿勢とに基づいて、前記部分の現場における三次元位置を特定する
    請求項1から請求項5のいずれか1項に記載の画像処理システム。
  7. 作業機械の運搬物の投下対象が写る撮像画像を取得するデータ取得部と、
    画像を入力することで前記画像に写る投下対象の所定の部分の位置を出力する学習済みモデルである位置特定モデルと前記撮像画像とに基づいて、前記撮像画像に写る前記投下対象の所定の部分の位置を特定する位置特定部と
    を備え、
    前記データ取得部は、前記撮像画像の撮像位置を取得し、
    前記撮像画像は、ステレオカメラによって撮像された、少なくとも第1画像と第2画像を含むステレオ画像であって、
    前記位置特定モデルは、前記第1画像および前記第2画像を入力することで、前記ステレオカメラを基準とした前記部分の三次元位置を示す情報を出力し、
    前記位置特定部は、前記第1画像および前記第2画像を前記位置特定モデルに入力することで出力される前記ステレオカメラを基準とした前記三次元位置を示す情報と、前記撮像位置とに基づいて、前記部分の現場における三次元位置を特定する
    像処理システム。
  8. 請求項1から請求項7のいずれか1項に記載の画像処理システムが特定した前記運搬物の投下対象の所定の部分の位置に関する情報を表示する表示装置。
  9. 撮像装置から、作業機械の運搬物の投下対象が写る撮像画像を取得するステップと、
    画像を入力することで前記画像に写る投下対象の所定の部分の位置を出力する学習済みモデルである位置特定モデルと前記撮像画像とに基づいて、前記撮像画像に写る前記投下対象の所定の部分の位置を特定するステップと
    を備え
    前記位置特定モデルは、前記画像における前記部分の位置を示す情報を出力し、
    前記位置を特定するステップは、前記撮像画像を前記位置特定モデルに入力することで出力される前記画像における前記部分の位置を示す情報に基づいて、前記部分の三次元位置を特定する
    画像処理方法。
  10. 撮像装置から、作業機械の運搬物の投下対象が写る撮像画像と前記撮像画像の撮像位置とを取得するステップと、
    画像を入力することで前記画像に写る投下対象の所定の部分の位置を出力する学習済みモデルである位置特定モデルと前記撮像画像とに基づいて、前記撮像画像に写る前記投下対象の所定の部分の位置を特定するステップと
    を備え、
    前記撮像画像は、ステレオカメラによって撮像された、少なくとも第1画像と第2画像を含むステレオ画像であって、
    前記位置特定モデルは、前記第1画像および前記第2画像を入力することで、前記ステレオカメラを基準とした前記部分の三次元位置を示す情報を出力し、
    前記位置を特定するステップは、前記第1画像および前記第2画像を前記位置特定モデルに入力することで出力される前記ステレオカメラを基準とした前記三次元位置を示す情報と、前記撮像位置とに基づいて、前記部分の現場における三次元位置を特定する
    画像処理システム。
JP2018163670A 2018-08-31 2018-08-31 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット Active JP7166108B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2018163670A JP7166108B2 (ja) 2018-08-31 2018-08-31 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット
PCT/JP2019/028510 WO2020044852A1 (ja) 2018-08-31 2019-07-19 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット
CN201980048815.8A CN112469869A (zh) 2018-08-31 2019-07-19 图像处理系统、显示装置、图像处理方法、学习完毕模型的生成方法以及学习用数据集
DE112019003159.7T DE112019003159T5 (de) 2018-08-31 2019-07-19 Bildverarbeitungssystem, anzeigevorrichtung, bildverarbeitungsverfahren, verfahren zur erzeugung eines trainierten modells und datensatz zum lernen
US17/261,701 US11414837B2 (en) 2018-08-31 2019-07-19 Image processing system, display device, image processing method, method for generating trained model, and dataset for learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018163670A JP7166108B2 (ja) 2018-08-31 2018-08-31 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット

Publications (2)

Publication Number Publication Date
JP2020035380A JP2020035380A (ja) 2020-03-05
JP7166108B2 true JP7166108B2 (ja) 2022-11-07

Family

ID=69645168

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018163670A Active JP7166108B2 (ja) 2018-08-31 2018-08-31 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット

Country Status (5)

Country Link
US (1) US11414837B2 (ja)
JP (1) JP7166108B2 (ja)
CN (1) CN112469869A (ja)
DE (1) DE112019003159T5 (ja)
WO (1) WO2020044852A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11348269B1 (en) * 2017-07-27 2022-05-31 AI Incorporated Method and apparatus for combining data to construct a floor plan
JP7088691B2 (ja) * 2018-02-28 2022-06-21 株式会社小松製作所 積込機械の制御装置、制御方法および遠隔操作システム
CN113167051A (zh) * 2018-11-14 2021-07-23 住友重机械工业株式会社 挖土机、挖土机的控制装置
CN109816778B (zh) * 2019-01-25 2023-04-07 北京百度网讯科技有限公司 物料堆三维重建方法、装置、电子设备和计算机可读介质
JP7283332B2 (ja) * 2019-09-26 2023-05-30 コベルコ建機株式会社 容器計測システム
CN111861952B (zh) * 2020-06-05 2023-11-24 北京嘀嘀无限科技发展有限公司 一种图像生成模型、卡号识别模型的训练方法及装置
CN111895931B (zh) * 2020-07-17 2021-11-26 嘉兴泊令科技有限公司 一种基于计算机视觉的煤矿作业区标定方法
JP7076509B2 (ja) * 2020-08-24 2022-05-27 卓也 生駒 システム及びプログラム
JP2022054072A (ja) 2020-09-25 2022-04-06 コベルコ建機株式会社 位置検出システム
JP2022055913A (ja) * 2020-09-29 2022-04-08 コベルコ建機株式会社 自動均しシステム
JP7452473B2 (ja) * 2021-03-08 2024-03-19 コベルコ建機株式会社 容器計測システム
JP2023152458A (ja) * 2022-04-04 2023-10-17 日立建機株式会社 作業機械

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016089559A (ja) 2014-11-10 2016-05-23 日立建機株式会社 建設機械
JP2016153984A (ja) 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両
JP2018077829A (ja) 2016-11-09 2018-05-17 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置およびプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5142658A (en) * 1991-10-18 1992-08-25 Daniel H. Wagner Associates, Inc. Container chassis positioning system
JP2000192514A (ja) 1998-12-28 2000-07-11 Hitachi Constr Mach Co Ltd 自動運転建設機械およびその運転方法
JP5135380B2 (ja) * 2010-04-12 2013-02-06 住友重機械工業株式会社 処理対象画像生成装置、処理対象画像生成方法、及び操作支援システム
JP5597596B2 (ja) * 2011-06-07 2014-10-01 株式会社小松製作所 作業車両の周辺監視装置
CN103649426B (zh) * 2012-01-27 2016-05-11 斗山英维高株式会社 建筑机械的操作安全性提高装置
WO2015087430A1 (ja) * 2013-12-12 2015-06-18 日立建機株式会社 車両走行システム及び車両走行制御方法
CN103900497B (zh) * 2014-03-06 2016-06-15 西南交通大学 基于视觉测量的非接触式挖掘机工作装置姿态测量方法
JP5999127B2 (ja) 2014-03-12 2016-09-28 トヨタ自動車株式会社 画像処理装置
JP6228538B2 (ja) * 2014-04-25 2017-11-08 株式会社小松製作所 周辺監視システム、作業車両、及び周辺監視方法
CA2955224C (en) * 2014-08-08 2020-05-26 Applied Research Associates, Inc. Systems, methods, and apparatuses for measuring deformation of a surface
JP6916415B2 (ja) * 2016-07-04 2021-08-11 株式会社ニコン 画像処理装置、撮像装置
JP2018134712A (ja) * 2017-02-22 2018-08-30 富士フイルム株式会社 ロボットシステム及びロボットシステムの制御方法
CN107506711B (zh) * 2017-08-15 2020-06-30 江苏科技大学 基于卷积神经网络的双目视觉障碍物检测系统及方法
DE102017124788A1 (de) * 2017-10-24 2019-04-25 Jungheinrich Ag Verfahren zur Fahrunterstützung bei einem Flurförderzeug und Flurförderzeug
CN108007345A (zh) * 2017-12-01 2018-05-08 南京工业大学 一种基于单目相机的挖掘机工作装置测量方法
EP3779070A4 (en) * 2018-03-26 2021-11-17 Sumitomo (S.H.I.) Construction Machinery Co., Ltd. EXCAVATOR
JP7166088B2 (ja) * 2018-06-28 2022-11-07 株式会社小松製作所 作業車両による作業を判定するためのシステム、方法、及び学習済みモデルの製造方法
US10630944B2 (en) * 2018-07-09 2020-04-21 Zebra Technologies Corporation Method and system for door status detection and alert generation
DE102018120333A1 (de) * 2018-08-21 2020-02-27 Wabco Europe Bvba Verfahren zur Überwachung des Laderaums in einem Fahrzeug
JP7311250B2 (ja) * 2018-08-31 2023-07-19 株式会社小松製作所 作業機械の運搬物特定装置、作業機械、作業機械の運搬物特定方法、補完モデルの生産方法、および学習用データセット
CN111226009B (zh) * 2018-09-25 2022-03-04 日立建机株式会社 作业机的外形形状测定系统、作业机的外形形状显示系统、作业机的控制系统以及作业机械
US11615707B2 (en) * 2019-05-29 2023-03-28 Deere & Company Guidance display system for work vehicles and work implements
US11436835B2 (en) * 2020-02-12 2022-09-06 Zebra Technologies Corporation Method for detecting trailer status using combined 3D algorithms and 2D machine learning models

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016089559A (ja) 2014-11-10 2016-05-23 日立建機株式会社 建設機械
JP2016153984A (ja) 2015-02-20 2016-08-25 株式会社デンソーアイティーラボラトリ ニューラルネットワーク処理装置、ニューラルネットワーク処理方法、検出装置、検出方法、および、車両
JP2018077829A (ja) 2016-11-09 2018-05-17 パナソニックIpマネジメント株式会社 情報処理方法、情報処理装置およびプログラム

Also Published As

Publication number Publication date
US11414837B2 (en) 2022-08-16
CN112469869A (zh) 2021-03-09
DE112019003159T5 (de) 2021-04-15
WO2020044852A1 (ja) 2020-03-05
US20210292998A1 (en) 2021-09-23
JP2020035380A (ja) 2020-03-05

Similar Documents

Publication Publication Date Title
JP7166108B2 (ja) 画像処理システム、表示装置、画像処理方法、学習済みモデルの生成方法、および学習用データセット
JP7365122B2 (ja) 画像処理システムおよび画像処理方法
US11494930B2 (en) Techniques for volumetric estimation
US9990543B2 (en) Vehicle exterior moving object detection system
US9322148B2 (en) System and method for terrain mapping
JP3720972B2 (ja) 地形形状計測装置
JP7285051B2 (ja) 表示制御装置、および表示制御方法
CN110805093B (zh) 利用视觉传感器进行反馈回路控制的容器角度感测
US20150046044A1 (en) Method for selecting an attack pose for a working machine having a bucket
JP7188941B2 (ja) 作業機械の制御装置および制御方法
US20200150668A1 (en) Autonomous Truck Unloading for Mining and Construction Applications
JP7376264B2 (ja) 作業機械を含むシステム、および作業機械
US20180088591A1 (en) Systems, methods, and apparatus for dynamically planning machine dumping operations
JP6918716B2 (ja) 建設機械
US20200401134A1 (en) Autonomous Truck Unloading for Mining and Construction Applications
WO2020090985A1 (ja) 表示制御システムおよび表示制御方法
CN113167054A (zh) 包括作业机械的系统、由计算机执行的方法、学习完成的位置推定模型的制造方法以及学习用数据
WO2021002249A1 (ja) 学習済みの作業分類推定モデルの製造方法、学習用データ、コンピュータによって実行される方法、および作業機械を含むシステム
WO2020044848A1 (ja) 作業機械の運搬物特定装置、作業機械、作業機械の運搬物特定方法、補完モデルの生産方法、および学習用データセット
JP7458155B2 (ja) 表示システム、遠隔操作システム、及び表示方法
US20240135554A1 (en) Visual localization and feature detection for an implement tracking system
WO2023190843A1 (ja) 支援装置、作業機械、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221025

R150 Certificate of patent or registration of utility model

Ref document number: 7166108

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150