JP7221183B2 - 機械学習方法、フォークリフト制御方法、及び機械学習装置 - Google Patents

機械学習方法、フォークリフト制御方法、及び機械学習装置 Download PDF

Info

Publication number
JP7221183B2
JP7221183B2 JP2019171829A JP2019171829A JP7221183B2 JP 7221183 B2 JP7221183 B2 JP 7221183B2 JP 2019171829 A JP2019171829 A JP 2019171829A JP 2019171829 A JP2019171829 A JP 2019171829A JP 7221183 B2 JP7221183 B2 JP 7221183B2
Authority
JP
Japan
Prior art keywords
category
data
forklift
estimation
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019171829A
Other languages
English (en)
Other versions
JP2021047825A (ja
Inventor
宣隆 木村
宏一 瀬戸
豊 岩本
秀和 伊藤
宏視 荒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Solutions Ltd
Original Assignee
Hitachi Ltd
Hitachi Solutions Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Solutions Ltd filed Critical Hitachi Ltd
Priority to JP2019171829A priority Critical patent/JP7221183B2/ja
Priority to CN202010882862.7A priority patent/CN112536794A/zh
Priority to US17/007,504 priority patent/US20210087033A1/en
Publication of JP2021047825A publication Critical patent/JP2021047825A/ja
Application granted granted Critical
Publication of JP7221183B2 publication Critical patent/JP7221183B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/20Means for actuating or controlling masts, platforms, or forks
    • B66F9/24Electrical devices or systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/07581Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/063Automatically guided
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/0755Position control; Position detectors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Structural Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Civil Engineering (AREA)
  • Software Systems (AREA)
  • Geology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Forklifts And Lifting Vehicles (AREA)

Description

本発明は、機械学習方法、フォークリフト制御方法、及び機械学習装置に関し、フォークリフトを制御するための推定モデルを学習する機械学習方法、フォークリフト制御方法、及び機械学習装置に適用して好適なものである。
従来、倉庫内での荷物の運搬作業には、フォークリフト等の運搬車両が利用される。例えばフォークリフトは、荷物を載せたパレットの開口部にフォークの先端を差し入れて持ち上げ(ピック)、フォーク上に積載した荷物を所定の位置に移動して下ろし(プレイス)、フォークを抜くという一連の作業によって荷物を運搬する。パレットを上げ下ろしする所定の位置は、例えば荷棚やオートレータ等である。また近年では、無人で動作可能な無人フォークの導入も進んでいる。
上記のようなフォークリフトを利用した荷物の運搬作業では、フォークを適切に操作するために、作業の対象物(例えばパレットの開口部等)を精度良く認識することが重要であり、そのために、フォークリフトの前面にカメラ等のセンサを設置し、そのセンシングデータを画像解析することが広く行われている。さらに、画像解析の精度を高めるために、機械学習を利用することが進められている。
例えば特許文献1には、機械学習を用いて画像処理のパラメータを算出し、このパラメータに基づく画像処理によって対象物を検出してロボットを制御する制御装置が開示されている。また例えば特許文献2には、ロボットアームによるピッキング作業に関して、ロボットアームが把持する対象物の把持点と、ロボットアームの把持点までの軌道を計画する軌道計画の容易さを定量化した軌道計画容易性と、を関連付けた学習データを用いて機械学習を行い、把持点の予測位置及び軌道計画容易性の予測値を算出する機械学習装置が開示されている。
特開2018-126799号公報 特開2017-110872号公報
しかし、上述した従来技術によって運搬車両等の制御のために機械学習を行うとき、収集した学習データが十分に足りていない場合には、機械学習を行っても実稼働に十分な精度に到達できないおそれがあった。詳しく言うと、収集した学習データにおいて、対象物の計測方向や作業場所の明るさ等の様々な運用シーンについて大きく異なるデータが混在する場合には、十分な精度に到達するために必要な学習データが増加してしまうという課題があった。そして、上述した特許文献1または特許文献2に開示された技術は、この課題に対して十分な解決方法を提示するものではなかった。
すなわち、運搬車両等の制御のための従来の機械学習では、様々な運用シーンの全てについて実稼働に必要な精度に到達するだけの学習データが必要であり、特に、無人フォーク等のように無人動作する運搬車両の場合は、安全面を考慮すると、これらの全ての運用シーンについて十分な精度を満たすまでは実稼働させることができなかった。この結果、実稼働を開始できるまでに膨大な量の学習データを収集しなければならず、実稼働までの準備期間が長期化するという課題があった。
本発明は以上の点を考慮してなされたもので、運用シーンを制限しながらも運搬車両(例えばフォークリフト)を早期に実稼働させることが可能な機械学習方法、フォークリフト制御方法、及び機械学習装置を提案しようとするものである。
かかる課題を解決するため本発明においては、フォークリフトを制御するための推定モデルを学習する機械学習方法であって、第1のカテゴリ群の学習データ及び第2のカテゴリ群の評価データの入力を受け付けるステップ1と、前記第1のカテゴリ群から少なくとも1つのカテゴリの前記学習データを抽出し、前記抽出した学習データを用いて、前記フォークリフトを制御するための前記推定モデルのパラメータを算出するステップ2と、前記第2のカテゴリ群から少なくとも1つのカテゴリの前記評価データを抽出し、前記抽出した評価データを用いて、前記ステップ2においてパラメータを算出した前記推定モデルを評価するステップ3と、前記ステップ2においてパラメータを算出した推定モデルのうち前記ステップ3における評価結果が所定の閾値以上である推定モデルと、当該推定モデルの前記ステップ3の評価に用いた評価データのカテゴリと、を出力するステップ4と、を実行する機械学習方法が提供される。
また、かかる課題を解決するため本発明においては、以下に詳述する入力ステップと、推定ステップと、制御ステップと、を実行するフォークリフト制御方法が提供される。ここで、前記入力ステップでは、フォークリフトに設置されたセンサによるセンシングデータを入力として受け付ける。また、前記推定ステップでは、第1のカテゴリ群の学習データ及び第2のカテゴリ群の評価データの入力を受け付けるステップ1と、前記第1のカテゴリ群から少なくとも1つのカテゴリの前記学習データを抽出し、前記抽出した学習データを用いて、前記フォークリフトを制御するための推定モデルのパラメータを算出するステップ2と、前記第2のカテゴリ群から少なくとも1つのカテゴリの前記評価データを抽出し、前記抽出した評価データを用いて、前記ステップ2においてパラメータを算出した前記推定モデルを評価するステップ3と、前記ステップ2においてパラメータを算出した推定モデルのうち前記ステップ3における評価結果が所定の閾値以上である推定モデルと、当該推定モデルの前記ステップ3の評価に用いた評価データのカテゴリと、を出力するステップ4と、前記ステップ4で出力された前記評価データのカテゴリの運用頻度に基づいて、前記ステップ4で出力された前記推定モデルのうちから第1の推定モデルを抽出するステップ5と、を実行して得られた前記第1の推定モデルを用いて、前記入力ステップで受け付けた前記センシングデータの解析を行い、前記解析によって得られた推定結果を出力する。そして、前記制御ステップでは、前記推定ステップの結果に基づいて前記フォークリフトの制御を行う。
また、かかる課題を解決するため本発明においては、フォークリフトを制御するための推定モデルを学習する機械学習装置であって、第1のカテゴリ群の学習データ及び第2のカテゴリ群の評価データの入力を受け付けるデータ取得部と、前記第1のカテゴリ群から少なくとも1つのカテゴリの前記学習データを抽出し、前記抽出した学習データを用いて、前記フォークリフトを制御するための前記推定モデルのパラメータを算出するパラメータ算出部と、前記第2のカテゴリ群から少なくとも1つのカテゴリの前記評価データを抽出し、前記抽出した評価データを用いて、前記パラメータ算出部によってパラメータが算出された前記推定モデルを評価する推定モデル評価部と、前記パラメータ算出部によってパラメータが算出された推定モデルのうち前記推定モデル評価部による評価結果が所定の閾値以上である推定モデルと、当該推定モデルの前記推定モデル評価部による評価に用いられた評価データのカテゴリと、を出力する推定モデル運用評価カテゴリ出力部と、を備える機械学習装置が提供される。
本発明によれば、運用シーンを制限しながらも運搬車両(例えばフォークリフト)を早期に実稼働させることができる。
本発明の一実施形態に係る機械学習装置を含むシステム全体の機能構成例を示すブロック図である。 教示IFにおける表示画面例を示す図である。 機械学習装置の記憶部に記憶されるデータの構成例を説明するための図である。 推定モデル学習処理の処理手順例を示すフローチャート(その1)である。 推定モデル学習処理の処理手順例を示すフローチャート(その2)である。 第1のフォークリフト制御処理の処理手順例を示すフローチャートである。 第4のフォークリフト制御処理の処理手順例を示すフローチャートである。 推定モデルの評価結果Rにおける推定モデルと第2カテゴリIDとの関係を説明する図である。
以下、図面を参照して、本発明の一実施形態を詳述する。
(1)構成
図1は、本発明の一実施形態に係る機械学習装置を含むシステム全体の機能構成例を示すブロック図である。図1において、矢印付きの実線はデータの流れを表している。図1に示したように、本実施形態に係る機械学習装置1は、フォークリフト3、マニュアル操作インタフェース(IF)4、フォークリフト運行管理システム5、及び教示インタフェース(IF)6と通信可能に接続される。
機械学習装置1は、フォークリフト3を制御するための推定モデルを学習する装置であって、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサと、プログラムやデータを記憶するメモリと、を備えて構成される計算機である。機械学習装置1の内部構成は後述するが、プロセッサがメモリに記憶されたプログラムを読み出して実行することにより、各機能部が実現される。
詳細は後述するが、機械学習装置1は、フォークリフト3が荷物を積載したパレットを運搬する作業においてセンシングデータからパレットの位置を認識するための推定モデルを、収集した学習データを用いて学習し、学習した推定モデルを評価データを用いて評価する処理を繰り返し実行することにより、評価結果(認識精度)が実稼働に必要な精度に到達し、かつ最も運用頻度が高くなる推定モデルと、その運用シーンとを出力する。
フォークリフト3は、無人運転が可能なフォークリフトである。詳細はフォークリフト制御処理で後述するが、フォークリフト3は、実稼働に必要な精度に到達する評価結果(認識精度)が得られた運用シーンでは、フォークリフト運行管理システム5からの自律作業・動作指令に従って、自動で運搬動作を行うことができる。また、フォークリフト3は、実稼働に必要な精度に到達する評価結果が得られていない運用シーン(運用外シーン)では、マニュアル操作IF4からのマニュアル操縦の指令に従って、マニュアルで運搬動作を行うことができる。フォークリフト3は、センサ31、演算部32及び制御部33を備える。
センサ31は、例えばフォークリフト3の前側に設置されたカメラであり、フォークリフト3の前方を撮影することによって、フォークの差し入れ先となるパレットの開口部の周辺のセンシングデータを取得する。センサ31によるセンシングデータ(例えばカメラが撮影した画像データ)は、演算部32による画像解析に用いられる他、所定のタイミングで機械学習装置1の学習データ取得部11または評価データ取得部12に入力データ(学習データ用入力データ、評価データ用入力データ)として送信される。学習データ取得部11または評価データ取得部12によるセンシングデータの取得タイミングの具体例としては、マニュアル操縦IF4から発行される取得トリガに基づくタイミングの他、フォークリフト運行管理システム5による指示に含まれるデータ取得情報に基づくタイミングが挙げられる。
演算部32は、センサ31が取得したセンシングデータに対する画像処理を行う機能を有する演算装置である。具体的には、演算部32は、機械学習装置1で評価されて出力される推定モデルを用いて、センサ31が取得したセンシングデータを解析し、所定の対象物(例えばパレット)を推定する。
制御部33は、フォークリフト3の全体動作を制御する機能を有する制御装置である。詳細は後述するが、制御部33は、例えばフォークリフト運行管理システム5からの自律作業・動作指令に従ってフォークリフト3を動作させる際に、演算部32によって演算された所定の対象物の推定結果に基づいて、フォークリフト3の動作を制御する。また、制御部33は、マニュアル操縦IF4から手動による操縦(マニュアル操縦)の指令を受けた場合は、当該指示に従ってフォークリフト3の動作を制御する。
マニュアル操作IF4は、フォークリフト3をマニュアル操作するためのインタフェースである。マニュアル操作IF4は、フォークリフト3に搭載されたコントローラでもよいし、フォークリフト3を遠隔操作するリモートコントローラでもよい。
フォークリフト運行管理システム5は、従来知られている車両運行管理システムを利用することができ、複数のフォークリフト3やその他の運搬車両等について、どの運搬作業を、どのタイミングで、どの車両に実行させるかといった運行管理を行う。
フォークリフト運行管理システム5は、フォークリフト3に対しては、自律作業による動作の実行を指示する自律作業・動作指令を出力することができる。フォークリフト運行管理システム5は、自律作業・動作指令として例えば、フォークリフト3の移動経路(経由点)、フォーク(センサ31でもよい)の高さ、及び作業内容(ピックまたはプレイス等)等を指示する。さらに、上記の経由点の指示に、センシングデータの取得に関する指示情報(データ取得情報)を付与することによって、所定の取得場所でセンサ31によるセンシングデータの取得を指示することができる。データ取得情報には、具体的には例えば、センシングデータの取得場所、取得するセンシングデータの用途(学習用、評価用)及びそのカテゴリID(特に評価データの第2カテゴリID)等を含めることができる。
教示IF6は、入力データを表示して、当該入力データに対応する正解データ及びカテゴリIDをユーザに決定させるためのインタフェースであって、例えば、ディスプレイ等の出力装置とキーボードやマウス等の入力装置とを有する一般的な汎用コンピュータである。
ここで、入力データは、学習データ用あるいは評価データ用にフォークリフト3(センサ31)で取得されたセンシングデータである。また、正解データは、入力データにおける所定の対象物(例えばパレット)の正しい認識結果を示すデータであり、カテゴリIDは、入力データ及び正解データの組が属するカテゴリを示す識別子である。本実施形態では、カテゴリとして第1カテゴリ及び第2カテゴリが示されるが、これらの詳細は後述する。
図2は、教示IFにおける表示画面例を示す図である。図2に例示した表示画面60は、入力データが表示される領域61と正解データが表示される領域62とを有している。教示IF6においては、以下のような流れで表示画面60に対する処理が行われる。
まず、教示IF6は、フォークリフト3で取得されたセンシングデータを入力データ(学習データ用入力データあるいは評価データ用入力データ)として機械学習装置1(学習データ取得部11または評価データ取得部12)から受信し、領域61に表示する。なお、入力データが画像データ以外の形式の場合は、可視化処理を行ったうえで領域61に表示するようにしてもよい。また、教示IF6は、入力データの画像を領域62にも表示する。図2の場合は、入力データの画像に輪郭抽出処理を行って、領域62に、パレット及び荷物の輪郭を破線で表示している。次に、この表示画面60の領域62に対して、ユーザは正しいパレットの位置を囲む入力操作を行い(実線の矩形部分)、その結果を正解データとして決定する。また、ユーザは、決定した正解データが何れのカテゴリに属するかを所定の入力操作を行って決定する(図示は省略)。そして最後に、教示IF6は、表示画面60で決定された正解データ及びカテゴリIDの組を、機械学習装置1(学習データ取得部11または評価データ取得部12)に送信する。なお、正解データの形式は特定の形式に限定されるものではない。例えば図2の領域62に示したように正解データが矩形で決定される。
機械学習装置1の内部構成について説明する。
図1に示したように、機械学習装置1は、機能部として、学習データ取得部11、評価データ取得部12、試行学習データ抽出部13、推定モデルパラメータ算出部14、試行評価データ抽出部15、推定モデル評価部16、推定モデル運用評価カテゴリ出力部17、及びシミュレータ18を備える。各機能部による具体的な処理は、後述する推定モデル学習処理の説明において詳述する。
また、機械学習装置1は、データを記憶する記憶部として、学習データ記憶部21、評価データ記憶部22、他サイト学習データ記憶部23、他サイト評価データ記憶部24、他サイト推定モデル記憶部25、及び第2カテゴリ情報記憶部26を備える。各記憶部は、機械学習装置1の記憶装置(データベースやクラウド等、機械学習装置1が通信可能な外部の記憶領域でもよい)によって実現される。
図3は、機械学習装置の各記憶部に記憶されるデータの構成例を説明するための図である。図3(A)には、学習データ記憶部21に記憶される学習データ(個別学習データ210)のデータ構成例が示され、図3(B)には、評価データ記憶部22に記憶される評価データ(個別評価データ220)のデータ構成例が示され、図3(C)には、第2カテゴリ情報記憶部26に記憶される第2カテゴリ情報260のデータ構成例が示されている。
まず、カテゴリについて説明する。本実施形態では、学習データは複数のカテゴリ(第1カテゴリ)に分けて準備され、複数の第1カテゴリの全体を第1カテゴリ群と称する。また、評価データは複数のカテゴリ(第2カテゴリ)に分けて準備され、複数の第2カテゴリの全体を第2カテゴリ群と称する。
第1カテゴリ及び第2カテゴリは、例えばフォークリフト3の運用における様々な条件や状況等を分類した「運用シーン」に基づいて分けることができる。パレット認識における運用シーン(カテゴリ)の分類基準について具体例を挙げると、カメラの撮影対象や撮影方向や撮影距離、フォークリフトの作業エリア、作業の時間帯、パレットの種類、または荷積みの状態等がある。各具体例を補足する。カメラの撮影方向(左、中、右)や撮影距離(遠近)が異なるときは、撮影データ(入力データ)におけるパレットの形状が大きく変化する。また、作業の時間帯(朝、昼、夜)が異なるときは、明るさによってパレットの認識性能に差異が生じる。この差異は、倉庫の窓等からの日光の照射量にも依るため、天候を分類基準にしてもよい。また、パレットの種類(色、素材等)が異なるときは、パレットの開口部の位置が変わる可能性が考えられる。また、荷積み状態(荷物の有無やラップ巻きの有無)が異なるときは、運搬対象の荷物の種類が異なる等が考えられる。
なお、本実施形態において、第1カテゴリ、第2カテゴリ、及び運用シーンの区分は、必ずしも完全に一致している必要はない。但し、これらが別々に区分されているときに、機械学習装置1が互いの関係性を考慮した処理を実行する場合には、両カテゴリ及び運用シーンの対応関係を定めた情報等を別途保持しておく必要がある。
図3(A)によれば、学習データ記憶部20は、学習データとして複数の個別学習データ210を記憶する。各個別学習データ210には、入力データ211、正解データ212、及び第1カテゴリID213が含まれる。
入力データ211は、学習データ用にフォークリフト3で取得されたセンシングデータ(学習データ用入力データ)である。正解データ212は、入力データ211の正解データである。第1カテゴリID213は、個別学習データ210が属する第1カテゴリを示す識別子である。
図1に示したように、入力データ211となる学習データ用入力データは、フォークリフト3から学習データ取得部11に入力される。また、図2を参照して説明したように、この入力データ211が教示IF6に送られて表示され、この表示に対してユーザが入力データ211の正解データ212及び第1カテゴリID213を決定することにより、教示IF6から学習データ取得部11に正解データ212及び第1カテゴリID213が入力される。この結果、学習データ取得部11は、入力データ211、正解データ212及び第1カテゴリID213を取得でき、これらをまとめた個別学習データ210が学習データ記憶部21に保存される。
図3(B)によれば、評価データ記憶部22は、評価データとして複数の個別評価データ220を記憶する。各個別評価データ220には、入力データ221、正解データ222、及び第2カテゴリID223が含まれる。
入力データ221は、評価データ用にフォークリフト3で取得されたセンシングデータ(評価データ用入力データ)である。正解データ222は、入力データ221の正解データである。第2カテゴリID223は、個別評価データ220が属する第2カテゴリを示す識別子である。
図1に示したように、入力データ221となる評価データ用入力データは、フォークリフト3から評価データ取得部12に入力される。図2を参照して説明したように、この入力データ221が教示IF6に送られて表示され、この表示に対してユーザが入力データ221の正解データ222及び第2カテゴリID223を決定することにより、教示IF6から評価データ取得部12に正解データ222及び第2カテゴリID223が入力される。この結果、評価データ取得部12は、入力データ221、正解データ222及び第2カテゴリID223を取得でき、これらをまとめた個別評価データ220が評価データ記憶部22に保存される。
図3(C)によれば、第2カテゴリ情報記憶部26は、第2カテゴリID261及び運用カバー率262からなる複数の第2カテゴリ情報260を記憶する。第2カテゴリID261は、個別評価データ220の第2カテゴリID223と対応しており、その生成方法は前述した通りである。運用カバー率262は、フォークリフト3による運搬作業における評価データの第2カテゴリごとの運用の網羅率を示す指標であって、運用頻度及び運用適合度に基づいて算出される。運用頻度は、フォークリフト3による運搬作業で実施される頻度を表すもので、過去の運搬作業の実績から予め定めることができる。また、運用適合度は、望ましいスムーズな動きの度合いを表すもので、過去の運搬作業を検証する等して定めることができる。
具体的には例えば、フォークリフト3がパレットをピックする作業において、カメラの撮影対象(荷棚またはオートレータ)と撮影方向(左から、中央から、右から)の組み合わせに基づいて第2カテゴリを分けるとすれば、荷棚の間口に対して左、中央、あるいは右からピックするという3つのカテゴリ、及び、オートレータに対して左、中央、あるいは右からピックするという3つのカテゴリの、合計6つの第2カテゴリが想定される。このとき、それぞれの第2カテゴリについて、運用頻度と運用適合度の積を算出することによって、運用カバー率を算出することができ、これが運用カバー率262として保存される。なお、運用カバー率262の算出方法は、上記のような運用頻度と運用適合度の単純な積に限定されるものではなく、重み付けをする等の他の算出方法を採用してもよい。また、上記の運用カバー率は、運用頻度に基づく指標の1つとも言えるため、変形例として、運用カバー率262に運用頻度そのものを記憶する等としてもよい。
図3(A)~(C)に例示した以外の各記憶部のデータ構成について補足する。他サイト学習データ記憶部23は、他のサイトにおける学習データを記憶する記憶部であり、記憶される学習データ(個別学習データ)のデータ構成は学習データ記憶部21の個別学習データ210と同様と考えてよい。同様に、他サイト評価データ記憶部24は、他のサイトにおける評価データを記憶する記憶部であり、記憶される評価データ(個別評価データ)のデータ構成は評価データ記憶部22の個別評価データ220と同様と考えてよい。また、他サイト推定モデル記憶部25には、他サイトについて評価された推定モデルのパラメータが記憶され、本実施形態では、このパラメータを、本サイトにおける推定モデルのパラメータを算出する推定モデルパラメータ算出部14の初期値として利用することができる。順調な運用が行われている他サイトにおける推定モデルのパラメータを初期値として利用することにより、推定モデルパラメータ算出部14が、異常値の算出を防止しながら、本サイトにおける推定モデルのパラメータを効率良く算出することに期待できる。
なお、本実施形態において「サイト」は、フォークリフト3の作業が行われる場所を意味しており、任意の単位で複数のサイトに分類することができる。例えば、作業を行う倉庫単位でサイトを分けてもよいし、あるいは倉庫内のフロア単位等でサイトを分けてもよい。
以下では、本実施形態に係る機械学習方法並びにフォークリフト制御方法について、図1に示した構成を用いて詳しく説明する。本実施形態に係る機械学習方法として、機械学習装置1によって後述する推定モデル学習処理が実行される。また、本実施形態に係るフォークリフト制御方法として、図1に示したシステム全体で、後述するフォークリフト制御処理が実行される。
(2)推定モデル学習処理
図4,図5は、推定モデル学習処理の処理手順例を示すフローチャート(その1,その2)である。図4,図5に示した推定モデル学習処理は、機械学習装置1の各機能部によって実行される。
図4,図5によればまず、学習データ取得部11が、第1カテゴリ群に属する各カテゴリの学習データを取得する(ステップS101)。図2及び図3を参照しながら前述したように、学習データ取得部11は、フォークリフト3及び教示ID6から、入力データ211、正解データ212、及び第1カテゴリID213を取得し、これらをまとめた個別学習データ210を学習データ記憶部21に保存する。
次に、評価データ取得部12が、第2カテゴリ群に属する各カテゴリの評価データを取得する(ステップS102)。図2及び図3を参照しながら前述したように、評価データ取得部12は、フォークリフト3及び教示ID6から、入力データ221、正解データ222、及び第2カテゴリID223を取得し、これらをまとめた個別評価データ220を評価データ記憶部22に保存する。
なお、ステップS101,S102では、学習データ取得部11や評価データ取得部12によるデータ取得以外にも、シミュレータ18によるシミュレート計算によって、学習データや評価データを作成して取得することができる。この場合、シミュレータ18は、後述する推定モデル運用評価カテゴリ出力部17から出力される運用カテゴリQに基づいて、運用カテゴリQが示すカテゴリ以外のカテゴリについて、学習データや評価データのシミュレートを実行し、学習データ(個別学習データ)または評価データ(個別評価データ)を作成し、作成したデータを学習データ記憶部21または評価データ記憶部22に保存する。このように、本実施形態ではシミュレータ18を活用することにより、フォークリフト3の実際の動作だけに依存することなく、各カテゴリの学習データや評価データを比較的短時間で効率的に取得することができる。
ステップS101,S102の処理によって学習データ記憶部21及び評価データ記憶部22に各カテゴリのデータが保存されると、ステップS103の処理が行われる。
ステップS103では、試行学習データ抽出部13が、変数pを初期化して0をセットする。次に、試行学習データ抽出部13は、推定モデルのパラメータ算出の試行対象とする学習データのカテゴリを選択するために、学習データの第1カテゴリ群から1以上の第1カテゴリを選択し、選択した第1カテゴリに対応する学習データTを学習データ記憶部21から抽出する(ステップS104)。なお、ステップS103において、試行学習データ抽出部13は、他サイトにおける学習データが保存された他サイト学習データ記憶部23から学習データTを抽出してもよい。例えば、選択した第1カテゴリの学習データが学習データ記憶部21に記憶されていなかった(取得されていなかった)場合には、本サイトと類似する他サイトにおける学習データTを抽出することにより、当該第1カテゴリに対する推定モデルの学習を進めることができる。
次に、推定モデルパラメータ算出部14が、ステップS104で抽出された学習データTを用いて、推定モデルMのパラメータを算出する(ステップS105)。推定モデルパラメータ算出部14による推定モデルMのパラメータ算出には、YOLO(You Only Look Once)のような既存の方法を利用すればよい。
ステップS104~S105の処理によって推定モデルの学習が終了すると、ステップS106からは、評価データを用いてこの推定モデルの評価を開始する。まず、ステップS106では、例えば推定モデル運用評価カテゴリ出力部17が、運用評価カテゴリを表すQ及び運用カバー率を表すAを初期化する。
次に、試行評価データ抽出部15が、試行対象とする評価データのカテゴリ(試行評価カテゴリ)を選択するために、第2カテゴリ群から1以上の第2カテゴリを選択し、選択した第2カテゴリに対応する評価データ(試行評価データ)を評価データ記憶部22から抽出する(ステップS107)。ステップS107で選択された試行評価カテゴリを{q,・・・,q}で表すとし、抽出された試行評価データを{E,・・・,E}で表すとする。なお、ステップS107において試行評価データ抽出部15は、他サイトにおける評価データが保存された他サイト評価データ記憶部24から試行評価データを抽出してもよい。
次に、推定モデル評価部16が、ステップS105でパラメータが算出された推定モデルMを、ステップS107で抽出された試行評価データ{E,・・・,E}を用いて評価し、それぞれの評価結果{Rp,0,・・・,Rp,k}を算出する(ステップS108)。推定モデル評価部16は、上記の推定モデル、試行評価データ、及び評価結果を、推定モデル運用評価カテゴリ出力部17に出力する。
そして、推定モデル運用評価カテゴリ出力部17は、ステップS108で算出された評価結果の全てが所定の閾値(Ω)以上であったかを判定する(ステップS109)。この閾値は、評価結果が実稼働に十分な認識精度に到達しているかを判定するための基準値であって、予め定められている。ステップS109で肯定結果が判定された場合は、評価された推定モデルMが、試行評価データに対応するそれぞれの第2カテゴリ(試行評価カテゴリ)の全てにおいて、実稼働に十分な認識精度に到達するパラメータを有していることを意味し、このとき、ステップS110の処理が行われる。一方、ステップS109で否定結果が判定された場合は、ステップS112に処理をスキップする。
ステップS110では、推定モデル運用評価カテゴリ出力部17は、試行評価カテゴリに含まれる第2カテゴリのそれぞれの運用カバー率の合計値を算出し、この合計値が現在の運用カバー率Aよりも大きいか否かを判定する。ステップS110で肯定結果が判定された場合は、現在の試行評価カテゴリが、推定モデルMpによる運用カバー率がこれまでで最も高くなることを意味し、このとき、ステップS111の処理が行われる。一方、ステップS110で否定結果が判定された場合は、ステップS112に処理をスキップする。
ステップS111では、推定モデル運用評価カテゴリ出力部17は、ステップS107で選択した試行評価カテゴリ{q,・・・,q}で運用評価カテゴリQを更新し、ステップS110で算出した運用カバー率の合計値で運用カバー率Aを更新する(ステップS111)。ステップS111の処理によって、運用評価カテゴリQには、これまでの評価のなかで推定モデルMを利用した場合に運用カバー率(運用頻度に基づく指標)が最も高くなる第2カテゴリの組み合わせ(運用シーンと読み替えてもよい)が記録され、運用カバー率Aにはその運用カバー率が記録される。
そしてS112では、試行対象とする評価データのカテゴリ(試行評価カテゴリ)を変えて現在の推定モデルMの評価を続けるか否かを確認する。試行評価カテゴリを変えて評価を続ける場合は(ステップS112のYES)、ステップS107に戻り、別の試行評価カテゴリを選択して評価処理を繰り返す。このとき、推定モデル運用評価カテゴリ出力部17から試行評価データ抽出部15に運用評価カテゴリQ(図1では運用モデルQ)が入力されるため、ステップS107において試行評価データ抽出部15は、運用評価カテゴリQに含まれる第2カテゴリを除いた第2カテゴリ群から、1以上の第2カテゴリを選択し、対応する試行評価データを抽出することができる。このように、運用評価カテゴリQをフィードバックしながらステップS107~S111の処理が繰り返されることにより、第2カテゴリ群のできるだけ多くの第2カテゴリに対して運用評価カテゴリQの探索が可能となる。一方、現在の推定モデルMの評価を終了する場合は(ステップS112のNO)、ステップS113に進む。
ステップS113では、推定モデルMpのパラメータ算出を続けるか否か、すなわち、試行対象とする学習データのカテゴリを変更して推定モデルMのパラメータ算出を続けるか否かを確認する。推定モデルMpのパラメータ算出を続ける場合は(ステップS113のYES)、変数pの値を1増加させたうえで(ステップS114)、ステップS104に戻って別の1以上の第1カテゴリを選択して学習処理から繰り返す。一方、推定モデルMpのパラメータ算出を終了する場合(ステップS113のNO)、推定モデル運用評価カテゴリ出力部17は、推定モデルのパラメータ算出のための学習データの第1カテゴリの選択、及び推定モデルの評価のための評価データの第2カテゴリの選択を変更しながら、ステップS104~S114の処理を繰り返したなかで(j=0~p)、運用カバー率Aが最大となった推定モデルMと運用評価カテゴリQの組み合わせを、推定モデルM及び運用カテゴリQとして出力し(ステップS115)、推定モデル学習処理を終了する。
なお、ステップS112及びステップS113における判断は、ユーザによって行われるものとしてもよいし、あるいは、所定のルールに基づいて推定モデル運用評価カテゴリ出力部17等が判断してもよい。所定のルールは例えば、全てのパターンを試行するまで続けることや、規定回数の試行に到達するまで続けること等が挙げられる。
以上のように、機械学習装置1は、フォークリフト3の制御のための推定モデル(より具体的には例えば、センシングデータからパレットを認識するために用いる推定モデル)について、推定モデル学習処理において、学習データを複数の第1カテゴリに分けて準備し、評価データを運用シーンに基づいて複数の第2カテゴリに分けて準備し、1以上を選択した第1カテゴリの学習データを用いて推定モデルを学習し、学習した推定モデルを1以上を選択した第2カテゴリの評価データを用いて評価する、という学習及び評価を繰り返し実施することにより、評価結果(認識精度)が実稼働に必要な精度に到達し、かつ、最も運用頻度に基づく指標(運用カバー率)が高くなるような推定モデル(推定モデルM)とその運用シーン(運用カテゴリQ)の組み合わせを決定することができる。
そして上記の運用カテゴリQが入力されることによって、マニュアル操縦IF4やフォークリフト運行管理システム5は、推定モデルMを用いて実稼働が可能な運用シーンを認識してフォークリフト3の動作を指示することができるようになる。また、上記の推定モデルMが入力されることによって、フォークリフト3は、運用シーンに応じた運用カテゴリQ(第2カテゴリ)に対応する推定モデルMを用いてセンシングデータの画像解析を行うことで、十分な精度で所定の対象物(パレット)を推定することができる。かくして、推定モデル学習処理によれば、現状の学習データで最大限可能な運用シーン(運用カテゴリQ)を定義することができ、これに基づいて、フォークリフト3は、運用シーンを運用カテゴリQに制限しながらも、早期に実稼働することができる。
また、推定モデル学習処理で決定された運用カテゴリQは、推定モデル運用評価カテゴリ出力部17から出力されてシミュレータ18にも入力される(図1参照)。この運用カテゴリQの入力を受けてシミュレータ18は、前述したように運用カテゴリQが示すカテゴリ以外のカテゴリについて、シミュレートを実行して学習データや評価データを収集する。これにより、その後の推定モデル学習処理において、運用カテゴリQに含まれない第2カテゴリ(運用シーン)についても、実稼働に必要な精度の認識精度が得られるように、推定モデルの学習及び評価を促進することができる。
(3)フォークリフト制御処理
以下に、本実施形態に係るフォークリフト制御方法として、機械学習装置1による推定モデル学習処理の結果を利用してフォークリフト3の動作を制御するフォークリフト制御処理をいくつか説明する。なお、それぞれのフォークリフト制御処理において必要とされ推定モデル学習処理の結果は、必ずしも、図4,図5に示した推定モデル学習処理の全ての処理手順の実行を必要とするものではない。
(3-1)第1のフォークリフト制御処理
図6は、第1のフォークリフト制御処理の処理手順例を示すフローチャートである。図6に示した第1のフォークリフト制御処理は、本実施形態における最も基本的なフォークリフト制御処理であって、後述する第2~第4のフォークリフト制御処理にも共通する。
図6によればまず、フォークリフト3が、その動作中に、センサ31によるセンシングデータを取得し、取得したセンシングデータ(入力データ)をその種別に応じて機械学習装置1のデータ取得部(学習データ取得部11または評価データ取得部12)に入力する(ステップS201)。
ここで、ステップS201における入力データの取得方法は、フォークリフト3がマニュアル操縦IF4の指令に従って動作しているか(マニュアル操縦時)、フォークリフト運行管理システム5の自律作業・動作指令に従って動作しているか(運用作業時)、によって異なる方法が考えられる。
マニュアル操縦時の場合、マニュアル操縦の指令に従って、フォークリフト3がデータの取得場所に移動する。フォークリフト3がデータの取得場所に到達すると、マニュアル操縦IF4がフォークリフト3に対して取得トリガを発行する。そして、取得トリガを契機として、フォークリフト3が、センサ31によってセンシングデータ(入力データ)を取得し、機械学習装置1のデータ取得部に入力する。詳しく言えば、学習データ用に取得した入力データは学習データ取得部11に入力され、評価データ用に取得した入力データは評価データ取得部12に入力される。なお、マニュアル操縦時は、自律作業・動作指令に従った動作と比べると、フォークリフト3を正確な位置に操縦することが困難である可能性があるため、データの取得場所に到達後、フォークリフト3をランダムに微小移動させながら、連続的に入力データを取得するようにしてもよい。
一方、運用作業時の場合、フォークリフト3が自律作業・動作指令に従って移動しているなかで、データ取得情報を有する経由点に到達する。このとき、フォークリフト3は、センサ31によってセンシングデータ(入力データ)を取得し、機械学習装置1のデータ取得部に入力する。なお、運用作業時は、データの取得場所となる経由点の前後で連続的に入力データを取得するようにしてもよい。
運用作業を行わせる場合、フォークリフト運行管理システム5は、フォークリフト3にどのような自律作業・動作指令を与えるかを、機械学習装置1から出力された運用カテゴリQに基づいて決定することができる。具体的には例えば、ある荷棚から荷物(パケット)をピックする作業を実施しようとするときに、運用カテゴリQに、「当該荷棚を右から撮影する」第2カテゴリAが含まれ、「当該荷棚を中央から撮影する」第2カテゴリBや「当該荷棚を左から撮影する」第2カテゴリC等が含まれていない場合には、フォークリフト運行管理システム5は、第2カテゴリAの運用シーンに基づいて、当該荷棚に右から近づいてパケットをピックするようにフォークリフト3に自律作業・動作指令を与えればよい。
そして、教示IF6について前述したように、マニュアル操縦時及び運用作業時の何れの場合も、機械学習装置1のデータ取得部に入力された入力データは、教示IF6に送られて表示され、正解データやカテゴリIDが付加される(図2参照)。そして、これらの入力データ、正解データ、及びカテゴリIDを紐付けたデータが、個別学習データとして学習データ記憶部21または評価データ記憶部22に保存される。
なお、本実施形態では、推定モデル学習処理で運用カテゴリQに採用された運用シーンの作業は、フォークリフト運行管理システム5によって運転指示が可能な無人フォークのフォークリフト3に割り当て、推定モデル学習処理で運用カテゴリQに採用されなかった運用シーン(運用外シーン)の作業は、マニュアル操縦IF4によって遠隔操縦可能かフォークリフト3あるいは有人フォークに割り当てるようにしてよい。このような割り当てを行うことによって、運用外シーンにおいて、フォークリフト3はユーザによる操縦や操作等(例えばパレットの位置を教える等)を受け付けることができ、ユーザの指示に従ってフォークリフト3の運用を実施することができる。
図6の説明に戻る。ステップS201の終了後、フォークリフト3の演算部32が、機械学習装置1による推定モデル学習処理の結果を利用して、現在の運用シーンに対応する第2カテゴリIDに基づいて、推定モデルを選択する(ステップS202)。なお、現在の運用シーンに対応する第2カテゴリIDは、マニュアル操縦IF4から直接指示されるか、フォークリフト運行管理システム5からの自律作業・動作指令に含まれることで、フォークリフト3が認識することができる。
そして、演算部32は、ステップS202で選択した推定モデルを用いてセンシングデータを解析し、解析によって得られる推定結果を出力する(ステップS203)。ステップS203の処理によって、実稼働に必要な認識精度で所定の対象物(例えばパレット)が推定される。
そして、フォークリフト3の制御部33が、ステップS203の推定結果に基づいて、フォークリフトの動作(例えばフォークの差し入れや上げ下げ)を制御する(ステップS204)。
以上のように第1のフォークリフト制御処理が行われることによって、フォークリフト3は、運用カテゴリQに含まれる運用シーンの作業において、センシングデータから実稼働に必要な認識精度で所定の対象物(例えばパレット)を推定して、実稼働を行うことができる。
また、第1のフォークリフト制御処理では、マニュアル操縦IF4から取得トリガが発行された場合や、フォークリフト運行管理システム5からの自律作業・動作指令において経由点にデータ取得情報が付加されていた場合に、フォークリフト3の実稼働中にセンシングデータ(入力データ)を収集することができる。すなわち、フォークリフト3を実稼働させることによって荷物運搬の業務を遂行可能にするとともに、実データの入力データの取得によってさらなる学習データを収集し、実稼働可能な運用シーンを拡充していくことができる。
(3-2)第2のフォークリフト制御処理
第2のフォークリフト制御処理について説明する。第2のフォークリフト制御処理は、第1のフォークリフト制御処理の変形例に位置付けられ、その相違点を中心に説明する。
第2のフォークリフト制御処理では、フォークリフト3の作業中に、推定モデル学習処理で運用カテゴリQに採用されなかった運用シーン(運用外シーン)の入力データを取得できるように、マニュアル操縦IF4またはフォークリフト運行管理システム5が、フォークリフト3の動作や作業を計画し、当該計画に基づいて制御部33にフォークリフト3を制御させる。
ここで、「運用外シーン」とは、推定モデル学習処理において、実稼働に必要な精度に到達する評価結果(認識精度)を推定可能なパラメータを有する推定モデルMの評価に用いられた第2カテゴリ(試行評価カテゴリ)以外の第2カテゴリに対応する運用シーンであり、言い換えれば、推定モデルMを用いた場合に実稼働に必要な精度に到達する評価結果(認識精度)が得られない第2カテゴリに対応する運用シーンを意味する。
より具体的には、第2のフォークリフト制御処理において、マニュアル操縦IF4またはフォークリフト運行管理システム5は、作業中のフォークリフト3が運用外シーンの入力データを取得できるように、フォークリフト3やフォークの位置や姿勢等を調整して、運用外シーンの入力データを取得可能な状態を経由するように、フォークリフト3の動作や作業を計画する。
第2のフォークリフト制御処理によれば、作業中のフォークリフト3が運用外シーンの入力データを取得することで、運用外シーンの入力データを効率良く収集することができる。そのため、推定モデル学習処理において当該運用外シーンで利用可能な推定モデルの学習を進めることができ、実稼働可能な運用シーンの拡大を早期に進めることに貢献できる。
上記の第2のフォークリフト制御処理は、特に、フォークリフト3がフォークリフト運行管理システム5による自律作業・動作指令に基づいて運用カテゴリQに含まれる運用シーンで作業中の場合に、より高い効果を期待することができる。前述した第2カテゴリA,B,Cを使って具体的に説明する。ある荷棚から荷物(パケット)をピックする作業を実施しようとするときに、運用カテゴリQに第2カテゴリA(荷棚を右から撮影)が含まれ、第2カテゴリB,C(荷棚を中央または左から撮影)が運用外シーンであるとすると、フォークリフト運行管理システム5は、第2カテゴリAの運用シーンに基づいて、当該荷棚に右から近づいてパケットをピックするように自律作業・動作指令を与える。このとき、フォークリフト運行管理システム5は、第2カテゴリAの運用シーンに基づくフォークリフト3の運用作業において、運用外シーンの入力データを取得するために、例えば、荷棚に右から近づいてパケットをピックした後、荷棚の左から離れるように経由点を定め、さらに、左から離れた後の所定の経由点にデータ取得情報をセットするよう、自律作業・動作指令を追加する。このようにすることで、フォークリフト3は、運用カテゴリQに含まれる運用シーン(第2カテゴリA)による作業で安全にパレットをピックするとともに、その後、運用外シーン(この場合は第2カテゴリC)の入力データを取得できる。したがって、運用カテゴリQで限定された運用シーンの実稼働を行いながら、運用外シーンの入力データを集めることができるため、非常に効率的に推定モデルの学習及び評価を促進することができる。
なお、第2のフォークリフト制御処理を行う場合、サイト内でパレットを設置した後に、推定モデル学習処理を行って運用カテゴリQを決定し、運用外シーンを設定することで、運用外シーンの入力データの取得をより効率的にすることができる。
また、第2のフォークリフト制御処理には第1のフォークリフト制御処理が含まれるため、第2のフォークリフト制御処理は、第1のフォークリフト制御処理による効果も得ることができる。
(3-3)第3のフォークリフト制御処理
第3のフォークリフト制御処理について、第1のフォークリフト制御処理(図6)と比較しながらその相違点を中心に説明する。
第3のフォークリフト制御処理では、まず、機械学習装置1が推定モデル学習処理を実行し、その確定結果として出力された推定モデルMを第1の推定モデル、運用カテゴリQを第1の運用カテゴリ(第1の運用シーン)として採用する。
さらに、機械学習装置1は、第1の運用シーンとして採用されなかった運用外シーンの第2カテゴリを評価対象(試行評価カテゴリ)として推定モデル学習処理を改めて実行し、いくつかの第2カテゴリについて実稼働に必要な精度の評価結果(認識精度)を満たす推定モデルが得られた場合に、この推定モデルを第2の推定モデル、その第2カテゴリを第2の運用カテゴリ(第2の運用シーン)として採用する。第1及び第2の推定モデルはフォークリフト3に入力され、第1及び第2の運用カテゴリ(運用シーン)は、マニュアル操縦IF4及びフォークリフト運行管理システム5に入力される。
そして、マニュアル操縦IF4またはフォークリフト運行管理システム5の指令に従ってフォークリフト3が動作する際、フォークリフト3では、まず、センシングデータの取得及び入力が行われる(図6のステップS201と同様)。
次に、演算部32が、現在の運用シーンに対応する第2カテゴリIDに基づいて、推定モデルを選択する。すなわち、演算部32は、第2カテゴリIDが示す運用シーンが第1の運用シーンであれば第1の推定モデルを選択し、第2の運用シーンであれば第2の推定モデルを選択する。なお、第1のフォークリフト制御処理と同様に、現在の運用シーンに対応する第2カテゴリIDは、マニュアル操縦IF4から直接指示されるか、フォークリフト運行管理システム5からの自律作業・動作指令に含まれるとする。
そして、演算部32は、ステップS202で選択した推定モデルを用いてセンシングデータを解析し、解析によって得られる推定結果を出力する(図6のステップS203と同様)。
そして、フォークリフト3の制御部33が、ステップS203の推定結果に基づいて、フォークリフトの動作(例えばフォークの差し入れや上げ下げ)を制御する(図6のステップS204と同様)。
以上、第3のフォークリフト制御処理によれば、フォークリフト3の運用シーンに応じて複数の推定モデルを使い分けて、実稼働に必要な精度の認識精度で所定の対象物(例えばパレット)を推定することができるため、実稼働可能な運用シーンの範囲を広げることができる。
また、第3のフォークリフト制御処理には第1のフォークリフト制御処理が含まれるため、第3のフォークリフト制御処理は、第1のフォークリフト制御処理による効果も得ることができる。
(3-4)第4のフォークリフト制御処理
第4のフォークリフト制御処理について説明する。第4のフォークリフト制御処理は、フォークリフト3の運用シーンがランダムに発生する場合、言い換えれば、運用シーンが明確でない場合に好適な制御処理である。
第4のフォークリフト制御処理では、まず、推定モデル学習処理によって、1以上の第2カテゴリ(運用シーン)について実稼働に必要な精度の評価結果(認識精度)を満たす複数の推定モデルを学習する。また、これら複数の推定モデルのそれぞれについて、各運用シーン(第2カテゴリ)における推定の認識成功率(評価結果)を算出する。上記の複数の推定モデル、第2カテゴリ(実際は第2カテゴリID)、及び各推定の評価結果は、フォークリフト3に出力される。そして、運用シーンが不明な状況でフォークリフト3を運用する際に、フォークリフト3の演算部32が、複数の推定モデルのそれぞれを用いて入力データから推定した対象物(例えばパレットの位置)の推定結果(個別推定結果)から、全体としての推定結果である全体推定結果を算出し(例えば平均値)、全体推定結果と個別の推定結果から各推定モデルによる推定の成功率(成否情報)を求める。さらに、演算部32は、複数の運用シーン(第2カテゴリ)のそれぞれについて、先に保持しておいた各推定モデルの評価結果に基づいて各推定結果の妥当性を算出し、これらをまとめた全体としての推定結果(全体推定結果)の妥当性を評価する。そして、上記第2カテゴリのそれぞれに対する全体推定結果の妥当性のうち、最も妥当性の高い運用シーン(第2カテゴリ)の評価値が所定の閾値以上であれば、その全体推定結果に基づいて、フォークリフト3の制御部33がフォークリフト3の動作を制御する。
図7は、第4のフォークリフト制御処理の処理手順例を示すフローチャートである。図7に示した第4のフォークリフト制御処理では、フォークリフト3は運用シーン(第2カテゴリ)が決定されていない(決定できない)状況で動作中であるとする。また、図7の各ステップにおいて変数付きで記載されている語句は、前段落に記載された語句と対応している。
図7によればまず、フォークリフト3のが、その動作中に、センサ31によるセンシングデータを取得し、取得したセンシングデータ(入力データ)をその種別に応じて機械学習装置1のデータ取得部(学習データ取得部11または評価データ取得部12)に入力する(ステップS301)。
次に、フォークリフト3の演算部32が、推定モデル学習処理によって学習された実稼働に利用可能なm個の推定モデル(M~M)をそれぞれ用いて、センシングデータ(入力データ)を解析し、得られた個別推定結果(X~X)を出力する(ステップS302)。
次に、演算部32は、ステップS302で得られた個別推定結果(X~X)を結合して、全体推定結果Xを算出する(ステップS303)。例えば、個別推定結果(X~X)の平均値を全体推定結果Xとするとき、全体推定結果Xは、以下の式1によって算出することができる。
Figure 0007221183000001
次に、演算部32は、個別推定結果(X~X)のそれぞれと、ステップS303で算出された全体推定結果Xとを比較して、各推定モデル(M~M)による推定結果(X~X)の成功率を表す、推定の成否情報(G~G)を算出する(ステップS304)。例えば、図2に例示した正解データと同様に、推定モデルによる推定結果が矩形領域で示される場合、それぞれの推定の成否情報(G~G)は、以下の式2によって算出することができる。
Figure 0007221183000002
式2において、全体面積とは、全体推定結果Xが示す矩形領域の面積を意味する。また、オーバラップ面積とは、全体推定結果Xが示す矩形領域と比較対象の個別推定結果(X)が示す矩形領域との重複領域の面積を意味する。
なお、式2の算出方法は一例であって、他にも例えば、全体推定結果Xが示す矩形領域と比較対象の個別推定結果(X)が示す矩形領域との重複率(オーバラップ率)を算出し、これが所定の閾値以上である場合に成否情報G=1、閾値未満である場合に成否情報G=0等としてもよい。
次に、演算部32は、推定モデル(M~M)に対応する第2カテゴリのそれぞれについて(第2カテゴリIDの候補をwとする)予め保持していた各推定モデルの評価結果Rと、ステップS304で算出した各推定の成否情報(G~G)とを用いて、第2カテゴリID候補wに対する全体としての推定結果(全体推定結果)の妥当性Lを算出する(ステップS305)。なお、ステップS305では、第2カテゴリIDの候補wを変えて、推定モデル(M~M)に対応する第2カテゴリの全てを対象にして、それぞれ全体推定結果の妥当性Lを算出する。
図8は、推定モデルの評価結果Rにおける推定モデルと第2カテゴリIDとの関係を説明する図である。図8に示したように、推定モデルの評価結果Rは、推定モデル(M~M)と、推定モデル(M~M)に対応する第2カテゴリの第2カテゴリID(0~n)との全ての組み合わせによる評価結果、すなわちm×(n+1)個の評価結果から構成される。図8に示した推定モデルの評価結果{R0,w,…,Rm,w}は、行列式で以下の式3のように表される。
Figure 0007221183000003
そして、上記の推定モデルの評価結果{R0,w,…,Rm,w}を用いるとき、第2カテゴリID候補wに対する全体推定結果の妥当性Lは、例えば以下の式4によって算出することができる。なお、第2カテゴリID候補wは、例えばフォークリフト運行管理システム5からの自律作業・動作指令に含まれてフォークリフト3に入力される。
Figure 0007221183000004
次に、演算部32は、ステップS305で全ての第2カテゴリID候補wに対して算出されたそれぞれの全体推定結果の妥当性Lのうち、最も高い妥当性Lが所定の閾値以上であるか否かを判定する(ステップS306)。この閾値は、妥当性Lを得た全体推定結果が、実稼働に十分な認識精度(評価結果)に到達しているかを判定するための基準値であって、例えば図5の推定モデル学習処理においてステップS109で示した閾値Ωと同じとしてよい。
ステップS306において、妥当性Lが所定の閾値以上であった場合(ステップS306のYES)、妥当性Lが得られた全体推定結果は、実稼働に十分な認識精度であることを意味する。したがって、演算部32は、妥当性Lが得られた全体推定結果における第2カテゴリID候補wが示す第2カテゴリを、現在の運用シーンと推定する。そして、制御部33は、演算部32によって推定された運用シーン(第2カテゴリ)に基づいて、フォークリフト3の動作を制御する(ステップS307)。
一方、ステップS306において、妥当性Lが所定の閾値未満であった場合(ステップS306のNO)、何れの第2カテゴリID候補wに対する全体推定結果Lも、実稼働に十分な認識精度ではないことを意味する。このため、演算部32は、運用シーンを推定できない旨のアラートを出力する(ステップS308)。アラートが出力された場合、制御部33は、例えば、フォークリフト3の自律運転を停止するとともに、フォークリフト運行管理システム5にアラートを転送して、運用作業における安全を確保する。
以上のように第4のフォークリフト制御処理によれば、動作中のフォークリフト3において現在の運用シーンが明確でない場合でも、推定モデル学習処理の学習結果によって実稼働可能なパラメータの算出が済んでいる既知の推定モデルMとその運用カテゴリQ(第2カテゴリID)とを用いて、これらの組み合わせによる推定結果の妥当性を評価することによって、実稼働可能な認識精度を担保できる推定モデルと運用シーン(第2カテゴリ)との組み合わせを推定することができ、この推定結果に基づいてフォークリフト3の運用を行うことができる。
したがって、第4のフォークリフト制御処理によれば、収集した学習データがより少ない時点からフォークリフト3の運用開始に期待できるだけでなく、学習データが蓄積された際には、第1~第3のフォークリフト制御処理よりも広範囲の運用シーンでフォークリフト3を運用することができる。
また、第4のフォークリフト制御処理には第1のフォークリフト制御処理が含まれるため、第4のフォークリフト制御処理は、第1のフォークリフト制御処理による効果も得ることができる。
以上、本発明の一実施形態について説明したが、本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記した実施形態では、荷物を載せたパレットを運搬するフォークリフトにおいてセンシングデータからパレットを認識するための推定モデルを学習する機械学習方法や、この推定モデルを用いてフォークリフトの動作を制御するフォークリフト制御方法について説明したが、本発明の適用対象はこれらに限るものではなく、例えばフォークリフト以外にも、所定の作業を実行する車両や装置全般に適用可能である。また、本発明の機械学習方法で学習する推定モデルは、パレット以外の対象物を認識するための推定モデルや、車体の挙動予測等の制御を判断するための推定モデルにも適用することができる。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、図面において制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実施には殆ど全ての構成が相互に接続されていると考えてもよい。
1 機械学習装置1
3 フォークリフト
4 マニュアル操縦IF
5 フォークリフト運行管理システム
6 教示IF
11 学習データ取得部
12 評価データ取得部
13 試行学習データ抽出部
14 推定モデルパラメータ算出部
15 試行評価データ抽出部
16 推定モデル評価部
17 推定モデル運用評価カテゴリ出力部
18 シミュレータ
21 学習データ記憶部
22 評価データ記憶部
23 他サイト学習データ記憶部
24 他サイト評価データ記憶部
25 他サイト推定モデル記憶部
26 第2カテゴリ情報記憶部
31 センサ
32 演算部
33 制御部
210 個別学習データ
211 入力データ
212 正解データ
213 第1カテゴリID
220 個別評価データ
221 入力データ
222 正解データ
223 第2カテゴリID
260 第2カテゴリ情報
261 第2カテゴリID
262 運用カバー率

Claims (11)

  1. フォークリフトを制御するための推定モデルを学習する機械学習方法であって、
    第1のカテゴリ群の学習データ及び第2のカテゴリ群の評価データの入力を受け付けるステップ1と、
    前記第1のカテゴリ群から少なくとも1つのカテゴリの前記学習データを抽出し、前記抽出した学習データを用いて、前記フォークリフトを制御するための前記推定モデルのパラメータを算出するステップ2と、
    前記第2のカテゴリ群から少なくとも1つのカテゴリの前記評価データを抽出し、前記抽出した評価データを用いて、前記ステップ2においてパラメータを算出した前記推定モデルを評価するステップ3と、
    前記ステップ2においてパラメータを算出した推定モデルのうち前記ステップ3における評価結果が所定の閾値以上である推定モデルと、当該推定モデルの前記ステップ3の評価に用いた評価データのカテゴリと、を出力するステップ4と、
    を実行する機械学習方法。
  2. 前記ステップ4で出力された前記推定モデルのうちの一つを第1の推定モデルとして抽出するステップ5と、
    前記ステップ4で出力された推定モデルのうちから、前記第1の推定モデルの評価に用いた評価データのカテゴリ以外のカテゴリの評価データを評価に用いた第2の推定モデルを抽出するステップ6と、
    をさらに実行する請求項1に記載の機械学習方法。
  3. 前記ステップ4で出力された前記推定モデルのうちの一つを第1の推定モデルとして抽出するステップ5と、
    前記第1の推定モデルの評価に用いた評価データのカテゴリ以外のカテゴリの学習データをシミュレータによって作成するステップ7と、
    をさらに実行する請求項1に記載の機械学習方法。
  4. 前記ステップ5において、前記ステップ4で出力された前記評価データのカテゴリの運用頻度に基づいて前記第1の推定モデルを抽出する
    請求項2に記載の機械学習方法。
  5. 前記ステップ5において、前記ステップ4で出力された前記評価データのカテゴリの運用頻度に基づいて前記第1の推定モデルを抽出する
    請求項3に記載の機械学習方法。
  6. フォークリフトに設置されたセンサによるセンシングデータを入力として受け付ける入力ステップと、
    第1のカテゴリ群の学習データ及び第2のカテゴリ群の評価データの入力を受け付けるステップ1、
    前記第1のカテゴリ群から少なくとも1つのカテゴリの前記学習データを抽出し、前記抽出した学習データを用いて、前記フォークリフトを制御するための推定モデルのパラメータを算出するステップ2、
    前記第2のカテゴリ群から少なくとも1つのカテゴリの前記評価データを抽出し、前記抽出した評価データを用いて、前記ステップ2においてパラメータを算出した前記推定モデルを評価するステップ3、
    前記ステップ2においてパラメータを算出した推定モデルのうち前記ステップ3における評価結果が所定の閾値以上である推定モデルと、当該推定モデルの前記ステップ3の評価に用いた評価データのカテゴリと、を出力するステップ4、及び、
    前記ステップ4で出力された前記評価データのカテゴリの運用頻度に基づいて、前記ステップ4で出力された前記推定モデルのうちから第1の推定モデルを抽出するステップ5、
    を実行して得られた前記第1の推定モデルを用いて、前記入力ステップで受け付けた前記センシングデータの解析を行い、前記解析によって得られた推定結果を出力する推定ステップと、
    前記推定ステップの結果に基づいて前記フォークリフトの制御を行う制御ステップと、
    を実行するフォークリフト制御方法。
  7. 前記制御ステップにおいて、前記ステップ5で抽出された前記第1の推定モデルの評価に用いられた評価データのカテゴリ以外のカテゴリの学習データを収集するように前記フォークリフトを制御する
    請求項6に記載のフォークリフト制御方法。
  8. 前記制御ステップにおいて、前記ステップ5で抽出された前記第1の推定モデルの評価に用いられた評価データのカテゴリに対応する運用シーン以外で前記フォークリフトを制御する場合、前記フォークリフトはユーザによる入力を受け付ける
    請求項6に記載のフォークリフト制御方法。
  9. 前記推定ステップにおいて、
    前記ステップ4で出力された推定モデルのうちから、前記第1の推定モデルの評価に用いられた評価データのカテゴリ以外のカテゴリの評価データを評価に用いた第2の推定モデルを抽出するステップ6をさらに実行し、
    前記フォークリフトの運用シーンに対応するカテゴリに応じて、前記ステップ5で抽出された前記第1の推定モデルと前記ステップ6で抽出された前記第2の推定モデルとを使い分けて、前記入力ステップで受け付けた前記センシングデータの解析を行い、前記解析によって得られた推定結果を出力する
    こ請求項6に記載のフォークリフト制御方法。
  10. 前記制御ステップにおいて、
    前記ステップ4を実行して得られた複数の推定モデルをそれぞれ用いて前記センシングデータを解析し、
    前記解析によって得られた個別の推定結果から全体の推定結果を算出し、
    前記個別の推定結果と前記全体の推定結果とを比較して各推定モデルによる推定の成否情報を算出し、
    前記算出した前記推定の成否情報と、前記複数の推定モデルのそれぞれに対して前記第2のカテゴリ群の評価データを用いて評価を行った評価結果とに基づいて、前記第2のカテゴリ群のカテゴリごとに、評価データの前記全体の推定結果に対する妥当性を算出し、
    前記第2のカテゴリ群の評価データのうち、前記算出した妥当性が最も高いカテゴリの前記妥当性が所定の閾値以上である場合に、当該カテゴリの前記全体の推定結果に基づいて、前記フォークリフトを制御する
    請求項6に記載のフォークリフト制御方法。
  11. フォークリフトを制御するための推定モデルを学習する機械学習装置であって、
    第1のカテゴリ群の学習データ及び第2のカテゴリ群の評価データの入力を受け付けるデータ取得部と、
    前記第1のカテゴリ群から少なくとも1つのカテゴリの前記学習データを抽出し、前記抽出した学習データを用いて、前記フォークリフトを制御するための前記推定モデルのパラメータを算出するパラメータ算出部と、
    前記第2のカテゴリ群から少なくとも1つのカテゴリの前記評価データを抽出し、前記抽出した評価データを用いて、前記パラメータ算出部によってパラメータが算出された前記推定モデルを評価する推定モデル評価部と、
    前記パラメータ算出部によってパラメータが算出された推定モデルのうち前記推定モデル評価部による評価結果が所定の閾値以上である推定モデルと、当該推定モデルの前記推定モデル評価部による評価に用いられた評価データのカテゴリと、を出力する推定モデル運用評価カテゴリ出力部と、
    を備える機械学習装置。
JP2019171829A 2019-09-20 2019-09-20 機械学習方法、フォークリフト制御方法、及び機械学習装置 Active JP7221183B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019171829A JP7221183B2 (ja) 2019-09-20 2019-09-20 機械学習方法、フォークリフト制御方法、及び機械学習装置
CN202010882862.7A CN112536794A (zh) 2019-09-20 2020-08-28 机器学习方法、叉车控制方法及机器学习装置
US17/007,504 US20210087033A1 (en) 2019-09-20 2020-08-31 Machine learning method, forklift control method, and machine learning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019171829A JP7221183B2 (ja) 2019-09-20 2019-09-20 機械学習方法、フォークリフト制御方法、及び機械学習装置

Publications (2)

Publication Number Publication Date
JP2021047825A JP2021047825A (ja) 2021-03-25
JP7221183B2 true JP7221183B2 (ja) 2023-02-13

Family

ID=74878570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171829A Active JP7221183B2 (ja) 2019-09-20 2019-09-20 機械学習方法、フォークリフト制御方法、及び機械学習装置

Country Status (3)

Country Link
US (1) US20210087033A1 (ja)
JP (1) JP7221183B2 (ja)
CN (1) CN112536794A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11919761B2 (en) * 2020-03-18 2024-03-05 Crown Equipment Corporation Based on detected start of picking operation, resetting stored data related to monitored drive parameter
JP7124852B2 (ja) * 2020-07-30 2022-08-24 カシオ計算機株式会社 教師データの生成方法、教師データの生成装置及びプログラム
US20230068920A1 (en) * 2021-08-27 2023-03-02 Deere & Company Work vehicle fork alignment system and method
US20230139296A1 (en) * 2021-10-29 2023-05-04 Mitsubishi Logisnext Co., LTD. Initial setting method of unmanned forklift, palette for adjustment, and adjustment system of unmanned forklift
TWI799051B (zh) * 2022-01-03 2023-04-11 財團法人工業技術研究院 叉取棧板的自動搬運車和叉取棧板方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087012A (ja) 2017-11-07 2019-06-06 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
JP2019125345A (ja) 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017228086A (ja) * 2016-06-22 2017-12-28 富士通株式会社 機械学習管理プログラム、機械学習管理方法、および機械学習管理装置
CN107767399B (zh) * 2016-08-23 2023-12-29 吴晓栋 叉车监控方法及监控系统
JP6514166B2 (ja) * 2016-09-16 2019-05-15 ファナック株式会社 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
JP2018126799A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP6886869B2 (ja) * 2017-06-09 2021-06-16 川崎重工業株式会社 動作予測システム及び動作予測方法
US20190137991A1 (en) * 2017-11-07 2019-05-09 Stocked Robotics, Inc. Method and system to retrofit industrial lift trucks for automated material handling in supply chain and logistics operations
CN108081266B (zh) * 2017-11-21 2020-03-10 山东科技大学 一种基于深度学习的机械臂手部抓取物体的方法
JP6873941B2 (ja) * 2018-03-02 2021-05-19 株式会社日立製作所 ロボット作業システム、及びロボット作業システムの制御方法
US20200334524A1 (en) * 2019-04-17 2020-10-22 Here Global B.V. Edge learning

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087012A (ja) 2017-11-07 2019-06-06 キヤノン株式会社 情報処理装置、情報処理方法、コンピュータプログラム、及び記憶媒体
JP2019125345A (ja) 2018-01-12 2019-07-25 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム

Also Published As

Publication number Publication date
CN112536794A (zh) 2021-03-23
US20210087033A1 (en) 2021-03-25
JP2021047825A (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
JP7221183B2 (ja) 機械学習方法、フォークリフト制御方法、及び機械学習装置
AU2022201328B2 (en) Industrial vehicle geo-feature system
CN110390248A (zh) 用于操作技术系统的方法、设备、产品和计算机程序
EP2984532B1 (en) Vehicle and operator guidance by pattern recognition
KR102644388B1 (ko) 평활화 필터를 가진 동적 차량 성능 분석기
CN110986945B (zh) 基于语义高度地图的局部导航方法和系统
CN112344945B (zh) 室内配送机器人路径规划方法、系统及室内配送机器人
CN112016585A (zh) 用于将机器学习和大众外包数据标注进行集成的系统和方法
CN110059646A (zh) 训练动作规划模型的方法及目标搜索方法
CN112561859A (zh) 基于单目视觉的锚护用钢带钻孔与锚网识别方法及装置
US20220410391A1 (en) Sensor-based construction of complex scenes for autonomous machines
KR101862545B1 (ko) 로봇을 이용한 구조구난 서비스 제공방법 및 시스템
CN113341978A (zh) 一种基于梯型障碍物的智能小车路径规划方法
Fujitake et al. Development of an automatic tracking camera system integrating image processing and machine learning
Mayoral et al. Integration of a Human-aware Risk-based Braking System into an Open-Field Mobile Robot
Cintas et al. Robust behavior and perception using hierarchical state machines: A pallet manipulation experiment
CN111546327A (zh) 用于确定机器人的动作或轨迹的方法、设备和计算机程序
US20210229292A1 (en) Confidence-Based Bounding Boxes For Three Dimensional Objects
CN117519215B (zh) 多agv车行驶控制方法、装置、设备及存储介质
Paletta et al. Reinforcement learning of predictive features in affordance perception
US20230070734A1 (en) Method and system for configuring variations in autonomous vehicle training simulations
US20230174358A1 (en) Material Handling Vehicle Guidance Systems and Methods
ABDELHAK et al. An Image Processing Approach for Real-Time Safety Assessment of Autonomous Drone Delivery
EP4338059A1 (en) Tools for performance testing autonomous vehicle planners
CN114625146A (zh) 机器人移动控制方法与装置、扫地机器人、存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230201

R150 Certificate of patent or registration of utility model

Ref document number: 7221183

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150