JP2024059511A - 作業ロボット調整方法 - Google Patents

作業ロボット調整方法 Download PDF

Info

Publication number
JP2024059511A
JP2024059511A JP2022167221A JP2022167221A JP2024059511A JP 2024059511 A JP2024059511 A JP 2024059511A JP 2022167221 A JP2022167221 A JP 2022167221A JP 2022167221 A JP2022167221 A JP 2022167221A JP 2024059511 A JP2024059511 A JP 2024059511A
Authority
JP
Japan
Prior art keywords
robot
sensor
worker
movements
mounting member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022167221A
Other languages
English (en)
Inventor
正義 孫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Group Corp
Original Assignee
SoftBank Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Group Corp filed Critical SoftBank Group Corp
Priority to JP2022167221A priority Critical patent/JP2024059511A/ja
Priority to PCT/JP2023/037595 priority patent/WO2024085159A1/ja
Publication of JP2024059511A publication Critical patent/JP2024059511A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】本発明は、作業員の動作分析やプログラミングに掛かる時間及びコストを削減する作業ロボット調整方法を提供することを目的とする。【解決手段】作業ロボット調整方法は、センサを有する移動式ロボットを作業員が動作する環境に移動させ、前記センサを用いて作業員の動作を記録し、前記記録に基づいて、作業員の動作を学習し、前記学習に基づいて、作業員の動作と同じ動作を作業ロボットに行わせ、作業員の動作と前記作業ロボットの動作とが一致するように調整する、工程を有する。【選択図】図1

Description

本発明は、作業環境で作業を行う作業ロボットの調整方法に関する。
近年、例えば工場でのライン作業など、人による作業を作業ロボットに行わせたり、作業ロボットに補助させたりする技術が検討されている。例えば、特許文献1には、データベースに格納された作業対象物の形状等を含む各種情報等に基づいて作業員の作業内容を判定し、また、作業ロボットに設けられた各種センサから取得した情報に基づいて表示装置に情報を表示することで、作業員の作業負担を軽減する支援システムが開示されている。
特開2021-130156号公報
作業員の作業を作業ロボットで再現する場合、作業員の動作分析を行い、動作ごとにロボットにプログラミングする必要がある。この場合、動作分析やプログラミングに時間や人件費等のコストが掛かる。
そこで、本発明は、作業員の動作分析やプログラミングに掛かる時間及びコストを削減する作業ロボット調整方法を提供することを目的とする。
本発明に係る作業ロボット調整方法は、センサを有する移動式ロボットを作業員が動作する環境に移動させ、前記センサを用いて作業員の動作を記録し、前記記録に基づいて、作業員の動作を学習し、前記学習に基づいて、作業員の動作と同じ動作を作業ロボットに行わせ、作業員の動作と前記作業ロボットの動作とが一致するように調整する、工程を有する。
本発明によれば、作業員の動作分析やプログラミングに掛かる時間及びコストを削減する作業ロボット調整方法が提供される。
本発明に係る実施形態1の作業ロボット調整方法での、システム構成の一例を示す図である。 (a)図1に示す作業ロボット及び(b)図1に示すセンサ取付部材の一例を示す図である。 本発明に係る実施形態1の作業ロボット調整方法における、機能構成の一例を示すブロック図である。 本発明に係る実施形態1の作業ロボット調整方法の処理を示すフローチャートの一例である。 センサ取付部材の変形例の一例である。
以下、図面を参照して、作業ロボット調整方法について説明する。ただし、本発明の技術的範囲はそれらの実施の形態には限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。
(実施形態1)
図1は、作業ロボット調整方法を説明するための図である。なお、図1が煩雑になることを避けるため、各センサのセンシング領域の符号については、後述する取付部材用センサ33のセンシング領域330aのみ付している。また、作業ロボット調整方法を行うための作業ロボット調整システム100の詳細については、図3を用いて後述する。
作業ロボット調整方法では、移動式ロボットとして機能する複数の人型ロボット20a~dと、各人型ロボット20a~dにそれぞれが連結するセンサ取付部材30a~dとを備える。
各人型ロボット20a~dは、後述する管理制御装置60(図3参照)からの指令を受け、又は人型ロボット20a~d内部に設けられた情報処理装置25(図3参照)からの指示により、作業場200の作業ライン201で作業する作業員400の付近に移動する。各センサ取付部材30a~dは、各人型ロボット20a~dと連結されているため、人型ロボット20a~dの移動に合わせて移動する。
そして、各人型ロボット20a~d及びセンサ取付部材30a~dに備えられたセンサ23a~d、33a~dにより作業員400の動作が記録される。動作が記録された後、当該記録に基づき、作業員400の動作の学習が行われる。この学習は自動学習により行われる。ここで、自動学習とは、学習済みモデルを自動的に作成することや、学習済みモデルを使用して判定/解析を行う学習のことをいう。
作業員400の動作の学習が行われた後、管理制御装置60からの指令を受け、又は人型ロボット20a~d内部に設けられた情報処理装置25からの指示により、作業員400の動作と同じ動作を、作業ロボットとして機能する人型ロボット20に行わせる。作業員400の動作と同じ動作を人型ロボット20にさせる工程も、自動学習により行われる。
作業員400の動作と同じ動作を人型ロボット20にさせる工程においては、人型ロボット20が自動学習した作業を、例えば300回程度行わせ、自動学習した作業と同じ動作、ルート、スピード等で人型ロボット20が動作を実行できるようになるまで処理が繰り返される。また、自動学習した作業を、例えば20倍速などのスピードを上げて、自動学習した作業と同じ動作、ルート、スピード等で実行できるようになるまで処理が繰り返される。
学習結果を複数の作業ロボット(人型ロボット20)に反映させ、複数の作業ロボットの動作が、スタートから停止するまでが一致するよう調整されるまで、前記処理が繰り返される。これにより、作業員の動作分析やプログラミングに掛かる時間及びコストを削減することが可能となる。
図2は、図1に示す作業ロボット及びセンサ取付部材の一例を示す図である。図2を参照して、人型ロボット20a~d及びセンサ取付部材30a~dの構成を説明する。
図2(a)に示すように、人型ロボット20は、ロボット本体21と、ロボット移動機構22と、ロボット用センサ23と、ロボット用センサ23に含まれるロボット用撮像装置24と、情報処理装置25(図3参照)と、腕部26と、を備える。
人型ロボット20は、ロボット本体21の下方に設けられたロボット移動機構22により移動することが可能であり、例えば管理制御装置といった人型ロボット20の外部から指令を受けて、あるいは情報処理装置25に記録されたプログラムを参照して、作業場200の作業ライン201付近に移動する。
ロボット本体21には、その下方にロボット移動機構22、上方に腕部26、腕部26のさらに上方にロボット用センサ23が設けられている。また、ロボット本体21の内部には、情報処理装置25が設けられている。
ロボット移動機構22は、任意の構成でよく、例えばモーターで駆動する回転体を設けたものでもよいし、脚部として人の脚に形状を似せた構成であってもよい。
ロボット用センサ23は、人型ロボット20の上方、好ましくはロボット本体21の頂上部、言い換えると人型ロボットの頭部付近に設けられ、作業員400を検知する。また、ロボット用センサ23は、人型ロボット20の周辺にある、人型ロボット20が作業する物体と腕部26との距離及び角度を少なくとも表す情報を逐次取得する。ロボット用センサ23の一例としては、最高性能のカメラ、サーモカメラ、高画素・望遠・超広角・360度・高性能カメラ、レーダー、ソリッドステートLiDAR、LiDAR、マルチカラーレーザ同軸変位計、ビジョン認識、又はその他様々なセンサ群が採用され得る。これらは、ロボット用撮像装置24の一例でもある。また他には、ロボット用センサ23の他の一例としては、振動計、硬度計、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、又はロングテールインシデントAI data等が挙げられる。
ロボット用センサ23から取得するセンサ情報の一例としては、画像、距離、振動、熱、匂い、色、音、超音波、紫外線、赤外線等が挙げられ、好ましくはロボット用撮像装置24により、画像、距離の情報が取得される。ロボット用センサ23(ロボット用撮像装置24)は、これらの検知を、一例としてナノ秒毎に実施する。センサ情報は、例えば、作業員400の動作のモーションキャプチャ、作業場200の3Dマップ、作業場200における作業員400の移動や動作のナビゲーション、コーナリング、スピード等の分析に用いられる。
腕部26は、ロボット本体21の上方に、回動自在に取り付けられている。また、腕部26の先端には物体を把持するための把持部(不図示)が取り付けられている。把持部を介して、センサ取付部材30が人型ロボット20に連結される。
なお、人型ロボット20は、ロボット本体21の中央部分、一例として人型ロボットの胴体部にセンサをさらに設けてもよい。この場合、当該センサは、ロボット本体の頂上部付近に設けられたロボット用センサ23とは、その高さ位置が異なる。高さ位置が異なることで、センサは作業員400の動作を異なる角度から検知することができる。
図2(b)に示すように、センサ取付部材30は、取付部材本体31と、取付部材移動機構32と、取付部材用センサ33と、取付部材用撮像装置34と、を備える。センサ取付部材30は、取付部材本体31の下方に設けられた取付部材移動機構32により移動することが可能である。
取付部材本体31は、例えば棒状ないしは杖状の部材であり、その材料は特に限定されない。取付部材本体31の長さは、人型ロボット20の高さ(背丈)よりも長い。取付部材本体31には、その下方、好ましくは下端に取付部材移動機構32、取付部材本体31の上方、好ましくは上端に取付部材用センサ33が設けられている。
取付部材移動機構32は、例えばキャスター等の回転体を設けた構成からなり、人型ロボット20の移動に合わせて、センサ取付部材30が移動することを補助する。なお、本実施形態においては、センサ取付部材30は自律して移動することを想定していないが、取付部材移動機構32に指令を与える取付部材制御部(不図示)を設け、取付部材制御部からの信号に基づき取付部材移動機構32を動かす構成であってもよい。
取付部材用センサ33は、取付部材本体31の上方に設けられ、作業員400を検知する。また、取付部材用センサ33は、人型ロボット20の周辺にある、人型ロボット20が作業する物体と腕部26との距離及び角度を少なくとも表す情報を逐次取得する。取付部材用センサ33の一例は、ロボット用センサ23と同様であり、また取付部材用撮像装置34の一例も、ロボット用撮像装置24の一例と同様である。加えて、取得されるセンサ情報の一例もロボット用センサ23と同様であり、センサ情報の検知タイミングの一例もロボット用センサ23と同様である。
取付部材用撮像装置34は、取付部材用センサ33に含まれる。また、取付部材用撮像装置34を含む取付部材用センサ33は、人型ロボット20の高さ(背丈)よりも高い位置に配置されている。これにより、取付部材用センサ33はロボット用センサ23よりも高い位置から作業員の動作を検知することができる。
取付部材用センサ33は、そのセンシング領域330が作業員400の動作を検知する方向となるよう、取付部材本体31に設けられる。ロボット用センサ23についても、センシング領域(不図示)が作業員400の動作を検知する方向となるよう、ロボット本体21に設けられる。
図1に示すように、4つの人型ロボット20a~d及び4つのセンサ取付部材30a~dは、それぞれが作業員400の動作を異なる位置、高さ又は/及び向きから検知するように配置される。このように、本実施形態では、複数のセンサがそれぞれ異なる位置、高さ又は/及び向きから作業員400の動作を検知するよう配置されることから、作業員400の動作の学習において様々なデータを取得することができる。なお、作業員400の動作を記録するためのロボットの個数は4体に限定されず、1~3体でも、5体以上であっても良い。
また、図1においては、センサ取付部材30dについては、作業員400の手元をセンシングするため、延長部材35d及び追加の取付部材用センサ33d2が設けられている。延長部材35dは、棒状の部材であり、取付部材用センサ33d1付近から水平方向に延びるように配置される。また、延長部材35dの先端に、取付部材用センサ33d2が設けられ、取付部材用センサ33d2は、作業員400をその上部からセンシングする。取付部材用センサ33d2により、作業員400の動作の検知を行いやすくすることができる。さらに、各人型ロボットのロボット本体21にもロボット用センサ23とは別のセンサ(撮像装置)を設ける場合、複数の人型ロボットの有するセンサ数は合計8つ、複数のセンサ用取付部材の有するセンサは合計5つとなり、全体で13個のセンサにより作業員400の動作を検知することができる。
図3は、作業ロボット調整システム100における、機能構成の一例を示すブロック図である。
作業ロボット調整システム100は、人型ロボット20と、センサ取付部材30と、管理制御装置60と、を含んで構成されている。人型ロボット20は、管理制御装置60の対ロボット用通信部68及びセンサ取付部材30と、各々無線又は有線通信を介して接続され、管理制御装置60からの指令を受けると共に、センサ取付部材30からの検知結果を取得する。なお、センサ取付部材30は、管理制御装置60と通信可能に構成されていてもよい。また、人型ロボット20は、1体ではなく、複数体が管理制御装置60と接続されるようにしても良い。
人型ロボット20は、ロボット用センサ23と、ロボット用センサ23に含まれるロボット用撮像装置24と、情報処理装置25と、を備える。
本実施形態による情報処理装置25は、CPU(Central Processing Unit)1212、RAM(Random Access Memory)1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。情報処理装置25はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。情報処理装置25はまた、ROM(Read Only Memory)1230及びキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、情報処理装置25内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時に情報処理装置25によって実行されるブートプログラム等、及び/又は情報処理装置25のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、情報処理装置25に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、情報処理装置25の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信が情報処理装置25及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。
上で説明したプログラム又はソフトウエアモジュールは、情報処理装置25上又は情報処理装置25近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介して情報処理装置25に提供する。
本実施形態におけるフローチャート及び図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
センサ取付部材30は、人型ロボット20の腕部26と連結され、人型ロボット20に合わせて移動する。取付部材用センサ33(取付部材用撮像装置34)は、物体の情報を検知し、取付部材用通信部(不図示)を介して当該情報を情報処理装置25に送信する。
管理制御装置60は、作業調整ロボット調整方法を実現するため、人型ロボット20に対して指令を与える制御装置である。また、管理制御装置60は、記憶装置1224に蓄積されたセンサ情報を取得してもよい。
管理制御装置60は、CPU60A、RAM60B、ROM60C、入出力部(I/O)60D、及びこれらを接続するデータバスやコントロールバス等のバス60E、並びに対ロボット用送受信部68で構成されている。I/O60Dには、記録媒体62が接続されている。
また、I/O60Dには、人型ロボット20の制御系との間で作業情報を含む動作制御情報を送受信する対ロボット用送受信部68が接続されている。
(本発明に係る実施形態1の作業ロボット調整方法の処理)
図4は、本実施形態の作業ロボット調整方法の処理を示すフローチャートの一例である。
まず、管理制御装置60の指令により、あるいは情報処理装置25の記憶装置1224に記憶されたプログラムの読み出し指令により、情報処理装置25は、移動式ロボットとして機能する人型ロボット20を作業場(作業環境)200に移動するよう指示する(ステップS101)。移動は、人型ロボット20のロボット移動機構22の作動による。この際、センサ取付部材30は、人型ロボット20に連結されていることから、人型ロボット20の移動に付随して移動する。
移動に際しては、ロボット用センサ23(ロボット用撮像装置24)及びセンサ取付部材用センサ33(取付部材用撮像装置34)のセンシング領域(撮像領域)が、それぞれ異なる向きから作業員400を検知するよう、指令が与えられる。このような人型ロボット20及びセンサ取付部材30の配置は、例えば予め作業場200のフロア図面を記憶装置1224又は/及び記録媒体62に記録し、各人型ロボット20等の位置を、当該記録されたフロア図面に対応付けることにより行われる。あるいは、人型ロボット20等の配置は、機械学習を通じて最適化された位置に基づく。
次に、複数のセンサ23a~d、33a~d(複数の撮像装置24a~d、34a~d)により、作業員400の作業ライン201での動作が検知される(ステップS102)。各人型ロボット20a~dの情報処理装置25は、各種センサが検知したセンサ情報を取得する。取得されたセンサ情報は、記憶装置1224に記憶される。
情報処理装置25は、記憶装置1224に蓄積された、言い換えると記録されたセンサ情報に基づいて、作業員400の動作を学習する(ステップS103)。学習においては、作業員400の動作のモーションキャプチャ、作業場200の3Dマップ、作業場200における作業員400の移動や動作のナビゲーション、コーナリング、スピード等の分析が行われ、自動学習により人型ロボット20の最適な動作が学習される。
次のステップとして、情報処理装置25又は管理制御装置60は、作業ロボットとして機能する人型ロボット20に対し、ステップS103の自動学習に基づいて、作業員400と同じ動作をするよう指示する(ステップS104)。具体的には、ロボットの腕部26及び/又はロボット移動機構22が、ステップS103の自動学習で得られた作業員400の作業(動作)と同じになるよう、ステップS103の自動学習に基づく動作を、人型ロボット20に繰り返し行わせる。この動作を、例えば数百回、一例としては300回程度行わせ、人型ロボットが自動学習で得られた作業と同じ動作、ルート(移動)、スピード等になるまでこの処理を繰り返す。
また、S104では、例えば20倍速など、自動学習した作業(動作)のスピードを上げて、人型ロボット20にステップS103の自動学習に基づく動作を行わせる。これも、例えば数百回、一例としては300回程度繰り返し動作を行わせ、人型ロボット20が自動学習で得られた作業と同じ動作、ルート(移動)、スピードで行えるまでこの処理が繰り返される。
さらに、情報処理装置25又は管理制御装置60は、人型ロボット(作業ロボット)の動作と作業員400の動作とが一致するよう調整する処理を実施する(ステップS105)。具体的には、情報処理装置25又は管理制御装置60は、複数の作業用ロボット、本実施形態では複数の人型ロボット20に対して、ステップS104で得られた結果に基づき、作業員400と同じ動作をするよう指示する。複数の人型ロボット20の動作がシンクロするまで、この処理が繰り返される。複数の人型ロボット20の動作がシンクロすれば、一連の作業ロボット調整方法は終了する。
(実施形態1に係る作業ロボット調整方法の作用効果)
本実施形態に係る作業ロボット調整方法によれば、移動式ロボットである人型ロボット20にセンサが備えられる一方、人型ロボット20は、予め記憶されたプログラム又は機械学習結果に応じて自動で適切な位置に移動する。そのため、作業場200に固定的なセンサを配置する場合と比較して、作業場に応じてセンサの再配置やセンサ数を増加させる必要がなくなり、短期間及び短コストで作業員400のセンシング環境を整えることができる。
また、人型ロボット20は、センサ(撮像装置)が配置されたセンサ取付部材30と連結されている。そのため、人型ロボット20の移動に際して、複数のセンサを同時に移動させることができる。
また、作業用ロボット調整方法では、センサを有する移動式ロボット(人型ロボット20)により作業員400の作業(動作)をセンシングする構成を採用している。そのため、作業員400の移動に合わせて移動式ロボットを移動させることもでき、作業員400の動作に適した位置でセンシングを行うことが可能となる。
また、センサ取付部材30は、人型ロボットの高さ(背丈)よりも高い位置に取付部材用センサ30(取付部材用撮像装置40)が配置されている。そのため、作業員400の動作を、より俯瞰的な位置からセンシングすることができる。
また、作業用ロボット調整方法では、複数の人型ロボット20a~d及び複数のセンサ取付部材30a~dが各々異なる位置に配置され、これらのセンサにより作業員400の動作をセンシングする構成を採用している。そのため、作業員400の一つの作業を、異なる位置からセンシングすることが可能となり、自動学習をする上で必要となるデータを一度に多く取得することができる。結果として、作業員400の動作分析やプログラミングに掛かる時間及びコストを削減することができる。
また、作業用ロボット調整方法では、センサ情報に基づいて作業員400の動作を自動学習し、自動学習においては、作業員400の動作のモーションキャプチャ、作業場200の3Dマップ、作業場200における作業員400の移動や動作のナビゲーション、コーナリング、スピード等の分析が行われる。そのため、作業員400の動作を一度に多角的な面から分析することが可能となり、作業員400の動作分析やプログラミングに掛かる時間及びコストを削減することができる。
また、作業用ロボット調整方法では、学習に基づき作業ロボット(人型ロボット20)を動作させ、自動学習した作業と作業ロボットの動作とが同じ動作、ルート(移動)、スピード等になるまで処理を繰り返す構成が採用されている。これにより、作業ロボットの動作が、作業員400の作業との正確性を有するかの確認をする時間が短縮される。
また、本実施形態では、移動式ロボットと作業用ロボットとは同一のロボット(人型ロボット20)が用いられている。そのため、工程に分けてロボットを作製する必要がなくなり、作業ロボット調整のコスト及び時間が短縮される。
また、作業用ロボット調整方法では、作業ロボット(人型ロボット20)の動作と作業員との動作とが一致するよう調整する構成が採用されている。これにより、作業ロボットの動作と作業員400の作業との正確性が担保される。
また、作業用ロボット調整方法では、複数台の作業ロボット(人型ロボット20)に自動学習の結果を適用し、複数台の作業ロボットの動作が同一になるまで処理が繰り返す構成が採用されている。そのため、作業ロボットの動作と作業員400の作業との正確性がより担保される。
(センサ取付部材の変形例)
図5は、センサ取付部材の変形例の一例である。
センサ取付部材30’とセンサ取付部材30との違いは、センサ取付部材30’では3つ以上(図5では8つ)のセンサ取付部材用センサ33a’~33g’が設けられていることにある。
具体的には、センサ取付部材30’は、取付部材本体30’と、取付部材移動機構22’と、複数のセンサ取付部材用センサ33a’~33g’(複数の撮像装置)と、複数の延長部材35a’、35b’とを備えている。なお、図5では、図面が煩雑になることを回避するため、延長部材の符号は35a’、35b’のみ付している。
センサ取付部材30’は、複数の延長部材により、その外観は蜘蛛の脚のような構成となっている。また、センサ取付部材30’は、複数のセンサ取付部材用センサ33a’~33g’が、それぞれ異なる向き及び/又は高さに配置されている。
センサ取付部材30’によれば、複数のセンサ(撮像装置)が配置され、取付部材用移動機構32’を介して一度に多数のセンサ(撮像装置)を移動させることができる。これにより、例えばセンサ取付部材を複数台配置するにはスペースが狭いような作業場においても、様々な高さ、位置及び/又は向きから作業員の作業をセンシングすることができる。
以上、本発明の実施の形態について説明したが、本発明は、上述した本発明の実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
本実施形態では、移動式ロボット(人型ロボット)及びセンサ取付部材は複数あるものとして説明した。しかし、これに限らず、例えばセンサを備えた移動式ロボット1つを移動させ、作業員の作業を記録させてもよい。
本実施形態では、S103の学習は、自動学習が行われるものとして説明した。しかし、学習は必ずしも自動学習である必要はなく、他の既知の機械学習、例えばディープラーニング(深層学習)や教師なし/あり学習、強化学習等であってもよい。
本実施形態では、移動式ロボット(人型ロボット)1つに対して、センサ取付部材が1つ連結される構成を示した。しかし、これに限らず、例えば1つの移動式ロボットに対して、複数のセンサ取付部材を連結させてもよい。
本実施形態では、移動式ロボットと作業ロボットとは同じ人型ロボットであるものして説明した。しかし、移動式ロボットと作業ロボットとは、異なるロボットであってもよい。
100 作業ロボット調整システム
200 作業場
201 作業ライン
400 作業員
20 人型ロボット(移動式ロボット、作業ロボット)
23 ロボット用センサ
24 ロボット用撮像装置
25 情報処理装置
30 センサ取付部材
33 取付部材用センサ
34 取付部材用撮像装置
60 管理制御装置

Claims (3)

  1. センサを有する移動式ロボットを作業員が動作する環境に移動させ、
    前記センサを用いて作業員の動作を記録し、
    前記記録に基づいて、作業員の動作を学習し、
    前記学習に基づいて、作業員の動作と同じ動作を作業ロボットに行わせ、
    作業員の動作と前記作業ロボットの動作とが一致するように調整する、
    工程を有する作業ロボット調整方法。
  2. 前記移動式ロボットと前記作業ロボットは同一のロボットである、請求項1に記載の作業ロボット調整方法。
  3. 前記センサは、撮像装置を含み、
    前記撮像装置は、前記移動式ロボットより高い位置に配置されている、
    請求項1又は2に記載の作業ロボット調整方法。
JP2022167221A 2022-10-18 2022-10-18 作業ロボット調整方法 Pending JP2024059511A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022167221A JP2024059511A (ja) 2022-10-18 2022-10-18 作業ロボット調整方法
PCT/JP2023/037595 WO2024085159A1 (ja) 2022-10-18 2023-10-17 作業ロボット調整方法、センシングシステム、センシング方法、移動式ロボット、動作改変システム、動作改変方法、作業ロボット、作業再現システム、作業再現方法、作業習熟システム、作業習熟方法及び作業再現ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022167221A JP2024059511A (ja) 2022-10-18 2022-10-18 作業ロボット調整方法

Publications (1)

Publication Number Publication Date
JP2024059511A true JP2024059511A (ja) 2024-05-01

Family

ID=90828265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022167221A Pending JP2024059511A (ja) 2022-10-18 2022-10-18 作業ロボット調整方法

Country Status (1)

Country Link
JP (1) JP2024059511A (ja)

Similar Documents

Publication Publication Date Title
US11256240B2 (en) Planning and adapting projects based on a buildability analysis
US10282623B1 (en) Depth perception sensor data processing
US9857876B2 (en) Non-linear motion capture using Frenet-Serret frames
KR20190062171A (ko) 자율 머신에서의 오작동 센서의 딥 러닝 기반의 실시간 검출 및 수정
Kolla Paws And Reflect: A Comparative Study of Deep Learning Techniques For Cat Vs Dog Image Classification
CN108177162A (zh) 移动机器人的干扰区域设定装置
CN102781631A (zh) 信息处理装置及控制该装置的方法
CN107422686B (zh) 用于允许对一个或更多个装置的远程控制的设备
CN105224203A (zh) 远程控制器装置及其控制方法
Miura et al. Autoware toolbox: Matlab/simulink benchmark suite for ros-based self-driving software platform
JP2024059511A (ja) 作業ロボット調整方法
US11908337B2 (en) Information processing device, intermediation device, simulation system, and information processing method
WO2024085159A1 (ja) 作業ロボット調整方法、センシングシステム、センシング方法、移動式ロボット、動作改変システム、動作改変方法、作業ロボット、作業再現システム、作業再現方法、作業習熟システム、作業習熟方法及び作業再現ロボット
US20220339788A1 (en) Method and system for positioning sensors within a workspace
CN109227531A (zh) 生成动作程序的编程装置以及程序生成方法
Valigi Lessons learned building a self-driving car on ros
CN113752263A (zh) 一种基于激光传感器的工具标定方法、装置和电子设备
US20210129331A1 (en) Control method, control apparatus, robot apparatus, method of manufacturing an article, motion program creation method, motion program creation apparatus, display apparatus, and control program recording medium
JP4595042B2 (ja) 3次元測定方法およびシステム並びにマニピュレータの制御方法および装置
Horng et al. Building an Adaptive Machine Learning Object-Positioning System in a Monocular Vision Environment
JP2024058514A (ja) 人型ロボットの制御システム及びプログラム
JP2024061572A (ja) シミュレーションシステム及びプログラム
JP2024061567A (ja) ピッキングシステム、プログラム
Owen How to use player/stage
JP7377928B1 (ja) トラッキング装置、プログラム、及びトラッキング方法