JP2024070031A - センシングシステム、センシング方法及び作業ロボット - Google Patents
センシングシステム、センシング方法及び作業ロボット Download PDFInfo
- Publication number
- JP2024070031A JP2024070031A JP2022180376A JP2022180376A JP2024070031A JP 2024070031 A JP2024070031 A JP 2024070031A JP 2022180376 A JP2022180376 A JP 2022180376A JP 2022180376 A JP2022180376 A JP 2022180376A JP 2024070031 A JP2024070031 A JP 2024070031A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information
- sensor
- motion
- sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000033001 locomotion Effects 0.000 claims description 181
- 230000010365 information processing Effects 0.000 claims description 41
- 230000007246 mechanism Effects 0.000 claims description 39
- 230000009471 action Effects 0.000 abstract description 25
- 238000003384 imaging method Methods 0.000 description 63
- 230000006870 function Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 22
- 230000004048 modification Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
【課題】従来のロボット制御方法では、作業ロボットの動作を確認し、適切な動作に調整することができない。【解決手段】センシングシステムでは、第1センサにより取得される第1情報を参照して所定動作を学習する学習部と、学習部による所定動作の学習結果を参照して、作業ロボットに動作指示を与える動作制御情報を生成する動作情報生成部と、第1情報と第2センサにより取得される第2情報とを比較して、作業ロボットのロボット動作が所定動作に近似するように動作制御情報を調整する調整部と、を有する、ことを特徴とする。【選択図】図1
Description
本発明は、センシングシステム、センシング方法及び作業ロボットに関する。
近年、例えば工場でのライン作業など、人による作業を作業ロボットに行わせる技術が検討されている。例えば、特許文献1には、作業情報を表現する2次元コードをセンサで読み取ると共に、作業物体を撮像するセンサで作業物体を撮像し、撮像した画像と作業情報とに基づいて、ロボットに作業をさせるための動作情報を生成し、動作情報に基づいてロボットに作業させるロボット制御方法が開示されている。
特許文献1のロボット制御方法では、作業情報に含まれる作業の内容どおりにロボットが動作しているか否かを確認することが困難であった。また、作業の内容を適切に行えていない場合に、ロボットの動作を適切な動作に調整することも困難であった。
そこで、本発明は、作業ロボットの動作を確認し、適切な動作に調整することができるセンシングシステム、センシング方法及び作業ロボットを提供することを目的とする。
本発明に係るセンシングシステムは、センシング対象の所定動作をセンシングするための第1センサと、動作指示により動作する作業ロボットと、前記作業ロボットのロボット動作をセンシングするための第2センサと、前記第1センサ、前記第2センサ、及び、前記作業ロボットと通信可能な管理制御装置と、を備え、前記管理制御装置は、前記第1センサにより取得される第1情報を参照して前記所定動作を学習する学習部と、前記学習部による前記所定動作の学習結果を参照して、前記作業ロボットに前記動作指示を与える動作制御情報を生成する動作情報生成部と、前記第1情報と前記第2センサにより取得される第2情報とを比較して、前記作業ロボットの前記ロボット動作が前記所定動作に近似するように前記動作制御情報を調整する調整部と、を有する、ことを特徴とする。
また、本発明に係るセンシング方法は、センシング対象の所定動作をセンシングするための第1センサと、動作指示により動作する作業ロボットと、前記作業ロボットのロボット動作をセンシングするための第2センサと、前記第1センサ、前記第2センサ、及び、前記作業ロボットと通信可能な管理制御装置と、を備え、前記管理制御装置は、前記第1センサにより取得される第1情報を参照して前記所定動作を学習し、前記学習部による前記所定動作の学習結果を参照して、前記作業ロボットに前記動作指示を与える動作制御情報を生成し、前記第1情報と前記第2センサにより取得される第2情報とを比較して、前記作業ロボットの前記ロボット動作が前記所定動作に近似するように前記動作制御情報を調整する、ことを特徴とする。
また、本発明に係る作業ロボットは、動作指示により動作する作業ロボットであって、センシング対象の所定動作をセンシングするための第1センサと、前記作業ロボットのロボット動作をセンシングするための第2センサと、前記第1センサ及び前記第2センサと通信可能な情報処理部と、を備え、前記情報処理部は、前記第1センサにより取得される第1情報を参照して前記所定動作を学習する学習部と、前記学習部による前記所定動作の学習結果を参照して、前記作業ロボットに前記動作指示を与える動作制御情報を生成する動作情報生成部と、前記第1情報と前記第2センサにより取得される第2情報とを比較して、前記作業ロボットの前記ロボット動作が前記所定動作に近似するように前記動作制御情報を調整する調整部と、を有する、ことを特徴とする。
本発明によれば、作業ロボットの動作を確認し、適切な動作に調整することができるセンシングシステム、センシング方法及び作業ロボットが提供される。
以下、図面を参照して、センシングシステム、センシング方法及び移動式ロボットについて説明する。ただし、本発明の技術的範囲はそれらの実施の形態には限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。
(実施形態1)
図1は、センシングシステムを説明するための図である。
図1は、センシングシステムを説明するための図である。
図1(a)は、本発明に係る実施形態1のセンシングシステムでの、システム構成の一例を示す図である。センシングシステムでは、移動式ロボットとして機能する第1人型ロボット20a及び第2人型ロボット20bと、作業ロボットとして機能する第3人型ロボットと20cと、を備える。なお、移動式ロボット及び作業ロボットとして機能する人型ロボットの数はこれに限定されない。
第1人型ロボット20aは、後述する管理制御装置60(図2参照)からの指示を受け、又は第1人型ロボット20aに設けられた第1情報処理装置25a(図2参照)からの指示により、作業場200の作業ライン201で作業する作業員400の付近に移動する。センシングシステムは、第1人型ロボット20aに備えられた第1ロボット用センサ23a(第1ロボット用撮像装置24a)により、作業員400の所定動作をセンシングする。所定動作は多岐にわたり、例えば部品の組付けや部品の移動、製品の塗装、作業員自身の移動等が挙げられる。なお、作業員400のセンシングにあたっては、既知の画像認識技術を用いてもよいし、学習部663(図3参照)による学習によって作業員400やその所定動作を認識してもよい。後述する作業ロボットのセンシングについても同様である。
センシングシステムは、第1センサとして機能する第1ロボット用センサ23a(第1ロボット用撮像装置24a)により取得される第1情報を参照して、作業員400の所定動作を学習する。また、センシングシステムは、所定動作の学習結果を参照して、第3人型ロボット20cに動作指示を与える動作制御情報を生成する。
第2人型ロボット20bは、管理制御装置60からの指示を受け、又は第2人型ロボット20bに設けられた第2情報処理装置からの指示により、作業場200の作業ライン201で作業する第3人型ロボット20cの付近に移動する。同様に、第3人型ロボット20cは、管理制御装置60からの指示を受け、又は第3人型ロボット20cに設けられた第3情報処理装置からの指示により、作業場200の作業員400の付近に移動する。
センシングシステムは、動作制御情報を参照して第3人型ロボット20cを作動させる。また、センシングシステムは、第2人型ロボット20bに備えられた第2ロボット用センサ23b(第2ロボット用撮像装置24b)により、第3人型ロボット20cのロボット動作をセンシングする。これにより、本センシングシステムでは、作業ロボットとして機能する第3人型ロボット20cのロボット動作を確認することができる。
センシングシステムは、第1情報と、第2センサとして機能する第2ロボット用センサ23b(第2ロボット用撮像装置24b)により取得される第2情報とを比較して、第3人型ロボット20cのロボット動作が所定動作に近似するように動作制御情報を調整する。これにより、第3人型ロボット20cのロボット動作を適切な動作に調整することが可能となる。
図1(b)は、(a)に示す人型ロボット20の一例を示す図である。移動式ロボット及び作業ロボットとして機能する人型ロボット20は、ロボット本体21と、ロボット移動機構22と、ロボット用センサ23と、ロボット用センサ23に含まれるロボット用撮像装置24と、情報処理装置25と、ロボット腕部26と、を備える。
人型ロボット20は、ロボット本体21の下方に設けられたロボット移動機構22により移動することが可能であり、例えば管理制御装置60といった人型ロボット20の外部から指示を受けて、あるいは情報処理装置25に記憶されたプログラムを参照して、作業場200の作業ライン201付近に移動する。
ロボット本体21は、ロボット胴体211と、ロボット頭部212とを備える。ロボット胴体211とロボット頭部212とは、胴体/頭部駆動機構を構成し、ロボット用センサ23(ロボット用撮像装置24)のセンシング領域230(撮像領域240)を変更することが可能である。駆動機構の構成は特に限定されず、例えば図示しないサーボモータにより、ロボット頭部212がロボット胴体211に対して所定角度回転したり、ロボット胴体211がロボット移動機構22に対して所定角度回転したりする構成であってもよい。
ロボット胴体211の下方にはロボット移動機構22、ロボット胴体211の側方にはロボット腕部26、ロボット頭部212にはロボット用センサ23がそれぞれ設けられている。また、ロボット本体21の内部には、情報処理装置25が設けられている。
ロボット移動機構22は、任意の構成でよく、例えばモーターで駆動する回転体を設けたものでもよいし、脚部として人の脚に形状を似せた構成であってもよい。一例として、ロボット移動機構22を人の脚の形状に似せた構成にする場合、人の関節に相当する箇所にサーボモータを設けて、所定角度回転させることで移動機構を構成する。
第1センサ及び第2センサとして機能するロボット用センサ23は、好ましくはロボット頭部212に設けられ、作業員400や作業ロボットをセンシングする。また、ロボット用センサ23は、人型ロボット20の周辺にある、人型ロボット20が作業する物体とロボット腕部26との距離及び角度を少なくとも表す情報を逐次取得する。ロボット用センサ23の一例としては、最高性能のカメラ、サーモカメラ、高画素・望遠・超広角・360度・高性能カメラ、レーダー、ソリッドステートLiDAR、LiDAR、マルチカラーレーザ同軸変位計、ビジョン認識、又はその他様々なセンサ群が採用され得る。これらは、ロボット用撮像装置24の一例でもある。また他には、ロボット用センサ23の他の一例としては、振動計、硬度計、微小振動計、超音波測定器、振動測定器、赤外線測定器、紫外線測定器、電磁波測定器、温度計、湿度計、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、又はロングテールインシデントAI data等が挙げられる。
ロボット用センサ23から取得するセンサ情報の一例としては、画像、距離、振動、熱、匂い、色、音、超音波、電波、紫外線、赤外線、湿度等が挙げられ、好ましくはロボット用撮像装置24により、画像、距離の情報が取得される。ロボット用センサ23(ロボット用撮像装置24)は、これらのセンシングを、一例としてナノ秒毎に実施する。センサ情報は、例えば、作業員400の動作のモーションキャプチャ、作業場200の3Dマップ、作業場200における作業員400の移動や動作のナビゲーション、コーナリング、スピード等の分析に用いられる。
ロボット腕部26は、右腕部261と左腕部262とを備える。また、右腕部261は、右把持支持部263及び右把持部265を、左腕部262は、左把持支持部264及び左把持部266を、それぞれ備える。右把持支持部263は右把持部265を、左把持支持部264は左把持部266を、それぞれ支持するための機構であり、一例としては人の腕に形状を似せたものであってもよい。把持部265、266は、例えば作業用の部品等を把持するための機構であり、一例としては人の手の形状に似せたものであってもよい。
ロボット腕部26は、腕部駆動機構を構成する。駆動機構の構成は特に限定されず、例えば、ロボット腕部26を人の形状に似せる場合、サーボモータを、人の肩に相当する箇所、肘に相当する箇所、手首に相当する箇所、指関節に相当する箇所等の各関節箇所に設け、所定角度回転させる構成を採用してもよい。
なお、人型ロボット20は、例えばロボット胴体部211にセンサをさらに設けてもよい(図8(b)参照)。この場合、当該センサは、ロボット頭部212に設けられたロボット用センサ23とは、その高さ位置が異なる。高さ位置が異なることで、センサは作業員400の動作を異なる角度からセンシングすることができる。
図2は、本実施形態のセンシングシステム100での、構成及び機能の一例を示すブロック図である。
センシングシステム100は、第1人型ロボット20aと、第2人型ロボット20bと、第3人型ロボット20cと、管理制御装置60と、を含んで構成されている。第1人型ロボット20a、第2人型ロボット20b及び第3人型ロボット20cは、管理制御装置60の通信部64と、各々無線又は有線通信を介して接続され、管理制御装置60からの指示を受けると共に、各センサにより取得される情報を送信する。なお、各人型ロボット20a~c同士も、無線又は有線通信を介して接続され、各センサにより取得される情報や指示を送受信してもよい。
移動式ロボットとして機能する第1人型ロボット20aは、第1移動機構22aと、第1センサとして機能する第1ロボット用センサ23aと、第1ロボット用センサ23aに含まれる第1ロボット用撮像装置24aと、第1情報処理装置25aと、第1胴体/頭部駆動機構21aと、第1腕部駆動機構26aと、を備える。本実施形態では、移動式ロボットとして機能する第2人型ロボット20b及び作業ロボットとして機能する第3人型ロボット20cも、その構成は第1人型ロボット20aと同一である。
本実施形態による第1情報処理装置25aは、CPU(Central Processing Unit)1212、RAM(Random Access Memory)1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。第1情報処理装置25aはまた、通信インタフェース1222、記憶装置1224、DVDドライブ、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。第1情報処理装置25aはまた、ROM(Read Only Memory)1230及びキーボードのような入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、第1情報処理装置25a内のCPU1212によって使用されるプログラム及びデータを格納する。また、記憶装置1224は、第1情報及び第2情報を記憶してもよい。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
ROM1230はその中に、アクティブ化時に第1情報処理装置25aによって実行されるブートプログラム等、及び/又は第1情報処理装置25aのハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、第1情報処理装置25aに読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、第1情報処理装置25aの使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
例えば、通信が第1情報処理装置25a及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。
上で説明したプログラム又はソフトウエアモジュールは、第1情報処理装置25a上又は第1情報処理装置25a近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介して第1情報処理装置25aに提供する。
本実施形態におけるフローチャート及び図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表してよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
ここまで説明してきた内容は、第2人型ロボット20b及び第3人型ロボット20cのそれぞれに備えられた情報処理装置についても同様である。
管理制御装置60は、センシングシステム100を実現するため、人型ロボット20a~cに対して指示を与える制御装置である。また、管理制御装置60は、記憶装置1224に蓄積されたセンサ情報(第1情報及び第2情報)を取得する。
管理制御装置60は、CPU60A、RAM60B、ROM60C、入出力部(I/O)60D、及びこれらを接続するデータバスやコントロールバス等のバス60E、並びに通信部68で構成されている。I/O60Dには、記憶媒体62が接続されている。
また、I/O60Dには、人型ロボット20の制御系との間で、センサ情報や作業員400の所定動作に関連する作業マニュアル情報、工程表情報等を送受信する通信部64が接続されている。作業マニュアル情報には、例えば各作業項目の名称及び内容、作業項目の順序、各作業項目に要する標準的な作業時間の情報等が含まれる。また、工程表情報には、例えば作業全体の作業時間や開始時刻/終了時刻を示す情報、各作業項目の作業時間や開始時刻/終了時刻を示す情報、各作業項目の作業員を示す情報等が含まれる。
図3は、本実施形態のセンシングシステムでの、管理制御装置60の機能の一例を示すブロック図である。
管理制御装置60は、記憶媒体62と、通信部64と、処理部66とを備える。
記憶媒体62は、例えば、半導体記憶装置、磁気テープ装置、磁気ディスク装置、又は光ディスク装置のうちの少なくとも一つを備える。記憶媒体62は、処理部66での処理に用いられるドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム、データ等を記憶する。例えば、記憶媒体62は、第1情報及び第2情報を記憶する。また、記憶媒体62は、作業員400の作業マニュアル情報を記憶する。なお、記憶媒体62は、工程表情報を記憶してもよい。
通信部64は、Wi-Fi(登録商標)等の無線の通信インタフェース回路及び/又はイーサネット(登録商標)等の有線の通信インタフェース回路を有する。通信部64は、人型ロボット20a~cと、インタフェース回路を通じて各種情報を送受信する。
処理部66は、一又は複数個のプロセッサ及びその周辺回路を有する。処理部66は、センシングシステム100の全体的な動作を統括的に制御するものであり、例えば、CPUである。処理部66は、記憶媒体62に記憶されているプログラム(ドライバプログラム、オペレーティングシステムプログラム、アプリケーションプログラム等)を参照して処理を実行する。また、処理部66は、複数のプログラム(アプリケーションプログラム等)を並列に実行することができる。
処理部66は、判定部661と、調整部662と、学習部663と、動作情報生成部664と、を備える。これらの各部は、処理部66が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、これらの各部は、ファームウェアとして処理部66に実装されてもよい。
判定部661は、所定動作に関連するマニュアル情報の有無を判定し、作業マニュアル情報がある場合に、所定動作の学習結果が作業マニュアル情報と相反するか判定する。
調整部662は、第1情報と第2情報とを比較して、第3人型ロボット20cのロボット動作が所定動作に近似するように動作制御情報を調整する。好ましくは、調整部662は、オーバーラップ期間に、ロボット動作が所定動作に近似するように動作制御情報を調整する。オーバーラップ期間は、第1センシング期間と第2センシング期間とが重なる期間である。ここで、第1センシング期間は、第1センサとして機能する第1ロボット用センサ23a(第1ロボット用撮像装置24a)が作業員400をセンシングして第1情報を取得する期間である。また、第2センシング期間は、第2センサとして機能する第2ロボット用センサ23b(第2ロボット用撮像装置24b)が第3人型ロボット20cのロボット動作をセンシングして第2情報を取得する期間である。すなわち、オーバーラップ期間は、第1情報の取得と第2情報の取得とが同時に行われる期間である。
学習部663は、記憶媒体62及び/又は記憶装置1224に記憶された第1情報を参照して作業員400の所定動作を学習する。この学習は、例えば、学習済みモデルを自動的に作成したり、学習済みモデルを使用して判定/解析を自動的に行ったりする学習である自動学習により行われる。
動作情報生成部664は、学習部663による作業員400の所定動作の学習結果を参照して、作業ロボットとして機能する第3人型ロボット20cに動作指示を与える動作制御情報を生成する。動作情報生成部664は、動作制御情報を生成する際、作業マニュアル情報を参照してもよい。これにより、作業員400の所定動作に不適切なものがあっても、その所定動作は反映させず、適切な動作(作業)を第3人型ロボット20cに行わせることが可能となる。
図4は、本センシングシステム100での、各センシング期間の一例を示す図である。本センシングシステム100では、オーバーラップ期間が生じるよう、第1センサがセンシングし、かつ第2センサがセンシングする。このようなセンシングは、管理制御装置60の指示による。
本センシングシステム100では、作業員400の所定動作のセンシング最中(すなわち第1センシング期間)から第3人型ロボット20cのロボット動作を開始させると共に、第3人型ロボット20cのロボット動作のセンシング最中(すなわち第2センシング期間)に、調整部662は、当該ロボット動作が作業員400の所定動作に近似するように動作制御情報を調整する。これにより、作業用ロボットである第3人型ロボット20cのロボット動作を、その場で調整していくことが可能となる。
(本発明に係る実施形態1のセンシングシステムの処理)
図5は、本実施形態のセンシングシステムの処理を示すフローチャートの一例である。
図5は、本実施形態のセンシングシステムの処理を示すフローチャートの一例である。
まず、管理制御装置60の指示により、あるいは記憶媒体62又は記憶装置1224に記憶されたプログラムの読み出し指示により、各人型ロボット20の情報処理装置は、移動式ロボット及び作業ロボットとして機能する複数台(本実施形態では3台)の人型ロボット20を作業場200に移動するよう指示する(ステップS101)。移動は、各人型ロボット20のロボット移動機構22の作動による。
移動に際しては、第1人型ロボット20aに備えられた第1ロボット用センサ23a(第1ロボット用撮像装置24a)のセンシング領域230a(撮像領域240a)が作業員400を対象とする一方、第2人型ロボット20bに備えられた第2ロボット用センサ23b(第2ロボット用撮像装置24b)のセンシング領域230b(撮像領域240b)が第3人型ロボット20cを対象とするよう、指示が与えられる。このような複数台の人型ロボット20の配置は、例えば予め作業場200のフロア図面を記憶装置1224及び/又は記憶媒体62に記憶させ、各人型ロボット20の位置を、当該記憶されたフロア図面に対応付けることにより行われる。あるいは、人型ロボット20の配置は、機械学習を通じて最適化された位置に基づいてもよい。
次に、第1ロボット用センサ23a(第1ロボット用撮像装置24a)により、作業員400の作業ライン201での所定動作がセンシングされる(ステップS102)。本実施形態では、処理部66は、第1センサ23a(第1撮像装置24a)のセンシング領域230a(撮像領域240a)が作業員400の所定動作を対象とするよう指示を与え、これを受けて第1情報処理装置25aは、第1人型ロボット20aの第1移動機構22aや胴体/頭部駆動機構21aを作動させる。
第1ロボット用センサ23a(第1ロボット用撮像装置24a)により取得される第1情報は、記憶装置1224及び/又は通信部64を介して記憶媒体62に記憶される。記憶装置1224及び記憶媒体62は、記憶部として機能する。
管理制御装置60は、記憶部に蓄積された、言い換えると記憶された第1情報を参照して所定動作を学習し、学習結果を参照して、作業ロボットとして機能する第3人型ロボット20cに動作指示を与える動作制御情報を生成する(ステップS103)。S103は、好ましくは第1センシング期間に実施される。これにより、センシングシステム100は、作業のために作業員400が所定動作している段階から、第3人型ロボット20cを作動させることが可能となる。
管理制御装置60は、動作制御情報を参照して第3人型ロボット20cを作動させる(ステップS104)。第3人型ロボット20cは、動作制御情報により与えられた動作指示により動作する。
動作制御情報による第3人型ロボット20cのロボット動作(S104)に前後して、第2ロボット用センサ23b(第2ロボット用撮像装置24b)により、第3人型ロボット20cのロボット動作がセンシングされる(ステップS105)。これにより、第3人型ロボット20cのロボット動作を確認することができる。
本実施形態では、処理部66は、第2ロボット用センサ23b(第2ロボット用撮像装置24b)のセンシング領域230b(撮像領域240b)が第3人型ロボット20cのロボット動作を対象とするよう指示を与え、これを受けて、第2人型ロボット20bの第2情報処理装置は、第2人型ロボット20bの第2移動機構や第2胴体/頭部駆動機構を作動させる。第2センサ23b(第2撮像装置24b)により取得される第2情報は、記憶部に記憶される。
管理制御装置60は、ロボット動作が所定動作に近似するように動作制御情報を調整する(ステップS106)。好ましくは、ステップS106は、オーバーラップ期間に実施される。これを実現するため、管理制御装置60は、第1センサによる第1情報の取得と、第2センサによる第2情報の取得を同時に行う。これにより、センシングシステム100は、作業員400が所定動作している段階から、第3人型ロボット20cのロボット動作を作業員400の所定動作に近似するよう調整することができる。
図6は、図5のステップS103で示される動作制御情報生成処理の、より詳細な処理を示すフローチャートの一例である。
第1情報は記憶部に記憶される(ステップS201)ところ、学習部663は、記憶部に記憶された第1情報を参照して、作業員400の所定動作を学習する(ステップS202)。学習においては、作業員400の動作のモーションキャプチャ、作業場200の3Dマップ、作業場200における作業員400の移動や動作のナビゲーション、コーナリング、スピード等の分析が行われ、自動学習により作業ロボットとしても機能可能な人型ロボット20の最適な動作が学習される。これにより、作業員400の所定動作を一度に多角的な面から分析することが可能となり、作業員400の動作分析やプログラミングに掛かる時間及びコストを削減することができる。
ここで、判定部661は、所定動作に関連するマニュアル動作情報の有無を判定する(ステップS203、S204)。所定動作に関連するマニュアル動作情報がない場合(S204-NO)、動作情報生成部664は、学習部663による所定動作の学習結果を参照して(ステップS208)、第3人型ロボット20cに動作指示を与える動作制御情報を生成する(ステップS209)。そして、処理部66は、動作制御情報を参照して第3人型ロボット20cを作動させる(ステップS210)。これにより、第3人型ロボット20cは、作業員400の作業(所定動作)に対応するロボット動作を行うことが可能となる。
他方、所定動作に関連するマニュアル動作情報がある場合(S204-YES)、判定部661は、所定動作の学習結果が作業マニュアル情報と相反するか判定する(ステップS205、S206)。判定部661により所定動作の学習結果が作業マニュアル情報と相反すると判定される場合(S206-YES)、作業員400の動作が作業マニュアル情報に含まれる作業項目の内容に適さない動作となっていた可能性がある。そこで、所定動作の学習結果が作業マニュアル情報と相反すると判定される場合には、動作情報生成部664は、所定動作の学習結果を、動作制御情報を生成する際に採用しない(ステップS208)。この場合、動作情報生成部664は、作業マニュアル情報を参照して(ステップS207)動作制御情報を生成する(ステップS209)。そして、処理部66は、動作制御情報を参照して第3人型ロボット20cを作動させる(ステップS210)。これにより、作業員400による不要ないしは不適切な所定動作が動作制御情報に反映されることを抑制し、適切な動作を第3人型ロボット20cに行わせることが可能となる。
図7は、図5のステップS106で示される動作制御情報調整処理の、より詳細な処理を示すフローチャートの一例である。
第2情報は記憶部に記憶される(ステップS301)ところ、調整部662は、第1情報と第2情報と比較し(ステップS302)、ロボット動作が所定動作に近似するように動作制御情報を調整する(ステップS303)。すなわち、第3人型ロボット20cのロボット動作が作業員400の所定動作と近似するよう調整される。
(実施形態1に係るセンシングシステムの作用効果)
本実施形態に係るセンシングシステム100によれば、作業員400の所定動作をセンシングする第1センサにより取得される第1情報と、作業ロボットをセンシングする第2センサにより取得される第2情報とを比較して、作業ロボットのロボット動作が所定動作に近似するように動作制御情報が調整される。これにより、作業ロボットのロボット動作を確認しつつ、作業ロボットの動作を適切なものに調整することができる。
本実施形態に係るセンシングシステム100によれば、作業員400の所定動作をセンシングする第1センサにより取得される第1情報と、作業ロボットをセンシングする第2センサにより取得される第2情報とを比較して、作業ロボットのロボット動作が所定動作に近似するように動作制御情報が調整される。これにより、作業ロボットのロボット動作を確認しつつ、作業ロボットの動作を適切なものに調整することができる。
一例として、作業員400が同じ所定動作を繰り返し行うような作業の場合、まず作業員400に1回目の所定動作をさせ、センシングシステム100は第1情報を取得する。そして、作業員400が2回目の所定動作を行っている間に、センシングシステム100は、動作制御情報を生成して作業ロボットを作動させる。この最中にも作業員400が2回目の所定動作を行っていることから、センシングシステム100は、2回目の所定動作による第1情報に基づいて動作制御情報を生成し、作業ロボットのロボット動作が作業員400の所定動作に近似するように動作制御情報を調整する。これを繰り返すことで、センシングシステム100は作業ロボットのロボット動作が作業員400の所定動作に近似するようにロボット動作を調整することが可能となる。
また、本実施形態に係るセンシングシステム100によれば、管理制御装置60は、第1情報の取得と、第2情報の取得を同時に行うことから、作業ロボットと作業員400の所定動作を照合しながら、作業ロボットの動作をその場で調整することが可能なシステムを提供することができる。
また、本実施形態に係るセンシングシステム100によれば、動作制御情報生成の際に、作業マニュアル情報が参照された上で、動作制御情報が生成される。作業員400は、いつでも作業に忠実な動作をするとは限らず、場合によっては無駄な動作をしたり、あるいは必要な動作を省いたりすることもある。そこで、作業マニュアル情報を参照することで、適切な動作情報を動作制御情報に反映させることができ、作業ロボットをより適切に動作させるよう調整することを可能とする。
さらに、本実施形態に係るセンシングシステム100によれば、作業マニュアル情報と相反する学習部663による所定動作の学習結果を、動作制御情報を生成する際に採用しない。これにより、作業員400による不要ないしは不適切な所定動作が動作制御情報に反映されることを抑制することができる。
(実施形態1の変形例1)
図8は、本実施形態の変形例1に係るセンシングシステムの一例を示す図である。
図8は、本実施形態の変形例1に係るセンシングシステムの一例を示す図である。
図8(a)本発明に係る実施形態1の変形例1に係るセンシングシステムでの、システム構成の一例を示す図である。本センシングシステムでは、作業ロボットとして機能する人型ロボット20'において、頭部センサ23'(頭部撮像装置24'')が第1センサとして機能すると共に、第2センサとして機能する胴体センサ23''(胴体撮像装置24'')が人型ロボット20'に設けられている点が特徴となっている。また、本センシングシステムでは、管理制御装置60は必ずしも必要ではなく、人型ロボット20'単体でセンシングシステムを構成することができる。
図8(b)は、図8(a)に示す作業ロボットの一例を示す図である。作業ロボットとして機能する人型ロボット20'は、胴体センサ23''(胴体撮像装置24'')を備える以外には、第1人型ロボット20aと同様の構成である。具体的には、人型ロボット20'は、ロボット本体21'と、ロボット移動機構22'と、頭部センサ23'と、頭部センサ23'に含まれる頭部撮像装置24'と、胴体センサ23''と、胴体センサ23''に含まれる胴体撮像装置24''と、情報処理装置25'と、ロボット腕部26'と、を備える。
ロボット本体21'は、ロボット胴体211'と、ロボット頭部212'とを備える。ロボット胴体211'とロボット頭部212'とは、胴体/頭部駆動機構21'(図9参照)を構成し、頭部センサ23'(頭部撮像装置24')のセンシング領域230'(撮像領域240')及び胴体センサ23''(胴体撮像装置24'')のセンシング領域230''(撮像領域240'')を変更することが可能である。
頭部センサ23'(頭部撮像装置24')は第1センサとして機能し、胴体センサ23''(胴体撮像装置24'')は第2センサとして機能する。胴体センサ23''(胴体撮像装置24'')は、例えば、ロボット動作としてロボット腕部26'の動作をセンシングする。頭部センサ23'(頭部撮像装置24')と胴体センサ23''(胴体撮像装置24'')とは、高さ位置が異なる箇所に配置されることから、第2センサとして機能する胴体センサ23''(胴体撮像装置24'')は、頭部センサ23'(頭部撮像装置24')と異なる位置からセンシング対象の所定動作をセンシングすることとなる。なお、頭部センサ23'(頭部撮像装置24')と胴体センサ23''(胴体撮像装置24'')との役割は、逆であってもよい。
図9は、本センシングシステム100'での、作業ロボットの機能の一例を示すブロック図である。センシングシステム100'では、情報処理装置25'は、情報処理部66'と、通信インタフェース1222'と、記憶装置1224'とを備え、情報処理部66'は、判定部661'と、調整部662'と、学習部663'と、動作情報生成部664'と、を備える。すなわち、センシングシステム100'では、情報処理部66'が管理制御装置60の処理部66と同様の処理を行う。なお、情報処理装置25'は、頭部センサ23'(頭部撮像装置24')、胴体センサ23''(頭部撮像装置24'')、第1移動機構22'、頭部/胴体駆動機構21'及び腕部駆動機構26'と通信可能に構成されている。
センシングシステム100'の人型ロボット20'は、情報処理装置25'に情報処理部66'が備えられていることから、人型ロボット20'単体でセンシングシステムを構成する。
図8を参照して、例えば人型ロボット20'の調整部662'は、第1センサとして機能する頭部センサ23'(頭部撮像装置24')が作業員400の所定動作を、第2センサとして機能する胴体センサ23''(胴体撮像装置24'')が人型ロボット20'の腕部26'をそれぞれセンシングするよう指示する。そして、各センサで取得されるセンサ情報(第1情報及び第2情報)から、学習部663'の学習を通じて動作制御情報が生成され、調整部662'は、第1情報と第2情報とを比較し、人型ロボット20'のロボット動作が作業員400の所定動作に近似するように動作制御情報を調整する。
(変形例1の作用効果)
本センシングシステムによれば、人型ロボット20'は単独でセンシングシステムを構成することができることから、例えば、管理制御装置60との通信ができないような場所においても、作業ロボットのロボット動作を確認しつつ、ロボット動作を適切な動作に調整することが可能となる。
本センシングシステムによれば、人型ロボット20'は単独でセンシングシステムを構成することができることから、例えば、管理制御装置60との通信ができないような場所においても、作業ロボットのロボット動作を確認しつつ、ロボット動作を適切な動作に調整することが可能となる。
また、本人型ロボット20'は、複数(本変形例では2つ)のセンサ(撮像装置)を備えていることから、例えば、作業員400をセンシングするには狭い場所においても、作業ロボットのロボット動作を確認しつつ、ロボット動作を適切な動作に調整することが可能となる。
なお、本センシングシステムにおいて、作業ロボットとして機能する人型ロボットは、必ずしも1台である必要はなく、複数台であってもよい。この場合、人型ロボットの数が増えるだけ、作業を行う人型ロボットが増えることとなり、一度に多くの作業を同時並行的に処理することができる。
(実施形態1の変形例2)
図10は、本実施形態の変形例2に係るセンシングシステムでの、システム構成の一例を示す図である。
図10は、本実施形態の変形例2に係るセンシングシステムでの、システム構成の一例を示す図である。
本センシングシステムでは、変形例1で説明した人型ロボット20'と同一の機能を有する第1人型ロボット20aが、作業員400及び作業ロボットとして機能する第3人型ロボット20cをセンシングする点が特徴となっている。具体的には、第1人型ロボット20aの頭部センサ23a1(頭部撮像装置24a1)のセンシング領域230a1(撮像領域240a1)が第3人型ロボット20cを、第1人型ロボット20aの胴体センサ23a2(胴体撮像装置24a2)のセンシング領域230a2(撮像領域240a2)が作業員400を、それぞれ対象とするよう指示が与えられる。なお、本センシングシステムでも、第1人型ロボット20aと第3人型ロボット20cとが通信可能に構成されていれば、管理制御装置60は必ずしも必要ではない。また、頭部センサ23a1(頭部撮像装置24a1)と胴体センサ23a2(胴体撮像装置24a2)の各センシング領域は、上記と逆の構成であってもよい。
本センシングシステムでは、第3人型ロボット20cの全体をセンシングすることができるため、変形例1と比較すると、第3人型ロボット20cのロボット動作をより確認しやすく、適切に制御しやすいという利点を有する。
なお、変形例1も、第1人型ロボット20aを配置する空間がない場合には、変形例2よりもセンシングシステムを構成しやすいという利点を有する。また、第1人型ロボット20aと第3人型ロボット20cとの通信構成を備える必要がなく、かつ人型ロボットを一体省略できる点でも、変形例2より利点を有する。
(実施形態1の変形例3)
図11は、本実施形態の変形例3に係るセンシングシステムの一例を示す図である。
図11は、本実施形態の変形例3に係るセンシングシステムの一例を示す図である。
図11(a)は、実施形態1の変形例3に係るセンシングシステムでの、システム構成の一例を示す図である。本センシングシステムでは、移動式ロボットとして機能する第1人型ロボット20aが、センサ取付部材30を把持する点が特徴となっている。
図11(b)は、(a)に示すセンサ取付部材の一例を示す図である。センサ取付部材30は、取付部材本体31と、取付部材移動機構32と、取付部材用センサ33と、取付部材用撮像装置34と、を備える。センサ取付部材30は、取付部材本体31の下方に設けられた取付部材移動機構32により移動することが可能である。もっとも、取付部材移動機構32は設けられなくてもよい。
取付部材本体31は、例えば棒状ないしは杖状の部材であり、その材料は特に限定されない。取付部材本体31の長さは、人型ロボット20の高さ(背丈)よりも長く、例えば2.1メートルである。取付部材本体31には、その下方、好ましくは下端に取付部材移動機構32、取付部材本体31の上方、好ましくは上端に取付部材用センサ33が設けられている。
取付部材移動機構32は、例えばキャスター等の回転体を設けた構成からなり、人型ロボット20の移動に合わせて、センサ取付部材30が移動することを補助する。なお、本実施形態においては、センサ取付部材30は自律して移動することを想定していないが、取付部材移動機構32に指示を与える取付部材制御部(不図示)を設け、取付部材制御部からの信号に基づき取付部材移動機構32を動かす構成であってもよい。
図11(a)も参照して、第1センサとして機能する取付部材用センサ33(取付部材用撮像装置34)は、取付部材本体31の上方に設けられ、作業員400をセンシングする。取付部材用センサ33の一例は、ロボット用センサ23と同様であり、また取付部材用撮像装置34の一例も、ロボット用撮像装置24の一例と同様である。加えて、取得されるセンサ情報の一例もロボット用センサ23と同様であり、センサ情報のセンシングタイミングの一例もロボット用センサ23と同様である。
取付部材用撮像装置34は、取付部材用センサ33に含まれる。また、取付部材用撮像装置34を含む取付部材用センサ33は、人型ロボット20の高さ(背丈)よりも高い位置に配置されている。これにより、取付部材用センサ33はロボット用センサ23よりも高い位置から作業員400の動作をセンシングすることができる。
図12は、実施形態1の変形例3に係るセンシングシステムでの、構成及び機能の一例を示す図である。センシングシステム100''において、センサ取付部材30は、第1人型ロボット20aの第1情報処理装置と、無線又は有線を介して通信可能に構成される。もっとも、センサ取付部材30は、第1情報処理装置の代わりに又は共に、管理制御装置60の通信部64と通信可能に構成されてもよい。なお、センシングシステム100''の第1人型ロボット20a、作業ロボットとして機能する第3人型ロボット20c及び管理制御装置60の構成は、センシングシステム100のそれらと同様である。
図11も参照して、第1人型ロボット20aは、腕部駆動機構を構成するロボット腕部の一部である右把持部(又は左把持部)により、センサ取付部材30を把持する。センサ取付部材30の取付部材用センサ33(取付部材用撮像装置34)は、腕部駆動機構によりそのセンシング領域330(撮像領域340)を変更することが可能である。
センシングシステム100''では、例えば、管理制御装置60の処理部は、第1センサとして機能する取付部材用センサ33(取付部材用撮像装置34)が作業員400を、第2センサとして機能する第1ロボット用センサ23a(第1ロボット用撮像装置24a)が第3人型ロボット20cをそれぞれセンシングするよう指示する。そして、各センサで取得されるセンサ情報(第1情報及び第2情報)から、管理制御装置60の学習部の学習を通じて動作制御情報がそれぞれ生成され、管理制御装置60の調整部は、第1情報と第2情報とを比較し、第3人型ロボット20cのロボット動作が作業員400の所定動作と近似するように動作制御情報を調整する。なお、取付部材用センサ33(取付部材用撮像装置34)と第1ロボット用センサ23a(第1ロボット用撮像装置24a)との役割(第1センサ及び第2センサとしての機能)は、逆であってもよい。すなわち、第1ロボット用センサ23a(第1ロボット用撮像装置24a)が作業員400を、取付部材用センサ33(取付部材用撮像装置34)が第3人型ロボット20cを、それぞれセンシングするよう指示する構成であってもよい。
(変形例3の作用効果)
本センシングシステムによれば、取付部材用センサ33(取付部材用撮像装置34)を第2センサとして構成していることから、例えば、作業員400をセンシングする際に、移動式ロボットとして機能する人型ロボットを複数台設置するには狭い場所においても、作業ロボットの動作を確認しつつ、適切に制御することが可能となる。
本センシングシステムによれば、取付部材用センサ33(取付部材用撮像装置34)を第2センサとして構成していることから、例えば、作業員400をセンシングする際に、移動式ロボットとして機能する人型ロボットを複数台設置するには狭い場所においても、作業ロボットの動作を確認しつつ、適切に制御することが可能となる。
また、本センシングシステムによれば、センサ取付部材30は、人型ロボット20の高さ(背丈)よりも高い位置に取付部材用センサ30(取付部材用撮像装置40)が配置されている。そのため、作業員400(あるいは作業ロボット)の動作を、より俯瞰的な位置からセンシングすることができ、例えば作業員400や作業ロボットの背中によりセンシングしにくいといった事態を回避しやすく、作業員400や作業ロボットの作業の学習に必要なデータを効率よく取得することができる。
なお、本センシングシステムにおいても、移動式ロボットとして機能する人型ロボットは1台でなくてよく、センサ取付用部材も1つだけでなくてよい。例えば、2つのセンサ取付用部材を両保持部265、266により保持した人型ロボット20を複数台備えていてもよい。この場合も、センサの数を増加させることができ、一度にセンサ情報を多く取得することが可能となる。また、作業ロボットとして機能する人型ロボットも、1台でなくてよい。
以上、本発明の実施の形態について説明したが、本発明は、上述した本発明の実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。
本実施形態のセンシングシステム100では、センサと移動機構とを備える移動式ロボット(人型ロボット)は2台、作業ロボット(人型ロボット)は1台を用い、作業員400一人及び作業ロボット1台に対してそれぞれ1台ずつ移動式ロボットが配置される構成を説明した。しかし、移動式ロボットと作業員400及び作業ロボットとの関係はこれに限定されない。例えば、センサと移動機構とを備える移動式ロボットの台数が多ければ、それぞれ異なる位置、高さ及び/又は向きから作業員400の所定動作及び作業ロボットのロボット動作をセンシングするよう複数のセンサを配置することが可能となる。これにより、作業員400の所定動作及び作業ロボットのロボット動作の学習に必要な様々なデータを取得しやすくなると共に、作業員400及び作業ロボットの各動作を全体的にカバーできるようにセンシングすることができる。
また、本実施形態では、管理制御装置60は、第1情報の取得と、第2情報の取得を同時に行うものとして説明した。しかし、管理制御装置60は、第1情報の取得と、第2情報の取得を、別々に行うものであってもよい。言い換えると、作業員400をセンシングして第1情報を取得する期間である第1センシング期間と、第3人型ロボット20cのロボット動作をセンシングして第2情報を取得する期間である第2センシング期間とは、それら期間が重ならなくてもよい。これにより、作業ロボットを作業員400と同時並行的に作動させなくてもよいこととなり、作業員400の所定動作に応じた柔軟なロボット動作の調整を行うことが可能となる。
また、本実施形態では、作業員の所定動作の学習を自動学習により行うものとして説明した。しかし、学習は必ずしも自動学習である必要はなく、他の既知の機械学習、例えばディープラーニング(深層学習)や教師なし/あり学習、強化学習等であってもよい。
また、本実施形態では、移動式ロボットと作業ロボットとは同じ人型ロボットであるものして説明した。この場合、移動式ロボットを作業ロボットに併用するといったことが可能となり、ロボット作製に係る費用及びコストを節約できる。もっとも、移動式ロボットと作業ロボットとは、異なるロボットであってもよい。
また、本実施形態では、センシング対象として作業員(人)を用いて説明した。しかし、これに限定されず、例えば作業員の所定動作を模倣可能なロボットをセンシング対象としてもよい。
本実施形態では、作業ロボットは、作業員400と同じ作業場200で、かつ作業員400の近くで作動されるものとして説明した。しかし、作業ロボットは作業員の近くに配置されなくてもよいし、作業員と同じ作業場に配置されなくてもよい。
100、100'、100'’ センシングシステム
20、20a、20b、20c、20' 人型ロボット(移動式ロボット、作業ロボット)
23、23a、23b、23'、23''、23a1、23a2 ロボット用センサ
230、230a、230b、230'、230''、230a1、230a2 センシング領域
24、24a、24b、24'、24''、24a1、24a2 ロボット用撮像装置
240、240a、240b、240'、240''、240a1、240a2 撮像領域
25、25a、25' 情報処理装置
60 管理制御装置
62 記憶媒体(記憶部)
1224、1224' 記憶装置(記憶部)
20、20a、20b、20c、20' 人型ロボット(移動式ロボット、作業ロボット)
23、23a、23b、23'、23''、23a1、23a2 ロボット用センサ
230、230a、230b、230'、230''、230a1、230a2 センシング領域
24、24a、24b、24'、24''、24a1、24a2 ロボット用撮像装置
240、240a、240b、240'、240''、240a1、240a2 撮像領域
25、25a、25' 情報処理装置
60 管理制御装置
62 記憶媒体(記憶部)
1224、1224' 記憶装置(記憶部)
Claims (8)
- センシング対象の所定動作をセンシングするための第1センサと、
動作指示により動作する作業ロボットと、
前記作業ロボットのロボット動作をセンシングするための第2センサと、
前記第1センサ、前記第2センサ、及び、前記作業ロボットと通信可能な管理制御装置と、を備え、
前記管理制御装置は、
前記第1センサにより取得される第1情報を参照して前記所定動作を学習する学習部と、
前記学習部による前記所定動作の学習結果を参照して、前記作業ロボットに前記動作指示を与える動作制御情報を生成する動作情報生成部と、
前記第1情報と前記第2センサにより取得される第2情報とを比較して、前記作業ロボットの前記ロボット動作が前記所定動作に近似するように前記動作制御情報を調整する調整部と、を有する、
ことを特徴とするセンシングシステム。 - 前記管理制御装置は、前記第1センサによる前記第1情報の取得と、前記第2センサによる前記第2情報の取得を同時に行う、請求項1に記載のセンシングシステム。
- 前記管理制御装置は、前記第1センサによる前記第1情報の取得と、前記第2センサによる前記第2情報の取得を、別々に行う、請求項1に記載のセンシングシステム。
- 前記管理制御装置は、前記第1情報、前記第2情報、及び、前記所定動作に関連する作業マニュアル情報を記憶する記憶部を更に有し、
前記動作情報生成部は、前記学習部による前記所定動作の学習結果、及び、前記作業マニュアル情報を参照して、前記動作制御情報を生成する、請求項1~3の何れか一項に記載のセンシングシステム。 - 前記動作情報生成部は、前記作業マニュアル情報と相反する前記学習部による前記所定動作の学習結果を、動作制御情報を生成する際に採用しない、請求項4に記載のセンシングシステム。
- 前記第1センサ又は前記第2センサは、移動機構を備える移動式ロボットに配置され、
前記移動式ロボットは、前記管理制御装置と通信可能である、
請求項1に記載のセンシングシステム。 - センシング対象の所定動作をセンシングするための第1センサと、
動作指示により動作する作業ロボットと、
前記作業ロボットのロボット動作をセンシングするための第2センサと、
前記第1センサ、前記第2センサ、及び、前記作業ロボットと通信可能な管理制御装置と、を備え、
前記管理制御装置は、
前記第1センサにより取得される第1情報を参照して前記所定動作を学習し、
前記学習部による前記所定動作の学習結果を参照して、前記作業ロボットに前記動作指示を与える動作制御情報を生成し、
前記第1情報と前記第2センサにより取得される第2情報とを比較して、前記作業ロボットの前記ロボット動作が前記所定動作に近似するように前記動作制御情報を調整する、
ことを特徴とするセンシング方法。 - 動作指示により動作する作業ロボットであって、
センシング対象の所定動作をセンシングするための第1センサと、
前記作業ロボットのロボット動作をセンシングするための第2センサと、
前記第1センサ及び前記第2センサと通信可能な情報処理部と、を備え、
前記情報処理部は、
前記第1センサにより取得される第1情報を参照して前記所定動作を学習する学習部と、
前記学習部による前記所定動作の学習結果を参照して、前記作業ロボットに前記動作指示を与える動作制御情報を生成する動作情報生成部と、
前記第1情報と前記第2センサにより取得される第2情報とを比較して、前記作業ロボットの前記ロボット動作が前記所定動作に近似するように前記動作制御情報を調整する調整部と、を有する、
ことを特徴とする作業ロボット。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022180376A JP2024070031A (ja) | 2022-11-10 | 2022-11-10 | センシングシステム、センシング方法及び作業ロボット |
PCT/JP2023/037595 WO2024085159A1 (ja) | 2022-10-18 | 2023-10-17 | 作業ロボット調整方法、センシングシステム、センシング方法、移動式ロボット、動作改変システム、動作改変方法、作業ロボット、作業再現システム、作業再現方法、作業習熟システム、作業習熟方法及び作業再現ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022180376A JP2024070031A (ja) | 2022-11-10 | 2022-11-10 | センシングシステム、センシング方法及び作業ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024070031A true JP2024070031A (ja) | 2024-05-22 |
Family
ID=91121894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022180376A Pending JP2024070031A (ja) | 2022-10-18 | 2022-11-10 | センシングシステム、センシング方法及び作業ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024070031A (ja) |
-
2022
- 2022-11-10 JP JP2022180376A patent/JP2024070031A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110494813B (zh) | 基于可构建性分析的规划和调整项目 | |
US11331803B2 (en) | Mixed reality assisted spatial programming of robotic systems | |
CN107422686B (zh) | 用于允许对一个或更多个装置的远程控制的设备 | |
Pititeeraphab et al. | Robot-arm control system using LEAP motion controller | |
US11908337B2 (en) | Information processing device, intermediation device, simulation system, and information processing method | |
WO2021231242A1 (en) | Accelerating robotic planning for operating on deformable objects | |
KR102701952B1 (ko) | 제어 방법, 제어 장치, 로봇 시스템, 프로그램 및 기록 매체 | |
JP2024070031A (ja) | センシングシステム、センシング方法及び作業ロボット | |
JP2024068441A (ja) | センシングシステム、センシング方法及び移動式ロボット | |
JP2024059511A (ja) | 作業ロボット調整方法 | |
JP2024072051A (ja) | 動作改変システム、動作改変方法及び作業ロボット | |
JP2024073888A (ja) | 作業習熟システム、作業習熟方法及び作業再現ロボット | |
US20220314444A1 (en) | Hybrid Robotic Motion Planning System Using Machine Learning and Parametric Trajectories | |
JP2020504027A (ja) | 感情的ジェスチャを行ってユーザと交流するためのデバイス | |
JP2024073243A (ja) | 作業再現システム、作業再現方法及び作業再現ロボット | |
JP4595042B2 (ja) | 3次元測定方法およびシステム並びにマニピュレータの制御方法および装置 | |
WO2024085159A1 (ja) | 作業ロボット調整方法、センシングシステム、センシング方法、移動式ロボット、動作改変システム、動作改変方法、作業ロボット、作業再現システム、作業再現方法、作業習熟システム、作業習熟方法及び作業再現ロボット | |
JP7452706B2 (ja) | 作業現場でモバイルロボットをシミュレーションする装置及び方法 | |
US20220043455A1 (en) | Preparing robotic operating environments for execution of robotic control plans | |
CN110253566B (zh) | 运动控制部件、运动控制方法、机器人及运动控制系统 | |
Attamimi et al. | Design of mapping system for domestic service robot using light detection and ranging | |
JP2024061567A (ja) | ピッキングシステム、プログラム | |
JP2024058526A (ja) | 人型ロボットの制御システム及びプログラム | |
JP2024061544A (ja) | シミュレーションシステム及びプログラム | |
Coyne | Internet of Things Three-Dimensional Printer System |