JP2021013996A5 - 情報処理方法、ロボットシステム、物品の製造方法、プログラム、記録媒体、および情報処理装置 - Google Patents
情報処理方法、ロボットシステム、物品の製造方法、プログラム、記録媒体、および情報処理装置 Download PDFInfo
- Publication number
- JP2021013996A5 JP2021013996A5 JP2019130602A JP2019130602A JP2021013996A5 JP 2021013996 A5 JP2021013996 A5 JP 2021013996A5 JP 2019130602 A JP2019130602 A JP 2019130602A JP 2019130602 A JP2019130602 A JP 2019130602A JP 2021013996 A5 JP2021013996 A5 JP 2021013996A5
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- processing method
- method characterized
- virtual
- holding position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims description 53
- 238000003672 processing method Methods 0.000 title claims description 48
- 238000004519 manufacturing process Methods 0.000 title claims 3
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 claims 2
- 238000013528 artificial neural network Methods 0.000 claims 1
- 230000001174 ascending effect Effects 0.000 claims 1
- 230000005484 gravity Effects 0.000 claims 1
Description
本発明の一つの態様は、対象物の情報を出力する学習済みモデルを取得する情報処理方法であって、仮想環境において、前記対象物を仮想的に示した仮想対象物を、仮想ロボットにより少なくとも2つの異なる保持位置で保持させるために、前記仮想ロボットを前記仮想対象物に接触させる動作を前記保持位置でそれぞれ実行し、前記動作それぞれにおいて、前記動作の実行によって、前記動作を実行する前から変化した前記仮想対象物の状態を取得し、取得した前記状態に基づき機械学習することで、前記保持位置の優先順位を出力する前記学習済みモデルを取得する、ことを特徴とする情報処理方法である。
本発明の別の一つの態様は、対象物の情報を出力する学習済みモデルを取得する情報処理装置であって、処理部が、仮想環境において、前記対象物を仮想的に示した仮想対象物を、仮想ロボットにより少なくとも2つの異なる保持位置で保持させるために、前記仮想ロボットを前記仮想対象物に接触させる動作を前記保持位置でそれぞれ実行し、前記動作それぞれにおいて、前記動作の実行によって、前記動作を実行する前から変化した前記仮想対象物の状態を取得し、取得した前記状態に基づき機械学習することで、前記保持位置の優先順位を出力する前記学習済みモデルを取得する、ことを特徴とする情報処理装置である。
本発明の別の一つの態様は、対象物の情報を出力する学習済みモデルを取得する情報処理装置であって、処理部が、仮想環境において、前記対象物を仮想的に示した仮想対象物を、仮想ロボットにより少なくとも2つの異なる保持位置で保持させるために、前記仮想ロボットを前記仮想対象物に接触させる動作を前記保持位置でそれぞれ実行し、前記動作それぞれにおいて、前記動作の実行によって、前記動作を実行する前から変化した前記仮想対象物の状態を取得し、取得した前記状態に基づき機械学習することで、前記保持位置の優先順位を出力する前記学習済みモデルを取得する、ことを特徴とする情報処理装置である。
Claims (27)
- 対象物の情報を出力する学習済みモデルを取得する情報処理方法であって、
仮想環境において、前記対象物を仮想的に示した仮想対象物を、仮想ロボットにより少なくとも2つの異なる保持位置で保持させるために、前記仮想ロボットを前記仮想対象物に接触させる動作を前記保持位置でそれぞれ実行し、
前記動作それぞれにおいて、前記動作の実行によって、前記動作を実行する前から変化した前記仮想対象物の状態を取得し、取得した前記状態に基づき機械学習することで、前記保持位置の優先順位を出力する前記学習済みモデルを取得する、
ことを特徴とする情報処理方法。 - 請求項1に記載の情報処理方法において、
ユーザにより前記仮想対象物に前記保持位置を設定させる、
ことを特徴とする情報処理方法。 - 請求項2に記載の情報処理方法において、
前記ユーザにより設定された前記保持位置において、前記仮想ロボットによって前記仮想対象物を保持できない保持位置が存在する場合、前記ユーザに通知する、
ことを特徴とする情報処理方法。 - 請求項1から3のいずれか1項に記載の情報処理方法において、
前記優先順位を表示部に表示する、
ことを特徴とする情報処理方法。 - 請求項1から4のいずれか1項に記載の情報処理方法において、
前記学習済みモデルに基づき、前記仮想ロボットに対応する、実環境におけるロボットを用いて前記対象物を保持させ、
前記ロボットによる前記対象物の保持の結果に基づき前記優先順位を更新する、
ことを特徴とする情報処理方法。 - 請求項5に記載の情報処理方法において、
前記優先順位の内、最も優先度の高い前記保持位置によって前記対象物を保持しようとした際に前記対象物を保持できなかった場合、最も優先度の高い前記保持位置の前記優先順位を落とし、他の前記優先順位を一つずつ繰り上げる、
ことを特徴とする情報処理方法。 - 請求項5または6に記載の情報処理方法において、
更新した前記優先順位を表示部に表示する、
ことを特徴とする情報処理方法。 - 請求項5から7のいずれか1項に記載の情報処理方法において、
前記対象物の位置姿勢を撮像装置により取得し、前記学習済みモデルにより当該位置姿勢における前記保持位置の候補と前記優先順位とを取得する、
ことを特徴とする情報処理方法。 - 請求項8に記載の情報処理方法において、
前記撮像装置は3次元測定可能であり、前記対象物は複数存在し、
前記対象物の間における干渉の面積、前記対象物の高さ情報、前記撮像装置による認識率の高さ、の少なくとも1つに基づき優先して保持する前記対象物を選択する、
ことを特徴とする情報処理方法。 - 請求項1から9のいずれか1項に記載の情報処理方法において、
前記保持位置は、前記仮想対象物における少なくとも2つの異なる位置姿勢においてそれぞれ設定されている、
ことを特徴とする情報処理方法。 - 請求項10に記載の情報処理方法において、
前記保持位置と前記位置姿勢とを対応させて表示部に表示する、
ことを特徴とする情報処理方法。 - 請求項1から11のいずれか1項に記載の情報処理方法において、
前記状態の取得として、前記動作の前後の仮想対象物の移動量を取得し、前記移動量の小さい順に前記優先順位を決定するように前記機械学習を行う、
ことを特徴とする情報処理方法。 - 請求項12に記載の情報処理方法において、
前記動作において前記仮想対象物に仮想的な外力を前記仮想ロボットによって作用させ前記移動量を取得する、
ことを特徴とする情報処理方法。 - 請求項1から11のいずれか1項に記載の情報処理方法において、
前記状態の取得として、前記動作によって前記仮想対象物を保持したか否かを示す判定値を取得し、前記判定値に基づく前記機械学習により、保持成功率の高い前記対象物と、その前記保持位置を出力できる前記学習済みモデルを取得する、
ことを特徴とする情報処理方法。 - 請求項1に記載の情報処理方法において、
前記対象物の設計情報に基づき前記保持位置を設定する、
ことを特徴とする情報処理方法。 - 請求項15に記載の情報処理方法において、
前記対象物の重心位置の周囲に前記保持位置を設定する、
ことを特徴とする情報処理方法。 - 請求項1から16のいずれか1項に記載の情報処理方法において、
前記機械学習は、疊み込みニューラルネットワークを使用している、
ことを特徴とする情報処理方法。 - 請求項1から17のいずれか1項に記載の情報処理方法において、
前記仮想環境における、前記動作を実行する前の前記仮想対象物の状態を画像で取得し、当該画像を前記機械学習に用いる、
ことを特徴とする情報処理方法。 - 請求項18に記載の情報処理方法において、
前記画像の画素数、縦横比と同じ画像を、前記対象物の位置姿勢を撮像する撮像装置により取得する、
ことを特徴とする情報処理方法。 - 請求項1に記載の情報処理方法において、
前記学習済みモデルの取得が終了したことをユーザに通知する、
ことを特徴とする情報処理方法。 - 請求項20に記載の情報処理方法において、
前記学習済みモデルの取得が終了したことを前記ユーザに通知するとともに、ロボットによる前記動作を実行可能であることを前記ユーザに通知する、
ことを特徴とする情報処理方法。 - 請求項1から21のいずれか1項に記載の情報処理方法において、
前記対象物または前記仮想対象物はバラ積みされている、
ことを特徴とする情報処理方法。 - 請求項1から22のいずれか1項に記載の情報方法により取得された前記学習済みモデルを用いて制御されるロボットを備えるロボットシステム。
- 請求項23に記載のロボットシステムを用いて物品の製造を行うことを特徴とする物品の製造方法。
- 請求項1から22のいずれか1項に記載の情報処理方法を実行させるためのプログラム。
- 請求項25に記載のプログラムを格納したコンピュータで読み取り可能な記録媒体。
- 対象物の情報を出力する学習済みモデルを取得する情報処理装置であって、
処理部が、
仮想環境において、前記対象物を仮想的に示した仮想対象物を、仮想ロボットにより少なくとも2つの異なる保持位置で保持させるために、前記仮想ロボットを前記仮想対象物に接触させる動作を前記保持位置でそれぞれ実行し、
前記動作それぞれにおいて、前記動作の実行によって、前記動作を実行する前から変化した前記仮想対象物の状態を取得し、取得した前記状態に基づき機械学習することで、前記保持位置の優先順位を出力する前記学習済みモデルを取得する、
ことを特徴とする情報処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019130602A JP2021013996A (ja) | 2019-07-12 | 2019-07-12 | ロボットシステムの制御方法、物品の製造方法、生産システム、制御プログラム、記録媒体、およびロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019130602A JP2021013996A (ja) | 2019-07-12 | 2019-07-12 | ロボットシステムの制御方法、物品の製造方法、生産システム、制御プログラム、記録媒体、およびロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021013996A JP2021013996A (ja) | 2021-02-12 |
JP2021013996A5 true JP2021013996A5 (ja) | 2022-07-15 |
Family
ID=74532064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019130602A Pending JP2021013996A (ja) | 2019-07-12 | 2019-07-12 | ロボットシステムの制御方法、物品の製造方法、生産システム、制御プログラム、記録媒体、およびロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021013996A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2022264726A1 (ja) * | 2021-06-15 | 2022-12-22 | ||
JP2023098781A (ja) * | 2021-12-29 | 2023-07-11 | 川崎重工業株式会社 | 物体検出装置、ロボットシステム及び物体検出プログラム |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
-
2019
- 2019-07-12 JP JP2019130602A patent/JP2021013996A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109015640B (zh) | 抓取方法、系统、计算机装置及可读存储介质 | |
CN105415370B (zh) | 物品取出装置 | |
Magrini et al. | Estimation of contact forces using a virtual force sensor | |
JP2018126857A5 (ja) | 制御方法、ロボットシステム、物品の製造方法、プログラム及び記録媒体 | |
CN107571260B (zh) | 控制机器人抓取物体的方法和装置 | |
RU2700246C1 (ru) | Способ и система захвата объекта с помощью роботизированного устройства | |
JP2019508273A (ja) | ロボットの把持のための深層機械学習方法および装置 | |
JP5743499B2 (ja) | 画像生成装置、画像生成方法、およびプログラム | |
CN112109086B (zh) | 面向工业堆叠零件的抓取方法、终端设备及可读存储介质 | |
CN108748149B (zh) | 一种复杂环境下基于深度学习的无标定机械臂抓取方法 | |
JP7377627B2 (ja) | 物体検出装置、物体把持システム、物体検出方法及び物体検出プログラム | |
JP6357785B2 (ja) | ロボット、ロボットシステム、制御装置および制御方法 | |
JP2019084601A (ja) | 情報処理装置、把持システムおよび情報処理方法 | |
CN105426901B (zh) | 用于对摄像头视野中的已知物体进行分类的方法 | |
JP2014240110A5 (ja) | ||
JP2021013996A5 (ja) | 情報処理方法、ロボットシステム、物品の製造方法、プログラム、記録媒体、および情報処理装置 | |
JP6795093B2 (ja) | 判定装置、判定方法及び判定プログラム | |
JP2016091053A (ja) | 情報処理装置および容器形状の推定方法、ワークピッキングシステム、プログラム | |
Parsa et al. | Toward ergonomic risk prediction via segmentation of indoor object manipulation actions using spatiotemporal convolutional networks | |
JP6907634B2 (ja) | 作業支援装置、作業支援方法、及び作業支援プログラム | |
Kirby et al. | Comparing single touch to dynamic exploratory procedures for robotic tactile object recognition | |
JP6838833B2 (ja) | 把持装置、把持方法、及びプログラム | |
Yang et al. | Automation of SME production with a Cobot system powered by learning-based vision | |
Klippert et al. | A software‐based method for ergonomic posture assessment in automotive preproduction planning: Concordance and difference in using software and personal observation for assessments | |
WO2018161305A1 (zh) | 抓取质量检测方法及其应用的方法与系统 |