JP2021084210A - ロボット、エンドエフェクタ、システム、方法及びプログラム - Google Patents
ロボット、エンドエフェクタ、システム、方法及びプログラム Download PDFInfo
- Publication number
- JP2021084210A JP2021084210A JP2019216745A JP2019216745A JP2021084210A JP 2021084210 A JP2021084210 A JP 2021084210A JP 2019216745 A JP2019216745 A JP 2019216745A JP 2019216745 A JP2019216745 A JP 2019216745A JP 2021084210 A JP2021084210 A JP 2021084210A
- Authority
- JP
- Japan
- Prior art keywords
- end effector
- state
- deformation state
- gripping
- tactile sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000012636 effector Substances 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims description 37
- 238000012545 processing Methods 0.000 claims abstract description 51
- 238000010801 machine learning Methods 0.000 claims abstract description 22
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 2
- 238000012423 maintenance Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 15
- 238000001514 detection method Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
(1.1 構成)
図1〜図5を参照しつつ、本実施形態に係るロボットの構成について説明する。本実施形態に係るロボットは、アーム7を有し、アーム先端にはエンドエフェクタの一種として後述するグリッパ5が連結されている。
次に、上述の構成を備えたロボットにおける把持動作及び持ち上げ動作について説明する。
上述の実施形態では、エラー処理(S76)の後、処理は終了するものとした。しかしながら、本発明はこのような構成に限定されない。従って、把持を継続するような構成としてもよい。従って、例えば、すべりが生じた後に、すべりなしと判定されるまでグリッパ5を閉じる処理を行い、すべりなし状態となった後は、すべり判定を行いつつ、再度、変形推定部313による変形推定を行う構成としてもよい。
3 グリッパ制御部
31 制御部
313 変形推定部
315 すべり推定部
317 センサ情報取得部
318 エラー処理部
319 動作指令情報生成部
32 記憶部
33 センサ信号処理部
34 アクチュエータ駆動部
5 グリッパ
51 アクチュエータ
53 触覚センサ
531 柔軟部材
533 検出素子
56 把持部材
58 基部
6 アーム制御部
7 アーム
100 把持対象物
Claims (16)
- 把持対象となる物体との接触面に分布型触覚センサを備えた挟持型のエンドエフェクタを備えたロボットであって、
前記分布型触覚センサから取得されるセンサ情報と把持対象となる物体の変形状態との関係について機械学習を行うことにより得られた変形状態推定用学習済モデルと、前記分布型触覚センサから取得されたセンサ情報に基づき、把持しようとする物体の変形状態を推定する変形状態推定処理部を含む、推定処理部と、
推定された前記変形状態に基づいて前記エンドエフェクタの制御を行う、把持用エンドエフェクタ制御部と、を備えたロボット。 - 前記把持用エンドエフェクタ制御部は、さらに、
前記変形状態に基づいて、前記物体が変形していると推定された場合には、前記エンドエフェクタにおける把持量を調整する制御を行い、前記物体と接触しかつ変形が生じていないと推定された場合には、前記エンドエフェクタにおける把持量を維持する制御を行う、把持調整部を備える、請求項1に記載のロボット。 - 前記推定処理部は、さらに、
前記分布型触覚センサから取得されるセンサ情報と把持対象となる物体のすべり状態との関係について機械学習を行うことにより得られたすべり状態推定用学習済モデルと、前記分布型触覚センサから取得されたセンサ情報に基づき、把持物体のすべり状態を推定する、すべり状態推定処理部を含み、
前記ロボットは、
推定された前記すべり状態に基づいて前記ロボットにおける動作制御を行う、すべり用動作制御部を備える、請求項1に記載のロボット。 - 前記すべり用動作制御部は、さらに、
推定された前記すべり状態に基づいて前記エンドエフェクタを制御する、すべり用エンドエフェクタ制御部を含む、請求項3に記載のロボット。 - 前記すべり用エンドエフェクタ制御部は、さらに、
前記すべり状態に基づいて、前記物体と前記エンドエフェクタとの間にすべりが生じていると推定された場合には、前記エンドエフェクタにおける把持量の制御を行う、請求項4に記載のロボット。 - 前記すべり用動作制御部は、さらに、
推定された前記すべり状態に基づいて把持動作の中止信号を生成する、中止信号生成部を備える、請求項1に記載のロボット。 - 前記ロボットは、さらに、
前記物体を把持する動作を行う場合には、前記変形状態推定処理部と前記把持用エンドエフェクタ制御部を用いて把持制御を行い、前記把持の後に前記物体を持ち上げる場合には、すべり状態推定処理部と前記すべり用動作制御部を用いて持ち上げ制御を行う、切替部を備える、請求項3に記載のロボット。 - 前記変形状態推定用学習済モデルは、前記分布型触覚センサから取得されるセンサ情報を入力とし、物体との接触有りかつ物体の変形無しを表すラベルと、物体との接触有りかつ物体の変形有りを表すラベルを教師データとして機械学習を行うことにより得られたものである、請求項1に記載のロボット。
- 前記すべり状態推定用学習済モデルは、前記分布型触覚センサから取得されるセンサ情報の時系列データを入力とし、物体と前記エンドエフェクタとの間ですべりが生じていない状態を表すラベルと、物体と前記エンドエフェクタとの間ですべりが生じている状態を表すラベルを教師データとして機械学習を行うことにより得られたものである、請求項1に記載のロボット。
- 前記分布型触覚センサは、前記接触面と水平な2軸と、前記接触面に垂直な1軸を含む3軸成分を検出可能に構成されている、請求項1に記載のロボット。
- 前記エンドエフェクタは、一対の板状部材を互いに平行に配置して成り、各板状部材の対向面に、一対の前記分布型触覚センサが配置されているグリッパである、請求項1に記載のロボット。
- 前記エンドエフェクタは、複数の指形状部材から成り、各指の先端部に前記分布型触覚センサが配置されているハンドである、請求項1に記載のロボット。
- 把持対象となる物体との接触面に分布型触覚センサを備えた挟持型のエンドエフェクタであって、
前記分布型触覚センサから取得されるセンサ情報と把持対象となる物体の変形状態との関係について機械学習を行うことにより得られた変形状態推定用学習済モデルと、前記分布型触覚センサから取得されたセンサ情報に基づき、把持しようとする物体の変形状態を推定する変形状態推定処理部を含む、推定処理部と、
推定された前記変形状態に基づいて前記エンドエフェクタの制御を行う、把持用エンドエフェクタ制御部と、を備えたエンドエフェクタ。 - 把持対象となる物体との接触面に分布型触覚センサを備えた挟持型のエンドエフェクタを含むシステムであって、
前記分布型触覚センサから取得されるセンサ情報と把持対象となる物体の変形状態との関係について機械学習を行うことにより得られた変形状態推定用学習済モデルと、前記分布型触覚センサから取得されたセンサ情報に基づき、把持しようとする物体の変形状態を推定する変形状態推定処理部を含む、推定処理部と、
推定された前記変形状態に基づいて前記エンドエフェクタの制御を行う、把持用エンドエフェクタ制御部と、を備えたシステム。 - 把持対象となる物体との接触面に分布型触覚センサを備えた挟持型のエンドエフェクタの制御方法であって、
前記分布型触覚センサから取得されるセンサ情報と把持対象となる物体の変形状態との関係について機械学習を行うことにより得られた変形状態推定用学習済モデルと、前記分布型触覚センサから取得されたセンサ情報に基づき、把持しようとする物体の変形状態を推定する変形状態推定処理ステップを含む、推定処理ステップと、
推定された前記変形状態に基づいて前記エンドエフェクタの制御を行う、把持用エンドエフェクタ制御ステップと、を備えた制御方法。 - 把持対象となる物体との接触面に分布型触覚センサを備えた挟持型のエンドエフェクタの制御プログラムであって、
前記分布型触覚センサから取得されるセンサ情報と把持対象となる物体の変形状態との関係について機械学習を行うことにより得られた変形状態推定用学習済モデルと、前記分布型触覚センサから取得されたセンサ情報に基づき、把持しようとする物体の変形状態を推定する変形状態推定処理ステップを含む、推定処理ステップと、
推定された前記変形状態に基づいて前記エンドエフェクタの制御を行う、把持用エンドエフェクタ制御ステップと、を備えた制御プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019216745A JP2021084210A (ja) | 2019-11-29 | 2019-11-29 | ロボット、エンドエフェクタ、システム、方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019216745A JP2021084210A (ja) | 2019-11-29 | 2019-11-29 | ロボット、エンドエフェクタ、システム、方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021084210A true JP2021084210A (ja) | 2021-06-03 |
Family
ID=76086519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019216745A Pending JP2021084210A (ja) | 2019-11-29 | 2019-11-29 | ロボット、エンドエフェクタ、システム、方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021084210A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008160A1 (ja) * | 2021-07-26 | 2023-02-02 | 株式会社ブリヂストン | 推定装置、推定方法、推定プログラム、及びロボットシステム |
WO2023167003A1 (ja) * | 2022-03-02 | 2023-09-07 | オムロン株式会社 | 制御装置、制御方法、及び制御プログラム |
-
2019
- 2019-11-29 JP JP2019216745A patent/JP2021084210A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023008160A1 (ja) * | 2021-07-26 | 2023-02-02 | 株式会社ブリヂストン | 推定装置、推定方法、推定プログラム、及びロボットシステム |
WO2023167003A1 (ja) * | 2022-03-02 | 2023-09-07 | オムロン株式会社 | 制御装置、制御方法、及び制御プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Homberg et al. | Robust proprioceptive grasping with a soft robot hand | |
EP3869464B1 (en) | Learning apparatus and learning method | |
US20200331709A1 (en) | Object Grasp System and Method | |
Chan et al. | A human-inspired object handover controller | |
TWI827907B (zh) | 機器人的控制裝置、控制方法、機器人及其系統、學習裝置、方法及電腦程式產品 | |
Lee et al. | Assembly process monitoring algorithm using force data and deformation data | |
JP2021084210A (ja) | ロボット、エンドエフェクタ、システム、方法及びプログラム | |
Calli et al. | Learning modes of within-hand manipulation | |
Namiki et al. | Origami folding by multifingered hands with motion primitives | |
Wan et al. | Variability and predictability in tactile sensing during grasping | |
Su et al. | Robust grasping for an under-actuated anthropomorphic hand under object position uncertainty | |
US8706299B2 (en) | Method and system for controlling a dexterous robot execution sequence using state classification | |
Marvel et al. | Best practices and performance metrics using force control for robotic assembly | |
Saen et al. | Action-intention-based grasp control with fine finger-force adjustment using combined optical-mechanical tactile sensor | |
Kolamuri et al. | Improving grasp stability with rotation measurement from tactile sensing | |
JP2023086924A (ja) | 制御方法、制御システム及びプログラム | |
Mazhitov et al. | Human–robot handover with prior-to-pass soft/rigid object classification via tactile glove | |
WO2021029205A1 (ja) | 情報処理装置、情報処理方法、プログラム、およびロボット | |
Fujimoto et al. | Picking up dishes based on active groping with multisensory robot hand | |
Thompson et al. | Cognitive Grasping and Manipulation of Unknown Object with Control Grip Force using Cyber Physical System Approach | |
Kiyokawa et al. | Generation of a tactile-based pouring motion using fingertip force sensors | |
Weiner et al. | Detecting grasp phases and adaption of object-hand interaction forces of a soft humanoid hand based on tactile feedback | |
Wang et al. | Human intention estimation with tactile sensors in human-robot collaboration | |
Matsuoka et al. | A dexterous manipulation system with error detection and recovery by a multi-fingered robotic hand | |
Ganguly et al. | Grasping in the dark: Zero-shot object grasping using tactile feedback |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20191129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220824 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230621 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230712 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240117 |