JPWO2019187546A1 - 制御装置、制御方法、および、プログラム - Google Patents
制御装置、制御方法、および、プログラム Download PDFInfo
- Publication number
- JPWO2019187546A1 JPWO2019187546A1 JP2020509717A JP2020509717A JPWO2019187546A1 JP WO2019187546 A1 JPWO2019187546 A1 JP WO2019187546A1 JP 2020509717 A JP2020509717 A JP 2020509717A JP 2020509717 A JP2020509717 A JP 2020509717A JP WO2019187546 A1 JPWO2019187546 A1 JP WO2019187546A1
- Authority
- JP
- Japan
- Prior art keywords
- contact
- force
- grip
- unit
- gripping
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
- B25J13/083—Grasping-force detectors fitted with slippage detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1612—Programme controls characterised by the hand, wrist, grip control
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Orthopedic Medicine & Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Manipulator (AREA)
Abstract
Description
1.背景
2.第1の実施形態
3.第2の実施形態
4.第3の実施形態
5.第4の実施形態
6.第5の実施形態
7.第6の実施形態
8.第7の実施形態
9.第8の実施形態
10.第9の実施形態
11.変形例
本開示は、一例として「2.第1の実施形態」〜「10.第9の実施形態」において詳細に説明するように、多様な形態で実施され得る。まず、本開示の特徴を明確に示すために、本開示の各実施形態に係るロボット10を創作するに至った背景について説明する。
<2−1.物理構成>
次に、本開示に係る第1の実施形態について説明する。まず、第1の実施形態に係るロボット10の物理構成について、図1を参照して説明する。
把持部104は、本開示に係る接触部の一例である。把持部104は、外部の物体(図1に示した例では物体20)を把持可能な構造を有する。図1に示した例では、把持部104がロボット指である例を示しているが、第1の実施形態はかかる例に限定されない。物体を把持可能な構造であれば、把持部104の構造は特に限定されない。例えば、ロボット10は、一以上のロボットアーム(図示省略)を有してもよい。この場合、把持部104は、ハンド部(例えばロボットハンド、グリッパー、または、エンドエフェクターなど)として、当該ロボットアームの先端に配置されていてもよい。または、ロボット10は、複数の脚部を有してもよい。この場合、把持部104は、当該複数の脚部のうちの一つの先端部(例えば足部など)として配置されていてもよい。
触覚センサ106は、物体との接触時に、当該物体との接触位置(例えば接触中心位置など)、および、個々の接触点(以下では、接触箇所と称する場合もある)の総数を測定可能なように構成され得る。例えば、触覚センサ106は、圧力分布センサ、1軸力センサアレイ、3軸力センサアレイ、Visionセンサ、または、レーザーを用いたセンサなどであってよい。ここで、圧力分布センサは、複数の圧力検出素子がArray上に配置されているセンサであり得る。そして、圧力分布センサは、当該複数の圧力検出素子の各々にかかる圧力を検出することにより、物体との接触をセンシングし得る。また、Visionセンサは、物体との接触により発生するセンサ表面の材料の変形をカメラにて計測することにより物体との接触をセンシングし得る。また、レーザーを用いたセンサは、センサ表面と物体との接触の有無を、レーザーを用いることによりセンシングし得る。
力覚センサ108は、物体と把持部104とが接触した際の、把持部104の表面に付加される接触力(換言すれば、当該物体からの反力)の合力を測定可能なように構成され得る。または、力覚センサ108は、アクチュエータ130が発生する力、トルク、または、モーメントを測定可能なように構成されていてもよい。
アクチュエータ130は、後述する把持制御部100の制御に従って、目標指令値に対応する力(またはトルク)を発生し得る。発生された力が把持部104に伝達されることにより、把持部104は動作し得る。例えば、把持部104が目標の把持力(換言すれば、アクチュエータ130が発生すべき力、モーメント、または、トルク)を発生可能なように、アクチュエータ130は、把持制御部100の制御に従って駆動する。
以上、第1の実施形態に係るロボット10の物理構成について説明した。次に、第1の実施形態に係るロボット10の機能構成について、図2を参照して説明する。図2は、第1の実施形態に係るロボット10の機能構成の一例を示したブロック図である。図2に示したように、ロボット10は、把持制御部100、把持部104、触覚センサ106、力覚センサ108、接触力特定部110、および、滑り検出部112を有する。以下では、上記の説明と重複する内容については説明を省略する。
接触力特定部110は、本開示に係る接触力算出部の一例である。接触力特定部110は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。さらに、接触力特定部110は、ROM(Read Only Memory)やRAM(Random Access Memory)などのメモリを含んで構成されてもよい。
接触箇所数算出部150は、把持部104と物体とが一以上の点において接触したことが検出された際に、触覚センサ106によるセンシング結果に基づいて接触点(接触箇所)の総数を算出する。この際、例えば、接触箇所数算出部150は、触覚センサ106の種類に対応する算出方法と、触覚センサ106によるセンシング結果とに基づいて接触点の総数を算出する。
接触位置算出部152は、該当の全ての接触点の各々(以下では「各接触点」と称する場合がある)の位置関係を、触覚センサ106によるセンシング結果に基づいて特定する。例えば、接触位置算出部152は、各接触点の位置情報(例えば、各接触点の中心位置の位置情報など)を、触覚センサ106によるセンシング結果に基づいて特定する。一例として、接触位置算出部152は、当該各接触点に関して、触覚センサ106上の当該接触点の相対位置の情報を当該接触点の位置情報として、触覚センサ106によるセンシング結果に基づいて特定する。ここで、各接触点の相対位置の情報は、触覚センサ106の端点を原点とした座標の形で表現されてもよい。但し、かかる例に限定されず、各接触点の相対位置の情報は、アクチュエータ130が発生するトルクまたはモーメントを算出可能な任意の他の位置を基準とした相対位置の情報と定められてもよい。
接触強度算出部154は、該当の各接触点間の接触力強度比(例えば、ある接触点の接触強度を基準とした他の接触点の各々の接触強度比)を、触覚センサ106によるセンシング結果に基づいて算出する。このような算出方法のメリットとして以下が挙げられる。例えば、全体的にある係数分のゲインがかかるような誤差が所定のセンシング結果に含まれる場合(例えば温度特定等)では、各接触点間の接触力強度比を用いることによって当該ゲイン分が相殺され得るので、誤差の影響を最小限に抑えることができる。
接触力算出部156は、接触箇所数算出部150により算出された接触点の総数と、接触位置算出部152により特定された各接触点の位置情報と、接触強度算出部154により算出された各接触点間の接触力強度比と、力覚センサ108によるセンシング結果とに基づいて、各接触点における接触力をそれぞれ算出する。例えば、接触力算出部156は、把持部104と物体との接触力の合力(つまり、各接触点における接触力の合力)が特定可能であるか否かの判定結果に基づいて、接触箇所数算出部150による算出結果、接触位置算出部152による算出結果、および、接触強度算出部154による算出結果を用いて各接触点における接触力をそれぞれ算出する。
一例として、把持部104と物体との接触力の合力が、力覚センサ108によるセンシング結果に基づいて特定可能である場合には、接触力算出部156は、以下の算出方法を用いて各接触点における接触力をそれぞれ算出する。なお、このような場合の具体例としては、力覚センサ108が3軸力センサを含んで構成されており、かつ、把持部104における物体を把持する面の反対側に当該3軸力センサが配置されている場合などが挙げられる。
例えば、まず、接触力算出部156は、接触箇所数算出部150により算出された接触点の総数が1つ、2つ、または、3以上のいずれであるかを判定する。そして、当該接触点の総数が1つである場合には、接触力算出部156は、力覚センサ108によりセンシングされた合力自体を、該当の接触点における接触力として算出する。
また、当該接触点の総数が2つである場合には、接触力算出部156は、まず、接触位置算出部152により特定された各接触点の位置情報に基づいて、所定の基準位置(例えば触覚センサ106の端点など)からの各接触点までの距離l1、および、l2を算出する。ここで、各接触点における接触力をF1およびF2、力覚センサ108によりセンシングされた接触力の合力をFallとそれぞれ定める。この場合、接触力算出部156は、以下の数式(1)および(2)から、F1およびF2をそれぞれ求める。
次に、当該接触点の総数が3以上である場合における各接触点における接触力の算出方法について説明する。今、接触点の総数をN、各接触点における接触力をFi(i=1〜N)、接触強度算出部154により算出された各接触点間の接触力強度比をαi(i=1〜N)、力覚センサ108によりセンシングされた接触力の合力をFallとそれぞれ定める。この場合、接触力算出部156は、以下の数式(4)を用いて、Fiをそれぞれ算出する。
次に、把持部104と物体との接触力の合力が特定不能であり、かつ、アクチュエータ130の発生力(以下では、「τ」と記載する場合がある)を力覚センサ108により測定可能である場合における、接触力算出部156による接触力の算出方法について説明する。なお、このような場合の具体例としては、力覚センサ108がトルクセンサを含んで構成されており、かつ、アクチュエータ130内に当該トルクセンサが配置されている場合などが挙げられる。
この場合、接触力算出部156は、例えば以下の算出方法を用いて各接触点における接触力をそれぞれ算出する。まず、接触力算出部156は、接触箇所数算出部150により算出された接触点の総数が1つ、または、2以上のいずれであるかを判定する。そして、当該接触点の総数が1つである場合には、接触力算出部156は、まず、接触位置算出部152により特定された各接触点の位置情報に基づいて、所定の基準位置(例えば触覚センサ106の端点など)からの該当の接触点までの距離l1を算出する。そして、接触力算出部156は、力覚センサ108によりセンシングされたアクチュエータ130の発生力(つまりτ)と、l1と、以下の数式(6)とを用いることにより、該当の接触点における接触力(F1)を算出する。
次に、当該接触点の総数が2以上である場合における各接触点における接触力の算出方法について説明する。今、接触点の総数をN、各接触点における接触力をFi(i=1〜N)、接触強度算出部154により算出された各接触点間の接触力強度比をαi(i=1〜N)、所定の基準位置(例えば触覚センサ106の端点など)からの各接触点までの距離をli(i=1〜N)、力覚センサ108によりセンシングされたアクチュエータ130の発生力をτとそれぞれ定める。この場合、接触力算出部156は、以下の数式(7)を用いて、Fiをそれぞれ算出する。
さらに、接触力算出部156は、算出した各接触点における接触力を把持制御部100へ伝達し得る。
滑り検出部112は、上記の処理回路を含んで構成され得る。また、滑り検出部112は、上記のメモリをさらに含んで構成されてもよい。滑り検出部112は、触覚センサ106によるセンシング結果に基づいて、把持部104と物体とが接触している間の、把持部104に対する当該物体の滑り量を検出する。例えば、滑り検出部112は、接触力特定部110により算出された個々の接触点における接触力と、触覚センサ106によるセンシング結果とに基づいて、当該物体の滑り量を検出する。
把持制御部100は、上記の処理回路を含んで構成され得る。また、把持制御部100は、上記のメモリをさらに含んで構成されてもよい。また、図2に示したように、把持制御部100は、把持力算出部102を有する。
把持力算出部102は、接触力特定部110により算出された個々の接触点における接触力と、滑り検出部112により検出された把持対象の物体の滑り量とに基づいて、把持部104の目標の把持力を算出する。
以上、第1の実施形態に係るロボット10の機能構成について説明した。次に、第1の実施形態に係る処理の流れについて、図4を参照して説明する。図4は、第1の実施形態に係る処理の流れの一例を示したフローチャートである。以下では、ロボット10が対象の物体を把持する場面における処理の流れの例について説明する。
{2−4−1.効果1}
以上説明したように、第1の実施形態に係るロボット10は、把持部104に配置されている触覚センサ106によるセンシング結果と、把持部104に配置されている力覚センサ108によるセンシング結果とに基づいて、把持部104と物体とが接触した際の接触力を算出する。このように第1の実施形態によれば、触覚センサ106によるセンシング結果と、力覚センサ108によるセンシング結果との両方を用いるので、把持部104と物体との接触時の接触力をより精度高く算出することができる。例えば、把持部104と物体とが複数の接触点において接触した際の各接触点における接触力をより精度高く算出することができる。また、触覚センサ106のセンサ方式や配置に応じて、接触力の算出アルゴリズムをロバストに変更することも可能である。
さらに、第1の実施形態によれば、把持部104と物体との接触時の接触力を精度高く算出することができるので、把持部104に対する当該物体の滑り量をより精度高く検出することができる。例えば、接触力の大きさに応じて変動するような滑りをより精度高く検出することができる。そして、滑りの検出の精度が向上することにより、把持部104は、より小さい力で物体を把持することができるようになる。例えば柔軟な物体や壊れやすい物体などの、把持対象の物体からの反力が小さい場合であっても、把持部104は、該当の物体を安全に把持することができる。
また、把持部104と物体との接触時の接触力を精度高く算出することができるので、把持部104と物体との接触タイミングも、より正確に検出することができる。例えば、第1の実施形態によれば、触覚センサ106によるセンシング結果だけでなく、力覚センサ108によるセンシング結果を同時に使用するので、既存の技術と比較して接触感度(例えば、把持部104の先端(例えば指先)の接触感度など)が向上し得る。これにより、接触タイミングをより正確に検出することができる。
また、第1の実施形態によれば、多点接触時であっても接触力をより正確に算出することができる。その結果、以下の3点の効果が得られる。第1に、把持対象の物体の形状が複雑な形状であっても、当該物体を破壊することなく、安全に把持することができる。第2に、把持対象の物体の形状が複雑な形状であっても当該物体の滑り量を適切に検出することができる。このため、ロボット10は、当該物体を滑り落とすことなく、安全に把持することができる。第3に、該当の全ての接触点のうちの一以上で滑りが発生した場合であっても、当該滑りを精度高く検出することができる。従って、該当の物体をより安全に把持することができる。
また、第1の実施形態によれば、例えば圧力分布センサやVisionセンサなどの、多様な種類のセンサを触覚センサ106として用いることができ、センサ方式の選択の幅が広い。このため、ロボット10の形態や、ロボット10に搭載されるセンサの形態に応じた適切な処理方法を選択可能である。
また、第1の実施形態によれば、触覚センサ106によりセンシング可能なエリア内であれば当該エリア内の任意の位置で物体が接触した場合であっても、各接触点における接触力を算出することができる。このため、把持部104が物体を把持する際に位置調整が不要になり得る。その結果、以下の3点の効果が得られる。第1に、対象の物体をより迅速に把持できるようになる。第2に、位置調整のためのセンサ(例えばカメラなど)をロボット10に追加搭載する必要がない。第3に、把持部104を支持する構造体の撓みなどによる誤差の許容範囲を、より大きくすることができる。このため、該当の構造体の強度を低下させることも可能となるので、ロボット10の軽量化や低コスト化が可能となる。
以上、第1の実施形態について説明した。次に、本開示に係る第2の実施形態について説明する。後述するように、第2の実施形態によれば、把持部104と物体との接触力の上限値をユーザーが指定することができる。なお、第2の実施形態に係るロボット10の物理構成は、図1に示した第1の実施形態と同様であってよい。また、後述する第3の実施形態〜第9の実施形態に関しても、ロボット10の物理構成は、第1の実施形態と同様であってよい。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
次に、第2の実施形態に係るロボット10の機能構成について、図5を参照して説明する。図5は、第2の実施形態に係るロボット10の機能構成の例を示したブロック図である。図5に示したように、第2の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、接触力閾値記憶部200をさらに有する。
接触力閾値記憶部200は、ユーザーにより予め指定された、把持部104と物体との接触時の接触力の上限値(以下では、「接触力の上限指定値」と称する)を記憶する。この接触力の上限指定値は、把持対象の物体の種類に依存しない、同一の値であり得る。
第2の実施形態に係る把持力算出部102は、接触力閾値記憶部200に記憶されている、接触力の上限指定値に基づいて、(現在以降の)把持部104の目標の把持力を算出する。例えば、把持力算出部102は、把持部104と物体との各接触点における接触力が、接触力閾値記憶部200に記憶されている、接触力の上限指定値以下になるように、アクチュエータ130が発生すべき力の上限値を算出する。
以上説明したように、第2の実施形態によれば、把持部104と物体との接触力の上限値をユーザーが指定することができる。このため、ロボット10は、接触力が過大にならないように制御することができるので、例えば柔軟な物体や壊れやすい物体であっても、安全に把持することができる。さらに、ロボット10に実装されているアプリケーションや、その場の状況に応じて、把持強度を変更することができる。
以上、第2の実施形態について説明した。次に、本開示に係る第3の実施形態について説明する。後述するように、第3の実施形態によれば、把持部104と物体との接触力の上限値を物体の種類ごとに適切に指定することができる。以下では、第2の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
図6は、第3の実施形態に係るロボット10の機能構成の例を示したブロック図である。図6に示したように、第3の実施形態に係るロボット10は、図5に示した第2の実施形態と比較して、物体認識部202をさらに有する。
物体認識部202は、物体認識用のセンサ(例えばイメージセンサ(カメラ)や赤外線センサなど)を含んで構成され得る。物体認識部202は、ロボット10の周辺(例えば把持部104の可動範囲内など)に位置する各物体をセンシングし、そして、当該センシング結果に基づいて各物体の種類を認識する。
第3の実施形態に係る接触力閾値記憶部200は、例えばユーザーにより予め指定された、物体の種類ごとの、把持部104と当該物体との接触力の上限値を記憶する。
第3の実施形態に係る把持力算出部102は、物体認識部202により認識された、把持対象の物体の種類と、接触力閾値記憶部200に記憶されている該当の物体の接触力の上限値とに基づいて、把持部104の目標の把持力(または、アクチュエータ130が発生すべき力の上限値)を算出する。
以上説明したように、第3の実施形態によれば、把持部104と物体との接触力の上限値を物体の種類ごとに適切に指定することができる。このため、ロボット10は、把持対象の物体の種類に応じた適切な力で当該物体を把持することができるので、より安全に把持することができる。また、第3の実施形態によれば、ユーザーは、接触力の上限値を、その都度指定する必要がなく、操作回数を削減することができる。
以上、第3の実施形態について説明した。次に、本開示に係る第4の実施形態について説明する。後述するように、第4の実施形態によれば、過去の把持経験に応じて、把持部104と物体との接触力の上限値を適切に指定することができる。以下では、第3の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
図7は、第4の実施形態に係るロボット10の機能構成の例を示したブロック図である。図7に示したように、第4の実施形態に係るロボット10は、図6に示した第3の実施形態と比較して、接触力上限特定部204をさらに有する。
第4の実施形態に係る接触力閾値記憶部200は、過去の把持時に物体認識部202により認識された該当の物体の種類と、当該把持時における該当の物体の状態(例えば破壊されたか否かなど)と、当該把持時における把持部104の把持力とを関連付けて記憶し得る。
接触力上限特定部204は、物体認識部202により認識された、把持対象の物体の種類と、接触力閾値記憶部200に記憶されている情報とに基づいて、当該把持対象の物体が破壊されない範囲内の接触力の上限値を特定する。
第4の実施形態に係る把持力算出部102は、接触力上限特定部204により特定された接触力の上限値と、接触力特定部110により特定された各接触点における接触力とに基づいて、把持部104の目標の把持力(または、アクチュエータ130が発生すべき力の上限値)を算出する。
{5−2−1.効果1}
以上説明したように、第4の実施形態によれば、過去の把持経験に応じて、把持部104と物体との接触力の上限値を適切に指定することができる。例えば、ロボット10は、把持対象の物体の過去の把持成功時の接触力の上限値を、把持部104と当該物体との接触力の上限値として設定することができる。このため、ロボット10は、各物体をより確実に把持することができる。また、ロボット10は、物体を把持している間に、当該物体の把持可能性を判定することができる。例えば、当該物体の接触力の上限値を付加した場合であっても滑りが止まらないことが検出された場合には、ロボット10は、当該物体の摩擦係数が小さすぎるので当該物体の把持は不可能、または、困難であると判断することができる。
また、第4の実施形態によれば、接触力の上限値を定めるために人的作業が不要になる。例えば、接触力の上限値を定めるための調査やデータの収集などをユーザーが行う必要がないので、システムの導入が容易になる。
以上、第4の実施形態について説明した。次に、本開示に係る第5の実施形態について説明する。後述するように、第5の実施形態によれば、把持部104と物体との接触力の上限値、または、接触力の目標値をユーザーが容易に指定することができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
図8は、第5の実施形態に係るロボット10の機能構成の例を示したブロック図である。図8に示したように、第5の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、入力部206をさらに有する。
入力部206は、入力デバイス(例えばマウス、キーボード、または、タッチパネルなど)を含んで構成されてもよいし、または、音声入力装置(例えばマイクロフォンなど)を含んで構成されてもよい。入力部206は、ロボット10に対するユーザーの各種の入力を受け付ける。
例えば、把持部104が物体を把持する前ごとに、入力部206は、ユーザーによる、接触力の上限値の入力を受け付けてもよい。一例として、ユーザーは、接触力の基準値に対する乗数を入力部206に対して入力してもよいし、または、予め準備されている、接触力の複数のレベルのうちのいずれかを入力部206に対して入力してもよい。これらの場合、入力部206に対する入力情報が把持制御部100へ伝達され、そして、把持制御部100は、当該入力情報に基づいて、実際の接触力の上限値を決定してもよい。
または、入力部206は、ユーザーによる、接触力の目標値の入力を受け付けてもよい。この場合、把持力算出部102は、把持部104の現在の接触力が、入力された接触力の目標値と同一になるように、アクチュエータ130が発生すべき力(目標値)を算出し得る。
{6−2−1.効果1}
以上説明したように、第5の実施形態によれば、把持部104と物体との接触力の上限値をユーザーが容易に指定することができる。例えば、ユーザーは、接触力の上限値をその都度(例えばリアルタイムに)指定することができる。その結果、ロボット10は、その場の状況変化やアプリケーションの変更に即座、かつ、ロバストに対応することができる。また、ユーザーは、接触力の上限値を直感的に入力することも可能である。
また、第5の実施形態によれば、把持部104と物体との接触力の目標値をユーザーが容易に指定することができる。例えば、ユーザーは、当該接触力の目標値をその都度(例えばリアルタイムに)指定することができる。また、物体に対して一定の接触力を付加するようなアプリケーションの利用時に関しても、ユーザーは、所望の接触力を指定することができる。
以上、第5の実施形態について説明した。次に、本開示に係る第6の実施形態について説明する。後述するように、第6の実施形態によれば、把持時の物体の状態に応じて、接触力の上限値を適切に調整することができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
図9は、第6の実施形態に係るロボット10の機能構成の例を示したブロック図である。図9に示したように、第6の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、接触力上限特定部204、および、把持状態認識部208をさらに有する。
把持状態認識部208は、把持状態の認識用のセンサ(例えばイメージセンサ(カメラ)や赤外線センサなど)を含んで構成され得る。把持状態認識部208は、把持部104が把持している物体をセンシングし、そして、当該センシング結果に基づいて当該物体の状態(例えば破壊されたか否かや、変形されたか否かなど)を例えばリアルタイムに認識し得る。
第6の実施形態に係る接触力上限特定部204は、把持状態認識部208による、対象の物体の状態の認識結果と、接触力特定部110により算出された、把持部104と当該物体との現在の接触力とに基づいて、把持部104と当該物体との接触力の上限値を例えばリアルタイムに算出する。
以上説明したように、第6の実施形態によれば、把持中の物体の状態に応じて、接触力の上限値を適切に調整することができる。例えば、事前に予測不可能だった物体の変形や破壊が発生した場合であっても、ロボット10は、接触力の上限値をリアルタイムに調整することにより、これらの事象に対してリアルタイムに対応することができる。
以上、第6の実施形態について説明した。次に、本開示に係る第7の実施形態について説明する。後述するように、第7の実施形態によれば、把持部104と物体との接触の検出結果に応じて、滑り検出処理を行うか否かを適切に切り替えることができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
図10は、第7の実施形態に係るロボット10の機能構成の例を示したブロック図である。図10に示したように、第7の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、接触検出部210をさらに有する。
接触検出部210は、接触力特定部110による算出結果に基づいて、把持部104と物体との接触の有無を検出する。また、接触検出部210は、把持部104と物体との接触の開始を検出した際には、滑り検出部112に対して接触トリガを出力し得る。
第7の実施形態に係る滑り検出部112は、接触検出部210による検出結果に基づいて、滑り量の検出処理を行うか否かを決定する。例えば、把持部104と物体との接触が接触検出部210により検出されている間のみ、滑り検出部112は、滑り検出処理を行う。つまり、把持部104と物体との接触が接触検出部210により検出されていない間は、滑り検出部112は、滑り検出処理を行わない。例えば、滑り検出部112から接触トリガを受信した際にのみ、滑り検出部112は、滑り検出処理を開始してもよい。
以上説明したように、第7の実施形態によれば、把持部104と物体との接触の検出結果に応じて、滑り検出処理を行うか否かを適切に切り替えることができる。
以上、第7の実施形態について説明した。次に、本開示に係る第8の実施形態について説明する。後述するように、第8の実施形態によれば、把持部104と物体との接触の前後で、実行する制御の種類、または、制御パラメータの値を適切に切り替えることができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
図11は、第8の実施形態に係るロボット10の機能構成の例を示したブロック図である。図11に示したように、第8の実施形態に係るロボット10は、図2に示した第1の実施形態と比較して、接触検出部210および本体制御部212をさらに有する。
第8の実施形態に係る接触検出部210は、把持部104と物体との接触の開始を検出した際には、把持制御部100および本体制御部212に対して接触トリガを出力し得る。
本体制御部212は、接触検出部210による検出結果に基づいて、ロボット10の本体部(例えば、把持部104以外の部位に含まれる一以上の関節など)の動作を制御する。例えば、本体制御部212は、ロボット10の本体部に対して行う制御の種類、および、ロボット10の本体部に関する制御パラメータの両方またはいずれか一方を、把持部104と物体との接触が接触検出部210により検出されたか否かに応じて切り替える。ここで、当該制御の種類は、例えば、位置制御、または、力制御などを含み得る。また、当該制御パラメータは、例えば、機械インピーダンス、制御ゲイン、位置、力、速度、トルク、または、その他の指令値などを含み得る。また、当該制御パラメータは、これらのパラメータの上限値または下限値をさらに含んでもよい。
第8の実施形態に係る把持制御部100は、接触検出部210による検出結果に基づいて、把持部104の動作を制御する。例えば、把持制御部100は、把持部104に対して行う制御の種類、および、把持部104に関する制御パラメータの両方またはいずれか一方を、把持部104と物体との接触が接触検出部210により検出されたか否かに応じて切り替える。なお、当該制御の種類、および、当該制御パラメータの具体的な内容は、(本体制御部212に関連して)前述した内容とそれぞれ同様であり得る。
以上説明したように、第8の実施形態によれば、把持部104と物体との接触の前後で、実行する制御の種類、または、制御パラメータの値を適切に切り替えることができる。
以上、第8の実施形態について説明した。次に、本開示に係る第9の実施形態について説明する。後述するように、第9の実施形態によれば、触覚センサ106によるセンシング結果だけでなく、力覚センサ108によるセンシング結果も同時に用いて、把持部104に対する物体の滑り量を検出することができる。以下では、第1の実施形態と異なる内容についてのみ説明することとし、同一の内容については説明を省略する。
図12は、第9の実施形態に係るロボット10の機能構成の例を示したブロック図である。図12に示したように、第9の実施形態では、図2に示した第1の実施形態と比較して、力覚センサ108と滑り検出部112とが接続されている点のみ異なる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、第8の実施形態に係る本体制御部212は、第8の実施形態に係るロボット10のみが有する例に限定されない。他の任意の実施形態に係るロボット10も、本体制御部212を同様に有してもよい。
別の変形例として、前述した各実施形態では、本開示に係る接触部が把持部104である例について説明したが、本開示はかかる例に限定されない。例えば、当該接触部は、必ずしも物体を把持可能な構成を有する例に限定されず、物体と接触可能な構成を有していればよい。一例として、ロボット10は、当該接触部を物体に対して押し付け可能であったり、または、引っ張り可能であったりし得る。例えば、当該接触部は、ロボット10が有する任意の部位(例えば胴体部、アーム部、または、脚部など)の表面であってもよい。
別の変形例として、前述した各実施形態では、本開示に係る制御装置がロボット10である例について説明したが、本開示はかかる例に限定されず、当該制御装置は、ロボット10とは異なる装置であってもよい。例えば、当該制御装置は、サーバ、汎用PC(Personal Computer)、タブレット型端末、ゲーム機、スマートフォンなどの携帯電話、例えばHMD(Head Mounted Display)やスマートウォッチなどのウェアラブルデバイス、車載装置(カーナビゲーション装置など)、または、別のロボット(例えばヒューマノイドロボットやドローンなど)であってもよい。
また、前述した処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されたりしてもよい。
(1)
接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、
を備える、制御装置。
(2)
前記接触部は、把持部であり、
前記把持制御部は、前記触覚センサによるセンシング結果から特定される、前記把持部と前記物体とが一以上の点において接触した際の個々の接触点に関する情報と、前記力覚センサによるセンシング結果とに基づいて算出された前記個々の接触点における接触力に応じて、前記把持部の把持力を制御する、前記(1)に記載の制御装置。
(3)
前記個々の接触点に関する情報は、前記個々の接触点の総数と、前記個々の接触点の位置関係を示す情報とを含む、前記(2)に記載の制御装置。
(4)
前記個々の接触点に関する情報は、前記個々の接触点間の接触強度比をさらに含む、前記(3)に記載の制御装置。
(5)
前記個々の接触点の位置関係を示す情報は、前記把持部内の前記個々の接触点の位置情報を含む、前記(4)に記載の制御装置。
(6)
前記把持制御部は、前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果から特定される、前記把持部と前記物体との接触力の合力とに基づいて算出された前記個々の接触点における接触力に応じて、前記把持部の把持力を制御する、前記(4)または(5)に記載の制御装置。
(7)
前記把持部にはアクチュエータが連結されている、もしくは、前記把持部はアクチュエータを含み、
前記把持制御部は、前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果から特定される前記アクチュエータの発生力とに基づいて算出された、前記把持部と前記物体とが一以上の点において接触した際の個々の接触点における接触力に応じて、前記把持部の把持力を制御する、前記(4)または(5)に記載の制御装置。
(8)
前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果とに基づいて、前記個々の接触点における接触力を算出する接触力算出部をさらに備える、前記(4)〜(7)のいずれか一項に記載の制御装置。
(9)
前記触覚センサによるセンシング結果に基づいて、前記把持部に対する前記物体の滑り量を検出する滑り検出部をさらに備える、前記(8)に記載の制御装置。
(10)
前記滑り検出部は、さらに、前記接触力算出部により算出された前記個々の接触点における接触力に基づいて、前記把持部に対する前記物体の滑り量を検出する、前記(9)に記載の制御装置。
(11)
前記滑り検出部は、さらに、前記力覚センサによるセンシング結果に基づいて、前記把持部に対する前記物体の滑り量を検出する、前記(10)に記載の制御装置。
(12)
さらに、前記滑り検出部は、前記把持部と前記物体との接触が検出されたか否かに基づいて、前記把持部に対する前記物体の滑り量を検出するか否かを決定する、前記(10)または(11)に記載の制御装置。
(13)
前記把持制御部は、前記接触力算出部により算出された前記個々の接触点における接触力と、前記滑り検出部により検出された滑り量とに応じて、前記把持部の把持力を制御する、前記(9)〜(12)のいずれか一項に記載の制御装置。
(14)
前記把持制御部は、さらに、ユーザーにより指定された、前記把持部と前記物体との接触時の接触力の上限値に応じて、前記把持部の把持力を制御する、前記(13)に記載の制御装置。
(15)
前記把持制御部は、さらに、ユーザーにより指定された、前記物体に対する前記把持部の接触力の目標値に応じて、前記把持部の把持力を制御する、前記(13)または(14)に記載の制御装置。
(16)
前記把持制御部は、さらに、前記把持部が前記物体を過去に把持した際の前記物体の状態と前記把持部の把持力との関係性を示す情報に応じて、前記把持部の把持力を制御する、前記(13)〜(15)のいずれか一項に記載の制御装置。
(17)
前記把持制御部は、さらに、前記把持部が前記物体に接触している間の前記物体の状態の認識結果に応じて、前記把持部の把持力を制御する、前記(13)〜(16)のいずれか一項に記載の制御装置。
(18)
前記把持制御部は、さらに、前記把持部に対して行う制御の種類、または、前記把持部に関する制御パラメータを、前記把持部と前記物体との接触が検出されたか否かに応じて切り替える、前記(13)〜(17)のいずれか一項に記載の制御装置。
(19)
接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、プロセッサが、前記接触部に関連する把持力を制御すること、
を含む、制御方法。
(20)
コンピュータを、
接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、
として機能させるためのプログラム。
100 把持制御部
102 把持力算出部
104 把持部
106 触覚センサ
108 力覚センサ
110 接触力特定部
112 滑り検出部
130 アクチュエータ
150 接触箇所数算出部
152 接触位置算出部
154 接触強度算出部
156 接触力算出部
200 接触力閾値記憶部
202 物体認識部
204 接触力上限特定部
206 入力部
208 把持状態認識部
210 接触検出部
212 本体制御部
Claims (20)
- 接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、
を備える、制御装置。 - 前記接触部は、把持部であり、
前記把持制御部は、前記触覚センサによるセンシング結果から特定される、前記把持部と前記物体とが一以上の点において接触した際の個々の接触点に関する情報と、前記力覚センサによるセンシング結果とに基づいて算出された前記個々の接触点における接触力に応じて、前記把持部の把持力を制御する、請求項1に記載の制御装置。 - 前記個々の接触点に関する情報は、前記個々の接触点の総数と、前記個々の接触点の位置関係を示す情報とを含む、請求項2に記載の制御装置。
- 前記個々の接触点に関する情報は、前記個々の接触点間の接触強度比をさらに含む、請求項3に記載の制御装置。
- 前記個々の接触点の位置関係を示す情報は、前記把持部内の前記個々の接触点の位置情報を含む、請求項4に記載の制御装置。
- 前記把持制御部は、前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果から特定される、前記把持部と前記物体との接触力の合力とに基づいて算出された前記個々の接触点における接触力に応じて、前記把持部の把持力を制御する、請求項4に記載の制御装置。
- 前記把持部にはアクチュエータが連結されている、もしくは、前記把持部はアクチュエータを含み、
前記把持制御部は、前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果から特定される前記アクチュエータの発生力とに基づいて算出された、前記把持部と前記物体とが一以上の点において接触した際の個々の接触点における接触力に応じて、前記把持部の把持力を制御する、請求項4に記載の制御装置。 - 前記個々の接触点に関する情報と、前記力覚センサによるセンシング結果とに基づいて、前記個々の接触点における接触力を算出する接触力算出部をさらに備える、請求項4に記載の制御装置。
- 前記触覚センサによるセンシング結果に基づいて、前記把持部に対する前記物体の滑り量を検出する滑り検出部をさらに備える、請求項8に記載の制御装置。
- 前記滑り検出部は、さらに、前記接触力算出部により算出された前記個々の接触点における接触力に基づいて、前記把持部に対する前記物体の滑り量を検出する、請求項9に記載の制御装置。
- 前記滑り検出部は、さらに、前記力覚センサによるセンシング結果に基づいて、前記把持部に対する前記物体の滑り量を検出する、請求項10に記載の制御装置。
- さらに、前記滑り検出部は、前記把持部と前記物体との接触が検出されたか否かに基づいて、前記把持部に対する前記物体の滑り量を検出するか否かを決定する、請求項10に記載の制御装置。
- 前記把持制御部は、前記接触力算出部により算出された前記個々の接触点における接触力と、前記滑り検出部により検出された滑り量とに応じて、前記把持部の把持力を制御する、請求項9に記載の制御装置。
- 前記把持制御部は、さらに、ユーザーにより指定された、前記把持部と前記物体との接触時の接触力の上限値に応じて、前記把持部の把持力を制御する、請求項13に記載の制御装置。
- 前記把持制御部は、さらに、ユーザーにより指定された、前記物体に対する前記把持部の接触力の目標値に応じて、前記把持部の把持力を制御する、請求項13に記載の制御装置。
- 前記把持制御部は、さらに、前記把持部が前記物体を過去に把持した際の前記物体の状態と前記把持部の把持力との関係性を示す情報に応じて、前記把持部の把持力を制御する、請求項13に記載の制御装置。
- 前記把持制御部は、さらに、前記把持部が前記物体に接触している間の前記物体の状態の認識結果に応じて、前記把持部の把持力を制御する、請求項13に記載の制御装置。
- 前記把持制御部は、さらに、前記把持部に対して行う制御の種類、または、前記把持部に関する制御パラメータを、前記把持部と前記物体との接触が検出されたか否かに応じて切り替える、請求項13に記載の制御装置。
- 接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、プロセッサが、前記接触部に関連する把持力を制御すること、
を含む、制御方法。 - コンピュータを、
接触部に配置されている触覚センサによるセンシング結果と、前記接触部に配置されている力覚センサによるセンシング結果とに基づく、前記接触部と物体とが接触した際の接触力に応じて、前記接触部に関連する把持力を制御する把持制御部、
として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023073719A JP2023086924A (ja) | 2018-03-27 | 2023-04-27 | 制御方法、制御システム及びプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018059544 | 2018-03-27 | ||
JP2018059544 | 2018-03-27 | ||
PCT/JP2019/001901 WO2019187546A1 (ja) | 2018-03-27 | 2019-01-22 | 制御装置、制御方法、および、プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023073719A Division JP2023086924A (ja) | 2018-03-27 | 2023-04-27 | 制御方法、制御システム及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019187546A1 true JPWO2019187546A1 (ja) | 2021-04-15 |
JP7276318B2 JP7276318B2 (ja) | 2023-05-18 |
Family
ID=68061124
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020509717A Active JP7276318B2 (ja) | 2018-03-27 | 2019-01-22 | 制御装置、制御方法、および、プログラム |
JP2023073719A Pending JP2023086924A (ja) | 2018-03-27 | 2023-04-27 | 制御方法、制御システム及びプログラム |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023073719A Pending JP2023086924A (ja) | 2018-03-27 | 2023-04-27 | 制御方法、制御システム及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US11999051B2 (ja) |
EP (1) | EP3778153A4 (ja) |
JP (2) | JP7276318B2 (ja) |
KR (1) | KR102586779B1 (ja) |
CN (1) | CN111867791A (ja) |
WO (1) | WO2019187546A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7480600B2 (ja) * | 2020-06-11 | 2024-05-10 | セイコーエプソン株式会社 | 目標力上限値設定方法およびロボットシステム |
IT202100008006A1 (it) * | 2021-03-31 | 2022-10-01 | Fondazione St Italiano Tecnologia | Metodo di controllo di una pinza di presa |
WO2024030669A2 (en) * | 2022-08-05 | 2024-02-08 | Ghost Robotics Corporation | Method to improve walking performance of quadrupeds over soft surfaces |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06126684A (ja) * | 1992-10-21 | 1994-05-10 | Mitsubishi Electric Corp | 物体把持装置及びその制御方法 |
JP2006047145A (ja) * | 2004-08-05 | 2006-02-16 | Hyogo Prefecture | 計測システムおよび計測方法並びに把持装置制御システム |
JP2007152528A (ja) * | 2005-12-08 | 2007-06-21 | Ario Techno Kk | 関節装置、関節装置を用いたフィンガーユニット、及び、ユニバーサルロボットハンド |
JP2009034743A (ja) * | 2007-07-31 | 2009-02-19 | Sony Corp | 検出装置および方法、並びにプログラム |
JP2009066714A (ja) * | 2007-09-13 | 2009-04-02 | Sony Corp | 制御装置および方法、プログラム並びに記録媒体 |
US20160136822A1 (en) * | 2014-11-18 | 2016-05-19 | Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd. | Robotic finger structure |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10850392B2 (en) * | 2004-04-12 | 2020-12-01 | Strider Labs, Inc. | System and method for computing grasps for a robotic hand with a palm |
US7591166B2 (en) * | 2004-09-14 | 2009-09-22 | National University Corporation NARA Institute of Science and Technology | Tactile sensor and use thereof |
JP2006123149A (ja) * | 2004-11-01 | 2006-05-18 | Sharp Corp | 関節駆動機構およびロボットハンド |
JP2009066683A (ja) * | 2007-09-11 | 2009-04-02 | Sony Corp | ロボットハンド及び制御方法、並びにプログラム |
JP5505138B2 (ja) * | 2010-07-05 | 2014-05-28 | 株式会社安川電機 | ロボット装置およびロボット装置による把持方法 |
JP5678670B2 (ja) * | 2011-01-06 | 2015-03-04 | セイコーエプソン株式会社 | 超音波センサー、触覚センサー、および把持装置 |
US8504205B2 (en) * | 2011-03-17 | 2013-08-06 | Harris Corporation | Robotic grasping device with multi-force sensing at base of fingers |
KR101294250B1 (ko) | 2012-02-17 | 2013-08-07 | 재단법인대구경북과학기술원 | 그리퍼 파지력 연산방법 및 그 장치 |
JP2014108466A (ja) * | 2012-11-30 | 2014-06-12 | Fanuc Ltd | 力センサ付き電動ハンド |
JP2014184027A (ja) * | 2013-03-25 | 2014-10-02 | Seiko Epson Corp | 指アシスト装置 |
US10272568B2 (en) * | 2015-09-17 | 2019-04-30 | Canon Kabushiki Kaisha | Robot apparatus, robot controlling method, program, recording medium, and assembly manufacturing method |
US9855663B1 (en) * | 2016-06-17 | 2018-01-02 | X Development Llc | Automated digit interchange |
KR102410742B1 (ko) * | 2016-09-09 | 2022-06-22 | 센셀, 인크. | 터치 센서 상의 입력을 검출하고 특징화하기 위한 시스템 |
-
2019
- 2019-01-22 KR KR1020207026589A patent/KR102586779B1/ko active IP Right Grant
- 2019-01-22 JP JP2020509717A patent/JP7276318B2/ja active Active
- 2019-01-22 EP EP19776052.3A patent/EP3778153A4/en active Pending
- 2019-01-22 US US16/982,204 patent/US11999051B2/en active Active
- 2019-01-22 WO PCT/JP2019/001901 patent/WO2019187546A1/ja unknown
- 2019-01-22 CN CN201980020331.2A patent/CN111867791A/zh active Pending
-
2023
- 2023-04-27 JP JP2023073719A patent/JP2023086924A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06126684A (ja) * | 1992-10-21 | 1994-05-10 | Mitsubishi Electric Corp | 物体把持装置及びその制御方法 |
JP2006047145A (ja) * | 2004-08-05 | 2006-02-16 | Hyogo Prefecture | 計測システムおよび計測方法並びに把持装置制御システム |
JP2007152528A (ja) * | 2005-12-08 | 2007-06-21 | Ario Techno Kk | 関節装置、関節装置を用いたフィンガーユニット、及び、ユニバーサルロボットハンド |
JP2009034743A (ja) * | 2007-07-31 | 2009-02-19 | Sony Corp | 検出装置および方法、並びにプログラム |
JP2009066714A (ja) * | 2007-09-13 | 2009-04-02 | Sony Corp | 制御装置および方法、プログラム並びに記録媒体 |
US20160136822A1 (en) * | 2014-11-18 | 2016-05-19 | Hong Fu Jin Precision Industry (Shenzhen) Co., Ltd. | Robotic finger structure |
Also Published As
Publication number | Publication date |
---|---|
JP7276318B2 (ja) | 2023-05-18 |
US11999051B2 (en) | 2024-06-04 |
KR20200133337A (ko) | 2020-11-27 |
JP2023086924A (ja) | 2023-06-22 |
CN111867791A (zh) | 2020-10-30 |
US20210031377A1 (en) | 2021-02-04 |
EP3778153A4 (en) | 2021-05-26 |
EP3778153A1 (en) | 2021-02-17 |
WO2019187546A1 (ja) | 2019-10-03 |
KR102586779B1 (ko) | 2023-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2023086924A (ja) | 制御方法、制御システム及びプログラム | |
US11090814B2 (en) | Robot control method | |
US20200147787A1 (en) | Working robot and control method for working robot | |
US11065767B2 (en) | Object manipulation apparatus and object manipulation method for automatic machine that picks up and manipulates an object | |
KR101741844B1 (ko) | 파지 판별 장치 및 파지 판별 방법 | |
KR101308373B1 (ko) | 로봇 제어방법 | |
CN112936278B (zh) | 机器人的人机协作控制方法、装置和机器人 | |
JP2009269127A (ja) | 把持装置及びその制御方法 | |
KR20150080050A (ko) | 다관절로봇의 충돌 감지 장치 및 이를 이용한 충돌 감지 방법 | |
JP2012056074A (ja) | 力またはインピーダンス制御ロボットの作業空間安全動作 | |
JPH08323678A (ja) | 柔軟物体把持装置 | |
Koyama et al. | High-speed, small-deformation catching of soft objects based on active vision and proximity sensing | |
CN111360851B (zh) | 一种融合触觉和视觉的机器人混合伺服控制装置及方法 | |
JP2024001106A5 (ja) | ||
JP6322949B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
JP2021084210A (ja) | ロボット、エンドエフェクタ、システム、方法及びプログラム | |
Franzel et al. | Detection of collaboration and collision events during contact task execution | |
Al-Mohammed et al. | A switched adaptive controller for robotic gripping of novel objects with minimal force | |
JP6322948B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法、及びプログラム | |
CN110883773B (zh) | 一种用于二指机械手抓取操作的自适应控制方法 | |
CN117961916B (zh) | 一种目标物可抓取性判断、目标物抓取方法、装置及系统 | |
JP2015074059A (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びプログラム | |
US20240300095A1 (en) | Operation control method, operation control device, and storage medium | |
Schmidt et al. | Tactile-sensing apparatus for sensible catching of guided heavy masses | |
Wang et al. | Center-of-Mass-Based Object Regrasping: A Reinforcement Learning Approach and the Effects of Perception Modality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20201222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220106 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230417 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7276318 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |