WO2024127688A1 - ロボットハンド及びロボットアーム - Google Patents

ロボットハンド及びロボットアーム Download PDF

Info

Publication number
WO2024127688A1
WO2024127688A1 PCT/JP2023/021795 JP2023021795W WO2024127688A1 WO 2024127688 A1 WO2024127688 A1 WO 2024127688A1 JP 2023021795 W JP2023021795 W JP 2023021795W WO 2024127688 A1 WO2024127688 A1 WO 2024127688A1
Authority
WO
WIPO (PCT)
Prior art keywords
grasped
robot hand
detection unit
detection
finger
Prior art date
Application number
PCT/JP2023/021795
Other languages
English (en)
French (fr)
Inventor
勝也 坂本
Original Assignee
株式会社ブリヂストン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ブリヂストン filed Critical 株式会社ブリヂストン
Publication of WO2024127688A1 publication Critical patent/WO2024127688A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/08Gripping heads and other end effectors having finger members
    • B25J15/12Gripping heads and other end effectors having finger members with flexible finger members

Definitions

  • This disclosure relates to robotic hands and robotic arms.
  • JP 2021-88999 A proposes a hydraulic actuator that includes a cylindrical tube that expands and contracts due to fluid pressure, a sleeve that is an elastic structure made by weaving fiber cords oriented in a predetermined direction and covers the outer circumferential surface of the tube, a sealing member that seals the end of the tube in the axial direction, and a restraining member that is provided inside the sleeve from one end side to the other end side in the axial direction of the tube.
  • the restraining member resists compression along the axial direction of the tube and is deformable in a direction perpendicular to the axial direction.
  • a detection unit such as a sensor in the area that corresponds to the palm, and to check whether the object is being grasped correctly before moving on to the next action.
  • the finger members of the robot hand may be detected, making it difficult to distinguish between a state in which the object is grasped correctly and a state in which the object is not grasped correctly.
  • a curved robot hand such as the technology of JP 2021-88999 A, the fingers follow the object to be grasped, so the positional relationship of the object to be grasped may not be in the same position, and the grasping state may not be determined correctly.
  • the objective of this disclosure is to provide a robot hand and a robot arm that can accurately determine the gripping state.
  • the robot hand includes a plurality of finger members that can move in a direction to grasp an object to be grasped, and a detection unit that detects distance to a position outside the trajectory along which the finger members move.
  • the robot hand of the second aspect is the robot hand of the first aspect, in which the finger members are fluid pressure actuators that perform a bending motion.
  • the robot hand according to the third aspect is the robot hand according to the first or second aspect, and includes a plurality of the detection units, and the plurality of detection units detect each of the distances at positions outside the trajectory along which the finger members move, and at different positions as detection targets.
  • the robot hand according to the fourth aspect is the robot hand according to the first or second aspect, in which the detection unit detects a plurality of regions, and among the plurality of regions, the detection target is a region that is outside the trajectory along which the finger members move.
  • the robot arm according to the fifth aspect includes a robot hand according to any one of the first to fourth aspects, and a control unit that determines whether the object to be grasped has been grasped based on the detection result of the detection unit, and controls the movement of the object to be grasped when it is determined that the object has been grasped.
  • the present disclosure has the effect of providing a robot hand and a robot arm that can accurately determine the gripping state.
  • FIG. 1 is a diagram showing an overall image of a robot arm having a robot hand according to an embodiment of the present invention.
  • FIG. 1A and 1B are diagrams illustrating an example in which a detection unit is disposed on the palm portion of a robot hand to detect the gripping state of an object to be gripped.
  • 11A and 11B are diagrams for explaining erroneous detection of the gripping state of a gripping object.
  • 13 is a diagram showing an example in which a detection unit is disposed at a position to detect a position deviated from the trajectory of the finger member's movement.
  • FIG. FIG. 2 is a block diagram showing the configuration of a control system of the robot arm according to the present embodiment.
  • FIG. 10 is a flowchart showing an example of a flow of processing performed by a control unit of a robot arm according to the present embodiment.
  • FIG. 13 is a diagram showing an example of a modified robot hand in which a multi-zone compatible TOF distance measuring sensor is applied as a detection unit.
  • 11A and 11B are diagrams illustrating an example of a detection result of a detection unit to which a multi-zone compatible TOF distance measuring sensor is applied.
  • FIG. 1 shows an overall view of a robot arm 10 having a robot hand 20 according to this embodiment.
  • the robot arm 10 has a base 14 attached to a foundation (not shown), arm members 16, and joints 18 that connect the arm members 16 to each other or to the arm members 16 and the base 14.
  • a robot hand 20 is provided at the tip of the connected arm members 16 via the joint 18.
  • the robot hand 20 includes a robot hand support portion 21, which includes a plurality of attachment portions 20S and a plurality of finger members 40, and the attachment portions of the attachment portions 20S and the finger members 40 are covered with a cover 60.
  • the plurality of finger members 40 are movable in a direction to grasp an object to be grasped. More specifically, the finger members 40 move toward the object to be grasped by bending. This enables the robot arm 10 to grasp an object to be grasped (not shown) by bending the finger members 40. In a state where the object to be grasped is grasped, the robot arm 10 moves the object to be grasped to a transport destination by rotating each joint 18, and transports the object to be grasped by releasing the bending state of the finger members 40.
  • the number and positions of the multiple attachment portions 20S and multiple finger members 40 are appropriately set depending on the shape of the object to be grasped and the robot arm 10, etc. As shown in FIG. 1, in this embodiment, as an example, four finger members 40 are attached to the robot hand 20 by finger member attachment structures 12.
  • the finger member 40 is a fluid pressure actuator 56 that performs a bending motion.
  • the fluid pressure actuator 56 is a so-called McKibben type actuator, and is a member whose tip (the lower side of the drawing in FIG. 2) bends as shown by the two-dot chain line in FIG. 2 when a working fluid is introduced from the inlet 56I.
  • the working fluid is determined appropriately depending on the object to be grasped and the fluid pressure actuator 56, but compressed air is used as an example.
  • the fluid pressure actuator 56 applies the technology described in, for example, JP 2021-88999 A, and includes an actuator body 50, a sealing mechanism 46, and a sealing mechanism 48.
  • the actuator body 50 is composed of a tube 42 and a sleeve 44, and fluid flows in through the inlet 56I.
  • a restraining member 52 is also provided between the tube 42 and the sleeve 44.
  • the restraining member 52 is not compressed in the axial direction DAX, but is only deformable along the radial direction DR (flexing direction).
  • the restraining member 52 resists compression along the axial direction DAX, and is deformable in an orthogonal direction (radial direction DR) perpendicular to the axial direction DAX.
  • the restraining member 52 has the property of being difficult to deform along the axial direction DAX, but is deflectable along the radial direction DR. Note that being deformable may also be rephrased as being able to be curved or curled.
  • the basic characteristic of the actuator body 50 is that when fluid flows into the tube 42, it contracts in the axial direction DAX of the actuator body 50 and expands in the radial direction DR. When fluid flows out of the tube 42, the actuator body 50 expands in the axial direction DAX of the actuator body 50 and contracts in the radial direction DR. This change in shape of the actuator body 50 allows the fluid pressure actuator 56 to function as an actuator.
  • Sealing mechanism 46 and sealing mechanism 48 seal both ends of actuator body 50 in axial direction DAX.
  • the difference between sealing mechanism 46 and sealing mechanism 48 is whether or not an inlet 56I is provided and the shape, with sealing mechanism 48 being finger-shaped.
  • the inlet 56I is connected to a hose connected to the driving pressure source of the fluid pressure actuator 56, specifically, a gas or liquid compressor.
  • the fluid that flows in through the inlet 56I passes through a through hole (not shown) and flows into the inside of the actuator body 50, specifically, into the inside of the tube 42.
  • the sensor when the robot hand 20 performs a grasping operation, the sensor may not be able to distinguish between a state in which the object is properly grasped and a state in which the object cannot be grasped.
  • the fingers may not be in the same position as the object to be grasped because they follow the object, and the grasping state may not be determined correctly.
  • the tip of the finger member 40 may be detected and a signal may be turned on, resulting in a false determination that the object is being grasped; or, as shown on the right side of Figure 4, if the object is being grasped but is held at a distance greater than the threshold, the signal may be turned off, resulting in a false determination that the object is not being grasped.
  • the detection unit 62 is placed at a position that detects a position outside the trajectory along which the finger member 40 moves. As a result, the detection unit 62 does not detect the finger member 40, so as shown on the left side of FIG. 5, the signal is turned off, and the finger member 40 is not erroneously detected, and it is possible to correctly determine whether the object to be grasped is being grasped, as shown on the right side of FIG. 5. Note that while FIG. 5
  • each detection unit 62 may be placed at a position outside the trajectory along which each finger member 40 moves.
  • Figure 6 is a block diagram showing the configuration of the control system of the robot arm 10 according to this embodiment.
  • control unit 70 is connected to a detection unit 62, a compressor 72, and a drive unit 74.
  • the detection unit 62 is an optical sensor that detects distance, and is disposed at a position that detects a position outside the trajectory along which the finger member 40 moves, as described above.
  • a time-of-flight (TOF) type non-contact range finder or a triangulation type non-contact range finder may be used as the detection unit 62.
  • the compressor 72 sends compressed air through the inlet 56I of the fluid pressure actuator 56 into the tube 42 of the actuator body 50, causing the robot hand 20 to perform a gripping operation.
  • the drive unit 74 is a drive source that drives the robot arm 10, and moves the object to be grasped to a destination or the like by rotating each joint 18.
  • the drive unit 74 may be a motor actuator, a hydraulic actuator, or a pneumatic actuator, etc.
  • the control unit 70 is composed of a computer in which, for example, a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), and I/O (Input/Output Interface) are connected to a bus.
  • the control unit 70 drives the compressor 72 to drive the fluid pressure actuator 56 of the robot hand 20 and control the gripping operation.
  • the control unit 70 also acquires the detection result of the detection unit 62, and determines whether or not the object to be gripped has been gripped based on the detection result. Then, when the gripped state of the object to be gripped is detected, the control unit 70 drives the drive unit 74 to control the movement of the object to be gripped to a destination, etc.
  • FIG. 7 is a flow chart showing an example of the flow of processing performed by the control unit 70 of the robot arm 10 according to this embodiment. Note that the processing in FIG. 7 starts, for example, when an instruction to grasp an object to be grasped is given, the compressor 72 is driven, and the compressed air reaches a predetermined pressure.
  • step 100 the control unit 70 performs distance detection using the detection unit 62, and then proceeds to step 102. That is, the detection unit 62 emits light and detects reflected light. In this embodiment, the detection unit 62 is positioned outside the trajectory along which the finger member 40 moves, so that reflected light from the object to be grasped can be reliably detected.
  • step 102 the control unit 70 obtains the detection result of the detection unit 62 and proceeds to step 104.
  • step 104 the control unit 70 determines whether the detection distance is equal to or less than a predetermined threshold. If the determination is negative, the process proceeds to step 106, and if the determination is positive, the process proceeds to step 110.
  • step 106 the control unit 70 determines that grasping of the object to be grasped has failed and proceeds to step 108.
  • step 108 the control unit 70 performs a re-grasping operation, and returns to the above-mentioned step 100 to repeat the above-mentioned process.
  • the re-grasping operation for example, releases the pressure of the compressor 72 to eliminate the bending of the finger members, moves the robot arm 10 in the direction of the object to be grasped, etc., re-drives the compressor 72, and bends the finger members to grasp the object again.
  • step 110 the control unit 70 determines that the object to be grasped has been successfully grasped and proceeds to step 112.
  • step 112 the control unit 70 moves to the next operation and ends the series of processes.
  • the control unit 70 drives the drive unit 74 to rotate each joint 18, thereby moving the object to be grasped to the destination.
  • the detection unit 62 for detecting the gripping state of the object to be grasped is disposed at a position that detects a position outside the trajectory along which the finger members 40 move, so that the finger members 40 are not erroneously detected as the object to be grasped.
  • This also makes it possible to set a threshold value at a position farther away than the position of the tip of the finger members when each finger member 40 of the robot hand 20 is in a curved state, as shown in FIG. 5, that is, when each finger member 40 of the robot hand 20 is closed and in a gripping state without gripping the object to be grasped, so that it becomes possible to correctly determine whether the object to be grasped has been gripped.
  • a detection unit 62 is placed at the center of the palm of the robot hand 20 to detect multiple regions.
  • an 8x8 multi-zone distance measuring sensor is used to detect an 8x8 region. Then, the grasping state is judged by detecting regions (zones) outside the trajectory along which the finger members 40 move.
  • FIG. 8 is a diagram showing an example of a modified robot hand 20 in which a multi-zone TOF distance measuring sensor is used as the detection unit 62. Note that FIG. 8 shows an example of a robot hand 20 equipped with three finger members 40.
  • FIG. 9 is a diagram showing an example of the detection results of the detection unit 62 in which a multi-zone TOF distance measuring sensor is used.
  • the finger member 40 was configured as a fluid pressure actuator 56, but the finger member 40 is not limited to this.
  • a mechanical finger member 40 driven by a motor or the like may be used, or a finger member 40 of another configuration may be used.
  • the multiple detection units 62 may be provided at positions that detect positions that are off the trajectory of the movement of the finger member 40, and the detection unit 62 to be used may be switched depending on the object to be grasped. Also, even when a multi-zone compatible TOF distance measuring sensor is used, the area to be detected may be switched depending on the object to be grasped.
  • processors in this case include PLDs (Programmable Logic Devices) such as FPGAs (Field-Programmable Gate Arrays) whose circuit configuration can be changed after manufacture, and dedicated electrical circuits such as ASICs (Application Specific Integrated Circuits), which are processors with circuit configurations designed specifically to execute specific processing.
  • PLDs Programmable Logic Devices
  • FPGAs Field-Programmable Gate Arrays
  • ASICs Application Specific Integrated Circuits
  • the processing may be executed by one of these various processors, or by a combination of two or more processors of the same or different types (e.g., multiple FPGAs, and a combination of a CPU and an FPGA).
  • the hardware structure of these various processors is, more specifically, an electrical circuit that combines circuit elements such as semiconductor elements.
  • the program may be pre-stored in ROM, but if the control unit 70 has storage, the program may be provided to the control unit 70 in a form stored in a non-transient storage medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), or a USB (Universal Serial Bus) memory, and then installed in the storage.
  • a non-transient storage medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), or a USB (Universal Serial Bus) memory, and then installed in the storage.
  • the program may also be downloaded from an external device via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

把持対象物を把持する方向へ移動可能な複数の指部材と、前記指部材が移動する軌跡から外れた位置を検出対象として、距離を検出する検出部と、を備えたロボットハンド。

Description

ロボットハンド及びロボットアーム
 本開示は、ロボットハンド及びロボットアームに関する。
 特開2021-88999号公報には、流体の圧力によって膨張及び収縮する円筒状のチューブと、所定方向に配向された繊維コードを編み込んだ伸縮性を有する構造体であり、チューブの外周面を覆うスリーブと、チューブの軸方向における端部を封止する封止部材と、スリーブの内側において、チューブの軸方向における一端側から他端側に亘って設けられる拘束部材とを備える液体圧アクチュエータが提案されている。拘束部材は、チューブの軸方向に沿った圧縮に対して抵抗し、軸方向に直交する直交方向に変形可能である。
 把持対象物を把持可能なロボットハンドでは、手のひらに対応する部分にセンサ等の検出部を配置して、把持対象物を正しく把持できているかを確認してから次の動作に移行することが要求される場合がある。
 しかしながら、例えば、光学式の検出部を用いた場合、ロボットハンドを把持する動作を行うときに、検出位置によっては、ロボットハンドの指部材を検出してしまい、正しく把持された状態と、把持できていない状態とを切り分けて判定することが難しい場合がある。特に、特開2021-88999号公報の技術のように、湾曲型のロボットハンドでは、把持対象物に指が沿うため、把持対象物の位置関係が同じ位置にならない場合があり、正しく把持状態を判定できないことがある。
 本開示は、把持状態を正しく判定することが可能なロボットハンド及びロボットアームを提供することを目的とする。
 上記目的を達成するために、第1態様に係るロボットハンドは、把持対象物を把持する方向へ移動可能な複数の指部材と、前記指部材が移動する軌跡から外れた位置を検出対象として、距離を検出する検出部と、を備える。
 第2態様に係るロボットハンドは、第1態様に係るロボットハンドにおいて、前記指部材は、湾曲する動作を行う流体圧アクチュエータである。
 第3態様に係るロボットハンドは、第1態様又は第2態様に係るロボットハンドにおいて、前記検出部を複数備え、複数の前記検出部は、前記指部材が移動する軌跡から外れた位置で、かつそれぞれ異なる位置を検出対象として、各前記距離を検出する。
 第4態様に係るロボットハンドは、第1態様又は第2態様に係るロボットハンドにおいて、前記検出部は、複数の領域を検出し、前記複数の領域のうち、前記指部材が移動する軌跡から外れた領域を検出対象とする。
 第5態様に係るロボットアームは、第1態様~第4態様の何れか1の態様に係るロボットハンドと、前記検出部の検出結果に基づいて、前記把持対象物を把持したか否かを判定し、把持したと判定した場合に、前記把持対象物を移動する制御を行う制御部と、を備える。
 本開示によれば、把持状態を正しく判定することが可能なロボットハンド及びロボットアームを提供できる、という効果を有する。
本実施形態に係るロボットハンドを有するロボットアームの全体像を示す図である。 指部材を説明する側面図である。 ロボットハンドの手のひら部分に検出部を配置して把持対象物の把持状態を検出する例を示す図である。 把持対象物の把持状態の誤検出を説明するための図である。 指部材が移動する軌道から外れた位置を検出する位置に検出部を配置した例を示す図である。 本実施形態に係るロボットアームの制御系の構成を示すブロック図である。 本実施形態に係るロボットアームの制御部で行われる処理の流れの一例を示すフローチャートである。 マルチゾーン対応のTOF測距センサを検出部として適用した変形例のロボットハンドの一例を示す図である。 マルチゾーン対応のTOF測距センサを適用した検出部の検出結果の一例を示す図である。
 以下、図面を参照して本開示の技術を実現する実施形態の一例を詳細に説明する。なお、各図面において、同一又は等価な構成要素及び部品には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。また、本開示は、以下の実施形態に何ら限定されるものではなく、本開示の目的の範囲内において適宜変更を加えて実施することができる。
 図1は、本実施形態に係るロボットハンド20を有するロボットアーム10の全体像を示す図である。
 ロボットアーム10は、図1に示すように、基礎(図示省略)に取り付けられたベース14と、アーム部材16と、アーム部材16同士又はアーム部材16とベース14とを繋ぐ関節18とを有する。また、接続されたアーム部材16の先端には、関節18を介してロボットハンド20が設けられている。
 このロボットアーム10は、ロボットハンド20が、ロボットハンド支持部21を備えており、ロボットハンド支持部21は、複数の取付部20S及び複数の指部材40を備え、取付部20Sと指部材40の取り付け部分はカバー60で覆われている。複数の指部材40は、把持対象物を把持する方向へ移動可能とされている。指部材40は、詳細には、湾曲することにより、把持対象物の方向へ移動する。これにより、ロボットアーム10は、図示しない把持対象物を、指部材40が湾曲することによって把持することが可能とされている。把持対象物を把持した状態で、ロボットアーム10は、各関節18を回動させることにより、把持対象物を搬送先へ移動させ、指部材40の湾曲した状態を解除することによって、把持対象物の搬送を行う。
 なお、複数の取付部20S及び複数の指部材40が設けられる個数及び位置は、把持対象物及びロボットアーム10の形状等によって適宜設定される。図1に示すように本実施形態では、一例として4つの指部材40が、それぞれ指部材取付構造12によってロボットハンド20に取り付けられている。
 本実施形態における指部材40は、湾曲する動作を行う流体圧アクチュエータ56である。流体圧アクチュエータ56は、いわゆるマッキベン型アクチュエータであり、流入口56Iから作動流体が導入されることにより図2の二点鎖線で示すように先端(図2における図面下側)が湾曲する部材である。作動流体としては、把持対象物及び、流体圧アクチュエータ56に応じて適宜決定されるが、一例として圧縮空気が用いられる。
 流体圧アクチュエータ56は、例えば、特開2021-88999号公報に記載の技術を適用し、アクチュエータ本体部50、封止機構46及び封止機構48を備える。
 アクチュエータ本体部50は、チューブ42とスリーブ44とによって構成され、流入口56Iを介して流体が流入する。
 また、チューブ42とスリーブ44との間には、拘束部材52が設けられる。拘束部材52は、軸方向DAXには圧縮せず、径方向DR(撓み方向)に沿ってのみ変形可能である。つまり、拘束部材52は、軸方向DAXに沿った圧縮に対して抵抗し、軸方向DAXに直交する直交方向(径方向DR)に変形可能である。換言すると、拘束部材52は、軸方向DAXに沿って変形し難く、径方向DRに沿って撓める特性を有している。なお、変形可能とは、湾曲、或いはカール可能と言い換えてもよい。
 アクチュエータ本体部50は、基本的な特性として、チューブ42内への流体の流入によって、アクチュエータ本体部50の軸方向DAXにおいて収縮し、径方向DRにおいて膨張する。また、アクチュエータ本体部50は、チューブ42から流体の流出によって、アクチュエータ本体部50の軸方向DAXにおいて膨張し、径方向DRにおいて収縮する。このようなアクチュエータ本体部50の形状変化によって、流体圧アクチュエータ56は、アクチュエータとしての機能を発揮する。
 封止機構46及び封止機構48は、軸方向DAXにおけるアクチュエータ本体部50の両端部を封止する。封止機構46と封止機構48との相違点は、流入口56Iが設けられているか否かと、形状であり、封止機構48は指形状とされている。
 流入口56Iは、流体圧アクチュエータ56の駆動圧力源、具体的には、気体や液体のコンプレッサと接続されたホースを取り付けられる。流入口56Iを介して流入した流体は、図示しない通過孔を通過してアクチュエータ本体部50の内部、具体的には、チューブ42の内部に流入する。
 すなわち、アクチュエータ本体部への流体の流入(加圧)によって、アクチュエータ本体部50が軸方向DAXに沿って収縮しようとすると、拘束部材52の部分は圧縮剛性が高いため、拘束部材52が配置された部分は収縮することができない。一方、その他のアクチュエータ本体部50の部分は収縮しようとするため、直交方向(径方向DR)に沿った曲げ方向の力が発生し、拘束部材52を背面として湾曲する。
 ところで、上述のように構成されたロボットハンド20では、把持対象物が正しく把持できているかを確認してから、次の動作に進むことが要求される場合がある。
 そこで、図3に示すように、ロボットハンド20の手のひら部分に、測距センサ等の検出部62を配置して把持対象物までの距離を検出することにより、把持対象物を把持したか否かを検出することが考えられる。検出部62は、例えば、光を照射して反射光を検出することで距離を検出し、検出した距離が閾値以下の場合に信号がオンとなり把持状態と判定する。
 検出部62として光学式のセンサを適用した場合、ロボットハンド20を把持する動作をするときに、正しく把持された状態と、把持できない状態をセンサで切り分けることができない場合がある。特に、湾曲型のソフトハンドの指の場合は、把持対象物に指が沿うため、同じ位置にならない場合があり、把持状態を正しく判定できない場合がある。例えば、把持対象物を把持したか否かを判定する閾値によっては、図4左側に示すように、指部材40の先端を検出して信号がオンとなり把持状態と誤判定してしまったり、図4右側に示すように、把持対象物を把持しているのに、閾値以上の距離で把持している場合は信号がオフとなり把持していないと誤判定してしまったりしてしまう。
 そこで、本実施形態では、図5に示すように、指部材40が移動する軌道から外れた位置を検出する位置に検出部62を配置する。これにより、検出部62が指部材40を検出することがなくなるため、図5左側に示すように、信号がオフとなり指部材40を誤検出することなく、図5右側に示すように、把持対象物の把持を正しく判定することが可能となる。なお、図5では、単一の検出部62を配置した例を示すが、検出部62が1つに限るものではなく、複数でもよく、複数の場合も各指部材40が移動する軌道から外れた位置に各検出部62を配置すればよい。
 続いて、本実施形態に係るロボットアーム10の制御系の構成について説明する。図6は、本実施形態に係るロボットアーム10の制御系の構成を示すブロック図である。
 本実施形態に係るロボットアーム10では、図6に示すように、制御部70に、検出部62、コンプレッサ72、及び駆動部74が接続されている。
 検出部62は、距離を検出する光学式のセンサが適用され、上述したように、指部材40が移動する軌道から外れた位置を検出する位置に配置されている。例えば、検出部62としては、TOF(Time-of-Flight)式の非接触距離計、三角測距式の非接触距離計を適用する。
 コンプレッサ72は、流体圧アクチュエータ56の流入口56Iを介してアクチュエータ本体部50のチューブ42内部に圧縮空気を流入し、ロボットハンド20による把持動作を行う。
 駆動部74は、ロボットアーム10を駆動する駆動源であり、各関節18を回動させることにより、把持対象物を搬送先等へ移動する。駆動部74は、モータアクチュエータ、油圧アクチュエータ、又は空気圧アクチュエータ等が適用される。
 制御部70は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、及びI/O(入出力インターフェース)等がバスに接続されたコンピュータで構成されている。制御部70は、コンプレッサ72を駆動することにより、ロボットハンド20の流体圧アクチュエータ56を駆動し、把持動作を制御する。また、制御部70は、検出部62の検出結果を取得し、検出結果に基づいて把持対象物を把持したか否かを判定する。そして、把持対象物の把持状態が検出された場合に、駆動部74を駆動して、把持対象物を搬送先等へ移動する制御を行う。
 次に、上述のように構成された本実施形態に係るロボットアーム10の制御部70で行われる具体的な処理について説明する。図7は、本実施形態に係るロボットアーム10の制御部70で行われる処理の流れの一例を示すフローチャートである。なお、図7の処理は、例えば、把持対象物の把持指示が行われ、コンプレッサ72が駆動されて圧縮空気が予め定めた圧力になった場合に開始する。
 ステップ100では、制御部70が、検出部62による距離検出を行ってステップ102へ移行する。すなわち、検出部62から光を照射して反射光を検出する。本実施形態では、検出部62が、指部材40が移動する軌道から外れた位置に配置されているため、把持対象物からの反射光を確実に検出できる。
 ステップ102では、制御部70が、検出部62の検出結果を取得してステップ104へ移行する。
 ステップ104では、制御部70が、検出距離が予め定めた閾値以下であるか否かを判定する。該判定が否定された場合にはステップ106へ移行し、肯定された場合にはステップ110へ移行する。
 ステップ106では、制御部70が、把持対象物の把持が失敗したと判定してステップ108へ移行する。
 ステップ108では、制御部70が、再把持動作を行って上述のステップ100に戻って上述の処理を繰り返す。再把持動作は、例えば、コンプレッサ72の圧力を開放して指部材の湾曲を解消して、ロボットアーム10を把持対象物の方向等へ移動して、コンプレッサ72を再駆動して、指部材を湾曲させて把持対象物を把持する動作を再度行う。
 一方、ステップ110では、制御部70が、把持対象物の把持が成功したと判定してステップ112へ移行する。
 ステップ112では、制御部70が、次の動作へ移行して一連の処理を終了する。例えば、駆動部74を駆動して、各関節18を回動させることにより、把持対象物を搬送先へ移動する。
 本実施形態に係るロボットハンド20では、把持対象物の把持状態の検出を行うための検出部62が、指部材40が移動する軌道から外れた位置を検出する位置に配置されているので、指部材40を把持対象物として誤検出することがなくなる。また、これにより、図5に示すように、ロボットハンド20の各指部材40が湾曲した状態、すなわち、把持対象物を把持せずにロボットハンド20の各指部材40が閉じて把持状態の場合の指部材の先端の位置よりも遠い位置に閾値を設定することができるので、把持対象物を把持したか否かを正しく判定することが可能となる。
 さらには、把持対象物の形状や、大きさに関わらず、把持対象物を把持したか否かを正しく判定することが可能となる。
 なお、上記の実施形態では、単一または複数の検出部62を用いる例を説明したが、複数の領域を検出するマルチゾーン対応のTOF測距センサを検出部62として適用してもよい。
 例えば、図8に示すように、ロボットハンド20の手のひら部分の中央位置に検出部62を配置し、複数の領域を検出する。例えば、8×8のマルチゾーン対応の測距センサを用いて8×8の領域を検出する。そして、指部材40が移動する軌道を外れた位置の領域(ゾーン)を検出対象として、把持状態を判定する。図8は、マルチゾーン対応のTOF測距センサを検出部62として適用した変形例のロボットハンド20の一例を示す図である。なお、図8では、3つの指部材40を備えたロボットハンド20の例を示す。また、図9は、マルチゾーン対応のTOF測距センサを適用した検出部62の検出結果の一例を示す図である。
 例えば、図9に示すように、ロボットハンド20が開及び閉の場合のそれぞれにおいて、検出しない3箇所の領域(図9の太枠線)を検出対象として設定する。
 これにより、図9に示すように、リンゴを把持した場合に、検出対象とした3箇所の領域により、リンゴを把持していることを検出することが可能となる。また、スプレーボトルについても、検出対象とした3箇所の領域のうち1つの領域で把持状態を検出できる。
 このように、複数の領域を検出する検出部62を適用することにより、様々な把持対象物の把持確認を1つの検出部62で対応することが可能となる。
 なお、上記の実施形態では、指部材40を流体圧アクチュエータ56で構成した例を説明したが、指部材40はこれに限るものではない。例えば、モータ等によって駆動される機械的な指部材40を適用してもよいし、他の構成の指部材40を適用してもよい。
 また、上記の実施形態では、単一の検出部62を用いる例を説明したが、複数の検出部62を用いる場合には、それぞれ指部材40が移動する軌跡から外れた位置を検出する位置に複数の検出部62を設けて、把持対象物に応じて使用する検出部62を切り替える形態としてもよい。また、マルチゾーン対応のTOF測距センサを用いる場合においても、検出対象とする領域を把持対象物に応じて切り替える形態としてもよい。
 また、上記の実施形態でCPUがソフトウエア(プログラム)を読み込んで実行した処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 また、上記の実施形態では、プログラムがROMに予め記憶されていてもよいが、制御部70がストレージを有する場合には、プログラムがCD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的(non-transitory)記憶媒体に記憶された形態で制御部70に提供され、ストレージにインストールされてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 また、本開示の技術的範囲は上記実施形態に記載の範囲には限定されない。要旨を逸脱しない範囲で上記実施形態に多様な変更または改良を加えることができ、当該変更または改良を加えた形態も本開示の技術的範囲に含まれる。
 本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。また、2022年12月13日に出願された日本国出願番号第2022-198813の開示は、その全体が本明細書中に参照により取り込まれる。
 

Claims (5)

  1.  把持対象物を把持する方向へ移動可能な複数の指部材と、
     前記指部材が移動する軌跡から外れた位置を検出対象として、距離を検出する検出部と、
     を備えたロボットハンド。
  2.  前記指部材は、湾曲する動作を行う流体圧アクチュエータである請求項1に記載のロボットハンド。
  3.  前記検出部を複数備え、複数の前記検出部は、前記指部材が移動する軌跡から外れた位置で、かつそれぞれ異なる位置を検出対象として、各前記距離を検出する請求項1又は請求項2に記載のロボットハンド。
  4.  前記検出部は、複数の領域を検出し、前記複数の領域のうち、前記指部材が移動する軌跡から外れた領域を検出対象とする請求項1又は請求項2に記載のロボットハンド。
  5.  請求項1~請求項4の何れか1項に記載のロボットハンドと、
     前記検出部の検出結果に基づいて、前記把持対象物を把持したか否かを判定し、把持したと判定した場合に、前記把持対象物を移動する制御を行う制御部と、
     備えたロボットアーム。
PCT/JP2023/021795 2022-12-13 2023-06-12 ロボットハンド及びロボットアーム WO2024127688A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022198813A JP2024084504A (ja) 2022-12-13 2022-12-13 ロボットハンド
JP2022-198813 2022-12-13

Publications (1)

Publication Number Publication Date
WO2024127688A1 true WO2024127688A1 (ja) 2024-06-20

Family

ID=91484713

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/021795 WO2024127688A1 (ja) 2022-12-13 2023-06-12 ロボットハンド及びロボットアーム

Country Status (2)

Country Link
JP (1) JP2024084504A (ja)
WO (1) WO2024127688A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143124A (ja) * 1991-11-20 1993-06-11 Matsushita Electric Ind Co Ltd ロボツトの軌跡補正装置
WO2008150164A1 (en) * 2007-06-04 2008-12-11 Fps Food Processing Systems B.V. Gripper
JP2014046369A (ja) * 2012-08-29 2014-03-17 Amada Co Ltd 検出システム及び素材取り装置並びに検出方法
JP2021088999A (ja) * 2019-12-02 2021-06-10 株式会社ブリヂストン 流体圧アクチュエータ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05143124A (ja) * 1991-11-20 1993-06-11 Matsushita Electric Ind Co Ltd ロボツトの軌跡補正装置
WO2008150164A1 (en) * 2007-06-04 2008-12-11 Fps Food Processing Systems B.V. Gripper
JP2014046369A (ja) * 2012-08-29 2014-03-17 Amada Co Ltd 検出システム及び素材取り装置並びに検出方法
JP2021088999A (ja) * 2019-12-02 2021-06-10 株式会社ブリヂストン 流体圧アクチュエータ

Also Published As

Publication number Publication date
JP2024084504A (ja) 2024-06-25

Similar Documents

Publication Publication Date Title
US9242380B2 (en) Robot, robot control apparatus, robot control method, and robot control program
US10933536B2 (en) Sprung worm gripper for a robotic device
JP6661001B2 (ja) ワークオフセットを決定するシステムおよび方法
JP7206638B2 (ja) ロボット、制御装置およびロボットの制御方法
Ng et al. Performance comparison of bug navigation algorithms
US10213916B2 (en) Control apparatus and robot system
KR20220025887A (ko) 로봇 운동 계획 방법, 경로 계획 방법, 그립핑 방법 및 그 장치
US20170239815A1 (en) Method and Device for Open-Loop/Closed-Loop Control of a Robot Manipulator
US20140031982A1 (en) Robotic system and robot control device
WO2019040430A1 (en) EXPANDABLE ROBOTIC ARM
US9827670B1 (en) Coaxial finger face and base encoding
JP6663978B2 (ja) ツールオフセットを決定するシステムおよび方法
KR102016289B1 (ko) 로봇 구성요소용 가동 하드스톱
US20220105627A1 (en) Singularity-free kinematic parameterization of soft robot manipulators
WO2020066063A1 (ja) エンドエフェクタ装置
WO2024127688A1 (ja) ロボットハンド及びロボットアーム
JP2022519495A (ja) 把持デバイスモダリティ
JP2017177321A (ja) 制御装置及びロボットシステム
JP2016043455A (ja) ロボットおよびロボットシステム
JP5869545B2 (ja) 速度制御ロボット機構におけるワークスペース制限の応用
JP2011245614A5 (ja)
Gosim et al. Pick and place ABB working with a liner follower robot
JP6136337B2 (ja) 姿勢検知制御装置、研磨装置、および、姿勢検知制御方法
KR20160095928A (ko) 불충분 구동형 로봇 핑거 장치 및 그 제어 방법
US11820000B2 (en) End effector and end effector device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23902995

Country of ref document: EP

Kind code of ref document: A1