WO2022054506A1 - ロボットシステム及びピッキング方法 - Google Patents

ロボットシステム及びピッキング方法 Download PDF

Info

Publication number
WO2022054506A1
WO2022054506A1 PCT/JP2021/030018 JP2021030018W WO2022054506A1 WO 2022054506 A1 WO2022054506 A1 WO 2022054506A1 JP 2021030018 W JP2021030018 W JP 2021030018W WO 2022054506 A1 WO2022054506 A1 WO 2022054506A1
Authority
WO
WIPO (PCT)
Prior art keywords
work
unit
gripped
fingers
robot system
Prior art date
Application number
PCT/JP2021/030018
Other languages
English (en)
French (fr)
Inventor
善久 井尻
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Publication of WO2022054506A1 publication Critical patent/WO2022054506A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Definitions

  • This disclosure relates to a robot system and a picking method.
  • Patent Documents 1 to 3 disclose a technique for recognizing a work that can be picked based on a photographed image of the work piled up in bulk and picking the work.
  • Patent Document 1 Japanese Patent Application Laid-Open No. 5767464
  • Patent Document 2 Japanese Patent Application Laid-Open No. 2017-42859
  • Patent Document 3 Japanese Patent Application Laid-Open No. 5196156
  • the present disclosure has been made in view of the above points, and provides a robot system and a picking method capable of picking a work with high accuracy without detecting the position and posture of the work in advance each time.
  • the purpose is.
  • the first aspect of the disclosure is a robot system, which is based on a robot mechanism provided with a grip portion for gripping a work, a detection unit for detecting a gripping state of the work by the grip portion, and a detection result of the detection unit.
  • the recognition unit After the recognition unit that recognizes the number of workpieces gripped by the grip portion and the robot mechanism are made to grip the work from a mounting location where a plurality of the workpieces are mounted, the recognition unit performs the operation.
  • a control unit for controlling the movement of the robot mechanism so that the number of the gripped workpieces becomes the designated number is provided.
  • the designated number may be 1.
  • the grip portion is a drive unit that drives the work with a plurality of fingers and at least one finger so that the position of at least one finger changes when the work is gripped by the plurality of fingers. And may be configured to include.
  • the detection unit is a pressure distribution sensor provided on the grip surface of at least one finger and detects the pressure distribution of the grip surface with which the work contacts, and the recognition unit is the pressure.
  • the number of works may be recognized based on the pressure distribution detected by the distribution sensor.
  • the pressure distribution sensor may be provided on each of the gripping surfaces of at least two fingers among the plurality of fingers.
  • the recognition unit may be configured to include a trained model learned by using the pressure distribution as an input and the number of works gripped by the grip unit as an output.
  • the trained model may be configured to include a neural network.
  • the detection unit is a photographing unit that captures a state in which the work is gripped by a plurality of fingers, and the recognition unit captures the captured image taken by the imaging unit. It may be configured to recognize the number of.
  • control unit may be configured to move at least one of the imaging unit and the gripping unit so that the work gripped by the plurality of fingers can be imaged at a position where the image can be photographed. ..
  • the detection unit is a force sensor that detects a force applied to the plurality of fingers in a state where the work is gripped by the plurality of fingers, and the recognition unit detects the force by the force sensor.
  • the number of the workpieces may be recognized based on the total weight of the gripped workpieces calculated as an increase due to the gripping of the vertical component of the applied force.
  • the recognition unit may be configured to recognize the number of the works based on the total weight of the works and the weight per piece of the works.
  • control unit controls the movement of the robot mechanism so as to re-grip the work from the previously described place. It may be configured to be used.
  • control unit controls the movement of the robot mechanism so as to re-grip the work from the previously described place. It may be configured to be used.
  • the control unit when the number of the works recognized by the recognition unit is larger than the designated number, applies an external force to at least a part of the work gripped by the grip portion and drops the work.
  • the robot mechanism may be controlled so as to be controlled.
  • the second aspect of the disclosure is a picking method, in which the gripping state of the work by the gripping portion that grips the work is detected, and the number of works gripped by the gripping portion is recognized based on the detection result of the gripping state. Then, after the robot mechanism provided with the grip portion is made to grip the work from a mounting place where a plurality of the works are placed, the number of the recognized works is the specified number specified in advance. If they are different, the movement of the robot mechanism is controlled so that the number of gripped works becomes the designated number.
  • FIG. 1 is a configuration diagram of a robot system 10 according to this embodiment.
  • the robot system 10 includes a robot mechanism 20, a control device 30, and a photographing unit 40.
  • the robot system 10 functions as a picking device for picking the work W.
  • the robot mechanism 20 includes a robot arm AR as a mechanism portion that is a target of motion control when performing a picking operation, and a robot hand H attached to the tip of the robot arm AR.
  • the robot hand H grips the work W from the box 50 as an example of a placement place where a plurality of work W are placed.
  • the robot arm AR is an example of a grip portion.
  • the work W will be described as an example of a case where the work W is a relatively small part that can grip a plurality of work W with a robot hand H such as a screw, but the work W is not limited to this. do not have,
  • the robot hand H includes a plurality of fingers, two fingers F1 and F2 as an example in the present embodiment, but the number of fingers is not limited to two. Further, the fingers F1 and F2 are configured by a plate-shaped member as an example in the present embodiment, but the shapes of the fingers F1 and F2 are not limited to this.
  • the drive unit 22-1 is driven so that the position of the finger F1 changes, and the work W is gripped by the fingers F1 and F2.
  • a drive unit 22-2 that drives the finger F2 so that the position of the finger F2 changes.
  • the drive unit is provided on both the fingers F1 and F2 will be described, but the drive unit may be provided on any of the fingers F1 and F2.
  • the gripping surface of the finger F1 is provided with a pressure distribution sensor 24-1 for detecting the pressure distribution of the gripping surface with which the work W contacts.
  • the gripping surface of the finger F2 is provided with a pressure distribution sensor 24-2 for detecting the pressure distribution on the gripping surface with which the work W contacts.
  • the pressure distribution sensors 24-1 and 24-2 are examples of detection units that detect the gripping state of the work W by the fingers F1 and F2.
  • the pressure distribution sensor is provided on each of the gripping surfaces of the fingers F1 and F2
  • the pressure distribution sensor is provided on the gripping surface of any of the fingers F1 and F2. It may be configured as a new type.
  • the robot mechanism 20 for example, a vertical articulated robot having 6 degrees of freedom, a horizontal articulated robot, or the like is used, but the degree of freedom and type of the robot are not limited to these.
  • the control device 30 controls the robot mechanism 20. As shown in FIG. 2, the control device 30 functionally includes a recognition unit 32 and a control unit 34.
  • the recognition unit 32 recognizes the number of works W gripped by the fingers F1 and F2 based on the detection results of the pressure distribution sensors 24-1 and 24-2, that is, the pressure distribution. As an example in this embodiment, the recognition unit 32 receives each of the pressure distributions detected by the pressure distribution sensors 24-1 and 24-2 as an input, and uses the number of work Ws as an output to learn a trained model, for example, a neural network. Using a trained model using a network, the number of work W gripped by the fingers F1 and F2 is recognized.
  • the control unit 34 determines that the number of works recognized by the recognition unit 32 is different from the predetermined number specified in advance.
  • the movement of the robot mechanism 20 is controlled so that the number becomes a designated number. In this embodiment, the case where the designated number is 1 will be described. That is, when the number of works recognized by the recognition unit 32 is plurality, the movement of the robot mechanism 20 is controlled so that the work W falls until the number of works recognized by the recognition unit 32 becomes one. ..
  • control unit 34 changes the gripping state in which the work W is gripped by, for example, the fingers F1 and F2, so that the drive units 22-1 and 22-2 move so that at least one of the fingers F1 and F2 moves. Control at least one of them. That is, at least one of the fingers F1 and F2 is shifted so that the relative positions of the fingers F1 and F2 change. As a result, the gripping state of the work W gripped by the fingers F1 and F2 changes, and the work W can be dropped.
  • the photographing unit 40 is installed at a position where the work W in the box 50 can be photographed from above the box 50, and outputs a photographed image of the work W in the box 50 to the control device 30 according to the instruction of the control device 30.
  • the control device 30 includes a CPU (Central Processing Unit) 30A, a ROM (Read Only Memory) 30B, a RAM (Random Access Memory) 30C, a storage 30D, an input unit 30E, a monitor 30F, and an optical disk drive device 30G. And has a communication interface 30H. Each configuration is communicably connected to each other via bus 30I.
  • CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the picking program is stored in the storage 30D.
  • the CPU 30A is a central arithmetic processing unit that executes various programs and controls each configuration. That is, the CPU 30A reads the program from the storage 30D and executes the program using the RAM 30C as a work area. The CPU 30A controls each of the above configurations and performs various arithmetic processes according to the program recorded in the storage 30D.
  • the ROM 30B stores various programs and various data.
  • the RAM 30C temporarily stores a program or data as a work area.
  • the storage 30D is composed of an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores various programs including an operating system and various data.
  • the input unit 30E includes a pointing device such as a keyboard 30E1 and a mouse 30E2, and is used for performing various inputs.
  • the monitor 30F is, for example, a liquid crystal display, and displays various information such as a gripping state of the work W.
  • the monitor 30F may adopt a touch panel system and function as an input unit 30E.
  • the optical disc drive device 30G reads data stored in various recording media (CD-ROM, Blu-ray disc, etc.), writes data to the recording medium, and the like.
  • the communication interface 30H is an interface for communicating with other devices, and for example, a standard such as Ethernet (registered trademark), FDDI or Wi-Fi (registered trademark) is used.
  • Each functional configuration of the control device 30 shown in FIG. 2 is realized by the CPU 30A reading the picking program stored in the storage 30D, expanding the picking program in the RAM 30C, and executing the program.
  • FIG. 4 is a flowchart showing the flow of picking processing by the robot system 10.
  • the CPU 30A reads the picking program from the storage 30D, expands the picking program into the RAM 30C, and executes the picking process.
  • step S100 the CPU 30A controls the robot mechanism 20 as the control unit 34 so as to grip the work W in the box 50 by the robot hand H.
  • the photographing unit 40 is instructed to take a picture, a photographed image of the work W in the box 50 is acquired, and the acquired photographed image is image-analyzed to specify the location of the work W.
  • the robot arm AR is controlled so that the robot hand H moves to the place where the work W exists, and then the drive units 22-1 and 22-2 are controlled so that the work W is gripped by the fingers F1 and F2. .
  • the operation of closing the fingers F1 and F2 may be performed at any position in the box 50 without taking a picture by the imaging unit 40, and as a result, the work W may be gripped with a certain probability.
  • the work W can be gripped with a high probability without even specifying the location where the work W exists in advance.
  • step S102 the CPU 30A acquires the pressure distribution of the gripping surface of the fingers F1 and F2 from the pressure distribution sensors 24-1 and 24-2 as the recognition unit 32, respectively. Then, the number of works W gripped by the fingers F1 and F2 is recognized from the acquired pressure distribution on the gripping surface of the fingers F1 and F2.
  • step S104 the CPU 30A determines whether or not the number of work W recognized in step S102 is 0 as the control unit 34. Then, when the number of recognized work W is not 0, that is, when at least one or more work W is gripped, the process proceeds to step S106. On the other hand, when the number of recognized works is 0, the process returns to step S100 and the work W is re-grasped.
  • step S106 the CPU 30A, as the control unit 34, determines whether or not the number of work W recognized in step S102 is the specified number, that is, whether or not the number of recognized work W is one. Then, when the number of recognized work W is 1, the process proceeds to step S108. On the other hand, if the number of recognized works W is not 1, that is, if there are a plurality of recognized works W, the process proceeds to step S110.
  • step S108 the CPU 30A, as the control unit 34, controls the robot mechanism 20 so that the work W gripped by the robot hand H is moved to a predetermined place and placed.
  • step S110 the CPU 30A controls at least one of the drive units 22-1 and 22-2 as the control unit 34 so as to shift at least one of the fingers F1 and F2.
  • the finger to be shifted, the direction, and the amount of movement may be predetermined, or the finger to be shifted, the direction, and the amount of movement are determined based on the pressure distribution on the gripping surface of the fingers F1 and F2 acquired in step S102. You may. As a result, the gripping state of the work W gripped by the fingers F1 and F2 changes, and the work W is likely to fall.
  • step S112 the CPU 30A determines whether or not all the work W in the box 50 has been picked by the control unit 34. That is, it is determined whether or not the inside of the box 50 is empty. Specifically, for example, the captured image captured by the photographing unit 40 is image-analyzed to determine whether or not the work W remains in the box 50. Then, if there is no work W remaining in the box 50, this routine is terminated. On the other hand, if the work W remains in the box 50, the process returns to step S100, and the same process as above is repeated until all the work W is picked.
  • the work W is first gripped and then the number of gripped works W is determined. Exercise to shift at least one of the fingers F1 and F2 until the specified number is reached. As a result, the work W can be picked with high accuracy without detecting the position and posture of the work W in advance each time.
  • the number of gripped workpieces W may be recognized based on the contact area of the workpieces on the gripping surfaces of the fingers F1 and F2. For example, the contact area of the work W on each gripping surface of the fingers F1 and F2 is calculated based on each of the pressure distributions detected by the pressure distribution sensors 24-1 and 24-2. Then, for example, the number of gripped works W may be recognized by using table data or a mathematical formula showing the correspondence between each contact area and the number of gripped works. For example, when the work W is a sphere, the contact area formed by pressing the elastic gripping surface with one work W is relatively stable, so that the number of works W is recognized in this way. It is possible to do.
  • the control unit 34 shoots the work W held by the fingers F1 and F2 at a position where the photographing unit 40 can photograph the work W, that is, at a position where the work W is not hidden by the fingers F1 and F2. H may be moved.
  • the imaging unit 40 may be further provided with a moving mechanism, and the photographing unit 40 may be moved to the position of the robot hand H. Further, both the robot hand H and the photographing unit 40 may be moved.
  • a 6-axis force sensor is provided as an example of a detection unit that detects a force applied to fingers F1 and F2 in a state where the workpieces W are gripped by fingers F1 and F2.
  • the recognition unit 32 recognizes the number of works W based on the amount of the vertical component of the force detected by the force sensor increased after gripping, that is, the total weight of the work W. You may do it.
  • the number of works W may be recognized based on the total weight of the works W and the weight of each work W. That is, the number of works W may be calculated by dividing the total weight of the works W calculated from the force detected by the force sensor by the weight of each work W.
  • the control unit 34 controls the movement of the robot mechanism 20 so as to re-grasp the work W from the box 50 when the number of work W recognized by the recognition unit 32 is different from the specified number, for example, less than the specified number. You may do it. That is, by opening the fingers F1 and F2 on the box 50, the robot mechanism 20 is controlled so as to return the gripped work W to the box 50 and then grip the work W in the box 50 again. You may.
  • the control unit 34 sets the robot mechanism 20 so as to apply an external force to at least a part of the work held by the fingers F1 and F2 to drop the work W. It may be controlled.
  • the robot mechanism 20 may be controlled so that the work W collides with a rod-shaped fixing jig so that the work W is dropped.
  • an external force mechanism for applying an external force to the work W by a rod-shaped member may be further provided, and the external force mechanism may be controlled to cause the rod-shaped member to collide with the work W to cause the work W to drop.
  • various processors other than the CPU may execute the picking process executed by the CPU reading the software (program) in the present embodiment.
  • the processor includes a PLD (Programmable Logic Device) whose circuit configuration can be changed after manufacturing an FPGA (Field-Programmable Gate Array), and an ASIC (Application Specific Integrated Circuit) for specifying an ASIC.
  • An example is a dedicated electric circuit or the like, which is a processor having a circuit configuration designed exclusively for the purpose.
  • the picking process may be executed by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a plurality of FPGAs, and a combination of a CPU and an FPGA, etc.). ) May be executed.
  • the hardware-like structure of these various processors is, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the mode in which the picking program is stored (installed) in the storage 30D or ROM 30B in advance has been described, but the present invention is not limited to this.
  • the program is provided in a form recorded on a recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versaille Disc Read Only Memory), and a USB (Universal Serial Bus) memory. Further, the program may be downloaded from an external device via a network.
  • Robot system 20 Robot mechanism 22-1, 22-2 Drive unit 24-1, 24-2 Pressure distribution sensor 30 Control device 32 Recognition unit 34 Control unit 40 Imaging unit 50 Box AR Robot arm F1, F2 Finger H Robot hand

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

ロボットシステムは、ワークを把持する把持部を備えたロボット機構と、把持部によるワークの把持状態を検出する検出部と、検出部の検出結果に基づいて把持部に把持されたワークの個数を認識する認識部と、ロボット機構にワークが複数載置されている箱からワークを把持する動作をさせた後に、認識部により認識されたワークの個数が予め指定された指定数と異なる場合、把持されたワークの数が指定数となるようにロボット機構の運動を制御する制御部と、を備える。

Description

ロボットシステム及びピッキング方法
 本開示は、ロボットシステム及びピッキング方法に関する。
 特許文献1~3には、ばら積みされたワークの撮影画像に基づいてピッキング可能なワークを認識してワークをピッキングする技術が開示されている。
   特許文献1:特許第5767464号公報
   特許文献2:特開2017-42859号公報
   特許文献3:特許第5196156号公報
 しかしながら、上記従来技術では、特にねじ等のような小さいワーク、金属のワーク、光沢があるワークの場合、画像センサや深度センサによるワークの位置や姿勢を確実に検出するのが困難である結果、1つのワークのピッキングを確実に行うのが困難である。また、周辺の干渉物とのクリアランスの推定や、把持可能性の計算を失敗することによってもピッキングの失敗を招く。さらに、1つのワークをピッキングすることによりその周囲のワークの配置が変わってしまうことが多いので、毎回のピッキング動作の前にワークの位置や姿勢を検出するための時間も要する。
 本開示は、上記の点に鑑みてなされたものであり、ワークの位置や姿勢を毎回事前に検出しなくても、高い確度で、ワークをピッキングすることができるロボットシステム及びピッキング方法を提供することを目的とする。
 開示の第1態様は、ロボットシステムであって、ワークを把持する把持部を備えたロボット機構と、前記把持部による前記ワークの把持状態を検出する検出部と、前記検出部の検出結果に基づいて前記把持部に把持されたワークの個数を認識する認識部と、前記ロボット機構に前記ワークが複数載置されている載置場所から前記ワークを把持する動作をさせた後に、前記認識部により認識された前記ワークの個数が予め指定された指定数と異なる場合、把持された前記ワークの数が前記指定数となるように前記ロボット機構の運動を制御する制御部と、を備える。
 上記第1態様において、前記指定数は1であるものとしてもよい。
 上記第1態様において、前記把持部は、複数の指と、前記複数の指で前記ワークを把持した状態において、少なくとも1つの指の位置が変化するように前記少なくとも1つの指を駆動する駆動部と、を含む構成としてもよい。
 上記第1態様において、前記検出部は、少なくとも1つの前記指の把持面に設けられ、前記ワークが接触する前記把持面の圧力分布を検出する圧力分布センサであり、前記認識部は、前記圧力分布センサにより検出された圧力分布に基づいて、前記ワークの個数を認識する構成としてもよい。
 上記第1態様において、前記圧力分布センサが、複数の前記指の内の少なくとも2つの指の把持面の各々に設けられている構成としてもよい。
 上記第1態様において、前記認識部は、前記圧力分布を入力とし、前記把持部で把持した前記ワークの個数を出力として学習された学習済みモデルを備えた構成としてもよい。
 上記第1態様において、前記学習済みモデルは、ニューラルネットワークを含む構成としてもよい。
 上記第1態様において、前記検出部は、複数の前記指で前記ワークを把持した状態を撮影する撮影部であり、前記認識部は、前記撮影部により撮影された撮影画像に基づいて、前記ワークの個数を認識する構成としてもよい。
 上記第1態様において、前記制御部は、複数の前記指で把持された前記ワークを撮影可能な位置で撮影されるように、前記撮影部及び前記把持部の少なくとも一方を移動させる構成としてもよい。
 上記第1態様において、前記検出部は、前記複数の指で前記ワークを把持した状態の前記複数の指にかかる力を検出する力覚センサであり、前記認識部は、前記力覚センサにより検出された力の鉛直方向成分の把持による増加分として算出した、把持した前記ワークの総重量に基づいて、前記ワークの個数を認識する構成としてもよい。
 上記第1態様において、前記認識部は、前記ワークの総重量と、前記ワークの1個当たりの重量と、に基づいて、前記ワークの個数を認識する構成としてもよい。
 上記第1態様において、前記制御部は、前記認識部により認識された前記ワークの数が前記指定数と異なる場合、前記載置場所から前記ワークを把持し直すように前記ロボット機構の運動を制御する構成としてもよい。
 上記第1態様において、前記制御部は、前記認識部により認識された前記ワークの数が前記指定数より少ない場合、前記載置場所から前記ワークを把持し直すように前記ロボット機構の運動を制御する構成としてもよい。
 上記第1態様において、前記制御部は、前記認識部により認識された前記ワークの数が前記指定数より多い場合、前記把持部で把持している前記ワークの少なくとも一部に外力を加えて落下させるように前記ロボット機構を制御する構成としてもよい。
 開示の第2態様は、ピッキング方法であって、ワークを把持する把持部による前記ワークの把持状態を検出し、前記把持状態の検出結果に基づいて前記把持部に把持されたワークの数を認識し、前記把持部を備えたロボット機構に前記ワークが複数載置されている載置場所から前記ワークを把持する動作をさせた後に、認識された前記ワークの数が予め指定された指定数と異なる場合、把持された前記ワークの数が前記指定数となるように前記ロボット機構の運動を制御する。
 本開示によれば、ワークの位置や姿勢を毎回事前に検出しなくても、高い確度で、ワークをピッキングすることができる。
ロボットシステムの構成図である。 制御装置の機能ブロック図である。 制御装置のハードウェア構成を示すブロック図である。 ピッキング処理の流れを示すフローチャートである。
 以下、本開示の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されている場合があり、実際の比率とは異なる場合がある。
 図1は、本実施形態に係るロボットシステム10の構成図である。図1に示すように、ロボットシステム10は、ロボット機構20、制御装置30、及び撮影部40を備える。ロボットシステム10は、本実施形態では、ワークWをピッキングするピッキング装置として機能する。
 ロボット機構20は、ピッキング動作を行う際の運動制御の対象である機構部分としてのロボットアームARと、ロボットアームARの先端に取り付けられたロボットハンドHと、を含む。ロボットハンドHは、ワークWが複数載置されている載置場所の一例としての箱50からワークWを把持する。ロボットアームARは、把持部の一例である。なお、本実施形態では、ワークWは、一例としてネジ等のロボットハンドHで複数のワークWを把持できる程度の比較的小さい部品である場合について説明するが、ワークWはこれに限られるものではない、
 ロボットハンドHは、複数の指、本実施形態では一例として2つの指F1、F2を備えるが、指の数は2つに限られるものではない。また、指F1、F2は、本実施形態では一例として板状の部材で構成されるが、指F1、F2の形状はこれに限られるものではない。
 また、ロボットハンドHは、指F1、F2でワークWを把持した状態において、指F1の位置が変化するように駆動する駆動部22-1と、指F1、F2でワークWを把持した状態において、指F2の位置が変化するように駆動する駆動部22-2と、を備える。なお、本実施形態では、指F1、F2の両方に駆動部が設けられた場合について説明するが、指F1、F2の何れかに駆動部を設けた構成としてもよい。
 また、指F1の把持面には、ワークWが接触する把持面の圧力分布を検出する圧力分布センサ24-1が設けられている。同様に、指F2の把持面には、ワークWが接触する把持面の圧力分布を検出する圧力分布センサ24-2が設けられている。ここで、圧力分布センサ24-1、24-2は、指F1、F2によるワークWの把持状態を検出する検出部の一例である。
 なお、本実施形態では、指F1、F2の両方の把持面の各々に圧力分布センサが設けられた場合について説明するが、指F1、F2の何れかの指の把持面に圧力分布センサを設けた構成としてもよい。
 ロボット機構20は、一例として自由度が6の垂直多関節ロボット、水平多関節ロボット等が用いられるが、ロボットの自由度及び種類はこれらに限られるものではない。
 制御装置30は、ロボット機構20を制御する。図2に示すように、制御装置30は、機能的には、認識部32及び制御部34を含む。
 認識部32は、圧力分布センサ24-1、24-2の検出結果、すなわち圧力分布に基づいて、指F1、F2に把持されたワークWの個数を認識する。認識部32は、本実施形態では一例として、圧力分布センサ24-1、24-2で検出された圧力分布の各々を入力とし、ワークWの数を出力として学習された学習済みモデル、例えばニューラルネットワークを用いた学習済みモデルを用いて、指F1、F2で把持されたワークWの個数を認識する。
 制御部34は、ロボット機構20に箱50からワークWを把持する動作をさせた後に、認識部32により認識されたワークの個数が予め指定された指定数と異なる場合、把持されたワークWの数が指定数となるようにロボット機構20の運動を制御する。なお、本実施形態では、指定数が1の場合について説明する。すなわち、認識部32により認識されたワークの個数が複数の場合は、認識部32により認識されたワークの個数が1つになるまで、ワークWが落下するようにロボット機構20の運動を制御する。
 具体的には、制御部34は、例えば指F1、F2でワークWを把持した把持状態を変化させるため、指F1、F2の少なくとも一方が移動するように、駆動部22-1、22-2の少なくとも一方を制御する。すなわち、指F1、F2の相対位置が変化するように、指F1、F2の少なくとも一方をずらす。これにより、指F1、F2で把持しているワークWの把持状態が変化し、ワークWを落下させることができる。
 撮影部40は、箱50の上方から箱50内のワークWを撮影可能な位置に設置され、制御装置30の指示によって箱50内のワークWを撮影した撮影画像を制御装置30に出力する。
 次に、制御装置30のハードウェア構成を示すブロック図である。
 図3に示すように、制御装置30は、CPU(Central Processing Unit)30A、ROM(Read Only Memory)30B、RAM(Random Access Memory)30C、ストレージ30D、入力部30E、モニタ30F、光ディスク駆動装置30G及び通信インタフェース30Hを有する。各構成は、バス30Iを介して相互に通信可能に接続されている。
 本実施形態では、ストレージ30Dには、ピッキングプログラムが格納されている。CPU30Aは、中央演算処理ユニットであり、各種プログラムを実行したり、各構成を制御したりする。すなわち、CPU30Aは、ストレージ30Dからプログラムを読み出し、RAM30Cを作業領域としてプログラムを実行する。CPU30Aは、ストレージ30Dに記録されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。
 ROM30Bは、各種プログラム及び各種データを格納する。RAM30Cは、作業領域として一時的にプログラム又はデータを記憶する。ストレージ30Dは、HDD(Hard Disk Drive)又はSSD(Solid State Drive)により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。
 入力部30Eは、キーボード30E1、及びマウス30E2等のポインティングデバイスを含み、各種の入力を行うために使用される。モニタ30Fは、例えば、液晶ディスプレイであり、ワークWの把持状態等の各種の情報を表示する。モニタ30Fは、タッチパネル方式を採用して、入力部30Eとして機能してもよい。光ディスク駆動装置30Gは、各種の記録媒体(CD-ROM又はブルーレイディスクなど)に記憶されたデータの読み込みや、記録媒体に対するデータの書き込み等を行う。
 通信インタフェース30Hは、他の機器と通信するためのインタフェースであり、例えば、イーサネット(登録商標)、FDDI又はWi-Fi(登録商標)等の規格が用いられる。
 図2に示した制御装置30の各機能構成は、CPU30Aがストレージ30Dに記憶されたピッキングプログラムを読み出し、RAM30Cに展開して実行することにより実現される。
 次に、ロボットシステム10の作用について説明する。
 図4は、ロボットシステム10によるピッキング処理の流れを示すフローチャートである。ユーザーが入力部30Eを操作してピッキング処理の実行を指示すると、CPU30Aがストレージ30Dからピッキングプログラムを読み出して、RAM30Cに展開し実行することにより、ピッキング処理が実行される。
 ステップS100では、CPU30Aが、制御部34として、ロボットハンドHにより箱50内のワークWを把持するようロボット機構20を制御する。具体的には、例えば撮影部40に撮影を指示して箱50内のワークWを撮影した撮影画像を取得し、取得した撮影画像を画像解析することによりワークWの存在する場所を特定する。このとき、把持すべきワークWの位置や姿勢を特定する必要はなく、ワークWが存在する場所を特定するだけでよい。そして、ワークWが存在する場所にロボットハンドHが移動するようにロボットアームARを制御し、その後、指F1、F2でワークWを把持するように駆動部22-1、22-2を制御する。あるいは、撮像部40による撮影を行うことなく、箱50内の何れかの位置で指F1、F2を閉じる動作を行い、その結果として、ある確率でワークWが把持されるようにしてもよい。特に、箱50内に多数のワークWが残存している場合には、事前にワークWが存在する場所の特定すらしなくても、高い確率でワークWを把持することができる。
 ステップS102では、CPU30Aが、認識部32として、圧力分布センサ24-1、24-2から指F1、F2の把持面の圧力分布を各々取得する。そして、取得した指F1、F2の把持面の圧力分布から指F1、F2によって把持されたワークWの個数を認識する。
 ステップS104では、CPU30Aが、制御部34として、ステップS102で認識したワークWの個数が0であるか否かを判定する。そして、認識したワークWの個数が0ではない場合、すなわち、少なくとも1つ以上のワークWを把持している場合はステップS106へ移行する。一方、認識したワークの個数が0の場合はステップS100へ戻ってワークWを把持し直す。
 ステップS106では、CPU30Aが、制御部34として、ステップS102で認識したワークWの個数が指定数であるか否か、すなわち認識したワークWの個数が1つであるか否かを判定する。そして、認識したワークWの個数が1の場合はステップS108へ移行する。一方、認識したワークWの個数が1ではない場合、すなわち複数の場合は、ステップS110へ移行する。
 ステップS108では、CPU30Aが、制御部34として、ロボットハンドHで把持したワークWを所定の場所に移動して載置するようにロボット機構20を制御する。
 ステップS110では、CPU30Aが、制御部34として、指F1、F2の少なくとも一方をずらすように、駆動部22-1、22-2の少なくとも一方を制御する。例えば、ずらす指、方向、及び移動量を予め定めておいてもよいし、ステップS102で取得した指F1、F2の把持面の圧力分布に基づいて、ずらす指、方向、及び移動量を決定してもよい。これにより、指F1、F2で把持しているワークWの把持状態が変化し、ワークWが落下しやすくなる。
 ステップS112では、CPU30Aが、制御部34として、箱50内のワークWを全てピッキングしたか否かを判定する。すなわち、箱50内が空になっているか否かを判定する。具体的には、例えば撮影部40で撮影された撮影画像を画像解析して、箱50内にワークWが残っているか否かを判定する。そして、箱50内にワークWが残っていない場合は、本ルーチンを終了する。一方、箱50内にワークWが残っている場合はステップS100へ戻り、ワークWを全てピッキングするまで上記と同様の処理を繰り返す。
 このように、本実施形態では、把持すべきワークWの位置や姿勢を事前に検出してからワークWを把持するのではなく、まずはワークWを把持してから、把持したワークWの個数が指定数になるまで指F1、F2の少なくとも一方をずらす運動を行う。これにより、ワークWの位置や姿勢を毎回事前に検出しなくても、高い確度で、ワークWをピッキングすることができる。
(変形例1)
 次に、本実施形態の変形例1について説明する。
 把持したワークWの数を認識する場合に、例えば、指F1、F2の各々の把持面におけるワークWの接触面積に基づいて、把持したワークWの個数を認識してもよい。例えば、圧力分布センサ24-1、24-2で検出された圧力分布の各々に基づいて、指F1、F2の各々の把持面におけるワークWの接触面積を各々算出する。そして、例えば各接触面積と把持したワークの個数との対応関係を表すテーブルデータ又は数式等を用いて、把持したワークWの個数を認識してもよい。例えばワークWが球体の場合には、弾性を有する把持面が1個のワークWで押されることにより形成される接触面積は比較的安定しているので、このようにしてワークWの個数を認識することが可能である。
(変形例2)
 次に、本実施形態の変形例2について説明する。
 把持したワークWの数を認識する場合に、例えば、検出部の一例としての撮影部40で指F1、F2でワークWを把持した状態を撮影し、撮影部40で撮影された撮影画像に基づいて、把持したワークWの個数を認識するようにしてもよい。この場合、制御部34は、指F1、F2で把持されたワークWを撮影部40で撮影可能な位置、すなわち、指F1、F2によってワークWが隠れない位置で撮影されるように、ロボットハンドHを移動させてもよい。また、撮影部40の移動機構を更に備えた構成とし、撮影部40をロボットハンドHの位置に移動させるようにしてもよい。また、ロボットハンドH及び撮影部40の両方を移動させてもよい。
(変形例3)
 次に、本実施形態の変形例3について説明する。
 把持したワークWの数を認識する場合に、例えば、指F1、F2でワークWを把持した状態の指F1、F2にかかる力を検出する検出部の一例としての6軸力覚センサを備えた構成とし、認識部32は、力覚センサにより検出された力の鉛直方向成分が把持前に対して把持後に増加した量、すなわちワークWの総重量に基づいて、ワークWの個数を認識するようにしてもよい。この場合、例えばワークWの総重量と、ワークWの1個当たりの重量と、に基づいて、ワークWの個数を認識するようにしてもよい。すなわち、力覚センサにより検出された力から算出したワークWの総重量をワークWの1個当たりの重量で除算することによりワークWの個数を算出してもよい。
(変形例4)
 次に、本実施形態の変形例4について説明する。
 制御部34は、認識部32により認識されたワークWの数が指定数と異なる場合、例えば指定数より少ない場合、箱50からワークWを把持し直すようにロボット機構20の運動を制御するようにしてもよい。すなわち、箱50上で指F1、F2を開く動作をさせることにより、一旦把持したワークWを箱50上に戻してから、再度箱50内のワークWを把持するようにロボット機構20を制御してもよい。
(変形例5)
 次に、本実施形態の変形例5について説明する。
 制御部34は、認識部32により認識されたワークWの数が指定数より多い場合、指F1、F2で把持しているワークの少なくとも一部に外力を加えて落下させるようにロボット機構20を制御するようにしてもよい。例えば、棒状の固定の治具にワークWを衝突させるようにロボット機構20を制御して、ワークWを落下させるようにしてもよい。また、例えば棒状部材によってワークWに外力を加える外力機構を更に設けた構成とし、当該外力機構を制御して棒状部材をワークWに衝突させることでワークWを落下させるようにしてもよい。
 なお、本実施形態でCPUがソフトウェア(プログラム)を読み込んで実行したピッキング処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、ピッキング処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
 また、上記各実施形態では、ピッキングプログラムがストレージ30D又はROM30Bに予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 なお、日本国特許出願第2020-151538号の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。
10 ロボットシステム
20 ロボット機構
22-1、22-2 駆動部
24-1、24-2 圧力分布センサ
30 制御装置
32 認識部
34 制御部
40 撮影部
50 箱
AR ロボットアーム
F1、F2 指
H ロボットハンド

Claims (15)

  1.  ワークを把持する把持部を備えたロボット機構と、
     前記把持部による前記ワークの把持状態を検出する検出部と、
     前記検出部の検出結果に基づいて前記把持部に把持されたワークの個数を認識する認識部と、
     前記ロボット機構に前記ワークが複数載置されている載置場所から前記ワークを把持する動作をさせた後に、前記認識部により認識された前記ワークの個数が予め指定された指定数と異なる場合、把持された前記ワークの数が前記指定数となるように前記ロボット機構の運動を制御する制御部と、
     を備えたロボットシステム。
  2.  前記指定数は1である、
     請求項1に記載のロボットシステム。
  3.  前記把持部は、
     複数の指と、
     前記複数の指で前記ワークを把持した状態において、少なくとも1つの指の位置が変化するように前記少なくとも1つの指を駆動する駆動部と、
     を含む請求項1又は請求項2記載のロボットシステム。
  4.  前記検出部は、少なくとも1つの前記指の把持面に設けられ、前記ワークが接触する前記把持面の圧力分布を検出する圧力分布センサであり、
     前記認識部は、前記圧力分布センサにより検出された圧力分布に基づいて、前記ワークの個数を認識する
     請求項3記載のロボットシステム。
  5.  前記圧力分布センサが、複数の前記指の内の少なくとも2つの指の把持面の各々に設けられている
     請求項4記載のロボットシステム。
  6.  前記認識部は、前記圧力分布を入力とし、前記把持部で把持した前記ワークの個数を出力として学習された学習済みモデルを備えた
     請求項4又は請求項5記載のロボットシステム。
  7.  前記学習済みモデルは、ニューラルネットワークを含む
     請求項6記載のロボットシステム。
  8.  前記検出部は、複数の前記指で前記ワークを把持した状態を撮影する撮影部であり、
     前記認識部は、前記撮影部により撮影された撮影画像に基づいて、前記ワークの個数を認識する
     請求項3記載のロボットシステム。
  9.  前記制御部は、複数の前記指で把持された前記ワークを撮影可能な位置で撮影されるように、前記撮影部及び前記把持部の少なくとも一方を移動させる
     請求項8記載のロボットシステム。
  10.  前記検出部は、前記複数の指で前記ワークを把持した状態の前記複数の指にかかる力を検出する力覚センサであり、
     前記認識部は、前記力覚センサにより検出された力の鉛直方向成分の把持による増加分として算出した、把持した前記ワークの総重量に基づいて、前記ワークの個数を認識する
     請求項3記載のロボットシステム。
  11.  前記認識部は、前記ワークの総重量と、前記ワークの1個当たりの重量と、に基づいて、前記ワークの個数を認識する
     請求項10記載のロボットシステム。
  12.  前記制御部は、前記認識部により認識された前記ワークの数が前記指定数と異なる場合、前記載置場所から前記ワークを把持し直すように前記ロボット機構の運動を制御する
     請求項1~11の何れか1項に記載のロボットシステム。
  13.  前記制御部は、前記認識部により認識された前記ワークの数が前記指定数より少ない場合、前記載置場所から前記ワークを把持し直すように前記ロボット機構の運動を制御する
     請求項12記載のロボットシステム。
  14.  前記制御部は、前記認識部により認識された前記ワークの数が前記指定数より多い場合、前記把持部で把持している前記ワークの少なくとも一部に外力を加えて落下させるように前記ロボット機構を制御する
     請求項1~13の何れか1項に記載のロボットシステム。
  15.  ワークを把持する把持部による前記ワークの把持状態を検出し、
     前記把持状態の検出結果に基づいて前記把持部に把持されたワークの数を認識し、
     前記把持部を備えたロボット機構に前記ワークが複数載置されている載置場所から前記ワークを把持する動作をさせた後に、認識された前記ワークの数が予め指定された指定数と異なる場合、把持された前記ワークの数が前記指定数となるように前記ロボット機構の運動を制御する
     ピッキング方法。
PCT/JP2021/030018 2020-09-09 2021-08-17 ロボットシステム及びピッキング方法 WO2022054506A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-151538 2020-09-09
JP2020151538A JP2022045771A (ja) 2020-09-09 2020-09-09 ロボットシステム及びピッキング方法

Publications (1)

Publication Number Publication Date
WO2022054506A1 true WO2022054506A1 (ja) 2022-03-17

Family

ID=80631521

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/030018 WO2022054506A1 (ja) 2020-09-09 2021-08-17 ロボットシステム及びピッキング方法

Country Status (3)

Country Link
JP (1) JP2022045771A (ja)
TW (1) TWI780887B (ja)
WO (1) WO2022054506A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002210685A (ja) * 2001-01-17 2002-07-30 Murata Mach Ltd ワークピッキング装置
WO2019065426A1 (ja) * 2017-09-26 2019-04-04 倉敷紡績株式会社 ロボットハンドおよびロボットハンド制御方法
JP2019051559A (ja) * 2017-09-12 2019-04-04 株式会社東芝 物品移動装置、物品移動方法、および物品移動制御プログラム
JP2020082322A (ja) * 2018-11-30 2020-06-04 株式会社クロスコンパス 機械学習装置、機械学習システム、データ処理システム及び機械学習方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002210685A (ja) * 2001-01-17 2002-07-30 Murata Mach Ltd ワークピッキング装置
JP2019051559A (ja) * 2017-09-12 2019-04-04 株式会社東芝 物品移動装置、物品移動方法、および物品移動制御プログラム
WO2019065426A1 (ja) * 2017-09-26 2019-04-04 倉敷紡績株式会社 ロボットハンドおよびロボットハンド制御方法
JP2020082322A (ja) * 2018-11-30 2020-06-04 株式会社クロスコンパス 機械学習装置、機械学習システム、データ処理システム及び機械学習方法

Also Published As

Publication number Publication date
JP2022045771A (ja) 2022-03-22
TWI780887B (zh) 2022-10-11
TW202210252A (zh) 2022-03-16

Similar Documents

Publication Publication Date Title
US11090814B2 (en) Robot control method
US10589424B2 (en) Robot control device, robot, and robot system
EP2868443A2 (en) Robot, robot system, and robot control apparatus
JP6541397B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20150343634A1 (en) Robot, robot system, and control method
WO2022123849A1 (ja) ロボット、把持力制御装置、把持力制御方法、及び把持力制御プログラム
JP2001179669A (ja) ロボットの制御装置
Su et al. Robust grasping for an under-actuated anthropomorphic hand under object position uncertainty
Saen et al. Action-intention-based grasp control with fine finger-force adjustment using combined optical-mechanical tactile sensor
JP2015071207A (ja) ロボットハンドおよびその制御方法
WO2022054506A1 (ja) ロボットシステム及びピッキング方法
Hendrich et al. Multi-sensor based segmentation of human manipulation tasks
JP4600445B2 (ja) ロボットハンド装置
WO2022054505A1 (ja) ロボットシステム及びピッキング方法
JP4137601B2 (ja) ロボットハンドの制御方法、ロボットハンド
JP2004160614A (ja) 自動作業教示システム
JP4055703B2 (ja) ロボットハンド装置
JP5942720B2 (ja) 状態判別方法、ロボット、制御装置、及びプログラム
US9613180B1 (en) Robotic control device and method for manipulating a hand-held tool
Al-Gaifi et al. Reactive grasping using high-resolution tactile sensors
Ford et al. Tactile-driven gentle grasping for human-robot collaborative tasks
JP7286524B2 (ja) ピッキングロボット、ピッキング方法及びプログラム
WO2023167003A1 (ja) 制御装置、制御方法、及び制御プログラム
WO2022030242A1 (ja) 情報処理装置、情報処理方法、およびプログラム
Ali et al. Development of Vision Based Smart Gripper for Material Handling Using Internet of Things

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21866466

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21866466

Country of ref document: EP

Kind code of ref document: A1