JP2020157461A - Robot system and control method of robot system - Google Patents

Robot system and control method of robot system Download PDF

Info

Publication number
JP2020157461A
JP2020157461A JP2019062580A JP2019062580A JP2020157461A JP 2020157461 A JP2020157461 A JP 2020157461A JP 2019062580 A JP2019062580 A JP 2019062580A JP 2019062580 A JP2019062580 A JP 2019062580A JP 2020157461 A JP2020157461 A JP 2020157461A
Authority
JP
Japan
Prior art keywords
light
work
target
camera
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019062580A
Other languages
Japanese (ja)
Inventor
優作 中村
Yusaku Nakamura
優作 中村
神谷 俊幸
Toshiyuki Kamiya
俊幸 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2019062580A priority Critical patent/JP2020157461A/en
Publication of JP2020157461A publication Critical patent/JP2020157461A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a robot system which hardly loses sight of a work object and which can perform work more surely in a shorter time, and to provide a control method of robot system.SOLUTION: A robot system includes: a robot including an arm; a light irradiation part for radiating light for discriminating a work object from objects other than the work object out of a plurality of objects; a camera arranged in the arm, and for imaging the work object when the light is radiated; and a control device for discriminating the work object from among the plurality of work objects on the basis of the imaged data of the camera, and for controlling the operation of the arm.SELECTED DRAWING: Figure 1

Description

本発明は、ロボットシステムおよびロボットシステムの制御方法に関するものである。 The present invention relates to a robot system and a control method for the robot system.

特許文献1に記載されているロボットシステムは、アームに取り付けられたカメラによるビジュアルフィードバックを用いてロボットの動作を補正するシステムである。このようなロボットシステムでは、対象物が基準位置とは異なる位置に載置されている場合には、ビジュアルフィードバックを用いて、アームと対象物との相対的位置関係が、対象物が基準位置にある場合のアームと対象物との相対的位置関係と同じ位置関係となるようにアームの動作を制御する。例えば、対象物が複数載置されている場合、複数の対象の中から1つの作業対象を選択し、この作業対象をカメラで捉えながら、アームと作業対象とが所定の相対的位置関係となるようにアームの動作を制御する。 The robot system described in Patent Document 1 is a system that corrects the movement of a robot by using visual feedback from a camera attached to an arm. In such a robot system, when the object is placed in a position different from the reference position, visual feedback is used to change the relative positional relationship between the arm and the object so that the object is in the reference position. The movement of the arm is controlled so that the relative positional relationship between the arm and the object in a certain case is the same. For example, when a plurality of objects are placed, one work object is selected from the plurality of objects, and the arm and the work object have a predetermined relative positional relationship while capturing the work object with a camera. The movement of the arm is controlled so as to.

特開2015−150636号公報Japanese Unexamined Patent Publication No. 2015-150636

しかしながら、アームを駆動している最中に、不測の事態によってカメラの撮像領域から作業対象が外れた場合には、複数の対象物の中から、作業対象を再び探し出すことは困難であり、作業対象を選択し直すことから再開しなければならず、作業効率の低下を招くおそれがあった。 However, if the work target is removed from the imaging area of the camera due to an unexpected situation while the arm is being driven, it is difficult to find the work target again from among a plurality of objects, and the work is performed. It was necessary to restart from reselecting the target, which could lead to a decrease in work efficiency.

本発明のロボットシステムは、アームを備えるロボットと、
複数の対象を作業対象と前記作業対象以外とに区別する光を照射する光照射部と、
前記アームに配置され、前記光が照射されているときに前記作業対象を撮像するカメラと、
前記カメラの撮像データに基づいて前記複数の対象から前記作業対象を区別し、前記アームの動作を制御する制御装置と、を有することを特徴とする。
The robot system of the present invention includes a robot provided with an arm and
A light irradiation unit that irradiates light that distinguishes a plurality of objects from a work object and a non-work object.
A camera that is placed on the arm and captures the work object when the light is irradiated.
It is characterized by having a control device that distinguishes the work target from the plurality of targets based on the image data of the camera and controls the operation of the arm.

本発明の第1実施形態に係るロボットシステムを示す全体図である。It is an overall view which shows the robot system which concerns on 1st Embodiment of this invention. 対象物の一例を示す斜視図である。It is a perspective view which shows an example of an object. 制御方法を示すフローチャートである。It is a flowchart which shows the control method. カメラの撮像データの一例を示す図である。It is a figure which shows an example of the image pickup data of a camera. カメラの撮像データの一例を示す図である。It is a figure which shows an example of the image pickup data of a camera. カメラの撮像データの一例を示す図である。It is a figure which shows an example of the image pickup data of a camera. 本発明の第2実施形態に係る光の照射方法を示す図である。It is a figure which shows the light irradiation method which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る光の照射方法を示す図である。It is a figure which shows the light irradiation method which concerns on 3rd Embodiment of this invention. 本発明の第4実施形態に係る光の照射方法を示す図である。It is a figure which shows the light irradiation method which concerns on 4th Embodiment of this invention. 本発明の第5実施形態に係る光の照射方法を示す図である。It is a figure which shows the light irradiation method which concerns on 5th Embodiment of this invention. 制御方法を示すフローチャートである。It is a flowchart which shows the control method. 本発明の第6実施形態に係るロボットシステムを示す全体図である。It is an overall view which shows the robot system which concerns on 6th Embodiment of this invention. 本発明の第7実施形態に係るロボットシステムを示す全体図である。It is an overall view which shows the robot system which concerns on 7th Embodiment of this invention.

以下、本発明のロボットシステムおよびロボットシステムの制御方法を添付図面に示す好適な実施形態に基づいて詳細に説明する。 Hereinafter, the robot system of the present invention and the control method of the robot system will be described in detail based on the preferred embodiments shown in the accompanying drawings.

<第1実施形態>
図1は、本発明の第1実施形態に係るロボットシステムを示す全体図である。図2は、対象物の一例を示す斜視図である。図3は、制御方法を示すフローチャートである。図4ないし図6は、それぞれ、カメラの撮像データの一例を示す図である。
<First Embodiment>
FIG. 1 is an overall view showing a robot system according to the first embodiment of the present invention. FIG. 2 is a perspective view showing an example of the object. FIG. 3 is a flowchart showing a control method. 4 to 6 are diagrams showing an example of image pickup data of the camera, respectively.

図1に示すロボットシステム1は、精密機器やこれを構成する部品の給材、除材、搬送および組立等の作業を行うことができる。ロボットシステム1は、対象物100に対して所定の作業を実行するロボット2と、ロボット2に装着され、対象物100を撮像するカメラ3と、対象物100に向けて光を照射する光照射部7と、ホストコンピューター9からの指令に基づいて、これら各部の駆動を制御する制御装置8と、を有する。 The robot system 1 shown in FIG. 1 can perform operations such as supplying, removing, transporting, and assembling precision equipment and parts constituting the precision equipment. The robot system 1 includes a robot 2 that executes a predetermined work on the object 100, a camera 3 that is attached to the robot 2 and images the object 100, and a light irradiation unit that irradiates light toward the object 100. It has 7 and a control device 8 that controls the drive of each of these parts based on a command from the host computer 9.

ロボット2は、6軸ロボットであり、床、壁、天井等に固定されるベース20と、アーム200と、を有する。また、アーム200は、ベース20に回動自在に連結されている第1アーム21と、第1アーム21に回動自在に連結されている第2アーム22と、第2アーム22に回動自在に連結されている第3アーム23と、第3アーム23に回動自在に連結されている第4アーム24と、第4アーム24に回動自在に連結されている第5アーム25と、第5アーム25に回動自在に連結されている第6アーム26と、第6アーム26に装着されているハンド27と、を有する。ただし、ロボット2の構成は、特に限定されず、例えば、アームの数は、5本以下であってもよいし、7本以上であってもよい。また、例えば、ロボット2は、スカラロボット、双腕ロボット等であってもよい。 The robot 2 is a 6-axis robot, and has a base 20 fixed to a floor, a wall, a ceiling, or the like, and an arm 200. Further, the arm 200 is rotatable to the first arm 21 rotatably connected to the base 20, the second arm 22 rotatably connected to the first arm 21, and the second arm 22. A third arm 23 rotatably connected to the third arm 23, a fourth arm 24 rotatably connected to the third arm 23, a fifth arm 25 rotatably connected to the fourth arm 24, and a first It has a sixth arm 26 rotatably connected to the fifth arm 25, and a hand 27 attached to the sixth arm 26. However, the configuration of the robot 2 is not particularly limited, and for example, the number of arms may be 5 or less, or 7 or more. Further, for example, the robot 2 may be a SCARA robot, a dual-arm robot, or the like.

カメラ3は、ロボット2の第5アーム25に固定されている。また、カメラ3は、第5アーム25の先端側すなわちハンド27側を向き、ハンド27の先にある対象物100を撮像できるように配置されている。ここで、第5アーム25の先端側にハンド27が位置する関係は、第5アーム25以外のアーム21〜24、26がどのような姿勢であっても維持される。そのため、第5アーム25にカメラ3を固定することにより、カメラ3は、常に、ハンド27の先端側を撮像することができる。したがって、ハンド27が対象物100に対して如何なる姿勢で対向しても、当該姿勢において対象物100を撮像することができる。そのため、より確実に対象物100を撮像することができる。ただし、カメラ3の配置は、特に限定されない。 The camera 3 is fixed to the fifth arm 25 of the robot 2. Further, the camera 3 faces the tip end side of the fifth arm 25, that is, the hand 27 side, and is arranged so that the object 100 at the tip of the hand 27 can be imaged. Here, the relationship in which the hand 27 is located on the tip end side of the fifth arm 25 is maintained regardless of the postures of the arms 21 to 24 and 26 other than the fifth arm 25. Therefore, by fixing the camera 3 to the fifth arm 25, the camera 3 can always take an image of the tip end side of the hand 27. Therefore, no matter what posture the hand 27 faces the object 100, the object 100 can be imaged in that posture. Therefore, the object 100 can be imaged more reliably. However, the arrangement of the camera 3 is not particularly limited.

光照射部7は、対象物100に選択的に光Lを照射することができる。なお、光照射部7としては、特に限定されないが、本実施形態ではプロジェクター71が用いられている。これにより、光照射部7の構成が簡単となる。なお、光Lの波長としては、カメラ3で認識可能であれば、特に限定されず、400〜700nmの可視光であってもよいし、400nm以下の不可視光(紫外線)であってもよいし、700nm以上の不可視光(赤外線)であってもよい。 The light irradiation unit 7 can selectively irradiate the object 100 with light L. The light irradiation unit 7 is not particularly limited, but the projector 71 is used in the present embodiment. This simplifies the configuration of the light irradiation unit 7. The wavelength of the light L is not particularly limited as long as it can be recognized by the camera 3, and may be visible light of 400 to 700 nm or invisible light (ultraviolet light) of 400 nm or less. , 700 nm or more invisible light (infrared light) may be used.

制御装置8は、ロボット2の駆動を制御するロボット制御部81と、カメラ3で撮像される撮像データに基づいて対象物100を認識する対象物認識部82と、光照射部7の駆動を制御する光照射部制御部83と、を有する。このような制御装置8は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部インターフェースと、を有する。メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶された各種プログラム等を読み込んで実行することができる。 The control device 8 controls the drive of the robot control unit 81 that controls the drive of the robot 2, the object recognition unit 82 that recognizes the object 100 based on the imaging data captured by the camera 3, and the light irradiation unit 7. It has a light irradiation unit control unit 83 and a light irradiation unit. Such a control device 8 includes, for example, a processor (CPU) composed of a computer and processing information, a memory communicably connected to the processor, and an external interface. Various programs that can be executed by the processor are stored in the memory, and the processor can read and execute various programs and the like stored in the memory.

また、アーム21〜26、ハンド27のうちの少なくとも1カ所には、図示しない力覚センサー、近接センサー等のセンサーが配置されており、制御装置8は、これらセンサーからの出力信号に基づいて、ハンド27またはその把持物の他所への接触を検出ことができる。 Further, sensors such as a force sensor and a proximity sensor (not shown) are arranged at at least one of the arms 21 to 26 and the hand 27, and the control device 8 is based on the output signals from these sensors. The contact of the hand 27 or its gripped object with another part can be detected.

以上、ロボットシステム1の全体構成について簡単に説明した。次に、制御装置8によるロボットシステム1の制御方法について詳細に説明する。以下では、図2に示すように、対象物100が、貫通孔で構成されている4つ対象111を有する基板110と、基板110に形成されている対象111に挿入する4つのワーク120と、を有する構成となっており、ロボット2が各対象111に1個ずつワーク120を挿入する動作を行う場合について代表して説明する。なお、対象物100の構成やロボット2の動作は、これに限定されない。 The overall configuration of the robot system 1 has been briefly described above. Next, the control method of the robot system 1 by the control device 8 will be described in detail. In the following, as shown in FIG. 2, the object 100 includes a substrate 110 having four objects 111 formed of through holes, four workpieces 120 to be inserted into the objects 111 formed on the substrate 110, and the like. The case where the robot 2 inserts one work 120 into each target 111 will be described as a representative. The configuration of the object 100 and the operation of the robot 2 are not limited to this.

図3に示すように、制御装置8は、まず、ステップS1として、ロボット2の駆動を制御して、ハンド27で1つのワーク120を把持させる。次に、制御装置8は、ステップS2として、ロボット2の駆動を制御して、少なくとも1つの対象111がカメラ3の視野(撮像領域)に入るようにアーム200を移動させる。次に、制御装置8は、ステップS3として、カメラ3で基板110、特に対象111を撮像し、その撮像データD1に含まれている対象111を認識する。 As shown in FIG. 3, first, as step S1, the control device 8 controls the drive of the robot 2 so that the hand 27 grips one work 120. Next, in step S2, the control device 8 controls the drive of the robot 2 to move the arm 200 so that at least one target 111 enters the field of view (imaging region) of the camera 3. Next, in step S3, the control device 8 images the substrate 110, particularly the target 111, with the camera 3, and recognizes the target 111 included in the imaged data D1.

次に、制御装置8は、ステップS4として、ステップS3で得られた撮像データD1に含まれる対象111から、1つの対象111を「作業対象111A」として選択する。図4に、ステップS3で得られた撮像データD1の一例を示す。この図では、ステップS4において、制御装置8は、左上に位置する対象111を作業対象111Aとして選択している。なお、ステップS3では、プロジェクター71は、基板110に光Lを照射しない。 Next, in step S4, the control device 8 selects one target 111 as the “work target 111A” from the target 111 included in the imaging data D1 obtained in step S3. FIG. 4 shows an example of the imaging data D1 obtained in step S3. In this figure, in step S4, the control device 8 selects the target 111 located at the upper left as the work target 111A. In step S3, the projector 71 does not irradiate the substrate 110 with light L.

制御装置8は、次に、ステップS5として、前ステップS4で選択した作業対象111Aに光Lが照射され、それ以外の対象111には光Lが照射されないように、プロジェクター71の駆動を制御する。例えば、各対象111の位置座標を予め記憶しておくことで、光Lを作業対象111Aに選択的に照射することができる。また、ロボット2の姿勢とカメラ3の撮像データD1とに基づいて作業対象111Aの三次元位置座標を算出し、その結果に基づいてプロジェクター71の駆動を制御することにより、光Lを作業対象111Aに選択的に照射することもできる。ただし、作業対象111Aへの光Lの照射方法は、特に限定されない。また、作業対象111Aへの光Lの照射は、後述するステップS9が終わるまで維持される。 Next, in step S5, the control device 8 controls the drive of the projector 71 so that the work target 111A selected in the previous step S4 is irradiated with the light L and the other targets 111 are not irradiated with the light L. .. For example, by storing the position coordinates of each target 111 in advance, the light L can be selectively applied to the work target 111A. Further, the light L is converted to the work target 111A by calculating the three-dimensional position coordinates of the work target 111A based on the posture of the robot 2 and the image pickup data D1 of the camera 3 and controlling the driving of the projector 71 based on the result. Can also be selectively irradiated. However, the method of irradiating the work target 111A with the light L is not particularly limited. Further, the irradiation of the work target 111A with the light L is maintained until the end of step S9, which will be described later.

制御装置8は、次に、ステップS6として、作業対象111Aに光Lが照射されている状態をカメラ3で撮像する。これにより、作業対象111Aが撮像されて認識され、撮像データD2が得られる。制御装置8は、次に、ステップS7として、前ステップS6で得られた撮像データD2に基づいて、ワーク120が作業対象111Aに近づくようにロボット2の駆動を制御する。図5に撮像データD2の一例を示す。ここで、ステップS4において、そのときのアーム200の姿勢でカメラ3によって認識可能な対象111から作業対象111Aを選択しているため、ステップS7におけるアーム200の無駄な動きが抑制される。つまり、ステップS7でのアーム200の移動量を効果的に減らすことができ、ステップS7をより迅速に完了することができる。 Next, in step S6, the control device 8 captures a state in which the work target 111A is irradiated with light L by the camera 3. As a result, the work target 111A is imaged and recognized, and the imaged data D2 is obtained. Next, in step S7, the control device 8 controls the drive of the robot 2 so that the work 120 approaches the work target 111A based on the imaging data D2 obtained in the previous step S6. FIG. 5 shows an example of the imaging data D2. Here, in step S4, since the work target 111A is selected from the target 111 that can be recognized by the camera 3 in the posture of the arm 200 at that time, unnecessary movement of the arm 200 in step S7 is suppressed. That is, the amount of movement of the arm 200 in step S7 can be effectively reduced, and step S7 can be completed more quickly.

このように、作業対象111Aにだけ光Lを照射することにより、作業対象111Aに影ができ易く、陰を特徴として追加できるため、撮像データD2中の作業対象111Aの特徴量が増加する。また、光Lの輪郭L0による特徴を追加することができるため、撮像データD2中の作業対象111Aの特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。なお、例えば、図6に示すように、光Lの輪郭L0をより複雑な形状とすることにより、光Lの輪郭による特徴がより大きくなるため、撮像データD2中の作業対象111Aの特徴量がより増加する。なお、光Lの輪郭としては、円形や星形に限定されず、例えば、三角形、四角形、五角形以上の多角形等であってもよい。 By irradiating the work target 111A with the light L in this way, shadows are likely to be formed on the work target 111A, and shadows can be added as features, so that the feature amount of the work target 111A in the imaging data D2 increases. Further, since the feature of the light L due to the contour L0 can be added, the feature amount of the work target 111A in the imaging data D2 increases. Therefore, the image recognition accuracy based on the image pickup data D2 is improved, and step S7 can be performed more accurately. For example, as shown in FIG. 6, by making the contour L0 of the light L a more complicated shape, the features due to the contour of the light L become larger, so that the feature amount of the work target 111A in the imaging data D2 becomes larger. More. The outline of the light L is not limited to a circle or a star, and may be, for example, a triangle, a quadrangle, a polygon of a pentagon or more, and the like.

制御装置8は、次に、ステップS8として、ワーク120が基板110、特に作業対象111Aに接触したか否かを判断する。当該判断は、例えば、アーム21〜26、ハンド27のいずれかに配置されている前記の力覚センサーが出力する信号に基づいて行うことができる。制御装置8は、ステップS8で、ワーク120が作業対象111Aに接触したと判断するまで、ステップS6〜S8を繰り返す。そして、制御装置8は、ステップS8でワーク120が作業対象111Aに接触したと判断すると、ステップS9として、ロボット2の駆動を制御して、ワーク120を作業対象111Aに挿入する。この際、制御装置8は、インピーダンス制御を用いてロボット2を駆動することにより、当該作業を比較的容易に行うことができる。また、ワーク120を作業対象111Aに挿入し終えるまでは、作業対象111Aに光Lを照射した状態が維持される。 Next, in step S8, the control device 8 determines whether or not the work 120 has come into contact with the substrate 110, particularly the work target 111A. The determination can be made based on, for example, a signal output by the force sensor located on any of the arms 21 to 26 and the hand 27. The control device 8 repeats steps S6 to S8 until it is determined in step S8 that the work 120 has come into contact with the work target 111A. Then, when the control device 8 determines that the work 120 has come into contact with the work target 111A in step S8, in step S9, the control device 8 controls the drive of the robot 2 and inserts the work 120 into the work target 111A. At this time, the control device 8 can perform the work relatively easily by driving the robot 2 using impedance control. Further, the state in which the work target 111A is irradiated with the light L is maintained until the work 120 is completely inserted into the work target 111A.

制御装置8は、次に、ステップS10として、全対象111にワーク120が挿入されたか否かを判断する。この判断結果がNoである場合、他の対象111から新たな作業対象111Aを設定し、ステップS1〜S9を繰り返し行う。そして、制御装置8は、全対象111にワーク120が挿入されたと判断するまで、ステップS1〜S10を繰り返す。 Next, in step S10, the control device 8 determines whether or not the work 120 has been inserted into all the objects 111. If the determination result is No, a new work target 111A is set from the other target 111, and steps S1 to S9 are repeated. Then, the control device 8 repeats steps S1 to S10 until it is determined that the work 120 has been inserted into all the objects 111.

以上、制御装置8による制御方法について説明した。このような制御方法によれば、ステップS5〜S9の間、光Lによって作業対象111Aが他の対象111と区別されているため、ワーク120を作業対象111Aに挿入し終えるまでに、外部からの衝撃等の不測の事態によってカメラ3の視野から作業対象111Aが外れてしまった場合でも、カメラ3の撮像データに基づいて、容易に、作業対象111Aを再び探し出すことができる。そのため、ワーク120の作業対象111Aへの挿入をより確実に行うことができる。特に、制御装置8の制御方法によれば、作業対象111Aを見失っても再び探し出して作業を再開することができるため、従来のように、ステップS2まで戻ってやり直す必要がない。そのため、作業時間が短縮され、ロボット2の作業効率が高まる。 The control method by the control device 8 has been described above. According to such a control method, since the work target 111A is distinguished from the other target 111 by the light L during steps S5 to S9, it is necessary to insert the work 120 into the work target 111A from the outside. Even if the work target 111A is out of the field of view of the camera 3 due to an unexpected situation such as an impact, the work target 111A can be easily searched for again based on the imaging data of the camera 3. Therefore, the work 120 can be more reliably inserted into the work target 111A. In particular, according to the control method of the control device 8, even if the work target 111A is lost, it can be found again and the work can be restarted, so that it is not necessary to return to step S2 and start over as in the conventional case. Therefore, the work time is shortened and the work efficiency of the robot 2 is improved.

以上、ロボットシステム1およびロボットシステム1の制御方法について説明した。ロボットシステム1は、前述したように、アーム200を備えるロボット2と、複数の対象111を作業対象111Aと作業対象111A以外とに区別する光Lを照射する光照射部7と、アーム200に配置され、光Lが照射されているときに作業対象111Aを撮像するカメラ3と、カメラ3の撮像データD2に基づいて複数の対象111から作業対象111Aを区別し、アーム200の動作を制御する制御装置8と、を有する。 The control method of the robot system 1 and the robot system 1 has been described above. As described above, the robot system 1 is arranged on the arm 200, the robot 2 provided with the arm 200, the light irradiation unit 7 that irradiates the light L that distinguishes the plurality of targets 111 into the work target 111A and other than the work target 111A. Control that controls the operation of the arm 200 by distinguishing the work target 111A from the plurality of targets 111 based on the camera 3 that images the work target 111A when the light L is irradiated and the image data D2 of the camera 3. It has a device 8 and.

このような構成によれば、光Lによって作業対象111Aが他の対象111と区別されているため、ロボット2の動作中に、外部からの衝撃等の不測の事態によってカメラ3の視野から作業対象111Aが外れても、カメラ3を用いて、容易に、作業対象111Aを再び探し出すことができる。そのため、ロボット2による作業をより確実に行うことができる。特に、作業対象111Aを見失っても、作業対象111Aを再び探し出して作業を再開することができるため、従来のように、再び、作業対象111Aを選択するステップまで戻ってやり直す必要がない。そのため、作業時間が短縮され、ロボット2の作業効率が高まる。 According to such a configuration, since the work target 111A is distinguished from the other target 111 by the light L, the work target is viewed from the field of view of the camera 3 due to an unexpected situation such as an external impact during the operation of the robot 2. Even if the 111A comes off, the work target 111A can be easily searched for again by using the camera 3. Therefore, the work by the robot 2 can be performed more reliably. In particular, even if the work target 111A is lost, the work target 111A can be found again and the work can be restarted, so that it is not necessary to return to the step of selecting the work target 111A and start over again as in the conventional case. Therefore, the work time is shortened and the work efficiency of the robot 2 is improved.

また、前述したように、光照射部7は、作業対象111Aに光Lを照射し、作業対象111A以外の対象111には光Lを照射しない。このような構成によれば、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。また、作業対象111Aに影ができ易く、作業対象111Aのコントラストが高まるため、その分、作業対象111Aの特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。 Further, as described above, the light irradiation unit 7 irradiates the work target 111A with the light L, and does not irradiate the target 111 other than the work target 111A with the light L. According to such a configuration, the plurality of objects 111 can be easily distinguished from the work object 111A and the others by the lightness and darkness. In addition, shadows are likely to be formed on the work target 111A, and the contrast of the work target 111A is increased, so that the feature amount of the work target 111A is increased accordingly. Therefore, the image recognition accuracy based on the image pickup data D2 is improved, and step S7 can be performed more accurately.

また、前述したように、光照射部7は、プロジェクター71である。これにより、光照射部7の構成が簡単となる。 Further, as described above, the light irradiation unit 7 is the projector 71. This simplifies the configuration of the light irradiation unit 7.

また、前述したように、ロボットシステム1の制御方法は、複数の対象111を作業対象111Aと作業対象111A以外とに区別する光Lを光照射部7から照射するステップS5と、ロボット2が備えるアーム200に配置されているカメラ3によって光Lが照射されているときに作業対象111Aを撮像するステップS6と、カメラ3の撮像データD2に基づいて複数の対象111から作業対象111Aを区別し、アーム200の動作を制御するステップS7〜S9と、を含む。 Further, as described above, the control method of the robot system 1 includes the step S5 of irradiating the light L from the light irradiation unit 7 to distinguish the plurality of targets 111 into the work target 111A and other than the work target 111A, and the robot 2. The work target 111A is distinguished from the plurality of targets 111 based on the step S6 in which the work target 111A is imaged when the light L is irradiated by the camera 3 arranged on the arm 200 and the image data D2 of the camera 3. Steps S7 to S9 for controlling the operation of the arm 200 are included.

このような制御方法によれば、光Lによって作業対象111Aが他の対象111と区別されているため、ロボット2の動作中に、外部からの衝撃等の不測の事態によってカメラ3の視野から作業対象111Aが外れても、カメラ3を用いて、容易に、作業対象111Aを再び探し出すことができる。そのため、ロボット2による作業をより確実に行うことができる。特に、作業対象111Aを見失っても、作業対象111Aを再び探し出して作業を再開することができるため、従来のように、再び、作業対象111Aを選択するステップまで戻ってやり直す必要がない。そのため、作業時間が短縮され、ロボット2の作業効率が高まる。 According to such a control method, since the work target 111A is distinguished from the other target 111 by the light L, the work is performed from the field of view of the camera 3 due to an unexpected situation such as an external impact during the operation of the robot 2. Even if the target 111A is removed, the work target 111A can be easily searched for again by using the camera 3. Therefore, the work by the robot 2 can be performed more reliably. In particular, even if the work target 111A is lost, the work target 111A can be found again and the work can be restarted, so that it is not necessary to return to the step of selecting the work target 111A and start over again as in the conventional case. Therefore, the work time is shortened and the work efficiency of the robot 2 is improved.

また、前述したように、光照射部7から光Lを照射するステップS5の前に、カメラ3によって少なくとも1つの対象111を撮像するステップS3と、カメラ3の撮像データD1に含まれる対象111から少なくとも1つの作業対象111Aを選択するステップS4と、を含む。このようなステップを有することにより、作業対象111Aを容易に選択することができる。また、現在のアーム200の姿勢においてカメラ3で認識可能な対象111から作業対象111Aを選択するため、その後の作業におけるアーム200の無駄な動きが抑制される。つまり、ステップS7でのアーム200の移動量を効果的に減らすことができ、ステップS7をより迅速に完了することができる。 Further, as described above, before the step S5 of irradiating the light L from the light irradiating unit 7, the step S3 of imaging at least one object 111 by the camera 3 and the object 111 included in the imaging data D1 of the camera 3 Includes step S4, which selects at least one work target 111A. By having such a step, the work target 111A can be easily selected. Further, since the work target 111A is selected from the target 111 that can be recognized by the camera 3 in the current posture of the arm 200, unnecessary movement of the arm 200 in the subsequent work is suppressed. That is, the amount of movement of the arm 200 in step S7 can be effectively reduced, and step S7 can be completed more quickly.

<第2実施形態>
図7は、本発明の第2実施形態に係る光の照射方法を示す図である。
<Second Embodiment>
FIG. 7 is a diagram showing a light irradiation method according to a second embodiment of the present invention.

本実施形態は、光照射部7による光Lの照射方法が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図7において、前述した実施形態と同様の構成については、同一符号を付している。 The present embodiment is the same as the above-described first embodiment except that the method of irradiating the light L by the light irradiating unit 7 is different. In the following description, the present embodiment will be mainly described with respect to the differences from the above-described embodiment, and the description of the same matters will be omitted. Further, in FIG. 7, the same reference numerals are given to the same configurations as those in the above-described embodiment.

図7に、ステップS5において基板110の所定位置に光照射部7からの光Lが照射されている状態を示す。なお、図7は、ステップS6においてカメラ3が撮像した撮像データD2として図示している。 FIG. 7 shows a state in which the light L from the light irradiation unit 7 is irradiated to a predetermined position of the substrate 110 in step S5. Note that FIG. 7 is shown as the imaging data D2 captured by the camera 3 in step S6.

同図に示すように、光照射部7は、作業対象111Aに光Lを照射せず、作業対象111A以外の対象111に光Lを照射している。このような構成によっても、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。 As shown in the figure, the light irradiation unit 7 does not irradiate the work target 111A with the light L, but irradiates the target 111 other than the work target 111A with the light L. Even with such a configuration, the plurality of objects 111 can be easily distinguished from the work object 111A and the others by light and darkness.

以上のように、本実施形態の光照射部7は、作業対象111Aに光Lを照射せず、作業対象111A以外の対象111に光Lを照射する。このような構成によれば、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。 As described above, the light irradiation unit 7 of the present embodiment does not irradiate the work target 111A with the light L, but irradiates the target 111 other than the work target 111A with the light L. According to such a configuration, the plurality of objects 111 can be easily distinguished from the work object 111A and the others by the lightness and darkness.

このような第2実施形態においても、前述した第1実施形態と同様の効果を発揮することができる。 Also in such a second embodiment, the same effect as that of the first embodiment described above can be exhibited.

<第3実施形態>
図8は、本発明の第3実施形態に係る光の照射方法を示す図である。
<Third Embodiment>
FIG. 8 is a diagram showing a light irradiation method according to a third embodiment of the present invention.

本実施形態は、光照射部7による光Lの照射方法が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図8において、前述した実施形態と同様の構成については、同一符号を付している。 The present embodiment is the same as the above-described first embodiment except that the method of irradiating the light L by the light irradiating unit 7 is different. In the following description, the present embodiment will be mainly described with respect to the differences from the above-described embodiment, and the description of the same matters will be omitted. Further, in FIG. 8, the same reference numerals are given to the same configurations as those in the above-described embodiment.

図8に、ステップS5において基板110の所定位置に光照射部7からの光Lが照射されている状態を示す。なお、図8は、ステップS6においてカメラ3が撮像した撮像データD2として図示している。 FIG. 8 shows a state in which the light L from the light irradiation unit 7 is irradiated to a predetermined position of the substrate 110 in step S5. Note that FIG. 8 is shown as the imaging data D2 captured by the camera 3 in step S6.

同図に示すように、光照射部7は、全ての対象111に光Lを照射し、作業対象111Aと、作業対象111A以外の対象111と、で光Lの照度を異ならせている。具体的には、作業対象111Aに照射する光L’を、それ以外の対象111に照射する光L”よりも明るくしている。このような構成によっても、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。 As shown in the figure, the light irradiation unit 7 irradiates all the objects 111 with the light L, and makes the illuminance of the light L different between the work object 111A and the object 111 other than the work object 111A. Specifically, the light L'irradiating the work object 111A is made brighter than the light L" irradiating the other objects 111. Even with such a configuration, a plurality of objects 111 can be displayed depending on the brightness. The work target 111A and the others can be easily distinguished.

なお、本実施形態とは逆に、作業対象111Aに照射する光L’を、それ以外の対象111に照射する光L”よりも暗くしてもよい。ただし、本実施形態の方が、作業対象111Aに影ができ易く、その分、作業対象111Aの特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。 Contrary to the present embodiment, the light L'irradiating the work object 111A may be darker than the light L" irradiating the other objects 111. However, the work in the present embodiment is used. Shadows are likely to be formed on the target 111A, and the feature amount of the work target 111A is increased accordingly. Therefore, the image recognition accuracy based on the imaging data D2 is improved, and the step S7 can be performed more accurately.

以上のように、本実施形態の光照射部7は、作業対象111Aと作業対象111A以外とで異なる照度の光Lを照射する。このような構成によれば、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。 As described above, the light irradiation unit 7 of the present embodiment irradiates the work target 111A and the light L having different illuminances other than the work target 111A. According to such a configuration, the plurality of objects 111 can be easily distinguished from the work object 111A and the others by the lightness and darkness.

このような第3実施形態においても、前述した第1実施形態と同様の効果を発揮することができる。 Also in such a third embodiment, the same effect as that of the first embodiment described above can be exhibited.

<第4実施形態>
図9は、本発明の第4実施形態に係る光の照射方法を示す図である。
<Fourth Embodiment>
FIG. 9 is a diagram showing a light irradiation method according to a fourth embodiment of the present invention.

本実施形態は、光照射部7による光Lの照射方法が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図9において、前述した実施形態と同様の構成については、同一符号を付している。 The present embodiment is the same as the above-described first embodiment except that the method of irradiating the light L by the light irradiating unit 7 is different. In the following description, the present embodiment will be mainly described with respect to the differences from the above-described embodiment, and the description of the same matters will be omitted. Further, in FIG. 9, the same reference numerals are given to the same configurations as those in the above-described embodiment.

図9に、ステップS5において基板110の所定位置に光照射部7からの光Lが照射されている状態を示す。なお、図9は、ステップS6においてカメラ3が撮像した撮像データD2として図示している。 FIG. 9 shows a state in which the light L from the light irradiation unit 7 is irradiated to a predetermined position of the substrate 110 in step S5. Note that FIG. 9 is shown as the imaging data D2 captured by the camera 3 in step S6.

同図に示すように、光照射部7は、全ての対象111に光Lを照射し、作業対象111Aと、作業対象111A以外の対象111と、で光Lの色(波長)を異ならせている。例えば、作業対象111Aに青色の光Lbを照射し、それ以外の対象111に赤色の光Lrを照射している。このような構成によれば、光Lの色の異なりによって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。ただし、光Lの色の組み合わせは、特に限定されない。 As shown in the figure, the light irradiation unit 7 irradiates all the objects 111 with the light L, and makes the color (wavelength) of the light L different between the work object 111A and the object 111 other than the work object 111A. There is. For example, the work target 111A is irradiated with blue light Lb, and the other target 111 is irradiated with red light Lr. According to such a configuration, the plurality of objects 111 can be easily distinguished from the work object 111A and the others by the difference in the color of the light L. However, the color combination of the light L is not particularly limited.

以上のように、本実施形態の光照射部7は、作業対象111Aと作業対象111A以外とで異なる色の光Lを照射する。このような構成によれば、色の異なりによって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。 As described above, the light irradiation unit 7 of the present embodiment irradiates the light L of a different color between the work target 111A and other than the work target 111A. According to such a configuration, the plurality of objects 111 can be easily distinguished from the work object 111A and the others by the difference in color.

このような第4実施形態においても、前述した第1実施形態と同様の効果を発揮することができる。 Also in such a fourth embodiment, the same effect as that of the first embodiment described above can be exhibited.

<第5実施形態>
図10は、本発明の第5実施形態に係る光の照射方法を示す図である。図11は、制御方法を示すフローチャートである。
<Fifth Embodiment>
FIG. 10 is a diagram showing a light irradiation method according to a fifth embodiment of the present invention. FIG. 11 is a flowchart showing a control method.

本実施形態は、光照射部7による光Lの照射方法とそれに伴う制御方法とが異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図10において、前述した実施形態と同様の構成については、同一符号を付している。 The present embodiment is the same as the first embodiment described above, except that the method of irradiating the light L by the light irradiating unit 7 and the control method associated therewith are different. In the following description, the present embodiment will be mainly described with respect to the differences from the above-described embodiment, and the description of the same matters will be omitted. Further, in FIG. 10, the same reference numerals are given to the same configurations as those in the above-described embodiment.

図10に、ステップS5において基板110の所定位置に光照射部7からの光Lが照射されている状態を示す。なお、図10は、ステップS6においてカメラ3が撮像した撮像データD2として図示している。 FIG. 10 shows a state in which the light L from the light irradiation unit 7 is irradiated to a predetermined position of the substrate 110 in step S5. Note that FIG. 10 is shown as the imaging data D2 captured by the camera 3 in step S6.

同図に示すように、光照射部7は、全ての対象111に光Lを照射し、各対象111に照射する光Lの色(波長)を異ならせている。例えば、作業対象111Aに青色の光Lbを照射し、1つの対象111に赤色の光Lrを照射し、1つの対象111に緑色の光Lgを照射し、1つの対象111に黄色の光Lyを照射する。このような構成によれば、光Lの色の異なりによって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができると共に、残りの対象111についてもそれぞれ区別することができる。ただし、光Lの色の組み合わせは、特に限定されない。 As shown in the figure, the light irradiation unit 7 irradiates all the objects 111 with the light L, and makes the color (wavelength) of the light L to irradiate each object 111 different. For example, the work target 111A is irradiated with blue light Lb, one target 111 is irradiated with red light Lr, one target 111 is irradiated with green light Lg, and one target 111 is irradiated with yellow light Ly. Irradiate. According to such a configuration, a plurality of objects 111 can be easily distinguished from the work object 111A and others by the difference in the color of the light L, and the remaining objects 111 can also be distinguished from each other. it can. However, the color combination of the light L is not particularly limited.

このような構成によれば、各ワーク120を対象111に挿入する度に、作業対象111Aを選択し直す手間が省け、ロボット2の作業効率がさらに向上する。以下、具体的に説明する。図11に示すように、制御装置8は、まず、ステップS1として、ロボット2の駆動を制御して、ハンド27で1つのワーク120を把持させる。次に、制御装置8は、ステップS2として、ロボット2の駆動を制御して、少なくとも1つの対象111がカメラ3の視野(撮像領域)に入るようにアーム200を移動させる。次に、制御装置8は、ステップS3として、カメラ3で基板110、特に対象111を撮像し、その撮像データD1に含まれている対象111を認識する。 According to such a configuration, it is possible to save the trouble of reselecting the work target 111A each time each work 120 is inserted into the target 111, and the work efficiency of the robot 2 is further improved. Hereinafter, a specific description will be given. As shown in FIG. 11, first, as step S1, the control device 8 controls the drive of the robot 2 so that the hand 27 grips one work 120. Next, in step S2, the control device 8 controls the drive of the robot 2 to move the arm 200 so that at least one target 111 is in the field of view (imaging region) of the camera 3. Next, in step S3, the control device 8 images the substrate 110, particularly the target 111, with the camera 3, and recognizes the target 111 included in the imaged data D1.

次に、制御装置8は、ステップS4として、ステップS3で得られた撮像データD1に含まれる対象111から、1つの対象111を「作業対象111A」として選択する。さらに、制御装置8は、作業対象111Aとして選択しなかった残りの対象111に順番を付け、付けた順番に従って次の「作業対象111A」とすることを決定する。 Next, in step S4, the control device 8 selects one target 111 as the “work target 111A” from the target 111 included in the imaging data D1 obtained in step S3. Further, the control device 8 assigns an order to the remaining targets 111 that have not been selected as the work target 111A, and determines to set the remaining target 111 as the next "work target 111A" according to the assigned order.

次に、制御装置8は、ステップS5として、撮像データD1に含まれる全ての対象111に光Lが照射されるように、プロジェクター71の駆動を制御する。この状態では、図10に示すように、作業対象111Aには青色の光Lbが照射され、1つの対象111には赤色の光Lrが照射され、1つの対象111には緑色の光Lgが照射され、1つの対象111には黄色の光Lyが照射されている。なお、光Lの色と作業対象111Aになる順番は関係付けられており、光Lの色を判断することにより、どの対象111が何番目の作業対象111Aとなるかを制御装置8が記憶している。以下では、説明の便宜上、赤色の光Lrが照射されている対象111を「対象111r」とも言い、緑色の光Lgが照射されている対象111を「対象111g」とも言い、黄色の光Lyが照射されている対象111を「対象111y」とも言う。 Next, in step S5, the control device 8 controls the drive of the projector 71 so that all the objects 111 included in the imaging data D1 are irradiated with the light L. In this state, as shown in FIG. 10, the work target 111A is irradiated with blue light Lb, one target 111 is irradiated with red light Lr, and one target 111 is irradiated with green light Lg. Then, one object 111 is irradiated with yellow light Ly. The color of the light L and the order of becoming the work target 111A are related, and by determining the color of the light L, the control device 8 stores which target 111 becomes which work target 111A. ing. In the following, for convenience of explanation, the target 111 irradiated with the red light Lr is also referred to as the “target 111r”, the target 111 irradiated with the green light Lg is also referred to as the “target 111g”, and the yellow light Ly is referred to. The irradiated target 111 is also referred to as "target 111y".

制御装置8は、次に、ステップS6として、作業対象111Aに光Lbが照射されている状態をカメラ3で撮像する。制御装置8は、次に、ステップS7として、前ステップS6で得られた撮像データD2に基づいて、ワーク120が作業対象111Aに近づくようにロボット2の駆動を制御する。制御装置8は、次に、ステップS8として、前記のセンサーの出力信号に基づいて、ワーク120が作業対象111Aに接触したか否かを判断する。制御装置8は、ステップS8で、ワーク120が作業対象111Aに接触したと判断するまで、ステップS6〜S8を繰り返す。そして、制御装置8は、ステップS8でワーク120が作業対象111Aに接触したと判断すると、ステップS9として、ロボット2の駆動を制御して、ワーク120を作業対象111Aに挿入する。 Next, in step S6, the control device 8 captures a state in which the work target 111A is irradiated with the light Lb by the camera 3. Next, in step S7, the control device 8 controls the drive of the robot 2 so that the work 120 approaches the work target 111A based on the imaging data D2 obtained in the previous step S6. Next, in step S8, the control device 8 determines whether or not the work 120 has come into contact with the work target 111A based on the output signal of the sensor. The control device 8 repeats steps S6 to S8 until it is determined in step S8 that the work 120 has come into contact with the work target 111A. Then, when the control device 8 determines that the work 120 has come into contact with the work target 111A in step S8, in step S9, the control device 8 controls the drive of the robot 2 and inserts the work 120 into the work target 111A.

制御装置8は、次に、ステップS10として、光Lが照射されている対象111の全てを作業対象111Aとしたか否かを判断する。そして、制御装置8は、対象111r、111g、111yを順に作業対象111Aとし、ステップS11として、ワーク120を新たにハンド27で把持させた後、対象111r、111g、111yごとにステップS6〜S11を繰り返し行う。なお、光Lが照射されている対象111の全てを作業対象111Aとし終えるまでは、光Lが照射された状態が維持される。制御装置8は、光Lが照射されている対象111の全てを作業対象111Aとした後、ステップS12として、基板110に含まれる全ての対象111にワーク120が挿入されたか否かを判断する。制御装置8は、全ての対象111にワーク120が挿入されたと判断するまで、ステップS1〜S12を繰り返す。 Next, in step S10, the control device 8 determines whether or not all of the objects 111 irradiated with the light L are the work objects 111A. Then, the control device 8 sets the target 111r, 111g, 111y as the work target 111A in order, and as step S11, after newly grasping the work 120 with the hand 27, steps S6 to S11 are performed for each of the targets 111r, 111g, 111y. Repeat. The state of being irradiated with the light L is maintained until all the objects 111 irradiated with the light L are set as the work objects 111A. The control device 8 determines whether or not the work 120 has been inserted into all the objects 111 included in the substrate 110 in step S12 after setting all the objects 111 irradiated with the light L as the work objects 111A. The control device 8 repeats steps S1 to S12 until it is determined that the work 120 has been inserted into all the objects 111.

以上、制御装置8による制御方法について説明した。このような制御方法によれば、ワーク120毎に、作業対象111Aを選択し直す必要がなくなるため、前述した第1実施形態と比べて、ロボット2の作業効率が高まる。 The control method by the control device 8 has been described above. According to such a control method, it is not necessary to reselect the work target 111A for each work 120, so that the work efficiency of the robot 2 is improved as compared with the first embodiment described above.

<第6実施形態>
図12は、本発明の第6実施形態に係るロボットシステムを示す全体図である。
<Sixth Embodiment>
FIG. 12 is an overall view showing a robot system according to a sixth embodiment of the present invention.

本実施形態は、光照射部7による光Lの照射方法が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図12において、前述した実施形態と同様の構成については、同一符号を付している。 The present embodiment is the same as the above-described first embodiment except that the method of irradiating the light L by the light irradiating unit 7 is different. In the following description, the present embodiment will be mainly described with respect to the differences from the above-described embodiment, and the description of the same matters will be omitted. Further, in FIG. 12, the same reference numerals are given to the same configurations as those in the above-described embodiment.

図12に示すように、本実施形態の光照射部7は、カメラ3から見て裏側から作業対象111Aに光Lを照射する。本実施形態では、カメラ3が作業対象111Aの図12中の上側に位置する状態でロボット2の作業が行われるため、光照射部7は、作業対象111Aの下側から光Lを照射する。このような構成によれば、アーム200で光Lが遮蔽されることがないため、光Lを作業対象111Aにより確実に照射することができる。また、作業対象111Aに影が生じ易く、作業対象111Aのコントラストが高まるため、その分、作業対象111Aの特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。 As shown in FIG. 12, the light irradiation unit 7 of the present embodiment irradiates the work target 111A with light L from the back side when viewed from the camera 3. In the present embodiment, since the work of the robot 2 is performed in a state where the camera 3 is located on the upper side of the work target 111A in FIG. 12, the light irradiation unit 7 irradiates the light L from the lower side of the work target 111A. According to such a configuration, since the light L is not shielded by the arm 200, the light L can be reliably irradiated by the work target 111A. In addition, shadows are likely to occur on the work target 111A, and the contrast of the work target 111A is increased, so that the feature amount of the work target 111A is increased accordingly. Therefore, the image recognition accuracy based on the image pickup data D2 is improved, and step S7 can be performed more accurately.

このような第6実施形態においても、前述した第1実施形態と同様の効果を発揮することができる。 Also in such a sixth embodiment, the same effect as that of the first embodiment described above can be exhibited.

<第7実施形態>
図13は、本発明の第7実施形態に係るロボットシステムを示す全体図である。
<7th Embodiment>
FIG. 13 is an overall view showing a robot system according to a seventh embodiment of the present invention.

本実施形態は、光照射部7およびカメラ3の構成が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図13において、前述した実施形態と同様の構成については、同一符号を付している。 This embodiment is the same as the above-described first embodiment except that the configurations of the light irradiation unit 7 and the camera 3 are different. In the following description, the present embodiment will be mainly described with respect to the differences from the above-described embodiment, and the description of the same matters will be omitted. Further, in FIG. 13, the same reference numerals are given to the same configurations as those in the above-described embodiment.

本実施形態では、環境光と異なる波長の光、具体的には赤外線を用いている。これにより、環境光と光Lとを区別することができ、カメラ3によって光Lをより精度よく認識することができる。また、図13に示すように、カメラ3には、環境光をカットして光Lを透過する波長フィルター4が設けられており、光L以外の光を効果的に除去できるようになっている。そのため、光Lの輪郭がより鮮明となり、撮像データD2の特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。 In this embodiment, light having a wavelength different from that of ambient light, specifically infrared light is used. Thereby, the ambient light and the light L can be distinguished, and the light L can be recognized more accurately by the camera 3. Further, as shown in FIG. 13, the camera 3 is provided with a wavelength filter 4 that cuts ambient light and transmits the light L so that light other than the light L can be effectively removed. .. Therefore, the outline of the light L becomes clearer, and the feature amount of the imaging data D2 increases. Therefore, the image recognition accuracy based on the image pickup data D2 is improved, and step S7 can be performed more accurately.

以上のように、本実施形態のロボットシステム1では、カメラ3は、所定領域内の波長の光を透過する波長フィルター4を有し、光照射部7が照射する光Lの波長は、前記所定領域内の波長を含む。つまり、カメラ3は、光Lを透過する波長フィルター4を有する。これにより、例えば、環境光等の光L以外の光を効果的に除去することができる。そのため、カメラ3で光Lの輪郭をより鮮明に認識することができ、撮像データD2の特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。 As described above, in the robot system 1 of the present embodiment, the camera 3 has a wavelength filter 4 that transmits light having a wavelength within a predetermined region, and the wavelength of the light L emitted by the light irradiation unit 7 is the predetermined wavelength. Includes wavelengths within the region. That is, the camera 3 has a wavelength filter 4 that transmits light L. Thereby, for example, light other than light L such as ambient light can be effectively removed. Therefore, the contour of the light L can be recognized more clearly by the camera 3, and the feature amount of the imaging data D2 increases. Therefore, the image recognition accuracy based on the image pickup data D2 is improved, and step S7 can be performed more accurately.

以上、本発明のロボットシステムおよびロボットシステムの制御方法について、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。また、各実施形態を適宜組み合わせてもよい。 The robot system of the present invention and the control method of the robot system have been described above based on the illustrated embodiment, but the present invention is not limited to this, and the configuration of each part is arbitrary having the same function. It can be replaced with the one of the configuration. Further, any other constituents may be added to the present invention. In addition, each embodiment may be combined as appropriate.

1…ロボットシステム、2…ロボット、20…ベース、200…アーム、21…第1アーム、22…第2アーム、23…第3アーム、24…第4アーム、25…第5アーム、26…第6アーム、27…ハンド、3…カメラ、4…波長フィルター、7…光照射部、71…プロジェクター、8…制御装置、81…ロボット制御部、82…対象物認識部、83…光照射部制御部、9…ホストコンピューター、100…対象物、110…基板、111、111g、111r、111y…対象、111A…作業対象、120…ワーク、D1、D2…撮像データ、L、L’、L”、Lb、Lg、Lr、Ly…光、S1〜S12…ステップ 1 ... Robot system, 2 ... Robot, 20 ... Base, 200 ... Arm, 21 ... 1st arm, 22 ... 2nd arm, 23 ... 3rd arm, 24 ... 4th arm, 25 ... 5th arm, 26 ... 6 arm, 27 ... hand, 3 ... camera, 4 ... wavelength filter, 7 ... light irradiation unit, 71 ... projector, 8 ... control device, 81 ... robot control unit, 82 ... object recognition unit, 83 ... light irradiation unit control Department, 9 ... Host computer, 100 ... Object, 110 ... Board, 111, 111g, 111r, 111y ... Target, 111A ... Work target, 120 ... Work, D1, D2 ... Imaging data, L, L', L ", Lb, Lg, Lr, Ly ... light, S1 to S12 ... steps

Claims (10)

アームを備えるロボットと、
複数の対象を作業対象と前記作業対象以外とに区別する光を照射する光照射部と、
前記アームに配置され、前記光が照射されているときに前記作業対象を撮像するカメラと、
前記カメラの撮像データに基づいて前記複数の対象から前記作業対象を区別し、前記アームの動作を制御する制御装置と、を有することを特徴とするロボットシステム。
A robot with an arm and
A light irradiation unit that irradiates light that distinguishes a plurality of objects from a work object and a non-work object.
A camera that is placed on the arm and captures the work object when the light is irradiated.
A robot system comprising a control device that distinguishes the work object from the plurality of objects based on the image data of the camera and controls the operation of the arm.
前記光照射部は、前記作業対象に前記光を照射し、前記作業対象以外には前記光を照射しない請求項1に記載のロボットシステム。 The robot system according to claim 1, wherein the light irradiation unit irradiates the work object with the light and does not irradiate the light to anything other than the work object. 前記光照射部は、前記作業対象に前記光を照射せず、前記作業対象以外に前記光を照射する請求項1に記載のロボットシステム。 The robot system according to claim 1, wherein the light irradiation unit does not irradiate the work target with the light, but irradiates the light to other than the work target. 前記光照射部は、前記作業対象と前記作業対象以外とで異なる照度の前記光を照射する請求項1に記載のロボットシステム。 The robot system according to claim 1, wherein the light irradiation unit irradiates the light having different illuminance between the work target and the non-work target. 前記光照射部は、前記作業対象と前記作業対象以外とで異なる色の前記光を照射する請求項1に記載のロボットシステム。 The robot system according to claim 1, wherein the light irradiation unit irradiates the light of a different color between the work target and the non-work target. 前記光照射部は、前記カメラから見て裏側から前記光を照射する請求項1ないし5のいずれか1項に記載のロボットシステム。 The robot system according to any one of claims 1 to 5, wherein the light irradiation unit irradiates the light from the back side when viewed from the camera. 前記カメラは、所定領域内の波長の光を透過する波長フィルターを有し、
前記光照射部が照射する前記光の波長は、前記所定領域内の波長を含む請求項1ないし6のいずれか1項に記載のロボットシステム。
The camera has a wavelength filter that transmits light of a wavelength within a predetermined region.
The robot system according to any one of claims 1 to 6, wherein the wavelength of the light emitted by the light irradiation unit includes a wavelength within the predetermined region.
前記光照射部は、プロジェクターである請求項1ないし7のいずれか1項に記載のロボットシステム。 The robot system according to any one of claims 1 to 7, wherein the light irradiation unit is a projector. 複数の対象を作業対象と前記作業対象以外とに区別する光を光照射部から照射するステップと、
ロボットが備えるアームに配置されているカメラによって前記光が照射されているときに前記作業対象を撮像するステップと、
前記カメラの撮像データに基づいて前記複数の対象から前記作業対象を区別し、前記アームの動作を制御するステップと、を含むことを特徴とするロボットシステムの制御方法。
A step of irradiating a light irradiation unit with light that distinguishes a plurality of objects into a work object and a non-work object.
A step of imaging the work object when the light is irradiated by a camera arranged on an arm provided by the robot, and
A method for controlling a robot system, which comprises a step of distinguishing the work target from the plurality of targets based on image data of the camera and controlling the operation of the arm.
前記光照射部から前記光を照射するステップの前に、
前記カメラによって少なくとも1つの前記対象を撮像するステップと、
前記カメラの撮像データに含まれる少なくとも1つの前記対象から前記作業対象を選択するステップと、を含む請求項9に記載のロボットシステムの制御方法。
Before the step of irradiating the light from the light irradiation unit,
The step of imaging at least one object by the camera,
The control method for a robot system according to claim 9, further comprising a step of selecting the work target from at least one target included in the image data of the camera.
JP2019062580A 2019-03-28 2019-03-28 Robot system and control method of robot system Pending JP2020157461A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019062580A JP2020157461A (en) 2019-03-28 2019-03-28 Robot system and control method of robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019062580A JP2020157461A (en) 2019-03-28 2019-03-28 Robot system and control method of robot system

Publications (1)

Publication Number Publication Date
JP2020157461A true JP2020157461A (en) 2020-10-01

Family

ID=72641058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019062580A Pending JP2020157461A (en) 2019-03-28 2019-03-28 Robot system and control method of robot system

Country Status (1)

Country Link
JP (1) JP2020157461A (en)

Similar Documents

Publication Publication Date Title
US10839261B2 (en) Information processing apparatus, information processing method, and storage medium
CN108297096B (en) Calibration device, calibration method, and computer-readable medium
JP4309439B2 (en) Object take-out device
US20180211138A1 (en) Information processing device, information processing method, and storage medium
US10805546B2 (en) Image processing system, image processing device, and image processing program
US11185977B2 (en) Information processing apparatus, grasping system, and information processing method
US20170142340A1 (en) Image processing apparatus, robot system, robot, and image processing method
KR102178013B1 (en) Training data generation method and pose determination method for grasping object
US10207409B2 (en) Image processing method, image processing device, and robot system
US11590657B2 (en) Image processing device, control method thereof, and program storage medium
US9595095B2 (en) Robot system
WO2023045933A1 (en) Fault detection method and apparatus for fundus camera, and storage medium
JP2010058243A (en) Picking device
JP2006021300A (en) Predicting device and holding device
JP2020157461A (en) Robot system and control method of robot system
CN110524538B (en) Image processing device, robot, and robot system
JPWO2021015883A5 (en)
US11717970B2 (en) Controller, control method using controller, and control system
JP6618337B2 (en) Object detection apparatus, object detection method, and computer program
JP2006007390A (en) Imaging device, imaging method, imaging program, and computer-readable recording medium having the imaging program recorded thereon
JP2016221602A (en) Robot, control device and program
JP2020040812A (en) Output control device and output control method
US20230415349A1 (en) Method for controlling a robot for manipulating, in particular picking up, an object
JP2001307072A (en) Recognition system, recognition device, recognition method and storage medium
JP2020174536A (en) Harvesting device, control method thereof, and program

Legal Events

Date Code Title Description
RD07 Notification of extinguishment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7427

Effective date: 20200811