JP2020157461A - Robot system and control method of robot system - Google Patents
Robot system and control method of robot system Download PDFInfo
- Publication number
- JP2020157461A JP2020157461A JP2019062580A JP2019062580A JP2020157461A JP 2020157461 A JP2020157461 A JP 2020157461A JP 2019062580 A JP2019062580 A JP 2019062580A JP 2019062580 A JP2019062580 A JP 2019062580A JP 2020157461 A JP2020157461 A JP 2020157461A
- Authority
- JP
- Japan
- Prior art keywords
- light
- work
- target
- camera
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットシステムおよびロボットシステムの制御方法に関するものである。 The present invention relates to a robot system and a control method for the robot system.
特許文献1に記載されているロボットシステムは、アームに取り付けられたカメラによるビジュアルフィードバックを用いてロボットの動作を補正するシステムである。このようなロボットシステムでは、対象物が基準位置とは異なる位置に載置されている場合には、ビジュアルフィードバックを用いて、アームと対象物との相対的位置関係が、対象物が基準位置にある場合のアームと対象物との相対的位置関係と同じ位置関係となるようにアームの動作を制御する。例えば、対象物が複数載置されている場合、複数の対象の中から1つの作業対象を選択し、この作業対象をカメラで捉えながら、アームと作業対象とが所定の相対的位置関係となるようにアームの動作を制御する。
The robot system described in
しかしながら、アームを駆動している最中に、不測の事態によってカメラの撮像領域から作業対象が外れた場合には、複数の対象物の中から、作業対象を再び探し出すことは困難であり、作業対象を選択し直すことから再開しなければならず、作業効率の低下を招くおそれがあった。 However, if the work target is removed from the imaging area of the camera due to an unexpected situation while the arm is being driven, it is difficult to find the work target again from among a plurality of objects, and the work is performed. It was necessary to restart from reselecting the target, which could lead to a decrease in work efficiency.
本発明のロボットシステムは、アームを備えるロボットと、
複数の対象を作業対象と前記作業対象以外とに区別する光を照射する光照射部と、
前記アームに配置され、前記光が照射されているときに前記作業対象を撮像するカメラと、
前記カメラの撮像データに基づいて前記複数の対象から前記作業対象を区別し、前記アームの動作を制御する制御装置と、を有することを特徴とする。
The robot system of the present invention includes a robot provided with an arm and
A light irradiation unit that irradiates light that distinguishes a plurality of objects from a work object and a non-work object.
A camera that is placed on the arm and captures the work object when the light is irradiated.
It is characterized by having a control device that distinguishes the work target from the plurality of targets based on the image data of the camera and controls the operation of the arm.
以下、本発明のロボットシステムおよびロボットシステムの制御方法を添付図面に示す好適な実施形態に基づいて詳細に説明する。 Hereinafter, the robot system of the present invention and the control method of the robot system will be described in detail based on the preferred embodiments shown in the accompanying drawings.
<第1実施形態>
図1は、本発明の第1実施形態に係るロボットシステムを示す全体図である。図2は、対象物の一例を示す斜視図である。図3は、制御方法を示すフローチャートである。図4ないし図6は、それぞれ、カメラの撮像データの一例を示す図である。
<First Embodiment>
FIG. 1 is an overall view showing a robot system according to the first embodiment of the present invention. FIG. 2 is a perspective view showing an example of the object. FIG. 3 is a flowchart showing a control method. 4 to 6 are diagrams showing an example of image pickup data of the camera, respectively.
図1に示すロボットシステム1は、精密機器やこれを構成する部品の給材、除材、搬送および組立等の作業を行うことができる。ロボットシステム1は、対象物100に対して所定の作業を実行するロボット2と、ロボット2に装着され、対象物100を撮像するカメラ3と、対象物100に向けて光を照射する光照射部7と、ホストコンピューター9からの指令に基づいて、これら各部の駆動を制御する制御装置8と、を有する。
The
ロボット2は、6軸ロボットであり、床、壁、天井等に固定されるベース20と、アーム200と、を有する。また、アーム200は、ベース20に回動自在に連結されている第1アーム21と、第1アーム21に回動自在に連結されている第2アーム22と、第2アーム22に回動自在に連結されている第3アーム23と、第3アーム23に回動自在に連結されている第4アーム24と、第4アーム24に回動自在に連結されている第5アーム25と、第5アーム25に回動自在に連結されている第6アーム26と、第6アーム26に装着されているハンド27と、を有する。ただし、ロボット2の構成は、特に限定されず、例えば、アームの数は、5本以下であってもよいし、7本以上であってもよい。また、例えば、ロボット2は、スカラロボット、双腕ロボット等であってもよい。
The
カメラ3は、ロボット2の第5アーム25に固定されている。また、カメラ3は、第5アーム25の先端側すなわちハンド27側を向き、ハンド27の先にある対象物100を撮像できるように配置されている。ここで、第5アーム25の先端側にハンド27が位置する関係は、第5アーム25以外のアーム21〜24、26がどのような姿勢であっても維持される。そのため、第5アーム25にカメラ3を固定することにより、カメラ3は、常に、ハンド27の先端側を撮像することができる。したがって、ハンド27が対象物100に対して如何なる姿勢で対向しても、当該姿勢において対象物100を撮像することができる。そのため、より確実に対象物100を撮像することができる。ただし、カメラ3の配置は、特に限定されない。
The
光照射部7は、対象物100に選択的に光Lを照射することができる。なお、光照射部7としては、特に限定されないが、本実施形態ではプロジェクター71が用いられている。これにより、光照射部7の構成が簡単となる。なお、光Lの波長としては、カメラ3で認識可能であれば、特に限定されず、400〜700nmの可視光であってもよいし、400nm以下の不可視光(紫外線)であってもよいし、700nm以上の不可視光(赤外線)であってもよい。
The
制御装置8は、ロボット2の駆動を制御するロボット制御部81と、カメラ3で撮像される撮像データに基づいて対象物100を認識する対象物認識部82と、光照射部7の駆動を制御する光照射部制御部83と、を有する。このような制御装置8は、例えば、コンピューターから構成され、情報を処理するプロセッサー(CPU)と、プロセッサーに通信可能に接続されたメモリーと、外部インターフェースと、を有する。メモリーにはプロセッサーにより実行可能な各種プログラムが保存され、プロセッサーは、メモリーに記憶された各種プログラム等を読み込んで実行することができる。
The
また、アーム21〜26、ハンド27のうちの少なくとも1カ所には、図示しない力覚センサー、近接センサー等のセンサーが配置されており、制御装置8は、これらセンサーからの出力信号に基づいて、ハンド27またはその把持物の他所への接触を検出ことができる。
Further, sensors such as a force sensor and a proximity sensor (not shown) are arranged at at least one of the
以上、ロボットシステム1の全体構成について簡単に説明した。次に、制御装置8によるロボットシステム1の制御方法について詳細に説明する。以下では、図2に示すように、対象物100が、貫通孔で構成されている4つ対象111を有する基板110と、基板110に形成されている対象111に挿入する4つのワーク120と、を有する構成となっており、ロボット2が各対象111に1個ずつワーク120を挿入する動作を行う場合について代表して説明する。なお、対象物100の構成やロボット2の動作は、これに限定されない。
The overall configuration of the
図3に示すように、制御装置8は、まず、ステップS1として、ロボット2の駆動を制御して、ハンド27で1つのワーク120を把持させる。次に、制御装置8は、ステップS2として、ロボット2の駆動を制御して、少なくとも1つの対象111がカメラ3の視野(撮像領域)に入るようにアーム200を移動させる。次に、制御装置8は、ステップS3として、カメラ3で基板110、特に対象111を撮像し、その撮像データD1に含まれている対象111を認識する。
As shown in FIG. 3, first, as step S1, the
次に、制御装置8は、ステップS4として、ステップS3で得られた撮像データD1に含まれる対象111から、1つの対象111を「作業対象111A」として選択する。図4に、ステップS3で得られた撮像データD1の一例を示す。この図では、ステップS4において、制御装置8は、左上に位置する対象111を作業対象111Aとして選択している。なお、ステップS3では、プロジェクター71は、基板110に光Lを照射しない。
Next, in step S4, the
制御装置8は、次に、ステップS5として、前ステップS4で選択した作業対象111Aに光Lが照射され、それ以外の対象111には光Lが照射されないように、プロジェクター71の駆動を制御する。例えば、各対象111の位置座標を予め記憶しておくことで、光Lを作業対象111Aに選択的に照射することができる。また、ロボット2の姿勢とカメラ3の撮像データD1とに基づいて作業対象111Aの三次元位置座標を算出し、その結果に基づいてプロジェクター71の駆動を制御することにより、光Lを作業対象111Aに選択的に照射することもできる。ただし、作業対象111Aへの光Lの照射方法は、特に限定されない。また、作業対象111Aへの光Lの照射は、後述するステップS9が終わるまで維持される。
Next, in step S5, the
制御装置8は、次に、ステップS6として、作業対象111Aに光Lが照射されている状態をカメラ3で撮像する。これにより、作業対象111Aが撮像されて認識され、撮像データD2が得られる。制御装置8は、次に、ステップS7として、前ステップS6で得られた撮像データD2に基づいて、ワーク120が作業対象111Aに近づくようにロボット2の駆動を制御する。図5に撮像データD2の一例を示す。ここで、ステップS4において、そのときのアーム200の姿勢でカメラ3によって認識可能な対象111から作業対象111Aを選択しているため、ステップS7におけるアーム200の無駄な動きが抑制される。つまり、ステップS7でのアーム200の移動量を効果的に減らすことができ、ステップS7をより迅速に完了することができる。
Next, in step S6, the
このように、作業対象111Aにだけ光Lを照射することにより、作業対象111Aに影ができ易く、陰を特徴として追加できるため、撮像データD2中の作業対象111Aの特徴量が増加する。また、光Lの輪郭L0による特徴を追加することができるため、撮像データD2中の作業対象111Aの特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。なお、例えば、図6に示すように、光Lの輪郭L0をより複雑な形状とすることにより、光Lの輪郭による特徴がより大きくなるため、撮像データD2中の作業対象111Aの特徴量がより増加する。なお、光Lの輪郭としては、円形や星形に限定されず、例えば、三角形、四角形、五角形以上の多角形等であってもよい。
By irradiating the
制御装置8は、次に、ステップS8として、ワーク120が基板110、特に作業対象111Aに接触したか否かを判断する。当該判断は、例えば、アーム21〜26、ハンド27のいずれかに配置されている前記の力覚センサーが出力する信号に基づいて行うことができる。制御装置8は、ステップS8で、ワーク120が作業対象111Aに接触したと判断するまで、ステップS6〜S8を繰り返す。そして、制御装置8は、ステップS8でワーク120が作業対象111Aに接触したと判断すると、ステップS9として、ロボット2の駆動を制御して、ワーク120を作業対象111Aに挿入する。この際、制御装置8は、インピーダンス制御を用いてロボット2を駆動することにより、当該作業を比較的容易に行うことができる。また、ワーク120を作業対象111Aに挿入し終えるまでは、作業対象111Aに光Lを照射した状態が維持される。
Next, in step S8, the
制御装置8は、次に、ステップS10として、全対象111にワーク120が挿入されたか否かを判断する。この判断結果がNoである場合、他の対象111から新たな作業対象111Aを設定し、ステップS1〜S9を繰り返し行う。そして、制御装置8は、全対象111にワーク120が挿入されたと判断するまで、ステップS1〜S10を繰り返す。
Next, in step S10, the
以上、制御装置8による制御方法について説明した。このような制御方法によれば、ステップS5〜S9の間、光Lによって作業対象111Aが他の対象111と区別されているため、ワーク120を作業対象111Aに挿入し終えるまでに、外部からの衝撃等の不測の事態によってカメラ3の視野から作業対象111Aが外れてしまった場合でも、カメラ3の撮像データに基づいて、容易に、作業対象111Aを再び探し出すことができる。そのため、ワーク120の作業対象111Aへの挿入をより確実に行うことができる。特に、制御装置8の制御方法によれば、作業対象111Aを見失っても再び探し出して作業を再開することができるため、従来のように、ステップS2まで戻ってやり直す必要がない。そのため、作業時間が短縮され、ロボット2の作業効率が高まる。
The control method by the
以上、ロボットシステム1およびロボットシステム1の制御方法について説明した。ロボットシステム1は、前述したように、アーム200を備えるロボット2と、複数の対象111を作業対象111Aと作業対象111A以外とに区別する光Lを照射する光照射部7と、アーム200に配置され、光Lが照射されているときに作業対象111Aを撮像するカメラ3と、カメラ3の撮像データD2に基づいて複数の対象111から作業対象111Aを区別し、アーム200の動作を制御する制御装置8と、を有する。
The control method of the
このような構成によれば、光Lによって作業対象111Aが他の対象111と区別されているため、ロボット2の動作中に、外部からの衝撃等の不測の事態によってカメラ3の視野から作業対象111Aが外れても、カメラ3を用いて、容易に、作業対象111Aを再び探し出すことができる。そのため、ロボット2による作業をより確実に行うことができる。特に、作業対象111Aを見失っても、作業対象111Aを再び探し出して作業を再開することができるため、従来のように、再び、作業対象111Aを選択するステップまで戻ってやり直す必要がない。そのため、作業時間が短縮され、ロボット2の作業効率が高まる。
According to such a configuration, since the
また、前述したように、光照射部7は、作業対象111Aに光Lを照射し、作業対象111A以外の対象111には光Lを照射しない。このような構成によれば、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。また、作業対象111Aに影ができ易く、作業対象111Aのコントラストが高まるため、その分、作業対象111Aの特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。
Further, as described above, the
また、前述したように、光照射部7は、プロジェクター71である。これにより、光照射部7の構成が簡単となる。
Further, as described above, the
また、前述したように、ロボットシステム1の制御方法は、複数の対象111を作業対象111Aと作業対象111A以外とに区別する光Lを光照射部7から照射するステップS5と、ロボット2が備えるアーム200に配置されているカメラ3によって光Lが照射されているときに作業対象111Aを撮像するステップS6と、カメラ3の撮像データD2に基づいて複数の対象111から作業対象111Aを区別し、アーム200の動作を制御するステップS7〜S9と、を含む。
Further, as described above, the control method of the
このような制御方法によれば、光Lによって作業対象111Aが他の対象111と区別されているため、ロボット2の動作中に、外部からの衝撃等の不測の事態によってカメラ3の視野から作業対象111Aが外れても、カメラ3を用いて、容易に、作業対象111Aを再び探し出すことができる。そのため、ロボット2による作業をより確実に行うことができる。特に、作業対象111Aを見失っても、作業対象111Aを再び探し出して作業を再開することができるため、従来のように、再び、作業対象111Aを選択するステップまで戻ってやり直す必要がない。そのため、作業時間が短縮され、ロボット2の作業効率が高まる。
According to such a control method, since the
また、前述したように、光照射部7から光Lを照射するステップS5の前に、カメラ3によって少なくとも1つの対象111を撮像するステップS3と、カメラ3の撮像データD1に含まれる対象111から少なくとも1つの作業対象111Aを選択するステップS4と、を含む。このようなステップを有することにより、作業対象111Aを容易に選択することができる。また、現在のアーム200の姿勢においてカメラ3で認識可能な対象111から作業対象111Aを選択するため、その後の作業におけるアーム200の無駄な動きが抑制される。つまり、ステップS7でのアーム200の移動量を効果的に減らすことができ、ステップS7をより迅速に完了することができる。
Further, as described above, before the step S5 of irradiating the light L from the
<第2実施形態>
図7は、本発明の第2実施形態に係る光の照射方法を示す図である。
<Second Embodiment>
FIG. 7 is a diagram showing a light irradiation method according to a second embodiment of the present invention.
本実施形態は、光照射部7による光Lの照射方法が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図7において、前述した実施形態と同様の構成については、同一符号を付している。
The present embodiment is the same as the above-described first embodiment except that the method of irradiating the light L by the
図7に、ステップS5において基板110の所定位置に光照射部7からの光Lが照射されている状態を示す。なお、図7は、ステップS6においてカメラ3が撮像した撮像データD2として図示している。
FIG. 7 shows a state in which the light L from the
同図に示すように、光照射部7は、作業対象111Aに光Lを照射せず、作業対象111A以外の対象111に光Lを照射している。このような構成によっても、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。
As shown in the figure, the
以上のように、本実施形態の光照射部7は、作業対象111Aに光Lを照射せず、作業対象111A以外の対象111に光Lを照射する。このような構成によれば、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。
As described above, the
このような第2実施形態においても、前述した第1実施形態と同様の効果を発揮することができる。 Also in such a second embodiment, the same effect as that of the first embodiment described above can be exhibited.
<第3実施形態>
図8は、本発明の第3実施形態に係る光の照射方法を示す図である。
<Third Embodiment>
FIG. 8 is a diagram showing a light irradiation method according to a third embodiment of the present invention.
本実施形態は、光照射部7による光Lの照射方法が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図8において、前述した実施形態と同様の構成については、同一符号を付している。
The present embodiment is the same as the above-described first embodiment except that the method of irradiating the light L by the
図8に、ステップS5において基板110の所定位置に光照射部7からの光Lが照射されている状態を示す。なお、図8は、ステップS6においてカメラ3が撮像した撮像データD2として図示している。
FIG. 8 shows a state in which the light L from the
同図に示すように、光照射部7は、全ての対象111に光Lを照射し、作業対象111Aと、作業対象111A以外の対象111と、で光Lの照度を異ならせている。具体的には、作業対象111Aに照射する光L’を、それ以外の対象111に照射する光L”よりも明るくしている。このような構成によっても、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。
As shown in the figure, the
なお、本実施形態とは逆に、作業対象111Aに照射する光L’を、それ以外の対象111に照射する光L”よりも暗くしてもよい。ただし、本実施形態の方が、作業対象111Aに影ができ易く、その分、作業対象111Aの特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。
Contrary to the present embodiment, the light L'irradiating the
以上のように、本実施形態の光照射部7は、作業対象111Aと作業対象111A以外とで異なる照度の光Lを照射する。このような構成によれば、明暗によって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。
As described above, the
このような第3実施形態においても、前述した第1実施形態と同様の効果を発揮することができる。 Also in such a third embodiment, the same effect as that of the first embodiment described above can be exhibited.
<第4実施形態>
図9は、本発明の第4実施形態に係る光の照射方法を示す図である。
<Fourth Embodiment>
FIG. 9 is a diagram showing a light irradiation method according to a fourth embodiment of the present invention.
本実施形態は、光照射部7による光Lの照射方法が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図9において、前述した実施形態と同様の構成については、同一符号を付している。
The present embodiment is the same as the above-described first embodiment except that the method of irradiating the light L by the
図9に、ステップS5において基板110の所定位置に光照射部7からの光Lが照射されている状態を示す。なお、図9は、ステップS6においてカメラ3が撮像した撮像データD2として図示している。
FIG. 9 shows a state in which the light L from the
同図に示すように、光照射部7は、全ての対象111に光Lを照射し、作業対象111Aと、作業対象111A以外の対象111と、で光Lの色(波長)を異ならせている。例えば、作業対象111Aに青色の光Lbを照射し、それ以外の対象111に赤色の光Lrを照射している。このような構成によれば、光Lの色の異なりによって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。ただし、光Lの色の組み合わせは、特に限定されない。
As shown in the figure, the
以上のように、本実施形態の光照射部7は、作業対象111Aと作業対象111A以外とで異なる色の光Lを照射する。このような構成によれば、色の異なりによって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができる。
As described above, the
このような第4実施形態においても、前述した第1実施形態と同様の効果を発揮することができる。 Also in such a fourth embodiment, the same effect as that of the first embodiment described above can be exhibited.
<第5実施形態>
図10は、本発明の第5実施形態に係る光の照射方法を示す図である。図11は、制御方法を示すフローチャートである。
<Fifth Embodiment>
FIG. 10 is a diagram showing a light irradiation method according to a fifth embodiment of the present invention. FIG. 11 is a flowchart showing a control method.
本実施形態は、光照射部7による光Lの照射方法とそれに伴う制御方法とが異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図10において、前述した実施形態と同様の構成については、同一符号を付している。
The present embodiment is the same as the first embodiment described above, except that the method of irradiating the light L by the
図10に、ステップS5において基板110の所定位置に光照射部7からの光Lが照射されている状態を示す。なお、図10は、ステップS6においてカメラ3が撮像した撮像データD2として図示している。
FIG. 10 shows a state in which the light L from the
同図に示すように、光照射部7は、全ての対象111に光Lを照射し、各対象111に照射する光Lの色(波長)を異ならせている。例えば、作業対象111Aに青色の光Lbを照射し、1つの対象111に赤色の光Lrを照射し、1つの対象111に緑色の光Lgを照射し、1つの対象111に黄色の光Lyを照射する。このような構成によれば、光Lの色の異なりによって、複数の対象111を、作業対象111Aとそれ以外とに容易に区別することができると共に、残りの対象111についてもそれぞれ区別することができる。ただし、光Lの色の組み合わせは、特に限定されない。
As shown in the figure, the
このような構成によれば、各ワーク120を対象111に挿入する度に、作業対象111Aを選択し直す手間が省け、ロボット2の作業効率がさらに向上する。以下、具体的に説明する。図11に示すように、制御装置8は、まず、ステップS1として、ロボット2の駆動を制御して、ハンド27で1つのワーク120を把持させる。次に、制御装置8は、ステップS2として、ロボット2の駆動を制御して、少なくとも1つの対象111がカメラ3の視野(撮像領域)に入るようにアーム200を移動させる。次に、制御装置8は、ステップS3として、カメラ3で基板110、特に対象111を撮像し、その撮像データD1に含まれている対象111を認識する。
According to such a configuration, it is possible to save the trouble of reselecting the
次に、制御装置8は、ステップS4として、ステップS3で得られた撮像データD1に含まれる対象111から、1つの対象111を「作業対象111A」として選択する。さらに、制御装置8は、作業対象111Aとして選択しなかった残りの対象111に順番を付け、付けた順番に従って次の「作業対象111A」とすることを決定する。
Next, in step S4, the
次に、制御装置8は、ステップS5として、撮像データD1に含まれる全ての対象111に光Lが照射されるように、プロジェクター71の駆動を制御する。この状態では、図10に示すように、作業対象111Aには青色の光Lbが照射され、1つの対象111には赤色の光Lrが照射され、1つの対象111には緑色の光Lgが照射され、1つの対象111には黄色の光Lyが照射されている。なお、光Lの色と作業対象111Aになる順番は関係付けられており、光Lの色を判断することにより、どの対象111が何番目の作業対象111Aとなるかを制御装置8が記憶している。以下では、説明の便宜上、赤色の光Lrが照射されている対象111を「対象111r」とも言い、緑色の光Lgが照射されている対象111を「対象111g」とも言い、黄色の光Lyが照射されている対象111を「対象111y」とも言う。
Next, in step S5, the
制御装置8は、次に、ステップS6として、作業対象111Aに光Lbが照射されている状態をカメラ3で撮像する。制御装置8は、次に、ステップS7として、前ステップS6で得られた撮像データD2に基づいて、ワーク120が作業対象111Aに近づくようにロボット2の駆動を制御する。制御装置8は、次に、ステップS8として、前記のセンサーの出力信号に基づいて、ワーク120が作業対象111Aに接触したか否かを判断する。制御装置8は、ステップS8で、ワーク120が作業対象111Aに接触したと判断するまで、ステップS6〜S8を繰り返す。そして、制御装置8は、ステップS8でワーク120が作業対象111Aに接触したと判断すると、ステップS9として、ロボット2の駆動を制御して、ワーク120を作業対象111Aに挿入する。
Next, in step S6, the
制御装置8は、次に、ステップS10として、光Lが照射されている対象111の全てを作業対象111Aとしたか否かを判断する。そして、制御装置8は、対象111r、111g、111yを順に作業対象111Aとし、ステップS11として、ワーク120を新たにハンド27で把持させた後、対象111r、111g、111yごとにステップS6〜S11を繰り返し行う。なお、光Lが照射されている対象111の全てを作業対象111Aとし終えるまでは、光Lが照射された状態が維持される。制御装置8は、光Lが照射されている対象111の全てを作業対象111Aとした後、ステップS12として、基板110に含まれる全ての対象111にワーク120が挿入されたか否かを判断する。制御装置8は、全ての対象111にワーク120が挿入されたと判断するまで、ステップS1〜S12を繰り返す。
Next, in step S10, the
以上、制御装置8による制御方法について説明した。このような制御方法によれば、ワーク120毎に、作業対象111Aを選択し直す必要がなくなるため、前述した第1実施形態と比べて、ロボット2の作業効率が高まる。
The control method by the
<第6実施形態>
図12は、本発明の第6実施形態に係るロボットシステムを示す全体図である。
<Sixth Embodiment>
FIG. 12 is an overall view showing a robot system according to a sixth embodiment of the present invention.
本実施形態は、光照射部7による光Lの照射方法が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図12において、前述した実施形態と同様の構成については、同一符号を付している。
The present embodiment is the same as the above-described first embodiment except that the method of irradiating the light L by the
図12に示すように、本実施形態の光照射部7は、カメラ3から見て裏側から作業対象111Aに光Lを照射する。本実施形態では、カメラ3が作業対象111Aの図12中の上側に位置する状態でロボット2の作業が行われるため、光照射部7は、作業対象111Aの下側から光Lを照射する。このような構成によれば、アーム200で光Lが遮蔽されることがないため、光Lを作業対象111Aにより確実に照射することができる。また、作業対象111Aに影が生じ易く、作業対象111Aのコントラストが高まるため、その分、作業対象111Aの特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。
As shown in FIG. 12, the
このような第6実施形態においても、前述した第1実施形態と同様の効果を発揮することができる。 Also in such a sixth embodiment, the same effect as that of the first embodiment described above can be exhibited.
<第7実施形態>
図13は、本発明の第7実施形態に係るロボットシステムを示す全体図である。
<7th Embodiment>
FIG. 13 is an overall view showing a robot system according to a seventh embodiment of the present invention.
本実施形態は、光照射部7およびカメラ3の構成が異なること以外は、前述した第1実施形態と同様である。なお、以下の説明では、本実施形態に関し、前述した実施形態との相違点を中心に説明し、同様の事項に関してはその説明を省略する。また、図13において、前述した実施形態と同様の構成については、同一符号を付している。
This embodiment is the same as the above-described first embodiment except that the configurations of the
本実施形態では、環境光と異なる波長の光、具体的には赤外線を用いている。これにより、環境光と光Lとを区別することができ、カメラ3によって光Lをより精度よく認識することができる。また、図13に示すように、カメラ3には、環境光をカットして光Lを透過する波長フィルター4が設けられており、光L以外の光を効果的に除去できるようになっている。そのため、光Lの輪郭がより鮮明となり、撮像データD2の特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。
In this embodiment, light having a wavelength different from that of ambient light, specifically infrared light is used. Thereby, the ambient light and the light L can be distinguished, and the light L can be recognized more accurately by the
以上のように、本実施形態のロボットシステム1では、カメラ3は、所定領域内の波長の光を透過する波長フィルター4を有し、光照射部7が照射する光Lの波長は、前記所定領域内の波長を含む。つまり、カメラ3は、光Lを透過する波長フィルター4を有する。これにより、例えば、環境光等の光L以外の光を効果的に除去することができる。そのため、カメラ3で光Lの輪郭をより鮮明に認識することができ、撮像データD2の特徴量が増加する。したがって、撮像データD2に基づく画像認識精度が向上し、ステップS7をより精度よく行うことができる。
As described above, in the
以上、本発明のロボットシステムおよびロボットシステムの制御方法について、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。また、各実施形態を適宜組み合わせてもよい。 The robot system of the present invention and the control method of the robot system have been described above based on the illustrated embodiment, but the present invention is not limited to this, and the configuration of each part is arbitrary having the same function. It can be replaced with the one of the configuration. Further, any other constituents may be added to the present invention. In addition, each embodiment may be combined as appropriate.
1…ロボットシステム、2…ロボット、20…ベース、200…アーム、21…第1アーム、22…第2アーム、23…第3アーム、24…第4アーム、25…第5アーム、26…第6アーム、27…ハンド、3…カメラ、4…波長フィルター、7…光照射部、71…プロジェクター、8…制御装置、81…ロボット制御部、82…対象物認識部、83…光照射部制御部、9…ホストコンピューター、100…対象物、110…基板、111、111g、111r、111y…対象、111A…作業対象、120…ワーク、D1、D2…撮像データ、L、L’、L”、Lb、Lg、Lr、Ly…光、S1〜S12…ステップ 1 ... Robot system, 2 ... Robot, 20 ... Base, 200 ... Arm, 21 ... 1st arm, 22 ... 2nd arm, 23 ... 3rd arm, 24 ... 4th arm, 25 ... 5th arm, 26 ... 6 arm, 27 ... hand, 3 ... camera, 4 ... wavelength filter, 7 ... light irradiation unit, 71 ... projector, 8 ... control device, 81 ... robot control unit, 82 ... object recognition unit, 83 ... light irradiation unit control Department, 9 ... Host computer, 100 ... Object, 110 ... Board, 111, 111g, 111r, 111y ... Target, 111A ... Work target, 120 ... Work, D1, D2 ... Imaging data, L, L', L ", Lb, Lg, Lr, Ly ... light, S1 to S12 ... steps
Claims (10)
複数の対象を作業対象と前記作業対象以外とに区別する光を照射する光照射部と、
前記アームに配置され、前記光が照射されているときに前記作業対象を撮像するカメラと、
前記カメラの撮像データに基づいて前記複数の対象から前記作業対象を区別し、前記アームの動作を制御する制御装置と、を有することを特徴とするロボットシステム。 A robot with an arm and
A light irradiation unit that irradiates light that distinguishes a plurality of objects from a work object and a non-work object.
A camera that is placed on the arm and captures the work object when the light is irradiated.
A robot system comprising a control device that distinguishes the work object from the plurality of objects based on the image data of the camera and controls the operation of the arm.
前記光照射部が照射する前記光の波長は、前記所定領域内の波長を含む請求項1ないし6のいずれか1項に記載のロボットシステム。 The camera has a wavelength filter that transmits light of a wavelength within a predetermined region.
The robot system according to any one of claims 1 to 6, wherein the wavelength of the light emitted by the light irradiation unit includes a wavelength within the predetermined region.
ロボットが備えるアームに配置されているカメラによって前記光が照射されているときに前記作業対象を撮像するステップと、
前記カメラの撮像データに基づいて前記複数の対象から前記作業対象を区別し、前記アームの動作を制御するステップと、を含むことを特徴とするロボットシステムの制御方法。 A step of irradiating a light irradiation unit with light that distinguishes a plurality of objects into a work object and a non-work object.
A step of imaging the work object when the light is irradiated by a camera arranged on an arm provided by the robot, and
A method for controlling a robot system, which comprises a step of distinguishing the work target from the plurality of targets based on image data of the camera and controlling the operation of the arm.
前記カメラによって少なくとも1つの前記対象を撮像するステップと、
前記カメラの撮像データに含まれる少なくとも1つの前記対象から前記作業対象を選択するステップと、を含む請求項9に記載のロボットシステムの制御方法。 Before the step of irradiating the light from the light irradiation unit,
The step of imaging at least one object by the camera,
The control method for a robot system according to claim 9, further comprising a step of selecting the work target from at least one target included in the image data of the camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019062580A JP2020157461A (en) | 2019-03-28 | 2019-03-28 | Robot system and control method of robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019062580A JP2020157461A (en) | 2019-03-28 | 2019-03-28 | Robot system and control method of robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020157461A true JP2020157461A (en) | 2020-10-01 |
Family
ID=72641058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019062580A Pending JP2020157461A (en) | 2019-03-28 | 2019-03-28 | Robot system and control method of robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020157461A (en) |
-
2019
- 2019-03-28 JP JP2019062580A patent/JP2020157461A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10839261B2 (en) | Information processing apparatus, information processing method, and storage medium | |
CN108297096B (en) | Calibration device, calibration method, and computer-readable medium | |
JP4309439B2 (en) | Object take-out device | |
US20180211138A1 (en) | Information processing device, information processing method, and storage medium | |
US10805546B2 (en) | Image processing system, image processing device, and image processing program | |
US11185977B2 (en) | Information processing apparatus, grasping system, and information processing method | |
US20170142340A1 (en) | Image processing apparatus, robot system, robot, and image processing method | |
KR102178013B1 (en) | Training data generation method and pose determination method for grasping object | |
US10207409B2 (en) | Image processing method, image processing device, and robot system | |
US11590657B2 (en) | Image processing device, control method thereof, and program storage medium | |
US9595095B2 (en) | Robot system | |
WO2023045933A1 (en) | Fault detection method and apparatus for fundus camera, and storage medium | |
JP2010058243A (en) | Picking device | |
JP2006021300A (en) | Predicting device and holding device | |
JP2020157461A (en) | Robot system and control method of robot system | |
CN110524538B (en) | Image processing device, robot, and robot system | |
JPWO2021015883A5 (en) | ||
US11717970B2 (en) | Controller, control method using controller, and control system | |
JP6618337B2 (en) | Object detection apparatus, object detection method, and computer program | |
JP2006007390A (en) | Imaging device, imaging method, imaging program, and computer-readable recording medium having the imaging program recorded thereon | |
JP2016221602A (en) | Robot, control device and program | |
JP2020040812A (en) | Output control device and output control method | |
US20230415349A1 (en) | Method for controlling a robot for manipulating, in particular picking up, an object | |
JP2001307072A (en) | Recognition system, recognition device, recognition method and storage medium | |
JP2020174536A (en) | Harvesting device, control method thereof, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD07 | Notification of extinguishment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7427 Effective date: 20200811 |