JP2015074061A - Robot control device, robot system, robot, robot control method and robot control program - Google Patents
Robot control device, robot system, robot, robot control method and robot control program Download PDFInfo
- Publication number
- JP2015074061A JP2015074061A JP2013212930A JP2013212930A JP2015074061A JP 2015074061 A JP2015074061 A JP 2015074061A JP 2013212930 A JP2013212930 A JP 2013212930A JP 2013212930 A JP2013212930 A JP 2013212930A JP 2015074061 A JP2015074061 A JP 2015074061A
- Authority
- JP
- Japan
- Prior art keywords
- end point
- control unit
- image
- command value
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
本発明は、ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラムに関する。 The present invention relates to a robot control device, a robot system, a robot, a robot control method, and a robot control program.
特許文献1には、対象物が検知された場合、目標位置よりも対象物に近い位置を新たな目標位置として、新たな目標位置までの新たな経路を設定すること、そして、移動制御を切り替えるための切替条件が満たされるまでは新たな経路に沿ってティーチングプレイバック制御を実行し、切替条件が満たされたら視覚サーボ制御を実行することが開示されている。
In
特許文献1に記載の発明は、位置制御(ティーチングプレイバック制御)のあとでビジュアルサーボ(視覚サーボ制御)に切り替える点に特徴がある。しかしながら、特許文献1に記載の発明では、位置制御によりマニュピュレータを移動させる方向と、ビジュアルサーボによりマニュピュレータを移動させる方向とが大きく異なる場合に、モーターに過負荷がかかり、最悪の場合ロボットが停止してしまうという問題や、アームが振動して制御がうまくいかない可能性があるという問題がある。
The invention described in
そこで、本発明は、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができるロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラムを提供することを目的とする。 Therefore, the present invention provides a robot control device, a robot system, a robot, a robot control method, and a robot control program that can cope with a change in target position while maintaining high speed of position control. Objective.
上記課題を解決するための第一の態様は、ロボット制御装置であって、ロボットのアームのエンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、目標位置へ移動させるように指令値を生成する第1制御部と、前記エンドポイントが前記目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成する第2制御部と、前記第1制御部により生成された指令値と、前記第2制御部により生成された指令値とを用いて前記アームを移動させる駆動制御部と、を備えることを特徴とする。 A first aspect for solving the above-described problem is a robot control device, in which an end point of a robot arm is set to a target position based on a path formed based on one or more set teaching positions. A first control unit that generates a command value to move; a target image that is an image including the end point when the end point is at the target position; and the end when the end point is at a current position. An image acquisition unit that acquires a current image that is an image including a point, and a command value that generates a command value to move the end point from the current position to the target position based on the current image and the target image Drive control for moving the arm using a command value generated by the second control unit, the first control unit, and a command value generated by the second control unit. Characterized in that it comprises a part, a.
第一の態様によれば、ロボットのアームのエンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、目標位置へ移動させるように指令値を生成し、かつ現在画像及び目標画像に基づいて、エンドポイントを現在位置から目標位置に移動させるように指令値を生成する。そして、これらの指令値を用いてアームを移動させる。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 According to the first aspect, the command value is generated so as to move the end point of the robot arm to the target position based on a path formed based on the set one or more teaching positions, and Based on the image and the target image, a command value is generated so as to move the end point from the current position to the target position. Then, the arm is moved using these command values. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
上記課題を解決するための第二の態様は、ロボット制御装置であって、ロボットのアームのエンドポイントを目標位置に近づけるように前記エンドポイントの軌道を生成する制御部と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像及び前記エンドポイントが前記目標位置にあるときの前記エンドポイントを含む画像である目標画像を取得する画像取得部と、を備え、前記制御部は、設定された1以上の教示位置に基づいて形成される経路と、前記現在画像及び前記目標画像とに基づいて前記アームを移動させることを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 A second aspect for solving the above-described problem is a robot control device, which generates a trajectory of the end point so that the end point of the robot arm approaches a target position, and the end point is currently An image acquisition unit that acquires a current image that is an image including the end point when in a position and a target image that is an image including the end point when the end point is at the target position, and the control The unit moves the arm based on a path formed based on one or more set teaching positions, and the current image and the target image. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
ここで、前記駆動制御部は、前記第1制御部により生成された指令値と、前記第2制御部により生成された指令値とを、それぞれ所定の重みで足し合わせた信号を用いて前記アームを移動させてもよい。これにより、所望の軌道となるように、エンドポイントの軌道を移動させることができる。例えば、エンドポイントの軌道を、理想的ではないがハンドアイカメラの画角に対象物が含まれる軌道とすることができる。 Here, the drive control unit uses the signals obtained by adding the command value generated by the first control unit and the command value generated by the second control unit with predetermined weights, respectively. May be moved. Thereby, the trajectory of the end point can be moved so as to be a desired trajectory. For example, the trajectory of the end point may be a trajectory that is not ideal but includes the object at the angle of view of the hand-eye camera.
ここで、前記駆動制御部は、前記所定の重みを、前記現在位置と前記目標位置との差分に基づいて決定してもよい。これにより、距離に応じて連続的に重みを変えることができ、したがって制御を滑らかに切り替えることができる。 Here, the drive control unit may determine the predetermined weight based on a difference between the current position and the target position. Thereby, the weight can be continuously changed according to the distance, and therefore the control can be switched smoothly.
ここで、前記所定の重みを入力する入力部を備えてもよい。これにより、アームをユーザーの希望する軌道で制御することができる。 Here, an input unit for inputting the predetermined weight may be provided. Thereby, the arm can be controlled in a trajectory desired by the user.
ここで、前記所定の重みを記憶する記憶部を備えてもよい。これにより、予め初期設定された重みを用いることができる。 Here, a storage unit for storing the predetermined weight may be provided. This makes it possible to use weights that are preset in advance.
ここで、前記駆動制御部は、前記現在位置が所定の条件を満たす場合には、前記第1制御部により生成された軌道に基づく指令値を用いて前記アームを駆動し、前記現在位置が前記所定の条件を満たさない場合には、前記第1制御部により生成された軌道に基づく指令値と、前記第2制御部により生成された軌道に基づく指令値とを用いて前記アームを移動させてもよい。これにより、より高速に処理を行うことができる。 Here, when the current position satisfies a predetermined condition, the drive control unit drives the arm using a command value based on the trajectory generated by the first control unit, and the current position is If the predetermined condition is not satisfied, the arm is moved using a command value based on the trajectory generated by the first control unit and a command value based on the trajectory generated by the second control unit. Also good. Thereby, processing can be performed at higher speed.
ここで、前記エンドポイントにかかる力を検出する力検出部と、前記力検出部で検出される値に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように前記エンドポイントの軌道を生成する第3制御部と、を備え、前記駆動制御部は、前記第1制御部により生成された軌道に基づく指令値と、前記第2制御部により生成された軌道に基づく指令値と、前記第3制御部により生成された軌道に基づく指令値とを用いて、又は、前記第1制御部により生成された軌道に基づく指令値と、前記第3制御部により生成された軌道に基づく指令値とを用いて前記アームを移動させてもよい。これにより、目標位置が移動する場合や、目標位置が視認できない場合においても、位置制御の高速さを維持しつつ、安全に作業を行うことができる。位置制御の高速さを維持しつつ、安全に作業を行うことができる。 Here, based on a value detected by the force detection unit that detects the force applied to the end point, and the value detected by the force detection unit, the end point is moved from the current position to the target position. A third control unit that generates a trajectory, wherein the drive control unit includes a command value based on the trajectory generated by the first control unit, and a command value based on the trajectory generated by the second control unit; Using the command value based on the trajectory generated by the third control unit or based on the command value based on the trajectory generated by the first control unit and the trajectory generated by the third control unit. The arm may be moved using a command value. Thereby, even when the target position moves or when the target position cannot be visually recognized, the work can be performed safely while maintaining the high speed of the position control. Work can be performed safely while maintaining high speed of position control.
上記課題を解決するための第三の態様は、ロボットシステムであって、アームを有するロボットと、前記アームのエンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、目標位置へ移動させるように指令値を生成する第1制御部と、前記エンドポイントが前記目標位置にあるときの、前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現時点での位置である現在位置にあるときの、前記エンドポイントを含む画像である現在画像を撮像する撮像部と、前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成する第2制御部と、前記第1制御部により生成された指令値と、前記第2制御部により生成された指令値とを用いて前記アームを移動させる駆動制御部と、を備えることを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 According to a third aspect of the present invention, there is provided a robot system including a robot having an arm and an end point of the arm based on a path formed based on one or more set teaching positions. A first control unit that generates a command value to move to a target position, a target image that is an image including the end point when the end point is at the target position, and the end point is An imaging unit that captures a current image that is an image including the end point when the current position is a position, and the end point is changed from the current position to the target position based on the current image and the target image. A second control unit for generating a command value to move, a command value generated by the first control unit, and a command value generated by the second control unit Characterized in that it comprises a drive control unit for moving the arm with. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
上記課題を解決するための第四の態様は、ロボットシステムであって、アームを有するロボットと、前記アームのエンドポイントを目標位置に近づけるように前記エンドポイントの軌道を生成する制御部と、前記エンドポイントが現時点での位置である現在位置にあるときの前記エンドポイントを含む画像である現在画像及び前記エンドポイントが前記目標位置にあるときの前記エンドポイントを含む画像である目標画像を撮像する撮像部と、を備え、前記制御部は、設定された1以上の教示位置に基づいて形成される経路と、前記現在画像及び前記目標画像とに基づいて前記アームを移動させることを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 A fourth aspect for solving the above-described problem is a robot system, which includes a robot having an arm, a control unit that generates a trajectory of the end point so that the end point of the arm approaches a target position, A current image that is an image including the end point when the end point is at a current position that is a current position and a target image that is an image including the end point when the end point is at the target position are captured. An imaging unit, wherein the control unit moves the arm based on a path formed based on one or more set teaching positions, the current image, and the target image. . Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
上記課題を解決するための第五の態様は、ロボットであって、アームと、前記アームのエンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、目標位置へ移動させるように指令値を生成する第1制御部と、前記エンドポイントが前記目標位置にあるときの、前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現時点での位置である現在位置にあるときの、前記エンドポイントを含む画像である現在画像を取得する画像取得部と、前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成する第2制御部と、前記第1制御部により生成された指令値と、前記第2制御部により生成された指令値とを用いて前記アームを移動させる駆動制御部と、を備えることを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 A fifth aspect for solving the above-described problem is a robot, in which an arm and an end point of the arm are moved to a target position based on a path formed based on one or more set teaching positions. A first control unit that generates a command value so as to move, a target image that is an image including the end point when the end point is at the target position, and a current state where the end point is a current position An image acquisition unit that acquires a current image that is an image including the end point when in position, and moves the end point from the current position to the target position based on the current image and the target image A second control unit that generates a command value, a command value generated by the first control unit, and a command value generated by the second control unit. Characterized in that it comprises a drive control unit for moving the. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
上記課題を解決するための第六の態様は、ロボットであって、アームと、前記アームのエンドポイントを目標位置に近づけるように前記エンドポイントの軌道を生成する制御部と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像及び前記エンドポイントが前記目標位置にあるときの前記エンドポイントを含む画像である目標画像を取得する画像取得部と、を備え、前記制御部は、設定された1以上の教示位置に基づいて形成される経路と、前記現在画像及び前記目標画像とに基づいて前記アームを移動させることを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 A sixth aspect for solving the above-described problem is a robot, in which an arm, a control unit that generates a trajectory of the end point so that the end point of the arm approaches a target position, and the end point is currently An image acquisition unit that acquires a current image that is an image including the end point when in a position and a target image that is an image including the end point when the end point is at the target position, and the control The unit moves the arm based on a path formed based on one or more set teaching positions, and the current image and the target image. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
上記課題を解決するための第七の態様は、ロボット制御方法であって、ロボットのアームのエンドポイントが目標位置にあるときの、前記エンドポイントを含む画像である目標画像を取得するステップと、前記エンドポイントが現時点での位置である現在位置にあるときの、前記エンドポイントを含む画像である現在画像を取得するステップと、前記エンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、前記目標位置へ移動させるように指令値を生成し、かつ前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成し、これらを用いて前記アームを移動させるステップと、ことを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 A seventh aspect for solving the above-described problem is a robot control method, the step of obtaining a target image that is an image including the end point when the end point of the arm of the robot is at the target position; Obtaining a current image that is an image including the end point when the end point is at a current position that is a current position; and forming the end point based on one or more set teaching positions Generating a command value to move to the target position based on the route to be moved, and commanding to move the end point from the current position to the target position based on the current image and the target image Generating values and using them to move the arm. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
上記課題を解決するための第八の態様は、ロボット制御方法であって、アームと、前記アームのエンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像及び前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像を取得する画像取得部と、を有するロボットの前記アームを制御するロボット制御方法であって、設定された1以上の教示位置に基づいて形成される経路に基づく位置制御による指令値と、前記現在画像及び前記目標画像に基づくビジュアルサーボに基づく指令値とを用いて前記アームを制御することを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 An eighth aspect for solving the above problem is a robot control method, wherein an arm, a current image that is an image including the end point when the end point of the arm is at a current position, and the end point are An image acquisition unit that acquires a target image that is an image including the end point when it is at a target position, and a robot control method for controlling the arm of the robot, based on one or more set teaching positions The arm is controlled using a command value based on position control based on a path formed in this way and a command value based on visual servo based on the current image and the target image. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
上記課題を解決するための第九の態様は、ロボット制御方法であって、アームと、前記アームのエンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像及び前記エンドポイントが目標位置にあるときの前記エンドポイントを含む画像である目標画像を取得する画像取得部と、を有するロボットの前記アームを制御するロボット制御方法であって、設定された1以上の教示位置に基づいて形成される経路に基づく位置制御と、前記現在画像及び前記目標画像に基づくビジュアルサーボとを同時に行うことを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 A ninth aspect for solving the above problem is a robot control method, wherein an arm, a current image that is an image including the end point when the end point of the arm is at a current position, and the end point are An image acquisition unit that acquires a target image that is an image including the end point when it is at a target position, and a robot control method for controlling the arm of the robot, based on one or more set teaching positions The position control based on the formed path and the visual servo based on the current image and the target image are performed simultaneously. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
上記課題を解決するための第九の態様は、ロボット制御プログラムであって、ロボットのアームのエンドポイントが目標位置にあるときの、前記エンドポイントを含む画像である目標画像を取得するステップと、前記エンドポイントが現時点での位置である現在位置にあるときの、前記エンドポイントを含む画像である現在画像を取得するステップと、前記エンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、前記目標位置へ移動させるように指令値を生成し、かつ前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成し、これらを用いて前記アームを移動させるステップと、を演算装置に実行させることを特徴とする。これにより、位置制御の高速さを維持しつつ、目標位置が変わった場合にも対応することができる。 A ninth aspect for solving the above problem is a robot control program, the step of obtaining a target image that is an image including the end point when the end point of the arm of the robot is at the target position; Obtaining a current image that is an image including the end point when the end point is at a current position that is a current position; and forming the end point based on one or more set teaching positions Generating a command value to move to the target position based on the route to be moved, and commanding to move the end point from the current position to the target position based on the current image and the target image Generating a value and using these to move the arm, and causing the arithmetic unit to execute the step. Thereby, it is possible to cope with the case where the target position is changed while maintaining the high speed of the position control.
本発明の一実施形態について、図面を参照しながら説明する。 An embodiment of the present invention will be described with reference to the drawings.
<第1の実施形態>
図1は、本発明の一実施形態におけるロボットシステム1の構成の一例を示すシステム構成図である。本実施形態におけるロボットシステム1は、主として、ロボット10と、制御部20と、第1撮像部30と、第2撮像部40とを備える。
<First Embodiment>
FIG. 1 is a system configuration diagram showing an example of a configuration of a
ロボット10は、複数のジョイント(関節)12と、複数のリンク13とを含むアーム11を有するアーム型のロボットである。ロボット10は、制御部20からの制御信号に従い処理を行う。
The
ジョイント12には、それらを動作させるためのアクチュエーター(図示せず)が設けられる。アクチュエーターは、例えば、サーボモーターやエンコーダーなどを備える。エンコーダーが出力するエンコーダー値は、制御部20によるロボット10のフィードバック制御に使用される。
The joint 12 is provided with an actuator (not shown) for operating them. The actuator includes, for example, a servo motor and an encoder. The encoder value output from the encoder is used for feedback control of the
アーム11の先端近傍には、ハンドアイカメラ15が設けられる。ハンドアイカメラ15は、アーム11の先端にある物体を撮像して、画像データを生成するユニットである。ハンドアイカメラ15としては、例えば、可視光カメラ、赤外線カメラ等を採用することができる。
A
アーム11の先端部分の領域であって、ロボット10の他の領域(後に説明するハンド14を除く)と接続されていない領域を、アーム11のエンドポイントと定義する。本実施の形態では、図1に示す点Eの位置をエンドポイントの位置とする。
An area of the tip portion of the
なお、ロボット10の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。一般的な把持ロボットが備える構成を排除するものではない。例えば、図1では6軸のアームが示されているが、軸数(ジョイント数)をさらに増加させてもよいし、減らしてもよい。リンクの数を増減させてもよい。また、アーム、リンク、ジョイント等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。
Note that the configuration of the
制御部20は、ロボット10の全体を制御する処理を行う。制御部20は、ロボット10の本体とは離れた場所に設置してもよいし、ロボット10に内蔵してもよい。制御部20がロボット10の本体と離れた場所に設置されている場合には、制御部20は、有線又は無線でロボット10と接続される。
The
第1撮像部30及び第2撮像部40は、アーム11の作業領域付近をそれぞれ異なる角度から撮像して、画像データを生成するユニットである。第1撮像部30及び第2撮像部40は、例えば、カメラを含み、作業台、天井、壁などに設けられる。第1撮像部30及び第2撮像部40としては、可視光カメラ、赤外線カメラ等を採用することができる。第1撮像部30及び第2撮像部40は制御部20に接続され、第1撮像部30及び第2撮像部40により撮像された画像は制御部20に入力される。なお、第1撮像部30及び第2撮像部40は、制御部20ではなくロボット10に接続されるようにしてもよいし、ロボット10に内蔵されるようにしてもよい。この場合には、第1撮像部30及び第2撮像部40により撮像された画像は、ロボット10を介して制御部20に入力される。
The
次に、ロボットシステム1の機能構成例について説明する。図2は、ロボットシステム1の機能ブロック図を示している。
Next, a functional configuration example of the
ロボット10は、アクチュエーターのエンコーダー値、及びセンサーのセンサー値等に基づいてアーム11を制御する動作制御部101を備える。
The
動作制御部101は、制御部20から出力された情報と、アクチュエーターのエンコーダー値、及びセンサーのセンサー値等とに基づいて、制御部20から出力された位置にアーム11を移動させるように、アクチュエーターを駆動させる。エンドポイントの現在位置は、ジョイント12等に設けられたアクチュエーターにおけるエンコーダー値等から求めることができる。
The
制御部20は、主として、位置制御部200と、ビジュアルサーボ部210と、駆動制御部220とを備える。位置制御部200は、主として、経路取得部201と、第1制御部202とを備える。ビジュアルサーボ部210は、主として画像取得部211と、画像処理部212と、第2制御部213とを備える。
The
位置制御部200は、予め設定される所定の経路に沿ってアーム11を移動させる位置制御を実行する。
The
経路取得部201は、経路に関する情報を取得する。経路は、教示位置に基づくものであり、例えば予め教示により設定された1以上の教示位置を予め設定された所定の順番で結ぶことで形成される。なお、経路に関する情報、例えば座標や経路内における順番を示す情報は、メモリー22(後の説明、図4等参照)に保持されている。メモリー22に保持される経路に関する情報は、入力装置25等を介して入力されてもよい。なお、経路に関する情報には、エンドポイントの最終的な位置、すなわち目標位置に関する情報も含まれる。
The
第1制御部202は、経路取得部201により取得された経路に関する情報に基づいて、次の教示位置、すなわちエンドポイントの軌道を設定する。
The
また、第1制御部202は、エンドポイントの軌道に基づいてアーム11の次の移動位置、すなわちジョイント12に設けられた各アクチュエーターの目標角度を決定する。また、第1制御部202は、目標角度だけアーム11を移動させるような指令値を生成し、駆動制御部220へ出力する。なお、第1制御部202が行う処理は、一般的な内容であるため、詳細な説明を省略する。
Further, the
ビジュアルサーボ部210は、第1撮像部30と、第2撮像部40が撮像した画像に基づいて、目標物との相対的な位置の変化を視覚情報として計測し、それをフィードバック情報として用いることによって目標物を追跡する制御手法であるいわゆるビジュアルサーボを実行して、アーム11を移動させる。
The
なお、ビジュアルサーボとして、視差が生じるような2枚の画像を利用して画像を立体として認識させるステレオグラム等の方法を用いて計算した対象の3次元位置情報に基づいてロボットを制御する位置ベース法や、直交する方向から2個の撮像部で撮像した画像と、予め保持している各撮像部のゴール画像との差がゼロになる(各画像の画素数分の誤差行列がゼロになる)ようにロボットを制御する特徴ベース法等の方法を用いることができる。例えば、本実施の形態では、特徴ベース法を採用する。なお、特徴ベース法は、1台の撮像部を用いて行うことができるが、精度を向上させるために2台の撮像部を用いることが望ましい。 As a visual servo, a position base that controls a robot based on three-dimensional position information of an object calculated using a method such as a stereogram that recognizes an image as a three-dimensional image using two images that generate parallax. Or the difference between the image captured by the two image capturing units from the orthogonal direction and the goal image of each image capturing unit held in advance is zero (the error matrix corresponding to the number of pixels of each image is zero) A method such as a feature-based method for controlling the robot can be used. For example, in the present embodiment, a feature-based method is adopted. Note that the feature-based method can be performed using one imaging unit, but it is desirable to use two imaging units in order to improve accuracy.
画像取得部211は、第1撮像部30が撮像した画像(以下、第1画像という)及び第2撮像部40が撮像した画像(以下、第2画像という)を取得する。画像取得部211が取得した第1画像及び第2画像は、画像処理部212に出力される。
The
画像処理部212は、画像取得部211から取得した第1画像及び第2画像から、第1画像及び第2画像からエンドポイントの先端を認識し、エンドポイントを含む画像を抽出する。なお、画像処理部212が行う画像認識処理は、一般的な様々な技術を用いることができるため、説明を省略する。
The
第2制御部213は、画像処理部212により抽出された画像(以下、現在画像という)と、エンドポイントが目標位置にある時の画像(以下、目標画像という)とに基づいてエンドポイントの軌道、すなわちエンドポイントの移動量及び移動方向を設定する。なお、目標画像は、予め取得したものをメモリー22等に記憶しておけばよい。
The
また、第2制御部213は、エンドポイントの移動量及び移動方向に基づいて、ジョイント12に設けられた各アクチュエーターの目標角度を決定する。さらに、第2制御部213は、目標角度だけアーム11を移動させるような指令値を生成し、駆動制御部220へ出力する。なお、第2制御部213が行う処理は、一般的な内容であるため、詳細な説明を省略する。
Further, the
なお、関節を持つロボット10では、各関節の角度を決定すると、フォワードキネマティクス処理によりエンドポイントの位置は一意に決定される。つまり、N関節ロボットではN個の関節角度により1つの目標位置を表現できることになるから、当該N個の関節角度の組を1つの目標関節角度とすれば、エンドポイントの軌道を関節角度の集合と考えることができる。よって、第1制御部202及び第2制御部213から出力される指令値は、位置に関する値(目標位置)であってもよいし、関節の角度に関する値(目標角度)であってもよい。
In the
駆動制御部220は、第1制御部202及び第2制御部213から取得した情報に基づいて、エンドポイントの位置、すなわちアーム11を移動させるように、動作制御部101に指示を出力する。駆動制御部220が行う処理の詳細については、後に詳述する。
Based on the information acquired from the
図3は、ロボットシステム1のデータフロー図である。
FIG. 3 is a data flow diagram of the
位置制御部200においては、位置制御によりロボットの各関節を目標角度に近づける為のフィードバックループが回っている。あらかじめ設定された経路の情報には、目標位置に関する情報が含まれる。第1制御部202は、目標位置に関する情報を取得すると、目標位置に関する情報と、経路取得部201により取得された現在位置とに基づいて軌道及び指令値(ここでは目標角度)を生成する。
In the
ビジュアルサーボ部210においては、第1撮像部30及び第2撮像部40からの情報を用いて目標位置に近づけるためのビジュアルフィードバックループが回っている。第2制御部213は、目標位置に関する情報として目標画像を取得する。第2制御部213は、現在画像及び現在画像上における目標位置は、画像上における座標系で表されているため、これをロボットにおける座標系に変換する。第2制御部213は、変換後の現在の現在画像及び目標画像に基づいて、軌道及び指令値(ここでは目標角度)を生成する。
In the
駆動制御部220は、第1制御部202から出力された指令値と、第2制御部213から出力された指令値とに基づいた指令値をロボット10に出力する。具体的には、駆動制御部220は、第1制御部202から出力された指令値にαという係数をかけ、第2制御部213から出力された指令値に1−αという係数をかけ、これらを合成したものをロボット10に出力する。ここで、αは0より大きく、1より小さい実数である。
The
なお、第1制御部202から出力された指令値と、第2制御部213から出力された指令値とに基づいた指令値の形態は、これに限定されない。
The form of the command value based on the command value output from the
ここで、本実施の形態では、第1制御部202からは一定の間隔(例えば1ミリ秒(msec)おき)で指令値が出力され、第2制御部213からは第1制御部202からの出力間隔より長い間隔(例えば30msecおき)で指令値が出力される。したがって、駆動制御部220は、第2制御部213から指令値が出力されていない場合には、第1制御部202から出力された指令値にαという係数をかけ、最後に第2制御部213から出力された指令値に1−αという係数をかけ、これらを合成したものをロボット10に出力する。駆動制御部220は、最後に第2制御部213から出力された指令値は、メモリー22(図4参照)等の記憶装置に一時的に記憶し、記憶装置からこれを読みだして用いればよい。
Here, in the present embodiment, command values are output from the
動作制御部101は、制御部20から指令値(目標角度)を取得する。動作制御部101は、ジョイント12等に設けられたアクチュエーターにおけるエンコーダー値等に基づいてエンドポイントの現在角度を取得し、目標角度と現在角度の差分(偏差角度)を算出する。また、動作制御部101は、例えば、偏差角度に基づいてアーム11の移動速度を算出(偏差角度が大きいほど移動速度が速い)し、算出した移動速度で算出した偏差角度だけアーム11を移動させる。
The
図4は、制御部20の概略構成の一例を示すブロック図である。図示するように、例えばコンピューターなどで構成される制御部20は、演算装置であるCPU(Central Processing Unit)21と、揮発性の記憶装置であるRAM(Random Access Memory)や不揮発性の記憶装置であるROM(Read only Memory)からなるメモリー22と、外部記憶装置23と、ロボット10等の外部の装置と通信を行う通信装置24と、マウスやキーボード等の入力装置25と、ディスプレイ等の出力装置26と、制御部20と他のユニットを接続するインターフェース(I/F)27とを備える。
FIG. 4 is a block diagram illustrating an example of a schematic configuration of the
上記の各機能部は、例えば、CPU21がメモリー22に格納された所定のプログラムをメモリー22に読み出して実行することにより実現される。なお、所定のプログラムは、例えば、予めメモリー22にインストールされてもよいし、通信装置24を介してネットワークからダウンロードされてインストール又は更新されてもよい。
Each functional unit described above is realized, for example, by the
以上のロボットシステム1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。また、一般的なロボットシステムが備える構成を排除するものではない。
The configuration of the
次に、本実施形態における、上記構成からなるロボットシステム1の特徴的な処理について説明する。本実施の形態では、図1に示すような対象物O1、O2、O3を、ハンドアイカメラ15を用いて順番に目視検査を行う作業を例に説明する。
Next, a characteristic process of the
制御部20は、図示しないボタン等を介して制御開始指示が入力されると、位置制御及びビジュアルサーボによりアーム11を制御する。駆動制御部220は、第2制御部213から指令値が入力される場合(本実施の形態では30回に1回)には、第1制御部202から出力される値(以下、位置制御による指令値という)と、第2制御部213から出力される値(以下、ビジュアルサーボによる指令値という)とを任意の重みで合成した指令値を用いて、動作制御部101に指示を出力する。駆動制御部220は、第2制御部213から指令値が入力されない場合(本実施の形態では30回に29回)には、第1制御部202から出力される位置制御による指令値と、最後に第2制御部213から出力され、メモリー22等に一時的に記憶された指令値とを用いて、動作制御部101に指示を出力する。
When a control start instruction is input via a button or the like (not shown), the
図5(A)は、位置制御及びビジュアルサーボによりアーム11を制御するときの、エンドポイントの軌道を説明する図である。図5(A)における位置1に対象物O1が設置され、位置2に対象物O2が設置され、位置3に対象物O3が設置される。図5(A)においては、対象物O1、O2、O3は同一平面(XY平面)上にあるとし、一定のZ方向位置にハンドアイカメラ15があるとする。
FIG. 5A is a diagram illustrating the trajectory of the end point when the
図5(A)において実線で示す軌道は、位置制御による指令値のみを用いる場合のエンドポイントの軌道である。この軌道は、位置1、2、3の上を通る軌道となっており、対象物O1、O2、O3が常に同じ位置、姿勢で設置される場合は、位置制御のみで対象物O1、O2、O3を目視検査することができる。
A trajectory indicated by a solid line in FIG. 5A is an end point trajectory when only a command value by position control is used. This trajectory is a trajectory passing over the
それに対し、図5(A)において、対象物O2が、実線上の位置2から移動後の位置2へ移動した場合を考える。実線で示す対象物O2の上をエンドポイントが移動するため、位置制御による指令値のみを用いる場合には、対象物O2の検査の精度が落ちる、又は検査が出来なくなる事が想定できる。 On the other hand, in FIG. 5A, consider a case where the object O2 moves from position 2 on the solid line to position 2 after movement. Since the end point moves on the object O2 indicated by the solid line, when only the command value by position control is used, it can be assumed that the accuracy of the inspection of the object O2 is reduced or the inspection cannot be performed.
対象物の位置の移動に対応するために、ビジュアルサーボを適用する事が良く行われる。ビジュアルサーボを用いれば、対象物の位置がずれたとしても、対象物の直上にエンドポイントを移動することができる。例えば、移動後の位置2に対象物O2があるとすると、図5(B)に示す画像が目標画像として与えられている場合には、仮にビジュアルサーボによる指令値のみ用いると、図5(A)において点線で示す軌道上をエンドポイントが通過する。 In order to cope with the movement of the position of the object, visual servo is often applied. If the visual servo is used, even if the position of the object is shifted, the end point can be moved directly above the object. For example, if there is the object O2 at the position 2 after the movement, if the image shown in FIG. 5B is given as the target image, if only the command value by the visual servo is used, FIG. ) Passes through the trajectory indicated by the dotted line.
ビジュアルサーボは、対象物のズレに対応が可能な非常に有用な制御方法であるが、第1撮像部30や第2撮像部40のフレームレートや、画像処理部212における画像処理時間等により、位置制御の場合に比べて、目標位置に到達するまでの時間が多くかかってしまうという問題がある。
Visual servo is a very useful control method that can cope with the deviation of the object, but depending on the frame rate of the
したがって、位置制御とビジュアルサーボとの指令値を同時に用いる(位置制御とビジュアルサーボとを同時に行う、すなわち並列制御)ことで、対象物O1、O2、O3の位置ズレに対応し、検査精度を確保しつつ、ビジュアルサーボよりも高速に移動する事を達成する。 Therefore, by using the command values of position control and visual servo simultaneously (position control and visual servo are performed simultaneously, ie, parallel control), the inspection accuracy is ensured corresponding to the positional deviation of the objects O1, O2, O3. However, it achieves moving faster than visual servo.
なお、同時とは、完全に同じ時間、タイミングに限定されるものではない。例えば、位置制御とビジュアルサーボとの指令値を同時に用いる場合とは、位置制御の指令値とビジュアルサーボとの指令値とが同時に出力される場合や、位置制御の指令値とビジュアルサーボとの指令値とが微小時間ずれて出力される場合も含む概念である。微小時間は、同時の場合と同様の処理を行うことができる時間であれば、どのような長さの時間でもよい。 Note that “simultaneous” is not limited to the exact same time and timing. For example, when the command values for position control and visual servo are used at the same time, the command values for position control and visual servo are output simultaneously, or the command values for position control and visual servo are output simultaneously. This is a concept including a case where the value is output with a slight time shift. The minute time may be any length of time as long as the same processing as that at the same time can be performed.
特に、目視検査の場合には、ハンドアイカメラ15の画角に対象物O2が含まれればよい(画角の中心に対象物O2がある必要はない)ため、対象物O2の上に軌道がなくても問題はない。 In particular, in the case of visual inspection, the object O2 only needs to be included in the angle of view of the hand-eye camera 15 (the object O2 does not have to be at the center of the angle of view). There is no problem even if it is not.
そのため、本実施の形態では、駆動制御部220は、ハンドアイカメラ15の画角に対象物O2が含まれる軌道となるように、位置制御による指令値と、ビジュアルサーボによる指令値とを合成する。この時の軌道を図5(A)に一点鎖線で示す。この軌道は、対象物O2の直上を通ってはいないが、検査精度が確保できるぎりぎりの位置であるとする。
Therefore, in the present embodiment, the
なお、対象物の設置位置がずれる以外にも、温度変化によるアーム11の各部材等の膨張等も経路上の位置と実際の対象物の位置とのズレの要因となるが、この場合にも位置制御とビジュアルサーボとの指令値を同時に用いることで解決できる。
In addition to the displacement of the installation position of the object, expansion of each member of the
この、図5(A)における一点鎖線に示す軌道の位置は、重みαによって変えることができる。図6は、重みαについて説明する図である。 The position of the trajectory indicated by the alternate long and short dash line in FIG. 5A can be changed by the weight α. FIG. 6 is a diagram for explaining the weight α.
図6(A)は、ゴール(ここでは、対象物O1、O2、O3)までの距離と、重みαとの関係を示す図である。線Aは、ゴール位置までの距離に関係なく一定の重みαとする場合である。線Bは、ゴール位置までの距離に応じて段階的に重みαを小さくする場合である。線C、Dは、ゴール位置までの距離に応じて連続的に重みαが小さくなる場合であり、線Cは距離に比例して重みαの変化が小さくなる場合であり、線Dは距離と重みαが比例する場合である。ただし、重みαは0<α<1である。 FIG. 6A is a diagram illustrating the relationship between the distance to the goal (here, the objects O1, O2, and O3) and the weight α. Line A is a case where a constant weight α is used regardless of the distance to the goal position. Line B is a case where the weight α is decreased stepwise according to the distance to the goal position. Lines C and D are cases where the weight α is continuously reduced according to the distance to the goal position, the line C is a case where the change of the weight α is reduced in proportion to the distance, and the line D is a distance and This is a case where the weight α is proportional. However, the weight α is 0 <α <1.
図6(A)の線B、C、Dの場合には、ゴール位置までの距離が近くなるにつれて位置制御の指令値の比重が減り、ビジュアルサーボの指令値の比重が増すように、重みαが設定される。これにより、ゴール位置が動いた場合に、エンドポイントがよりゴール位置に近づくように軌道を生成することができる。 In the case of lines B, C, and D in FIG. 6A, the weight α is set so that the specific gravity of the position control command value decreases and the specific gravity of the visual servo command value increases as the distance to the goal position decreases. Is set. Thereby, when the goal position moves, the trajectory can be generated so that the end point is closer to the goal position.
また、重みαを設定して位置制御とビジュアルサーボの各指令値を足し合わせるようにしたため、ゴール位置までの距離に応じて連続的に重みαを変えることができる。距離に応じて連続的に重みを変えることで、ほぼ位置制御によるアームの制御から、ほぼビジュアルサーボによるアームの制御へ、制御を滑らかに切り替えることができる。 Further, since the weight α is set and the command values of the position control and the visual servo are added together, the weight α can be continuously changed according to the distance to the goal position. By continuously changing the weight according to the distance, it is possible to smoothly switch the control from the arm control based on the position control to the arm control based on the visual servo.
なお、重みαは、図6(A)に示すように、ゴール(ここでは、対象物O1、O2、O3)までの距離により規定される場合に限定されない。図6(B)に示すように、スタート位置からの距離により重みαを規定するようにしてもよい。すなわち、駆動制御部220は、重みαを、現在位置と目標位置との差分に基づいて決定することができる。
Note that the weight α is not limited to the case where it is defined by the distance to the goal (here, the objects O1, O2, and O3) as shown in FIG. As shown in FIG. 6B, the weight α may be defined by the distance from the start position. That is, the
なお、ゴールまでの距離やスタート位置からの距離は、経路取得部101が取得する経路に基づいて求めてもよいし、現在画像と目標画像とに基づいて求めてもよい。例えば、経路に基づいて求める場合には、経路に関する情報に含まれるスタート位置、ゴール、対象物の位置等の座標、順序と、現在位置の座標、順序とから算出できる。
Note that the distance to the goal and the distance from the start position may be obtained based on the route acquired by the
図6に示すような、現在位置と目標位置との差分と重みとの関係は、アーム11をユーザーの希望する軌道で制御するために、例えば入力装置25等の入力部を介して入力することができる。また、現在位置と目標位置との差分と重みとの関係は、メモリー22等の記憶手段に記憶しておき、これを用いるようにすればよい。なお、記憶手段に記憶する現在位置と目標位置との差分と重みとの関係は、入力部を介して入力されたものでもよいし、予め初期設定された物でもよい。
The relationship between the difference between the current position and the target position and the weight as shown in FIG. 6 is input via an input unit such as the input device 25 in order to control the
本実施の形態によれば、位置制御とビジュアルサーボの各指令値を一定の割合で合成した指令値を用いてアーム(ハンドアイカメラ)を制御するため、対象物の位置ズレが発生した場合においても、精度良く高速に検査することができる。特に、本実施の形態によれば、速度は位置制御と同等(ビジュアルサーボよりも高速)とし、位置制御よりも位置ズレに対してロバストに検査を行うことができる According to the present embodiment, the arm (hand-eye camera) is controlled using a command value obtained by combining the command values of the position control and the visual servo at a certain ratio. Can be inspected with high accuracy and high speed. In particular, according to the present embodiment, the speed is equivalent to that of position control (higher than that of visual servo), and it is possible to perform inspection more robustly against positional deviation than position control.
なお、本実施の形態では、常時、位置制御による指令値と、ビジュアルサーボによる指令値とを合成していたが、例えば、対象物O2の位置ズレが所定の閾値より大きい場合には、ビジュアルサーボによる指令値のみを用いてアーム11を移動させるようにしてもよい。対象物O2の位置ズレが所定の閾値より大きいか否かは、第2制御部213が現在画像に基づいて求めればよい。
In this embodiment, the command value based on position control and the command value based on visual servo are always combined. However, for example, when the positional deviation of the object O2 is larger than a predetermined threshold, the visual servo The
また、本実施の形態では、駆動制御部220は、重みαを、現在位置と目標位置との差分に基づいて決定したが、重みαを決定する方法はこれに限られない。例えば、駆動制御部220は、時間の経過とともに重みαが変わるようにしてもよい。また、駆動制御部220は、一定時間が経過するまでは時間の経過とともに重みαが変わるようにし、その後は現在位置と目標位置との差分に基づいて重みαを変えるようにしてもよい。
In the present embodiment, the
<第2の実施形態>
本発明の第1の実施形態は、常時、位置制御とビジュアルサーボの各指令値を一定の割合で合成した指令値を用いてアームを制御したが、本発明の適用範囲はこれに限定されない。
<Second Embodiment>
In the first embodiment of the present invention, the arm is controlled using a command value obtained by synthesizing the command values of position control and visual servo at a constant ratio at all times, but the scope of application of the present invention is not limited to this.
本発明の第2の実施形態は、対象物の位置に応じて位置制御の各指令値のみを使う場合と、位置制御とビジュアルサーボの各指令値を一定の割合で合成した指令値を用いる場合とを組み合わせる形態である。以下、本発明の第2の実施形態に係るロボットシステム2について説明する。なお、ロボットシステム2の構成は第1の実施形態のロボットシステム1と同一であるため、ロボットシステム2の構成についての説明を省略し、ロボットシステム2の処理について説明する。また、第1の実施形態と同一の部分については、同一の符号を付し、説明を省略する。
In the second embodiment of the present invention, when only the command values for position control are used according to the position of the object, or when the command values obtained by combining the command values for position control and visual servo at a certain ratio are used. Is a combination of Hereinafter, a robot system 2 according to a second embodiment of the present invention will be described. Since the configuration of the robot system 2 is the same as that of the
図7は、本発明のアーム11の制御処理の流れを示すフローチャートである。この処理は、例えば、図示しないボタン等を介して制御開始指示が入力されることにより開始される。本実施の形態では、対象物O1、O2の目視検査を行う。
FIG. 7 is a flowchart showing a flow of control processing of the
処理が開始されると、位置制御部200は位置制御を行う(ステップS100)。すなわち、第1制御部202は、経路取得部201により取得された経路に関する情報に基づいて指令値を生成し、駆動制御部220へ出力する。駆動制御部220は、第1制御部202から出力された指令値を、ロボット10に出力する。すると、動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる。
When the process is started, the
次に、第1制御部202は、位置制御によりエンドポイントが移動された結果、エンドポイントが切替点1を通過したか否かを判断する(ステップS102)。切替点1の位置を示す情報は、あらかじめ設定された経路に関する情報に含まれている。
Next, the
図8は、対象物O1、O2の位置、切替点の位置及びエンドポイントの軌道を説明する図である。本実施の形態では、切替点1は、スタート地点と対象物O1との間に設けられる。
FIG. 8 is a diagram illustrating the positions of the objects O1 and O2, the position of the switching point, and the end point trajectory. In the present embodiment, the
エンドポイントが切替点1を通過していない場合(ステップS102でNO)は、制御部20は、ステップS100の処理を繰り返す。
When the end point has not passed the switching point 1 (NO in step S102), the
エンドポイントが切替点1を通過した場合(ステップS102でYES)は、駆動制御部220は、位置制御及びビジュアルサーボを用いてアーム11を制御させる(ステップS104)。すなわち、第1制御部202は、経路取得部201により取得された経路に関する情報に基づいて指令値を生成し、駆動制御部220へ出力する。また、第2制御部213は、画像処理部212により処理された現在画像と目標画像とに基づいて指令値を生成し、駆動制御部220へ出力する。駆動制御部220は、時間の経過と共に重みαを段階的に切り替え、切り替えられた重みαを用いて、第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成して、ロボット10に出力する。すると、動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる
If the end point has passed the switching point 1 (YES in step S102), the
以下、ステップS104の処理について具体的に説明する。ステップS104の処理が行われる前、すなわちステップS100の処理においては、ビジュアルサーボ部210からの指令値を用いない。したがって、位置制御部200からの指令値の重みαは1(ビジュアルサーボ部210からの指令値の重み1−α=0)である。
Hereinafter, the process of step S104 will be specifically described. Before the process of step S104 is performed, that is, in the process of step S100, the command value from the
ステップS104の処理の開始後、一定時間(例えば10msec)経過したら、駆動制御部220は、位置制御部200からの指令値の重みαを1から0.9に切り替える。すると、ビジュアルサーボ部210からの指令値の重み1−αは0.1となる。そして、駆動制御部220は、位置制御部200からの指令値の重みαを0.9、ビジュアルサーボ部210からの指令値の重み1−αを0.1で合成してロボット10に出力する。
When a predetermined time (for example, 10 msec) has elapsed after the start of the process of step S104, the
その後、更に一定時間経過したら、駆動制御部220は、位置制御部200からの指令値の重みαを0.9から0.8に切り替え、ビジュアルサーボ部210からの指令値の重み1−αを0.1から0.2に切り替える。このように、一定時間の経過と共に段階的に重みαを切り替え、切り替えられた重みを用いて第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成する。
After that, when a certain time has passed, the
位置制御部200は、この重みαの切り替え及び指令値の合成を、位置制御部200からの指令値の重みαが0.5、ビジュアルサーボ部210からの指令値の重み1−αが0.5となるまで繰り返す。駆動制御部220は、位置制御部200からの指令値の重みαが0.5、ビジュアルサーボ部210からの指令値の重み1−αが0.5となったら、重みαを切り替えず、重みαを維持して指令値の合成を繰り返す。
The
これにより、対象物O1の位置が変わる場合にも目視検査を行うことができる。また、対象物から必要以上に離れている場合に、位置制御のみによりエンドポイントを移動させることで、高速に処理を行うことができる。また、対象物に近づくときに位置制御及びビジュアルサーボによりエンドポイントを移動させることで、対象物の位置が変わる場合にも対応することができる。さらに、徐々に重みαを切り替えることでアーム11の急な動きや、振動を防止することができる。
Thereby, even when the position of the object O1 changes, visual inspection can be performed. Further, when the distance from the object is more than necessary, the processing can be performed at high speed by moving the end point only by position control. Further, by moving the end point by position control and visual servo when approaching the object, it is possible to cope with a case where the position of the object changes. Furthermore, the sudden movement or vibration of the
なお、ステップS104における処理において、この重みαの切り替え及び指令値の合成を行っている間に、エンドポイントが切替点2を通過する(ステップS106、後に詳述)場合には、重みαが0.5となるまで重みαの切り替え及び指令値の合成を行うことなく、ステップS106に進む。 In the process in step S104, when the end point passes through the switching point 2 (step S106, which will be described in detail later) while the weight α is switched and the command value is synthesized, the weight α is 0. The process proceeds to step S106 without switching the weight α and synthesizing the command value until 0.5.
次に、第1制御部202は、位置制御及びビジュアルサーボによりエンドポイントが移動された結果、エンドポイントが切替点2を通過したか否かを判断する(ステップS106)。切替点2の位置を示す情報は、経路に関する情報に含まれている。図8に示すように、切替点2は、対象物O1に設定されている。
Next, the
エンドポイントが切替点2を通過していない場合(ステップS106でNO)は、制御部20は、ステップS104の処理を繰り返す。
When the end point has not passed the switching point 2 (NO in step S106), the
エンドポイントが切替点2を通過した場合(ステップS106でYES)は、駆動制御部220は、時間の経過と共に重みαが段階的に大きくなるように重みαを切り変え、切り替えられた重みαを用いて、第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成して、ロボット10に出力する。動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる(ステップS108)。
When the end point has passed the switching point 2 (YES in step S106), the
以下、ステップS108の処理について具体的に説明する。ステップS108の処理が行われる前、すなわちステップS106の処理においては、駆動制御部220は、位置制御部200からの指令値の重みαを0.5、ビジュアルサーボ部210からの指令値の重み1−αを0.5として指令値を合成している。
Hereinafter, the process of step S108 will be specifically described. Before the process of step S108 is performed, that is, in the process of step S106, the
ステップS108の処理の開始後、一定時間(例えば10msec)経過したら、駆動制御部220は、位置制御部200からの指令値の重みαを0.5から0.6に切り替える。すると、ビジュアルサーボ部210からの指令値の重み1−αは0.4となる。そして、駆動制御部220は、位置制御部200からの指令値の重みαを0.6、ビジュアルサーボ部210からの指令値の重み1−αを0.4で合成してロボット10に出力する。
When a predetermined time (for example, 10 msec) has elapsed after the start of the process of step S108, the
その後、更に一定時間経過したら、駆動制御部220は、位置制御部200からの指令値の重みαを0.6から0.7に切り替え、ビジュアルサーボ部210からの指令値の重み1−αを0.4から0.3に切り替える。このように、一定時間の経過と共に段階的に重みαを切り替え、切り替えられた重みを用いて第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成する。
After that, when a certain period of time has passed, the
駆動制御部220は、重みαの切り替えを、重みαが1になるまで繰り返す。重みαが1になった場合には、ビジュアルサーボ部210からの指令値の重み1−αは0である。したがって、駆動制御部220は、第1制御部202から出力された指令値をロボット10に出力する。すると、動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる(ステップS110)。この結果、位置制御によりエンドポイントが移動される。ステップS110の処理は、ステップS100と同じである。
The
このように、対象物O1を通過した段階で位置制御によりエンドポイントを移動させることで、高速に処理を行うことができる。また、徐々に重みαを切り替えることでアーム11の急な動きや、振動を防止することができる。
Thus, processing can be performed at high speed by moving the end point by position control when it passes through the object O1. Moreover, the sudden movement and vibration of the
次に、第1制御部202は、位置制御によりエンドポイントが移動された結果、エンドポイントが切替点3を通過したか否かを判断する(ステップS112)。切替点3の位置を示す情報は、あらかじめ設定された経路に関する情報に含まれている。図8に示すように、切替点3は、対象物O1(切替点2)と対象物O2との間に設けられる。
Next, the
エンドポイントが切替点3を通過していない場合(ステップS112でNO)は、制御部20は、ステップS110の処理を繰り返す。
If the end point has not passed the switching point 3 (NO in step S112), the
エンドポイントが切替点3を通過した場合(ステップS112でYES)は、駆動制御部220は、時間の経過と共に重みαを段階的に切り替え、切り替えられた重みαを用いて、第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成して、ロボット10に出力する。すると、動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる(ステップS114)。ステップS114の処理は、ステップS104と同じである。
When the end point has passed the switching point 3 (YES in step S112), the
次に、第1制御部202は、位置制御及びビジュアルサーボによりエンドポイントが移動された結果、エンドポイントが切替点4を通過したか否かを判断する(ステップS116)。切替点4の位置を示す情報は、経路に関する情報に含まれている。図8に示すように、切替点4は、対象物O2に設定されている。
Next, the
エンドポイントが切替点4を通過していない場合(ステップS116でNO)は、制御部20は、ステップS114の処理を繰り返す。
If the end point does not pass through the switching point 4 (NO in step S116), the
エンドポイントが切替点4を通過した場合(ステップS116でYES)は、駆動制御部220は、時間の経過と共に重みαが段階的に大きくなるように重みαを切り変え、切り替えられた重みαを用いて、第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成して、ロボット10に出力する。動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる(ステップS118)。ステップS118の処理は、ステップS108と同じである。
When the end point passes through the switching point 4 (YES in step S116), the
駆動制御部220は、重みαの切り替えを、重みαが1になるまで繰り返す。重みαが1になったら、駆動制御部220は、第1制御部202から出力された指令値をロボット10に出力する。すると、動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる(ステップS120)。ステップS120の処理は、ステップS110と同じである。
The
次に、第1制御部202は、位置制御によりエンドポイントが移動された結果、エンドポイントがゴール地点に到達したか否かを判断する(ステップS122)。ゴール地点の位置を示す情報は、あらかじめ設定された経路に関する情報に含まれている。
Next, the
エンドポイントがゴール地点に到達していない場合(ステップS122でNO)は、制御部20は、ステップS120の処理を繰り返す。
When the end point has not reached the goal point (NO in step S122), the
エンドポイントがゴール地点に到達した場合(ステップS122でYES)は、駆動制御部220は、処理を終了する。
If the end point has reached the goal point (YES in step S122),
本実施の形態によれば、対象物に近づくときに、位置制御及びビジュアルサーボによりエンドポイントを移動させることで、対象物の位置が変わる場合にも対応することができる。また、エンドポイント(現在位置)が対象物から必要以上に離れている場合、エンドポイント(現在位置)が対象物を通過した場合等の所定の条件を満たす場合に、位置制御のみによりエンドポイントを移動させることで、高速に処理を行うことができる。 According to the present embodiment, it is possible to cope with a case where the position of the object changes by moving the end point by position control and visual servo when approaching the object. In addition, when the end point (current position) is far away from the target object, or when the predetermined condition is satisfied, such as when the end point (current position) passes through the target object, the end point is determined only by position control. By moving it, processing can be performed at high speed.
また、本実施の形態によれば、位置制御及びビジュアルサーボによる制御と、位置制御による制御とを切り替える時に、徐々に重みαを切り替えることで、アームの急な動きや、振動を防止することができる。 In addition, according to the present embodiment, when switching between position control and control by visual servo and control by position control, the weight α is gradually switched to prevent sudden movement or vibration of the arm. it can.
なお、本実施の形態では、徐々に重みαを切り替える場合に、一定時間が経過する度に、重みαを0.1ずつ段階的に切り替えたが、徐々に重みαを切り替える方法はこれに限定されない。例えば、図6に示すように、対象物(図6(A)におけるゴール位置に相当)までの位置や、対象物(図6(B)におけるスタート位置に相当)からの位置に応じて重みαを変えるようにしてもよい。また、図6に示すように、重みαは連続的に変えてもよい(図6(A),(B)の線C、D等参照)。 In the present embodiment, when the weight α is gradually switched, the weight α is switched step by step every time a certain time elapses. However, the method of gradually switching the weight α is limited to this. Not. For example, as shown in FIG. 6, the weight α depends on the position to the object (corresponding to the goal position in FIG. 6A) and the position from the object (corresponding to the start position in FIG. 6B). May be changed. Further, as shown in FIG. 6, the weight α may be continuously changed (see lines C and D in FIGS. 6A and 6B).
また、本実施の形態では、位置制御とビジュアルサーボとの指令値を用いる場合(ステップS104、S108、S114、S118)には、重みαを0.5、0.6、0.7、0.8、0.9としたが、重みαは0より大きく1より小さい実数であればどのような値でもよい。 In this embodiment, when the command values of position control and visual servo are used (steps S104, S108, S114, S118), the weight α is set to 0.5, 0.6, 0.7, 0,. Although the weight α is 8 and 0.9, the weight α may be any value as long as it is a real number larger than 0 and smaller than 1.
<第3の実施形態>
本発明の第1、2の実施形態は、ハンドアイカメラを用いて目視検査を行ったが、本発明の適用範囲はこれに限定されない。
<Third Embodiment>
In the first and second embodiments of the present invention, visual inspection is performed using a hand eye camera, but the scope of application of the present invention is not limited to this.
本発明の第3の実施形態は、対象物の穴への挿入等の組立作業に本発明を適用した形態である。以下、本発明の第3の実施形態について説明する。なお、第1の実施形態及び第2の実施形態と同一の部分については、同一の符号を付し、説明を省略する。 The third embodiment of the present invention is a form in which the present invention is applied to an assembly operation such as insertion of an object into a hole. Hereinafter, a third embodiment of the present invention will be described. In addition, about the part same as 1st Embodiment and 2nd Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
図9は、本発明の一実施形態におけるロボットシステム3の構成の一例を示すシステム構成図である。本実施形態におけるロボットシステム3は、主として、ロボット10Aと、制御部20と、第1撮像部30と、第2撮像部40とを備える。
FIG. 9 is a system configuration diagram showing an example of the configuration of the
ロボット10Aは、複数のジョイント(関節)12と、複数のリンク13とを含むアーム11Aを有するアーム型のロボットである。アーム11Aの先端には、ワークWや道具を把持するハンド14(いわゆるエンドエフェクター)が設けられる。アーム11Aのエンドポイントの位置は、ハンド14の位置である。なお、エンドエフェクターはハンド14に限られない。
The
アーム11Aの手首部分には、力覚センサー102(図9では図示せず、図10参照)が設けられている。力覚センサー102は、ロボット10Aが出している力に対する反力として受けている力や、モーメントを検出するセンサーである。力覚センサーとしては、例えば、並進3軸方向の力成分と、回転3軸回りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。また、力覚センサーで使用される物理量は、電流、電圧、電荷量、インダクタンス、ひずみ、抵抗、電磁誘導、磁気、空気圧、光等である。力覚センサー102は、所望の物理量を電気信号に変換することにより、6成分を検出可能である。なお、力覚センサー102は、6軸に限らず、例えば3軸でもよい。
A force sensor 102 (not shown in FIG. 9, see FIG. 10) is provided on the wrist portion of the
次に、ロボットシステム3の機能構成例について説明する。図10は、ロボットシステム3の機能ブロック図を示している。
Next, a functional configuration example of the
ロボット10Aは、アクチュエーターのエンコーダー値、及びセンサーのセンサー値等に基づいてアーム11Aを制御する動作制御部101と、力覚センサー102とを備える。
The
制御部20Aは、主として、位置制御部200と、ビジュアルサーボ部210と、画像処理部212と、駆動制御部220と、力制御部230とを備える。
The
力制御部230は、力覚センサー102からのセンサー情報(力情報、モーメント情報)に基づいて力制御(力覚制御)を行う。
The
本実施の形態では、力制御としてインピーダンス制御を行う。インピーダンス制御は、ロボットの手先(ハンド14)に外から力を加えた場合に生じる機械的なインピーダンス(慣性、減衰係数、剛性)を、目的とする作業に都合の良い値に設定するための位置と力の制御手法である。具体的には、ロボットのエンドエフェクター部に質量と粘性係数と弾性要素が接続されるモデルにおいて、目標として設定した質量と粘性係数と弾性係数で物体に接触するようにする制御である。 In the present embodiment, impedance control is performed as force control. Impedance control is a position for setting the mechanical impedance (inertia, damping coefficient, stiffness) generated when a force is applied to the hand of the robot (hand 14) from the outside to a value convenient for the intended work. And force control technique. Specifically, in a model in which a mass, a viscosity coefficient, and an elastic element are connected to an end effector unit of a robot, the control is performed so that the object comes into contact with the mass, the viscosity coefficient, and the elastic coefficient set as targets.
力制御部230は、インピーダンス制御によりエンドポイントの移動方向、移動量を決定する。また、力制御部230は、エンドポイントの移動方向、移動量に基づいて、ジョイント12に設けられた各アクチュエーターの目標角度を決定する。また、力制御部230は、目標角度だけアーム11Aを移動させるような指令値を生成し、駆動制御部220へ出力する。なお、力制御部230が行う処理は、一般的な内容であるため、詳細な説明を省略する。
The
なお、力制御は、ハイブリッド制御に限らず、コンプライアンス制御等の干渉力を巧妙に制御することができる制御方法を採用することができる。また、力制御を行うためには、ハンド14等のエンドエフェクターに加わる力を検出する必要があるが、エンドエフェクターに加わる力を検出する方法は力覚センサーを用いる場合に限られない。例えば、アーム11Aの各軸トルク値からエンドエフェクターに及ぼす外力を推定することもできる。したがって、力制御を行うためには、直接または間接的にエンドエフェクターに加わる力を取得する手段を、アーム11Aが有していればよい。
Note that force control is not limited to hybrid control, and a control method that can skillfully control interference force such as compliance control can be employed. Moreover, in order to perform force control, it is necessary to detect the force applied to the end effector such as the
次に、本実施形態における、上記構成からなるロボットシステム3の特徴的な処理について説明する。図11は、本発明のアーム11Aの制御処理の流れを示すフローチャートである。この処理は、例えば、図示しないボタン等を介して制御開始指示が入力されることにより開始される。本実施の形態では、図12に示すように、ワークWを穴Hに挿入する組立作業を例に説明する。
Next, a characteristic process of the
第1制御部202は、図示しないボタン等を介して制御開始指示が入力されると、位置制御によりアーム11を制御し、エンドポイントを移動させる(ステップS130)。ステップS130の処理は、ステップS100と同じである。
When a control start instruction is input via a button or the like (not shown), the
本実施の形態では、位置制御により指令値の重みをα、ビジュアルサーボによる指令値の重みをβ、力制御による指令値の重みをγと設定する。重みα、β及びγは、これらの合計が1となるように設定される。ステップS130では、αが1、β及びγは0である。 In this embodiment, the weight of the command value by position control is set to α, the weight of the command value by visual servo is set to β, and the weight of the command value by force control is set to γ. The weights α, β, and γ are set so that the sum of these is 1. In step S130, α is 1 and β and γ are 0.
次に、第1制御部202は、位置制御によりエンドポイントが移動された結果、エンドポイントが切替点1を通過したか否かを判断する(ステップS132)。ステップS132の処理は、ステップS102と同じである。切替点1の位置を示す情報は、あらかじめ設定された経路に関する情報に含まれている。
Next, the
図12は、エンドポイントの軌道及び切替点の位置を説明する図である。本実施の形態では、切替点1は、作業空間におけるあらかじめ定められた所定の位置に設けられる。
FIG. 12 is a diagram for explaining the trajectory of the end point and the position of the switching point. In the present embodiment, the
エンドポイントが切替点1を通過していない場合(ステップS132でNO)は、第1制御部202は、ステップS130の処理を繰り返す。
If the end point does not pass through the switching point 1 (NO in step S132), the
エンドポイントが切替点1を通過した場合(ステップS132でYES)は、駆動制御部220は、時間の経過と共に重みα及びβを段階的に切り替え、切り替えられた重みα及びβを用いて、第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成して、ロボット10に出力する。すると、動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる(ステップS134)。すなわち、ステップS134では、位置制御及びビジュアルサーボによりエンドポイントを移動させる。
If the end point has passed the switching point 1 (YES in step S132), the
以下、ステップS134の処理について具体的に説明する。ステップS134の処理が行われる前、すなわちステップS132の処理においては、駆動制御部220は、位置制御部200からの指令値の重みαを1、ビジュアルサーボ部210からの指令値の重みβを0、力制御部230からの指令値の重みγを0として指令値を合成している。
Hereinafter, the process of step S134 will be specifically described. Before the process of step S134 is performed, that is, in the process of step S132, the
ステップS134の処理の開始後、一定時間(例えば10msec)経過したら、駆動制御部220は、位置制御部200からの指令値の重みαを1から0.95に切り替え、ビジュアルサーボ部210からの指令値の重みβを0.05に切り替える。そして、駆動制御部220は、位置制御部200からの指令値を重み0.95、ビジュアルサーボ部210からの指令値の重み0.05で合成してロボット10に出力する。
When a predetermined time (for example, 10 msec) has elapsed after the start of the process of step S134, the
その後、更に一定時間経過したら、駆動制御部220は、位置制御部200からの指令値の重みαを0.95から0.9に切り替え、ビジュアルサーボ部210からの指令値の重みβ0.05から0.1に切り替える。
Thereafter, when a certain time has passed, the
このように、一定時間の経過と共に、段階的に重みα及びβを切り替え、切り替えられた重みを用いて第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成する。駆動制御部220は、この重みの切り替えを、重みαが0.05、重みβが0.95になるまで繰り返し行う。この結果、位置制御及びビジュアルサーボによりエンドポイントが移動される。なお、ステップS134では、力制御は用いないため、重みγは0のままである。
As described above, the weights α and β are switched stepwise over time, and the command value output from the
なお、最終的な重みα、βの比率α:βは、0.05:0.95には限定されない。重みα、βは、重みα、βの和が1となる様々な値をとることができる。ただし、このような作業においては、穴Hの位置が一定であるとは限らないので、ビジュアルサーボの重みβを位置制御の重みαより大きくすることが望ましい。 Note that the final ratio α: β of the weights α and β is not limited to 0.05: 0.95. The weights α and β can take various values such that the sum of the weights α and β is 1. However, in such an operation, the position of the hole H is not always constant, so it is desirable to make the visual servo weight β larger than the position control weight α.
なお、徐々に重みαを切り替える方法はこれに限定されない。例えば、図6に示すように、対象物までの位置や、対象物からの位置に応じて重みαを変えるようにしてもよい。また、図6の線C、Dに示すように、重みαは連続的に変えてもよい。 Note that the method of gradually switching the weight α is not limited to this. For example, as shown in FIG. 6, the weight α may be changed according to the position to the object or the position from the object. Further, as indicated by lines C and D in FIG. 6, the weight α may be continuously changed.
次に、第2制御部213は、位置制御及びビジュアルサーボによりエンドポイントが移動された結果、エンドポイントが切替点2を通過したか否かを判断する(ステップS136)。
Next, the
切替点2は、穴Hからの相対位置により定められる。例えば、切替点2は、穴Hの開口部中心から距離L(例えば、10cm)の位置である。穴Hの開口部中心から距離Lの位置は、x、y、z空間に半球状に設定できる。図12においては、穴Hの開口部中心からz方向に距離L離れた位置が例示されている。 The switching point 2 is determined by the relative position from the hole H. For example, the switching point 2 is a position at a distance L (for example, 10 cm) from the center of the opening of the hole H. The position of the distance L from the center of the opening of the hole H can be set to be hemispherical in the x, y, z space. In FIG. 12, a position away from the center of the opening of the hole H by a distance L in the z direction is illustrated.
画像処理部212は、現在画像からワークWの先端と穴Hを含む画像を抽出し、第2制御部213に出力する。また、画像処理部212は、画像における距離と、実空間における距離との関係を、第1撮像部30又は第2撮像部40のカメラパラメータ(焦点距離等)から算出し、第2制御部213に出力する。第2制御部213は、抽出された画像におけるワークWの先端位置と、穴Hの中心位置との差に基づいて、エンドポイントが切替点2を通過したか否かを判断する。
The
エンドポイントが切替点2を通過していない場合(ステップS136でNO)は、第1制御部202、第2制御部213及び駆動制御部220は、ステップS134の処理を繰り返す。
When the end point has not passed the switching point 2 (NO in step S136), the
エンドポイントが切替点2を通過した場合(ステップS136でYES)は、駆動制御部220は、第1制御部202から出力された指令値と、力制御部230から出力された指令値とを合成して、ロボット10に出力する。動作制御部101が、指令値に基づいてアーム11(すなわちエンドポイント)を移動させる(ステップS138)。
When the end point passes through the switching point 2 (YES in step S136), the
以下、ステップS138の処理について具体的に説明する。ステップS138の処理が行われる前、すなわちステップS134の処理においては、駆動制御部220は、位置制御部200からの指令値の重みαを0.05、ビジュアルサーボ部210からの指令値の重みβを0.95として指令値を合成している。
Hereinafter, the process of step S138 will be specifically described. Before the process of step S138 is performed, that is, in the process of step S134, the
ステップS138の処理の開始後、駆動制御部220は、位置制御部200からの指令値の重みαを0.05から0.5に切り替える。また、力制御部230からの指令値の重みγを0から0.5に切り替える。その結果、駆動制御部220は、位置制御部200からの指令値の重みαを0.5、ビジュアルサーボ部210からの指令値の重みβを0、力制御部230からの指令値の重みγを0.5で合成して、ロボット10に出力する。なお、ステップS138では、ビジュアルサーボは用いないため、重みβは0のままである。なお、重みα、γは段階的に切り替えるようにしてもよい。
After starting the process of step S138, the
次に、力制御部230は、ビジュアルサーボ及び力制御によりエンドポイントが移動された結果、エンドポイントがゴール地点に到達したか否かを判断する(ステップS140)。ゴール地点に到達したか否かは、力覚センサー102の出力に基づいて判断することができる。
Next, the
エンドポイントがゴール地点に到達していない場合(ステップS140でNO)は、位置制御部200、力制御部230及び駆動制御部220は、ステップS138の処理を繰り返す。
When the end point has not reached the goal point (NO in step S140), the
エンドポイントがゴール地点に到達した場合(ステップS140でYES)は、駆動制御部220は、処理を終了する。
If the end point has reached the goal point (YES in step S140),
本実施の形態によれば、位置制御の高速さを維持しつつ、異なる目標位置に対応することができる。また、目標位置が視認できない等のビジュアルサーボを用いることができない場合においても、位置制御の高速さを維持しつつ、安全に作業を行うことができる。 According to the present embodiment, it is possible to cope with different target positions while maintaining high speed of position control. Even when visual servo such as the target position cannot be visually confirmed cannot be used, the work can be performed safely while maintaining the high speed of the position control.
なお、本実施の形態では、切替点1は作業空間の任意の位置にあらかじめ設定され、切替点2は穴Hから所定の距離だけ離れた位置に設定されたが、切替点1、2の位置はこれに限られない。切替点1、2の位置を、所定の位置からの経過時間により設定してもよい。具体的には、例えば、切替点2の位置は、切替点1を通過してから30秒後に設定することができる。また、切替点1、2の位置を、所定の位置からの距離により設定してもよい。具体的には、例えば、切替点1の位置は、スタート地点から距離X離れた位置に設定することができる。さらに、切替点1、2の位置を、外部からの信号入力(例えば、入力装置25からの入力信号)に基づいて設定してもよい。
In this embodiment, the
<第4の実施形態>
本発明の第3の実施形態は、位置制御と力制御とにより対象物の穴への挿入等の組立作業を行ったが、本発明の適用範囲はこれに限定されない。
<Fourth Embodiment>
In the third embodiment of the present invention, assembly work such as insertion of an object into a hole is performed by position control and force control, but the scope of application of the present invention is not limited to this.
本発明の第3の実施形態は、位置制御とビジュアルサーボと力制御とにより対象物の穴への挿入等の組立作業に本発明を適用した形態である。以下、本発明の第4の実施形態について説明する。第4の実施形態に係るロボットシステム4の構成は、ロボットシステム3と同一であるため、説明を省略する。また、ロボットシステム4が行う処理において、第1の実施形態、第2の実施形態と及び第3の実施の形態と同一の部分については、同一の符号を付し、詳細な説明を省略する。
The third embodiment of the present invention is a form in which the present invention is applied to assembly work such as insertion of an object into a hole by position control, visual servo, and force control. The fourth embodiment of the present invention will be described below. Since the configuration of the robot system 4 according to the fourth embodiment is the same as that of the
本実施形態におけるロボットシステム4の特徴的な処理について説明する。図13は、ロボットシステム4のアーム11Aの制御処理の流れを示すフローチャートである。この処理は、例えば、図示しないボタン等を介して制御開始指示が入力されることにより開始される。本実施の形態では、図14に示すように、移動する台に形成された穴HにワークWを挿入する組立作業を例に説明する。
A characteristic process of the robot system 4 in the present embodiment will be described. FIG. 13 is a flowchart showing a flow of control processing of the
第1制御部202は、図示しないボタン等を介して制御開始指示が入力されると、位置制御によりアーム11Aを制御し、エンドポイントを移動させる(ステップS130)。
When a control start instruction is input via a button or the like (not shown), the
次に、第1制御部202は、位置制御によりエンドポイントが移動された結果、エンドポイントが切替点1を通過したか否かを判断する(ステップS132)。
Next, the
エンドポイントが切替点1を通過していない場合(ステップS132でNO)は、第1制御部202は、ステップS130の処理を繰り返す。
If the end point does not pass through the switching point 1 (NO in step S132), the
エンドポイントが切替点1を通過した場合(ステップS132でYES)は、駆動制御部220は、時間の経過と共に重みα及びβを段階的に切り替え、切り替えられた重みα及びβを用いて、第1制御部202から出力された指令値と第2制御部213から出力された指令値とを合成して、ロボット10に出力する。すると、動作制御部101が、指令値に基づいてアーム11A(すなわちエンドポイント)を移動させる(ステップS134)。
If the end point has passed the switching point 1 (YES in step S132), the
次に、第2制御部213は、位置制御及びビジュアルサーボによりエンドポイントが移動された結果、エンドポイントが切替点2を通過したか否かを判断する(ステップS136)。
Next, the
エンドポイントが切替点2を通過していない場合(ステップS136でNO)は、第1制御部202、第2制御部213及び駆動制御部220は、ステップS134の処理を繰り返す。
When the end point has not passed the switching point 2 (NO in step S136), the
エンドポイントが切替点2を通過した場合(ステップS136でYES)は、駆動制御部220は、第1制御部202から出力された指令値と、第2制御部213から出力された指令値と、力制御部230から出力された指令値とを合成して、ロボット10に出力する。動作制御部101が、指令値に基づいてアーム11A(すなわちエンドポイント)を移動させる(ステップS139)。
When the end point passes through the switching point 2 (YES in step S136), the
以下、ステップS139の処理について具体的に説明する。ステップS139の処理が行われる前、すなわちステップS134の処理においては、駆動制御部220は、位置制御部200からの指令値の重みαを0.05、ビジュアルサーボ部210からの指令値の重みβを0.95として指令値を合成している。
Hereinafter, the process of step S139 will be specifically described. Before the process of step S139 is performed, that is, in the process of step S134, the
ステップS139の処理の開始後、駆動制御部220は、位置制御部200からの指令値の重みαを0.05から0.34に切り替える。また、駆動制御部220は、ビジュアルサーボ部210からの指令値の重みβを0.95から0.33に切り替える。さらに、駆動制御部220は、力制御部230からの指令値の重みγを0から0.33に切り替える。その結果、駆動制御部220は、位置制御部200からの指令値の重みαを0.34、ビジュアルサーボ部210からの指令値の重みβを0.33、力制御部230からの指令値の重みγを0.33で合成して、ロボット10に出力する。
After starting the process of step S139, the
なお、重みα、β、γの比率α:β:γは、0.34:0.33:0.33には限定されない。重みα、β、γは、重みα、β、γの和が1となる様々な値を、作業に応じて設定することができる。また、重みα、β、γを徐々に切り替えるようにしてもよい。
Note that the ratio α: β: γ of the weights α, β, and γ is not limited to 0.34: 0.33: 0.33. As the weights α, β, and γ, various values that make the sum of the weights α, β, and
次に、力制御部230は、ビジュアルサーボ及び力制御によりエンドポイントが移動された結果、エンドポイントがゴール地点に到達したか否かを判断する(ステップS140)。
Next, the
エンドポイントがゴール地点に到達していない場合(ステップS140でNO)は、位置制御部200、ビジュアルサーボ部210、力制御部230及び駆動制御部220は、ステップS139の処理を繰り返す。
If the end point has not reached the goal point (NO in step S140), the
エンドポイントがゴール地点に到達した場合(ステップS140でYES)は、駆動制御部220は、処理を終了する。
If the end point has reached the goal point (YES in step S140),
本実施の形態によれば、位置制御の高速さを維持しつつ、異なる目標位置にエンドポイントを移動させることができる。特に、目標位置が移動する場合であって、かつ目標位置が視認できない場合においても、位置制御、ビジュアルサーボ、力制御により制御を行うため、位置制御の高速さを維持しつつ、安全に作業を行うことができる。 According to the present embodiment, it is possible to move the end point to a different target position while maintaining high speed of position control. In particular, even when the target position moves and the target position is not visible, control is performed using position control, visual servo, and force control, so work can be performed safely while maintaining high speed of position control. It can be carried out.
なお、本実施の形態では、位置制御、ビジュアルサーボ、力制御を同時に行う(並列制御)によりアームを制御したが、第3の実施の形態では、位置制御、力制御を同時に行う(並列制御)によりアームを制御した。駆動制御部220は、あらかじめ設定されてメモリー22等に格納された条件等に基づいて、位置制御、ビジュアルサーボ、力制御を同時に行うか、位置制御、力制御によりを同時に行うかは、ワークW、穴H等の視認の可否、移動の有無等の所定の条件に基づいて選択することができる。
In this embodiment, the arm is controlled by simultaneously performing position control, visual servo, and force control (parallel control). However, in the third embodiment, position control and force control are simultaneously performed (parallel control). Controlled the arm. The
上記実施形態では、片腕ロボットを用いた場合について説明したが、双腕ロボットを用いた場合にも本発明を適用することができる。上記実施形態では、ロボットのアームの先端にエンドポイントが設けられた場合について説明したが、ロボットに設けられるのはアームに限られない。例えば、複数のジョイントとリンクとにより構成され、ジョイントを動かすことで全体が動くマニピュレーターがロボットに設けられ、マニピュレーターの先端をエンドポイントとしてもよい。 In the above-described embodiment, the case where the one-arm robot is used has been described. In the above embodiment, the case where the end point is provided at the tip of the robot arm has been described. However, the robot is not limited to the arm. For example, a robot may be provided with a manipulator configured by a plurality of joints and links, and moving as a whole by moving the joints, and the tip of the manipulator may be the end point.
また、上記実施の形態では、第1撮像部30及び第2撮像部40の2個の撮像部を備えたが、撮像部は1つでもよい。
Moreover, in the said embodiment, although the two imaging parts of the
以上、本発明を実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更または改良を加えることが可能であることが当業者には明らかである。また、そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。特に、本発明は、ロボットと、制御部及び撮像部とが別に設けられたロボットシステムとして提供してもよいし、ロボットに制御部等が含まれたロボットとして提供してもよいし、制御部のみ、又は制御部及び撮像部からなるロボット制御装置として提供してもよい。また、本発明は、ロボット等を制御するプログラムやプログラムを記憶した記憶媒体として提供することもできる。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be made to the above embodiment. In addition, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention. In particular, the present invention may be provided as a robot system in which a robot, a control unit, and an imaging unit are separately provided, or may be provided as a robot in which a control unit is included in the robot. Or a robot control device including a control unit and an imaging unit. The present invention can also be provided as a program for controlling a robot or the like or a storage medium storing the program.
1、2、3、4:ロボットシステム、10、10A:ロボット、11、11A:アーム、12:ジョイント、13:リンク、14:ハンド、15:ハンドアイカメラ、20、20A:制御部、21:CPU、22:メモリー、23:外部記憶装置、24:通信装置、25:入力装置、26:出力装置、27:インターフェース(I/F)、30:第1撮像部、40:第2撮像部、101:動作制御部、102:力覚センサー、200:位置制御部、201:経路取得部、202:第1制御部、210:ビジュアルサーボ部、211:画像取得部、212:画像処理部、213:第2制御部、220:駆動制御部、230:力制御部
1, 2, 3, 4:
Claims (16)
前記エンドポイントが前記目標位置にあるときの前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像とを取得する画像取得部と、
前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成する第2制御部と、
前記第1制御部により生成された指令値と、前記第2制御部により生成された指令値とを用いて前記アームを移動させる駆動制御部と、
を備えることを特徴とするロボット制御装置。 A first control unit that generates a command value to move the end point of the robot arm to a target position based on a path formed based on one or more set teaching positions;
An image acquisition unit that acquires a target image that is an image including the end point when the end point is at the target position, and a current image that is an image including the end point when the end point is at the current position. When,
A second control unit that generates a command value to move the end point from the current position to the target position based on the current image and the target image;
A drive control unit that moves the arm using a command value generated by the first control unit and a command value generated by the second control unit;
A robot control device comprising:
前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像及び前記エンドポイントが前記目標位置にあるときの前記エンドポイントを含む画像である目標画像を取得する画像取得部と、を備え、
前記制御部は、設定された1以上の教示位置に基づいて形成される経路と、前記現在画像及び前記目標画像とに基づいて前記アームを移動させる
ことを特徴とするロボット制御装置。 A control unit that generates a trajectory of the end point so that the end point of the robot arm approaches the target position;
An image acquisition unit that acquires a current image that is an image including the end point when the end point is at the current position and a target image that is an image including the end point when the end point is at the target position; With
The robot control apparatus, wherein the control unit moves the arm based on a path formed based on one or more set teaching positions, the current image, and the target image.
前記駆動制御部は、前記第1制御部により生成された指令値と、前記第2制御部により生成された指令値とを、それぞれ所定の重みで足し合わせた信号を用いて前記アームを移動させる
ことを特徴とするロボット制御装置。 The robot control device according to claim 1,
The drive control unit moves the arm using a signal obtained by adding the command value generated by the first control unit and the command value generated by the second control unit with predetermined weights, respectively. A robot controller characterized by that.
前記駆動制御部は、前記所定の重みを、前記現在位置と前記目標位置との差分に基づいて決定する
ことを特徴とするロボット制御装置。 The robot controller according to claim 3, wherein
The drive control unit determines the predetermined weight based on a difference between the current position and the target position.
前記所定の重みを入力する入力部を備える
ことを特徴とするロボット制御装置。 The robot controller according to claim 3, wherein
A robot control apparatus comprising: an input unit for inputting the predetermined weight.
前記所定の重みを記憶する記憶部を備える
ことを特徴とするロボット制御装置。 The robot controller according to claim 3, wherein
A robot control apparatus comprising: a storage unit that stores the predetermined weight.
前記駆動制御部は、前記現在位置が所定の条件を満たす場合には、前記第1制御部により生成された軌道に基づく指令値を用いて前記アームを駆動し、前記現在位置が前記所定の条件を満たさない場合には、前記第1制御部により生成された軌道に基づく指令値と、前記第2制御部により生成された軌道に基づく指令値とを用いて前記アームを移動させる
ことを特徴とするロボット制御装置。 The robot control device according to claim 1,
When the current position satisfies a predetermined condition, the drive control unit drives the arm using a command value based on the trajectory generated by the first control unit, and the current position is the predetermined condition. If the condition is not satisfied, the arm is moved using a command value based on the trajectory generated by the first control unit and a command value based on the trajectory generated by the second control unit. Robot control device.
前記エンドポイントにかかる力を検出する力検出部と、
前記力検出部で検出される値に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように前記エンドポイントの軌道を生成する第3制御部と、
を備え、
前記駆動制御部は、前記第1制御部により生成された軌道に基づく指令値と、前記第2制御部により生成された軌道に基づく指令値と、前記第3制御部により生成された軌道に基づく指令値とを用いて、又は、前記第1制御部により生成された軌道に基づく指令値と、前記第3制御部により生成された軌道に基づく指令値とを用いて前記アームを移動させる
ことを特徴とするロボット制御装置。 The robot control device according to claim 1,
A force detector for detecting a force applied to the end point;
A third control unit that generates a trajectory of the end point so as to move the end point from the current position to the target position based on a value detected by the force detection unit;
With
The drive control unit is based on a command value based on a trajectory generated by the first control unit, a command value based on a trajectory generated by the second control unit, and a trajectory generated by the third control unit. Moving the arm using a command value, or using a command value based on a trajectory generated by the first control unit and a command value based on a trajectory generated by the third control unit. A robot control device.
前記アームのエンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、目標位置へ移動させるように指令値を生成する第1制御部と、
前記エンドポイントが前記目標位置にあるときの、前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現時点での位置である現在位置にあるときの、前記エンドポイントを含む画像である現在画像を撮像する撮像部と、
前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成する第2制御部と、
前記第1制御部により生成された指令値と、前記第2制御部により生成された指令値とを用いて前記アームを移動させる駆動制御部と、
を備えることを特徴とするロボットシステム。 A robot having an arm;
A first control unit that generates a command value to move the end point of the arm to a target position based on a path formed based on one or more set teaching positions;
A target image that is an image including the end point when the end point is at the target position, and a current image that includes the end point when the end point is at a current position that is a current position. An imaging unit that captures an image;
A second control unit that generates a command value to move the end point from the current position to the target position based on the current image and the target image;
A drive control unit that moves the arm using a command value generated by the first control unit and a command value generated by the second control unit;
A robot system comprising:
前記アームのエンドポイントを目標位置に近づけるように前記エンドポイントの軌道を生成する制御部と、
前記エンドポイントが現時点での位置である現在位置にあるときの前記エンドポイントを含む画像である現在画像及び前記エンドポイントが前記目標位置にあるときの前記エンドポイントを含む画像である目標画像を撮像する撮像部と、を備え、
前記制御部は、設定された1以上の教示位置に基づいて形成される経路と、前記現在画像及び前記目標画像とに基づいて前記アームを移動させる
ことを特徴とするロボットシステム。 A robot having an arm;
A control unit that generates a trajectory of the end point so as to bring the end point of the arm closer to a target position;
A current image that is an image including the end point when the end point is at a current position that is a current position and a target image that is an image including the end point when the end point is at the target position are captured. An imaging unit,
The said control part moves the said arm based on the path | route formed based on one or more set teaching positions, the said present image, and the said target image. The robot system characterized by the above-mentioned.
前記アームのエンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、目標位置へ移動させるように指令値を生成する第1制御部と、
前記エンドポイントが前記目標位置にあるときの、前記エンドポイントを含む画像である目標画像と、前記エンドポイントが現時点での位置である現在位置にあるときの、前記エンドポイントを含む画像である現在画像を取得する画像取得部と、
前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成する第2制御部と、
前記第1制御部により生成された指令値と、前記第2制御部により生成された指令値とを用いて前記アームを移動させる駆動制御部と、
を備えることを特徴とするロボット。 Arm,
A first control unit that generates a command value to move the end point of the arm to a target position based on a path formed based on one or more set teaching positions;
A target image that is an image including the end point when the end point is at the target position, and a current image that includes the end point when the end point is at a current position that is a current position. An image acquisition unit for acquiring images;
A second control unit that generates a command value to move the end point from the current position to the target position based on the current image and the target image;
A drive control unit that moves the arm using a command value generated by the first control unit and a command value generated by the second control unit;
A robot characterized by comprising:
前記アームのエンドポイントを目標位置に近づけるように前記エンドポイントの軌道を生成する制御部と、
前記エンドポイントが現在位置にあるときの前記エンドポイントを含む画像である現在画像及び前記エンドポイントが前記目標位置にあるときの前記エンドポイントを含む画像である目標画像を取得する画像取得部と、を備え、
前記制御部は、設定された1以上の教示位置に基づいて形成される経路と、前記現在画像及び前記目標画像とに基づいて前記アームを移動させる
ことを特徴とするロボット。 Arm,
A control unit that generates a trajectory of the end point so as to bring the end point of the arm closer to a target position;
An image acquisition unit that acquires a current image that is an image including the end point when the end point is at the current position and a target image that is an image including the end point when the end point is at the target position; With
The robot moves the arm based on a path formed based on one or more set teaching positions, the current image, and the target image.
前記エンドポイントが現時点での位置である現在位置にあるときの、前記エンドポイントを含む画像である現在画像を取得するステップと、
前記エンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、前記目標位置へ移動させるように指令値を生成し、かつ前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成し、これらを用いて前記アームを移動させるステップと、
ことを特徴とするロボット制御方法。 Obtaining a target image that is an image including the end point when the end point of the arm of the robot is at the target position;
Obtaining a current image that is an image including the endpoint when the endpoint is at a current position that is a current position;
Generating a command value to move the end point to the target position based on a path formed based on one or more set teaching positions, and based on the current image and the target image; Generating a command value to move the end point from the current position to the target position, and using these to move the arm; and
A robot control method characterized by the above.
設定された1以上の教示位置に基づいて形成される経路に基づく位置制御による指令値と、前記現在画像及び前記目標画像に基づくビジュアルサーボに基づく指令値とを用いて前記アームを制御する
ことを特徴とするロボット制御方法。 An image for acquiring a target image that is an image including an arm and a current image that includes the end point when the end point of the arm is at the current position and an image that includes the end point when the end point is at the target position A robot control method for controlling the arm of a robot having an acquisition unit,
Controlling the arm using a command value based on position control based on a path formed based on one or more set teaching positions and a command value based on visual servo based on the current image and the target image. A featured robot control method.
設定された1以上の教示位置に基づいて形成される経路に基づく位置制御と、前記現在画像及び前記目標画像に基づくビジュアルサーボとを同時に行う
ことを特徴とするロボット制御方法。 An image for acquiring a target image that is an image including an arm and a current image that includes the end point when the end point of the arm is at the current position and an image that includes the end point when the end point is at the target position A robot control method for controlling the arm of a robot having an acquisition unit,
A robot control method, wherein position control based on a path formed based on one or more set teaching positions and visual servo based on the current image and the target image are simultaneously performed.
前記エンドポイントが現時点での位置である現在位置にあるときの、前記エンドポイントを含む画像である現在画像を取得するステップと、
前記エンドポイントを、設定された1以上の教示位置に基づいて形成される経路に基づいて、前記目標位置へ移動させるように指令値を生成し、かつ前記現在画像及び前記目標画像に基づいて、前記エンドポイントを前記現在位置から前記目標位置に移動させるように指令値を生成し、これらを用いて前記アームを移動させるステップと、
を演算装置に実行させることを特徴とするロボット制御プログラム。 Obtaining a target image that is an image including the end point when the end point of the arm of the robot is at the target position;
Obtaining a current image that is an image including the endpoint when the endpoint is at a current position that is a current position;
Generating a command value to move the end point to the target position based on a path formed based on one or more set teaching positions, and based on the current image and the target image; Generating a command value to move the end point from the current position to the target position, and using these to move the arm; and
A robot control program that causes an arithmetic device to execute the above.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013212930A JP6322949B2 (en) | 2013-10-10 | 2013-10-10 | Robot control apparatus, robot system, robot, robot control method, and robot control program |
CN201410531769.6A CN104552292A (en) | 2013-10-10 | 2014-10-10 | Control system of robot, robot, program and control method of robot |
CN201510136619.XA CN104959982A (en) | 2013-10-10 | 2014-10-10 | Robot control system, robot, program and robot control method |
CN201510137541.3A CN104802166B (en) | 2013-10-10 | 2014-10-10 | Robot control system, robot, program and robot control method |
CN201711203574.9A CN108081268A (en) | 2013-10-10 | 2014-10-10 | Robot control system, robot, program and robot control method |
CN201510137542.8A CN104802174B (en) | 2013-10-10 | 2014-10-10 | Robot control system, robot, program and robot control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013212930A JP6322949B2 (en) | 2013-10-10 | 2013-10-10 | Robot control apparatus, robot system, robot, robot control method, and robot control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015074061A true JP2015074061A (en) | 2015-04-20 |
JP6322949B2 JP6322949B2 (en) | 2018-05-16 |
Family
ID=52999333
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013212930A Active JP6322949B2 (en) | 2013-10-10 | 2013-10-10 | Robot control apparatus, robot system, robot, robot control method, and robot control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6322949B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106155113A (en) * | 2016-08-29 | 2016-11-23 | 中国科学院自动化研究所 | Bionic eye moves eye control system and bionic eye moves eye control method |
JP2017042850A (en) * | 2015-08-25 | 2017-03-02 | ファナック株式会社 | Robot control device for controlling robot driven by motor |
CN109955244A (en) * | 2017-12-26 | 2019-07-02 | 深圳市优必选科技有限公司 | Grabbing control method and device based on visual servo and robot |
JP2020089927A (en) * | 2018-12-03 | 2020-06-11 | 学校法人立命館 | Robot control system |
JPWO2023007574A1 (en) * | 2021-07-27 | 2023-02-02 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109318234B (en) * | 2018-11-09 | 2021-03-12 | 哈尔滨工业大学 | Calibration method suitable for visual servo plug-pull operation |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60254209A (en) * | 1984-05-30 | 1985-12-14 | Fujitsu Ltd | Robot control system |
JPH0319683U (en) * | 1989-07-04 | 1991-02-26 | ||
JPH05158514A (en) * | 1991-12-03 | 1993-06-25 | Yamatake Honeywell Co Ltd | Controller for robot |
JPH05318363A (en) * | 1992-05-21 | 1993-12-03 | Sanyo Electric Co Ltd | Method for controlling robot |
JP2002127055A (en) * | 2000-10-25 | 2002-05-08 | Toyota Central Res & Dev Lab Inc | Robot device |
JP2003089086A (en) * | 2001-09-14 | 2003-03-25 | Yaskawa Electric Corp | Robot controller |
JP2003231078A (en) * | 2002-02-14 | 2003-08-19 | Denso Wave Inc | Position control method for robot arm and robot device |
US20080027580A1 (en) * | 2006-07-28 | 2008-01-31 | Hui Zhang | Robot programming method and apparatus with both vision and force |
US20110087360A1 (en) * | 2008-03-31 | 2011-04-14 | Abb Research Ltd. | Robot parts assembly on a workpiece moving on an assembly line |
JP2011093055A (en) * | 2009-10-30 | 2011-05-12 | Honda Motor Co Ltd | Information processing method, apparatus, and program |
JP2013063474A (en) * | 2011-09-15 | 2013-04-11 | Yaskawa Electric Corp | Robot system and imaging method |
JP2013158847A (en) * | 2012-02-01 | 2013-08-19 | Seiko Epson Corp | Robot control device, robot control method, robot control program and robot system |
JP2013180380A (en) * | 2012-03-02 | 2013-09-12 | Seiko Epson Corp | Control device, control method, and robot apparatus |
-
2013
- 2013-10-10 JP JP2013212930A patent/JP6322949B2/en active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60254209A (en) * | 1984-05-30 | 1985-12-14 | Fujitsu Ltd | Robot control system |
JPH0319683U (en) * | 1989-07-04 | 1991-02-26 | ||
JPH05158514A (en) * | 1991-12-03 | 1993-06-25 | Yamatake Honeywell Co Ltd | Controller for robot |
JPH05318363A (en) * | 1992-05-21 | 1993-12-03 | Sanyo Electric Co Ltd | Method for controlling robot |
JP2002127055A (en) * | 2000-10-25 | 2002-05-08 | Toyota Central Res & Dev Lab Inc | Robot device |
JP2003089086A (en) * | 2001-09-14 | 2003-03-25 | Yaskawa Electric Corp | Robot controller |
JP2003231078A (en) * | 2002-02-14 | 2003-08-19 | Denso Wave Inc | Position control method for robot arm and robot device |
US20080027580A1 (en) * | 2006-07-28 | 2008-01-31 | Hui Zhang | Robot programming method and apparatus with both vision and force |
US20110087360A1 (en) * | 2008-03-31 | 2011-04-14 | Abb Research Ltd. | Robot parts assembly on a workpiece moving on an assembly line |
JP2011093055A (en) * | 2009-10-30 | 2011-05-12 | Honda Motor Co Ltd | Information processing method, apparatus, and program |
JP2013063474A (en) * | 2011-09-15 | 2013-04-11 | Yaskawa Electric Corp | Robot system and imaging method |
JP2013158847A (en) * | 2012-02-01 | 2013-08-19 | Seiko Epson Corp | Robot control device, robot control method, robot control program and robot system |
JP2013180380A (en) * | 2012-03-02 | 2013-09-12 | Seiko Epson Corp | Control device, control method, and robot apparatus |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017042850A (en) * | 2015-08-25 | 2017-03-02 | ファナック株式会社 | Robot control device for controlling robot driven by motor |
DE102016115302B4 (en) | 2015-08-25 | 2019-03-14 | Fanuc Corporation | ROBOT CONTROL DEVICE FOR CONTROLLING A MOTOR-DRIVEN ROBOT |
CN106155113A (en) * | 2016-08-29 | 2016-11-23 | 中国科学院自动化研究所 | Bionic eye moves eye control system and bionic eye moves eye control method |
CN106155113B (en) * | 2016-08-29 | 2019-03-15 | 中国科学院自动化研究所 | Bionical eye movement eye control method |
CN109955244A (en) * | 2017-12-26 | 2019-07-02 | 深圳市优必选科技有限公司 | Grabbing control method and device based on visual servo and robot |
JP2020089927A (en) * | 2018-12-03 | 2020-06-11 | 学校法人立命館 | Robot control system |
JPWO2023007574A1 (en) * | 2021-07-27 | 2023-02-02 | ||
JP2023030226A (en) * | 2021-07-27 | 2023-03-07 | 三菱電機株式会社 | Robot control device and robot control method |
JP7487803B2 (en) | 2021-07-27 | 2024-05-21 | 三菱電機株式会社 | Robot control device and robot control method |
Also Published As
Publication number | Publication date |
---|---|
JP6322949B2 (en) | 2018-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11090814B2 (en) | Robot control method | |
JP6322949B2 (en) | Robot control apparatus, robot system, robot, robot control method, and robot control program | |
CN108621156B (en) | Robot control device, robot system, robot, and robot control method | |
US20170106542A1 (en) | Robot and method of controlling thereof | |
US10759051B2 (en) | Architecture and methods for robotic mobile manipulation system | |
US20150273689A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
JP2006000955A (en) | Robot arm, and its rotating joint device and wrist device | |
JP2002018754A (en) | Robot device and its control method | |
JP2019107704A (en) | Robot system and robot control method | |
CN111319039B (en) | Robot | |
JP2005169564A (en) | Method for gripping object of optional shape by robot | |
Gorjup et al. | An intuitive, affordances oriented telemanipulation framework for a dual robot arm hand system: On the execution of bimanual tasks | |
Yang et al. | Real-time human-robot interaction in complex environment using kinect v2 image recognition | |
US20140094951A1 (en) | Working unit control device, working robot, working unit control method, and working unit control program | |
JP2015071207A (en) | Robot hand and control method thereof | |
EP4400274A1 (en) | Command value generating device, method, and program | |
JP5787646B2 (en) | Robot system and component manufacturing method | |
Süberkrüb et al. | Feel the tension: Manipulation of deformable linear objects in environments with fixtures using force information | |
JP6314429B2 (en) | Robot, robot system, and robot controller | |
Grasshoff et al. | 7dof hand and arm tracking for teleoperation of anthropomorphic robots | |
JP2015174206A (en) | Robot control device, robot system, robot, robot control method and robot control program | |
JP6322948B2 (en) | Robot control apparatus, robot system, robot, robot control method, and program | |
JP6455869B2 (en) | Robot, robot system, control device, and control method | |
WO2021250923A1 (en) | Robot system, control device, and control method | |
Shauri et al. | Sensor integration and fusion for autonomous screwing task by dual-manipulator hand robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180326 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6322949 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |