JP6529758B2 - Image processing apparatus, image processing system, image processing method and computer program - Google Patents
Image processing apparatus, image processing system, image processing method and computer program Download PDFInfo
- Publication number
- JP6529758B2 JP6529758B2 JP2014262242A JP2014262242A JP6529758B2 JP 6529758 B2 JP6529758 B2 JP 6529758B2 JP 2014262242 A JP2014262242 A JP 2014262242A JP 2014262242 A JP2014262242 A JP 2014262242A JP 6529758 B2 JP6529758 B2 JP 6529758B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- end effector
- robot
- image processing
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、ロボットのエンドエフェクタが正しく移動目標位置に到達したか否かを確認することが可能な画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラムに関する。 The present invention relates to an image processing apparatus, an image processing system, an image processing method, and a computer program capable of confirming whether an end effector of a robot has correctly reached a movement target position.
撮像装置によりロボットの作業領域を撮像して、撮像された画像内のワークの位置を検出し、検出されたワークの位置情報を撮像された画像に基づいて算出することで、ロボットの動作を高い精度で制御する制御システムが多々開発されている。例えば特許文献1では、撮像装置を含むセンサにより検出された情報に基づいてロボットの動作を制御するロボット制御装置が開示されている。また、特許文献2では、外部のコンピュータでコンパイルしたロードモジュール(ロボット動作制御プログラム)を送信することでロボットの動作を制御するロボット制御装置が開示されている。
The operation of the robot is made high by imaging the work area of the robot with the imaging device, detecting the position of the workpiece in the imaged image, and calculating the detected position information of the workpiece based on the imaged image Many control systems have been developed to control with accuracy. For example,
このように従来のロボット制御システムでは、精緻な動作制御をするべく、画像処理装置において表示される座標系で算出された位置座標を、ロボットコントローラがエンドエフェクタを動作させる座標系の位置座標へと座標変換をする必要がある。座標変換を行うための変換式を算出する処理をキャリブレーションと呼んでいる。ここで、エンドエフェクタとは、例えばワークを把持して固着できるロボットアームの先端部分を意味する。 As described above, in the conventional robot control system, the position coordinates calculated in the coordinate system displayed in the image processing apparatus are converted to the position coordinates of the coordinate system in which the robot controller operates the end effector in order to perform precise motion control. It is necessary to do coordinate transformation. The process of calculating a conversion equation for performing coordinate conversion is called calibration. Here, the end effector means, for example, a tip portion of a robot arm capable of gripping and fixing a workpiece.
キャリブレーションの実行時には、例えばロボットのエンドエフェクタにてワークを把持し、エンドエフェクタを複数の所定の位置に移動させた状態における位置座標と、ワークを撮像装置で撮像し、撮像された画像に基づいて検出した位置座標とを比較することで、変換式を算出することができる。 At the time of executing calibration, for example, the workpiece is held by the end effector of the robot, position coordinates in a state in which the end effector is moved to a plurality of predetermined positions, and the workpiece are imaged by the imaging device, and The conversion equation can be calculated by comparing the detected position coordinates.
ロボットのエンドエフェクタの移動状態は、撮像装置により撮像された画像により確認することができる。しかし、例えばロボットのアーム部分が撮像装置による撮像範囲に存在する場合、エンドエフェクタの位置を画像で確認することができない。したがって、場合によっては、エンドエフェクタが移動目標位置に正しく到達しているか否かを確認することが困難であるという問題点があった。 The movement state of the end effector of the robot can be confirmed by the image captured by the imaging device. However, for example, when the arm portion of the robot is present in the imaging range of the imaging device, the position of the end effector can not be confirmed by the image. Therefore, in some cases, it has been difficult to confirm whether the end effector has reached the movement target position correctly.
本発明は斯かる事情に鑑みてなされたものであり、ロボットのエンドエフェクタが正しい移動目標位置へ移動しているか否かを正確に確認することができる画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an image processing apparatus, an image processing system, and an image processing method capable of accurately confirming whether or not an end effector of a robot has moved to a correct movement target position. And providing a computer program.
上記目的を達成するために第1発明に係る画像処理装置は、ロボットの動作を制御するロボットコントローラとデータ通信することが可能に接続された通信装置、及び前記ロボットとは別体に設けられ、操作対象である対象物を撮像する撮像装置とを有する画像処理装置であって、マークが付与された対象物をキャリブレーションターゲットとして前記ロボットのエンドエフェクタに把持させた状態で、前記エンドエフェクタを複数の位置に移動させ、実際の前記エンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行するキャリブレーション実行手段と、表示手段に表示されている画像上で使用者により指定を受け付けた位置情報、又は該画像上で検出された対象物の位置情報を、前記変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令を前記ロボットコントローラに対して送信する命令送信手段と、前記ロボットコントローラから、前記移動命令により移動した前記エンドエフェクタの各位置座標である第一の座標値を受信し、前記変換式に基づいて、前記表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得する位置情報取得手段と、前記エンドエフェクタが移動中に対象物を撮像するよう前記撮像装置の動作を制御する撮像制御手段と、撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、前記移動目標位置と、第一の位置情報の位置とを示す印を、前記表示手段に表示されている対象物の画像上に重畳して表示する表示制御手段とを備えることを特徴とする。 The image processing apparatus according to the first invention to achieve the above object, is connected to a communication device to communicate the robot controller and the data for controlling the operation of the robot, and provided separately from the said robot Image processing apparatus having an imaging device for imaging an object to be operated, the end effector being in a state where the end effector of the robot holds the object to which the mark is attached as a calibration target Are moved to a plurality of positions, and coordinate values detected on the image are calculated based on the plurality of position coordinates of the actual end effector and the plurality of position coordinates of the object on the image, and the actual robot end effector Displayed on the display means, and calibration executing means for executing calibration for obtaining a conversion formula to be converted into coordinate values of The movement target position converted from the movement target position of the end effector based on the conversion formula, the position information of the position received by the user on the image or the position information of the target detected on the image. Command transmission means for transmitting to the robot controller a movement command including: and a first coordinate value which is each position coordinate of the end effector moved by the movement command from the robot controller, the conversion formula Position information acquiring means for periodically acquiring the first position information by converting into coordinate values on the image to be displayed on the display means, and imaging the object while the end effector is moving Imaging control means for controlling the operation of the imaging device, and displaying an image of the imaged object as a moving image or as a still image periodically updated And display control means for superimposing a mark indicating the movement target position and the position of the first position information on the image of the object displayed on the display means. Do.
また、第2発明に係る画像処理装置は、第1発明において、前記撮像装置を複数備えており、撮像装置ごとに前記変換式を一又は複数記憶することが好ましい。 An image processing apparatus according to a second aspect of the present invention is preferably the image processing apparatus according to the first aspect , including a plurality of the imaging devices, and storing one or more of the conversion formulas for each imaging device.
また、第3発明に係る画像処理装置は、第1又は第2発明において、前記エンドエフェクタの移動の履歴情報を表示することが好ましい。 The image processing apparatus according to the third invention, Oite the first or second invention, it is preferable to display the history information of movement of the end effector.
また、第4発明に係る画像処理装置は、第1乃至第3発明のいずれか1つにおいて、前記エンドエフェクタの基準位置からオフセットした位置情報を表示することが好ましい。 In the image processing apparatus according to the fourth aspect of the present invention, it is preferable that the position information offset from the reference position of the end effector be displayed in any one of the first to third aspects.
次に、上記目的を達成するために第5発明に係る画像処理システムは、ロボットの動作を制御するロボットコントローラとデータ通信することが可能に接続された通信装置、及び前記ロボットとは別体に設けられ、操作対象である対象物を撮像する撮像装置を含む画像処理装置とで構成される画像処理システムであって、前記画像処理装置は、マークが付与された対象物をキャリブレーションターゲットとして前記ロボットのエンドエフェクタに把持させた状態で、前記エンドエフェクタを複数の位置に移動させ、実際の前記エンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行するキャリブレーション実行手段と、表示手段に表示されている画像上で使用者により指定された位置情報、又は該画像上で検出された対象物の位置情報を、前記変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令を前記ロボットコントローラに対して送信する命令送信手段とを備え、前記ロボットコントローラは、前記移動命令を解釈し、ロボットの種別に応じたエンドエフェクタに対する移動命令に変換する命令変換手段と、前記エンドエフェクタを移動させるとともに、移動した前記エンドエフェクタの各位置座標である第一の座標値を取得する座標値取得手段と、前記第一の座標値を前記画像処理装置に送信する座標値送信手段とを有し、前記画像処理装置は、前記第一の座標値を受信し、前記変換式に基づいて、前記表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得する位置情報取得手段と、前記エンドエフェクタが移動中に対象物を撮像するよう前記撮像装置の動作を制御する撮像制御手段と、撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、前記移動目標位置と、第一の位置情報の位置とを示す印を、前記表示手段に表示されている対象物の画像上に重畳して表示する表示制御手段とを備えることを特徴とする。 Next, the image processing system according to the fifth aspect of the present invention in order to achieve the above object, is connected to a communication device to communicate the robot controller and the data for controlling the operation of the robot, and separate from the robot An image processing system comprising an imaging device provided on a body and capturing an object to be manipulated, the image processing system comprising: a calibration target that marks an object provided with a mark The end effector is moved to a plurality of positions while being held by the end effector of the robot, and based on a plurality of position coordinates of the actual end effector and a plurality of position coordinates of an object on an image, Perform calibration to find a conversion formula that converts the coordinate values detected on the image into the coordinate values of the actual robot end effector Calibration execution means, position information designated by the user on the image displayed on the display means, or position information of the object detected on the image, based on the conversion equation, And command transmitting means for converting to the movement target position and transmitting a movement command including the converted movement target position to the robot controller, the robot controller interprets the movement command, and is adapted to the type of robot Command conversion means for converting the end effector into movement commands for moving the end effector, coordinate value acquisition means for moving the end effector and acquiring first coordinate values that are position coordinates of the moved end effector, the first And coordinate value transmitting means for transmitting the coordinate values of the image processing apparatus to the image processing apparatus, the image processing apparatus including the first coordinate value Position information acquiring means for periodically acquiring the first position information by converting into coordinate values on the image to be displayed on the display means based on the conversion equation, and the end effector being moved Imaging control means for controlling the operation of the imaging device to image an object; and the moving target position when displaying the image of the imaged object as a moving image or as a still image periodically updated And display control means for superimposing and displaying a mark indicating the position of the first position information on the image of the object displayed on the display means.
また、第6発明に係る画像処理システムは、第5発明において、前記撮像装置を複数備えており、撮像装置ごとに前記変換式を一又は複数記憶することが好ましい。 Preferably, in the image processing system according to the sixth aspect of the present invention, in the fifth aspect , a plurality of the imaging devices are provided, and one or more of the conversion formulas are stored for each of the imaging devices.
また、第7発明に係る画像処理システムは、第5又は第6発明において、前記エンドエフェクタの移動の履歴情報を表示することが好ましい。 Preferably, in the image processing system according to the seventh invention, in the fifth or sixth invention , history information of movement of the end effector is displayed.
また、第8発明に係る画像処理システムは、第5乃至第7発明のいずれか1つにおいて、前記エンドエフェクタの基準位置からオフセットした位置情報を表示することが好ましい。 In the image processing system according to an eighth aspect of the present invention, in any one of the fifth to seventh aspects, it is preferable to display position information offset from a reference position of the end effector.
次に、上記目的を達成するために第9発明に係る画像処理方法は、ロボットの動作を制御するロボットコントローラとデータ通信することが可能に接続された通信装置、及び前記ロボットとは別体に設けられ、操作対象である対象物を撮像する撮像装置を含む画像処理装置とで構成される画像処理システムで実行することが可能な画像処理方法であって、前記画像処理装置が、マークが付与された対象物をキャリブレーションターゲットとして前記ロボットのエンドエフェクタに把持させた状態で、前記エンドエフェクタを複数の位置に移動させ、実際の前記エンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行する工程と、表示手段に表示されている画像上で使用者により指定された位置情報、又は該画像上で検出された対象物の位置情報を、前記変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令を前記ロボットコントローラに対して送信する工程とを含み、前記ロボットコントローラが、前記移動命令を解釈し、ロボットの種別に応じたエンドエフェクタに対する移動命令に変換する工程と、前記エンドエフェクタを移動させるとともに、移動した前記エンドエフェクタの各位置座標である第一の座標値を取得する工程と、前記第一の座標値を前記画像処理装置に送信する工程とを含み、前記画像処理装置が、前記第一の座標値を受信し、前記変換式に基づいて、前記表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得する工程と、前記エンドエフェクタが移動中に対象物を撮像するよう前記撮像装置の動作を制御する工程と、撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、前記移動目標位置と、第一の位置情報の位置とを示す印を、前記表示手段に表示されている対象物の画像上に重畳して表示する工程とを含むことを特徴とする。 Next, the image processing method according to a ninth aspect of the invention in order to achieve the above object, is connected to a communication device to communicate the robot controller and the data for controlling the operation of the robot, and separate from the robot An image processing method that can be executed by an image processing system including an image processing apparatus including an imaging device provided on a body and capturing an object to be operated, the image processing apparatus being a mark The end effector is moved to a plurality of positions in a state in which the end effector of the robot is gripped by the robot as a calibration target, the plurality of position coordinates of the actual end effector and the object on the image of based on the plurality of position coordinates, the detected coordinate values on the image, the actual conversion formula for converting the coordinates of the end effector of the robot Performing calibration, and positional information designated by the user on the image displayed on the display means, or positional information of the object detected on the image, based on the conversion equation. Converting the movement target position of the end effector and transmitting a movement command including the converted movement target position to the robot controller, the robot controller interprets the movement command, and the robot type is determined. Converting the end effector into a movement command for the corresponding end effector, moving the end effector, acquiring a first coordinate value which is each position coordinate of the moved end effector, and converting the first coordinate value Sending the image processing apparatus to the image processing apparatus, wherein the image processing apparatus receives the first coordinate value, and based on the conversion equation. A step of periodically acquiring first position information by converting into coordinate values on an image to be displayed on the display means, and controlling an operation of the imaging device so as to image an object while the end effector is moving And displaying the image of the imaged target as a moving image or as a still image periodically updated, the mark indicating the movement target position and the position of the first position information, And displaying the image on the image of the object displayed on the display means.
次に、上記目的を達成するために第10発明に係るコンピュータプログラムは、ロボットの動作を制御するロボットコントローラとデータ通信することが可能に接続された通信装置、及び前記ロボットとは別体に設けられ、操作対象である対象物を撮像する撮像装置とを有する画像処理装置で実行することが可能なコンピュータプログラムであって、前記画像処理装置を、マークが付与された対象物をキャリブレーションターゲットとして前記ロボットのエンドエフェクタに把持させた状態で、前記エンドエフェクタを複数の位置に移動させ、実際の前記エンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行するキャリブレーション実行手段、表示手段に表示されている画像上で使用者により指定を受け付けた位置情報、又は該画像上で検出された対象物の位置情報を、前記変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令を前記ロボットコントローラに対して送信する命令送信手段、前記ロボットコントローラから、前記移動命令により移動した前記エンドエフェクタの各位置座標である第一の座標値を受信し、前記変換式に基づいて、前記表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得する位置情報取得手段、前記エンドエフェクタが移動中に対象物を撮像するよう前記撮像装置の動作を制御する撮像制御手段、及び撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、前記移動目標位置と、第一の位置情報の位置とを示す印を、前記表示手段に表示されている対象物の画像上に重畳して表示する表示制御手段として機能させることを特徴とする。 Then, a computer program according to a tenth invention for achieving the above object, is connected to a communication device to communicate the robot controller and the data for controlling the operation of the robot, and separate from the said robot Computer program that can be executed by an image processing apparatus provided with an imaging device for imaging an object to be operated, the image processing device being calibrated with an object provided with a mark The end effector is moved to a plurality of positions while being held by the end effector of the robot as a target, and based on a plurality of position coordinates of the actual end effector and a plurality of position coordinates of an object on an image , the detected coordinate values on the image, the conversion formula determined to be converted to the actual coordinates of the end effector of the robot Calibration execution means for performing calibration, position information for which designation has been received by the user on the image displayed on the display means, or position information of an object detected on the image, based on the conversion equation Command transmitting means for converting to the movement target position of the end effector and transmitting a movement command including the converted movement target position to the robot controller; each of the end effector moved from the robot controller according to the movement command Position information acquisition for periodically acquiring first position information by receiving a first coordinate value, which is position coordinates, and converting the coordinate value on an image to be displayed on the display means based on the conversion equation An imaging control unit configured to control an operation of the imaging device such that the end effector captures an object while moving; When the image of the imaged object is displayed as a moving image or as a still image periodically updated, a mark indicating the movement target position and the position of the first position information is displayed on the display means. It is characterized in that it functions as a display control means for displaying superimposed on the image of the target object being displayed.
第1発明、第5発明、第9発明及び第10発明では、画像処理装置は、マークが付与された対象物をキャリブレーションターゲットとしてロボットのエンドエフェクタに把持させた状態で、エンドエフェクタを複数の位置に移動させ、実際のエンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行し、表示手段に表示されている画像上で使用者により指定された位置情報、又は該画像上で検出された対象物の位置情報を、変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令をロボットコントローラに対して送信する。ロボットコントローラが、移動命令を解釈し、ロボットの種別に応じたエンドエフェクタに対する移動命令に変換し、エンドエフェクタを移動させるとともに、移動したエンドエフェクタの各位置座標である第一の座標値を取得して、第一の座標値を画像処理装置に送信する。画像処理装置は、第一の座標値を受信し、変換式に基づいて、表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得し、エンドエフェクタが移動中に対象物を撮像するよう撮像装置の動作を制御し、撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、移動目標位置と、第一の位置情報の位置とを示す印を、表示手段に表示されている対象物の画像上に重畳して表示する。これにより、ロボットのエンドエフェクタの移動先の位置情報を画像上で目視確認するべく、画像で目視確認することが可能な位置へエンドエフェクタを移動させることができるので、エンドエフェクタが正しい移動目標位置へ移動しているか否かを正確に確認することが可能となる。また、エンドエフェクタの実際の位置と、表示されている画像上の位置とを対応付けることができ、移動目標位置を画像から指定することができるとともに、実際に移動した状態を画像で目視確認することが可能となる。 In the first invention, the fifth invention, the ninth invention and the tenth invention, the image processing apparatus is configured to hold a plurality of end effectors in a state in which the end effector of the robot is held by the end effector of the robot as a calibration target. The coordinate values detected on the image are converted to the coordinate values of the actual robot end effector based on the plurality of position coordinates of the actual end effector and the plurality of position coordinates of the object on the image. Calibration is performed to obtain a conversion formula to be converted, and position information designated by the user on the image displayed on the display means or position information of an object detected on the image is calculated based on the conversion formula Then, the movement target position of the end effector is converted, and a movement command including the converted movement target position is transmitted to the robot controller. The robot controller interprets the movement command, converts it into a movement command for the end effector according to the type of robot, moves the end effector, and acquires a first coordinate value which is each position coordinate of the moved end effector And transmits the first coordinate value to the image processing apparatus. The image processing apparatus receives the first coordinate value, and periodically acquires the first position information by converting it into the coordinate value on the image to be displayed on the display means based on the conversion equation, and the end effector When controlling the operation of the imaging apparatus to capture an object while moving and displaying the image of the captured object as a moving image or as a still image periodically updated, the movement target position, and The mark indicating the position of the position information is superimposed and displayed on the image of the object displayed on the display means. As a result, the end effector can be moved to a position where visual confirmation can be performed on the image so that the positional information of the movement destination of the end effector of the robot can be visually confirmed on the image. It becomes possible to confirm correctly whether it is moving or not. In addition, the actual position of the end effector can be associated with the position on the displayed image, so that the movement target position can be specified from the image, and visual confirmation of the actual movement state can be performed using the image. Is possible.
第2発明及び第6発明では、撮像装置を複数備えており、撮像装置ごとに変換式を一又は複数記憶するので、撮像装置ごとにキャリブレーションを複数回実行して、その結果を逐次記憶することができるので、エンドエフェクタが正しい移動目標位置へ移動しているか否かを正確に確認することが可能となる。 In the second invention and the sixth invention, a plurality of imaging devices are provided, and one or more conversion formulas are stored for each imaging device. Therefore, calibration is performed a plurality of times for each imaging device, and the results are sequentially stored. As a result, it becomes possible to accurately check whether the end effector is moving to the correct movement target position.
第3発明及び第7発明では、エンドエフェクタの移動の履歴情報を表示するので、エンドエフェクタが正しい移動目標位置へ移動しているか否かを移動途上でも確認することが可能となる。 In the third and seventh inventions, since the history information of the movement of the end effector is displayed, it is possible to check whether the end effector is moving to the correct movement target position even while moving.
第4発明及び第8発明では、エンドエフェクタの基準位置からオフセットした位置情報を表示するので、エンドエフェクタの中心位置と、実際に対象物を把持する位置とがずれている場合であっても、画像上で移動目標位置へ移動させるようエンドエフェクタの動作を制御することが可能となる。 In the fourth and eighth inventions, since the position information offset from the reference position of the end effector is displayed, even if the center position of the end effector and the position at which the object is actually gripped are deviated, It is possible to control the operation of the end effector to move to the movement target position on the image.
本発明によれば、マニピュレータ(ロボット)のエンドエフェクタの移動先の位置情報を画像上で目視確認するべく、画像で目視確認することが可能な位置へエンドエフェクタを移動させることができるので、エンドエフェクタが正しい移動目標位置へ移動しているか否かを正確に確認することが可能となる。また、エンドエフェクタの実際の位置と、表示されている画像上の位置とを対応付けることができ、移動目標位置を画像から指定することができるとともに、実際に移動した状態を画像で目視確認することが可能となる。 According to the present invention, in order to visually check the Endoefeku position information of the destination data of the manipulator (robot) on the image, the image in the visual confirmation that capable of position can be moved to the end effector, it becomes possible to Endoefeku data to accurately confirm whether or not to move to the correct movement target position. In addition, the actual position of the end effector can be associated with the position on the displayed image, so that the movement target position can be specified from the image, and visual confirmation of the actual movement state can be performed using the image. Is possible.
以下、本発明の実施の形態に係る画像処理システムについて、図面に基づいて具体的に説明する。図1は、本発明の実施の形態に係る画像処理システムの構成を示す模式図である。 Hereinafter, an image processing system according to an embodiment of the present invention will be specifically described based on the drawings. FIG. 1 is a schematic view showing a configuration of an image processing system according to an embodiment of the present invention.
図1に示すように、本実施の形態に係る画像処理システムは、対象物(ワーク)6を移動させるマニピュレータ(ロボット)1、マニピュレータ1の動作を制御するロボットコントローラ2、画像処理装置3、及び撮像装置4で構成されている。マニピュレータ1の先端には、対象物6を把持又は解放することが可能なエンドエフェクタ5が設けられており、ロボットコントローラ2はエンドエフェクタ5の開閉動作も制御する。
As shown in FIG. 1, the image processing system according to the present embodiment includes a manipulator (robot) 1 for moving an object (workpiece) 6, a
撮像装置4は、例えばカラーCCDカメラであり、移動する対象物であるワーク6を撮像する。撮像された画像に基づいて、後述するキャリブレーションを実行することにより、実際のワーク6の位置座標(エンドエフェクタ5の移動位置の座標)と、画面に表示された画像上の位置座標とをリンクさせることができる。
The
マニピュレータ1は、3本のアームで構成されており、2本のアームが互いになす角度、及びアーム支点の回転により、エンドエフェクタ5を所望の位置へ移動させる。
The
図2は、本発明の実施の形態に係る画像処理システムの画像処理装置3の構成例を示すブロック図である。本発明の実施の形態に係る画像処理装置3は、少なくともCPU(中央演算装置)等で構成された制御部31、メモリ32、記憶装置33、入出力インタフェース34、表示インタフェース35、通信インタフェース36及び上述したハードウェアを接続する内部バス37で構成されている。
FIG. 2 is a block diagram showing a configuration example of the
制御部31は、内部バス37を介して画像処理装置3の上述したようなハードウェア各部と接続されており、上述したハードウェア各部の動作を制御するとともに、記憶装置33に記憶されているコンピュータプログラムに従って、種々のソフトウェア的機能を実行する。メモリ32は、SRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラムの実行時にロードモジュールが展開され、コンピュータプログラムの実行時に発生する一時的なデータ等を記憶する。
The
記憶装置33は、内蔵される固定型記憶装置(ハードディスク)、SRAM等の揮発性メモリ、ROM等の不揮発性メモリ等で構成されている。記憶装置33に記憶されているコンピュータプログラムは、プログラム及びデータ等の情報を記録したDVD、CD−ROM等の可搬型記録媒体からダウンロード、あるいは通信インタフェース36を介してダウンロードされ、実行時には記憶装置33からメモリ32へ展開して実行される。
The
通信インタフェース(通信装置)36は内部バス37に接続されており、インターネット、LAN、WAN等の外部のネットワークに接続されることにより、外部のコンピュータ等とデータ送受信を行うことが可能となっている。
The communication interface (communication device) 36 is connected to the
入出力インタフェース34は、キーボード38、マウス39等のデータ入力媒体と接続され、データの入力を受け付ける。また、表示インタフェース35は、CRTモニタ、LCD等の表示装置40と接続され、所定の画像を表示する。
The input /
図3は、本発明の実施の形態に係る画像処理装置3の機能ブロック図である。画像処理装置3の命令送信部301は、移動目標位置にエンドエフェクタ5を移動させる移動命令をロボットコントローラ2に対して送信する。
FIG. 3 is a functional block diagram of the
移動命令で指定する移動先の位置情報、具体的には移動先の座標値は、表示されている画像上で指定を受け付けることが好ましい。指定受付部302は、表示されている画像上で移動目標位置として対象物6の第二の位置情報の指定を受け付ける。命令送信部301は、指定受付部302で指定を受け付けた対象物6の第二の位置情報を移動目標位置としてロボットコントローラ2へ送信する。
It is preferable that the position information of the movement destination designated by the movement command, specifically, the coordinate value of the movement destination is accepted on the displayed image. The
もちろん、表示されている画像を解析することで、画像上の対象物6の第二の位置情報を検出しても良い。この場合、位置情報検出部(検出手段)303は、表示されている画像から、画像上の対象物6の第二の位置情報を検出する。命令送信部301は、位置情報検出部303で検出された対象物6の第二の位置情報をエンドエフェクタ5の移動目標位置としてロボットコントローラ2へ送信する。
Of course, the second position information of the object 6 on the image may be detected by analyzing the displayed image. In this case, the position information detection unit (detection means) 303 detects second position information of the object 6 on the image from the displayed image. The
キャリブレーション実行部304は、画像上で検出された位置情報を、実際のエンドエフェクタ5の位置情報に変換する変換式を求める。具体的には、複数の位置座標それぞれについて、マニピュレータ1のエンドエフェクタ5の実際の位置座標(第一の位置情報)と、画像処理装置3に表示されている画像上の対象物6の位置座標(第二の位置情報)との間の変換式を算出する。座標変換の方法は、特に限定されるものではなく、例えばアフィン変換で変換する。
The
(式1)に示すように、マニピュレータ1のエンドエフェクタ5の実際の位置座標(x’、y’)と、画像処理装置3に表示されている画像上の位置座標(x、y)とに基づいて、6つの自由度を有する変換式の係数a、b、c、d、e、fを求める。対応する位置座標が6つを超える場合には、最小二乗法を用いれば良い。
As shown in (Equation 1), the actual position coordinates (x ′, y ′) of the
図4は、本発明の実施の形態に係る画像処理システムのキャリブレーションの処理手順を示すフローチャートである。図4に示すように、画像処理装置3は、マニピュレータ1に撮像対象となるマークを付与したワーク6を、キャリブレーションターゲットとして把持させた状態で、キャリブレーションの開始位置を設定する(ステップS401)。
FIG. 4 is a flowchart showing a calibration processing procedure of the image processing system according to the embodiment of the present invention. As illustrated in FIG. 4, the
画像処理装置3は、マニピュレータ1のエンドエフェクタ5の移動パターンを設定する(ステップS402)。画像処理装置3は移動命令をロボットコントローラ2へ送信する(ステップS403)。ロボットコントローラ2は、移動命令を受信して(ステップS404)、移動命令をマニピュレータ1の種別に応じて解釈する(ステップS405)。すなわち、マニピュレータ1を稼働させることが可能な機械語のロードモジュールに翻訳する。
The
ロボットコントローラ2は、エンドエフェクタ5を移動命令で指定されている位置へと移動させ(ステップS406)。ロボットコントローラ2は、エンドエフェクタ5の移動先の第一の位置情報である位置座標(x’、y’)を取得して(ステップS407)、取得した位置座標(x’、y’)を画像処理装置3へ送信する(ステップS408)。
The
画像処理装置3は、ロボットコントローラ2から、取得した位置座標(x’、y’)を受信し(ステップS409)、エンドエフェクタ5の動作領域を撮像する(ステップS410)。画像処理装置3は、動作領域の画像を表示し、表示されている画像上の対象物6の第二の位置情報である位置座標(x、y)を検出する(ステップS411)。
The
画像処理装置3は、キャリブレーション用のすべての位置座標(x’、y’)について画像上の位置座標(x、y)を検出したか否かを判断する(ステップS412)。画像処理装置3が、まだすべての位置座標(x’、y’)について画像上の位置座標(x、y)を検出していないと判断した場合(ステップS412:NO)、画像処理装置3は、次の移動命令を発行し(ステップS413)、処理をステップS403へ戻して、上述した処理を繰り返す。
The
画像処理装置3が、すべての位置座標(x’、y’)について画像上の位置座標(x、y)を検出したと判断した場合(ステップS412:YES)、画像処理装置3は、(式1)に従って変換式を算出する(ステップS414)。具体的には、6つの係数a、b、c、d、e、fを求める。
When the
係数を求めた変換式(式1)は、画像処理装置3の記憶装置(記憶手段)33に記憶される。記憶されている変換式(式1)を用いて、例えば第二の位置情報を変換式を用いて第一の位置情報に変換してロボットコントローラ2へ送信しても良いし、取得したエンドエフェクタ5の第一の位置情報を受信し、記憶されている変換式を用いて第二の位置情報に変換して、表示装置40に表示しても良い。
The conversion equation (Equation 1) for which the coefficient has been obtained is stored in the storage device (storage means) 33 of the
なお、撮像装置4を複数備えている場合には、撮像装置4ごとに変換式(式1)の係数を求めて、撮像装置4を識別する識別情報に対応付けて記憶装置33に記憶する。記憶されている一又は複数の変換式を、撮像装置4の識別情報をキー情報として読み出すことにより、機種ごとの誤差等に依存することなく、画像処理装置3から受信した移動命令に応じて、エンドエフェクタ5を正確に移動目標位置に移動させることができる。
When a plurality of
図5は、本発明の実施の形態に係る画像処理装置3のエンドエフェクタ5の位置の表示画面の例示図である。図5の例では、撮像装置4で撮像されているワーク6の画像を表示する画像表示領域55において、ワーク6の画像52を表示するとともに、マスター位置53をワーク6の画像が表示されている同一の画像上に重畳して表示している。
FIG. 5 is an illustrative view of a display screen of the position of the
マスター位置とは、画像上で基準とする基準位置を意味しており、画像処理装置3は、マスター位置からのオフセット(位置ずれ)として、エンドエフェクタ5の位置を表示することができる。通常、マスター位置としてエンドエフェクタ5の中心位置TCPを用いる。
The master position means a reference position on the image as a reference, and the
このように、画像処理装置3は、マスター位置(基準位置)53及びマスター位置53からオフセットした位置を同一の画像上に表示することにより、例えばエンドエフェクタ5の中心位置TCPと画像上のワーク6の位置とに位置ずれが生じている場合であっても、ワーク6を把持することができる位置まで移動させるよう、エンドエフェクタ5の動作を制御することが可能となる。
Thus, the
図6は、本発明の実施の形態に係る画像処理装置3のマスター位置の登録画面の例示図である。図6に示すように、撮像装置4が、エンドエフェクタ5によりワーク6を把持した状態で、エンドエフェクタ5の中心位置TCPの座標値及び中心位置TCPからオフセットした位置座標の座標値を取得する。取得したエンドエフェクタ5の中心位置TCPの座標値及び中心位置TCPからオフセットした位置座標の座標値は、座標表示領域61に表示される。
FIG. 6 is an illustration of a registration screen of a master position of the
そして、移動ボタン62をマウス等によりクリック操作することにより、登録したエンドエフェクタ5の中心位置TCPに、マニピュレータ1のエンドエフェクタ5を容易に戻すことが可能となる。
Then, by clicking the
なお、エンドエフェクタ5の第一の位置情報は、後述する位置情報取得部305により取得される。すなわち、取得した第一の位置情報を、変換式(式1)に基づいて第二の位置情報に変換し、ワーク6の画像が表示されている同一の画像上に重畳して表示する。
The first position information of the
図3に戻って、位置情報取得部305は、移動命令に応じて移動しているエンドエフェクタ5の位置情報(第一の位置情報)を定期的に取得する。撮像制御部308は、エンドエフェクタ5が移動した各移動先にて対象物6を撮像するよう撮像装置4の動作を制御し、表示部307は、撮像された対象物6の画像を動画として、又は定期的に更新される静止画として表示装置40に表示する。
Returning to FIG. 3, the position
表示制御部306は、移動目標位置及び移動目標位置にエンドエフェクタ5が到達するまでに定期的に取得されたエンドエフェクタ5の位置情報(第一の位置情報)を、ワーク6の画像が表示されている画像上に重畳して表示する。図7は、本発明の実施の形態に係る画像処理装置3の移動目標位置の表示画面の例示図である。
The
図7に示すように、マスター位置(基準位置)53が「十」印で表示されるとともに、オフセットした位置72が位置座標とともに「十」印で表示され、エンドエフェクタ5の中心位置TCPを示している。
As shown in FIG. 7, the master position (reference position) 53 is displayed by “10” marks, and the offset
図7では、位置72に到達するまでのエンドエフェクタ5の移動を示す複数の位置座標73も、エンドエフェクタ5の位置情報を定期的に取得するごとに表示されている。したがって、矢印の方向に、エンドエフェクタ5が次第に移動していることを目視で確認することができる。そして、位置72に収束した時点で、移動命令で指定された移動目標位置に到達したものと判断することができる。つまり、エンドエフェクタ5の移動の履歴情報をワーク6の画像が表示されていた同一の画像上に重畳して表示する。
In FIG. 7, a plurality of position coordinates 73 indicating the movement of the
また、ロボットコントローラ2は、動作を制御するマニピュレータ(ロボット)1の種別に応じて、移動命令を変換する必要がある。図8は、本発明の実施の形態に係るロボットコントローラ2の機能ブロック図である。
In addition, the
図8に示すように、ロボットコントローラ2は、プログラム変換部201を備えている。プログラム変換部201は、マニピュレータ(ロボット)1の種別ごとに提供されており、移動命令をマニピュレータ1の種別に応じたエンドエフェクタ5への移動命令に変換する。これにより、使用するマニピュレータ1の種別に応じた変換プログラムをロボットコントローラ2にインストールすることができ、マニピュレータ1の種別に応じたエンドエフェクタ5の移動命令に変換することができる。
As shown in FIG. 8, the
図9は、本発明の実施の形態に係るロボットコントローラ2の変換プログラムの処理手順を示すフローチャートである。図9に示すように、ロボットコントローラ2は、画像処理装置3とデータ通信を確立し(ステップS901)、移動命令を受信したか否かを判断する(ステップS902)。
FIG. 9 is a flowchart showing the processing procedure of the conversion program of the
ロボットコントローラ2が、受信していないと判断した場合(ステップS902:NO)、ロボットコントローラ2は、受信待ち状態となる。ロボットコントローラ2が、受信したと判断した場合(ステップS902:YES)、ロボットコントローラ2は、最初の移動命令を解釈する(ステップS903)。
If the
ロボットコントローラ2は、解釈した移動命令の内容に沿って移動命令を変換して、マニピュレータ1のエンドエフェクタ5を移動させる(ステップS904)。ロボットコントローラ2は、すべての移動命令を解釈したか否かを判断する(ステップS905)。
The
ロボットコントローラ2が、まだ解釈していない移動命令があると判断した場合(ステップS905:NO)、ロボットコントローラ2は、次の移動命令を解釈して(ステップS906)、処理をステップS904へ戻して上述した処理を繰り返す。ロボットコントローラ2が、すべての移動命令を解釈したと判断した場合(ステップS905:YES)、ロボットコントローラ2は、処理を終了する。
If the
図10は、本発明の実施の形態に係るロボットコントローラ2の変換プログラムの例示図である。図10に示すように、ソースコード1001は、画像処理装置3とのデータ通信を確立する命令である。
FIG. 10 is an illustration of a conversion program of the
ソースコード1002は、画像処理装置3から移動命令を受信する命令である。ソースコード1003は、移動命令を解釈する命令である。図10に示すソースコードでは、例えば移動命令「MV、100、200、300」を受信した場合、命令コード「MV」を検出し、移動先の位置として(100、200、300)を記憶することになる。このように移動命令のデータ構造に合わせた変換プログラムを準備することにより、外部から移動命令を受け付けることができる。
The
また、一般に移動命令のデータ構造は、ロボットメーカーに応じて相違する。そこで、ロボットメーカーごとに変換プログラムを事前に用意しておき、使用するロボットメーカーに応じた変換プログラムをロボットコントローラ2にインストールする。これにより、ロボットコントローラ2は、画像処理装置3から送信された共通のフォーマットの移動命令を、ロボットの種別に応じたエンドエフェクタ5の移動命令に変換することができる。
Also, in general, the data structure of the movement command differs depending on the robot manufacturer. Therefore, a conversion program is prepared in advance for each robot manufacturer, and a conversion program corresponding to the robot manufacturer to be used is installed in the
なお、上述した例では、移動命令を文字列で記載しており、イーサネット(登録商標)のノン−プロトコル通信で送信しているが、例えばロボットコントローラ2の共有メモリにおいて、アドレスAAAには命令を、アドレスBBBには命令のパラメータを、それぞれ割り当てることで文字列を用いずに、数値データをやり取りすることで命令体系を構成することもできる。画像処理装置3から数値での移動命令を受信した場合、アドレスAAAは移動命令「MV」に相当する数値番号で、アドレスBBBは「100、200、300」で書き換えられ、マニピュレータ1に対する移動命令として発行される。
In the above example, the move instruction is described as a character string and transmitted by non-protocol communication of Ethernet (registered trademark). For example, in the shared memory of the
もちろん、これ以外のプロトコル、例えばイーサネット(登録商標)のプロトコル通信、PLCリンク、CC−Link、PROFINET等の各プロトコル通信を用いても良い。 Of course, other protocols such as Ethernet (registered trademark) protocol communication, PLC link, CC-Link, PROFINET and other protocol communication may be used.
上述した処理は、キャリブレーションのデバッグ/確認処理に有効である。図11は、本発明の実施の形態に係る画像処理システムのピックアップ位置を補正する場合のピッキングの処理手順を示すフローチャートである。図11に示すように、画像処理装置3は、キャリブレーションを実行する(ステップS1101)。なお、キャリブレーションによる変換式を複数記憶しておくことが可能であり、アプリケーションに応じて切り替えることができる。この時、ユーザが誤った変換式を使って、マニピュレータ1に対して移動命令を送信した場合、マニピュレータ1は想定外の動作をするおそれがある。
The above-described process is effective for calibration debugging / confirmation process. FIG. 11 is a flowchart showing a picking processing procedure in the case of correcting the pickup position of the image processing system according to the embodiment of the present invention. As shown in FIG. 11, the
画像処理装置3は、撮像されたワーク6の画像に基づいて、移動目標位置を検出する(ステップS1102)。具体的には、ワーク6の画像に基づいて、表示されている画像上のワーク6の位置座標(x、y)を検出する。
The
あるいは、画像処理装置3は、移動目標位置の指定を受け付ける(ステップS1103)。具体的には、撮像されたワーク6の画像中で、マウス等によるクリック操作により移動目標位置の指定を受け付ける。
Alternatively, the
画像処理装置3は、検出した位置座標(x、y)又は指定を受け付けた位置座標(x、y)を、キャリブレーションで求めた変換式(式1)に基づいて、実際の位置座標(x’、y’)に変換し(ステップS1104)、変換された位置座標(x’、y’)を含む移動命令をロボットコントローラ2へ送信する(ステップS1105)。
The
ロボットコントローラ2は、位置座標(x’、y’)を含む移動命令を受信し(ステップS1106)、移動命令を解釈して(ステップS1107)、エンドエフェクタ5を移動させる(ステップS1108)。ロボットコントローラ2は、移動先の位置座標(x’、y’)を取得し(ステップS1109)、取得した位置座標(x’、y’)を画像処理装置3へ送信する(ステップS1110)。
The
画像処理装置3は、位置座標(x’、y’)を受信し(ステップS1111)、変換式(式1)を用いて、画像上の位置座標(x、y)へ変換する(ステップS1112)。画像処理装置3は、画像上の位置座標(x、y)を重畳表示し(ステップS1113)、画像上の位置座標(x、y)が移動命令で指定した位置座標と一定範囲内に収束しているか否かを判断する(ステップS1114)。
The
画像処理装置3が、位置座標(x’、y’)が移動命令で指定した位置座標と一定範囲内に収束していないと判断した場合(ステップS1114:NO)、画像処理装置3は、処理をステップS1105へ戻して、上述した処理を繰り返す。画像処理装置3が、位置座標(x’、y’)が移動命令で指定した位置座標と一定範囲内に収束したと判断した場合(ステップS1114:YES)、処理を終了する。
When the
以上のように本実施の形態によれば、マニピュレータ(ロボット)1のエンドエフェクタ5の移動先の位置情報を画像上で目視確認することができるので、エンドエフェクタ5が正しい移動目標位置へ移動しているか否かを正確に確認することが可能となる。
As described above, according to the present embodiment, the position information of the movement destination of the
なお、本発明は上記実施例に限定されるものではなく、本発明の趣旨の範囲内であれば多種の変更、改良等が可能である。例えばロボットコントローラ2の代わりにモーションコントローラを用いることができる。
The present invention is not limited to the above-described embodiment, and various changes, improvements, and the like can be made within the scope of the present invention. For example, a motion controller can be used instead of the
また、キャリブレーションとして二次元のアフィン変換を用いる例について説明しているが、もちろん三次元のアフィン変換を用いても良い。 Also, although an example in which two-dimensional affine transformation is used as calibration is described, it is of course possible to use three-dimensional affine transformation.
1 マニピュレータ(ロボット)
2 ロボットコントローラ
3 画像処理装置
4 撮像装置
5 エンドエフェクタ
6 対象物(ワーク)
31 制御部
32 メモリ
33 記憶装置
36 通信インタフェース(通信装置)
1 Manipulator (robot)
2
31
Claims (10)
を有する画像処理装置であって、
マークが付与された対象物をキャリブレーションターゲットとして前記ロボットのエンドエフェクタに把持させた状態で、前記エンドエフェクタを複数の位置に移動させ、実際の前記エンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行するキャリブレーション実行手段と、
表示手段に表示されている画像上で使用者により指定を受け付けた位置情報、又は該画像上で検出された対象物の位置情報を、前記変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令を前記ロボットコントローラに対して送信する命令送信手段と、
前記ロボットコントローラから、前記移動命令により移動した前記エンドエフェクタの各位置座標である第一の座標値を受信し、前記変換式に基づいて、前記表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得する位置情報取得手段と、
前記エンドエフェクタが移動中に対象物を撮像するよう前記撮像装置の動作を制御する撮像制御手段と、
撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、前記移動目標位置と、第一の位置情報の位置とを示す印を、前記表示手段に表示されている対象物の画像上に重畳して表示する表示制御手段と
を備えることを特徴とする画像処理装置。 Is connected to a communication device to communicate the robot controller and data for controlling the operation of the robot, and the said robot provided separately, the image processing with the imaging apparatus for imaging an object to be operated A device,
In a state in which the end effector of the robot is held by the end effector of the robot as a calibration target, the end effector is moved to a plurality of positions, and a plurality of position coordinates of the actual end effector and an object on the image Calibration executing means for executing calibration for obtaining a conversion equation for converting coordinate values detected on an image into coordinate values of an actual end effector of a robot based on a plurality of position coordinates of an object ;
Based on the conversion equation, the position information of the position displayed on the display means for receiving designation by the user or the position information of the object detected on the image is converted into the movement target position of the end effector. Command transmitting means for transmitting a movement command including the converted movement target position to the robot controller;
A first coordinate value which is each position coordinate of the end effector moved by the movement command is received from the robot controller, and converted to a coordinate value on an image to be displayed on the display means based on the conversion equation. Position information acquisition means for periodically acquiring the first position information,
Imaging control means for controlling the operation of the imaging device to image an object while the end effector is moving;
When the image of the imaged object is displayed as a moving image or as a still image periodically updated, a mark indicating the movement target position and the position of the first position information is displayed on the display means. An image processing apparatus comprising: a display control unit configured to display an image superimposed on the image of the target object being displayed;
撮像装置ごとに前記変換式を一又は複数記憶することを特徴とする請求項1に記載の画像処理装置。 A plurality of the imaging devices are provided,
The image processing apparatus according to claim 1, wherein one or more conversion formulas are stored for each imaging device.
前記画像処理装置は、
マークが付与された対象物をキャリブレーションターゲットとして前記ロボットのエンドエフェクタに把持させた状態で、前記エンドエフェクタを複数の位置に移動させ、実際の前記エンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行するキャリブレーション実行手段と、
表示手段に表示されている画像上で使用者により指定された位置情報、又は該画像上で検出された対象物の位置情報を、前記変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令を前記ロボットコントローラに対して送信する命令送信手段と
を備え、
前記ロボットコントローラは、
前記移動命令を解釈し、ロボットの種別に応じたエンドエフェクタに対する移動命令に変換する命令変換手段と、
前記エンドエフェクタを移動させるとともに、移動した前記エンドエフェクタの各位置座標である第一の座標値を取得する座標値取得手段と、
前記第一の座標値を前記画像処理装置に送信する座標値送信手段と
を有し、
前記画像処理装置は、
前記第一の座標値を受信し、前記変換式に基づいて、前記表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得する位置情報取得手段と、
前記エンドエフェクタが移動中に対象物を撮像するよう前記撮像装置の動作を制御する撮像制御手段と、
撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、前記移動目標位置と、第一の位置情報の位置とを示す印を、前記表示手段に表示されている対象物の画像上に重畳して表示する表示制御手段と
を備えることを特徴とする画像処理システム。 It is connected to a communication device to communicate the robot controller and the data for controlling the operation of the robot, and is provided separately from the said robot, image processing including an image pickup device for imaging an object to be operated An image processing system comprising
The image processing apparatus is
In a state in which the end effector of the robot is held by the end effector of the robot as a calibration target, the end effector is moved to a plurality of positions, and a plurality of position coordinates of the actual end effector and an object on the image Calibration executing means for executing calibration for obtaining a conversion equation for converting coordinate values detected on an image into coordinate values of an actual end effector of a robot based on a plurality of position coordinates of an object ;
The position information designated by the user on the image displayed on the display means, or the position information of the object detected on the image is converted into the movement target position of the end effector based on the conversion equation. Command transmitting means for transmitting a movement command including the converted movement target position to the robot controller;
The robot controller is
Command conversion means for interpreting the movement command and converting it into a movement command for the end effector according to the type of robot;
Coordinate value acquisition means for moving the end effector and acquiring a first coordinate value which is each position coordinate of the moved end effector;
Coordinate value transmitting means for transmitting the first coordinate value to the image processing apparatus;
The image processing apparatus is
Position information acquiring means for periodically acquiring first position information by receiving the first coordinate value and converting the coordinate value on the image to be displayed on the display means based on the conversion equation;
Imaging control means for controlling the operation of the imaging device to image an object while the end effector is moving;
When the image of the imaged object is displayed as a moving image or as a still image periodically updated, a mark indicating the movement target position and the position of the first position information is displayed on the display means. An image processing system comprising: display control means for superimposing on an image of an object being displayed;
撮像装置ごとに前記変換式を一又は複数記憶することを特徴とする請求項5に記載の画像処理システム。 A plurality of the imaging devices are provided,
6. The image processing system according to claim 5, wherein one or more conversion formulas are stored for each imaging device.
前記画像処理装置が、
マークが付与された対象物をキャリブレーションターゲットとして前記ロボットのエンドエフェクタに把持させた状態で、前記エンドエフェクタを複数の位置に移動させ、実際の前記エンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行する工程と、
表示手段に表示されている画像上で使用者により指定された位置情報、又は該画像上で検出された対象物の位置情報を、前記変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令を前記ロボットコントローラに対して送信する工程と
を含み、
前記ロボットコントローラが、
前記移動命令を解釈し、ロボットの種別に応じたエンドエフェクタに対する移動命令に変換する工程と、
前記エンドエフェクタを移動させるとともに、移動した前記エンドエフェクタの各位置座標である第一の座標値を取得する工程と、
前記第一の座標値を前記画像処理装置に送信する工程と
を含み、
前記画像処理装置が、
前記第一の座標値を受信し、前記変換式に基づいて、前記表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得する工程と、
前記エンドエフェクタが移動中に対象物を撮像するよう前記撮像装置の動作を制御する工程と、
撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、前記移動目標位置と、第一の位置情報の位置とを示す印を、前記表示手段に表示されている対象物の画像上に重畳して表示する工程と
を含むことを特徴とする画像処理方法。 It is connected to a communication device to communicate the robot controller and the data for controlling the operation of the robot, and is provided separately from the said robot, image processing including an image pickup device for imaging an object to be operated An image processing method that can be executed by an image processing system configured with an apparatus, comprising:
The image processing apparatus
In a state in which the end effector of the robot is held by the end effector of the robot as a calibration target, the end effector is moved to a plurality of positions, and a plurality of position coordinates of the actual end effector and an object on the image Performing a calibration for obtaining a conversion equation for converting coordinate values detected on an image into coordinate values of an actual end effector of a robot based on a plurality of position coordinates of an object ;
The position information designated by the user on the image displayed on the display means, or the position information of the object detected on the image is converted into the movement target position of the end effector based on the conversion equation. And transmitting to the robot controller a movement command including the converted movement target position.
The robot controller
Interpreting the movement command and converting it into a movement command for the end effector according to the type of robot;
Moving the end effector and acquiring a first coordinate value which is each position coordinate of the moved end effector;
Sending the first coordinate value to the image processing device;
The image processing apparatus
Receiving the first coordinate value, and periodically acquiring first position information by converting the coordinate value on the image to be displayed on the display means based on the conversion equation;
Controlling the operation of the imaging device to image the object while the end effector is moving;
When the image of the imaged object is displayed as a moving image or as a still image periodically updated, a mark indicating the movement target position and the position of the first position information is displayed on the display means. And displaying the superimposed image on the image of the target object.
を有する画像処理装置で実行することが可能なコンピュータプログラムであって、
前記画像処理装置を、
マークが付与された対象物をキャリブレーションターゲットとして前記ロボットのエンドエフェクタに把持させた状態で、前記エンドエフェクタを複数の位置に移動させ、実際の前記エンドエフェクタの複数の位置座標と画像上の対象物の複数の位置座標とに基づいて、画像上で検出された座標値を、実際のロボットのエンドエフェクタの座標値に変換する変換式を求めるキャリブレーションを実行するキャリブレーション実行手段、
表示手段に表示されている画像上で使用者により指定を受け付けた位置情報、又は該画像上で検出された対象物の位置情報を、前記変換式に基づいてエンドエフェクタの移動目標位置に変換し、変換された移動目標位置を含む移動命令を前記ロボットコントローラに対して送信する命令送信手段、
前記ロボットコントローラから、前記移動命令により移動した前記エンドエフェクタの各位置座標である第一の座標値を受信し、前記変換式に基づいて、前記表示手段に表示させる画像上の座標値に変換することにより第一の位置情報を定期的に取得する位置情報取得手段、
前記エンドエフェクタが移動中に対象物を撮像するよう前記撮像装置の動作を制御する撮像制御手段、及び
撮像された対象物の画像を動画として、又は定期的に更新される静止画として表示する際に、前記移動目標位置と、第一の位置情報の位置とを示す印を、前記表示手段に表示されている対象物の画像上に重畳して表示する表示制御手段
として機能させることを特徴とするコンピュータプログラム。 It is connected to a communication device to communicate the robot controller and the data for controlling the operation of the robot, and is provided separately from the said robot, an image having an imaging device for imaging an object to be operated A computer program that can be executed by a processing device,
The image processing apparatus
In a state in which the end effector of the robot is held by the end effector of the robot as a calibration target, the end effector is moved to a plurality of positions, and a plurality of position coordinates of the actual end effector and an object on the image Calibration executing means for executing calibration for obtaining a conversion equation for converting coordinate values detected on an image into coordinate values of an actual end effector of a robot based on a plurality of position coordinates of an object ;
Based on the conversion equation, the position information of the position displayed on the display means for receiving designation by the user or the position information of the object detected on the image is converted into the movement target position of the end effector. Command transmitting means for transmitting a movement command including the converted movement target position to the robot controller;
A first coordinate value which is each position coordinate of the end effector moved by the movement command is received from the robot controller, and converted to a coordinate value on an image to be displayed on the display means based on the conversion equation. Position information acquisition means for periodically acquiring the first position information by
Imaging control means for controlling the operation of the imaging device to capture an object while the end effector is moving, and when displaying an image of the imaged object as a moving image or as a still image periodically updated A display control unit configured to display a mark indicating the movement target position and the position of the first position information superimposed on the image of the object displayed on the display unit. Computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014262242A JP6529758B2 (en) | 2014-12-25 | 2014-12-25 | Image processing apparatus, image processing system, image processing method and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014262242A JP6529758B2 (en) | 2014-12-25 | 2014-12-25 | Image processing apparatus, image processing system, image processing method and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016120566A JP2016120566A (en) | 2016-07-07 |
JP6529758B2 true JP6529758B2 (en) | 2019-06-12 |
Family
ID=56326933
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014262242A Active JP6529758B2 (en) | 2014-12-25 | 2014-12-25 | Image processing apparatus, image processing system, image processing method and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6529758B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6880982B2 (en) * | 2017-04-21 | 2021-06-02 | セイコーエプソン株式会社 | Control device and robot system |
CN114425155A (en) * | 2022-01-26 | 2022-05-03 | 北京市商汤科技开发有限公司 | Data processing method and device, computer equipment and computer storage medium |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08174454A (en) * | 1994-12-22 | 1996-07-09 | Kobe Steel Ltd | Track display for industrial robot |
JPH08286726A (en) * | 1995-04-12 | 1996-11-01 | Hitachi Ltd | Robot teaching correction device |
JP3655083B2 (en) * | 1998-02-25 | 2005-06-02 | 富士通株式会社 | Interface device for positioning the robot |
US6681151B1 (en) * | 2000-12-15 | 2004-01-20 | Cognex Technology And Investment Corporation | System and method for servoing robots based upon workpieces with fiducial marks using machine vision |
US7233841B2 (en) * | 2002-04-19 | 2007-06-19 | Applied Materials, Inc. | Vision system |
JP4274558B2 (en) * | 2004-09-15 | 2009-06-10 | 富士フイルム株式会社 | Calibration method |
JP2006224291A (en) * | 2005-01-19 | 2006-08-31 | Yaskawa Electric Corp | Robot system |
JP2007061983A (en) * | 2005-09-01 | 2007-03-15 | Fanuc Ltd | Robot monitoring system |
JP2012003727A (en) * | 2010-06-21 | 2012-01-05 | Canon Inc | Image processing apparatus and method thereof |
JP5810562B2 (en) * | 2011-03-15 | 2015-11-11 | オムロン株式会社 | User support device directed to image processing system, program thereof, and image processing device |
JP5544320B2 (en) * | 2011-03-15 | 2014-07-09 | 西部電機株式会社 | Stereoscopic robot picking device |
JP2014144516A (en) * | 2013-01-30 | 2014-08-14 | Seiko Epson Corp | Robot control device, robot system, robot, control method and program |
JP2014180720A (en) * | 2013-03-19 | 2014-09-29 | Yaskawa Electric Corp | Robot system and calibration method |
JP6171457B2 (en) * | 2013-03-25 | 2017-08-02 | セイコーエプソン株式会社 | Robot control apparatus, robot system, robot, robot control method, and robot control program |
-
2014
- 2014-12-25 JP JP2014262242A patent/JP6529758B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016120566A (en) | 2016-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10137574B2 (en) | Image processing apparatus, image processing system, image processing method, and computer program | |
US10173324B2 (en) | Facilitating robot positioning | |
JP5852364B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
KR101193125B1 (en) | Operation teaching system and operation teaching method | |
JP5928114B2 (en) | Robot system, robot system calibration method, robot | |
JP6180086B2 (en) | Information processing apparatus and information processing method | |
JP6816364B2 (en) | Controls, robots, and robot systems | |
JP4961860B2 (en) | Robot apparatus and control method of robot apparatus | |
US10065320B2 (en) | Image processing apparatus, image processing system, image processing method, and computer program | |
US20160136807A1 (en) | Determination of Object-Related Gripping Regions Using a Robot | |
CN105729441A (en) | Robot, robot system, control apparatus, and control method | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
KR20190027584A (en) | Method and apparatus for calibration of a robot hand and a camera | |
JP6885856B2 (en) | Robot system and calibration method | |
US20130111731A1 (en) | Assembling apparatus and method, and assembling operation program | |
JP2016078195A (en) | Robot system, robot, control device and control method of robot | |
JP2014161950A (en) | Robot system, robot control method, and robot calibration method | |
JP6529758B2 (en) | Image processing apparatus, image processing system, image processing method and computer program | |
JP6926906B2 (en) | Robot system, control device and robot control method | |
JP2006224291A (en) | Robot system | |
JP2018122376A (en) | Image processing device, robot control device, and robot | |
JP2016120558A (en) | Robot and robot system | |
JP7366264B2 (en) | Robot teaching method and robot working method | |
KR101563787B1 (en) | Apparatus for transmitting position of multi-axis transport system and method thereof | |
JP2017159429A (en) | Robot control device, information processing device, and robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180813 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180822 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190312 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190515 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6529758 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |