JP2013158846A - Robot device, image generation device, image generation method, and image generation program - Google Patents

Robot device, image generation device, image generation method, and image generation program Download PDF

Info

Publication number
JP2013158846A
JP2013158846A JP2012020144A JP2012020144A JP2013158846A JP 2013158846 A JP2013158846 A JP 2013158846A JP 2012020144 A JP2012020144 A JP 2012020144A JP 2012020144 A JP2012020144 A JP 2012020144A JP 2013158846 A JP2013158846 A JP 2013158846A
Authority
JP
Japan
Prior art keywords
image
unit
information
teaching
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012020144A
Other languages
Japanese (ja)
Other versions
JP5948913B2 (en
Inventor
Yukihiro Yamaguchi
如洋 山口
Shingo Kagami
慎吾 鏡
Masaru Morita
賢 森田
Koichi Hashimoto
浩一 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012020144A priority Critical patent/JP5948913B2/en
Publication of JP2013158846A publication Critical patent/JP2013158846A/en
Application granted granted Critical
Publication of JP5948913B2 publication Critical patent/JP5948913B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To control conveyance of a body considering acceleration/deceleration.SOLUTION: A robot device includes a teaching image generation part (31) that is an image generation device which generates a target image to be a target when conveying a body to a target point by a robot using visual servo control, and includes: a teaching image obtaining part (311) which obtains a teaching image from an image obtained by capturing a range that includes both the target point and the body; an image information obtaining part (312) which obtains information related to the position and posture of the body from the image of the body included in the teaching image; an image information interpolation part (313) which interpolates the information obtained from the image information obtaining part; and a rendering part (314) which renders the target image corresponding to desired conveyance speed using the interpolated information.

Description

本発明は、ロボット装置、画像生成装置、画像生成方法、および画像生成プログラムに関する。   The present invention relates to a robot apparatus, an image generation apparatus, an image generation method, and an image generation program.

近年、電子機器の製造ラインでは、スカラロボットや多軸ロボット等が製品の組み立て作業や検査等のために導入されている。例えば、組み立てラインでは、ロボットが、部品単体やアセンブリー部品等の物体を把持して所定の目標地点まで搬送することにより、電子機器の組み立て作業を支援している。   In recent years, SCARA robots, multi-axis robots, and the like have been introduced in electronic equipment production lines for product assembly operations and inspections. For example, in an assembly line, a robot supports an assembly operation of an electronic device by grasping an object such as a single part or an assembly part and transporting it to a predetermined target point.

この種のロボットの制御技術として、ビジュアルサーボ制御またはビジュアルフィードバック制御と称される制御技術が知られている(例えば特許文献1参照)。このビジュアルサーボ制御は、搬送対象の物体と目標地点との相対的な位置の変化をビデオカメラ装置を用いて視覚情報として計測し、その計測結果をフィードバック情報として用いることにより目標地点に対して物体の相対的位置を制御するサーボ系の一種である。   As this type of robot control technology, a control technology called visual servo control or visual feedback control is known (see, for example, Patent Document 1). In this visual servo control, a change in relative position between the object to be transported and the target point is measured as visual information using a video camera device, and the measurement result is used as feedback information. It is a kind of servo system that controls the relative position of.

ビジュアルサーボ制御を用いたロボットによれば、そのロボットハンドに把持された物体を目標地点まで搬送する場合、目標地点での物体を表す目標画像と、ビデオカメラ装置により得られる現地点での物体のフレーム画像とを比較し、フレーム画像が目標画像と一致するように物体の位置および姿勢を制御することにより物体を搬送する(例えば特許文献2参照)。この場合、搬送経路上の障害物を回避するために複数の中継地点が指定され、各中継地点での物体の位置および姿勢を教示するための複数枚の教示画像が事前に準備される。この複数枚の教示画像を目標画像とすることにより、障害物を回避した経路を辿りながらロボットが物体を最終的な目標地点まで搬送する。   According to a robot using visual servo control, when an object held by the robot hand is transported to a target point, the target image representing the object at the target point and the object at the local point obtained by the video camera device are displayed. The frame image is compared, and the object is conveyed by controlling the position and orientation of the object so that the frame image matches the target image (see, for example, Patent Document 2). In this case, a plurality of relay points are designated in order to avoid obstacles on the transport route, and a plurality of teaching images for teaching the position and orientation of the object at each relay point are prepared in advance. By using the plurality of teaching images as the target image, the robot conveys the object to the final target point while following the path avoiding the obstacle.

特開2002−208009号公報JP 2002-208209 A 特開2003−256025号公報Japanese Patent Laid-Open No. 2003-256025

しかしながら、従来のビジュアルサーボ制御によれば、以下に説明するように、物体を搬送する際の搬送速度を任意に設定することが困難であり、加減速を考慮して物体を搬送することができないという問題がある。   However, according to the conventional visual servo control, as described below, it is difficult to arbitrarily set the conveyance speed when conveying an object, and the object cannot be conveyed in consideration of acceleration / deceleration. There is a problem.

図16は、従来のビジュアルサーボ制御による搬送速度Vの設定手法を説明するための説明図である。同図は、地点Aから目標地点である地点Bに物体を搬送する場合の搬送速度Vの変化を模式的に表している。同図において、横軸が時間(t)、縦軸が搬送速度(V)を表しており、白丸が33ミリ秒毎に画像情報により生成される速度指令値を示している。白丸間は、例えば4次関数により補間されており、速度と加速度が滑らかに接続される。実際には、ロボットへの速度指令は例えば1ミリ秒毎に与える為、一般的にこのような補間処理を行う。従来のビジュアルサーボ制御によれば、物体の搬送速度Vは、教示画像と現地点での物体のフレーム画像との差分に比例した値に設定される。そして、ビデオカメラ装置により得られるフレーム画像のフレームレート(例えば30フレーム/秒)に相当する一定周期(例えば33ミリ秒)毎に搬送速度Vが更新される。そのため、図16に示すように、物体が地点Bに近づくにつれ、搬送速度Vが徐々に低下する傾向を示す。   FIG. 16 is an explanatory diagram for explaining a conventional method for setting the conveyance speed V by visual servo control. The figure schematically shows a change in the conveyance speed V when an object is conveyed from the point A to the point B which is the target point. In the figure, the horizontal axis represents time (t), the vertical axis represents the conveyance speed (V), and the white circles represent speed command values generated from the image information every 33 milliseconds. The white circles are interpolated by a quartic function, for example, and the speed and acceleration are smoothly connected. Actually, since the speed command to the robot is given every 1 millisecond, for example, such interpolation processing is generally performed. According to the conventional visual servo control, the object conveyance speed V is set to a value proportional to the difference between the teaching image and the frame image of the object at the local point. Then, the conveyance speed V is updated every fixed period (for example, 33 milliseconds) corresponding to the frame rate (for example, 30 frames / second) of the frame image obtained by the video camera device. For this reason, as shown in FIG. 16, as the object approaches the point B, the conveyance speed V tends to gradually decrease.

図16の例では、物体が地点Aにある場合、この地点Aでの物体のフレーム画像と教示画像との差分として、例えば物体から目標地点Bまでの距離(この場合、地点Aから地点Bまでの距離)が算出される。そして、事前に設定された制御規則に従って、この距離に相当する搬送速度Vaで物体の搬送が開始される。次のフレーム画像が生成されると、このフレーム画像と上述の教示画像とから、新たに物体から目標地点Bまでの距離が算出され、この距離に相当する搬送速度Vbが設定される。この場合、物体が上述の搬送速度Vaで搬送された分だけ、物体と目標地点Bとの間の距離は短縮されているので、搬送速度Vbは、搬送速度Vaよりも小さな値に設定される。以下同様にして、物体を目標地点Bまで搬送する過程で搬送速度Vが徐々に低下され、物体が目標地点Bに到達した時点で搬送速度Vはゼロになる。このように、事前に設定された制御規則に従って、物体が目標地点Bから離れている程、物体の搬送速度Vは大きく設定され、物体が目標地点Bに近づくにつれ、搬送速度Vが小さく設定される。   In the example of FIG. 16, when the object is at the point A, as a difference between the frame image of the object at the point A and the teaching image, for example, the distance from the object to the target point B (in this case, from the point A to the point B ) Is calculated. Then, according to the control rule set in advance, the conveyance of the object is started at the conveyance speed Va corresponding to this distance. When the next frame image is generated, a distance from the object to the target point B is newly calculated from this frame image and the above-described teaching image, and the conveyance speed Vb corresponding to this distance is set. In this case, since the distance between the object and the target point B is shortened by the amount that the object is transported at the transport speed Va, the transport speed Vb is set to a value smaller than the transport speed Va. . In the same manner, the transport speed V is gradually decreased in the process of transporting the object to the target point B, and the transport speed V becomes zero when the object reaches the target point B. In this way, according to the control rule set in advance, as the object is farther from the target point B, the conveyance speed V of the object is set to be larger, and as the object approaches the target point B, the conveyance speed V is set to be smaller. The

上述のように、従来のビジュアルサーボ制御によれば、搬送経路上の物体の搬送速度Vは、物体のフレーム画像と教示画像との差分、即ち物体と目標地点との間の距離に基づいて制御規則により一義的に設定される。このため、例えば搬送経路の状況に応じて物体の搬送速度Vを柔軟に制御することができず、加減速を考慮して物体の搬送速度Vを制御することができなかった。   As described above, according to the conventional visual servo control, the conveyance speed V of the object on the conveyance path is controlled based on the difference between the frame image of the object and the teaching image, that is, the distance between the object and the target point. It is uniquely set by the rules. For this reason, for example, the object conveyance speed V cannot be flexibly controlled according to the condition of the conveyance path, and the object conveyance speed V cannot be controlled in consideration of acceleration / deceleration.

このようなビジュアルサーボ制御において、物体の搬送速度Vを制御する手法の一つとして、例えば制御のゲイン(例えば、画像の差分と搬送速度の対応関係)を調整する手法が考えられるが、この手法によれば制御の安定性が損なわれるおそれがある。従って、制御のゲインを一定に保持したまま、物体の搬送速度Vを制御するための技術に対する要請が存在する。   In such visual servo control, as one of methods for controlling the conveyance speed V of an object, for example, a technique for adjusting a control gain (for example, a correspondence relationship between an image difference and a conveyance speed) can be considered. Therefore, the stability of control may be impaired. Accordingly, there is a need for a technique for controlling the conveyance speed V of an object while keeping the control gain constant.

本発明は、上記課題を解決するためになされたものであり、加減速を考慮して物体の搬送を制御する、ロボット装置、画像生成装置、画像生成方法、および画像生成プログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and provides a robot apparatus, an image generation apparatus, an image generation method, and an image generation program that control the conveyance of an object in consideration of acceleration / deceleration. Objective.

上記課題を解決するため、本発明によるロボット装置の一態様は、物体を目標地点まで搬送可能に保持するロボット本体(例えばロボット本体10に相当する要素)と、前記目標地点および前記物体を含む範囲を撮像する撮像部(例えば撮像部20に相当する要素)と、前記撮像部により撮像された画像から前記物体の搬送経路を教示する教示画像を取得し、該教示画像を前記物体の所望の搬送速度に応じて補間することにより、前記物体を搬送する場合に目標とする目標画像を生成し、該目標画像に基づいて、前記物体の搬送量を制御する制御情報を生成する情報処理部(例えば情報処理部30に相当する要素)と、前記情報処理部により生成された前記制御情報に基づいて前記ロボット本体の動作を制御するロボット制御部(例えばロボット制御部40に相当する要素)と、を備えたロボット装置の構成を有する。
上記構成によれば、撮像部で撮像された教示画像を所望の搬送速度に応じて補間することにより目標画像が生成される。そして、物体を搬送する場合、上記目標画像に基づいてロボット本体の動作が制御される。このとき、現在の物体の画像と目標画像と間の差分が大きいほど、所定の制御規則に従って物体の搬送速度として大きい速度が設定される。従って、目標画像を所望の搬送速度に応じて生成すれば、ロボット本体が保持する物体の搬送速度を制御することができる。よって、加減速を考慮して物体の搬送を制御することが可能になる。
In order to solve the above problems, an aspect of the robot apparatus according to the present invention includes a robot main body (for example, an element corresponding to the robot main body 10) that holds an object so as to be transportable to a target point, and a range including the target point and the object From the imaging unit (e.g., an element corresponding to the imaging unit 20) that captures the image, a teaching image that teaches the conveyance path of the object is acquired from the image captured by the imaging unit, and the teaching image is transferred to the desired conveyance of the object. An information processing unit that generates a target image that is a target when the object is conveyed by interpolation according to speed, and generates control information that controls the conveyance amount of the object based on the target image (for example, An element corresponding to the information processing unit 30) and a robot control unit (for example, a robot) that controls the operation of the robot body based on the control information generated by the information processing unit. Having an element) corresponding to preparative controller 40, the configuration of the robot apparatus having a.
According to the above configuration, the target image is generated by interpolating the teaching image captured by the imaging unit according to the desired conveyance speed. When the object is conveyed, the operation of the robot body is controlled based on the target image. At this time, the larger the difference between the current object image and the target image, the larger the object conveyance speed is set in accordance with a predetermined control rule. Therefore, if the target image is generated according to a desired transport speed, the transport speed of the object held by the robot body can be controlled. Therefore, it is possible to control the conveyance of the object in consideration of acceleration / deceleration.

上記ロボット装置において、例えば、前記情報処理部は、前記撮像部により撮像された画像から前記目標画像を生成する画像生成部(例えば画像生成部31に相当する要素)と、前記画像生成部により生成された目標画像を記憶する記憶部(例えば記憶部32に相当する要素)と、前記記憶部に記憶された目標画像と、前記物体を搬送する場合に前記撮像部により撮像される画像との差分が小さくなるように前記制御情報を生成する制御情報生成部(例えば制御情報生成部33に相当する要素)と、を備える。
上記構成によれば、撮像部により撮像される現在の画像と目標画像との差分が小さくなるように制御情報が生成される。従って、制御情報を用いて物体の搬送量を制御することが可能になる。
In the robot apparatus, for example, the information processing unit is generated by an image generation unit (for example, an element corresponding to the image generation unit 31) that generates the target image from an image captured by the imaging unit, and the image generation unit. A difference between a storage unit (for example, an element corresponding to the storage unit 32) that stores the target image that has been recorded, a target image stored in the storage unit, and an image captured by the imaging unit when the object is transported A control information generation unit (for example, an element corresponding to the control information generation unit 33) that generates the control information such that the control information is small.
According to the above configuration, the control information is generated so that the difference between the current image captured by the imaging unit and the target image is small. Therefore, it is possible to control the conveyance amount of the object using the control information.

上記ロボット装置において、例えば、前記画像生成部は、前記撮像部により撮像された画像から前記教示画像を取得する教示画像取得部(例えば教示画像取得部311に相当する要素)と、前記教示画像取得部により取得された前記教示画像に含まれる前記物体の画像から前記物体の3次元空間における位置および姿勢に関する情報を取得する画像情報取得部(例えば画像情報取得部312に相当する要素)と、前記画像情報取得部により取得された情報を前記3次元空間において補間する画像情報補間部(例えば画像情報補間部313に相当する要素)と、前記画像情報補間部により補間された情報を用いて、所望の搬送速度に応じて前記目標画像をレンダリングするレンダリング部(例えばレンダリング部314に相当する要素)と、を備える。
上記構成によれば、画像情報補間部が、教示画像に含まれる物体の位置および姿勢に関する情報を補間する。これにより、教示画像が取得された搬送経路上の位置以外の任意の位置における物体の姿勢に関する情報を取得することが可能になる。従って、例えば補間する画像の搬送経路上の位置を所望の搬送速度に応じて適切に選択することにより、所望の搬送速度に応じた目標画像を生成することが可能になる。
In the robot apparatus, for example, the image generation unit includes a teaching image acquisition unit (for example, an element corresponding to the teaching image acquisition unit 311) that acquires the teaching image from an image captured by the imaging unit, and the teaching image acquisition. An image information acquisition unit (for example, an element corresponding to the image information acquisition unit 312) that acquires information on the position and orientation of the object in a three-dimensional space from the image of the object included in the teaching image acquired by the unit; An image information interpolation unit (for example, an element corresponding to the image information interpolation unit 313) that interpolates the information acquired by the image information acquisition unit in the three-dimensional space, and the information interpolated by the image information interpolation unit A rendering unit (for example, an element corresponding to the rendering unit 314) that renders the target image in accordance with the transport speed of Obtain.
According to the above configuration, the image information interpolation unit interpolates information on the position and orientation of the object included in the teaching image. Thereby, it is possible to acquire information related to the posture of the object at an arbitrary position other than the position on the conveyance path from which the teaching image is acquired. Therefore, for example, by appropriately selecting the position on the transport path of the image to be interpolated according to the desired transport speed, it is possible to generate a target image corresponding to the desired transport speed.

上記ロボット装置において、例えば、前記教示画像取得部は、前記撮像部により撮像された画像を二値化することにより前記教示画像を取得し、前記画像情報取得部は、前記物体をモデル化して得られた画像と前記教示画像取得部により二値化して得られた教示画像とをパターンマッチングすることにより、前記物体の位置および姿勢に関する情報を取得する。
上記構成によれば、二値化により得られた教示画像とモデル化により得られた画像とのパターンマッチングにより、例えば、三次元空間における物体の座標と、上記三次元空間の各軸に関する物体の回転量が特定される。従って、撮像部により撮像された物体の位置と姿勢を取得することが可能になる。
In the robot apparatus, for example, the teaching image acquisition unit acquires the teaching image by binarizing an image captured by the imaging unit, and the image information acquisition unit obtains the object by modeling the object. Information on the position and orientation of the object is acquired by pattern matching the obtained image and the teaching image obtained by binarization by the teaching image acquisition unit.
According to the above configuration, by pattern matching between the teaching image obtained by binarization and the image obtained by modeling, for example, the coordinates of the object in the three-dimensional space and the object related to each axis in the three-dimensional space The amount of rotation is specified. Therefore, it is possible to acquire the position and orientation of the object imaged by the imaging unit.

上記ロボット装置において、例えば、前記画像情報補間部は、スプライン関数を用いて前記物体の位置および姿勢に関する情報を補間する。
上記構成によれば、教示画像で示される物体の位置および姿勢に関する情報をスプライン関数で補間するので、教示画像で示される搬送経路を経由して物体を搬送する過程で、物体の位置および姿勢の変化をなめらかに制御することが可能になる。
In the robot apparatus, for example, the image information interpolation unit interpolates information on the position and orientation of the object using a spline function.
According to the above configuration, since the information on the position and orientation of the object indicated by the teaching image is interpolated by the spline function, in the process of conveying the object via the conveyance path indicated by the teaching image, the position and orientation of the object are determined. The change can be controlled smoothly.

上記ロボット装置において、例えば、前記撮像部として複数台のカメラ装置を備え、情報処理部は、前記複数台のカメラ装置のそれぞれについて、撮像された画像から前記物体の搬送経路を教示する教示画像を取得し、該教示画像を所望の搬送速度に応じて補間することにより、前記物体を搬送する場合に目標とする目標画像を生成し、前記物体を搬送する場合に前記撮像部により撮像される画像と前記目標画像との差分を取得する処理を実行する。
上記構成によれば、複数台のカメラ装置のそれぞれの画像に基づいて、ロボット本体が保持する物体の搬送速度を制御することができる。従って、例えば、物体が一部のカメラ装置の死角領域に存在しても、他のカメラ装置の撮像領域に存在すれば、物体の搬送を継続して制御することが可能になる。
In the robot apparatus, for example, the imaging unit includes a plurality of camera devices, and the information processing unit provides a teaching image that teaches a conveyance path of the object from the captured image for each of the plurality of camera devices. The acquired target image is interpolated according to a desired conveyance speed to generate a target image that is targeted when the object is conveyed, and the image that is captured by the imaging unit when the object is conveyed And a process of obtaining a difference between the target image and the target image.
According to the above configuration, the conveyance speed of the object held by the robot body can be controlled based on the images of the plurality of camera devices. Therefore, for example, even if an object exists in the blind spot area of some camera devices, if the object exists in an imaging area of another camera device, it is possible to continuously control the conveyance of the object.

上記ロボット装置において、例えば、前記複数台のカメラ装置は、前記物体の搬送経路に設定された複数の区間に対応付けられて設置されている。
上記構成によれば、各区間に対応するカメラ装置の画像に基づいてロボット本体が保持する物体の搬送速度を制御することができる。従って、区間毎に適切にカメラ装置を設置すれば、全区間にわたって一定の品質の画像を得ることができ、制御の精度を一定に維持することが可能になる。
In the robot apparatus, for example, the plurality of camera apparatuses are installed in association with a plurality of sections set in the conveyance path of the object.
According to the above configuration, it is possible to control the conveyance speed of the object held by the robot body based on the image of the camera device corresponding to each section. Therefore, if a camera apparatus is appropriately installed for each section, an image with a constant quality can be obtained over the entire section, and the control accuracy can be maintained constant.

上記課題を解決するため、本発明による画像生成装置の一態様は、ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とする目標画像を生成する画像生成装置であって、前記目標地点および前記物体を含む範囲を撮像して得られた画像から前記物体の搬送経路を教示する教示画像を取得する教示画像取得部と、前記教示画像取得部により取得された教示画像に含まれる前記物体の画像から前記物体の3次元空間における位置および姿勢に関する情報を取得する画像情報取得部と、前記画像情報取得部により取得された情報を前記3次元空間において補間する画像情報補間部と、前記画像情報補間部により補間された情報を用いて、所望の搬送速度に応じて前記目標画像をレンダリングするレンダリング部と、を備える画像生成装置の構成を有する。
上記構成によれば、上記ロボット装置が備える画像生成部と同様の作用効果を得ることができる。
In order to solve the above-described problem, one aspect of an image generation apparatus according to the present invention is an image generation apparatus that generates a target image that is a target when an object is transported to a target point by a robot using visual servo control. Included in the teaching image acquisition unit that acquires the teaching image that teaches the conveyance path of the object from the image obtained by imaging the range including the target point and the object, and the teaching image acquired by the teaching image acquisition unit An image information acquisition unit that acquires information on the position and orientation of the object in the three-dimensional space from the image of the object, and an image information interpolation unit that interpolates the information acquired by the image information acquisition unit in the three-dimensional space; A rendering unit that renders the target image according to a desired conveyance speed using the information interpolated by the image information interpolation unit; Having the configuration of an image generating apparatus comprising a.
According to the said structure, the effect similar to the image generation part with which the said robot apparatus is provided can be acquired.

上記課題を解決するため、本発明による画像生成方法の一態様は、ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とする目標画像を生成する画像生成方法であって、教示画像取得部が、前記目標地点および前記物体を含む範囲を撮像して得られた画像から前記物体の搬送経路を教示する教示画像を取得するステップと、画像情報取得部が、前記教示画像取得部により取得された教示画像に含まれる前記物体の画像から前記物体の3次元空間における位置および姿勢に関する情報を取得するステップと、画像情報補間部が、前記画像情報取得部により取得された情報を前記3次元空間において補間するステップと、レンダリング部が、前記画像情報補間部により補間された情報を用いて、所望の搬送速度に応じて前記目標画像をレンダリングするステップと、を含む画像生成方法の構成を有する。
上記構成によれば、画像生成方法による作用効果として、上記ロボット装置が備える画像生成部と同様の作用効果を得ることができる。
In order to solve the above problem, one aspect of an image generation method according to the present invention is an image generation method for generating a target image that is a target when an object is conveyed to a target point by a robot using visual servo control. A teaching image acquisition unit acquires a teaching image that teaches a conveyance path of the object from an image obtained by imaging the range including the target point and the object, and an image information acquisition unit acquires the teaching image. A step of acquiring information on the position and orientation of the object in a three-dimensional space from the image of the object included in the teaching image acquired by the unit, and an image information interpolating unit that acquires the information acquired by the image information acquiring unit. The step of interpolating in the three-dimensional space, and the rendering unit using the information interpolated by the image information interpolation unit, Depending having the configuration of an image generation method comprising the steps of rendering the target image.
According to the said structure, the effect similar to the image generation part with which the said robot apparatus is provided can be acquired as an effect by an image generation method.

上記課題を解決するため、本発明による画像生成プログラムの一態様は、コンピューターを、ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とする目標画像を生成する画像生成装置として機能させる画像生成プログラムであって、前記コンピューターを、前記目標地点および前記物体を含む範囲を撮像して得られた画像から前記物体の搬送経路を教示する教示画像を取得する教示画像取得部と、前記教示画像取得部により取得された教示画像に含まれる前記物体の画像から前記物体の3次元空間における位置および姿勢に関する情報を取得する画像情報取得部と、前記画像情報取得部により取得された情報を前記3次元空間において補間する画像情報補間部と、前記画像情報補間部により補間された情報を用いて、所望の搬送速度に応じて前記目標画像をレンダリングするレンダリング部と、として機能させる画像生成プログラムの構成を有する。
上記構成によれば、画像生成プログラムによる作用効果として、上記ロボット装置が備える画像生成部と同様の作用効果を得ることができる。
In order to solve the above problems, one aspect of the image generation program according to the present invention is an image generation apparatus that generates a target image that is a target when a computer transports an object to a target point by a robot using visual servo control. An image generation program for causing the computer to acquire a teaching image that teaches a conveyance path of the object from an image obtained by imaging the range including the target point and the object; An image information acquisition unit that acquires information on the position and orientation of the object in a three-dimensional space from the image of the object included in the teaching image acquired by the teaching image acquisition unit; and the information acquired by the image information acquisition unit Is interpolated in the three-dimensional space, and the information interpolated by the image information interpolation unit. With, it has a configuration of an image generating program to function as a rendering unit for rendering the target image in accordance with the desired conveying speed.
According to the above configuration, the same function and effect as the image generation unit provided in the robot apparatus can be obtained as the function and effect of the image generation program.

本発明の態様によれば、教示画像から所望の速度に応じた目標画像を生成し、この目標画像に基づいて物体の搬送を制御するので、加減速を考慮して物体を搬送することができる。   According to the aspect of the present invention, the target image corresponding to the desired speed is generated from the teaching image, and the conveyance of the object is controlled based on the target image. Therefore, the object can be conveyed in consideration of acceleration / deceleration. .

本発明の第1実施形態によるロボット装置の機能構成の一例を表すブロック図である。It is a block diagram showing an example of a functional structure of the robot apparatus by 1st Embodiment of this invention. 同実施形態によるロボット装置が備えるロボット本体の外観の一例を表す図である。It is a figure showing an example of the appearance of the robot main body with which the robot apparatus by the embodiment is provided. 同実施形態によるロボット装置が備える情報処理部の機能構成の一例を表すブロック図である。It is a block diagram showing an example of functional composition of an information processor with which a robot apparatus by the embodiment is provided. 同実施形態による情報処理部が備える画像生成部の機能構成の一例を表すブロック図である。It is a block diagram showing an example of a functional composition of an image generation part with which an information processor by the embodiment is provided. 同実施形態による画像生成部の処理手順の一例を表すフローチャートである。It is a flowchart showing an example of the process sequence of the image generation part by the embodiment. 同実施形態による教示画像を取得する手法を説明するための説明図である。It is explanatory drawing for demonstrating the method of acquiring the teaching image by the embodiment. 同実施形態による教示画像を生成する手法を説明するための説明図である。It is explanatory drawing for demonstrating the method to produce | generate the teaching image by the embodiment. 同実施形態による画像情報を取得する手法を説明するための説明図である。It is explanatory drawing for demonstrating the method to acquire the image information by the embodiment. 同実施形態による物体の位置および姿勢の定義を説明するための説明図である。It is explanatory drawing for demonstrating the definition of the position and attitude | position of the object by the embodiment. 同実施形態による物体の位置および姿勢に関する情報を説明するための説明図である。It is explanatory drawing for demonstrating the information regarding the position and attitude | position of an object by the embodiment. 同実施形態による物体の位置および姿勢に関する情報の補間処理を説明するための説明図である。It is explanatory drawing for demonstrating the interpolation process of the information regarding the position and attitude | position of an object by the embodiment. 同実施形態による目標画像のレンダリングの手法を説明するための説明図である。It is explanatory drawing for demonstrating the rendering method of the target image by the embodiment. 同実施形態による物体の搬送速度と位置との関係を説明するための説明図である。It is explanatory drawing for demonstrating the relationship between the conveyance speed and position of an object by the embodiment. 本発明の第2実施形態によるロボット装置の機能構成の一例を表すブロック図である。It is a block diagram showing an example of a functional structure of the robot apparatus by 2nd Embodiment of this invention. 同実施形態によるロボット装置が備える情報処理部の機能構成の一例を表すブロック図である。It is a block diagram showing an example of functional composition of an information processor with which a robot apparatus by the embodiment is provided. 第1実施形態および第2実施形態によるロボット本体の変形例を表す図である。It is a figure showing the modification of the robot main body by 1st Embodiment and 2nd Embodiment. 従来のビジュアルサーボ制御による物体の搬送速度の設定手法を説明するための説明図である。It is explanatory drawing for demonstrating the setting method of the conveyance speed of the object by the conventional visual servo control.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
なお、本明細書における全ての実施形態および全ての図面にわたって、同一符号は同一要素を表す。
[第1実施形態]
図1は、本発明の第1実施形態によるロボット装置1の機能構成の一例を表すブロック図である。本実施形態によるロボット装置1は、電子機器の製造ラインにおいて、ビジュアルサーボ制御によって部品等の物体を所定の目標地点まで搬送し、アセンブリー部品の組立作業を行う装置である。本実施形態において、ロボット装置1による搬送の対象とされる物体は、例えば小型電子機器や精密機器等に組み込まれるアセンブリー部品を構成する精密部品である。同図に示すように、ロボット装置1は、ロボット本体10と、撮像部20と、情報処理部30と、ロボット制御部40とを備える。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
In addition, the same code | symbol represents the same element over all embodiment and all drawings in this specification.
[First Embodiment]
FIG. 1 is a block diagram showing an example of a functional configuration of the robot apparatus 1 according to the first embodiment of the present invention. The robot apparatus 1 according to the present embodiment is an apparatus for assembling an assembly part by transporting an object such as a part to a predetermined target point by visual servo control in an electronic equipment manufacturing line. In the present embodiment, an object to be transported by the robot apparatus 1 is a precision part that constitutes an assembly part incorporated in, for example, a small electronic device or a precision device. As shown in FIG. 1, the robot apparatus 1 includes a robot body 10, an imaging unit 20, an information processing unit 30, and a robot control unit 40.

図2は、ロボット本体10の外観の一例を模式的に表す図である。ロボット本体10は、物体を目標地点まで搬送可能に保持するものであって、床面に固定された支持台10aと、旋回可能および屈伸可能に支持台10aに連結されたアーム部10bと、回動可能および首振り可能にアーム部10bに連結されたハンド部10cと、ハンド部10cに取り付けられた把持部10dとを備えて構成される。ロボット本体10は、把持部10dにより搬送すべき物体OBJを把持した状態でこれを保持する。   FIG. 2 is a diagram schematically illustrating an example of the appearance of the robot body 10. The robot body 10 holds an object so as to be able to be transported to a target point, and includes a support base 10a fixed to the floor surface, an arm part 10b connected to the support base 10a so as to be able to turn and bend, and a rotation. The hand part 10c is connected to the arm part 10b so as to be movable and swingable, and the grip part 10d is attached to the hand part 10c. The robot body 10 holds the object OBJ to be transported by the grip portion 10d in a state where it is gripped.

本実施形態において、ロボット本体10は、例えば6軸の垂直多関節ロボットであり、支持台10aとアーム部10bとハンド部10cとの連係した動作によって6軸の自由度を有し、把持部10dが把持する部品の位置および向きを自在に変更することができる。また、ロボット本体10は、ロボット制御部40による制御により、アーム部10bとハンド部10cと把持部10dとのうちいずれか一つまたはそれらの組み合わせを動かす。
なお、ロボット本体10の自由度は6軸によるものに限られない。また、支持台10aは、壁や天井等、床面に対して固定された場所に設置されてもよい。
In the present embodiment, the robot body 10 is, for example, a 6-axis vertical articulated robot, and has a 6-axis degree of freedom by a coordinated operation of the support base 10a, the arm unit 10b, and the hand unit 10c, and the gripping unit 10d. It is possible to freely change the position and orientation of the parts gripped by. Further, the robot body 10 moves one of the arm unit 10b, the hand unit 10c, and the gripping unit 10d or a combination thereof under the control of the robot control unit 40.
Note that the degree of freedom of the robot body 10 is not limited to six axes. Further, the support base 10a may be installed in a place fixed to the floor surface, such as a wall or a ceiling.

説明を図1に戻す。撮像部20は、搬送先である目標地点と、ロボット本体10に保持された物体との両方を含む範囲を撮像するものであり、例えば、搬送先の目標地点と搬送すべき物体の両方を上方から見下ろすように壁面または天井に固定されている。また、本実施形態において、撮像部20は、30フレーム/秒のフレームレートで撮像するビデオカメラ装置である。ただし、撮像部20は、例えば、30フレーム/秒、120フレーム/秒、200フレーム/秒等の任意のフレームレートで撮像するものであってもよい。撮像部20により撮像された画像(フレーム画像)は情報処理部30に供給される。   Returning to FIG. The imaging unit 20 captures a range including both a target point that is a transport destination and an object held by the robot body 10. For example, the image capturing unit 20 moves both the target point of the transport destination and the object to be transported upward. It is fixed to the wall or ceiling so that you can look down. In the present embodiment, the imaging unit 20 is a video camera device that captures an image at a frame rate of 30 frames / second. However, the imaging unit 20 may capture an image at an arbitrary frame rate such as 30 frames / second, 120 frames / second, and 200 frames / second. An image (frame image) captured by the imaging unit 20 is supplied to the information processing unit 30.

画像処理部30は、撮像部20によって撮像された画像を解析することにより、物体を搬送するロボット装置10の動作の制御に必要な制御情報Cを生成するものであり、例えばコンピューター装置から構成される。本実施形態において、制御情報Cは、ロボット本体10を構成する例えばアーム部10bの回動角や回動角速度など、ロボット本体10の各部の動作を規定する情報を含んでいる。   The image processing unit 30 generates control information C necessary for controlling the operation of the robot apparatus 10 that conveys an object by analyzing the image captured by the imaging unit 20, and includes, for example, a computer apparatus. The In the present embodiment, the control information C includes information that defines the operation of each part of the robot body 10 such as, for example, the rotation angle or the rotation angular velocity of the arm unit 10b that constitutes the robot body 10.

本実施形態において、情報処理部30は、例えばオペレーターが物体の搬送経路を教示する段階では、撮像部20により撮像された画像から物体の搬送経路を教示するための教示画像を取得し、この教示画像を所望の搬送速度に応じて補間することにより、当該物体を搬送する場合に目標とすべき目標画像を生成する。また、情報処理部30は、物体を搬送する段階では、撮像部20により撮像される画像と上記目標画像に基づいて物体の搬送量を制御するための制御情報Cを生成するものである。本実施形態において、物体の搬送量は、物体の位置の変化量と、物体の姿勢の変化量を意味する。物体の位置および姿勢の定義については後述する。制御情報Cは、ロボット制御コマンドとしてロボット制御部40に供給される。   In the present embodiment, the information processing unit 30 acquires, for example, a teaching image for teaching an object conveyance path from an image captured by the imaging unit 20 when the operator teaches the object conveyance path. By interpolating the image according to a desired conveyance speed, a target image to be a target when the object is conveyed is generated. Further, in the stage of conveying an object, the information processing unit 30 generates control information C for controlling the conveyance amount of the object based on the image captured by the imaging unit 20 and the target image. In the present embodiment, the amount of conveyance of an object means the amount of change in the position of the object and the amount of change in the posture of the object. The definition of the position and orientation of the object will be described later. The control information C is supplied to the robot control unit 40 as a robot control command.

ロボット制御部40は、情報処理部30により生成された制御情報Cに基づいてロボット本体10の動作を直接的に制御するものである。即ち、本実施形態において、ロボット制御部40は、情報処理部30から供給される制御情報Cに基づいて、ロボット本体10のアーム部10bとハンド部10cと把持部10dとのうちいずれか一つまたはそれらの任意の組み合わせの動作(アーム部10bの回動量など)を制御することにより、把持部10dに保持された物体を目標地点まで搬送させるようにロボット本体10の動作を制御する。   The robot control unit 40 directly controls the operation of the robot body 10 based on the control information C generated by the information processing unit 30. That is, in the present embodiment, the robot control unit 40 is based on the control information C supplied from the information processing unit 30 and is one of the arm unit 10b, the hand unit 10c, and the gripping unit 10d of the robot body 10. Alternatively, the operation of the robot body 10 is controlled so as to transport the object held by the grip portion 10d to the target point by controlling the operation of any combination thereof (such as the amount of rotation of the arm portion 10b).

図3は、ロボット装置10が備える情報処理部30の機能構成の一例を表すブロック図である。情報処理部30は、画像生成部31、記憶部32、制御情報生成部33を備えて構成されている。ここで、画像生成部31は、撮像部20により撮像された画像から上記目標画像を生成するものである。記憶部32は、画像生成部31により生成された目標画像を記憶するものである。制御情報生成部33は、記憶部32に記憶された目標画像に基づいて制御情報Cを生成するものである。本実施形態において、制御情報生成部33は、記憶部32に記憶された目標画像と、物体を搬送する際に撮像部20により撮像されるフレーム画像との差分が小さくなるように、制御情報Cを生成する。   FIG. 3 is a block diagram illustrating an example of a functional configuration of the information processing unit 30 included in the robot apparatus 10. The information processing unit 30 includes an image generation unit 31, a storage unit 32, and a control information generation unit 33. Here, the image generation unit 31 generates the target image from the image captured by the imaging unit 20. The storage unit 32 stores the target image generated by the image generation unit 31. The control information generating unit 33 generates control information C based on the target image stored in the storage unit 32. In the present embodiment, the control information generation unit 33 controls the control information C so that the difference between the target image stored in the storage unit 32 and the frame image captured by the imaging unit 20 when the object is conveyed is small. Is generated.

換言すれば、制御情報生成部33は、記憶部32に記憶された目標画像と、撮像部20により撮像されるフレーム画像とが一致する方向に物体が搬送されるように、制御情報Cを生成する。具体的には後述するように、物体の位置および姿勢が、目標画像に示される物体の位置および姿勢と一致する方向に物体の搬送量が演算され、そのような搬送量が得られるように制御情報Cが生成される。本実施形態では、撮像部20が撮像する画像のフレームレートは30フレーム/秒であるから、33ミリ秒毎に撮像部20から画像生成部31にフレーム画像が供給され、画像生成部31は、33ミリ秒ごとに新たに制御情報Cを生成する。   In other words, the control information generation unit 33 generates the control information C so that the object is conveyed in a direction in which the target image stored in the storage unit 32 and the frame image captured by the imaging unit 20 match. To do. Specifically, as will be described later, control is performed so that the transport amount of the object is calculated in a direction in which the position and orientation of the object coincide with the position and orientation of the object indicated in the target image, and such a transport amount is obtained. Information C is generated. In the present embodiment, since the frame rate of the image captured by the image capturing unit 20 is 30 frames / second, a frame image is supplied from the image capturing unit 20 to the image generating unit 31 every 33 milliseconds. Control information C is newly generated every 33 milliseconds.

図4は、情報処理部30が備える画像生成部31の機能構成の一例を表すブロック図である。画像生成部31は、教示画像取得部311、画像情報取得部312、画像情報補間部313、レンダリング(rendering)部314を備えて構成される。教示画像取得部311は、撮像部20により撮像された画像から上記教示画像を取得するものである。本実施形態では、搬送経路をロボット装置1に教示する際に、オペレーターにより指定される搬送経路上の中継地点(後述の図6に示す地点P1〜P5)に物体を位置させた状態で撮像部20により物体を撮像して教示画像が取得される。   FIG. 4 is a block diagram illustrating an example of a functional configuration of the image generation unit 31 included in the information processing unit 30. The image generation unit 31 includes a teaching image acquisition unit 311, an image information acquisition unit 312, an image information interpolation unit 313, and a rendering unit 314. The teaching image acquisition unit 311 acquires the teaching image from the image captured by the imaging unit 20. In the present embodiment, when the robot apparatus 1 is taught the conveyance path, the imaging unit is in a state where an object is positioned at a relay point (points P1 to P5 shown in FIG. 6 described later) on the conveyance path designated by the operator. An object is imaged by 20 to acquire a teaching image.

なお、本実施形態では、説明の便宜上、オペレーターにより指定された中継地点での物体の2次元画像を教示画像と称し、後述の補間処理により得られた2次元画像を目標画像と称す。ただし、このような用語の定義は説明の便宜のためのものであり、広義には、補間処理により得られた目標画像もビジュアルサーボ制御における教示画像の一種である。   In this embodiment, for convenience of explanation, a two-dimensional image of an object at a relay point designated by an operator is referred to as a teaching image, and a two-dimensional image obtained by interpolation processing described later is referred to as a target image. However, such definitions of terms are for convenience of explanation, and in a broad sense, the target image obtained by the interpolation processing is also a kind of teaching image in visual servo control.

画像情報取得部312は、教示画像取得部311により取得された教示画像から、この教示画像に表される物体の3次元空間における位置および姿勢に関する情報を画像情報として取得するものである。本実施形態において、この画像情報は、後述するように、物体のCAD(Computer Aided Design)モデルを用いて生成されたCG(Computer Graphics)画像と、撮像部20により撮像された物体の画像とのパターンマッチングを行うことにより取得される。ここで言うパターンマッチングとは、二つの画像の各画素の階調値の差を最小にするように非線形最小化問題を解くことで、二つの画像に撮像されている物体の3次元空間における位置と姿勢の差分を算出することを含む。本実施形態の例で言えば、教示画像の各画素の階調値と撮像部20により撮像された画像の各画素の階調値との差を最小にするように非線形最小化問題を解き、教示画像における物体の3次元空間における位置と姿勢と撮像部20により撮像された画像における物体の3次元空間における位置と姿勢との差を算出する。   The image information acquisition unit 312 acquires, as image information, information on the position and orientation of the object represented by the teaching image from the teaching image acquired by the teaching image acquisition unit 311. In the present embodiment, as will be described later, this image information includes a CG (Computer Graphics) image generated using a CAD (Computer Aided Design) model of the object and an image of the object imaged by the imaging unit 20. Acquired by performing pattern matching. Pattern matching here refers to the position in the three-dimensional space of the object imaged in the two images by solving the nonlinear minimization problem so as to minimize the difference between the gradation values of the pixels of the two images. And calculating the difference in posture. In the example of this embodiment, the nonlinear minimization problem is solved so as to minimize the difference between the gradation value of each pixel of the teaching image and the gradation value of each pixel of the image captured by the image capturing unit 20, The difference between the position and orientation of the object in the three-dimensional space in the teaching image and the position and orientation of the object in the three-dimensional space in the image captured by the imaging unit 20 is calculated.

画像情報補間部313は、画像情報取得部312により取得された各教示画像の画像情報を上記3次元空間において補間するものである。本実施形態では、後述するように、スプライン関数を用いて画像情報を3次元空間において補間することにより、搬送経路上の任意の地点での物体の3次元空間における位置および姿勢に関する情報を取得可能とする。換言すれば、有限の教示画像の画像情報から、物体の搬送経路を表す軌道がスプライン関数により表され、このスプライン関数から任意の地点での物体の3次元空間における位置および姿勢を知ることができる。即ち、搬送経路上の任意の地点で目標画像を生成することが可能になる。   The image information interpolation unit 313 interpolates the image information of each teaching image acquired by the image information acquisition unit 312 in the three-dimensional space. In this embodiment, as will be described later, by interpolating image information in a three-dimensional space using a spline function, it is possible to acquire information on the position and orientation of an object in a three-dimensional space at an arbitrary point on the transport path. And In other words, the trajectory representing the conveyance path of the object is represented by the spline function from the image information of the finite teaching image, and the position and posture of the object at an arbitrary point in the three-dimensional space can be known from the spline function. . That is, it is possible to generate a target image at an arbitrary point on the transport path.

レンダリング部314は、画像情報補間部313により補間された画像情報を用いて、物体の所望の搬送速度に応じて上記目標画像を2次元画像としてレンダリング(描画)するものである。上述の画像情報補間部313により任意の地点での物体の位置および姿勢に関する画像情報を得ることができるので、レンダリング部314において、画像情報補間部313により得られた画像情報を用いて、所望の搬送速度に応じた任意の地点での目標画像をレンダリングすることが可能になる。   The rendering unit 314 uses the image information interpolated by the image information interpolation unit 313 to render (draw) the target image as a two-dimensional image according to a desired conveyance speed of the object. Since the image information interpolation unit 313 can obtain image information related to the position and orientation of an object at an arbitrary point, the rendering unit 314 uses the image information obtained by the image information interpolation unit 313 to perform desired processing. It is possible to render a target image at an arbitrary point according to the conveyance speed.

本実施形態では、搬送経路上で隣り合う2つの目標画像の距離間隔を所望の搬送速度に応じて設定することにより、この2つの目標画像間の区間における搬送速度が制御される。即ち、小さい搬送速度を得たい場合には目標画像間の距離間隔を小さくし(即ち、画像の差分を小さくし)、逆に搬送速度を大きくした場合には目標画像間の距離間隔を大きくする(即ち、画像の差分を大きくする)。また、搬送経路上で隣り合う2つの目標画像の時間間隔を所望の搬送速度に応じて設定することにより、この2つの目標画像間の区間における搬送速度を制御してもよい。この場合、2つの目標画像の中継点間の時間間隔を大きくした場合、これらの中継点間の搬送速度は小さくなり、逆に時間間隔を小さくした場合、これらの中継点間の搬送速度は大きくなる。   In the present embodiment, the conveyance speed in the section between the two target images is controlled by setting the distance between two target images adjacent on the conveyance path in accordance with the desired conveyance speed. That is, when it is desired to obtain a small conveyance speed, the distance between target images is reduced (that is, the difference between the images is reduced). Conversely, when the conveyance speed is increased, the distance between target images is increased. (In other words, the image difference is increased). Further, the transport speed in the section between the two target images may be controlled by setting the time interval between two target images adjacent on the transport path in accordance with the desired transport speed. In this case, when the time interval between the relay points of the two target images is increased, the transport speed between these relay points is decreased. Conversely, when the time interval is decreased, the transport speed between these relay points is increased. Become.

次に、本実施形態によるロボット装置1の動作について説明する。
本実施形態によるロボット装置1の動作は、事前に目標画像を生成する処理(以下、「目標画像生成処理」と称す)と、その目標画像を用いてビジュアルサーボ制御を実施することにより物体を搬送する処理(以下、「物体搬送処理」と称す)に分けられる。そこで、以下の動作の説明では、先ず、画像生成部31による目標画像生成処理を説明し、その後、目標画像を用いたビジュアルサーボ制御による物体搬送処理を説明する。
Next, the operation of the robot apparatus 1 according to the present embodiment will be described.
The operation of the robot apparatus 1 according to the present embodiment includes a process for generating a target image in advance (hereinafter referred to as “target image generation process”) and a visual servo control using the target image to convey an object. Processing (hereinafter referred to as “object conveyance processing”). Therefore, in the following description of the operation, first, target image generation processing by the image generation unit 31 will be described, and then object conveyance processing by visual servo control using the target image will be described.

(目標画像生成処理)
図5は、画像生成部31による目標画像生成処理手順(画像生成方法)の一例を表すフローチャートである。同図のステップS1において、画像生成部31を構成する教示画像取得部311は、撮像部20により撮像された画像から物体の搬送経路を教示する教示画像を取得する。
(Target image generation processing)
FIG. 5 is a flowchart illustrating an example of a target image generation processing procedure (image generation method) by the image generation unit 31. In step S <b> 1 of FIG. 5, the teaching image acquisition unit 311 constituting the image generation unit 31 acquires a teaching image that teaches the conveyance path of the object from the image captured by the imaging unit 20.

図6は、教示画像を取得するための手法を説明するための説明図である。同図に示す例は、載置台Tの上に載置された製品Mの筐体内部に物体OBJ(部品)を搬送するための搬送経路をオペレーターが教示する場合を示している。同図において、物体OBJの搬送経路は点線で示されている。製品Mの筐体には開口部Hが形成されており、この開口部Hから物体OBJが製品Mの筐体内部に搬入される。また、地点P0は、搬送経路の始点を表し、初期状態では、物体OBJは始点P〜に位置している。地点P1〜P5は、物体OBJの教示画像を取得する搬送経路上の中継点、即ち教示点を表している。   FIG. 6 is an explanatory diagram for explaining a technique for acquiring a teaching image. The example shown in the figure shows a case where the operator teaches a transport path for transporting the object OBJ (part) into the housing of the product M mounted on the mounting table T. In the figure, the conveyance path of the object OBJ is indicated by a dotted line. An opening H is formed in the housing of the product M, and the object OBJ is carried into the housing of the product M from the opening H. Further, the point P0 represents the starting point of the transport path, and in the initial state, the object OBJ is located at the starting point P˜. Points P1 to P5 represent relay points on the transport path for acquiring the teaching image of the object OBJ, that is, teaching points.

また、図6に示す例では、製品Mの開口部Hの近傍に障害物Bが存在する。このため、同図に点線で示すように、障害物Bを迂回した搬送経路を設定する必要がある。このような搬送経路を設定するため、例えば、オペレーターの操作により、物体OBJを保持した状態でロボット本体10の動作を調整することにより、障害物Bを迂回する搬送経路の要所となる地点P1,P2,P3,P4,P5の各中継地点に物体OBJを位置させ、撮像部20により各地点での物体OBJを撮像する。これにより、搬送経路上の各中継地点での物体OBJの実画像Pを得る。   In the example shown in FIG. 6, the obstacle B exists in the vicinity of the opening H of the product M. For this reason, it is necessary to set a transport route that bypasses the obstacle B as shown by a dotted line in FIG. In order to set such a transport route, for example, by adjusting the operation of the robot body 10 with the object OBJ held by an operator's operation, a point P1 that is a key point of the transport route that bypasses the obstacle B , P2, P3, P4, P5, the object OBJ is positioned at each relay point, and the imaging unit 20 images the object OBJ at each point. Thereby, the actual image P of the object OBJ at each relay point on the transport route is obtained.

画像生成部31を構成する教示画像取得部311は、撮像部20により撮像された実画像Pを二値化することにより、搬送経路上の地点P1,P2,P3,P4,P5の各中継地点での物体OBJの教示画像を取得する。   The teaching image acquisition unit 311 constituting the image generation unit 31 binarizes the actual image P captured by the imaging unit 20, thereby relaying points P1, P2, P3, P4, and P5 on the transport route. A teaching image of the object OBJ at is acquired.

図7Aは、教示画像取得部311が実画像Pから教示画像を生成するための手法を説明するための説明図である。教示画像取得部311は、撮像部20により撮像された実画像Pの背景差分を演算することにより、背景が除かれた物体OBJのみの画像Paを生成する。そして、この画像Paを適切な閾値を用いて二値化することにより、例えば白黒の画像Pbを教示画像として得る。この画像Pbに表された物体OBJの形状は、この物体OBJの位置および姿勢に応じて一義的に定まる。従って、この画像Pbは、実空間内での物体OBJの位置および姿勢に関する情報を含んでいる。例えば、実空間内での物体OBJの位置は、画像Pb内の物体OBJの座標およびスケール(縮尺度)に反映され、物体OBJの姿勢は、画像Pb内の物体OBJの輪郭に反映される。   FIG. 7A is an explanatory diagram for explaining a technique for the teaching image acquisition unit 311 to generate a teaching image from the actual image P. FIG. The teaching image acquisition unit 311 generates the image Pa of only the object OBJ from which the background is removed by calculating the background difference of the actual image P captured by the imaging unit 20. Then, by binarizing this image Pa using an appropriate threshold value, for example, a black and white image Pb is obtained as a teaching image. The shape of the object OBJ represented in the image Pb is uniquely determined according to the position and orientation of the object OBJ. Therefore, this image Pb includes information regarding the position and orientation of the object OBJ in the real space. For example, the position of the object OBJ in the real space is reflected in the coordinates and scale (reduction scale) of the object OBJ in the image Pb, and the posture of the object OBJ is reflected in the contour of the object OBJ in the image Pb.

続いて、ステップS2において、画像情報取得部312は、実空間と整合するように設定されたCG空間内で物体OBJをモデル化して得られたCADモデルのCG画像と、教示画像取得部311により実画像Pから得られた教示画像Pbとをパターンマッチングすることにより、物体OBJの3次元空間における位置および姿勢に関する情報を画像情報として取得する。   Subsequently, in step S <b> 2, the image information acquisition unit 312 uses a CAD model CG image obtained by modeling the object OBJ in the CG space set to match the real space, and the teaching image acquisition unit 311. By performing pattern matching with the teaching image Pb obtained from the actual image P, information regarding the position and orientation of the object OBJ in the three-dimensional space is acquired as image information.

図7Bは、画像情報取得部312が物体OBJの位置および姿勢に関する画像情報を取得するための手法を説明するための説明図である。画像情報取得部312は、物体OBJのCADモデルCMを用いて、初期値として与えられた位置および姿勢での物体OBJのCG画像Gaを生成する。そして、画像情報取得部312は、上述の教示画像取得部311により取得された教示画像PbとCG画像Gaとをパターンマッチングすることにより、CG空間における物体OBJの3次元空間における位置および姿勢に関する画像情報を取得する。   FIG. 7B is an explanatory diagram for explaining a method for the image information acquisition unit 312 to acquire image information related to the position and orientation of the object OBJ. The image information acquisition unit 312 uses the CAD model CM of the object OBJ to generate a CG image Ga of the object OBJ at the position and orientation given as the initial values. Then, the image information acquisition unit 312 performs pattern matching between the teaching image Pb acquired by the teaching image acquisition unit 311 and the CG image Ga, thereby performing an image related to the position and orientation of the object OBJ in the CG space in the three-dimensional space. Get information.

例えば、画像情報取得部312は、教示画像PbとCG画像Gaの輝度の差分を対応する画素毎に演算し、画像全体にわたって各画素の差分の総和を求める。また、CADモデルCMを用いて異なる位置および姿勢での物体OBJのCG画像Gaを生成し、同様に教示画像Pbとの輝度の差分の総和を繰り返し求める。そして、画像情報取得部312は、その輝度の差分の総和が最小となるときのCG画像Gbを特定し、そのCG画像Gbを与えるCADモデルのCG空間(3次元)での位置と姿勢を、教示画像Pbにおける物体OBJの3次元空間における位置および姿勢として特定し、この位置および姿勢に関する情報を画像情報として取得する。   For example, the image information acquisition unit 312 calculates the luminance difference between the teaching image Pb and the CG image Ga for each corresponding pixel, and obtains the sum of the differences of each pixel over the entire image. Further, a CG image Ga of the object OBJ at different positions and postures is generated using the CAD model CM, and similarly, the sum of luminance differences from the teaching image Pb is repeatedly obtained. Then, the image information acquisition unit 312 identifies the CG image Gb when the sum of the luminance differences is minimum, and determines the position and orientation in the CG space (three-dimensional) of the CAD model that gives the CG image Gb. The position and orientation of the object OBJ in the teaching image Pb are specified as the position and orientation in the three-dimensional space, and information regarding the position and orientation is acquired as image information.

ここで、本実施形態における物体OBJの位置および姿勢の定義を説明する。
図8は、上述のCADモデルを規定するCG空間における物体OBJの位置および姿勢の定義を説明するための説明図である。本実施形態において、CADモデルCMを規定するCG空間の座標系は、物体OBJが存在する実空間と整合するように予め校正されている。このようなCG空間において、物体OBJの位置に関する情報は、物体OBJのCADモデルCMの所定部位(例えば重心位置)の座標(x,y,z)として定義される。また、物体OBJの姿勢に関する情報は、CG空間の座標系の3軸とそれぞれ並行な軸であって物体OBJの上記位置を与える座標点を通る3軸(Jx,Jy,Jz)のそれぞれを回転軸としたときの回転角(θx,θy,θz)として定義される。ただし、この例に限定されることなく、物体OBJの位置および姿勢をどのように定義してもよい。
Here, the definition of the position and orientation of the object OBJ in the present embodiment will be described.
FIG. 8 is an explanatory diagram for explaining the definition of the position and orientation of the object OBJ in the CG space that defines the CAD model described above. In this embodiment, the coordinate system of the CG space that defines the CAD model CM is calibrated in advance so as to match the real space in which the object OBJ exists. In such a CG space, information on the position of the object OBJ is defined as coordinates (x, y, z) of a predetermined part (for example, the position of the center of gravity) of the CAD model CM of the object OBJ. Also, the information on the posture of the object OBJ is rotated on each of the three axes (Jx, Jy, Jz) passing through the coordinate points that are parallel to the three axes of the coordinate system of the CG space and give the position of the object OBJ. It is defined as the rotation angle (θx, θy, θz) with the axis. However, without being limited to this example, the position and orientation of the object OBJ may be defined in any way.

図9は、画像情報取得部312により取得される物体OBJの位置および姿勢に関する画像情報を説明するための説明図であり、前述の図6に示す物体OBJの搬送経路上の地点P1〜P4と、物体OBJの位置および姿勢に関する画像情報との関係を説明するための説明図である。
なお、図9では、図6に示す地点P5は省略されている。また、図9では、横軸を地点P1〜P4を表すものとしているが、これを物体OBJが各地点を通過する時刻(時間)に置き換えてもい。後述の図10および図11も同様である。
FIG. 9 is an explanatory diagram for explaining image information related to the position and orientation of the object OBJ acquired by the image information acquisition unit 312. The points P1 to P4 on the conveyance path of the object OBJ shown in FIG. FIG. 5 is an explanatory diagram for explaining a relationship with image information related to the position and orientation of an object OBJ.
In FIG. 9, the point P5 shown in FIG. 6 is omitted. In FIG. 9, the horizontal axis represents the points P1 to P4, but this may be replaced with the time (time) at which the object OBJ passes through each point. The same applies to FIGS. 10 and 11 described later.

図9に示すパラメーターPA1,PB1,PC1,PD1,PE1,PF1は、図6に示す地点P1での物体OBJの位置および姿勢に関する画像情報を模式的に表している。例えば、パラメーターPA1,PB1,PC1は、地点P1での物体OBJの位置を表す座標(x,y,x)の各成分に対応し、パラメーターPD1,PE1,PF1は、地点P1での物体OBJの姿勢を表す回転角(θx,θy,θz)の各成分に対応している。同様に、パラメーターPA2,PB2,PC2,PD2,PE2,PF2は、地点P2での物体OBJの位置および姿勢に関する画像情報を表し、パラメーターPA3,PB3,PC3,PD3,PE3,PF3は、地点P3での物体OBJの位置および姿勢に関する画像情報を表し、パラメーターPA4,PB4,PC4,PD4,PE4,PF4は、地点P4での物体OBJの位置および姿勢に関する画像情報を表している。図9に示すように、物体OBJの位置および姿勢を表す各パラメーターは、各地点での物体OBJの位置および姿勢に応じて変化している。この変化の量は、オペレーターの操作により各地点に物体OBJが位置された状態によって定まる。   Parameters PA1, PB1, PC1, PD1, PE1, and PF1 shown in FIG. 9 schematically represent image information related to the position and orientation of the object OBJ at the point P1 shown in FIG. For example, the parameters PA1, PB1, and PC1 correspond to the components of the coordinates (x, y, x) representing the position of the object OBJ at the point P1, and the parameters PD1, PE1, and PF1 are the parameters of the object OBJ at the point P1. This corresponds to each component of the rotation angle (θx, θy, θz) representing the posture. Similarly, the parameters PA2, PB2, PC2, PD2, PE2, and PF2 represent image information regarding the position and orientation of the object OBJ at the point P2, and the parameters PA3, PB3, PC3, PD3, PE3, and PF3 are at the point P3. The parameters PA4, PB4, PC4, PD4, PE4, and PF4 represent image information related to the position and orientation of the object OBJ at the point P4. As shown in FIG. 9, each parameter representing the position and orientation of the object OBJ changes according to the position and orientation of the object OBJ at each point. The amount of this change is determined by the state in which the object OBJ is positioned at each point by the operation of the operator.

続いて、ステップS3において、画像情報補間部313は、教示点の物体の位置および姿勢の情報から、教示点間の軌道をスプライン関数を用いて3次元空間において補間する。本実施形態では、画像情報補間部313は、スプライン関数を用いて、画像情報取得部312により取得された物体OBJの3次元空間における位置および姿勢を表すパラメーターを補間する教示点間の軌道を得る。
図10は、物体OBJの位置および姿勢に関する画像情報の補間処理を説明するための説明図である。画像情報補間部313は、同図に示すように、前述の図9に示す各パラメーターを後述のスプライン関数s(t)により補間する。即ち、画像情報補間部313は、物体OBJの位置のx成分を表すパラメーターPA1〜PA4を通る軌道PA、y成分を表すパラメーターPB1〜PB4を通る軌道PB、z成分を表すパラメーターPC1〜PC4を通る軌道PCを、スプライン関数を用いて算出する。同様に、画像情報補間部313は、物体OBJの姿勢のθx成分を表すパラメーターPD1〜PD4を通る軌道PD、θy成分を表すパラメーターPE1〜PE4を通る軌道PD、θz成分を表すパラメーターPE1〜PE4を通る軌道PEを、スプライン関数を用いて算出する。上述の軌道PA〜PFを与えるスプライン関数は、地点P1〜P5でのパラメーターに加えて、補間されたパラメーターを表す。即ち、軌道PA〜PFを与えるスプライン関数は、地点P1〜地点P4までの搬送経路上の任意の地点での物体OBJの位置および姿勢に関する画像情報を含んでいる。
Subsequently, in step S3, the image information interpolation unit 313 interpolates the trajectory between the teaching points in the three-dimensional space from the information on the position and orientation of the teaching point object using a spline function. In the present embodiment, the image information interpolation unit 313 uses a spline function to obtain a trajectory between teaching points for interpolating parameters representing the position and orientation of the object OBJ acquired by the image information acquisition unit 312 in the three-dimensional space. .
FIG. 10 is an explanatory diagram for explaining interpolation processing of image information related to the position and orientation of the object OBJ. As shown in the figure, the image information interpolation unit 313 interpolates each parameter shown in FIG. 9 with a spline function s (t) described later. That is, the image information interpolation unit 313 passes the trajectory PA passing through the parameters PA1 to PA4 representing the x component of the position of the object OBJ, the trajectory PB passing through the parameters PB1 to PB4 representing the y component, and the parameters PC1 to PC4 representing the z component. The trajectory PC is calculated using a spline function. Similarly, the image information interpolation unit 313 includes trajectories PD passing through parameters PD1 to PD4 representing θx components of the posture of the object OBJ, trajectories PD passing through parameters PE1 to PE4 representing θy components, and parameters PE1 to PE4 representing θz components. The passing trajectory PE is calculated using a spline function. The spline function that gives the trajectories PA to PF described above represents the interpolated parameters in addition to the parameters at the points P1 to P5. That is, the spline function that gives the trajectories PA to PF includes image information related to the position and orientation of the object OBJ at any point on the transport path from the points P1 to P4.

従って、上述の軌道PA〜PFを与えるスプライン関数から所望の時刻での物体OBJの位置および姿勢を表す画像を生成することが可能になる。即ち、上述の軌道PA〜PFを与えるスプライン関数から得られる物体OBJの位置および姿勢に関する画像情報を用いて、地点P1と地点P4との間の搬送経路上の任意の地点での目標画像をレンダリングすることが可能になり、この目標画像により、地点P1〜P4の各地点で得られた教示画像を補間することが可能になる。
なお、上述の説明では、地点P5のパラメーターを省略したが、物体OBJを地点P5まで搬送するためには、地点P1〜P5での各地点でのパラメーターを考慮して図10に示す軌道PA〜PFがスプライン関数を用いて算出される。
Therefore, an image representing the position and orientation of the object OBJ at a desired time can be generated from the spline function that gives the trajectories PA to PF. That is, the target image at an arbitrary point on the transport path between the point P1 and the point P4 is rendered using the image information regarding the position and orientation of the object OBJ obtained from the spline function that gives the trajectories PA to PF. With this target image, it becomes possible to interpolate the teaching images obtained at the points P1 to P4.
In the above description, the parameter of the point P5 is omitted. However, in order to transport the object OBJ to the point P5, the trajectory PA shown in FIG. 10 is considered in consideration of the parameters at the points P1 to P5. PF is calculated using a spline function.

ここで、スプライン関数s(t)を用いて上述の各パラメーターを補間する演算手順の一例を説明する。
スプライン関数s(t)は次の数式(1)のように表される。ただし、数式(1)において、aは係数であり、Bi,k(t)はBスプラインである。
Here, an example of a calculation procedure for interpolating the above-described parameters using the spline function s (t) will be described.
The spline function s (t) is expressed as the following formula (1). In Equation (1), a i is a coefficient, and B i, k (t) is a B spline.

上述の各パラメーターをスプライン関数(t)で補間することは、各パラメーターの値を表現するスプライン関数s(t)を特定することを意味し、具体的には、スプライン関数s(t)における係数aを特定することを意味する。以下、数式(1)に示されるスプライン関数s(t)の係数aの算出手順を説明する。 Interpolating the above parameters with the spline function (t) means specifying the spline function s (t) that expresses the value of each parameter, specifically, the coefficient in the spline function s (t). It means that a i is specified. Hereinafter, the calculation procedure of the coefficient a i of the spline function s (t) represented by the equation (1) will be described.

(手順1)N(Nは任意の自然数)個の教示点での物体OBJの位置および姿勢に関する情報として、(t、p),(t、p),(t、p),…,(tN−1、pN−1)を入力値とする。ここで、t〜tN−1は各教示点での時刻を表す。また、p〜pN−1は各教示点での上述のパラメーターの値を表し、例えば各教示点での物体OBJの位置の座標である。 (Procedure 1) (t 0 , p 0 ), (t 1 , p 1 ), (t 2 , p 2 ) as information on the position and orientation of the object OBJ at N (N is an arbitrary natural number) teaching points ),..., (T N−1 , p N−1 ) are input values. Here, t 0 to t N−1 represent the time at each teaching point. Further, p 0 to p N−1 represent the above-described parameter values at each teaching point, and are, for example, the coordinates of the position of the object OBJ at each teaching point.

(手順2)K−1次元スプラインの節点qを次式により計算する。
=q=…=qK−1=t
i+K=(t+ti+K)/2 (ただし、i=0,1,…,N−1−K)
=qN+1=…=qN+K−1=tN−1
(Procedure 2) The node q of the K-1 dimensional spline is calculated by the following equation.
q 0 = q 1 = ... = q K-1 = t 0
q i + K = (t i + t i + K ) / 2 (where i = 0, 1,..., N-1-K)
q N = q N + 1 = ... = q N + K-1 = t N-1

(手順3)上述の節点qを用いて、ドヴァ・コックスの算法によりBスプラインBi,k(t)を次式により計算する。
i,k(t)={(t−q)/qi+K−1−qi)}Bi,K−1(t)
+{(qi+K−t)/(qi+K−qi+1)}Bi+1,K−1(t)
(Procedure 3) B spline B i, k (t) is calculated by the following equation using the above-mentioned node q by the Dova Cox algorithm.
B i, k (t) = {(t−q i ) / q i + K−1 −qi)} B i, K−1 (t)
+ {(Q i + K −t) / (q i + K −q i + 1 )} B i + 1, K−1 (t)

(手順4)上述のBスプライン関数Bi,k(t)の多項式として表される上述の数式(1)のスプライン関数s(t)の係数aを次の手順で求める。
s(t)=p(ただし、i=0,1,…,N−1)より、次のN元1次方程式が成り立つ。
(Procedure 4) The coefficient a i of the spline function s (t) of the above equation (1) expressed as a polynomial of the above B spline function B i, k (t) is obtained by the following procedure.
From s (t i ) = p i (where i = 0, 1,..., N−1), the following N-element linear equation holds.

上述のN元1次方程式を行列式で表現すると次のようになる。
Aa=p …(2)
ただし、上述の数式(2)における行列A、行列a、行列bは次のように表される。
The above-described N-element linear equation is expressed as a determinant as follows.
Aa = p (2)
However, the matrix A, the matrix a, and the matrix b in the above equation (2) are expressed as follows.

上述の行列式(2)からガウスの消去法等により行列aの各要素である係数aを求める。以上により、スプライン関数s(t)の係数aが求められる。
上述のように、各教示点での画像情報をなすパラメーターの値から、行列aの各要素としてスプライン関数s(t)の係数aが求められ、上述の軌道PA〜PFを表すスプライン関数s(t)が得られる。このようなスプライン関数s(t)によれば、パラメーターを滑らかに補間する軌道を生成することができ、また、軌道上を搬送される物体OBJの加速および減速を滑らかに行うことが可能になる。
The coefficient a i which is each element of the matrix a is obtained from the above determinant (2) by Gaussian elimination or the like. Thus, the coefficient a i of the spline function s (t) is obtained.
As described above, the coefficient a i of the spline function s (t) is obtained as each element of the matrix a from the value of the parameter forming the image information at each teaching point, and the spline function s representing the above-described trajectories PA to PF. (T) is obtained. According to such a spline function s (t), it is possible to generate a trajectory for smoothly interpolating parameters, and to smoothly accelerate and decelerate the object OBJ conveyed on the trajectory. .

続いて、ステップS4において、レンダリング部314は、画像情報補間部313により補間された物体OBJの位置および姿勢の情報を用いて、所望の搬送速度Vに応じて目標画像をレンダリングする。本実施形態では、レンダリング部314は、画像情報補間部313により補間されたパラメーターを用いて、オペレーターにより指定される所望の搬送速度Vに応じて目標画像をレンダリングする。
図11は、レンダリング部314のレンダリングの手法を説明するための図である。同図において、地点P1,P2は、図6に示す地点P1,P2であり、地点P11,P12は、地点P1と地点P2との間で目標画像を補間する地点を表している。本実施形態では、説明の簡略化のため、地点P11は、地点P1と地点P2の間の3分の1の地点に相当し、地点P12は、地点P1と地点P2の間の3分の2の地点に相当するものとする。即ち、地点P1から地点P11までの距離は、地点P1から地点P2までの距離の3分の1であり、地点P1から地点P12までの距離は、地点P1から地点P2までの距離の3分の2である。
Subsequently, in step S <b> 4, the rendering unit 314 renders the target image according to the desired conveyance speed V using the information on the position and orientation of the object OBJ interpolated by the image information interpolation unit 313. In the present embodiment, the rendering unit 314 renders the target image according to the desired conveyance speed V specified by the operator, using the parameters interpolated by the image information interpolation unit 313.
FIG. 11 is a diagram for explaining a rendering technique of the rendering unit 314. In the figure, points P1 and P2 are points P1 and P2 shown in FIG. 6, and points P11 and P12 represent points where the target image is interpolated between the points P1 and P2. In this embodiment, for simplification of description, the point P11 corresponds to a third point between the point P1 and the point P2, and the point P12 is two-thirds between the point P1 and the point P2. It shall correspond to the point of. That is, the distance from the point P1 to the point P11 is one third of the distance from the point P1 to the point P2, and the distance from the point P1 to the point P12 is three minutes of the distance from the point P1 to the point P2. 2.

また、図11において、画像G11は、物体OBJが地点P1に位置する場合に示される地点P11での目標画像を表し、画像G12は、物体OBJが地点P11に位置する場合に示される地点P12での目標画像を表し、画像G2は、物体OBJが地点P12に位置する場合に示される地点P2での目標画像を表している。画像G11,G12,G2中に示す点線は、前述の図6に示す地点P1〜P5を中継点とする搬送経路を表している。   In FIG. 11, an image G11 represents a target image at a point P11 indicated when the object OBJ is located at the point P1, and an image G12 is a point P12 indicated when the object OBJ is located at the point P11. The image G2 represents the target image at the point P2 shown when the object OBJ is located at the point P12. Dotted lines shown in the images G11, G12, and G2 represent transport routes that use the points P1 to P5 shown in FIG. 6 as relay points.

ここで、目標画像G11は、画像情報補間部313により、地点P11での物体OBJの位置および姿勢に関する画像情報であるパラメーターPA11,PB11,PC11,PD11,PE11,P11から生成された画像であり、この目標画像G11に示されている物体OBGの位置および姿勢は、上述のパラメーターPA11,PB11,PC11,PD11,PE11,PF11で規定される。また、目標画像G12は、画像情報補間部313により、地点P12での物体OBJの位置および姿勢に関する画像情報であるパラメーターPA12,PB12,PC12,PD12,PE12,PF12から生成された画像であり、この目標画像G22に示されている物体OBGの位置および姿勢は、上述のパラメーターPA12,PB12,PC12,PD12,PE12,PF12で規定される。目標画像G2は、画像情報補間部313により地点P2での物体OBJの位置および姿勢に関する画像情報であるパラメーターPA2,PB2,PC2,PD2,PE2,PF2から生成された画像、または、教示画像取得部311により取得された地点P2での物体OBJの教示画像である。   Here, the target image G11 is an image generated by the image information interpolation unit 313 from parameters PA11, PB11, PC11, PD11, PE11, and P11, which are image information related to the position and orientation of the object OBJ at the point P11. The position and orientation of the object OBG shown in the target image G11 are defined by the parameters PA11, PB11, PC11, PD11, PE11, and PF11. The target image G12 is an image generated by the image information interpolation unit 313 from parameters PA12, PB12, PC12, PD12, PE12, and PF12, which are image information related to the position and orientation of the object OBJ at the point P12. The position and orientation of the object OBG shown in the target image G22 are defined by the parameters PA12, PB12, PC12, PD12, PE12, and PF12. The target image G2 is an image generated by the image information interpolation unit 313 from parameters PA2, PB2, PC2, PD2, PE2, and PF2, which are image information related to the position and orientation of the object OBJ at the point P2, or a teaching image acquisition unit. 311 is a teaching image of the object OBJ at the point P2 acquired by 311.

図11に例示するように、地点P1と地点P2との間の中継点を増やし、補間による目標画像を増やせば、後述するように、この地点P1と地点P2との間の搬送速度Vが小さくなる。レンダリング部314は、地点P1と地点P2との間の所望の搬送速度に応じて中継点の数を設定し、その中継点での物体OBJの目標画像を、上述の画像情報補間部313により補間された画像情報を用いてレンダリングする。地点P2〜P5の区間についても同様に所望の搬送速度に応じて中継点が設定され、その中継点での目標画像が生成される。
以上のように、画像生成部31により目標画像生成処理が行われ、この目標画像生成処理により生成された目標画像は記憶部32に記憶される。
As illustrated in FIG. 11, if the number of relay points between the point P1 and the point P2 is increased and the target image by interpolation is increased, the conveyance speed V between the point P1 and the point P2 is reduced as will be described later. Become. The rendering unit 314 sets the number of relay points according to a desired conveyance speed between the points P1 and P2, and the above-described image information interpolation unit 313 interpolates the target image of the object OBJ at the relay points. Rendering is performed using the image information. Similarly, a relay point is set in accordance with a desired conveyance speed in the section between the points P2 to P5, and a target image at the relay point is generated.
As described above, the target image generation process is performed by the image generation unit 31, and the target image generated by the target image generation process is stored in the storage unit 32.

ここで、上述の目標画像生成処理により得られる目標画像と搬送速度との関係を説明する。図11において、地点P1から地点P11に物体を搬送する際の搬送速度Vは、図9に示す地点P1での物体OBJの位置および姿勢に関する画像情報であるパラメーターPA1,PB1,PC1,PD1,PE1,PF1と、地点P11での物体OBJの位置および姿勢に関する画像情報であるパラメーターPA11,PB11,PC11,PD11,PE11,PF11との差分に応じて設定される。この場合のパラメーターの差分は、図11において、中継点P11,P12を設定せずに目標画像G2のみを生成した場合に比較して小さくなる。   Here, the relationship between the target image obtained by the above-described target image generation processing and the conveyance speed will be described. In FIG. 11, the conveyance speed V when the object is conveyed from the point P1 to the point P11 is parameters PA1, PB1, PC1, PD1, PE1 which are image information relating to the position and orientation of the object OBJ at the point P1 shown in FIG. , PF1 and a parameter PA11, PB11, PC11, PD11, PE11, PF11 which is image information related to the position and orientation of the object OBJ at the point P11. The parameter difference in this case is smaller than in the case where only the target image G2 is generated without setting the relay points P11 and P12 in FIG.

例えば、中継点P11を設定した場合の物体OBJの位置の差分(例えば地点P1から地点P11までの距離)は、中継点P11を設定せずに目標画像G2のみを生成した場合の物体OBJの位置の差分(例えば地点P1から地点P2までの距離)よりも小さくなる。従って、中継点P11での目標画像G11を補間により生成することにより、地点P1と地点P11との間の搬送速度Vも小さくなる。逆に、中継点P11での目標画像G11を生成しなければ、目標画像G11を生成した場合に比較して、搬送速度Vを大きくすることができる。地点P11から地点P12に物体を搬送する際の搬送速度Vと、地点P12から地点P2に物体を搬送する際の搬送速度Vについても同様である。   For example, the difference in the position of the object OBJ when the relay point P11 is set (for example, the distance from the point P1 to the point P11) is the position of the object OBJ when only the target image G2 is generated without setting the relay point P11. (For example, the distance from the point P1 to the point P2). Therefore, by generating the target image G11 at the relay point P11 by interpolation, the conveyance speed V between the point P1 and the point P11 is also reduced. Conversely, if the target image G11 at the relay point P11 is not generated, the conveyance speed V can be increased as compared with the case where the target image G11 is generated. The same applies to the conveyance speed V when the object is conveyed from the point P11 to the point P12 and the conveyance speed V when the object is conveyed from the point P12 to the point P2.

(物体搬送処理)
次に、上述のように画像生成部31により生成された目標画像を用いたビジュアルサーボ制御による物体搬送処理を説明する。
本実施形態のロボット装置1によるビジュアルサーボ制御は、上述の画像生成部31により生成された目標画像を教示画像として用いる点を除けば、従来のビジュアルサーボ制御と同様である。ここでは、上述の画像生成部31により生成された図11の地点P11,P12,P2での目標画像G11,G12,G2に加え、地点P1での目標画像G1(図示なし)を用いて、図6に示す始点P0から地点P1,P11,P12を経由して地点P2まで物体OBJを搬送する過程を説明する。
(Object conveyance processing)
Next, the object conveyance process by visual servo control using the target image generated by the image generation unit 31 as described above will be described.
The visual servo control by the robot apparatus 1 of the present embodiment is the same as the conventional visual servo control except that the target image generated by the image generation unit 31 is used as a teaching image. Here, in addition to the target images G11, G12, and G2 at the points P11, P12, and P2 of FIG. 11 generated by the image generation unit 31 described above, the target image G1 (not shown) at the point P1 is used to A process of transporting the object OBJ from the start point P0 shown in FIG. 6 to the point P2 via the points P1, P11, and P12 will be described.

なお、始点P0から地点P1までの間には中継地点は設定されておらず、補間された目標画像も存在しないものとする。また、地点P1,P11,P12,P2のそれぞれにおける物体OBJの目標画像G1,G11,G12,G2は、上述の目標画像生成処理により画像生成部31で生成されて記憶部32に予め記憶されているものとする。   It is assumed that no relay point is set between the start point P0 and the point P1, and there is no interpolated target image. Further, the target images G1, G11, G12, and G2 of the object OBJ at each of the points P1, P11, P12, and P2 are generated by the image generation unit 31 by the above-described target image generation process and stored in the storage unit 32 in advance. It shall be.

概略的には、ビジュアルサーボ制御は、撮像部20により時々刻々と得られるフレーム画像と記憶部32に予め記憶された上述の目標画像G1,G11,G12,G2とから、図3に示す情報処理部30を構成する制御情報生成部33がフレーム画像のフレームレートに相当する一定周期で制御情報Cを生成し、この制御情報Cに基づいてロボット制御部40がロボット本体10の動作をフィードバック制御することにより実施される。   Schematically, the visual servo control is based on the information processing shown in FIG. 3 from the frame images obtained every moment by the imaging unit 20 and the above-described target images G1, G11, G12, G2 previously stored in the storage unit 32. The control information generation unit 33 constituting the unit 30 generates the control information C at a constant cycle corresponding to the frame rate of the frame image, and the robot control unit 40 feedback-controls the operation of the robot body 10 based on the control information C. Is implemented.

具体的に説明すると、撮像部20は、30フレーム/秒のフレームレートで、物体OBJが位置する始点P0から地点P5を含む所定範囲を撮像する。このフレーム画像は、撮像部20からフレームレートに相当する33ミリ秒毎に情報処理部30の制御情報生成部33に供給される。   More specifically, the imaging unit 20 images a predetermined range including the start point P0 to the point P5 where the object OBJ is located at a frame rate of 30 frames / second. This frame image is supplied from the imaging unit 20 to the control information generation unit 33 of the information processing unit 30 every 33 milliseconds corresponding to the frame rate.

制御情報生成部33は、始点P0に位置する物体OBJの最初の中継地点が地点P1であることから、記憶部32から地点P1での目標画像G1(図示なし)を読み出す。そして、制御情報生成部33は、目標画像G1と現在のフレーム画像との差分を演算する。換言すると、制御情報生成部33は、目標画像G1と現在のフレーム画像とから、前述の各パラメーターの差分を演算する。そして、制御情報生成部33は、この差分が小さくなるような物体OBJの搬送量を演算し、この搬送量に相当するロボット本体10の動作量、即ち例えばハンド部10bの回動量を指令するための制御情報Cを生成して出力する。ここで、本実施形態において、物体OBJの搬送量とは、物体OBJの位置の変化量と、物体OBJの姿勢の変化量の両方を含む。即ち、制御情報生成部33は、地点P0にある物体OBJが地点P1での目標画像G11に示される位置および姿勢をとるように、物体OBJの位置の変化量と、物体OBJの姿勢の変化量を算出し、このような変化量を物体OBJに与えるようなロボット本体10の動作量を指定する制御情報Cをロボット制御部40に供給する。   Since the first relay point of the object OBJ located at the start point P0 is the point P1, the control information generation unit 33 reads the target image G1 (not shown) at the point P1 from the storage unit 32. Then, the control information generation unit 33 calculates the difference between the target image G1 and the current frame image. In other words, the control information generation unit 33 calculates the difference of each parameter described above from the target image G1 and the current frame image. Then, the control information generation unit 33 calculates the transport amount of the object OBJ so that the difference becomes small, and instructs the operation amount of the robot body 10 corresponding to the transport amount, for example, the rotation amount of the hand unit 10b. Control information C is generated and output. Here, in the present embodiment, the transport amount of the object OBJ includes both a change amount of the position of the object OBJ and a change amount of the posture of the object OBJ. That is, the control information generating unit 33 changes the position change amount of the object OBJ and the change amount of the posture of the object OBJ so that the object OBJ at the point P0 takes the position and posture shown in the target image G11 at the point P1. And the control information C specifying the movement amount of the robot body 10 that gives such an amount of change to the object OBJ is supplied to the robot control unit 40.

制御情報生成部33は、撮像部20から新たなフレーム画像が供給される都度、各パラメーターの差分を算出し直して制御情報Cを生成し、この制御情報Cをロボット制御部40に供給する。本実施形態では、撮像部20は、30フレーム/秒のフレームレートのフレーム画像を制御情報生成部33に供給するので、制御情報生成部33は約33ミリ秒ごとに各パラメーターの差分を算出し直して制御情報Cを生成する。ロボット制御部40は、制御情報生成部33から順次供給される制御情報Cで指定されるロボット本体10の動作量に応じて、ロボット本体10の各部を制御する。これにより、ロボット本体10に保持された物体OBJが始点P0から地点P1に向けて搬送される。   Each time a new frame image is supplied from the imaging unit 20, the control information generation unit 33 recalculates the difference between the parameters to generate control information C, and supplies the control information C to the robot control unit 40. In the present embodiment, the imaging unit 20 supplies a frame image with a frame rate of 30 frames / second to the control information generation unit 33, so that the control information generation unit 33 calculates the difference of each parameter about every 33 milliseconds. Then, control information C is generated. The robot control unit 40 controls each unit of the robot body 10 according to the operation amount of the robot body 10 specified by the control information C sequentially supplied from the control information generation unit 33. Thereby, the object OBJ held by the robot body 10 is transported from the start point P0 toward the point P1.

図12は、ロボット本体10による物体OBJの搬送速度Vと搬送経路上の位置との関係を示す図である。ロボット制御部40は、物体OBJが始点P0に位置するときに制御情報生成部33から供給される制御情報Cに基づいてロボット本体10の動作を制御し、物体OBJが始点P0から地点P1に向けて移動を開始する。この場合、始点P0から最初の中継点である地点P1までの距離に応じて物体OBJの位置に関する画像情報をなすパラメーターの差分が大きくなる。このため、制御情報生成部33は、物体OBJの搬送速度Vとして、この差分に応じて比較的大きな搬送速度VAを設定して制御情報Cを生成する。この搬送速度VAを設定して生成された制御情報Cにより、ロボット制御部40は、その搬送速度VAに見合った動作をロボット本体10に行わせる。   FIG. 12 is a diagram illustrating the relationship between the conveyance speed V of the object OBJ by the robot body 10 and the position on the conveyance path. The robot control unit 40 controls the operation of the robot body 10 based on the control information C supplied from the control information generation unit 33 when the object OBJ is located at the start point P0, and the object OBJ moves from the start point P0 toward the point P1. To start moving. In this case, the difference between the parameters forming the image information related to the position of the object OBJ increases in accordance with the distance from the start point P0 to the point P1, which is the first relay point. For this reason, the control information generation unit 33 generates the control information C by setting a relatively large conveyance speed VA according to this difference as the conveyance speed V of the object OBJ. Based on the control information C generated by setting the transport speed VA, the robot control unit 40 causes the robot body 10 to perform an operation corresponding to the transport speed VA.

そして、約33ミリ秒後に新たなフレーム画像が撮像部20から供給されると、制御情報生成部33は、この新たなフレーム画像の物体OBJの位置および姿勢に関するパラメーターを取得し、このパラメーターと、地点P1での目標画像G1内の物体OBJの位置および姿勢を表すパラメーターとの差分を新たに計算し直して制御情報Cを生成する。このとき、物体OBJの位置は、始点P0よりも地点P1に接近しているので、物体OBJと地点P1との間の距離は短縮されている。従って、このときの制御情報Cにより設定される物体OBJの搬送速度VBは上述の搬送速度VAよりも小さくなる。このようにして、物体OBJが地点P1に近づくにつれて、図12に示すように、物体OBJの搬送速度Vが低下する傾向を示す。   Then, when a new frame image is supplied from the imaging unit 20 after about 33 milliseconds, the control information generation unit 33 acquires parameters regarding the position and orientation of the object OBJ of the new frame image, The control information C is generated by newly recalculating the difference from the parameter representing the position and orientation of the object OBJ in the target image G1 at the point P1. At this time, since the position of the object OBJ is closer to the point P1 than the starting point P0, the distance between the object OBJ and the point P1 is shortened. Therefore, the conveyance speed VB of the object OBJ set by the control information C at this time is smaller than the above-described conveyance speed VA. In this way, as the object OBJ approaches the point P1, as shown in FIG. 12, the conveyance speed V of the object OBJ tends to decrease.

図12では、始点P0と地点P1の間で、搬送速度Vが概ね直線的に低下する傾向を示しているが、微視的には、33ミリ秒毎に段階的に搬送速度Vが低下する。しかし、実際には、物体OBJの質量やロボット本体10の慣性質量が存在するので、図12に例示するように、物体OBJの搬送速度Vは、物体OBJと地点P1との間の距離に比例してなだらかに低下する。従って、図12に示す例では、始点P0から地点P1までの物体OBJの搬送速度Vの平均値は、概ねVA/2となる。   In FIG. 12, the conveyance speed V tends to decrease substantially linearly between the start point P0 and the point P1, but microscopically, the conveyance speed V gradually decreases every 33 milliseconds. . However, in reality, since the mass of the object OBJ and the inertial mass of the robot body 10 exist, the conveyance speed V of the object OBJ is proportional to the distance between the object OBJ and the point P1, as illustrated in FIG. Then it falls gently. Therefore, in the example shown in FIG. 12, the average value of the conveyance speed V of the object OBJ from the start point P0 to the point P1 is approximately VA / 2.

続いて、物体OBJが地点P1に到達すると、制御情報生成部33は、次の中継地点が地点P11であることから、記憶部32から地点P11での目標画像G11を読み出す。そして、制御情報生成部33は、地点P1に位置する物体OBJのフレーム画像と目標画像G11から上述の各パラメーターの差分を演算し、この差分が小さくなるような物体OBJの搬送量を演算し、この搬送量に相当するロボット本体10の運動量を指令するための制御情報Cを生成して出力する。ここで、制御情報生成部33は、地点P1から地点P11に向けて搬送するときの搬送速度Vとして、地点P1に位置する物体OBJのフレーム画像と目標画像G11から算出した各パラメーターの差分に応じた搬送速度VBを設定して制御情報Cを生成する。この場合の搬送速度Vも、上述と同様に、物体OBJと地点P11との間の距離に比例してなだらかに低下する。   Subsequently, when the object OBJ reaches the point P1, the control information generation unit 33 reads the target image G11 at the point P11 from the storage unit 32 because the next relay point is the point P11. Then, the control information generation unit 33 calculates the difference between the parameters described above from the frame image of the object OBJ located at the point P1 and the target image G11, calculates the transport amount of the object OBJ so that the difference becomes small, Control information C for instructing the amount of movement of the robot body 10 corresponding to the transport amount is generated and output. Here, the control information generation unit 33 responds to the difference between each parameter calculated from the frame image of the object OBJ located at the point P1 and the target image G11 as the transport speed V when transporting from the point P1 toward the point P11. Control information C is generated by setting the transport speed VB. The transport speed V in this case also decreases gently in proportion to the distance between the object OBJ and the point P11, as described above.

次の地点P11〜P12の区間と地点P12〜P2の区間でのビジュアルサーボ制御による物体OBJの搬送についても、上述の始点P0〜地点P1の区間、または地点P1〜P11の区間での搬送と同様に説明される。また、特に説明しないが、地点P2〜P5の間の搬送についても同様に説明される。このようにして、ビジュアルフィードバック制御に基づく物体搬送処理により物体OBJが搬送される。   The transportation of the object OBJ by visual servo control in the next section P11 to P12 and the section P12 to P2 is the same as the transportation in the section from the start point P0 to the point P1 or the section P1 to P11. Explained. Although not specifically described, the conveyance between the points P2 to P5 is also described in the same manner. In this way, the object OBJ is conveyed by the object conveyance process based on the visual feedback control.

ここで、仮に、始点P0〜P1の区間の距離と地点P1〜P2の区間の距離が等しく、地点P1〜P11、P11〜P12、P12〜P2の各区間の距離が、始点P0〜P1の区間の距離の3分の1であれば、図12において、搬送速度VBは搬送速度VAの約3分の1になり、地点P1〜P2の区間の搬送速度Vの平均値VB/2は、始点P0〜P1の区間の搬送速度Vの平均値VA/2の約3分の1となる。   Here, it is assumed that the distance between the sections of the start points P0 to P1 is equal to the distance between the sections of the points P1 and P2, and the distances of the sections P1 to P11, P11 to P12, and P12 to P2 are the sections of the start points P0 to P1. 12, the transport speed VB is about one third of the transport speed VA in FIG. 12, and the average value VB / 2 of the transport speed V in the section between the points P1 and P2 is the start point. This is about one third of the average value VA / 2 of the conveyance speed V in the section from P0 to P1.

従って、本実施形態によれば、目標画像により、各区間の搬送速度Vを制御することが可能になる。即ち、所望の搬送速度に応じて中継点の間隔を調整して目標画像を生成することにより、物体OBJの搬送速度Vを意図的に制御することが可能になり、加減速を考慮して物体OBJを搬送することが可能になる。
また、本実施形態によれば、スプライン関数s(t)により任意の地点での物体OBJの位置および姿勢を把握することができるので、教示点に制約されることなく、所望の搬送速度Vに応じて目標画像を準備することができる。
また、本実施形態によれば、限られた教示画像から任意の地点での目標画像を生成することができるので、加減速を考慮して少ない教示画像で最終的な目標地点まで物体OBJの搬送を制御することができる。
Therefore, according to the present embodiment, it is possible to control the conveyance speed V of each section based on the target image. That is, by generating the target image by adjusting the interval between the relay points according to the desired transport speed, the transport speed V of the object OBJ can be intentionally controlled, and the object is considered in consideration of acceleration / deceleration. The OBJ can be transported.
Further, according to the present embodiment, the position and orientation of the object OBJ at an arbitrary point can be grasped by the spline function s (t), so that the desired transport speed V can be achieved without being restricted by the teaching point. A target image can be prepared accordingly.
In addition, according to the present embodiment, a target image at an arbitrary point can be generated from a limited teaching image, so that the object OBJ is transported to the final target point with a small number of teaching images in consideration of acceleration / deceleration. Can be controlled.

また、本実施形態によれば、物体OBJを目標地点に搬送する過程で、周囲の状況に応じて搬送速度を設定することが可能になる。例えば、物体OBJの周辺に障害物Bが存在しないのであれば、搬送速度を低下させずに物体OBJを搬送し、障害物Bの周辺では搬送速度を低下させることが可能になる。また、スプライン関数を用いて教示画像を補間して目標画像を生成するので、物体OBJの搬送をなめらかに行うことも可能になる。また、加速および減速も滑らかに行うこともできる。   Further, according to the present embodiment, in the process of transporting the object OBJ to the target point, it is possible to set the transport speed according to the surrounding situation. For example, if the obstacle B does not exist around the object OBJ, the object OBJ can be transported without decreasing the transport speed, and the transport speed can be decreased around the obstacle B. In addition, since the target image is generated by interpolating the teaching image using the spline function, the object OBJ can be smoothly conveyed. In addition, acceleration and deceleration can be performed smoothly.

なお、上述の実施形態では、スプライン関数を用いて補間処理を行うものとしたが、搬送速度の制御を可能とする限度において、直線補間等の任意の補間手法を用いることができる。
また、上述の実施形態では、画像生成部31をロボット装置1の構成要素としたが、これを画像生成装置として別体に構成してもよい。この場合の画像生成装置は、ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とすべき目標画像を生成する画像生成装置であって、上述の教示画像取得部311と、画像情報取得部312と、画像情報補間部313と、レンダリング部314とを備えた画像生成装置として構成される。
In the above-described embodiment, the interpolation processing is performed using the spline function. However, any interpolation method such as linear interpolation can be used as long as the conveyance speed can be controlled.
In the above-described embodiment, the image generation unit 31 is a constituent element of the robot apparatus 1, but it may be configured separately as an image generation apparatus. The image generation apparatus in this case is an image generation apparatus that generates a target image to be a target when an object is transported to a target point by a robot using visual servo control, and includes the above-described teaching image acquisition unit 311, The image generation apparatus includes an image information acquisition unit 312, an image information interpolation unit 313, and a rendering unit 314.

また、上述の実施形態による画像生成部31の処理手順を画像生成方法として表現することもできる。この場合の画像生成方法は、ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とすべき目標画像を生成する画像生成方法であって、上述のステップS1〜S4を含む画像生成方法として構成される。   The processing procedure of the image generation unit 31 according to the above-described embodiment can also be expressed as an image generation method. The image generation method in this case is an image generation method for generating a target image that should be a target when an object is transported to a target point by a robot using visual servo control, and includes the above-described steps S1 to S4. Configured as a generation method.

更に、画像生成部31の処理手順を、コンピューターに実行させるための画像生成プログラムとして表現することもできる。この場合の画像生成プログラムは、コンピューターを、ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とすべき目標画像を生成する画像生成装置として機能させるための画像生成プログラムであって、上記コンピューターを、上述の教示画像取得部311と、画像情報取得部312と、画像情報補間部313と、レンダリング部314と、として機能させるための画像生成プログラムとして構成される。   Furthermore, the processing procedure of the image generation unit 31 can be expressed as an image generation program for causing a computer to execute the processing procedure. The image generation program in this case is an image generation program for causing a computer to function as an image generation device that generates a target image to be targeted when an object is transported to a target point by a robot using visual servo control. Thus, the computer is configured as an image generation program for causing the teaching image acquisition unit 311, the image information acquisition unit 312, the image information interpolation unit 313, and the rendering unit 314 to function.

[第2実施形態]
次に、本発明の第2実施形態を説明する。
概略的には、本実施形態では、複数の撮像部を準備し、或る撮像部により搬送経路上の一部の区間を撮像し、他の区間を別の撮像部で撮像することにより、各撮像部が撮像を担う複数の区間にわたって物体OBJの搬送を制御する。撮像部の数は任意である。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
Schematically, in the present embodiment, a plurality of imaging units are prepared, a certain imaging unit images a part of the section on the conveyance path, and another section is captured by another imaging unit, The imaging unit controls the conveyance of the object OBJ over a plurality of sections for imaging. The number of imaging units is arbitrary.

図13は、本実施形態によるロボット装置2の機能構成の一例を表すブロック図である。ロボット装置2は、上述の図1に示す第1実施形態の構成において、撮像部20および情報処理部30に代え、2つの撮像部21,22と情報処理部50を備える。その他の構成は、第1実施形態と同様である。   FIG. 13 is a block diagram illustrating an example of a functional configuration of the robot apparatus 2 according to the present embodiment. The robot apparatus 2 includes two imaging units 21 and 22 and an information processing unit 50 in place of the imaging unit 20 and the information processing unit 30 in the configuration of the first embodiment shown in FIG. Other configurations are the same as those of the first embodiment.

2つの撮像部21,22のそれぞれは、第1実施形態における撮像部20と同様のものであり、例えばビデオカメラ装置である。ただし、本実施形態では、2つの撮像部21,22は、物体OBJの搬送経路に設定された複数の区間に対応付けられて設置されている。本実施形態では、撮像部21は、前述の図6に示す始点P0から地点P5までの区間に対して設置され、この撮像部21は、物体OBJと、始点P0から地点P5までの搬送経路を含む範囲を撮像するように設定されている。また、本実施形態では、撮像部22は、図6に示す製品Mの筐体内部を上方から望む位置に設置され、地点P5から製品Mの筐体内部の最終的な目標地点(図示なし)までの搬送経路を含む範囲を撮像するように設定されている。
なお、撮像部の数は、任意であり、搬送経路上に設定した区間の数に応じて任意の個数の撮像部を設置すればよい。
Each of the two imaging units 21 and 22 is the same as the imaging unit 20 in the first embodiment, and is, for example, a video camera device. However, in the present embodiment, the two imaging units 21 and 22 are installed in association with a plurality of sections set in the conveyance path of the object OBJ. In the present embodiment, the imaging unit 21 is installed in the section from the start point P0 to the point P5 shown in FIG. 6 described above, and the imaging unit 21 has a transport path from the object OBJ to the point P5 to the point P5. It is set to image a range that includes it. Further, in the present embodiment, the imaging unit 22 is installed at a desired position inside the housing of the product M shown in FIG. 6 from above, and a final target point (not shown) from the point P5 to the inside of the housing of the product M. It is set to image the range including the transport route up to.
Note that the number of imaging units is arbitrary, and an arbitrary number of imaging units may be installed in accordance with the number of sections set on the conveyance path.

情報処理部50は、2つの撮像部21,22のそれぞれについて、撮像された画像から物体OBJの搬送経路を教示するための教示画像を取得し、この教示画像を所望の搬送速度に応じて補間することにより、物体OBJを搬送する場合に目標とすべき目標画像を生成する。そして、この物体OBJを搬送する場合に撮像部21,22により撮像される画像と上記目標画像との差分を取得する処理を実行する。   The information processing unit 50 acquires a teaching image for teaching the conveyance path of the object OBJ from the captured images for each of the two imaging units 21 and 22, and interpolates the teaching image according to a desired conveyance speed. As a result, a target image to be targeted when the object OBJ is conveyed is generated. And when this object OBJ is conveyed, the process which acquires the difference of the image imaged by the imaging parts 21 and 22 and the said target image is performed.

図14は、情報処理部50の機能構成の一例を表すブロック図である。情報処理部50は、第1情報処理部51、第2情報処理部52、選択部53を備える。このうち、第1情報処理部51および第2情報処理部52のそれぞれは、上述の第1実施形態による情報処理部30と同様に構成される。選択部53は、第1情報処理部51から出力される制御情報C1と第2情報処理部52から出力される制御情報C2の何れかを制御情報Cとして選択して出力するためのものである。   FIG. 14 is a block diagram illustrating an example of a functional configuration of the information processing unit 50. The information processing unit 50 includes a first information processing unit 51, a second information processing unit 52, and a selection unit 53. Among these, each of the 1st information processing part 51 and the 2nd information processing part 52 is comprised similarly to the information processing part 30 by the above-mentioned 1st Embodiment. The selection unit 53 is for selecting and outputting either the control information C1 output from the first information processing unit 51 or the control information C2 output from the second information processing unit 52 as the control information C. .

本実施形態では、選択部53による選択動作は、物体OBJが、撮像部21の撮像範囲に含まれる始点P0から地点P5までの搬送経路の区間と、撮像部22の撮像範囲に含まれる地点P5から最終的な目標地点までの搬送経路の区間の何れの区間に存在するかに基づいて制御される。即ち、物体OBJが、撮像部21の撮像範囲に含まれる始点P0から地点P5までの搬送経路上に存在する場合、選択部53は、第1情報処理部51が出力する制御情報C1を制御情報Cとして選択する。また、選択部53は、物体OBJが、撮像部22の撮像範囲に含まれる地点P5から最終的な目標地点までの搬送経路上に存在する場合、第2情報処理部52が出力する制御情報C2を制御情報Cとして選択する。   In the present embodiment, the selection operation by the selection unit 53 is such that the object OBJ includes the section of the transport path from the start point P0 to the point P5 included in the imaging range of the imaging unit 21 and the point P5 included in the imaging range of the imaging unit 22. Is controlled based on which section of the transport route from the first to the final target point exists. That is, when the object OBJ exists on the transport path from the start point P0 to the point P5 included in the imaging range of the imaging unit 21, the selection unit 53 uses the control information C1 output by the first information processing unit 51 as control information. Select as C. In addition, the selection unit 53 controls the control information C2 output by the second information processing unit 52 when the object OBJ exists on the transport path from the point P5 included in the imaging range of the imaging unit 22 to the final target point. Is selected as control information C.

次に、本実施形態によるロボット装置2の動作を説明する。
本実施形態において、物体OBJが、図6に示す始点P0から地点P5までの搬送経路の区間に存在する場合、選択部53は第1情報処理部51から出力される制御情報C1を制御情報Cとして選択する。そして、撮像部21と第1情報処理部5は、上述の第1実施形態による撮像部20と情報処理部30と同様に機能する。従って、この場合、ロボット装置2は、第1実施形態によるロボット装置1と同様に機能する。
Next, the operation of the robot apparatus 2 according to the present embodiment will be described.
In the present embodiment, when the object OBJ exists in the section of the transport path from the start point P0 to the point P5 shown in FIG. 6, the selection unit 53 uses the control information C1 output from the first information processing unit 51 as the control information C. Choose as. And the imaging part 21 and the 1st information processing part 5 function similarly to the imaging part 20 and the information processing part 30 by the above-mentioned 1st Embodiment. Therefore, in this case, the robot apparatus 2 functions in the same manner as the robot apparatus 1 according to the first embodiment.

本実施形態では、物体OBJが、撮像部21からは死角領域となる製品Mの筐体内部の搬送経路上にある場合、撮像部21と第1情報処理部51に代わり、撮像部22と第2情報処理部52が機能して制御情報C2を生成し、この制御情報C2を制御情報Cとして選択部53が選択する。従ってこの場合、第2情報処理部52を構成する図4に示す画像生成部31は、教示画像から目標画像を生成する段階で、物体OBJが製品Mの筐体内部における搬送経路上の各中継地点にある場合の教示画像を取得し、第1実施形態と同様に、その教示画像を補間することにより、所望の搬送速度に応じた目標画像を生成する。この目標画像は、第2情報処理部52を構成する図4に示す記憶部32に記憶される。   In the present embodiment, when the object OBJ is on the transport path inside the housing of the product M that is a blind spot area from the imaging unit 21, the imaging unit 22 and the first information processing unit 51 are replaced with the imaging unit 22 and the first information processing unit 51. 2 The information processing unit 52 functions to generate control information C2, and the selection unit 53 selects the control information C2 as control information C. Therefore, in this case, the image generating unit 31 shown in FIG. 4 constituting the second information processing unit 52 generates each target image from the teaching image, and each relay of the object OBJ on the transport path inside the housing of the product M is performed. A teaching image at a point is acquired, and a target image corresponding to a desired conveyance speed is generated by interpolating the teaching image as in the first embodiment. This target image is stored in the storage unit 32 shown in FIG.

また、物体OBJを地点P5から最終的な目標地点まで搬送する場合、第2情報処理部52は、記憶部32に記憶された目標画像を参照して、撮像部22により撮像されるフレーム画像から制御情報C2を生成する。この制御情報C2は選択部53を介して制御情報Cとしてロボット制御部40に供給される。ロボット制御部40は、制御情報Cとして供給される制御情報C2に基づいてロボット本体10の動作を制御することにより、物体OBJを地点P5から最終的な目標地点まで搬送させる。   Further, when the object OBJ is transported from the point P5 to the final target point, the second information processing unit 52 refers to the target image stored in the storage unit 32 and starts from the frame image captured by the imaging unit 22. Control information C2 is generated. The control information C2 is supplied as control information C to the robot control unit 40 via the selection unit 53. The robot control unit 40 controls the operation of the robot body 10 based on the control information C2 supplied as the control information C, thereby causing the object OBJ to be transported from the point P5 to the final target point.

ここで、本実施形態において、選択部53での選択の切り替えは、物体OBJが地点P5に到達した時点で行われる。即ち、撮像部21の撮像範囲に含まれる搬送経路の終点に相当する地点P5に物体P5が到達するまでは、情報処理部50は、その選択部53に制御情報C1を制御情報Cとして選択させる。そして、物体OBJが地点P5に到達すると、選択部53に制御情報C2を制御情報Cとして選択させる。このように、制御情報Cの内容を制御情報C1から制御情報C2に切り替えることにより、物体OBJが撮像部21の死角領域に入っても、継続的に物体OBJの搬送を制御することが可能になる。   Here, in the present embodiment, selection switching by the selection unit 53 is performed when the object OBJ reaches the point P5. That is, the information processing unit 50 causes the selection unit 53 to select the control information C1 as the control information C until the object P5 reaches the point P5 corresponding to the end point of the transport path included in the imaging range of the imaging unit 21. . When the object OBJ reaches the point P5, the selection unit 53 is made to select the control information C2 as the control information C. Thus, by switching the content of the control information C from the control information C1 to the control information C2, it is possible to continuously control the conveyance of the object OBJ even when the object OBJ enters the blind spot area of the imaging unit 21. Become.

なお、上述の例では、搬送経路上の区間に対応づけて2つの撮像部21,22を設置したが、同一の区間に複数の撮像部を設置し、各撮像部で撮像された画像から制御情報Cを生成してもよい。この場合、例えば、或る撮像部の撮像範囲内に障害物が動的に入り込み、この撮像部で物体OBJを撮像し得ない状況が突発的に生じても、他の撮像部により撮像される画像から制御情報Cを生成することが可能になる。従って、ビジュアルサーボ制御を安定的に継続することが可能になる。   In the above example, the two imaging units 21 and 22 are installed in association with the sections on the transport path. However, a plurality of imaging units are installed in the same section, and control is performed from images captured by the imaging units. Information C may be generated. In this case, for example, even if an obstacle dynamically enters the imaging range of a certain imaging unit and a situation in which the object OBJ cannot be imaged by this imaging unit suddenly occurs, the imaging is performed by another imaging unit. It becomes possible to generate the control information C from the image. Accordingly, visual servo control can be stably continued.

以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で、種々の変形が可能である。
図15は、上述の第1実施形態および第2実施形態によるロボット本体10の変形例を模式的に表す図である。この変形例によるロボット本体11は、台座11aと、台座11aに旋回可能に固定された支持台11bと、旋回可能および屈伸可能に支持台11bに連結された二つのアーム部11cと、回動可能および首振り可能に各アーム部11cに連結されたハンド部11dと、各ハンド部11dに取り付けられた把持部11eとを含んで構成される。台座11aの下部には、ロボット本体11を移動するための複数のホイールが取り付けられている。ロボット本体11は、把持部11eにより上述の物体OBJを把持した状態でこれを保持する。例えば、前述の図1に示すロボット制御部40を台座11aの内部に収納することにより、ロボット本体11とロボット制御部40を一体に構成してもよく、また、ロボット制御部40とロボット本体11とを別体に構成してもよい。この変形例においても、ロボット本体11は、垂直多関節ロボットであり、その関節の軸数は任意である。
Although the embodiment of the present invention has been described above, the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
FIG. 15 is a diagram schematically illustrating a modification of the robot body 10 according to the first embodiment and the second embodiment described above. The robot body 11 according to this modification includes a pedestal 11a, a support base 11b fixed to the base 11a so as to be able to turn, and two arm portions 11c connected to the support base 11b so as to be turnable and extendable. The hand portion 11d is connected to each arm portion 11c so as to be swingable, and the grip portion 11e is attached to each hand portion 11d. A plurality of wheels for moving the robot body 11 are attached to the lower part of the base 11a. The robot body 11 holds the object OBJ in a state of being gripped by the gripping part 11e. For example, the robot main unit 11 and the robot control unit 40 may be integrally configured by housing the robot control unit 40 shown in FIG. 1 in the pedestal 11a, or the robot control unit 40 and the robot main unit 11 may be integrated. And may be configured separately. Also in this modified example, the robot body 11 is a vertical articulated robot, and the number of axes of the joint is arbitrary.

1,2…ロボット装置、10,11…ロボット本体、20,21,22…撮像部、30…情報処理部、31…画像生成部、32…記憶部、33…制御情報生成部、40…ロボット制御部、50…情報処理部、51…第1情報処理部、52…第2情報処理部、53…選択部、311…教示画像取得部、312…画像情報取得部、313画像情報補間部、314…レンダリング部、C…制御情報、G1,G11,G12,G2…画像、OBJ…物体、P0…始点(地点)、P1〜P5…地点、S1〜S4…処理ステップ、V,VA,VB…搬送速度。   DESCRIPTION OF SYMBOLS 1, 2 ... Robot apparatus 10, 11 ... Robot main body 20, 21, 22 ... Imaging part, 30 ... Information processing part, 31 ... Image generation part, 32 ... Storage part, 33 ... Control information generation part, 40 ... Robot Control unit, 50 ... information processing unit, 51 ... first information processing unit, 52 ... second information processing unit, 53 ... selection unit, 311 ... teaching image acquisition unit, 312 ... image information acquisition unit, 313 image information interpolation unit, 314: rendering unit, C: control information, G1, G11, G12, G2 ... image, OBJ ... object, P0 ... start point (point), P1-P5 ... point, S1-S4 ... processing steps, V, VA, VB ... Transport speed.

Claims (10)

物体を目標地点まで搬送可能に保持するロボット本体と、
前記目標地点および前記物体を含む範囲を撮像する撮像部と、
前記撮像部により撮像された画像から前記物体の搬送経路を教示する教示画像を取得し、該教示画像を前記物体の所望の搬送速度に応じて補間することにより、前記物体を搬送する場合に目標とする目標画像を生成し、該目標画像に基づいて、前記物体の搬送量を制御する制御情報を生成する情報処理部と、
前記情報処理部により生成された前記制御情報に基づいて前記ロボット本体の動作を制御するロボット制御部と、
を備えたロボット装置。
A robot body that holds an object to a target point so that it can be transported;
An imaging unit for imaging a range including the target point and the object;
A target image is acquired by acquiring a teaching image that teaches a conveyance path of the object from an image captured by the imaging unit, and interpolating the teaching image according to a desired conveyance speed of the object, thereby conveying the object. And an information processing unit that generates control information for controlling the transport amount of the object based on the target image,
A robot control unit that controls the operation of the robot body based on the control information generated by the information processing unit;
Robot device with
前記情報処理部は、
前記撮像部により撮像された画像から前記目標画像を生成する画像生成部と、
前記画像生成部により生成された目標画像を記憶する記憶部と、
前記記憶部に記憶された目標画像と、前記物体を搬送する場合に前記撮像部により撮像される画像との差分が小さくなるように前記制御情報を生成する制御情報生成部と、
を備えた請求項1に記載のロボット装置。
The information processing unit
An image generation unit that generates the target image from an image captured by the imaging unit;
A storage unit for storing the target image generated by the image generation unit;
A control information generation unit that generates the control information so that a difference between a target image stored in the storage unit and an image captured by the imaging unit when the object is conveyed;
The robot apparatus according to claim 1, comprising:
前記画像生成部は、
前記撮像部により撮像された画像から前記教示画像を取得する教示画像取得部と、
前記教示画像取得部により取得された前記教示画像に含まれる前記物体の画像から前記物体の3次元空間における位置および姿勢に関する情報を取得する画像情報取得部と、
前記画像情報取得部により取得された情報を前記3次元空間において補間する画像情報補間部と、
前記画像情報補間部により補間された情報を用いて、所望の搬送速度に応じて前記目標画像をレンダリングするレンダリング部と、
を備えた請求項2に記載のロボット装置。
The image generation unit
A teaching image acquisition unit that acquires the teaching image from an image captured by the imaging unit;
An image information acquisition unit that acquires information on the position and orientation of the object in a three-dimensional space from the image of the object included in the teaching image acquired by the teaching image acquisition unit;
An image information interpolation unit for interpolating the information acquired by the image information acquisition unit in the three-dimensional space;
A rendering unit that renders the target image according to a desired conveyance speed using information interpolated by the image information interpolation unit;
The robot apparatus according to claim 2, further comprising:
前記教示画像取得部は、前記撮像部により撮像された画像を二値化することにより前記教示画像を取得し、
前記画像情報取得部は、前記物体をモデル化して得られた画像と前記教示画像取得部により二値化して得られた教示画像とをパターンマッチングすることにより、前記物体の位置および姿勢に関する情報を取得する、請求項3記載のロボット装置。
The teaching image acquisition unit acquires the teaching image by binarizing the image captured by the imaging unit,
The image information acquisition unit performs pattern matching between an image obtained by modeling the object and a teaching image obtained by binarization by the teaching image acquisition unit, thereby obtaining information on the position and orientation of the object. The robot apparatus according to claim 3, which is acquired.
前記画像情報補間部は、スプライン関数を用いて前記物体の位置および姿勢に関する情報を補間する、請求項3または4の何れか1項に記載のロボット装置。   The robot apparatus according to claim 3, wherein the image information interpolation unit interpolates information regarding the position and orientation of the object using a spline function. 前記撮像部として複数台のカメラ装置を備え、
情報処理部は、前記複数台のカメラ装置のそれぞれについて、撮像された画像から前記物体の搬送経路を教示する教示画像を取得し、該教示画像を所望の搬送速度に応じて補間することにより、前記物体を搬送する場合に目標とする目標画像を生成し、前記物体を搬送する場合に前記撮像部により撮像される画像と前記目標画像との差分を取得する処理を実行する、請求項1から5の何れか1項に記載のロボット装置。
A plurality of camera devices are provided as the imaging unit,
The information processing unit acquires, for each of the plurality of camera devices, a teaching image that teaches the conveyance path of the object from the captured image, and interpolates the teaching image according to a desired conveyance speed, The target image that is targeted when the object is transported is generated, and the process of acquiring the difference between the image captured by the imaging unit and the target image is performed when the object is transported. 6. The robot apparatus according to any one of 5 above.
前記複数台のカメラ装置は、前記物体の搬送経路に設定された複数の区間に対応付けられて設置された、請求項6に記載のロボット装置。   The robot apparatus according to claim 6, wherein the plurality of camera apparatuses are installed in association with a plurality of sections set in a conveyance path of the object. ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とする目標画像を生成する画像生成装置であって、
前記目標地点および前記物体を含む範囲を撮像して得られた画像から前記物体の搬送経路を教示する教示画像を取得する教示画像取得部と、
前記教示画像取得部により取得された教示画像に含まれる前記物体の画像から前記物体の3次元空間における位置および姿勢に関する情報を取得する画像情報取得部と、
前記画像情報取得部により取得された情報を前記3次元空間において補間する画像情報補間部と、
前記画像情報補間部により補間された情報を用いて、所望の搬送速度に応じて前記目標画像をレンダリングするレンダリング部と、
を備えた画像生成装置。
An image generation device that generates a target image that is a target when an object is transported to a target point by a robot using visual servo control,
A teaching image acquisition unit that acquires a teaching image that teaches a conveyance path of the object from an image obtained by imaging the target point and a range including the object;
An image information acquisition unit that acquires information on the position and orientation of the object in a three-dimensional space from the image of the object included in the teaching image acquired by the teaching image acquisition unit;
An image information interpolation unit for interpolating the information acquired by the image information acquisition unit in the three-dimensional space;
A rendering unit that renders the target image according to a desired conveyance speed using information interpolated by the image information interpolation unit;
An image generation apparatus comprising:
ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とする目標画像を生成する画像生成方法であって、
教示画像取得部が、前記目標地点および前記物体を含む範囲を撮像して得られた画像から前記物体の搬送経路を教示する教示画像を取得するステップと、
画像情報取得部が、前記教示画像取得部により取得された教示画像に含まれる前記物体の画像から前記物体の3次元空間における位置および姿勢に関する情報を取得するステップと、
画像情報補間部が、前記画像情報取得部により取得された情報を前記3次元空間において補間するステップと、
レンダリング部が、前記画像情報補間部により補間された情報を用いて、所望の搬送速度に応じて前記目標画像をレンダリングするステップと、
を含む画像生成方法。
An image generation method for generating a target image when a target is transported to a target point by a robot using visual servo control,
A teaching image acquisition unit acquiring a teaching image that teaches a conveyance path of the object from an image obtained by imaging the target point and a range including the object;
An image information acquisition unit acquiring information on the position and orientation of the object in a three-dimensional space from the image of the object included in the teaching image acquired by the teaching image acquisition unit;
An image information interpolation unit interpolating the information acquired by the image information acquisition unit in the three-dimensional space;
A rendering unit rendering the target image according to a desired transport speed using the information interpolated by the image information interpolation unit;
An image generation method including:
コンピューターを、ビジュアルサーボ制御を用いたロボットにより物体を目標地点まで搬送する場合に目標とする目標画像を生成する画像生成装置として機能させる画像生成プログラムであって、
前記コンピューターを、
前記目標地点および前記物体を含む範囲を撮像して得られた画像から前記物体の搬送経路を教示する教示画像を取得する教示画像取得部と、
前記教示画像取得部により取得された教示画像に含まれる前記物体の画像から前記物体の3次元空間における位置および姿勢に関する情報を取得する画像情報取得部と、
前記画像情報取得部により取得された情報を前記3次元空間において補間する画像情報補間部と、
前記画像情報補間部により補間された情報を用いて、所望の搬送速度に応じて前記目標画像をレンダリングするレンダリング部と、
として機能させる画像生成プログラム。
An image generation program that causes a computer to function as an image generation device that generates a target image when a target is transported to a target point by a robot using visual servo control,
The computer,
A teaching image acquisition unit that acquires a teaching image that teaches a conveyance path of the object from an image obtained by imaging the target point and a range including the object;
An image information acquisition unit that acquires information on the position and orientation of the object in a three-dimensional space from the image of the object included in the teaching image acquired by the teaching image acquisition unit;
An image information interpolation unit for interpolating the information acquired by the image information acquisition unit in the three-dimensional space;
A rendering unit that renders the target image according to a desired conveyance speed using information interpolated by the image information interpolation unit;
An image generation program that functions as
JP2012020144A 2012-02-01 2012-02-01 Robot apparatus, image generation apparatus, image generation method, and image generation program Expired - Fee Related JP5948913B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012020144A JP5948913B2 (en) 2012-02-01 2012-02-01 Robot apparatus, image generation apparatus, image generation method, and image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012020144A JP5948913B2 (en) 2012-02-01 2012-02-01 Robot apparatus, image generation apparatus, image generation method, and image generation program

Publications (2)

Publication Number Publication Date
JP2013158846A true JP2013158846A (en) 2013-08-19
JP5948913B2 JP5948913B2 (en) 2016-07-06

Family

ID=49171541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012020144A Expired - Fee Related JP5948913B2 (en) 2012-02-01 2012-02-01 Robot apparatus, image generation apparatus, image generation method, and image generation program

Country Status (1)

Country Link
JP (1) JP5948913B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015100867A (en) * 2013-11-22 2015-06-04 トヨタ自動車株式会社 Three-dimensional track formation method of robot
CN106113050A (en) * 2016-07-05 2016-11-16 昆山华恒机器人有限公司 The teaching method of industrial robot, control method and device, system
CN116297531A (en) * 2023-05-22 2023-06-23 中科慧远视觉技术(北京)有限公司 Machine vision detection method, system, medium and equipment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6278906B1 (en) * 1999-01-29 2001-08-21 Georgia Tech Research Corporation Uncalibrated dynamic mechanical system controller
JP2002208009A (en) * 2000-11-09 2002-07-26 Yaskawa Electric Corp Object detection method
JP2003089086A (en) * 2001-09-14 2003-03-25 Yaskawa Electric Corp Robot controller
JP2009083094A (en) * 2007-09-29 2009-04-23 Ihi Corp Control method of robot device, and the robot device
JP2010283372A (en) * 2010-07-30 2010-12-16 Sumitomo Electric Device Innovations Inc Semiconductor device
US20120158179A1 (en) * 2010-12-20 2012-06-21 Kabushiki Kaisha Toshiba Robot control apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6278906B1 (en) * 1999-01-29 2001-08-21 Georgia Tech Research Corporation Uncalibrated dynamic mechanical system controller
JP2002208009A (en) * 2000-11-09 2002-07-26 Yaskawa Electric Corp Object detection method
JP2003089086A (en) * 2001-09-14 2003-03-25 Yaskawa Electric Corp Robot controller
JP2009083094A (en) * 2007-09-29 2009-04-23 Ihi Corp Control method of robot device, and the robot device
JP2010283372A (en) * 2010-07-30 2010-12-16 Sumitomo Electric Device Innovations Inc Semiconductor device
US20120158179A1 (en) * 2010-12-20 2012-06-21 Kabushiki Kaisha Toshiba Robot control apparatus
JP2012130977A (en) * 2010-12-20 2012-07-12 Toshiba Corp Robot control apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015100867A (en) * 2013-11-22 2015-06-04 トヨタ自動車株式会社 Three-dimensional track formation method of robot
CN106113050A (en) * 2016-07-05 2016-11-16 昆山华恒机器人有限公司 The teaching method of industrial robot, control method and device, system
CN116297531A (en) * 2023-05-22 2023-06-23 中科慧远视觉技术(北京)有限公司 Machine vision detection method, system, medium and equipment

Also Published As

Publication number Publication date
JP5948913B2 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
US11345042B2 (en) Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
US11446820B2 (en) Robot path generating device and robot system
CN106873550B (en) Simulation device and simulation method
JP6317618B2 (en) Information processing apparatus and method, measuring apparatus, and working apparatus
JP2007216350A (en) Mobile type robot
JP2009083095A (en) Control method of robot device, and the robot device
Kamali et al. Real-time motion planning for robotic teleoperation using dynamic-goal deep reinforcement learning
JP5948913B2 (en) Robot apparatus, image generation apparatus, image generation method, and image generation program
JPWO2009154294A1 (en) Movement amount extraction device and program, image correction device and program, and recording medium
JP2014065100A (en) Robot system and method for teaching robot
JP2015058492A (en) Control device, robot system, robot, robot operation information generation method, and program
JP2022519185A (en) Industrial robotic equipment with improved touring path generation, and how to operate industrial robotic equipment according to improved touring path
JP2005052926A (en) Apparatus and method for carrying out teaching work in visual inspection apparatus
KR102518766B1 (en) Data generating device, data generating method, data generating program, and remote control system
JP6040264B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2010131751A (en) Mobile robot
JP5447811B2 (en) Path plan generation apparatus and method, robot control apparatus and robot system
JP5343609B2 (en) Motion trajectory generation device, motion trajectory generation method, robot control device, and robot control method
JP2009274180A (en) Robot movement plan method and device using the same
JP2013158845A (en) Robot device, image generation device, image generation method, and image generation program
JP2015058493A (en) Control device, robot system, robot, robot operation information generation method, and program
JPH09290383A (en) Manipulator control method by image information
De Graaf et al. Applications of robotics in laser welding
WO2022153374A1 (en) Path generation device, path generation method, and path generation program
WO2023013126A1 (en) Information processing device, trained model, and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R150 Certificate of patent or registration of utility model

Ref document number: 5948913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees