JP2012125871A - Robot control setting support device - Google Patents

Robot control setting support device Download PDF

Info

Publication number
JP2012125871A
JP2012125871A JP2010278981A JP2010278981A JP2012125871A JP 2012125871 A JP2012125871 A JP 2012125871A JP 2010278981 A JP2010278981 A JP 2010278981A JP 2010278981 A JP2010278981 A JP 2010278981A JP 2012125871 A JP2012125871 A JP 2012125871A
Authority
JP
Japan
Prior art keywords
robot
processing
dimensional
input
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010278981A
Other languages
Japanese (ja)
Other versions
JP5586445B2 (en
Inventor
Haruhisa Okuda
晴久 奥田
Yasuo Kitaaki
靖雄 北明
Yukiyasu Domae
幸康 堂前
Yasushi Kage
裕史 鹿毛
Kazuhiko Washimi
和彦 鷲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010278981A priority Critical patent/JP5586445B2/en
Publication of JP2012125871A publication Critical patent/JP2012125871A/en
Application granted granted Critical
Publication of JP5586445B2 publication Critical patent/JP5586445B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Abstract

PROBLEM TO BE SOLVED: To provide a device for supporting robot motion teaching and image processing therefor in consideration of constraints on robot motion, without requiring a CAD model or work content model for a target workpiece.SOLUTION: The robot control setting support device performs interactive processing with a teaching operator. A two-dimensional image and three-dimensional data processing unit performs image processing for determining a target position and attitude of a robot corresponding to the position and attitude of a target workpiece, according to an input, on a displayed two-dimensional image and three-dimensional data related to the target workpiece. A constraint calculation and evaluation processing unit performs calculation and evaluation of constraints on motion of the robot operated according to the target position and attitude of the robot as a result of the image processing, and if no approval input is received, performs the image processing for determining the target position and attitude according to a new input and performs calculation and evaluation of robot motion constraints according to a new target position and attitude till an approval input is received. A robot motion monitoring unit records a robot motion procedure under approved conditions. A processing procedure analysis and reconfiguration unit displays a series of recorded processing contents, performs integration and elimination of redundant processing according to an input and then rerecords the processing contents.

Description

この発明は、3次元計測装置を備えたロボットシステムにおけるロボット動作教示と画像処理手順の迅速な立ち上げを支援するロボット制御設定支援装置に関するものである。   The present invention relates to a robot control setting support apparatus for supporting robot operation teaching and quick start-up of an image processing procedure in a robot system including a three-dimensional measurement apparatus.

従来のロボットへの3次元作業経路教示並びに3次元画像処理の処理手順の教示には、専門的な知識を要するとともに多くの作業手順を必要とするものであった。例えば、下記特許文献1では、シミュレーションを行って対象物の計測条件を決定することで、画像処理手順の設定作業の簡易化を図っている。また、下記特許文献2では、ロボットの作業教示及び画像処理の処理手順の設定作業を簡易化するために、予め用意しておいた作業の雛形および認識用モデルを呼び出し、これを修正利用している。   Conventional teaching of a three-dimensional work path to a robot and teaching of a processing procedure of three-dimensional image processing require specialized knowledge and many work procedures. For example, in the following Patent Document 1, a setting operation of an image processing procedure is simplified by performing a simulation to determine a measurement condition for an object. Further, in the following Patent Document 2, in order to simplify the work teaching of the robot and the setting process of the image processing processing procedure, a work template and a recognition model prepared in advance are called and modified and used. Yes.

特許第4266946号公報Japanese Patent No. 4266946 特開2009−214212号公報JP 2009-214212 A

しかしながら、従来の技術ではいずれも事前にCADモデルや作業内容の雛形を必ず用意しておく必要があり、新規に対応すべき認識対象物や作業内容などに対しては使用できないという問題点があり、画像処理手順の迅速な立ち上げにおいて問題があった。
また、実機で動作させる際にロボット手先のハンドで対象ワークを把持する際の種々の制約事項が考慮されておらず、作業実現時に所望の性能を十分に実現できないという問題点があった。例えば、組付け或いは整列位置へ搬送する経路での衝突回避、目的達成までの動作時間、搬送中における安定把持の維持などの制約が考慮されておらず、作業実現時の性能が十分でないといった問題があった。このため、所望のロボット動作実現のための教示調整に時間を要するため、迅速な立ち上げが困難であるという問題があった。
However, all of the conventional techniques require that a CAD model and a work content template must be prepared in advance, and cannot be used for a recognition object or work content that should be newly handled. There was a problem in the rapid start-up of the image processing procedure.
Further, when operating with an actual machine, various restrictions on gripping the target workpiece with the hand of the robot hand are not taken into consideration, and there has been a problem that desired performance cannot be sufficiently realized when the work is realized. For example, problems such as collision avoidance on the route to the assembly or alignment position, operation time to achieve the objective, maintenance of stable gripping during transportation are not considered, and performance at the time of work implementation is not sufficient was there. For this reason, since it takes time to adjust the teaching for realizing the desired robot operation, there is a problem that it is difficult to quickly start up.

この発明は上記のような課題を解消するためになされたもので、事前に対象ワークのCADモデルや作業内容の雛形を必要とせず、さらに実際に動作させる際のロボットの動作の制約事項を考慮してロボット動作教示とその際の画像処理を迅速に行うロボット制御設定支援装置を得ることを目的とする。   The present invention has been made to solve the above-described problems, and does not require a CAD model of a target work or a template of work contents in advance, and further considers restrictions on robot operation when actually operating. It is an object of the present invention to obtain a robot control setting support device that quickly performs robot operation teaching and image processing at that time.

この発明は、対象ワークを把持するハンドを有するアーム型ロボットへのロボット動作教示を支援する表示装置と入力装置を備え教示作業者との対話的な処理を行うロボット制御設定支援装置であって、2次元画像および2次元の各点での距離を示す3次元データを計測する3次元計測装置と、前記3次元計測装置により対象ワークを含む計測領域の2次元画像と3次元データを計測する2次元画像・3次元データ計測手段、および計測した2次元画像と3次元データを前記表示装置に表示し、表示に対する教示作業者の入力装置への入力に従い、対象ワークの位置姿勢に対応するロボットの目標位置姿勢を決定するための画像処理を行い、ロボットの目標位置姿勢を含む画像処理結果を表示し、入力装置から承諾入力を受けた画像処理結果を画像処理内容データ記憶部に格納する2次元画像・3次元データ処理手段を含む2次元画像・3次元データ処理部と、前記画像処理結果のロボットの目標位置姿勢に基づき操作されたロボットの動作に関し制約条件の算出と評価をおこなった結果を表示装置に表示し、入力装置から承諾入力を受け、承諾入力が受けられない場合には、教示作業者の入力装置への新たな入力に従い、前記2次元画像・3次元データ処理手段に目標位置姿勢を決定するための画像処理を行わせ、新たなロボットの目標位置姿勢に基づくロボットの動作に関し制約条件の算出と評価をおこなった結果を表示装置に表示し、入力装置から承諾入力を受けるまで繰り返す制約条件算出・評価処理部と、前記制約条件算出・評価処理部で承諾された条件で動作されたロボット実行内容をロボット動作手順データとしてロボットから入力してロボット動作手順データ記憶部に記録するロボット動作モニタ部と、前記画像処理内容データ記憶部およびロボット動作手順データ記憶部に記録された一連の処理内容を教示作業者による入力装置への入力指示に従って表示装置に表示し、教示作業者による入力指示に従って冗長な処理の統合、削除可能な処理の削除を行い、処理手順を再構成し、再構成された処理内容を、入力装置への確認入力の後各記憶部に再構成処理記録として格納する処理手順解析・再構成処理部と、を備えたことを特徴とするロボット制御設定支援装置にある。   The present invention is a robot control setting support device that includes a display device and an input device that support robot operation teaching to an arm type robot having a hand that holds a target workpiece, and that performs interactive processing with a teaching worker, A three-dimensional measuring apparatus that measures a two-dimensional image and three-dimensional data indicating a distance at each two-dimensional point, and a two-dimensional image and a three-dimensional data that measure a two-dimensional image of a measurement region including a target workpiece by the three-dimensional measuring apparatus The three-dimensional image / three-dimensional data measuring means, and the measured two-dimensional image and three-dimensional data are displayed on the display device, and the robot corresponding to the position and orientation of the target workpiece is displayed according to the input to the input device of the teaching worker for the display. Performs image processing to determine the target position and orientation, displays the image processing result including the target position and orientation of the robot, and receives the consent input from the input device. A two-dimensional image / three-dimensional data processing unit including a two-dimensional image / three-dimensional data processing means to be stored in an image processing content data storage unit, and an operation of the robot operated based on the target position / posture of the robot as a result of the image processing The result of calculation and evaluation of the constraint condition is displayed on the display device. When the consent input is received from the input device and the consent input cannot be received, the above 2 is performed according to the new input to the teaching worker's input device. The image processing for determining the target position and orientation is performed by the three-dimensional image / three-dimensional data processing means, and the result of calculating and evaluating the constraint condition regarding the robot operation based on the target position and orientation of the new robot is displayed on the display device. The constraint condition calculation / evaluation processing unit that displays and repeats the process until it receives an acceptance input from the input device, and is operated under the conditions approved by the constraint condition calculation / evaluation processing unit. The robot operation monitor unit that inputs the robot execution procedure data from the robot as robot operation procedure data and records it in the robot operation procedure data storage unit, and the series of images recorded in the image processing content data storage unit and the robot operation procedure data storage unit The processing contents are displayed on the display device in accordance with the instruction input to the input device by the teaching worker, the redundant processing is integrated and the erasable processing is deleted in accordance with the input instruction from the teaching worker, the processing procedure is reconfigured and re-executed. A robot control setting support device comprising: a processing procedure analysis / reconfiguration processing unit that stores configured processing content as a reconstruction processing record in each storage unit after confirmation input to the input device is there.

この発明では、事前に対象ワークのCADモデルや作業内容の雛形を必要とせず、さらに実際に動作させる際のロボットの動作の制約事項を考慮してロボット動作教示とその際の画像処理を迅速に行うロボット制御設定支援装置を提供できる。   In the present invention, a CAD model of a target work and a template of work contents are not required in advance, and robot operation teaching and image processing at that time are quickly performed in consideration of restrictions on the operation of the robot in actual operation. A robot control setting support device can be provided.

ロボットを含むこの発明の実施の形態1によるロボット制御設定支援装置の構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram of the robot control setting assistance apparatus by Embodiment 1 of this invention containing a robot. ロボットの周辺の構成の一例を示す図である。It is a figure which shows an example of a structure of the periphery of a robot. この発明の実施の形態1によるロボット制御設定支援装置に係る動作フローチャートである。It is an operation | movement flowchart which concerns on the robot control setting assistance apparatus by Embodiment 1 of this invention. 図1の2次元画像・3次元データ処理手段の動作を説明するための図である。It is a figure for demonstrating operation | movement of the 2-dimensional image and 3-dimensional data processing means of FIG. 図1の制約条件算出・評価処理部のより詳細な構成を示す図である。It is a figure which shows the more detailed structure of the constraint condition calculation and evaluation process part of FIG. ロボットを含むこの発明の実施の形態2によるロボット制御設定支援装置の構成図である。It is a block diagram of the robot control setting assistance apparatus by Embodiment 2 of this invention containing a robot.

以下、この発明によるロボット制御設定支援装置を各実施の形態に従って図面を用いて説明する。なお、各実施の形態において、同一もしくは相当部分は同一符号で示し、重複する説明は省略する。   Hereinafter, a robot control setting support apparatus according to the present invention will be described with reference to the drawings according to each embodiment. In each embodiment, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.

実施の形態1.
図1はロボットを含むこの発明の実施の形態1によるロボット制御設定支援装置の構成を示す図である。図2はロボットの周辺の構成の一例を示す図である。図1,2において、ロボット制御設定支援装置の主構成要素であるコンピュータで構成される情報処理装置130は、アーム型ロボット104に接続されて制御設定支援を行う。アーム型ロボット104は例えば対象ワーク201を把持するハンド103を有し、またロボットへの操作入力を行うロボット操作盤105が接続されている。
Embodiment 1 FIG.
1 is a diagram showing a configuration of a robot control setting support apparatus according to Embodiment 1 of the present invention including a robot. FIG. 2 is a diagram showing an example of the configuration around the robot. 1 and 2, an information processing apparatus 130 configured by a computer, which is a main component of the robot control setting support apparatus, is connected to the arm type robot 104 and performs control setting support. The arm type robot 104 has, for example, a hand 103 that grips the target workpiece 201, and is connected to a robot operation panel 105 that performs operation input to the robot.

情報処理装置130はそれぞれ機能ブロックで示された、2次元画像・3次元データ計測手段131aと2次元画像・3次元データ処理手段131bを含む2次元画像・3次元データ処理部131、制約条件算出・評価処理部132、ロボット動作モニタ部133、処理手順解析・再構成処理部134を含む。また情報処理装置130は、2次元画像および2次元の各点での距離データである3次元データを計測する3次元計測装置101、一連の処理結果を表示する表示装置106、情報処理装置130への操作入力を行う入力装置107、後述するロボットの移動に関する必要な制約条件のチェック、評価値の計算等を行う3次元ロボットシミュレータ108、そして計測データ記憶部121、画像処理内容データ記憶部122、ロボット動作手順データ記憶部123、制約条件算出・評価処理用データ記憶部124の各データを格納する記憶部が接続されている。   The information processing apparatus 130 includes a two-dimensional image / three-dimensional data processing unit 131 including a two-dimensional image / three-dimensional data measurement unit 131a and a two-dimensional image / three-dimensional data processing unit 131b, which are represented by functional blocks, and a constraint condition calculation. An evaluation processing unit 132, a robot operation monitoring unit 133, and a processing procedure analysis / reconfiguration processing unit 134 are included. Further, the information processing device 130 moves to a three-dimensional measurement device 101 that measures two-dimensional images and three-dimensional data that is distance data at each two-dimensional point, a display device 106 that displays a series of processing results, and an information processing device 130. An input device 107 for performing an operation input, a three-dimensional robot simulator 108 for checking necessary constraint conditions related to movement of the robot, which will be described later, and calculating an evaluation value, and the like, a measurement data storage unit 121, an image processing content data storage unit 122, A storage unit for storing each data of the robot operation procedure data storage unit 123 and the constraint condition calculation / evaluation processing data storage unit 124 is connected.

図3は図1のロボット制御設定支援装置に係る動作フローチャートの一例を示し、以下これに従って動作を説明する。なお以下の動作はロボット制御設定支援装置と教示作業者の間で対話的に行われる。最初に2次元画像・3次元データ計測手段131aは、3次元計測装置101を使用して対象ワーク201を含む計測領域202(図2参照)の2次元画像および上述の2次元の各点での距離データである3次元データを計測し(S101)、2次元画像と3次元データを計測データ記憶部121に記録する(S102)。   FIG. 3 shows an example of an operation flowchart according to the robot control setting support apparatus of FIG. The following operations are performed interactively between the robot control setting support device and the teaching worker. First, the two-dimensional image / three-dimensional data measuring unit 131a uses the three-dimensional measuring apparatus 101 to measure the two-dimensional image of the measurement region 202 (see FIG. 2) including the target work 201 and the above-described two-dimensional points. The three-dimensional data as distance data is measured (S101), and the two-dimensional image and the three-dimensional data are recorded in the measurement data storage unit 121 (S102).

次に、2次元画像・3次元データ処理手段131bは、2次元画像および3次元データを読み出し、コンピュータディスプレイ等からなる表示装置106上に表示する(S103)。表示したデータに対して教示作業者が対象ワークの位置姿勢、さらにはこれに対するロボットの目標位置姿勢を決定するために必要な計測指示や処理領域を入力装置107から指示・入力すると(S104)、計測指示や処理領域に対応した画像処理を実施する(S105)。この際に実施する画像処理としては以下のものがある。3次元データ計測処理では、平均距離値、最近・最遠距離値算出、平均法線方向算出などの3次元データに対する基本的な計算処理を選択して実施できる。これらの計算処理を通じて、3次元目標位置や姿勢を算出し、ロボットへの目標位置姿勢を得ることができる。また、2次元画像計測処理では、領域重心位置、平行輪郭部の中心線、同一平面の領域分割、テンプレートマッチング(対象ワークの2次元画像パターン等をいずれか記憶部に予め記憶しておく)等の2次元画像に対する基本的な画像処理を選択して実施する。これらの画像処理を通じて、対象ワーク面内における3次元目標位置や姿勢を算出し、ロボットへの目標位置姿勢を得ることができる。   Next, the two-dimensional image / three-dimensional data processing means 131b reads the two-dimensional image and the three-dimensional data and displays them on the display device 106 such as a computer display (S103). When the teaching operator instructs / inputs a measurement instruction and a processing area necessary for determining the position / posture of the target workpiece and the target position / posture of the robot with respect to the displayed data from the input device 107 (S104), Image processing corresponding to the measurement instruction and the processing area is performed (S105). Image processing performed at this time includes the following. In the three-dimensional data measurement processing, basic calculation processing for three-dimensional data such as average distance value, nearest / farst distance value calculation, and average normal direction calculation can be selected and executed. Through these calculation processes, it is possible to calculate the three-dimensional target position and posture and obtain the target position and posture for the robot. In the two-dimensional image measurement processing, the region center of gravity position, the center line of the parallel contour portion, region division on the same plane, template matching (a two-dimensional image pattern of the target workpiece is stored in any storage unit in advance), etc. Basic image processing for the two-dimensional image is selected and executed. Through these image processes, it is possible to calculate the three-dimensional target position and orientation in the target work surface and obtain the target position and orientation to the robot.

次に、2次元画像・3次元データ処理手段131bは、表示装置106に対象ワークの位置姿勢に対するロボットの目標位置姿勢を含む画像処理結果を表示し、これに対する教示作業者の確認(承諾)入力により処理結果承諾を確認し(S106)、該画像処理内容を画像処理内容データ記憶部122に一旦記録する(S107)。   Next, the two-dimensional image / three-dimensional data processing means 131b displays an image processing result including the target position and orientation of the robot with respect to the position and orientation of the target work on the display device 106, and inputs (consent) confirmation (acceptance) of the teaching worker for this. The processing result acceptance is confirmed (S106), and the image processing content is temporarily recorded in the image processing content data storage unit 122 (S107).

そして表示装置106に表示された目標位置姿勢へのロボット移動を行うために、教示作業者がロボット操作盤105を用いてロボット操作入力を行う(S108)。ロボット操作盤105への操作指示としては、上述のロボット目標位置姿勢値を用いる。   Then, in order to move the robot to the target position and orientation displayed on the display device 106, the teaching worker inputs a robot operation using the robot operation panel 105 (S108). As the operation instruction to the robot operation panel 105, the robot target position / posture value described above is used.

この操作に先立って、制約条件算出・評価処理部132は、3次元ロボットシミュレータ108を用いて、ロボットの移動に関する必要な制約条件のチェック、評価値の計算を実施する。例えば、ロボット動作実行時の周辺との干渉の有無といった制約条件算出と評価は、作業エリア内に存在する干渉対象物体を多数の円柱、球体の集合として近似すれば、それらの占有領域とロボットの各軸の中心軸との距離を元に行うことができる。さらに経路の長短といった動作時間評価に関わる項目の経路動作時間算出も、3次元ロボットシミュレータ108を通じて得ることは容易である。さらにロボットのハンドの対象ワークの把持状態算出・評価は、計測された対象ワーク位置姿勢とハンドの相対位置から求めることが可能であり、立体形状から推定される重心位置とハンドの目標把持中心との相対距離が近いほど評価値を高めるなどの評価指標を用いることができる。これらの制約条件および評価結果は例えば表示装置106に表示され、教示操作者により確認して確認(承諾)入力が行われる(S110)。ここで問題があれば、ステップS104に戻り、再度ロボットの目標位置姿勢の算出処理が実行され、適切な結果が得られるまで処理を繰り返す。   Prior to this operation, the constraint condition calculation / evaluation processing unit 132 uses the three-dimensional robot simulator 108 to check necessary constraint conditions regarding the movement of the robot and to calculate an evaluation value. For example, the calculation and evaluation of constraints such as the presence or absence of interference with the surroundings when performing robot operations can be performed by approximating the object to be interfered in the work area as a set of many cylinders and spheres. This can be done based on the distance from the central axis of each axis. Furthermore, it is easy to obtain the path operation time calculation of items related to the operation time evaluation such as the length of the path through the three-dimensional robot simulator 108. Furthermore, the calculation and evaluation of the gripping state of the target workpiece of the robot hand can be obtained from the measured target workpiece position and orientation and the relative position of the hand, and the center of gravity position estimated from the three-dimensional shape and the target gripping center of the hand An evaluation index such as increasing the evaluation value can be used as the relative distance is shorter. These constraint conditions and evaluation results are displayed on the display device 106, for example, and confirmed (accepted) by the teaching operator for confirmation (S110). If there is a problem here, the process returns to step S104, the calculation process of the target position and orientation of the robot is executed again, and the process is repeated until an appropriate result is obtained.

次に、ステップS110で確認(承諾)した際のステップS108でのロボット操作入力に基づくロボット動作内容がロボット操作盤105で教示作業者により確認され(S111)、ロボット動作が実行される(S112)。ロボット動作モニタ部133は、ロボット実行内容をロボット動作手順データとしてロボットから入力してロボット動作手順データ記憶部123に記録する(S113)。   Next, the robot operation content based on the robot operation input in step S108 when confirmed (accepted) in step S110 is confirmed by the teaching operator on the robot operation panel 105 (S111), and the robot operation is executed (S112). . The robot operation monitor unit 133 inputs the robot execution content from the robot as robot operation procedure data and records it in the robot operation procedure data storage unit 123 (S113).

次に、処理手順解析・再構成処理部134は、計測データ記憶部121、画像処理内容データ記憶部122、ロボット動作手順データ記憶部123に記録された一連の処理内容を、ロボット動作経路の類似度比較を通じて冗長と考えられる作業内容を自動的に解析した結果を表示装置106に表示し、教示作業者による入力指示に従って冗長な処理の統合、削除可能な処理の削除などを行い、処理手順を再構成する(S114)。この際、ロボット動作と関連する画像処理内容を必要に応じて削除する。あるいはこれらの冗長処理の判断は教示作業者自身によって判断し、統合、削除の指示入力をおこなってもよい。そして再構成された処理内容を、教示作業者による入力装置107への確認(承諾)入力の後(S115)、各記憶部に再構成処理記録する(S116)。   Next, the processing procedure analysis / reconstruction processing unit 134 converts a series of processing contents recorded in the measurement data storage unit 121, the image processing content data storage unit 122, and the robot operation procedure data storage unit 123 into similar robot operation paths. The result of automatically analyzing the work content that is considered redundant through the degree comparison is displayed on the display device 106, and in accordance with an instruction input by the teaching worker, the redundant processes are integrated, the deleteable processes are deleted, and the processing procedure is performed. Reconfiguration is performed (S114). At this time, image processing contents related to the robot operation are deleted as necessary. Alternatively, the determination of the redundancy processing may be performed by the teaching worker himself and an instruction for integration or deletion may be input. The reconstructed processing content is input to the input device 107 by a teaching worker after confirmation (acceptance) input (S115), and the reconstruction processing is recorded in each storage unit (S116).

なお、上記ステップS101〜S116の動作はロボットの1動作に対するもので、複数の動作について上記処理を行う場合には、上記ステップS101からステップS116までの処理が回数分繰り返される。また例えば、処理手順解析・再構成処理部134に関するステップS114からステップS116までの処理は、ステップS101からステップS113までの処理が複数回行われた後、バッチ的に処理を行ってもよい。   Note that the operations in steps S101 to S116 are for one operation of the robot. When the above processing is performed for a plurality of operations, the processing from step S101 to step S116 is repeated for the number of times. Further, for example, the processing from step S114 to step S116 regarding the processing procedure analysis / reconfiguration processing unit 134 may be performed in batch after the processing from step S101 to step S113 is performed a plurality of times.

以上の情報処理は、情報処理装置130で行われる。なお、表示装置106と入力装置107については、タッチパネル付ディスプレイを設けたロボット操作専用端末で構成してもよい。これにより、より直感的な操作を迅速に行えることで教示時間を短縮することが可能である。   The above information processing is performed by the information processing apparatus 130. Note that the display device 106 and the input device 107 may be configured by a dedicated robot operation terminal provided with a display with a touch panel. As a result, the teaching time can be shortened by performing a more intuitive operation quickly.

2次元画像・3次元データ処理手段131bに係る上述の3次元計測データ処理および2次元画像処理結果を組み合わせることで、例えば距離値によるスケール補正、平面領域の抽出、領域内の代表法線の算出などが可能となり、ロボットの目標位置姿勢値が決定される。   By combining the above-described three-dimensional measurement data processing and the two-dimensional image processing result related to the two-dimensional image / three-dimensional data processing means 131b, for example, scale correction based on distance values, extraction of a planar region, calculation of a representative normal in the region The target position / posture value of the robot is determined.

図4に3次元計測データ処理と2次元画像処理結果を組み合わせた処理の一例を示す。まず、図4は大きく分けて(a)から(d)の4つの図領域から構成されるが、それぞれの図領域では2次元濃淡画像とそれに対応する距離画像を小枠内に表示している。ここで、距離画像とは距離の違いを濃淡表示に変換したものであり、図中では近い部分が明るく表示されている。図4では、処理が左上、右上、左下、右下の(a)から(d)に進む様子を示しているが、(a)は初期計測状態である。(b)に処理領域の指示の様子を太い枠線で示しているが、表示装置106である画面上に入力装置107であるマウス等で領域形状を指示入力することが可能なインターフェース構成とした例である。もちろん、タッチパネル付ディスプレイ等を供えた教示装置からより直感的に指示入力することも可能である。この時の指示領域内の距離値分布から平均距離、法線方向を算出し、処理領域に対して法線方向に沿った視線方向、指示距離となるようにロボットへの動作指示を生成し、教示作業者が確認後にロボット動作を実行する。この操作の結果、ロボットは対象ワークに正対した姿勢、目標とする距離に位置することとなり、ワーク面に平行な面内の水平移動、回転のズレを残すのみとなる。この操作後に再度計測を行ったものが図4の(c)に示す計測結果画像である。   FIG. 4 shows an example of processing that combines the three-dimensional measurement data processing and the two-dimensional image processing results. First, FIG. 4 is roughly divided into four figure areas (a) to (d). In each figure area, a two-dimensional gray image and a corresponding distance image are displayed in a small frame. . Here, the distance image is obtained by converting the difference in distance into a shaded display, and a close portion is brightly displayed in the drawing. FIG. 4 shows a state in which the process proceeds from (a) to (d) in the upper left, upper right, lower left, and lower right, where (a) is an initial measurement state. In FIG. 5B, the processing area instruction is indicated by a thick frame, but the interface configuration is such that the area shape can be instructed and input with a mouse or the like as the input device 107 on the screen as the display device 106. It is an example. Of course, it is also possible to input instructions more intuitively from a teaching device provided with a display with a touch panel or the like. Calculate the average distance and normal direction from the distance value distribution in the instruction area at this time, and generate an operation instruction to the robot so that the visual line direction and instruction distance along the normal direction with respect to the processing area. Robot operation is executed after the teaching operator confirms. As a result of this operation, the robot is positioned in a posture and a target distance facing the target work, and only the horizontal movement and rotation deviation in the plane parallel to the work surface remains. A measurement result image shown in FIG. 4C is obtained by performing measurement again after this operation.

この計測結果画像に対して、平面内角度算出の基準となる情報、例えば対象ワーク下部の大円まわりの小円の位置をシステムで提供されている2次元画像処理を用いて検出し、小円相互の相対位置から定義される方向と画面上下垂直線の相対角度を用いて平面内角度算出を行う。これ以外にも提供されている画像処理手段(2次元画像・3次元データ処理手段131b)を用いて対象ワーク長手方向の輪郭線方向を検出し、画面上下垂直線との相対角度を算出した結果などを用いることができる。   For this measurement result image, information serving as a reference for calculating the in-plane angle, for example, the position of a small circle around the great circle below the target workpiece is detected using the two-dimensional image processing provided by the system. The in-plane angle is calculated using the direction defined from the relative position of each other and the relative angle of the vertical line on the screen. The result of detecting the contour direction in the longitudinal direction of the target workpiece using the image processing means (two-dimensional image / three-dimensional data processing means 131b) provided in addition to this and calculating the relative angle with the vertical line on the screen Etc. can be used.

これらの処理に必要な画像処理内容、処理領域、処理結果を用いたロボット動作の定義などを入力可能なようにインターフェースを構成しておく。また、処理結果が不十分である場合には先のステップに戻って処理を再試行することも可能である。処理結果が確定すれば、ロボット動作を実施するかどうかを決定してロボットを動作させる。この操作の結果、ロボットは対象ワーク面に平行な面内の水平移動、回転のズレ量が補正され、把持動作前の最終的な目標位置姿勢となる。図4の(d)では、対象物が画面上下に沿う姿勢で観測された結果を示している。この後、計測結果からロボットの把持箇所を画面上で指示して対象ワークが把持されることを確認すれば基本的な教示作業は完了となる。   The interface is configured so that the image processing content, processing area, definition of the robot operation using the processing result, and the like necessary for these processes can be input. If the processing result is insufficient, it is possible to return to the previous step and retry the processing. When the processing result is confirmed, it is determined whether or not to perform the robot operation and the robot is operated. As a result of this operation, the amount of displacement of the horizontal movement and rotation in the plane parallel to the target work surface is corrected, and the final target position / posture before the gripping operation is obtained. FIG. 4 (d) shows the result of the object being observed in a posture along the top and bottom of the screen. After that, if the robot grasps the robot to be gripped from the measurement result and confirms that the target workpiece is gripped, the basic teaching work is completed.

なお、制約条件算出・評価処理部132に関し、より詳細な構成を図5に示す。図5において制約条件算出・評価処理部132は干渉条件算出・評価処理手段132a、経路動作時間算出・表示処理手段132b、把持状態算出・評価処理手段132cを含む。制約条件算出・評価処理部132はこれらの少なくとも1つの手段を備えればよい。   A more detailed configuration of the constraint condition calculation / evaluation processing unit 132 is shown in FIG. In FIG. 5, the constraint condition calculation / evaluation processing unit 132 includes an interference condition calculation / evaluation processing unit 132a, a route operation time calculation / display processing unit 132b, and a gripping state calculation / evaluation processing unit 132c. The constraint condition calculation / evaluation processing unit 132 may include at least one of these means.

上記の一連の作業を実施する際にロボット経路に関する評価指標を計算することで、所望の性能を満たしたロボット教示を実現することができる。この際の評価指標としては、種々のものが設定可能である。干渉条件算出・評価処理手段132aは、干渉有無をチェックするもので、3次元ロボットシミュレータ108を用いて、作業領域内の3次元計測結果とロボットのハンド(手先)及び中間軸の経路の干渉をチェックする。干渉の有無を判定し、干渉が起こる経路となっている場合は、表示装置106に表示して回避ポイントの入力を教示作業者に促し、教示作業者は回避ポイントを設定後、再びチェックを実施する。   By calculating an evaluation index related to the robot path when performing the above-described series of operations, it is possible to realize robot teaching satisfying desired performance. Various evaluation indices can be set at this time. The interference condition calculation / evaluation processing means 132a checks for the presence or absence of interference. The interference condition calculation / evaluation processing means 132a uses the 3D robot simulator 108 to check the interference between the 3D measurement result in the work area, the robot hand (hand), and the path of the intermediate axis. To check. The presence / absence of interference is determined, and if it is a path where interference occurs, it is displayed on the display device 106 to prompt the teaching worker to input an avoidance point, and the teaching worker performs a check again after setting the avoidance point. To do.

作業領域内の3次元計測結果は、2次元画像、3次元データの計測領域202を作業領域とすることで得られ、ロボットのハンド(手先)経路は、ロボット104側から動作データとして得る。   The 3D measurement result in the work area is obtained by using the 2D image and 3D data measurement area 202 as the work area, and the robot hand (hand) path is obtained as motion data from the robot 104 side.

また経路動作時間算出・表示処理手段132bは、経路動作時間を評価するもので、蓄積された一連の動作時間を算出し、算出した見積もり時間と目標時間との差異を表示装置106で教示作業者に示す。教示作業者はこの結果から、処理時間短縮(又は延長)が可能な経路を設定して再び評価を行い、処理時間を短縮(又は延長)していく。   The route operation time calculation / display processing unit 132b evaluates the route operation time, calculates a series of accumulated operation times, and the display device 106 indicates the difference between the calculated estimated time and the target time. Shown in From this result, the teaching worker sets a route that can shorten (or extend) the processing time, performs the evaluation again, and shortens (or extends) the processing time.

動作時間は、例えば、3次元ロボットシミュレータ108を用いて算出することができる。目標時間は制約条件算出・評価処理用データ記憶部124に制約条件算出・評価基準データとして予め記憶させておくこともできるし、その場で教示作業者が入力することも可能である。   The operation time can be calculated using, for example, the three-dimensional robot simulator 108. The target time can be stored in advance as constraint condition calculation / evaluation reference data in the constraint condition calculation / evaluation processing data storage unit 124, or can be input by a teaching worker on the spot.

また把持状態算出・評価処理手段132cは、安定把持指標を評価するもので、対象ワーク201の2次元画像・3次元データ処理部131における計測結果から推定される対象ワーク領域の重心位置と把持位置の距離をもとに把持安定性を評価して教示作業者に表示装置106で結果を提示し、教示作業者は把持ポイントの修正指示入力を行う。   The gripping state calculation / evaluation processing unit 132c evaluates a stable gripping index, and the center of gravity position and the gripping position of the target work area estimated from the measurement result of the two-dimensional image / three-dimensional data processing unit 131 of the target work 201. The gripping stability is evaluated based on the distance and the result is presented to the teaching worker on the display device 106, and the teaching worker inputs a gripping point correction instruction.

例えば対象ワークの長さ又は幅に対する重心位置と把持位置の間の距離との比を把持安定性の評価基準値として制約条件算出・評価処理用データ記憶部124に予め格納しておき、評価基準値との比較で判断、評価する。   For example, a ratio between the center of gravity position and the distance between the gripping position with respect to the length or width of the target workpiece is stored in advance in the constraint condition calculation / evaluation processing data storage unit 124 as a gripping stability evaluation reference value, and the evaluation reference Judgment and evaluation by comparison with values.

上記の処理を通じて、処理手順解析・再構成処理部134では、画像処理内容データ記憶部122、ロボット動作手順データ記憶部123等に記録されたロボット動作などの一連の処理内容に関し、冗長な処理の統合、削除可能な処理の削除などが行われて、再構成される。この際、教示作業者による対話的な統合処理を行うこともできる。再構成された処理内容が最終的に各記憶部に記録される。   Through the above processing, the processing procedure analysis / reconstruction processing unit 134 performs redundant processing on a series of processing contents such as robot operations recorded in the image processing content data storage unit 122, the robot operation procedure data storage unit 123, and the like. Integration, deletion of deletable processes, etc. are performed and reconfiguration is performed. At this time, interactive integration processing by the teaching worker can also be performed. The reconfigured processing content is finally recorded in each storage unit.

処理手順解析・再構成処理部134では、例えばロボット動作手順データ記憶部123のロボット動作手順データ中の同じ経路の動作部分を抽出して教示作業者に対して表示装置106に表示し、統合や削除の検討を促し、教示作業者の表示装置106への入力指示に従ってロボット動作手順データを変更する。またこれに伴い、画像処理内容データ記憶部122の画像処理内容データ中の対応する部分の変更、削除を行う。   In the processing procedure analysis / reconstruction processing unit 134, for example, an operation part of the same route in the robot operation procedure data in the robot operation procedure data storage unit 123 is extracted and displayed on the display device 106 for the teaching worker, Examination of deletion is urged, and the robot operation procedure data is changed in accordance with an instruction input to the display device 106 of the teaching worker. Accordingly, the corresponding part of the image processing content data in the image processing content data storage unit 122 is changed or deleted.

以上この発明によれば、予めロボット制御設定支援装置に用意されている基本的な画像処理手順とロボット動作を教示作業者が画面に表示される内容を確認しながら順次組み合わせて実行して、複雑な画像処理手順を比較的容易に実現することができ、その結果を画像処理内容データ記憶部に記録しておくことで、事前にCADモデルや作業内容の雛形を必ず用意しておかなくても必要な画像処理内容をロボットに教えることができる。
また、この際のロボット操作履歴をロボット動作手順データ記憶部に記録しておき、処理手順を解析・再構成する処理手順解析・再構成処理部を利用することで、冗長要素を排除したロボット軌跡の教示が同時に実現できる。
また、干渉の有無、動作時間、把持安定性等の動作制約条件を評価する制約条件算出・評価処理部を設けたことにより、ロボット教示直後に所望の性能を満たす、もしくは近い性能を実現することができ、教示後の調整時間を短縮し、迅速な立ち上げが実現されるという効果が得られる。
As described above, according to the present invention, the basic image processing procedure prepared in advance in the robot control setting support device and the robot operation are sequentially combined and executed by the teaching worker while confirming the contents displayed on the screen. Image processing procedure can be realized relatively easily, and by recording the result in the image processing content data storage unit, it is not necessary to prepare a CAD model or a work content template in advance. The robot can be taught the necessary image processing content.
In addition, the robot operation history at this time is recorded in the robot operation procedure data storage unit, and the robot trajectory from which redundant elements are eliminated by using the processing procedure analysis / reconfiguration processing unit that analyzes and reconfigures the processing procedure Can be realized at the same time.
In addition, by providing a constraint condition calculation / evaluation processing unit that evaluates motion constraint conditions such as presence / absence of interference, motion time, and gripping stability, the desired performance will be met or close to that immediately after robot teaching. Thus, the adjustment time after teaching can be shortened, and quick start-up can be realized.

実施の形態2.
図6はロボットを含むこの発明の実施の形態1によるロボット制御設定支援装置の構成を示す図である。図6のロボット制御設定支援装置では、情報処理装置130内に外部事例参照部135を設けた。この外部事例参照部135は、外部ネットワークNTを介して通信可能な通信部109により、外部ネットワークNTに接続された他の拠点のロボット制御設定の実施履歴を格納した1つまたは複数の外部事例蓄積装置140に接続されている。これにより、2次元画像・3次元データ処理部131における処理内容を所望のものに更新することが可能となる。また、制約条件算出・評価処理部132、処理手順解析・再構成処理部134での処理においても、外部事例を参照することで、より多くの事例や最新事例に基づいた適切な処理を実施することができる。
Embodiment 2. FIG.
FIG. 6 is a diagram showing the configuration of the robot control setting support apparatus according to the first embodiment of the present invention including a robot. In the robot control setting support apparatus of FIG. 6, an external case reference unit 135 is provided in the information processing apparatus 130. The external case reference unit 135 stores one or a plurality of external case examples that store the execution history of the robot control settings of other bases connected to the external network NT by the communication unit 109 that can communicate via the external network NT. Connected to device 140. Thereby, it is possible to update the processing contents in the two-dimensional image / three-dimensional data processing unit 131 to a desired one. Also, in the processing in the constraint condition calculation / evaluation processing unit 132 and the processing procedure analysis / reconstruction processing unit 134, appropriate processing based on more cases and latest cases is performed by referring to external cases. be able to.

以上の構成により、複数拠点の実施履歴を参照する外部事例参照部を備えたことにより、該当拠点だけでなく、広い範囲での過去事例を参照できるため、多くの画像処理内容の選択や多数事例に基づいた処理手順の適切な再構成が行われる。これにより、過去の事例のデータを使用することで教示時間がさらに短縮可能になる。   With the above configuration, by providing an external case reference section that refers to the implementation history of multiple locations, it is possible to refer to past cases in a wide range as well as the relevant locations. An appropriate reconfiguration of the processing procedure based on the above is performed. As a result, the teaching time can be further shortened by using data of past cases.

103 ハンド、104 アーム型ロボット、105 ロボット操作盤、106 表示装置、107 入力装置、108 3次元ロボットシミュレータ、109 通信部、121 計測データ記憶部、122 画像処理内容データ記憶部、123 ロボット動作手順データ記憶部、124 制約条件算出・評価処理用データ記憶部、130 情報処理装置、131 2次元画像・3次元データ処理部、131a 2次元画像・3次元データ計測手段、131b 2次元画像・3次元データ処理手段、132 制約条件算出・評価処理部、132a 干渉条件算出・評価処理手段、132b 経路動作時間算出・表示処理手段、132c 把持状態算出・評価処理手段、133 ロボット動作モニタ部、134 処理手順解析・再構成処理部、135 外部事例参照部、140 外部事例蓄積装置、201 対象ワーク、202 計測領域、NT 外部ネットワーク。   103 hand, 104 arm type robot, 105 robot operation panel, 106 display device, 107 input device, 108 three-dimensional robot simulator, 109 communication unit, 121 measurement data storage unit, 122 image processing content data storage unit, 123 robot operation procedure data Storage unit 124 Data storage unit for constraint condition calculation / evaluation processing 130 Information processing device 131 Two-dimensional image / three-dimensional data processing unit 131a Two-dimensional image / three-dimensional data measuring unit 131b Two-dimensional image / three-dimensional data Processing means, 132 Restriction condition calculation / evaluation processing section, 132a Interference condition calculation / evaluation processing means, 132b Path movement time calculation / display processing means, 132c Grasping state calculation / evaluation processing means, 133 Robot motion monitoring section, 134 Processing procedure analysis・ Reconfiguration processor, 135 external Reference unit, 140 external case repository, 201 target work, 202 measurement area, NT external network.

Claims (3)

対象ワークを把持するハンドを有するアーム型ロボットへのロボット動作教示を支援する表示装置と入力装置を備え教示作業者との対話的な処理を行うロボット制御設定支援装置であって、
2次元画像および2次元の各点での距離を示す3次元データを計測する3次元計測装置と、
前記3次元計測装置により対象ワークを含む計測領域の2次元画像と3次元データを計測する2次元画像・3次元データ計測手段、および
計測した2次元画像と3次元データを前記表示装置に表示し、表示に対する教示作業者の入力装置への入力に従い、対象ワークの位置姿勢に対応するロボットの目標位置姿勢を決定するための画像処理を行い、ロボットの目標位置姿勢を含む画像処理結果を表示し、入力装置から承諾入力を受けた画像処理結果を画像処理内容データ記憶部に格納する2次元画像・3次元データ処理手段を含む2次元画像・3次元データ処理部と、
前記画像処理結果のロボットの目標位置姿勢に基づき操作されたロボットの動作に関し制約条件の算出と評価をおこなった結果を表示装置に表示し、入力装置から承諾入力を受け、承諾入力が受けられない場合には、教示作業者の入力装置への新たな入力に従い、前記2次元画像・3次元データ処理手段に目標位置姿勢を決定するための画像処理を行わせ、新たなロボットの目標位置姿勢に基づくロボットの動作に関し制約条件の算出と評価をおこなった結果を表示装置に表示し、入力装置から承諾入力を受けるまで繰り返す制約条件算出・評価処理部と、
前記制約条件算出・評価処理部で承諾された条件で動作されたロボット実行内容をロボット動作手順データとしてロボットから入力してロボット動作手順データ記憶部に記録するロボット動作モニタ部と、
前記画像処理内容データ記憶部およびロボット動作手順データ記憶部に記録された一連の処理内容を教示作業者による入力装置への入力指示に従って表示装置に表示し、教示作業者による入力指示に従って冗長な処理の統合、削除可能な処理の削除を行い、処理手順を再構成し、再構成された処理内容を、入力装置への確認入力の後各記憶部に再構成処理記録として格納する処理手順解析・再構成処理部と、
を備えたことを特徴とするロボット制御設定支援装置。
A robot control setting support device that includes a display device and an input device for supporting robot operation teaching to an arm type robot having a hand that holds a target workpiece, and that performs interactive processing with a teaching worker,
A three-dimensional measuring device that measures three-dimensional data indicating a two-dimensional image and a distance at each two-dimensional point;
A two-dimensional image / three-dimensional data measuring means for measuring a two-dimensional image and three-dimensional data of a measurement region including a target workpiece by the three-dimensional measuring device, and displaying the measured two-dimensional image and three-dimensional data on the display device. In accordance with the input to the input device of the teaching worker for the display, the image processing for determining the target position and orientation of the robot corresponding to the position and orientation of the target work is performed, and the image processing result including the target position and orientation of the robot is displayed. A two-dimensional image / three-dimensional data processing unit including a two-dimensional image / three-dimensional data processing unit for storing an image processing result received from the input device in the image processing content data storage unit;
The result of the calculation and evaluation of the constraint condition regarding the operation of the robot operated based on the target position and orientation of the robot as the image processing result is displayed on the display device, and the consent input is received from the input device. In this case, in accordance with a new input to the input device of the teaching worker, the two-dimensional image / three-dimensional data processing means performs image processing for determining the target position and orientation, and sets the target position and orientation of the new robot. A constraint condition calculation / evaluation processing unit that displays the result of the calculation and evaluation of the constraint condition on the operation of the robot based on the display device, and repeats until the consent input is received from the input device;
A robot operation monitoring unit that inputs the robot execution contents operated under the conditions approved by the constraint condition calculation / evaluation processing unit from the robot as robot operation procedure data and records them in the robot operation procedure data storage unit;
A series of processing contents recorded in the image processing content data storage unit and the robot operation procedure data storage unit are displayed on a display device in accordance with an input instruction to the input device by the teaching worker, and redundant processing is performed in accordance with the input instruction by the teaching worker. Processing procedure analysis / removal of deleteable processes, reconfiguration of the processing procedure, and storage of the reconfigured processing content as a reconfiguration processing record in each storage unit after confirmation input to the input device A reconstruction processing unit;
A robot control setting support device comprising:
ロボット制御設定の実施履歴を格納した外部拠点にある外部事例蓄積装置と外部ネットワークを介して通信可能な通信部と、
前記通信部により前記外部事例蓄積装置の実施履歴を前記外部ネットワークを介して入力する外部事例参照部と、
をさらに備えたことを特徴とする請求項1に記載のロボット制御設定支援装置。
A communication unit capable of communicating via an external network with an external case storage device at an external base that stores the execution history of robot control settings;
An external case reference unit that inputs an implementation history of the external case storage device via the external network by the communication unit;
The robot control setting support device according to claim 1, further comprising:
表示装置と入力装置がタッチパネル付ディスプレイを設けたロボット操作専用端末からなることを特徴とする請求項1または2に記載のロボット制御設定支援装置。   The robot control setting support device according to claim 1 or 2, wherein the display device and the input device comprise a dedicated robot operation terminal provided with a display with a touch panel.
JP2010278981A 2010-12-15 2010-12-15 Robot control setting support device Active JP5586445B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278981A JP5586445B2 (en) 2010-12-15 2010-12-15 Robot control setting support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278981A JP5586445B2 (en) 2010-12-15 2010-12-15 Robot control setting support device

Publications (2)

Publication Number Publication Date
JP2012125871A true JP2012125871A (en) 2012-07-05
JP5586445B2 JP5586445B2 (en) 2014-09-10

Family

ID=46643517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278981A Active JP5586445B2 (en) 2010-12-15 2010-12-15 Robot control setting support device

Country Status (1)

Country Link
JP (1) JP5586445B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014240110A (en) * 2013-06-12 2014-12-25 三菱電機株式会社 Bin picking performance evaluation device and bin picking performance evaluation method
JP2017148909A (en) * 2016-02-25 2017-08-31 セイコーエプソン株式会社 Control device, robot, and robot system
CN107995096A (en) * 2017-11-14 2018-05-04 奕甲智能技术(上海)有限公司 A kind of dynamic graphics and text exchange method, device and system
JP2018089719A (en) * 2016-11-30 2018-06-14 株式会社東芝 Robot hand
WO2021038844A1 (en) * 2019-08-30 2021-03-04 日本電気株式会社 Information processing device, control method, and storage medium
JPWO2021038842A1 (en) * 2019-08-30 2021-03-04
CN112936342A (en) * 2021-02-02 2021-06-11 福建天晴数码有限公司 System and method for evaluating actions of entity robot based on human body posture recognition algorithm
JP7401250B2 (en) 2019-10-09 2023-12-19 キヤノン株式会社 Image processing device, control method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63280308A (en) * 1987-05-13 1988-11-17 Hitachi Ltd Robot supporting system
JPH08276388A (en) * 1995-04-05 1996-10-22 Nippon Telegr & Teleph Corp <Ntt> Teaching device for robot
JP2001121458A (en) * 1999-10-22 2001-05-08 Denso Corp Robot controller
JP2006289531A (en) * 2005-04-07 2006-10-26 Seiko Epson Corp Movement control device for teaching robot position, teaching device of robot position, movement control method for teaching robot position, teaching method for robot position, and movement control program for teaching robot position
JP2009181526A (en) * 2008-02-01 2009-08-13 Panasonic Corp Robot system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63280308A (en) * 1987-05-13 1988-11-17 Hitachi Ltd Robot supporting system
JPH08276388A (en) * 1995-04-05 1996-10-22 Nippon Telegr & Teleph Corp <Ntt> Teaching device for robot
JP2001121458A (en) * 1999-10-22 2001-05-08 Denso Corp Robot controller
JP2006289531A (en) * 2005-04-07 2006-10-26 Seiko Epson Corp Movement control device for teaching robot position, teaching device of robot position, movement control method for teaching robot position, teaching method for robot position, and movement control program for teaching robot position
JP2009181526A (en) * 2008-02-01 2009-08-13 Panasonic Corp Robot system

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014240110A (en) * 2013-06-12 2014-12-25 三菱電機株式会社 Bin picking performance evaluation device and bin picking performance evaluation method
JP2017148909A (en) * 2016-02-25 2017-08-31 セイコーエプソン株式会社 Control device, robot, and robot system
JP2018089719A (en) * 2016-11-30 2018-06-14 株式会社東芝 Robot hand
CN107995096A (en) * 2017-11-14 2018-05-04 奕甲智能技术(上海)有限公司 A kind of dynamic graphics and text exchange method, device and system
JPWO2021038842A1 (en) * 2019-08-30 2021-03-04
JPWO2021038844A1 (en) * 2019-08-30 2021-03-04
WO2021038844A1 (en) * 2019-08-30 2021-03-04 日本電気株式会社 Information processing device, control method, and storage medium
WO2021038842A1 (en) * 2019-08-30 2021-03-04 日本電気株式会社 Information processing device, control method, and storage medium
JP7264253B2 (en) 2019-08-30 2023-04-25 日本電気株式会社 Information processing device, control method and program
JP7276466B2 (en) 2019-08-30 2023-05-18 日本電気株式会社 Information processing device, control method and program
JP7401250B2 (en) 2019-10-09 2023-12-19 キヤノン株式会社 Image processing device, control method and program
CN112936342A (en) * 2021-02-02 2021-06-11 福建天晴数码有限公司 System and method for evaluating actions of entity robot based on human body posture recognition algorithm
CN112936342B (en) * 2021-02-02 2023-04-28 福建天晴数码有限公司 Physical robot action evaluation system and method based on human body gesture recognition algorithm

Also Published As

Publication number Publication date
JP5586445B2 (en) 2014-09-10

Similar Documents

Publication Publication Date Title
JP5586445B2 (en) Robot control setting support device
CN112683215B (en) Method for providing information about a sensor chain of a coordinate measuring machine, coordinate measuring machine
JP4347386B2 (en) Processing robot program creation device
US8825452B2 (en) Model producing apparatus, model producing method, and computer-readable recording medium in which model producing program is stored
JP4171488B2 (en) Offline programming device
JP3732494B2 (en) Simulation device
US8565515B2 (en) Three-dimensional recognition result displaying method and three-dimensional visual sensor
JP6080407B2 (en) Three-dimensional measuring device and robot device
JP5378374B2 (en) Method and system for grasping camera position and direction relative to real object
US20100231690A1 (en) Model display method for three-dimensional optical sensor and three-dimensional optical sensor
EP1315056A2 (en) Simulation apparatus for working machine
US20070282485A1 (en) Robot simulation apparatus
CN103630071A (en) Methods and systems for inspecting a workpiece
EP2634530A1 (en) Shape measuring device, shape measuring method, structure manufacturing method, and program
US7684897B2 (en) Robot program generating device and robot program analyzing device
US20240019241A1 (en) System and method for measuring using multiple modalities
EP1400881A2 (en) Method and apparatus for supporting measurement of object to be measured
US7877225B2 (en) Method for determining measuring points
JP2015222196A (en) Three dimensional measuring machine and method for measuring shape using the same
JP3563927B2 (en) Temporary storage position determination device and recording medium recording temporary storage position determination program
JP6799614B2 (en) Information processing device and information creation method
US20070182759A1 (en) Graphics processing apparatus, method and program storage medium thereof
KR101702518B1 (en) Apparatus for providing information on structure
JP2009093277A (en) Estimation support system, estimation support method and program
TW202245708A (en) Teaching device, marker measuring method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140722

R150 Certificate of patent or registration of utility model

Ref document number: 5586445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250