JP2021094623A - Robot control device, observation system, robot system, and robot control method - Google Patents

Robot control device, observation system, robot system, and robot control method Download PDF

Info

Publication number
JP2021094623A
JP2021094623A JP2019226237A JP2019226237A JP2021094623A JP 2021094623 A JP2021094623 A JP 2021094623A JP 2019226237 A JP2019226237 A JP 2019226237A JP 2019226237 A JP2019226237 A JP 2019226237A JP 2021094623 A JP2021094623 A JP 2021094623A
Authority
JP
Japan
Prior art keywords
end effector
unit
manipulator
robot
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019226237A
Other languages
Japanese (ja)
Inventor
伸貴 馬込
Nobutaka Umagome
伸貴 馬込
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2019226237A priority Critical patent/JP2021094623A/en
Publication of JP2021094623A publication Critical patent/JP2021094623A/en
Pending legal-status Critical Current

Links

Images

Abstract

To correct the grip deviation of an object when gripped with an end effector.SOLUTION: A robot control device controlling a robot manipulator equipped with an end effector, includes a robot control portion that moves the robot manipulator to a position where an imaging portion for imaging an object can image the object held by the end effector through an optical system disposed independently from the robot manipulator.SELECTED DRAWING: Figure 5

Description

本発明は、ロボット制御装置、観察システム、ロボットシステム、及びロボット制御方法に関する。 The present invention relates to a robot control device, an observation system, a robot system, and a robot control method.

特許文献1では、例えば、ロボットが把持対象物を把持する際に発生する把持ずれを検知する技術が開示されている。かかる技術においては、ロボットのマニピュレータに装着されたエンドエフェクタや、エンドエフェクタで把持した対象物(ワーク)の位置を、より高精度に検出することが望まれている。 Patent Document 1 discloses, for example, a technique for detecting a gripping deviation that occurs when a robot grips an object to be gripped. In such a technique, it is desired to detect the position of an end effector mounted on a robot manipulator or an object (work) gripped by the end effector with higher accuracy.

特開2017−87325号公報JP-A-2017-87325

第1の態様に従えば、エンドエフェクタを備えるロボットマニピュレータを制御するロボット制御装置であって、ロボットマニピュレータから独立して配置された光学系を介して、対象物を撮像する撮像部が、エンドエフェクタが保持する対象物を撮像可能な位置に、ロボットマニピュレータを移動させるロボット制御部、を備えるロボット制御装置が提供される。 According to the first aspect, the robot control device that controls the robot manipulator including the end effector, and the imaging unit that images the object via the optical system arranged independently of the robot manipulator, is the end effector. Provided is a robot control device including a robot control unit that moves a robot manipulator to a position where an object held by the robot can be imaged.

第2の態様に従えば、上記のロボット制御装置と、エンドエフェクタを備えるロボットマニピュレータから独立して配置された光学系と、光学系を介してエンドエフェクタが保持する対象物を撮像する撮像部と、を有する観察システムが提供される。 According to the second aspect, the robot control device, an optical system arranged independently of the robot manipulator including the end effector, and an imaging unit that images an object held by the end effector via the optical system. An observation system with, is provided.

第3の態様に従えば、上記のロボット制御装置と、エンドエフェクタを備えるロボットマニピュレータから独立して配置された第1光学系と、ロボットマニピュレータに支持された第2光学系と、対象物を撮像する撮像部と、を有し、撮像部は、撮像部の撮像光軸の少なくとも一部と、エンドエフェクタの中心軸とが一致する目標位置にロボットマニピュレータが移動したときに、第1光学系と第2光学系とを組み合わせた光学系を介して対象物を撮像する、観察システムが提供される。 According to the third aspect, the robot control device, the first optical system arranged independently of the robot manipulator provided with the end effector, the second optical system supported by the robot manipulator, and the object are imaged. When the robot manipulator moves to a target position where at least a part of the image pickup optical axis of the image pickup unit and the central axis of the end effector coincide with each other, the image pickup unit and the first optical system An observation system for imaging an object via an optical system combined with a second optical system is provided.

第4の態様に従えば、エンドエフェクタを備えるロボットマニピュレータと、光学系と、光学系を介してエンドエフェクタが保持する対象物を撮像する撮像部と、を備えるロボットシステムが提供される。 According to the fourth aspect, a robot system including a robot manipulator including an end effector, an optical system, and an imaging unit that images an object held by the end effector via the optical system is provided.

第5の態様に従えば、エンドエフェクタを備えるロボットマニピュレータを制御するロボット制御方法であって、ロボットマニピュレータから独立して配置された光学系を介して、対象物を撮像する撮像部が、エンドエフェクタが保持する対象物を撮像可能な位置に、ロボットマニピュレータを移動させること、を含むロボット制御方法が提供される。 According to the fifth aspect, it is a robot control method for controlling a robot manipulator including an end effector, and an imaging unit that images an object via an optical system arranged independently of the robot manipulator is an end effector. A robot control method including moving a robot manipulator to a position where an object held by the robot can be imaged is provided.

第6の態様に従えば、エンドエフェクタを備えるロボットマニピュレータを制御するロボット制御装置であって、ロボットマニピュレータから独立して配置された光学系を介して対象物を撮像する撮像部の撮像光軸の少なくとも一部と、エンドエフェクタの中心軸との平行度が一致し、且つ、エンドエフェクタが保持した対象物を撮像部が撮像可能な目標位置に、ロボットマニピュレータを移動させるロボット制御部と、エンドエフェクタが保持した対象物を撮像部により撮像した画像と、エンドエフェクタが保持した対象物の大きさ及び形状に関する情報とに基づいて、保持前に対して保持後の対象物の状態の変化量を算出する算出部と、を備え、算出部は、更に、撮像光軸の少なくとも一部と、エンドエフェクタの中心軸とが同一となる位置からの目標位置のオフセット量に基づいて、対象物の状態の変化量を算出する、ロボット制御装置が提供される。 According to the sixth aspect, it is a robot control device that controls a robot manipulator including an end effector, and is an imaging optical axis of an imaging unit that images an object via an optical system arranged independently of the robot manipulator. A robot control unit that moves the robot manipulator to a target position where at least a part of the robot manipulator is parallel to the central axis of the end effector and the object held by the end effector can be imaged by the imaging unit, and the end effector. Calculates the amount of change in the state of the object before and after holding it based on the image of the object held by the robot and the information about the size and shape of the object held by the end effector. The calculation unit further comprises, based on the amount of offset of the target position from the position where at least a part of the imaging optical axis and the central axis of the end effector are the same, the state of the object. A robot control device that calculates the amount of change is provided.

第1実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 1st Embodiment. 第1実施形態に係る観察システムの構成例を示す正面図。The front view which shows the structural example of the observation system which concerns on 1st Embodiment. 第1実施形態に係る観察システムの光学系の配置例を示す図。The figure which shows the arrangement example of the optical system of the observation system which concerns on 1st Embodiment. 第1実施形態に係る観察システムの撮像部の撮像光軸を、光学系の中心軸に合わせた状態の例を示す図。The figure which shows the example of the state in which the image pickup optical axis of the image pickup part of the observation system which concerns on 1st Embodiment is aligned with the central axis of an optical system. 第1実施形態に係るロボット制御装置の機能的な構成例を示すブロック図。The block diagram which shows the functional configuration example of the robot control apparatus which concerns on 1st Embodiment. 第1実施形態に係るロボット制御装置における処理の流れの例を示すフローチャート。The flowchart which shows the example of the processing flow in the robot control apparatus which concerns on 1st Embodiment. 第1実施形態に係る観察システムにおける撮像部の撮像光軸を基準部材の基準マークを用いて補正する際に撮像される撮像画像の一例を示す図。It is a figure which shows an example of the image pickup image taken at the time of correcting the image pickup optical axis of the image pickup part in the observation system which concerns on 1st Embodiment by using the reference mark of a reference member. 第1実施形態に係る観察システムにおけるエンドエフェクタの軸ずれを補正する際に撮像される撮像画像の一例を示す図。The figure which shows an example of the captured image which is imaged at the time of correcting the axis deviation of the end effector in the observation system which concerns on 1st Embodiment. 第1実施形態に係る観察システムにおいて、搬送元の位置にエンドエフェクタを移動させる状況の例を示す図。The figure which shows the example of the situation which moves an end effector to the position of a transport source in the observation system which concerns on 1st Embodiment. 第1実施形態に係る観察システムのエンドエフェクタで対象物を把持した状態の例を示す図。The figure which shows the example of the state which held the object by the end effector of the observation system which concerns on 1st Embodiment. 第1実施形態に係る観察システムにおいて、対象物を把持したエンドエフェクタを光学系に移動させた状態の例を示す図。FIG. 5 is a diagram showing an example of a state in which an end effector holding an object is moved to an optical system in the observation system according to the first embodiment. 第1実施形態に係る観察システムにおいて、エンドエフェクタで把持している対象物を撮像した撮像画像の例を示す図。The figure which shows the example of the captured image which imaged the object held by the end effector in the observation system which concerns on 1st Embodiment. 第1実施形態の変形例に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on the modification of 1st Embodiment. 第2実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 2nd Embodiment. 第3実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 3rd Embodiment. 第4実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 4th Embodiment. 第4実施形態に係るロボット制御装置における処理の流れの例を示すフローチャート。The flowchart which shows the example of the processing flow in the robot control apparatus which concerns on 4th Embodiment. 第5実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 5th Embodiment. 第5実施形態に係るロボット制御装置における処理の流れの例を示すフローチャート。The flowchart which shows the example of the processing flow in the robot control apparatus which concerns on 5th Embodiment. 第6実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 6th Embodiment. 第6実施形態に係る観察システムにおいて、光学素子を突出させた状態の例を示す側面図。FIG. 5 is a side view showing an example of a state in which an optical element is projected in the observation system according to the sixth embodiment. 第6実施形態に係るロボット制御装置における処理の流れの例を示すフローチャート。The flowchart which shows the example of the processing flow in the robot control apparatus which concerns on 6th Embodiment. 第7実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 7th Embodiment. 第8実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 8th Embodiment. 第9実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 9th Embodiment. 第9実施形態に係るロボット制御装置における処理の流れの例を示すフローチャート。The flowchart which shows the example of the processing flow in the robot control apparatus which concerns on 9th Embodiment. 第10実施形態に係る観察システムの構成例を示す側面図。The side view which shows the structural example of the observation system which concerns on 10th Embodiment.

以下、実施形態について図面を参照して説明する。図面においては、実施形態を説明するため、一部分を大きく又は強調して表すなど適宜縮尺を変更して表現しており、実際の製品とは大きさ、形状が異なる場合がある。また、図面においては、XYZ座標系を用いて図中の方向を説明する場合がある。XYZ座標系においては、水平面に平行な面をX−Y平面とする。X−Y平面における一方向はX方向と表記し、X方向に直交する方向はY方向と表記する。なお、X−Y平面に垂直な方向はZ方向と表記する。 Hereinafter, embodiments will be described with reference to the drawings. In the drawings, in order to explain the embodiment, the scale is appropriately changed and expressed, such as by enlarging or emphasizing a part, and the size and shape may differ from the actual product. Further, in the drawings, the directions in the drawings may be described using the XYZ coordinate system. In the XYZ coordinate system, the plane parallel to the horizontal plane is defined as the XY plane. One direction in the XY plane is referred to as the X direction, and the direction orthogonal to the X direction is referred to as the Y direction. The direction perpendicular to the XY plane is referred to as the Z direction.

[第1実施形態]
第1実施形態を説明する。図1は、第1実施形態に係る観察システムの構成例を示す側面図である。図2は、第1実施形態に係る観察システムの構成例を示す正面図である。図3は、第1実施形態に係る観察システムの光学系の配置例を示す図である。図1から図3に示すように、観察システム1Aは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3と、撮像部4と、光学系5(図3参照)と、ロボット制御装置7とを有する。本実施形態において、観察システム1Aは、エンドエフェクタ3で保持する対象物OBを、位置座標が予め指定されたステージ8を含む搬送元の位置P1から搬送先の位置P2まで搬送する。なお、観察システム1Aが搬送先の予め指定された位置座標である位置P2に対象物OBを搬送した後、例えば、ビジュアルサーボを用いて対象物OBの搬送位置を微修正してもよい。ロボット制御装置7を除いた観察システム1Aに含まれる各部は、「ロボットシステム」に対応する。
[First Embodiment]
The first embodiment will be described. FIG. 1 is a side view showing a configuration example of the observation system according to the first embodiment. FIG. 2 is a front view showing a configuration example of the observation system according to the first embodiment. FIG. 3 is a diagram showing an arrangement example of an optical system of the observation system according to the first embodiment. As shown in FIGS. 1 to 3, the observation system 1A includes a manipulator (robot manipulator) 2, an end effector 3, an imaging unit 4, an optical system 5 (see FIG. 3), and a robot control device 7. .. In the present embodiment, the observation system 1A transports the object OB held by the end effector 3 from the transport source position P1 including the stage 8 whose position coordinates are specified in advance to the transport destination position P2. After the observation system 1A transports the object OB to the position P2 which is the position coordinate specified in advance of the transport destination, the transport position of the object OB may be slightly modified by using, for example, a visual servo. Each part included in the observation system 1A excluding the robot control device 7 corresponds to the "robot system".

マニピュレータ2は、エンドエフェクタ3を装着可能なアーム21を備える。アーム21は、例えば、第1アーム22と、第2アーム23とを備える。第1アーム22は、例えば、マニピュレータ2の図示しない基部に対する揺動、及びZ軸回りの回動を可能に設けられる。第2アーム23は、第1アーム22の一端に、回動モータ24を介して連結される。また、第2アーム23は、回動モータ24の駆動により、回動モータ24の回動軸回りに回動可能に設けられる。第1アーム22側とは反対の第2アーム23の端部には、例えば、エンドエフェクタ3を着脱可能に装着するエフェクタ装着部(ジョイント)25が設けられる。 The manipulator 2 includes an arm 21 to which the end effector 3 can be mounted. The arm 21 includes, for example, a first arm 22 and a second arm 23. The first arm 22 is provided so that, for example, the manipulator 2 can swing with respect to a base (not shown) and rotate around the Z axis. The second arm 23 is connected to one end of the first arm 22 via a rotation motor 24. Further, the second arm 23 is rotatably provided around the rotation axis of the rotation motor 24 by driving the rotation motor 24. At the end of the second arm 23 opposite to the first arm 22 side, for example, an effector mounting portion (joint) 25 for detachably mounting the end effector 3 is provided.

なお、マニピュレータ2は、第1アーム22、第2アーム23、及び回動モータ24を備える構成に限られない。マニピュレータ2は、装着されたエンドエフェクタ3を搬送元の位置P1から搬送先の位置P2まで搬送できるのであれば、例えば、X方向、Y方向、及びZ方向のそれぞれに移動可能なアクチュエータを備える等、適宜他の構成としてもよい。 The manipulator 2 is not limited to the configuration including the first arm 22, the second arm 23, and the rotary motor 24. The manipulator 2 is provided with an actuator that can move the mounted end effector 3 from the transport source position P1 to the transport destination position P2, for example, in the X direction, the Y direction, and the Z direction. , Other configurations may be used as appropriate.

エンドエフェクタ3は、例えば、アーム21のエフェクタ装着部25に着脱可能に装着される。本実施形態において、エンドエフェクタ3は、対象物OBを保持可能である。エンドエフェクタ3は、エフェクタ装着部25に対して着脱可能なアーム接続部31と、アーム接続部31に設けられたハンド部32とを備える。ハンド部32は、例えば、基部33と、ハンド本体34Aと、ハンド本体34Bと、ハンド本体34A、34Bに設けられた把持部35Aと、把持部35Bとを備える。なお、ハンド本体34A、34Bと、把持部35A、35Bとは、「指部」に対応する。すなわち、エンドエフェクタ3は、対象物OBを把持することにより保持する「指部」を有する。以下、エンドエフェクタ3が対象物OBを「把持する」ことは、把持することにより「保持する」ことを含む。なお、エンドエフェクタ3は、ツールチェンジャとして交換可能であってもよく、また、マニピュレータ2と一体型であってもよい。 The end effector 3 is detachably attached to, for example, the effector mounting portion 25 of the arm 21. In the present embodiment, the end effector 3 can hold the object OB. The end effector 3 includes an arm connecting portion 31 that can be attached to and detached from the effector mounting portion 25, and a hand portion 32 provided on the arm connecting portion 31. The hand portion 32 includes, for example, a base portion 33, a hand main body 34A, a hand main body 34B, a grip portion 35A provided on the hand main bodies 34A and 34B, and a grip portion 35B. The hand bodies 34A and 34B and the gripping portions 35A and 35B correspond to "finger portions". That is, the end effector 3 has a "finger portion" that holds the object OB by grasping it. Hereinafter, "grasping" the object OB by the end effector 3 includes "holding" by gripping. The end effector 3 may be replaceable as a tool changer, or may be integrated with the manipulator 2.

基部33は、例えば、アーム接続部31と一体に設けられる。基部33は、第2アーム23の中心軸AC(以下、マニピュレータ2の中心軸ACと呼ぶ場合がある)に直交する方向に沿って、アーム接続部31から両側に延びている。本実施形態において、ハンド本体34A、34Bは、基部33の両方向の端部から、第2アーム23の中心軸ACと平行な方向に沿って、アーム21側とは反対の方向に延びている。一つの態様として、二個一対のハンド本体34A、34Bを採用する場合、ハンド本体34A、34Bの中心位置は、エンドエフェクタ3の中心軸AMとなる。すなわち、エンドエフェクタ3は、第2アーム23のエフェクタ装着部25にアーム接続部31を接続した状態で、中心軸AMが第2アーム23の中心軸ACに合致するように設けられてよい。 The base 33 is provided integrally with, for example, the arm connecting portion 31. The base portion 33 extends from the arm connecting portion 31 to both sides along a direction orthogonal to the central axis AC of the second arm 23 (hereinafter, may be referred to as the central axis AC of the manipulator 2). In the present embodiment, the hand bodies 34A and 34B extend from the ends of the base 33 in both directions along the direction parallel to the central axis AC of the second arm 23 in the direction opposite to the arm 21 side. In one embodiment, when two pairs of hand bodies 34A and 34B are adopted, the center position of the hand bodies 34A and 34B is the central axis AM of the end effector 3. That is, the end effector 3 may be provided so that the central axis AM matches the central axis AC of the second arm 23 in a state where the arm connecting portion 31 is connected to the effector mounting portion 25 of the second arm 23.

把持部35Aは、アーム接続部31側とは反対のハンド本体34Aの端部に固定されて設けられる。把持部35Bは、アーム接続部31側とは反対のハンド本体34Bの端部に固定されて設けられる。把持部35A、35Bは、把持パッド37をそれぞれ備える。把持パッド37は、対象物OBを把持していないとき、把持部35A、35Bに収容される。把持パッド37は、例えば、柔軟なプラスティックやゲル等であり、圧力が調整されることでハンド本体34A、34B同士が対向する側(ハンド本体34A、34Bの内側)に、ハンド本体34A、34Bのそれぞれから突出するように弾性変形可能である。把持パッド37は、例えば、対象物OBを把持しようとするとき、対象物OBの大きさや形状等に応じて変形する。なお、把持パッド37のそれぞれは、「変形部」に対応する。 The grip portion 35A is fixedly provided at the end portion of the hand body 34A opposite to the arm connection portion 31 side. The grip portion 35B is fixedly provided at the end portion of the hand body 34B opposite to the arm connection portion 31 side. The grip portions 35A and 35B each include a grip pad 37. The gripping pad 37 is accommodated in the gripping portions 35A and 35B when the object OB is not gripped. The gripping pad 37 is, for example, a flexible plastic or gel, and the hand bodies 34A and 34B are placed on the side where the hand bodies 34A and 34B face each other (inside the hand bodies 34A and 34B) by adjusting the pressure. It can be elastically deformed so as to protrude from each. For example, when trying to grip the object OB, the grip pad 37 is deformed according to the size and shape of the object OB. Each of the gripping pads 37 corresponds to a "deformed portion".

また、ハンド本体34A、34Bを、例えば、弾性変形可能な金属やプラスティック等で構成し、図示しないアクチュエータ等でハンド本体34A、34Bを互いに接近する方向に押圧することにより、対象物OBを把持してもよい。この場合、把持パッド37が把持部35A、35Bに収容されていなくても対象物OBの把持が可能となる。このとき、ハンド本体34A、34Bが互いに対向する方向に突出した状態で、ハンド本体34A、34Bの内側に、把持パッド37を保持してもよい。 Further, the hand bodies 34A and 34B are made of, for example, elastically deformable metal or plastic, and the hand bodies 34A and 34B are pressed in a direction approaching each other by an actuator (not shown) to grip the object OB. You may. In this case, the object OB can be gripped even if the gripping pad 37 is not housed in the gripping portions 35A and 35B. At this time, the gripping pad 37 may be held inside the hand bodies 34A and 34B with the hand bodies 34A and 34B protruding in the directions facing each other.

エンドエフェクタ3は、ハンド部32のハンド本体34A、34Bの間に対象物OBが配置される状態で、それぞれ圧力が加えられる把持パッド37を内側に突出させ、対象物OBを把持する。エンドエフェクタ3は、このようにして、対象物OBを把持することにより保持可能である。すなわち、エンドエフェクタ3は、対象物OBの大きさや形状等に応じて把持パッド37が弾性変形することで、対象物OBを把持する。また、エンドエフェクタ3は、対象物OBの少なくとも一部に柔軟な部分を有する場合、対象物OBの大きさ、形状、及び姿勢等のうち少なくとも1つが把持する前に対して変化した状態で把持することがある。 The end effector 3 projects the gripping pad 37 to which pressure is applied inward while the object OB is arranged between the hand bodies 34A and 34B of the hand portion 32, and grips the object OB. The end effector 3 can be held by grasping the object OB in this way. That is, the end effector 3 grips the object OB by elastically deforming the grip pad 37 according to the size and shape of the object OB. Further, when the end effector 3 has a flexible portion in at least a part of the object OB, the end effector 3 is gripped in a state in which at least one of the size, shape, posture, etc. of the object OB is changed from that before being gripped. I have something to do.

なお、本実施形態におけるエンドエフェクタ3は、ハンド本体34A、34Bから把持パッド37を突出させることで対象物OBを把持する形態に限らない。エンドエフェクタ3は、例えば、ハンド本体34A、34Bを変位させることで対象物OBを把持してもよい。また、ハンド本体は、ハンド本体34A、34Bの2本に限らず、3本以上のハンド本体を備えてもよい。さらに、エンドエフェクタ3は、把持パッド37を設けずに、例えば、磁気による吸着や真空吸着等により、対象物OBを保持(把持)してもよい。さらに、エンドエフェクタ3は、ハンド本体34A、34Bにピンセットやドライバ等の工具を保持させて、工具を介して対象物OBを保持(把持)してもよい。 The end effector 3 in the present embodiment is not limited to the form in which the object OB is gripped by projecting the gripping pad 37 from the hand bodies 34A and 34B. The end effector 3 may grip the object OB by, for example, displacing the hand bodies 34A and 34B. Further, the hand body is not limited to two hand bodies 34A and 34B, and may include three or more hand bodies. Further, the end effector 3 may hold (grip) the object OB by, for example, magnetic suction or vacuum suction without providing the grip pad 37. Further, the end effector 3 may hold a tool such as tweezers or a screwdriver on the hand bodies 34A and 34B, and hold (grip) the object OB via the tool.

撮像部4は、図示しない撮像素子を備える。撮像部4の撮像素子は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、又はCCDイメージセンサ等である。撮像部4は、撮像素子による撮像結果(観察結果、検出結果)を、ロボット制御装置7に対して出力する。 The image pickup unit 4 includes an image pickup element (not shown). The image sensor of the image pickup unit 4 is, for example, a CMOS image sensor in which a plurality of pixels are two-dimensionally arranged, a CCD image sensor, or the like. The image pickup unit 4 outputs an image pickup result (observation result, detection result) by the image pickup element to the robot control device 7.

本実施形態における撮像部4は、マニピュレータ2に設けられる。図2に示すように、マニピュレータ2は、撮像部4を支持する支持部材26を備える。支持部材26は、マニピュレータ2の第2アーム23の第1アーム22側とは反対の端部に設けられる。支持部材26は、第2アーム23の中心軸ACに対して交差(直交)して延び、第2アーム23から側方に突出する。撮像部4は、例えば、支持部材26の端部に固定される。撮像部4は、マニピュレータ2の中心軸ACに対して、撮像光軸APが該中心軸ACに直交する方向に所定寸法だけ離間した位置で平行に設けられる。撮像部4の撮像光軸APと、マニピュレータ2の中心軸ACとの離間寸法は、ベースラインBLと呼ばれる場合がある。なお、光学系5を介して対象物OBを撮像する撮像部4の撮像光軸APの少なくとも一部は、Y方向においてエンドエフェクタ3の中心軸AMと一致する。 The imaging unit 4 in the present embodiment is provided in the manipulator 2. As shown in FIG. 2, the manipulator 2 includes a support member 26 that supports the imaging unit 4. The support member 26 is provided at an end of the second arm 23 of the manipulator 2 opposite to the first arm 22 side. The support member 26 extends so as to intersect (orthogonally) the central axis AC of the second arm 23, and projects laterally from the second arm 23. The imaging unit 4 is fixed to, for example, the end of the support member 26. The imaging unit 4 is provided parallel to the central axis AC of the manipulator 2 at a position where the imaging optical axis AP is separated by a predetermined dimension in the direction orthogonal to the central axis AC. The distance between the imaging optical axis AP of the imaging unit 4 and the central axis AC of the manipulator 2 may be referred to as the baseline BL. At least a part of the imaging optical axis AP of the imaging unit 4 that images the object OB via the optical system 5 coincides with the central axis AM of the end effector 3 in the Y direction.

撮像部4は、撮像部4の撮像光軸APに対するエンドエフェクタ3の作動軸(例えば、ハンド本体34A、34B)の相対位置を撮像する。また、撮像部4は、エンドエフェクタ3が把持する(又は、把持している)対象物OBを撮像する。より具体的には、撮像部4は、撮像部4の撮像光軸APにおいて、エンドエフェクタ3が把持する(又は、把持している)対象物OBの位置や姿勢等を撮像する。なお、撮像光軸APの光路は、「撮像光路」に対応する。さらに、撮像部4は、エンドエフェクタ3が対象物OBを把持していないときは、これから把持しようとする対象物OB(例えば、作業台等に載置された対象物OB)を撮像することもできる。 The imaging unit 4 images the relative position of the operating axis of the end effector 3 (for example, the hand bodies 34A and 34B) with respect to the imaging optical axis AP of the imaging unit 4. Further, the imaging unit 4 images the object OB gripped (or gripped by) by the end effector 3. More specifically, the imaging unit 4 images the position, posture, and the like of the object OB gripped (or held) by the end effector 3 in the imaging optical axis AP of the imaging unit 4. The optical path of the imaging optical axis AP corresponds to the “imaging optical path”. Further, when the end effector 3 does not grip the object OB, the imaging unit 4 may image the object OB to be gripped (for example, the object OB placed on a work table or the like). it can.

図3に示すように、光学系5は、エンドエフェクタ3が装着されたマニピュレータ2から独立して配置される場合がある。本実施形態における光学系5は、マニピュレータ2の基部(図示せず)と一体に固定されたステージ8に設けられる。光学系5は、1以上の光学素子(図3では、光学素子51A、光学素子51B)と、ベース部材52と、ミラー保持部材53とを有する。ベース部材52は、ステージ8においてX−Y平面内に位置する上面8aに直交するZ方向の上方に延びている。ミラー保持部材53は、ベース部材52のステージ8側とは反対の端部からX−Y平面に沿った方向に延びている。なお、ベース部材52とミラー保持部材53とは、一体として構成されてもよい。 As shown in FIG. 3, the optical system 5 may be arranged independently of the manipulator 2 to which the end effector 3 is mounted. The optical system 5 in this embodiment is provided on a stage 8 fixed integrally with a base portion (not shown) of the manipulator 2. The optical system 5 includes one or more optical elements (optical element 51A and optical element 51B in FIG. 3), a base member 52, and a mirror holding member 53. The base member 52 extends upward in the Z direction orthogonal to the upper surface 8a located in the XY plane in the stage 8. The mirror holding member 53 extends in the direction along the XY plane from the end of the base member 52 opposite to the stage 8 side. The base member 52 and the mirror holding member 53 may be integrally configured.

光学素子51A、51Bは、平板上のミラーを含む。光学素子51A、51Bは、ミラー保持部材53の延伸方向に、間隔をあけてミラー保持部材53に固定される。光学素子51A、51Bは、例えば、ミラー保持部材53の延伸方向に対して所定の角度(例えば、45度)に傾斜して、互いに平行に設けられる。光学素子51A、51BのX方向における間隔Smは、X方向における撮像部4の撮像光軸APと、エンドエフェクタ3の中心軸AMとの間隔(上述したベースラインBL)と等しい(ほぼ等しい)。すなわち、光学素子51A、51Bは、ベースラインBLの間隔をあけて設けられる。なお、光学系51に含まれる光学素子51A、51B等の平板状のミラーは、「折り曲げミラー」に対応する。また、光学素子51A、51Bを含む光学系5等のマニピュレータ2から独立して配置された光学系は、「第1光学系」に対応する。 The optical elements 51A and 51B include a mirror on a flat plate. The optical elements 51A and 51B are fixed to the mirror holding member 53 at intervals in the extending direction of the mirror holding member 53. The optical elements 51A and 51B are provided in parallel with each other, for example, inclined at a predetermined angle (for example, 45 degrees) with respect to the stretching direction of the mirror holding member 53. The distance Sm of the optical elements 51A and 51B in the X direction is equal to (almost equal to) the distance (almost equal to the baseline BL described above) between the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 in the X direction. That is, the optical elements 51A and 51B are provided at intervals of the baseline BL. The flat mirrors such as the optical elements 51A and 51B included in the optical system 51 correspond to "folding mirrors". Further, the optical system arranged independently from the manipulator 2 such as the optical system 5 including the optical elements 51A and 51B corresponds to the "first optical system".

図4は、第1実施形態に係る観察システムの撮像部の撮像光軸を、光学系の中心軸に合わせた状態の例を示す図である。図4に示すように、光学素子51Aは、撮像部4の撮像光軸APと光学素子51AとのX−Y平面内における位置を合わせるように設けられる。加えて、光学素子51Bは、エンドエフェクタ3の中心軸AMと光学素子51BとのX−Y平面内における位置を合わせるように設けられる。このような状態で、光学素子51A、51Bは、エンドエフェクタ3のハンド本体34A、34Bの間の像が、光学素子51A、51Bを介して撮像部4の撮像素子上で結像するように設けられる。このとき、ミラー保持部材53は、エンドエフェクタ3の基部33と把持部35A、35Bとの間に挿入された状態となる。すなわち、光学系5は、撮像部4の撮像光軸APの少なくとも一部がエンドエフェクタ3の中心軸AMに一致するように配置される。これらにより、光学系5は、エンドエフェクタ3の端部、及びエンドエフェクタ3の端部が把持(保持)している対象物OBの像を、撮像部4の撮像素子上に結像させる。また、光学系5は、対象物OBの搬送元又は搬送先に応じて配置される。例えば、光学系5は、対象物OBの搬送元から搬送先までの搬送経路の途中に配置される場合がある。なお、光学系5は、対象物OBの像が撮像部4の撮像素子上に結像するように、Z方向が調整されて位置が合うように設けられてもよい。但し、撮像部4にテレセントリック光学系を用いる場合は、Z方向の調整は不要である。 FIG. 4 is a diagram showing an example of a state in which the imaging optical axis of the imaging unit of the observation system according to the first embodiment is aligned with the central axis of the optical system. As shown in FIG. 4, the optical element 51A is provided so as to align the image pickup optical axis AP of the image pickup unit 4 and the optical element 51A in the XY plane. In addition, the optical element 51B is provided so as to align the central axis AM of the end effector 3 and the optical element 51B in the XY plane. In such a state, the optical elements 51A and 51B are provided so that the image between the hand bodies 34A and 34B of the end effector 3 is formed on the image pickup element of the image pickup unit 4 via the optical elements 51A and 51B. Be done. At this time, the mirror holding member 53 is in a state of being inserted between the base portion 33 of the end effector 3 and the grip portions 35A and 35B. That is, the optical system 5 is arranged so that at least a part of the imaging optical axis AP of the imaging unit 4 coincides with the central axis AM of the end effector 3. As a result, the optical system 5 forms an image of the end portion of the end effector 3 and the object OB held (held) by the end portion of the end effector 3 on the image sensor of the image pickup unit 4. Further, the optical system 5 is arranged according to the transport source or transport destination of the object OB. For example, the optical system 5 may be arranged in the middle of the transport path from the transport source to the transport destination of the object OB. The optical system 5 may be provided so that the Z direction is adjusted and the positions are aligned so that the image of the object OB is formed on the image pickup device of the image pickup unit 4. However, when a telecentric optical system is used for the image pickup unit 4, adjustment in the Z direction is not necessary.

また、図3に示すように、ステージ8には、撮像部4の撮像光軸APと、ステージ8との位置合わせを行う基準部材9が設けられてもよい。基準部材9は、光学系5の光軸に対して所定の位置精度でステージ8上に設置される。基準部材9は、例えば、平板状であり、ステージ8の任意の場所に固定される。基準部材9には、Z方向から見て、例えば十字状の基準マーク91(図7参照)が形成される。 Further, as shown in FIG. 3, the stage 8 may be provided with a reference member 9 for aligning the imaging optical axis AP of the imaging unit 4 with the stage 8. The reference member 9 is installed on the stage 8 with a predetermined positional accuracy with respect to the optical axis of the optical system 5. The reference member 9 has, for example, a flat plate shape and is fixed at an arbitrary position on the stage 8. A cross-shaped reference mark 91 (see FIG. 7) is formed on the reference member 9 when viewed from the Z direction.

図5は、第1実施形態に係るロボット制御装置の機能的な構成例を示すブロック図である。ロボット制御装置7は、例えば、マニピュレータ2、エンドエフェクタ3、及び撮像部4の動作を制御する。具体的には、ロボット制御装置7は、マニピュレータ2の制御に関して、マニピュレータ2の移動を制御する。また、ロボット制御装置7は、エンドエフェクタ3の制御に関して、エンドエフェクタ3における対象物OBの保持(把持)や解放の動作を制御する。また、ロボット制御装置7は、撮像部4の制御に関して、撮像部4に撮像処理を実行させる。ロボット制御装置7は、CPU(Central Processing Unit)やメモリ等のハードウェアを備えるコンピュータ等の情報処理装置である。ロボット制御装置7では、CPUやメモリ等と、メモリ等が記憶するプログラムとが協働して所定の処理が実行される。 FIG. 5 is a block diagram showing a functional configuration example of the robot control device according to the first embodiment. The robot control device 7 controls, for example, the operations of the manipulator 2, the end effector 3, and the imaging unit 4. Specifically, the robot control device 7 controls the movement of the manipulator 2 with respect to the control of the manipulator 2. Further, the robot control device 7 controls the operation of holding (grasping) and releasing the object OB in the end effector 3 with respect to the control of the end effector 3. Further, the robot control device 7 causes the image pickup unit 4 to execute the image pickup process with respect to the control of the image pickup unit 4. The robot control device 7 is an information processing device such as a computer provided with hardware such as a CPU (Central Processing Unit) and a memory. In the robot control device 7, a CPU, a memory, and the like and a program stored in the memory and the like cooperate to execute a predetermined process.

ロボット制御装置7は、信号入力部71と、記憶部72と、算出部73と、補正部74と、移動制御部75と、エンドエフェクタ制御部76と、撮像制御部77と、信号出力部78とを有する。移動制御部75及びエンドエフェクタ制御部76のうち少なくとも1つは、「ロボット制御部」に対応する。 The robot control device 7 includes a signal input unit 71, a storage unit 72, a calculation unit 73, a correction unit 74, a movement control unit 75, an end effector control unit 76, an imaging control unit 77, and a signal output unit 78. And have. At least one of the movement control unit 75 and the end effector control unit 76 corresponds to the “robot control unit”.

信号入力部71は、マニピュレータ2及びエンドエフェクタ3の位置情報や姿勢情報等を含む信号の入力を受け付ける。かかる信号は、マニピュレータ2及びエンドエフェクタ3等の各部に設けられたエンコーダやセンサ等から出力される。また、信号入力部71は、撮像部4の撮像素子から出力される画像データの入力を受け付ける。記憶部72は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の記憶装置、USB(Universal Serial Bus)メモリやメモリカード等の不揮発性メモリのいずれかでよい。記憶部72は、ロボット制御装置7のプログラム、各種の設定値、エンドエフェクタ3や対象物OBの外部外形寸法、対象物OBの搬送元の位置P1の座標、及び搬送先の位置P2の座標等の各種データを記憶する。 The signal input unit 71 receives input of a signal including position information, posture information, and the like of the manipulator 2 and the end effector 3. Such a signal is output from an encoder, a sensor, or the like provided in each part of the manipulator 2, the end effector 3, or the like. Further, the signal input unit 71 receives an input of image data output from the image sensor of the image pickup unit 4. The storage unit 72 may be, for example, any storage device such as an HDD (Hard Disk Drive) or SSD (Solid State Drive), or a non-volatile memory such as a USB (Universal Serial Bus) memory or a memory card. The storage unit 72 includes a program of the robot control device 7, various set values, external external dimensions of the end effector 3 and the object OB, coordinates of the transfer source position P1 of the object OB, coordinates of the transfer destination position P2, and the like. Stores various data of.

算出部73は、エンドエフェクタ3が把持した対象物OBを撮像部4により撮像した画像と、エンドエフェクタ3が把持した対象物OBの大きさ及び形状等に関する情報とに基づいて、把持前に対して把持後の対象物OBの状態の変化量を算出する。すなわち、算出部73は、把持パッド37の突出による対象物OBの把持ずれ、対象物OBの大きさや形状による対象物OBの把持ずれ等により、把持前と把持後とにおける対象物OBの状態(例えば、位置や姿勢等)が変化するため、変化量を算出する。また、算出部73は、エンドエフェクタ3を撮像部4により撮像した画像と、予め撮像されたエンドエフェクタ3の所定画像とに基づいて、エンドエフェクタ3の中心軸AMのずれを示す軸ずれ量を算出してもよい。なお、算出部73による軸ずれ量の算出は、実施されなくてもよい。 The calculation unit 73 refers to the object before gripping based on an image obtained by the imaging unit 4 of the object OB gripped by the end effector 3 and information on the size and shape of the object OB gripped by the end effector 3. The amount of change in the state of the object OB after gripping is calculated. That is, the calculation unit 73 determines the state of the object OB before and after gripping due to the gripping deviation of the object OB due to the protrusion of the gripping pad 37, the gripping deviation of the object OB due to the size and shape of the object OB, and the like. For example, the position, posture, etc.) change, so the amount of change is calculated. Further, the calculation unit 73 determines the amount of axial deviation indicating the deviation of the central axis AM of the end effector 3 based on the image of the end effector 3 captured by the imaging unit 4 and the predetermined image of the end effector 3 captured in advance. It may be calculated. The calculation of the amount of shaft misalignment by the calculation unit 73 does not have to be performed.

補正部74は、算出部73が算出した変化量に基づいて、対象物OBの搬送先におけるエンドエフェクタ3の位置及び姿勢のうち少なくとも1つを補正する。すなわち、補正部74は、把持ずれによる対象物OBの位置や姿勢等の変化量を考慮して補正を実施する。また、補正部74は、算出部73が算出した軸ずれ量に基づいて、対象物OBの搬送先におけるエンドエフェクタ3の位置及び姿勢のうち少なくとも1つを補正してもよい。また、補正部74は、撮像部4の撮像光軸APと、エンドエフェクタ3の中心軸AMとの所定の間隔(ベースラインBL)からのずれを示す間隔ずれ量に基づいて、対象物OBの搬送先の位置P2を補正してもよい。 The correction unit 74 corrects at least one of the positions and postures of the end effector 3 at the transport destination of the object OB based on the amount of change calculated by the calculation unit 73. That is, the correction unit 74 performs correction in consideration of the amount of change in the position, posture, etc. of the object OB due to the gripping deviation. Further, the correction unit 74 may correct at least one of the positions and orientations of the end effector 3 at the transport destination of the object OB based on the amount of axial deviation calculated by the calculation unit 73. Further, the correction unit 74 of the object OB is based on an interval deviation amount indicating a deviation from a predetermined distance (baseline BL) between the image pickup optical axis AP of the image pickup unit 4 and the central axis AM of the end effector 3. The position P2 of the transport destination may be corrected.

なお、ベースラインBLは、所定の値(設定値)を用いる代わりに、予め計測されてもよい。また、補正部74による軸ずれ量に基づく補正や、間隔ずれ量に基づく補正は、実施されなくてもよい。また、対象物OBの搬送先における対象物OBの位置や姿勢を予め記憶部(記憶部72又は外部の記憶装置等)に記憶させ、記憶された対象物OBの位置や姿勢に対して補正を行ってもよい。また、対象物OBの搬送先において、対象物OBの作業対象(例えば、作業台)を、撮像部4等を用いて撮像し、ビジュアルサーボ等により制御される対象物OBの位置や姿勢に対して補正を行ってもよい。 The baseline BL may be measured in advance instead of using a predetermined value (set value). Further, the correction based on the amount of axial deviation and the correction based on the amount of interval deviation by the correction unit 74 may not be performed. Further, the position and orientation of the object OB at the transport destination of the object OB are stored in advance in a storage unit (storage unit 72 or an external storage device, etc.), and the stored position and orientation of the object OB are corrected. You may go. Further, at the transport destination of the object OB, the work object (for example, a work table) of the object OB is imaged by using the imaging unit 4 or the like, and the position or posture of the object OB controlled by the visual servo or the like is obtained. May be corrected.

移動制御部75は、マニピュレータ2によるエンドエフェクタ3の移動の動作を制御する。より具体的には、移動制御部75は、補正部74が補正したマニピュレータ2の移動先の位置(搬送先の位置P2)に応じて、マニピュレータ2を動作させる。また、移動制御部75は、マニピュレータ2から独立して配置された光学系5を介して、対象物OBを撮像する撮像部4が、エンドエフェクタ3が把持する対象物OBを撮像可能な位置に、マニピュレータ2を移動させる。また、移動制御部75は、光学系5を介して対象物OBを撮像する撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとが一致する目標位置に、マニピュレータ2を移動させる。目標位置とは、例えば、撮像部4が光学系5を介してエンドエフェクタ3(又は、把持している対象物OB)を撮像可能な位置である。このとき、折り曲げミラーである光学素子51Bは、対象物OBとマニピュレータ2(エンドエフェクタ3を含む)との間に配置された状態となる。移動制御部75は、補正部74が補正した対象物OBの搬送先の位置P2に基づいて、マニピュレータ2を動作させる。 The movement control unit 75 controls the movement operation of the end effector 3 by the manipulator 2. More specifically, the movement control unit 75 operates the manipulator 2 according to the position of the movement destination of the manipulator 2 corrected by the correction unit 74 (the position P2 of the transport destination). Further, the movement control unit 75 is located at a position where the imaging unit 4 that images the object OB can image the object OB held by the end effector 3 via the optical system 5 that is arranged independently of the manipulator 2. , Move the manipulator 2. Further, the movement control unit 75 is a manipulator at a target position where at least a part of the imaging optical axis AP of the imaging unit 4 that images the object OB via the optical system 5 and the central axis AM of the end effector 3 coincide with each other. Move 2. The target position is, for example, a position where the imaging unit 4 can image the end effector 3 (or the object OB being held) via the optical system 5. At this time, the optical element 51B, which is a bending mirror, is in a state of being arranged between the object OB and the manipulator 2 (including the end effector 3). The movement control unit 75 operates the manipulator 2 based on the position P2 of the transport destination of the object OB corrected by the correction unit 74.

エンドエフェクタ制御部76は、エンドエフェクタ3における対象物OBの把持(保持)や解放の動作を制御する。より具体的には、エンドエフェクタ制御部76は、ハンド本体34A、34Bの端部の把持部35A、35Bによる対象物OBの把持や解放の動作を制御する。対象物OBの把持や解放の動作には、対象物OBを把持している状態で、エンドエフェクタ3の姿勢を変化させることを含む。すなわち、エンドエフェクタ制御部76は、補正部74が補正した姿勢に基づいて、マニピュレータ2を制御してエンドエフェクタ3の姿勢を制御する。撮像制御部77は、撮像部4における撮像を制御する。信号出力部78は、移動制御部75やエンドエフェクタ制御部76、撮像制御部77等から出力される、マニピュレータ2やエンドエフェクタ3、撮像部4に対する指令信号を各部のそれぞれに対して出力する。 The end effector control unit 76 controls the operation of gripping (holding) and releasing the object OB in the end effector 3. More specifically, the end effector control unit 76 controls the operation of gripping and releasing the object OB by the gripping portions 35A and 35B at the ends of the hand bodies 34A and 34B. The operation of gripping and releasing the object OB includes changing the posture of the end effector 3 while gripping the object OB. That is, the end effector control unit 76 controls the manipulator 2 to control the posture of the end effector 3 based on the posture corrected by the correction unit 74. The image pickup control unit 77 controls the image pickup in the image pickup unit 4. The signal output unit 78 outputs command signals for the manipulator 2, the end effector 3, and the image pickup unit 4 output from the movement control unit 75, the end effector control unit 76, the image pickup control unit 77, and the like to each of the units.

次に、ロボット制御装置7による観察システム1Aの制御を説明する。観察システム1Aの制御において、ロボット制御装置7が実行する各処理は、ロボット制御装置7等に予め記憶されたプログラムに基づいて実行される。かかるプログラムは、コンピュータ読み取り可能な記憶媒体(例、非一時的な記録媒体、non‐transitory tangible media)に記録されて提供されてもよい。 Next, the control of the observation system 1A by the robot control device 7 will be described. In the control of the observation system 1A, each process executed by the robot control device 7 is executed based on a program stored in advance in the robot control device 7 or the like. Such programs may be recorded and provided on computer-readable storage media (eg, non-transitory tangible media).

図6は、第1実施形態に係るロボット制御装置における処理の流れの例を示すフローチャートである。ステップS1において、ロボット制御装置7は、撮像部4のステージ8に対する位置合わせ(キャリブレーション)を行う。例えば、移動制御部75は、記憶部72等に記憶された初期値に応じてマニピュレータ2を移動させ、撮像部4の撮像光軸APのX−Y平面内における位置を、ステージ8上の基準部材9の基準マーク91の位置に合わせる。そして、撮像部4は、ロボット制御装置7の撮像制御部77による制御に基づいて基準マーク91を撮像する。撮像部4が撮像した撮像画像は、ロボット制御装置7に転送される(信号入力部71が撮像画像を受け付ける)。 FIG. 6 is a flowchart showing an example of a processing flow in the robot control device according to the first embodiment. In step S1, the robot control device 7 aligns (calibrates) the imaging unit 4 with respect to the stage 8. For example, the movement control unit 75 moves the manipulator 2 according to the initial value stored in the storage unit 72 or the like, and determines the position of the image pickup optical axis AP of the image pickup unit 4 in the XY plane as a reference on the stage 8. Align with the position of the reference mark 91 of the member 9. Then, the image pickup unit 4 images the reference mark 91 based on the control by the image pickup control unit 77 of the robot control device 7. The captured image captured by the imaging unit 4 is transferred to the robot control device 7 (the signal input unit 71 receives the captured image).

図7は、第1実施形態に係る観察システムにおける撮像部の撮像光軸を基準部材の基準マークを用いて補正する際に撮像される撮像画像の一例を示す図である。移動制御部75は、マニピュレータ2を制御して、撮像画像I1を撮像可能な位置に撮像部4を移動させる。このとき、移動先の座標を予め記憶部72等に記憶させておき、移動制御部75は、記憶部72等に記憶された座標値に基づいて撮像部4を移動させてもよい。次に、算出部73は、図7に示す撮像画像I1に基づいて、撮像部4の撮像光軸APと、基準マーク91の中心(十字の交差部分)とのX−Y平面内における位置ずれ量を算出する。補正部74は、算出部73が算出した位置ずれ量が予め定めた閾値以上であるかを判定する。このとき、位置ずれ量が閾値未満である場合は、ステップS1における処理が終了されステップS2における処理が実行される。一方、位置ずれ量が閾値以上である場合、補正部74は、位置ずれ量に基づいて、撮像部4の撮像光軸APの位置をX−Y平面内で補正し、補正結果を記憶部72に格納する。これらにより、撮像部4の基準マーク91に対する位置合わせ、すなわち撮像部4を備えたマニピュレータ2のステージ8に対する位置合わせが完了する。なお、上述したように、基準マーク91を用いた位置ずれ量の算出や補正は、省略されてもよい。このような測定を行うことで、ロボットアーム(例えば、第1アーム22と第2アーム23とを備えるアーム21等)の変形等による撮像部4の座標位置ずれ等を補正することができる。 FIG. 7 is a diagram showing an example of an captured image captured when the imaging optical axis of the imaging unit in the observation system according to the first embodiment is corrected by using the reference mark of the reference member. The movement control unit 75 controls the manipulator 2 to move the image pickup unit 4 to a position where the captured image I1 can be captured. At this time, the coordinates of the movement destination may be stored in the storage unit 72 or the like in advance, and the movement control unit 75 may move the image pickup unit 4 based on the coordinate values stored in the storage unit 72 or the like. Next, the calculation unit 73 shifts the position of the imaging optical axis AP of the imaging unit 4 and the center of the reference mark 91 (the intersection of the crosses) in the XY plane based on the captured image I1 shown in FIG. Calculate the amount. The correction unit 74 determines whether the amount of misalignment calculated by the calculation unit 73 is equal to or greater than a predetermined threshold value. At this time, if the amount of misalignment is less than the threshold value, the process in step S1 is completed and the process in step S2 is executed. On the other hand, when the amount of misalignment is equal to or greater than the threshold value, the correction unit 74 corrects the position of the imaging optical axis AP of the image pickup unit 4 in the XY plane based on the amount of misalignment, and stores the correction result in the storage unit 72. Store in. As a result, the alignment of the imaging unit 4 with respect to the reference mark 91, that is, the alignment of the manipulator 2 provided with the imaging unit 4 with respect to the stage 8 is completed. As described above, the calculation and correction of the amount of misalignment using the reference mark 91 may be omitted. By performing such a measurement, it is possible to correct the coordinate position deviation of the imaging unit 4 due to the deformation of the robot arm (for example, the arm 21 including the first arm 22 and the second arm 23).

ステップS2において、ロボット制御装置7は、エンドエフェクタ3の中心軸AMの位置合わせを行う。例えば、移動制御部75は、マニピュレータ2を動作させ、撮像部4の撮像光軸APを光学系5の光学素子51Aに対してX−Y平面内で位置合わせする。そして、撮像部4は、ロボット制御装置7の撮像制御部77による制御に基づいて撮像する。 In step S2, the robot control device 7 aligns the central axis AM of the end effector 3. For example, the movement control unit 75 operates the manipulator 2 to align the image pickup optical axis AP of the image pickup unit 4 with respect to the optical element 51A of the optical system 5 in the XY plane. Then, the image pickup unit 4 takes an image based on the control by the image pickup control unit 77 of the robot control device 7.

図8は、第1実施形態に係る観察システムにおけるエンドエフェクタの軸ずれを補正する際に撮像される撮像画像の一例を示す図である。図8に示すように、撮像部4における撮像の視野は、例えば、ハンド本体34A、34Bの少なくとも端部が撮像の視野の範囲内となるように設定される。従って、撮像部4では、ハンド本体34A、34Bの端部の像が、光学素子51A、51Bを介して撮像素子上で結像する。撮像部4が撮像した撮像画像I2は、ロボット制御装置7に転送される(信号入力部71が撮像画像I2を受け付ける)。 FIG. 8 is a diagram showing an example of an captured image captured when correcting the axial deviation of the end effector in the observation system according to the first embodiment. As shown in FIG. 8, the field of view for imaging in the imaging unit 4 is set so that, for example, at least the end portions of the hand bodies 34A and 34B are within the field of view for imaging. Therefore, in the image pickup unit 4, the images of the ends of the hand bodies 34A and 34B are imaged on the image pickup element via the optical elements 51A and 51B. The captured image I2 captured by the imaging unit 4 is transferred to the robot control device 7 (the signal input unit 71 receives the captured image I2).

ステップS2において、算出部73は、撮像画像I2に基づいて、撮像部4の撮像光軸APと、エンドエフェクタ3の中心軸AMとのずれを示す軸ずれ量を算出する。ここで、エンドエフェクタ3に関しては、ハンド本体34A、34Bの端部のX−Y平面内における間隔の設計値等が予め定められている。但し、エンドエフェクタ3においては、エンドエフェクタ3のアーム接続部31と、マニピュレータ2のエフェクタ装着部25とを接続したときに、X−Y平面内におけるクリアランス等によって生じる取り付け誤差や、ロボットの作業中の振動等により生じる撮像部4のエンドエフェクタ3に対する取り付け角度の変化、位置ずれにより、撮像部4の撮像光軸APとエンドエフェクタ3の中心軸AMとの間隔が設計値の間隔(ベースラインBL)からずれる場合がある。かかる場合に、算出部73は、エンドエフェクタ3の軸ずれ量を算出し、算出した軸ずれ量を、軸ずれ量の補正値として記憶部72に格納する。なお、上述したように、軸ずれ量の算出や補正は、省略されてもよい。 In step S2, the calculation unit 73 calculates the amount of axis deviation indicating the deviation between the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 based on the captured image I2. Here, with respect to the end effector 3, the design value of the interval in the XY plane of the ends of the hand bodies 34A and 34B is predetermined. However, in the end effector 3, when the arm connecting portion 31 of the end effector 3 and the effector mounting portion 25 of the manipulator 2 are connected, a mounting error caused by a clearance in the XY plane or the like, or during robot work. The distance between the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 is the design value interval (baseline BL) due to changes in the mounting angle of the imaging unit 4 with respect to the end effector 3 and misalignment caused by vibration of the imaging unit 4. ) May deviate. In such a case, the calculation unit 73 calculates the amount of the axis deviation of the end effector 3, and stores the calculated amount of the axis deviation in the storage unit 72 as a correction value of the amount of the axis deviation. As described above, the calculation and correction of the amount of shaft misalignment may be omitted.

図9は、第1実施形態に係る観察システムにおいて、搬送元の位置にエンドエフェクタを移動させる状況の例を示す図である。ステップS3において、移動制御部75は、マニピュレータ2を動作させ、記憶部72等に予め記憶された対象物OBの搬送元の位置P1にエンドエフェクタ3を移動させる。なお、搬送元の位置P1へのエンドエフェクタ3の移動に関しては、撮像部4による撮像に応じて対象物OBを検出したうえで実施してもよい。具体的には、移動制御部75は、撮像部4によって撮像された撮像画像をもとに対象物OBを検出し、検出した位置からベースラインBL(又は、後述するベースラインBL’)分だけエンドエフェクタ3を移動させることにより実現してもよい。つまり、本実施形態では、対象物OBの検出用と、対象物OBの把持ずれ補正用との用途で、撮像部4を共用してもよい。 FIG. 9 is a diagram showing an example of a situation in which the end effector is moved to the position of the transport source in the observation system according to the first embodiment. In step S3, the movement control unit 75 operates the manipulator 2 to move the end effector 3 to the position P1 of the transport source of the object OB stored in advance in the storage unit 72 or the like. The movement of the end effector 3 to the position P1 of the transport source may be performed after detecting the object OB according to the imaging by the imaging unit 4. Specifically, the movement control unit 75 detects the object OB based on the captured image captured by the imaging unit 4, and only the baseline BL (or the baseline BL'described later) from the detected position. It may be realized by moving the end effector 3. That is, in the present embodiment, the imaging unit 4 may be shared for the purpose of detecting the object OB and for correcting the gripping deviation of the object OB.

ここで、搬送元の位置P1にエンドエフェクタ3を移動させる場合、移動制御部75は、マニピュレータ2の中心軸ACとエンドエフェクタ3の中心軸AMとのずれが存在するのであれば、搬送元の位置P1の座標を補正して移動させてもよい。マニピュレータ2の中心軸ACとエンドエフェクタ3の中心軸AMとのずれは、装着するエンドエフェクタ3により異なる場合がある。ずれが発生するエンドエフェクタ3を装着する場合は、記憶部72等に記憶されたずれ量を用いて搬送元の位置P1を補正する。移動制御部75は、撮像部4による対象物OBの検出後、エンドエフェクタ3の中心軸AMの軸ずれに基づいて補正した補正後のベースラインBL’分だけエンドエフェクタ3を移動させる。これにより、エンドエフェクタ3の中心軸AMが、対象物OBの搬送元の位置P1の座標上に位置する。このとき、ハンド本体34A、34Bが、ステージ8上に載置された対象物OBを挟んで両側に配置される。 Here, when the end effector 3 is moved to the position P1 of the transport source, the movement control unit 75 is the transport source if there is a deviation between the central axis AC of the manipulator 2 and the central axis AM of the end effector 3. The coordinates of the position P1 may be corrected and moved. The deviation between the central axis AC of the manipulator 2 and the central axis AM of the end effector 3 may differ depending on the end effector 3 to be mounted. When the end effector 3 in which the deviation occurs is mounted, the position P1 of the transport source is corrected by using the deviation amount stored in the storage unit 72 or the like. After the image pickup unit 4 detects the object OB, the movement control unit 75 moves the end effector 3 by the corrected baseline BL'corrected based on the axis deviation of the central axis AM of the end effector 3. As a result, the central axis AM of the end effector 3 is located on the coordinates of the transport source position P1 of the object OB. At this time, the hand bodies 34A and 34B are arranged on both sides of the object OB placed on the stage 8.

図10は、第1実施形態に係る観察システムのエンドエフェクタで対象物を把持した状態の例を示す図である。ステップS4において、エンドエフェクタ制御部76は、ハンド本体34A、34Bの端部に設けられた把持部35A、35Bに圧力を加えさせ、把持パッド37のそれぞれを内側に突出させる。これにより、図10に示すように、対象物OBは、把持パッド37のそれぞれに挟み込まれることで、エンドエフェクタ3に把持される。このとき、エンドエフェクタ3に把持された対象物OBは、大きさ、形状、及び姿勢のうち少なくとも1つが変化した状態となる場合がある。 FIG. 10 is a diagram showing an example of a state in which an object is gripped by an end effector of the observation system according to the first embodiment. In step S4, the end effector control unit 76 applies pressure to the grip portions 35A and 35B provided at the ends of the hand bodies 34A and 34B to project each of the grip pads 37 inward. As a result, as shown in FIG. 10, the object OB is gripped by the end effector 3 by being sandwiched between the gripping pads 37. At this time, the object OB gripped by the end effector 3 may be in a state in which at least one of the size, shape, and posture has changed.

図11は、第1実施形態に係る観察システムにおいて、対象物を把持したエンドエフェクタを光学系に移動させた状態の例を示す図である。ステップS5において、移動制御部75は、マニピュレータ2を動作させ、対象物OBを把持したエンドエフェクタ3を、光学系5が設けられたX−Y平面内の位置に移動させる。すなわち、移動制御部75は、目標位置にマニピュレータ2を移動させる。このとき、移動制御部75は、記憶部72等に予め記憶させた移動先の座標に基づいて、エンドエフェクタ3を移動させてもよい。このとき、折り曲げミラーである光学素子51Bは、対象物OBとマニピュレータ2(エンドエフェクタ3を含む)との間に配置された状態となる。また、エンドエフェクタ3の移動の際、補正部74は、軸ずれ量の補正値に基づいて、光学系5が設けられたX−Y平面内の位置の座標を補正してもよい。移動の結果、ハンド本体34A、34Bの間に、光学系5のミラー保持部材53が挿入された状態となる。換言すると、目標位置にマニピュレータ2が移動したときに、対象物OBとマニピュレータ2との間に、光学系5の光学素子の少なくとも一つ(ここでは、光学素子51B)が配置される。ステップS6において、撮像部4は、撮像制御部77の制御に従って、エンドエフェクタ3の把持部35A、35Bを撮像する。 FIG. 11 is a diagram showing an example of a state in which the end effector holding the object is moved to the optical system in the observation system according to the first embodiment. In step S5, the movement control unit 75 operates the manipulator 2 to move the end effector 3 holding the object OB to a position in the XY plane provided with the optical system 5. That is, the movement control unit 75 moves the manipulator 2 to the target position. At this time, the movement control unit 75 may move the end effector 3 based on the coordinates of the movement destination stored in advance in the storage unit 72 or the like. At this time, the optical element 51B, which is a bending mirror, is in a state of being arranged between the object OB and the manipulator 2 (including the end effector 3). Further, when the end effector 3 is moved, the correction unit 74 may correct the coordinates of the position in the XY plane provided with the optical system 5 based on the correction value of the amount of misalignment. As a result of the movement, the mirror holding member 53 of the optical system 5 is inserted between the hand bodies 34A and 34B. In other words, when the manipulator 2 moves to the target position, at least one of the optical elements of the optical system 5 (here, the optical element 51B) is arranged between the object OB and the manipulator 2. In step S6, the imaging unit 4 images the gripping units 35A and 35B of the end effector 3 under the control of the imaging control unit 77.

図12は、第1実施形態に係る観察システムにおいて、エンドエフェクタで把持している対象物を撮像した撮像画像の例を示す図である。なお、図12では、対象物OBが円柱状である場合を例に挙げる。ステップS7において、算出部73は、対象物OBの円形の上面の半径r、高さHの設計値を記憶部72から取得する。そして、算出部73は、画像処理により、撮像画像I3における対象物OBの上面の短径a(最短の半径)、長径(最長の半径)b、及び高さhを算出する。続いて、算出部73は、対象物OBの高さhについて、X方向の成分hx、Y方向の成分hyを求め、(数1)及び(数2)に基づいて、対象物OBのZ方向に対する傾き角θを得る。また、算出部73は、画像処理により、対象物OBの上面(又は下面)の中心位置を求め、エンドエフェクタ3の中心軸AMに対するずれ量(把持ずれ量に含む)を算出する。 FIG. 12 is a diagram showing an example of a captured image obtained by capturing an object held by an end effector in the observation system according to the first embodiment. In FIG. 12, the case where the object OB is columnar is taken as an example. In step S7, the calculation unit 73 acquires the design values of the radius r and the height H of the circular upper surface of the object OB from the storage unit 72. Then, the calculation unit 73 calculates the minor axis a (shortest radius), major axis (longest radius) b, and height h of the upper surface of the object OB in the captured image I3 by image processing. Subsequently, the calculation unit 73 obtains the component hx in the X direction and the component hy in the Y direction with respect to the height h of the object OB, and based on (Equation 1) and (Equation 2), the Z direction of the object OB. The tilt angle θ with respect to is obtained. Further, the calculation unit 73 obtains the center position of the upper surface (or lower surface) of the object OB by image processing, and calculates the deviation amount (included in the grip deviation amount) of the end effector 3 with respect to the central axis AM.

sinθy=hx/H ・・・(数1)
sinθx=hy/H ・・・(数2)
sinθy = hx / H ... (Equation 1)
sinθx = hy / H ... (Equation 2)

ステップS8において、補正部74は、算出部73が算出した変化量に基づいて、対象物OBの搬送先におけるエンドエフェクタ3の位置及び姿勢のうち少なくとも1つを補正する。より具体的には、補正部74は、エンドエフェクタ3で把持された対象物OBの上面(又は下面)の中心位置を、対象物OBの搬送先の位置P2に移動させるため、対象物OBの上面(又は下面)の中心位置とエンドエフェクタ3の中心軸AMとの位置ずれ量から、エンドエフェクタ3の中心軸AMの搬送先の位置座標を補正する。さらに、補正部74は、搬送先の位置P2において、エンドエフェクタ3に把持された対象物OBの姿勢(例えば、傾き等)が補正されるように、エンドエフェクタ3の角度を補正する。エンドエフェクタ制御部76は、補正部74が補正したエンドエフェクタ3の角度に基づいてマニピュレータ2を制御することでエンドエフェクタ3の姿勢を制御する。なお、対象物OBの変化量が所定の閾値以上となる場合は、搬送元や搬送先(任意の場所)で対象物OBを作業台等に置いたうえで、対象物OBをあらためて把持するようにエンドエフェクタ3を制御してもよい。また、対象物OBの変化量がさらに大きくなり、上記の所定の閾値よりも大きい閾値以上となる場合は、エンドエフェクタ3から対象物OBを除材するように制御してもよい。例えば、対象物OBの変化量が大きく、対象物OBを置き直してあらためて把持することが困難な状態においては、別途設ける除材のための専用台に対象物OBを移動させて、搬送先での作業に供する対象から除外してもよい。 In step S8, the correction unit 74 corrects at least one of the positions and postures of the end effector 3 at the transport destination of the object OB based on the amount of change calculated by the calculation unit 73. More specifically, the correction unit 74 moves the center position of the upper surface (or lower surface) of the object OB gripped by the end effector 3 to the position P2 of the transport destination of the object OB, so that the object OB The position coordinates of the transport destination of the central axis AM of the end effector 3 are corrected from the amount of misalignment between the center position of the upper surface (or the lower surface) and the central axis AM of the end effector 3. Further, the correction unit 74 corrects the angle of the end effector 3 so that the posture (for example, inclination) of the object OB gripped by the end effector 3 is corrected at the position P2 of the transport destination. The end effector control unit 76 controls the posture of the end effector 3 by controlling the manipulator 2 based on the angle of the end effector 3 corrected by the correction unit 74. If the amount of change in the object OB is equal to or greater than a predetermined threshold value, place the object OB on a workbench or the like at the transfer source or destination (arbitrary place), and then grip the object OB again. The end effector 3 may be controlled. Further, when the amount of change in the object OB becomes larger than the above-mentioned predetermined threshold value or more, the end effector 3 may be controlled to remove the object OB. For example, in a state where the amount of change in the object OB is large and it is difficult to reposition the object OB and grasp it again, the object OB is moved to a separately provided dedicated table for removing materials, and the object OB is moved to the transport destination. It may be excluded from the target for the work of.

ステップS9において、移動制御部75は、マニピュレータ2を動作させ、エンドエフェクタ3に把持された対象物OBの上面又は下面の中心位置を搬送先の位置P2に合わせる。さらに、エンドエフェクタ制御部76は、エンドエフェクタ3の角度を補正し、エンドエフェクタ3に把持された対象物OBの中心軸をZ方向に沿わせた状態とする。この状態で、移動制御部75及びエンドエフェクタ制御部76は、エンドエフェクタ3で把持した対象物OBを、搬送先の位置P2においてステージ8上に載置する。その後、エンドエフェクタ制御部76は、エンドエフェクタ3の把持パッド37のそれぞれに加えている圧力を解除し、挟み込んでいる対象物OBを解放させる。これらにより、対象物OBの搬送元の位置P1から搬送先の位置P2への搬送が完了する。 In step S9, the movement control unit 75 operates the manipulator 2 to align the center position of the upper surface or the lower surface of the object OB gripped by the end effector 3 with the position P2 of the transport destination. Further, the end effector control unit 76 corrects the angle of the end effector 3 so that the central axis of the object OB gripped by the end effector 3 is aligned with the Z direction. In this state, the movement control unit 75 and the end effector control unit 76 place the object OB gripped by the end effector 3 on the stage 8 at the transfer destination position P2. After that, the end effector control unit 76 releases the pressure applied to each of the gripping pads 37 of the end effector 3 to release the sandwiched object OB. As a result, the transfer of the object OB from the transfer source position P1 to the transfer destination position P2 is completed.

エンドエフェクタ3が対象物OBを把持して移動する場合は、移動による影響や、エンドエフェクタ3と対象物OBとの間で生じる滑りの影響等によって、対象物OBのさらなる把持ずれが発生する場合がある。このため、把持している対象物OBの光学系5を介した撮像は、対象物OBの搬送経路の途中のうち、搬送先の位置P2により近い位置で実施されることが好ましい。 When the end effector 3 grips and moves the object OB, the gripping deviation of the object OB may occur due to the influence of the movement, the influence of slippage between the end effector 3 and the object OB, and the like. There is. Therefore, it is preferable that the imaging of the gripped object OB via the optical system 5 is performed at a position closer to the transport destination position P2 in the middle of the transport path of the target object OB.

本実施形態によれば、観察システム1Aは、マニピュレータ2から独立して配置された光学系5を介して、対象物OBを撮像する撮像部4が、エンドエフェクタ3が保持(把持)する対象物OBを撮像可能な位置に、マニピュレータ2を移動させる。また、観察システム1Aは、マニピュレータ2から独立して配置された光学系5を介し、撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとを一致させる目標位置にマニピュレータ2を移動させる。この結果、観察システム1Aは、エンドエフェクタ3の基準軸(例えば、ハンド本体34A、34Bの中心軸)と対象物OBとの位置や角度の関係を高精度に把握することができ、対象物OBの保持(把持)や搬送先での対象物OBの解放時における作業精度を向上させることができる。また、観察システム1Aは、撮像部4を基準として、エンドエフェクタ3や、エンドエフェクタ3で把持する対象物OBの位置ずれを把握することができる。従って、観察システム1Aは、マニピュレータ2に装着されたエンドエフェクタ3や、エンドエフェクタ3で把持した対象物OBの位置を、より高精度に検出できる。また、本実施形態によれば、マニピュレータ2から独立して光学系5を配置するので、同一の光学系5を異なるマニピュレータ2(複数のマニピュレータ2)で共用するシステムを確立できる。 According to the present embodiment, in the observation system 1A, the image pickup unit 4 that images the object OB via the optical system 5 arranged independently of the manipulator 2 holds (grasps) the object by the end effector 3. The manipulator 2 is moved to a position where the OB can be imaged. Further, the observation system 1A is set at a target position where at least a part of the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 are aligned with each other via an optical system 5 arranged independently of the manipulator 2. Move the manipulator 2. As a result, the observation system 1A can grasp the relationship between the position and angle of the reference axis of the end effector 3 (for example, the central axes of the hand bodies 34A and 34B) and the object OB with high accuracy, and the object OB can be grasped with high accuracy. It is possible to improve the work accuracy at the time of holding (grasping) the object and releasing the object OB at the transport destination. Further, the observation system 1A can grasp the positional deviation of the end effector 3 and the object OB gripped by the end effector 3 with reference to the imaging unit 4. Therefore, the observation system 1A can detect the positions of the end effector 3 mounted on the manipulator 2 and the object OB gripped by the end effector 3 with higher accuracy. Further, according to the present embodiment, since the optical system 5 is arranged independently of the manipulator 2, it is possible to establish a system in which the same optical system 5 is shared by different manipulators 2 (plurality of manipulators 2).

上記実施形態では、ミラー保持部材53を、X−Y平面内で延びるように設けたが、これに限られない。図13は、第1実施形態の変形例に係る観察システムの構成例を示す側面図である。例えば、図13に示すように、ミラー保持部材53Bが、X−Y平面に対して傾いていてもよい。光学素子51Ab、光学素子51Bbは、ミラー保持部材53Bの延伸方向に沿って間隔を空けて設けられる。また、光学素子51Ab、51Bbは、ミラー保持部材53Bの延伸方向に傾斜して、互いに平行に設けられる。撮像部4の撮像光軸APは、撮像部4と光学素子51Abとの間、及び光学素子51Bbとステージ8との間で、それぞれ、X−Y平面に直交してZ方向に沿っている。図13に示す観察システム1Aの場合は、ミラー保持部材53Bが傾斜していても撮像光軸APの鉛直性は保たれるため、テレセントリックによる誤差は生じない。但し、図13に示す観察システム1Aでは、ベースラインBLがわずかに変わるため、傾斜角度の測定に基づいて補正すればよい。なお、ミラー保持部材53Bの傾きに合わせて、エンドエフェクタ3を傾斜させる制御を行ってもよい。 In the above embodiment, the mirror holding member 53 is provided so as to extend in the XY plane, but the present invention is not limited to this. FIG. 13 is a side view showing a configuration example of the observation system according to the modified example of the first embodiment. For example, as shown in FIG. 13, the mirror holding member 53B may be tilted with respect to the XY plane. The optical element 51Ab and the optical element 51Bb are provided at intervals along the stretching direction of the mirror holding member 53B. Further, the optical elements 51Ab and 51Bb are provided in parallel with each other so as to be inclined in the extending direction of the mirror holding member 53B. The image pickup optical axis AP of the image pickup unit 4 is orthogonal to the XY plane and along the Z direction between the image pickup unit 4 and the optical element 51Ab and between the optical element 51Bb and the stage 8, respectively. In the case of the observation system 1A shown in FIG. 13, even if the mirror holding member 53B is tilted, the verticality of the imaging optical axis AP is maintained, so that no error due to telecentricity occurs. However, in the observation system 1A shown in FIG. 13, since the baseline BL changes slightly, it may be corrected based on the measurement of the inclination angle. The end effector 3 may be tilted according to the tilt of the mirror holding member 53B.

[第2実施形態]
次に、第2実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[Second Embodiment]
Next, the second embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図14は、第2実施形態に係る観察システムの構成例を示す側面図である。図14に示すように、観察システム1Bは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3と、撮像部4と、光学系5Bと、ロボット制御装置7とを有する。観察システム1Bは、上記実施形態で説明した観察システム1Aに対して、光学系5Bの構成が主に異なる。 FIG. 14 is a side view showing a configuration example of the observation system according to the second embodiment. As shown in FIG. 14, the observation system 1B includes a manipulator (robot manipulator) 2, an end effector 3, an imaging unit 4, an optical system 5B, and a robot control device 7. The observation system 1B is mainly different in the configuration of the optical system 5B from the observation system 1A described in the above embodiment.

光学系5Bは、エンドエフェクタ3が装着されたマニピュレータ2から独立して配置される。対象物OBは、ステージ8の上面8a上に設定された搬送元の位置P1から搬送先の位置P2まで、マニピュレータ2(エンドエフェクタ3)によって搬送される。つまり、ステージ8の上面8aは、搬送元の位置P1、及び搬送先の位置P2を含む面である。本実施形態において、光学系5Bは、ステージ8の上面8aの裏側、すなわちステージ8の下側に設けられる。 The optical system 5B is arranged independently of the manipulator 2 to which the end effector 3 is mounted. The object OB is conveyed by the manipulator 2 (end effector 3) from the transfer source position P1 set on the upper surface 8a of the stage 8 to the transfer destination position P2. That is, the upper surface 8a of the stage 8 is a surface including the transfer source position P1 and the transfer destination position P2. In the present embodiment, the optical system 5B is provided on the back side of the upper surface 8a of the stage 8, that is, on the lower side of the stage 8.

ステージ8には、少なくとも光学系5Bが設けられた領域に対して光を透過する透光部8sが設けられる。光学系5Bは、透光部8sの下方に、複数の光学素子54A、光学素子54Bを有する。光学素子54A、54Bは、平板状のミラーを含む。光学素子54A、54Bは、ステージ8の上面8aと略平行なX−Y平面に沿った方向に、間隔をあけて図示しないミラー保持部材に設けられる。光学素子54A、54BのX−Y平面に沿った方向における間隔は、X−Y平面に沿った方向における撮像部4の撮像光軸APと、エンドエフェクタ3の中心軸AMとの間隔(ベースラインBL)と等しい(ほぼ等しい)。光学系5Bは、対象物OBの搬送元から搬送先までの搬送経路の途中に配置される場合がある。なお、透光部8sを設けずに、光が透過する領域は開口としてもよい。 The stage 8 is provided with a translucent portion 8s that transmits light to at least a region provided with the optical system 5B. The optical system 5B has a plurality of optical elements 54A and optical elements 54B below the light transmitting portion 8s. The optical elements 54A and 54B include a flat mirror. The optical elements 54A and 54B are provided on mirror holding members (not shown) at intervals in the direction along the XY plane substantially parallel to the upper surface 8a of the stage 8. The distance between the optical elements 54A and 54B in the direction along the XY plane is the distance (baseline) between the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 in the direction along the XY plane. BL) is equal to (almost equal). The optical system 5B may be arranged in the middle of the transport path from the transport source to the transport destination of the object OB. The region through which light is transmitted may be an opening without providing the light transmitting portion 8s.

光学素子54A、54Bは、撮像部4の撮像光軸APと光学素子54AとのX−Y平面内における位置を合わせるとともに、エンドエフェクタ3の中心軸AMと光学素子54BとのX−Y平面内における位置を合わせた状態で、ハンド本体34A、34Bの間の像が、撮像部4の撮像素子上で結像するように設けられる。撮像部4では、ハンド本体34A、34Bの端部、及び把持部35A、35Bの間で把持した対象物OB等を含む像が、撮像素子上で結像する。 The optical elements 54A and 54B align the image pickup optical axis AP of the image pickup unit 4 and the optical element 54A in the XY plane, and the central axis AM of the end effector 3 and the optical element 54B in the XY plane. The image between the hand bodies 34A and 34B is provided so as to form an image on the image sensor of the image pickup unit 4 in the state of aligning the positions in the above. In the image pickup unit 4, an image including the ends of the hand bodies 34A and 34B and the object OB and the like gripped between the gripping portions 35A and 35B is imaged on the image sensor.

観察システム1Bでは、上述したステップS2、ステップS5、及びステップS6等において、エンドエフェクタ3の中心軸AMの位置合わせの実施、把持パッド37で把持された対象物OBの撮像の実施の際、エンドエフェクタ3をX−Y平面内で光学系5Bに位置を合わせる。また、本実施形態では、目標位置にマニピュレータ2が移動したときに、対象物OBを挟んでマニピュレータ2の対面に、光学系5Bの光学素子の少なくとも一つ(ここでは、光学素子54B)が配置される。 In the observation system 1B, in steps S2, S5, S6, and the like described above, when the central axis AM of the end effector 3 is aligned and the object OB gripped by the gripping pad 37 is imaged, the end is end. Align the effector 3 with the optical system 5B in the XY plane. Further, in the present embodiment, when the manipulator 2 moves to the target position, at least one of the optical elements of the optical system 5B (here, the optical element 54B) is arranged so as to face the manipulator 2 with the object OB sandwiched between them. Will be done.

本実施形態によれば、観察システム1Bは、マニピュレータ2から独立して配置された光学系5Bを介して、対象物OBを撮像する撮像部4が、エンドエフェクタ3が保持(把持)する対象物OBを撮像可能な位置に、マニピュレータ2を移動させる。また、観察システム1Bは、マニピュレータ2から独立して配置された光学系5Bを介して、撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとを一致させる目標位置にマニピュレータ2を移動させる。この結果、観察システム1Bは、撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとを一致させた状態で、撮像部4により、エンドエフェクタ3を撮像することができる。従って、観察システム1Bは、エンドエフェクタ3の基準軸(例えば、ハンド本体34A、34Bの中心軸)と対象物OBとの位置や角度の関係を高精度に把握することができ、対象物OBの保持(把持)や搬送先での対象物OBの解放時における作業精度を向上させることができる。また、観察システム1Bは、撮像部4を基準として、エンドエフェクタ3や、エンドエフェクタ3で把持する対象物OBの位置ずれを把握することができる。従って、観察システム1Bは、マニピュレータ2に装着されたエンドエフェクタ3や、エンドエフェクタ3で把持した対象物OBの位置を、より高精度に検出できる。加えて、観察システム1Bは、光学素子54A、54Bがステージ8の下側(裏側)に設けられているので、ステージ8上に光学系5Bを要しない。この結果、観察システム1Bは、エンドエフェクタ3を備えるマニピュレータ2の動作や移動において、光学系5Bを避ける制御を要しない。さらに、マニピュレータ2の移動時に、障害となる物体がステージ8の上面8aに配置されないことから、搬送元の近傍に観察システム1Bを配置することができる。このため、観察システム1Bの位置から搬送先までのマニピュレータ2による搬送距離を小さくすることができ、搬送時の振動等による対象物OBの把持ずれの影響を抑制することが可能になる。また、本実施形態によれば、マニピュレータ2から独立して光学系5Bを配置するので、同一の光学系5Bを異なるマニピュレータ2(複数のマニピュレータ2)で共用するシステムを確立できる。 According to the present embodiment, in the observation system 1B, the image pickup unit 4 that images the object OB via the optical system 5B arranged independently of the manipulator 2 holds (grasps) the object by the end effector 3. The manipulator 2 is moved to a position where the OB can be imaged. Further, the observation system 1B has a target position at which at least a part of the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 are aligned with each other via an optical system 5B arranged independently of the manipulator 2. Move the manipulator 2 to. As a result, the observation system 1B can image the end effector 3 by the imaging unit 4 in a state where at least a part of the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 are aligned with each other. it can. Therefore, the observation system 1B can grasp the relationship between the position and angle of the reference axis of the end effector 3 (for example, the central axes of the hand bodies 34A and 34B) and the object OB with high accuracy, and can grasp the relationship of the position and angle of the object OB with high accuracy. It is possible to improve the work accuracy at the time of holding (grasping) and releasing the object OB at the transport destination. Further, the observation system 1B can grasp the positional deviation of the end effector 3 and the object OB gripped by the end effector 3 with reference to the imaging unit 4. Therefore, the observation system 1B can detect the positions of the end effector 3 mounted on the manipulator 2 and the object OB gripped by the end effector 3 with higher accuracy. In addition, the observation system 1B does not require an optical system 5B on the stage 8 because the optical elements 54A and 54B are provided on the lower side (back side) of the stage 8. As a result, the observation system 1B does not require control to avoid the optical system 5B in the operation and movement of the manipulator 2 including the end effector 3. Further, since the obstructive object is not arranged on the upper surface 8a of the stage 8 when the manipulator 2 is moved, the observation system 1B can be arranged in the vicinity of the transport source. Therefore, the transport distance by the manipulator 2 from the position of the observation system 1B to the transport destination can be reduced, and the influence of the gripping deviation of the object OB due to vibration during transport can be suppressed. Further, according to the present embodiment, since the optical system 5B is arranged independently of the manipulator 2, it is possible to establish a system in which the same optical system 5B is shared by different manipulators 2 (plural manipulators 2).

[第3実施形態]
次に、第3実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[Third Embodiment]
Next, the third embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図15は、第3実施形態に係る観察システムの構成例を示す側面図である。図15に示すように、観察システム1Cは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3と、撮像部4と、光学系5Cと、ロボット制御装置7とを有する。観察システム1Cは、上記実施形態で説明した観察システム1A、1Bに対して、光学系5Cの構成が主に異なる。 FIG. 15 is a side view showing a configuration example of the observation system according to the third embodiment. As shown in FIG. 15, the observation system 1C includes a manipulator (robot manipulator) 2, an end effector 3, an imaging unit 4, an optical system 5C, and a robot control device 7. The observation system 1C is mainly different from the observation systems 1A and 1B described in the above embodiment in the configuration of the optical system 5C.

光学系5Cは、エンドエフェクタ3が装着されたマニピュレータ2から独立して配置される。対象物OBは、ステージ8の上面8a上に設定された搬送元の位置P1から搬送先の位置P2まで、マニピュレータ2(エンドエフェクタ3)によって搬送される。つまり、ステージ8の上面8aは、搬送元の位置P1、及び搬送先の位置P2を含む面である。本実施形態において、光学系5Cは、ステージ8の上面8aの裏側、すなわちステージ8の下側に設けられる。 The optical system 5C is arranged independently of the manipulator 2 to which the end effector 3 is mounted. The object OB is conveyed by the manipulator 2 (end effector 3) from the transfer source position P1 set on the upper surface 8a of the stage 8 to the transfer destination position P2. That is, the upper surface 8a of the stage 8 is a surface including the transfer source position P1 and the transfer destination position P2. In the present embodiment, the optical system 5C is provided on the back side of the upper surface 8a of the stage 8, that is, on the lower side of the stage 8.

ステージ8には、少なくとも光学系5Cが設けられた領域に対して光を透過する透光部8sが設けられる。光学系5Cは、透光部8sの下方に、複数の光学素子54A、光学素子54Cを有する。光学素子54A、54Cは、ステージ8の上面8aと略平行なX−Y平面に沿った方向に、間隔をあけて図示しないミラー保持部材に設けられる。光学素子54A、54CのX−Y平面に沿った方向における間隔は、X−Y平面に沿った方向における撮像部4の撮像光軸APと、エンドエフェクタ3の中心軸AMとの間隔(ベースラインBL)と等しい(ほぼ等しい)。光学系5Cは、対象物OBの搬送元から搬送先までの搬送経路の途中に配置される場合がある。なお、透光部8sを設けずに、光が透過する領域は開口としてもよい。 The stage 8 is provided with a translucent portion 8s that transmits light to at least a region provided with the optical system 5C. The optical system 5C has a plurality of optical elements 54A and optical elements 54C below the light transmitting portion 8s. The optical elements 54A and 54C are provided on mirror holding members (not shown) at intervals in the direction along the XY plane substantially parallel to the upper surface 8a of the stage 8. The distance between the optical elements 54A and 54C in the direction along the XY plane is the distance (baseline) between the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 in the direction along the XY plane. BL) is equal to (almost equal). The optical system 5C may be arranged in the middle of the transport path from the transport source to the transport destination of the object OB. The region through which light is transmitted may be an opening without providing the light transmitting portion 8s.

撮像部4の撮像光軸APに対応するように設けられた光学素子54Aは、平板状のミラー等である。また、エンドエフェクタ3の中心軸AMに対応するように設けられた光学素子54Cは、例えば、凸状に湾曲した反射面54fを有する凸面鏡である。光学素子54A、54Cは、撮像部4の撮像光軸APと光学素子54AとのX−Y平面内における位置を合わせるとともに、エンドエフェクタ3の中心軸AMと光学素子54CとのX−Y平面内における位置を合わせた状態で、ハンド本体34A、34Bの間の像が、撮像部4の撮像素子上で結像するように設けられる。撮像部4では、ハンド本体34A、34Bの端部、及び把持部35A、35Bの間で把持した対象物OB等を含む像が、撮像素子上で結像する。なお、光学系5Cに含まれる光学素子54Cは、「曲面ミラー」に対応する。 The optical element 54A provided so as to correspond to the imaging optical axis AP of the imaging unit 4 is a flat plate-shaped mirror or the like. Further, the optical element 54C provided so as to correspond to the central axis AM of the end effector 3 is, for example, a convex mirror having a reflecting surface 54f curved in a convex shape. The optical elements 54A and 54C align the image pickup optical axis AP of the image pickup unit 4 and the optical element 54A in the XY plane, and the central axis AM of the end effector 3 and the optical element 54C in the XY plane. The image between the hand bodies 34A and 34B is provided so as to form an image on the image sensor of the image pickup unit 4 in the state of aligning the positions in the above. In the image pickup unit 4, an image including the ends of the hand bodies 34A and 34B and the object OB and the like gripped between the gripping portions 35A and 35B is imaged on the image sensor. The optical element 54C included in the optical system 5C corresponds to a "curved surface mirror".

観察システム1Cでは、上述したステップS2、ステップS5、及びステップS6等において、エンドエフェクタ3の中心軸AMの位置合わせの実施、把持パッド37で把持された対象物OBの撮像の実施の際、エンドエフェクタ3をX−Y平面内で光学系5Cに位置を合わせる。また、本実施形態では、目標位置にマニピュレータ2が移動したときに、対象物OBを挟んでマニピュレータ2の対面に、光学系5Cの光学素子の少なくとも一つ(ここでは、光学素子54C)が配置される。 In the observation system 1C, in steps S2, S5, S6, and the like described above, when the central axis AM of the end effector 3 is aligned and the object OB gripped by the gripping pad 37 is imaged, the end is end. Align the effector 3 with the optical system 5C in the XY plane. Further, in the present embodiment, when the manipulator 2 moves to the target position, at least one of the optical elements of the optical system 5C (here, the optical element 54C) is arranged so as to face the manipulator 2 with the object OB sandwiched between them. Will be done.

本実施形態によれば、観察システム1Cは、マニピュレータ2から独立して配置された光学系5Cを介して、対象物OBを撮像する撮像部4が、エンドエフェクタ3が保持(把持)する対象物OBを撮像可能な位置に、マニピュレータ2を移動させる。また、観察システム1Cは、マニピュレータ2から独立して配置された光学系5Cを介して、撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとを一致させる目標位置にマニピュレータ2を移動させる。この結果、観察システム1Cは、撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとを一致させた状態で、撮像部4により、エンドエフェクタ3を撮像することができる。従って、観察システム1Cは、エンドエフェクタ3と対象物OBとの位置や角度の関係を高精度に把握することができ、対象物OBの保持(把持)や搬送先での対象物OBの解放時における作業精度を向上させることができる。また、観察システム1Cは、撮像部4を基準として、エンドエフェクタ3や、エンドエフェクタ3で把持する対象物OBの位置ずれを把握することができる。従って、観察システム1Cは、マニピュレータ2に装着されたエンドエフェクタ3や、エンドエフェクタ3で把持した対象物OBの位置を、より高精度に検出できる。加えて、観察システム1Cは、光学素子54A、54Cがステージ8の下側(裏側)に設けられているので、ステージ8上に光学系5Cを要しない。この結果、観察システム1Cは、エンドエフェクタ3を備えるマニピュレータ2の動作や移動において、光学系5Cを避ける制御を要しない。さらに、観察システム1Cは、光学素子54Cを凸面鏡とするので、光学素子54Cの小型化をはかることができる。また、観察システム1Cは、光学素子54を凸面鏡とするので、小型化をはかりつつ、平面鏡等と比較して広い領域を撮像部4で撮像することができる。また、本実施形態によれば、マニピュレータ2から独立して光学系5Cを配置するので、同一の光学系5を異なるマニピュレータ2(複数のマニピュレータ2)で共用するシステムを確立できる。 According to the present embodiment, in the observation system 1C, the image pickup unit 4 that images the object OB via the optical system 5C arranged independently of the manipulator 2 holds (grasps) the object by the end effector 3. The manipulator 2 is moved to a position where the OB can be imaged. Further, the observation system 1C has a target position at which at least a part of the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 are aligned with each other via the optical system 5C arranged independently of the manipulator 2. Move the manipulator 2 to. As a result, the observation system 1C can image the end effector 3 by the imaging unit 4 in a state where at least a part of the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3 are aligned with each other. it can. Therefore, the observation system 1C can grasp the relationship between the position and angle of the end effector 3 and the object OB with high accuracy, and when the object OB is held (grasped) or the object OB is released at the transport destination. It is possible to improve the work accuracy in. Further, the observation system 1C can grasp the positional deviation of the end effector 3 and the object OB gripped by the end effector 3 with reference to the imaging unit 4. Therefore, the observation system 1C can detect the positions of the end effector 3 mounted on the manipulator 2 and the object OB gripped by the end effector 3 with higher accuracy. In addition, the observation system 1C does not require an optical system 5C on the stage 8 because the optical elements 54A and 54C are provided on the lower side (back side) of the stage 8. As a result, the observation system 1C does not require control to avoid the optical system 5C in the operation and movement of the manipulator 2 including the end effector 3. Further, since the observation system 1C uses the optical element 54C as a convex mirror, the optical element 54C can be miniaturized. Further, since the observation system 1C uses the optical element 54 as a convex mirror, the imaging unit 4 can image a wider area as compared with a plane mirror or the like while reducing the size. Further, according to the present embodiment, since the optical system 5C is arranged independently of the manipulator 2, it is possible to establish a system in which the same optical system 5 is shared by different manipulators 2 (plurality of manipulators 2).

[第4実施形態]
次に、第4実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[Fourth Embodiment]
Next, the fourth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図16は、第4実施形態に係る観察システムの構成例を示す側面図である。図16に示すように、観察システム1Dは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3Dと、撮像部4と、光学系5Bと、ロボット制御装置7Dとを有する。観察システム1Dは、上記実施形態で説明した観察システム1B、1Cに対して、エンドエフェクタ3D、ロボット制御装置7Dの構成が主に異なる。 FIG. 16 is a side view showing a configuration example of the observation system according to the fourth embodiment. As shown in FIG. 16, the observation system 1D includes a manipulator (robot manipulator) 2, an end effector 3D, an imaging unit 4, an optical system 5B, and a robot control device 7D. The observation system 1D mainly differs from the observation systems 1B and 1C described in the above embodiment in the configurations of the end effector 3D and the robot control device 7D.

エンドエフェクタ3Dは、マニピュレータ2の第2アーム23の第1アーム22側とは反対の端部におけるエフェクタ装着部25に着脱可能に装着される。エンドエフェクタ3Dは、例えば、図示しない加工対象物に所定の加工を施すドリル刃等の工具(対象物)100である。なお、エンドエフェクタ3Dは、ドリル刃等の工具に限られず、例えばねじ締め可能な工具であってもよい。エンドエフェクタ3Dは、例えば、エフェクタ装着部25に対して着脱可能なアーム接続部31Dと、工具本体101とを備える。工具本体101は、アーム接続部31Dから、第2アーム23の中心軸ACと平行な方向に沿って、第2アーム23側とは反対の方向に延びている。以下、工具本体101の中心位置を、エンドエフェクタ3Dの中心軸AMとする。エンドエフェクタ3Dは、第2アーム23のエフェクタ装着部25にアーム接続部31Dを接続した状態で、中心軸AMが第2アーム23の中心軸ACに合致する。 The end effector 3D is detachably attached to the effector mounting portion 25 at the end opposite to the first arm 22 side of the second arm 23 of the manipulator 2. The end effector 3D is, for example, a tool (object) 100 such as a drill blade that performs a predetermined machining on a machining object (not shown). The end effector 3D is not limited to a tool such as a drill blade, and may be, for example, a tool that can be screwed. The end effector 3D includes, for example, an arm connecting portion 31D that can be attached to and detached from the effector mounting portion 25, and a tool body 101. The tool body 101 extends from the arm connecting portion 31D in a direction parallel to the central axis AC of the second arm 23 and in a direction opposite to that of the second arm 23 side. Hereinafter, the central position of the tool body 101 is defined as the central axis AM of the end effector 3D. In the end effector 3D, the central axis AM matches the central axis AC of the second arm 23 in a state where the arm connecting portion 31D is connected to the effector mounting portion 25 of the second arm 23.

撮像部4は、エンドエフェクタ3Dの工具本体101を撮像可能である。より具体的には、撮像部4は、撮像部4の撮像光軸APに対する、エンドエフェクタ3Dの工具本体101を撮像可能である。光学系5Bは、上記第2実施形態と同様に、エンドエフェクタ3Dが装着されたマニピュレータ2から独立して配置される。光学素子54A、54Bは、エンドエフェクタ3Dの工具本体101の像が、光学素子54A、54Bを介して、撮像部4の撮像素子上で結像するように設けられる。このとき、光学素子54A、54Bがステージ8の下側(裏側)に設けられるので、工具本体101と干渉することなく、工具本体101をZ方向に沿って下方の端部から撮像できる。なお、光学素子54Bは、上記第3実施形態と同様に、凸面鏡としての光学素子54Cであってもよい。 The imaging unit 4 can image the tool body 101 of the end effector 3D. More specifically, the imaging unit 4 can image the tool body 101 of the end effector 3D with respect to the imaging optical axis AP of the imaging unit 4. The optical system 5B is arranged independently of the manipulator 2 to which the end effector 3D is mounted, as in the second embodiment. The optical elements 54A and 54B are provided so that the image of the tool body 101 of the end effector 3D is formed on the image pickup element of the image pickup unit 4 via the optical elements 54A and 54B. At this time, since the optical elements 54A and 54B are provided on the lower side (back side) of the stage 8, the tool body 101 can be imaged from the lower end along the Z direction without interfering with the tool body 101. The optical element 54B may be an optical element 54C as a convex mirror, as in the third embodiment.

ロボット制御装置7D(図5参照)は、マニピュレータ2、エンドエフェクタ3D、及び撮像部4等の動作を制御する。第4実施形態における記憶部72は、ロボット制御装置7Dのプログラム、各種の設定値、工具本体101の外部外形寸法、及び工具本体101の加工位置座標等の各種データを記憶する。第4実施形態における算出部73は、エンドエフェクタ3Dを撮像部4により撮像した画像と、エンドエフェクタ3Dに関する情報とに基づいて、エンドエフェクタ3Dの中心軸AMのずれを示す軸ずれ量を算出する。 The robot control device 7D (see FIG. 5) controls the operations of the manipulator 2, the end effector 3D, the image pickup unit 4, and the like. The storage unit 72 in the fourth embodiment stores various data such as a program of the robot control device 7D, various set values, external external dimensions of the tool body 101, and machining position coordinates of the tool body 101. The calculation unit 73 in the fourth embodiment calculates the amount of axial deviation indicating the deviation of the central axis AM of the end effector 3D based on the image of the end effector 3D captured by the imaging unit 4 and the information about the end effector 3D. ..

第4実施形態における補正部74は、算出部73が算出したエンドエフェクタ3Dの中心軸AMの軸ずれ量に基づいて、マニピュレータ2の移動先の位置やエンドエフェクタ3Dの姿勢等を補正する。第4実施形態における移動制御部75は、マニピュレータ2によるエンドエフェクタ3Dの移動動作を制御する。移動制御部75は、例えば、補正部74が補正したマニピュレータ2の移動先の位置に応じて、マニピュレータ2を動作させる。移動制御部75は、光学系5Bを介した撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3Dの中心軸AMとを一致させる目標位置にマニピュレータ2を移動させる。第4実施形態におけるエンドエフェクタ制御部76は、工具本体101の動作を制御する。エンドエフェクタ制御部76は、例えば、補正部74が補正したエンドエフェクタ3Dの姿勢等に基づいて、マニピュレータ2を制御してエンドエフェクタ3Dの姿勢を制御する。 The correction unit 74 in the fourth embodiment corrects the position of the movement destination of the manipulator 2 and the posture of the end effector 3D based on the amount of misalignment of the central axis AM of the end effector 3D calculated by the calculation unit 73. The movement control unit 75 in the fourth embodiment controls the movement operation of the end effector 3D by the manipulator 2. The movement control unit 75 operates the manipulator 2 according to, for example, the position of the movement destination of the manipulator 2 corrected by the correction unit 74. The movement control unit 75 moves the manipulator 2 to a target position that matches at least a part of the image pickup optical axis AP of the image pickup unit 4 via the optical system 5B with the central axis AM of the end effector 3D. The end effector control unit 76 in the fourth embodiment controls the operation of the tool body 101. The end effector control unit 76 controls the manipulator 2 to control the posture of the end effector 3D, for example, based on the posture of the end effector 3D corrected by the correction unit 74.

図17は、第4実施形態に係るロボット制御装置における処理の流れの例を示すフローチャートである。ステップS11において、工具本体101を用いた加工等が行われる場合は、上述した第1実施形態のステップS1と同様に、撮像部4のステージ8に対する位置合わせが実施される。ステップS12において、移動制御部75は、マニピュレータ2を所定位置に移動させ、マニピュレータ2の端部に工具100を装着させる。より具体的には、マニピュレータ2への工具100の装着は、観察システム1Dが備える工具の交換機構(図示せず)等により自動で行われてもよい。なお、マニピュレータ2への工具100の装着は、作業者が手作業により行ってもよい。 FIG. 17 is a flowchart showing an example of a processing flow in the robot control device according to the fourth embodiment. When machining or the like using the tool body 101 is performed in step S11, the positioning of the imaging unit 4 with respect to the stage 8 is performed in the same manner as in step S1 of the first embodiment described above. In step S12, the movement control unit 75 moves the manipulator 2 to a predetermined position and attaches the tool 100 to the end of the manipulator 2. More specifically, the tool 100 may be automatically attached to the manipulator 2 by a tool changing mechanism (not shown) or the like provided in the observation system 1D. The tool 100 may be manually attached to the manipulator 2.

ステップS13において、移動制御部75は、マニピュレータ2を移動して、エンドエフェクタ3Dを光学系5Bに対応する位置に配置させる。このとき、移動先の座標を記憶部72等に予め記憶させ、移動制御部75は、記憶部72に記憶された座標値に基づいてマニピュレータ2を移動させてもよい。この状態で、撮像部4の撮像光軸APと光学素子54AとのX−Y平面内における位置、及びエンドエフェクタ3Dの中心軸AMと光学素子54BとのX−Y平面内における位置を合わせる。 In step S13, the movement control unit 75 moves the manipulator 2 to arrange the end effector 3D at a position corresponding to the optical system 5B. At this time, the coordinates of the movement destination may be stored in advance in the storage unit 72 or the like, and the movement control unit 75 may move the manipulator 2 based on the coordinate values stored in the storage unit 72. In this state, the positions of the imaging optical axis AP of the imaging unit 4 and the optical element 54A in the XY plane and the positions of the central axis AM of the end effector 3D and the optical element 54B in the XY plane are aligned.

ステップS14において、撮像制御部77は、撮像部4による撮像処理を制御する。撮像部4では、工具本体101の端部(Z方向の下方から見た端部)が、光学素子54A、54Bを介して撮像素子上で結像する。ステップS15において、算出部73は、撮像部4によって撮像された撮像画像に基づいて、撮像部4の撮像光軸APと、エンドエフェクタ3Dの工具本体101の中心軸AMとの軸ずれ量を算出する。 In step S14, the image pickup control unit 77 controls the image pickup process by the image pickup unit 4. In the image pickup unit 4, the end portion of the tool body 101 (the end portion viewed from below in the Z direction) is imaged on the image pickup element via the optical elements 54A and 54B. In step S15, the calculation unit 73 calculates the amount of misalignment between the image pickup optical axis AP of the image pickup unit 4 and the central axis AM of the tool body 101 of the end effector 3D based on the image captured by the image pickup unit 4. To do.

ステップS16において、補正部74は、算出部73が算出した軸ずれ量に基づいて、工具本体101による加工位置(移動先の位置)を補正する。ステップS17において、移動制御部75は、補正部74が補正した加工位置にマニピュレータ2を移動させることで、エンドエフェクタ3Dの工具本体101を移動させる。その後、マニピュレータ2及びエンドエフェクタ3Dは、工具本体101による加工対象物の加工を実施する。 In step S16, the correction unit 74 corrects the machining position (movement destination position) by the tool body 101 based on the axis deviation amount calculated by the calculation unit 73. In step S17, the movement control unit 75 moves the tool body 101 of the end effector 3D by moving the manipulator 2 to the machining position corrected by the correction unit 74. After that, the manipulator 2 and the end effector 3D process the object to be machined by the tool body 101.

本実施形態によれば、観察システム1Dは、マニピュレータ2から独立して配置された光学系5Bを介して、撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3Dの中心軸AMとを一致させる目標位置にマニピュレータ2を移動させる。この結果、観察システム1Dは、撮像部4の撮像光軸APと、エンドエフェクタ3Dの中心軸AMとを一致させた状態で、撮像部4により、エンドエフェクタ3Dの工具本体101を撮像することができ、工具本体101との位置関係を高精度に把握できる。従って、観察システム1Dは、マニピュレータ2に装着されたエンドエフェクタ3Dの位置を、より高精度に検出できる。なお、本実施形態では、エンドエフェクタ3Dを工具本体101としているが、第1実施形態で説明したエンドエフェクタ3のハンド本体34A、34Bが工具本体101を把持する構成でもよい。また、本実施形態によれば、マニピュレータ2から独立して光学系5Bを配置するので、同一の光学系5Bを異なるマニピュレータ2(複数のマニピュレータ2)で共用するシステムを確立できる。 According to the present embodiment, the observation system 1D includes at least a part of the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3D via the optical system 5B arranged independently of the manipulator 2. Move the manipulator 2 to the target position to match. As a result, the observation system 1D can image the tool body 101 of the end effector 3D by the image pickup unit 4 in a state where the image pickup optical axis AP of the image pickup unit 4 and the central axis AM of the end effector 3D are matched. It is possible to grasp the positional relationship with the tool body 101 with high accuracy. Therefore, the observation system 1D can detect the position of the end effector 3D mounted on the manipulator 2 with higher accuracy. In the present embodiment, the end effector 3D is the tool body 101, but the hand bodies 34A and 34B of the end effector 3 described in the first embodiment may grip the tool body 101. Further, according to the present embodiment, since the optical system 5B is arranged independently of the manipulator 2, it is possible to establish a system in which the same optical system 5B is shared by different manipulators 2 (plural manipulators 2).

[第5実施形態]
次に、第5実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[Fifth Embodiment]
Next, a fifth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図18は、第5実施形態に係る観察システムの構成例を示す側面図である。図18に示すように、観察システム1Eは、マニピュレータ2と、エンドエフェクタ3と、撮像部4Eと、光学系5Eと、ロボット制御装置7Eとを有する。観察システム1Eは、上記第1実施形態で説明した観察システム1Aに対して、撮像部4E、光学系5E、及びロボット制御装置7Eの構成が主に異なる。 FIG. 18 is a side view showing a configuration example of the observation system according to the fifth embodiment. As shown in FIG. 18, the observation system 1E includes a manipulator 2, an end effector 3, an imaging unit 4E, an optical system 5E, and a robot control device 7E. The observation system 1E is mainly different from the observation system 1A described in the first embodiment in the configurations of the imaging unit 4E, the optical system 5E, and the robot control device 7E.

撮像部4Eは、図示しない撮像素子を備える。撮像部4Eの撮像素子は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、又はCCDイメージセンサ等である。撮像部4Eは、撮像素子の撮像結果(観察結果、検出結果)をロボット制御装置7Eに出力する。本実施形態において、撮像部4Eは、マニピュレータ2に設けられる。マニピュレータ2は、撮像部4Eを支持する支持部材26Eを備える。支持部材26Eは、例えば、マニピュレータ2の第2アーム23に設けられる。支持部材26Eは、第2アーム23の中心軸ACに対して交差(直交)して延び、第2アーム23から側方に突出した状態で第2アーム23に設けられる。このような撮像部4Eは、エンドエフェクタ3が把持する(している)対象物OBを撮像する。 The image pickup unit 4E includes an image pickup element (not shown). The image sensor of the image pickup unit 4E is, for example, a CMOS image sensor in which a plurality of pixels are two-dimensionally arranged, a CCD image sensor, or the like. The image pickup unit 4E outputs the image pickup result (observation result, detection result) of the image pickup element to the robot control device 7E. In the present embodiment, the imaging unit 4E is provided on the manipulator 2. The manipulator 2 includes a support member 26E that supports the image pickup unit 4E. The support member 26E is provided, for example, on the second arm 23 of the manipulator 2. The support member 26E extends so as to intersect (orthogonally) the central axis AC of the second arm 23, and is provided on the second arm 23 in a state of projecting laterally from the second arm 23. Such an imaging unit 4E images an object OB held (held) by the end effector 3.

光学系5Eは、エンドエフェクタ3が装着されたマニピュレータ2に設けられる。光学系5Eは、例えば、1つの光学素子55を備える。光学素子55は、例えば、平板状のミラーであり、撮像部4Eの撮像光軸AP、及びエンドエフェクタ3の中心軸AMの双方に対して所定の角度(例えば、45度)で傾斜して設けられる。本実施形態において、マニピュレータ2及びエンドエフェクタ3には、中心軸AMに沿って延びる孔39が形成されている。具体的には、マニピュレータ2及びエンドエフェクタ3において、支持部材26E、エフェクタ装着部25、アーム接続部31、及び基部33にわたって、中空となっている。なお、光学素子55を含む光学系5E等のマニピュレータ2に支持される光学系は、「第2光学系」に対応する。 The optical system 5E is provided on the manipulator 2 to which the end effector 3 is mounted. The optical system 5E includes, for example, one optical element 55. The optical element 55 is, for example, a flat mirror, and is provided so as to be inclined at a predetermined angle (for example, 45 degrees) with respect to both the imaging optical axis AP of the imaging unit 4E and the central axis AM of the end effector 3. Be done. In the present embodiment, the manipulator 2 and the end effector 3 are formed with holes 39 extending along the central axis AM. Specifically, in the manipulator 2 and the end effector 3, the support member 26E, the effector mounting portion 25, the arm connecting portion 31, and the base portion 33 are hollow. The optical system supported by the manipulator 2 such as the optical system 5E including the optical element 55 corresponds to the “second optical system”.

光学素子55は、撮像部4の撮像光軸APの少なくとも一部をエンドエフェクタ3の中心軸AMに一致させるように配置される。光学素子55は、孔39を通して、エンドエフェクタ3のハンド本体34A、34Bの間の像が、撮像部4Eの撮像素子上で結像するように設けられる。つまり、光学系5Eは、エンドエフェクタ3の端部、及びエンドエフェクタ3の端部が把持する(している)対象物OBの像を、撮像部4Eの撮像素子上に結像させる。 The optical element 55 is arranged so that at least a part of the imaging optical axis AP of the imaging unit 4 coincides with the central axis AM of the end effector 3. The optical element 55 is provided so that an image between the hand bodies 34A and 34B of the end effector 3 is formed on the image pickup element of the image pickup unit 4E through the hole 39. That is, the optical system 5E forms an image of the end portion of the end effector 3 and the object OB held (held) by the end portion of the end effector 3 on the image sensor of the image pickup unit 4E.

ロボット制御装置7E(図5参照)は、マニピュレータ2、エンドエフェクタ3、及び撮像部4Eの動作を制御する。第5実施形態における算出部73は、エンドエフェクタ3が把持した対象物OBを撮像部4Eにより撮像した画像と、エンドエフェクタ3が把持した対象物OBの大きさ及び形状等に関する情報とに基づいて、把持前に対して把持後の対象物OBの状態の変化量を算出する。 The robot control device 7E (see FIG. 5) controls the operations of the manipulator 2, the end effector 3, and the imaging unit 4E. The calculation unit 73 in the fifth embodiment is based on an image obtained by the imaging unit 4E of the object OB held by the end effector 3 and information on the size and shape of the object OB held by the end effector 3. , The amount of change in the state of the object OB after gripping is calculated with respect to that before gripping.

第5実施形態における補正部74は、算出部73が算出した変化量に基づいて、対象物OBの搬送先におけるエンドエフェクタ3の位置及び姿勢のうち少なくとも1つを補正する。第5実施形態における移動制御部75は、補正部74が補正したマニピュレータ2の移動先の位置(搬送先の位置P2)に応じて、マニピュレータ2を動作させる。第5実施形態におけるエンドエフェクタ制御部76は、補正部74が補正した姿勢に基づいて、マニピュレータ2を制御してエンドエフェクタ3の姿勢を制御する。 The correction unit 74 in the fifth embodiment corrects at least one of the positions and postures of the end effector 3 at the transport destination of the object OB based on the amount of change calculated by the calculation unit 73. The movement control unit 75 in the fifth embodiment operates the manipulator 2 according to the position of the movement destination of the manipulator 2 corrected by the correction unit 74 (the position P2 of the transport destination). The end effector control unit 76 in the fifth embodiment controls the manipulator 2 to control the posture of the end effector 3 based on the posture corrected by the correction unit 74.

図19は、第5実施形態に係るロボット制御装置における処理の流れの例を示すフローチャートである。ステップS21において、上述した第1実施形態のステップS1と同様に、撮像部4のステージ8に対する位置合わせが実施される。具体的には、移動制御部75は、撮像部4Eの撮像光軸APのX−Y平面内における位置を、ステージ8上の基準部材9(図7参照)の基準マーク91の位置に合わせる。そして、撮像制御部77は、撮像部4Eに基準マーク91を撮像させる。撮像部4Eによって撮像された撮像画像は、ロボット制御装置7Eに転送される(信号入力部71が撮像画像を受け付ける)。 FIG. 19 is a flowchart showing an example of a processing flow in the robot control device according to the fifth embodiment. In step S21, the positioning of the imaging unit 4 with respect to the stage 8 is performed in the same manner as in step S1 of the first embodiment described above. Specifically, the movement control unit 75 aligns the position of the image pickup optical axis AP of the image pickup unit 4E in the XY plane with the position of the reference mark 91 of the reference member 9 (see FIG. 7) on the stage 8. Then, the image pickup control unit 77 causes the image pickup unit 4E to take an image of the reference mark 91. The captured image captured by the imaging unit 4E is transferred to the robot control device 7E (the signal input unit 71 receives the captured image).

算出部73は、撮像部4Eによって撮像された撮像画像に基づいて、撮像部4Eの撮像光軸APと、基準マーク91の中心(十字の交差部分)に対する撮像部4Eの撮像光軸APの位置をX−Y平面内で補正し、補正結果を記憶部72に格納する。これらにより、撮像部4Eの基準マーク91に対する位置合わせ、すなわち撮像部4Eを備えたマニピュレータ2のステージ8に対する位置合わせが完了する。 The calculation unit 73 positions the imaging optical axis AP of the imaging unit 4E and the imaging optical axis AP of the imaging unit 4E with respect to the center (intersection of the cross) of the reference mark 91 based on the image captured by the imaging unit 4E. Is corrected in the XY plane, and the correction result is stored in the storage unit 72. As a result, the alignment of the imaging unit 4E with respect to the reference mark 91, that is, the alignment of the manipulator 2 provided with the imaging unit 4E with respect to the stage 8 is completed.

ステップS22において、ロボット制御装置7Eは、エンドエフェクタ3の中心軸AMの位置合わせを行う。例えば、撮像制御部77は、撮像部4Eによる撮像を制御する。撮像部4Eでは、ハンド本体34A、34Bの端部が、光学素子55を介して撮像素子上で結像する。信号入力部71は、撮像部4Eによって撮像された撮像画像を受信する。算出部73は、上述した第1実施形態のステップS2と同様に、撮像部4Eによって撮像された撮像画像に基づいて、エンドエフェクタ3の中心軸AMの軸ずれ量を算出し、軸ずれ量の補正値として記憶部72に格納する。 In step S22, the robot control device 7E aligns the central axis AM of the end effector 3. For example, the image pickup control unit 77 controls the image pickup by the image pickup unit 4E. In the image pickup unit 4E, the ends of the hand bodies 34A and 34B are imaged on the image pickup element via the optical element 55. The signal input unit 71 receives the captured image captured by the imaging unit 4E. Similar to step S2 of the first embodiment described above, the calculation unit 73 calculates the amount of axial deviation of the central axis AM of the end effector 3 based on the image captured by the imaging unit 4E, and determines the amount of axial deviation. It is stored in the storage unit 72 as a correction value.

ステップS23において、移動制御部75は、マニピュレータ2を移動させ、対象物OBの搬送元の位置P1にエンドエフェクタ3を移動させる。このとき、補正部74は、算出部73が算出した軸ずれ量の補正値に基づいて、搬送元の位置P1の座標を補正する。ステップS24において、エンドエフェクタ制御部76は、ハンド本体34A、34Bの端部に設けられた把持部35A、35Bに圧力を加え、把持パッド37のそれぞれを突出させる。対象物OBは、突出した把持パッド37のそれぞれの間に挟み込まれて把持される。ステップS25において、撮像制御部77は、撮像部4Eを制御し、ハンド本体34A、34Bで把持している対象物OBを撮像させる。信号入力部71は、撮像部4Eによって撮像された撮像画像のデータを受信する。 In step S23, the movement control unit 75 moves the manipulator 2 and moves the end effector 3 to the position P1 of the transport source of the object OB. At this time, the correction unit 74 corrects the coordinates of the position P1 of the transport source based on the correction value of the axis deviation amount calculated by the calculation unit 73. In step S24, the end effector control unit 76 applies pressure to the grip portions 35A and 35B provided at the ends of the hand bodies 34A and 34B to project the grip pads 37, respectively. The object OB is sandwiched and gripped between the protruding gripping pads 37. In step S25, the image pickup control unit 77 controls the image pickup unit 4E to image the object OB held by the hand bodies 34A and 34B. The signal input unit 71 receives the data of the captured image captured by the imaging unit 4E.

ステップS26において、算出部73は、上述した第1実施形態のステップS7と同様に、エンドエフェクタ3が把持している対象物OBを撮像部4Eにより撮像した撮像画像と、記憶部72に記憶された対象物OBの大きさ及び形状等に関する情報とに基づいて、ステージ8の上面8aに載置されていた把持前の対象物OBの状態と、把持後の対象物OBの状態の変化量を算出する。ステップS27において、補正部74は、上述した第1実施形態のステップS8と同様に、算出部73が算出した変化量に基づいて、対象物の搬送先におけるエンドエフェクタ3の位置及び姿勢のうち少なくとも1つを補正する。 In step S26, the calculation unit 73 stores the image captured by the image pickup unit 4E and the storage unit 72 of the object OB held by the end effector 3 in the same manner as in step S7 of the first embodiment described above. Based on the information on the size and shape of the object OB, the amount of change between the state of the object OB before gripping and the state of the object OB after gripping on the upper surface 8a of the stage 8 is determined. calculate. In step S27, the correction unit 74 at least among the positions and postures of the end effector 3 at the destination of the object to be conveyed, based on the amount of change calculated by the calculation unit 73, as in step S8 of the first embodiment described above. Correct one.

ステップS28において、移動制御部75は、マニピュレータ2を動作させ、エンドエフェクタ3で把持した対象物OBの中心位置を搬送先の位置P2に合わせる。さらに、エンドエフェクタ制御部76は、エンドエフェクタ3の角度を補正し、エンドエフェクタ3に把持された対象物OBの中心軸をZ方向に沿わせた状態とする。この状態で、移動制御部75及びエンドエフェクタ制御部76は、エンドエフェクタ3で把持した対象物OBを、搬送先の位置P2においてステージ8上に載置する。その後、エンドエフェクタ制御部76は、エンドエフェクタ3の把持パッド37のそれぞれに加えている圧力を解除し、挟み込んでいる対象物OBを解放させる。 In step S28, the movement control unit 75 operates the manipulator 2 to align the center position of the object OB gripped by the end effector 3 with the position P2 of the transfer destination. Further, the end effector control unit 76 corrects the angle of the end effector 3 so that the central axis of the object OB gripped by the end effector 3 is aligned with the Z direction. In this state, the movement control unit 75 and the end effector control unit 76 place the object OB gripped by the end effector 3 on the stage 8 at the transfer destination position P2. After that, the end effector control unit 76 releases the pressure applied to each of the gripping pads 37 of the end effector 3 to release the sandwiched object OB.

本実施形態によれば、観察システム1Eは、撮像部4Eの撮像光軸APをエンドエフェクタ3の中心軸AMに一致させるように配置された光学系5Eを備える。この結果、観察システム1Eは、撮像部4Eの撮像光軸APと、エンドエフェクタ3の中心軸AMとを一致させた状態で、撮像部4Eにエンドエフェクタ3を撮像させることができる。従って、観察システム1Eは、マニピュレータ2に装着されたエンドエフェクタ3や、エンドエフェクタ3で把持した対象物OBの位置を、より高精度に検出できる。また、観察システム1Eは、マニピュレータ2が光学系5Eを備えるので、光学系5Eを介した撮像部4Eによる撮像を容易に実施することができ、対象物OBの搬送をより効率的に実現できる。また、本実施形態では、把持している対象物OBの上方を中空としてマニピュレータ2に光学系5Eを備えるため、対象物OBとマニピュレータ2との間に光学系(光学系を保持する部材)を挿入させた状態とする動作を要しないため、効率的な動作を実現できる。また、本実施形態では、X−Y平面に沿って撮像部4Eを配置するので、省スペースを実現し、動作時に撮像部4Eが障害になることを抑制できる。 According to the present embodiment, the observation system 1E includes an optical system 5E arranged so that the imaging optical axis AP of the imaging unit 4E coincides with the central axis AM of the end effector 3. As a result, the observation system 1E allows the imaging unit 4E to image the end effector 3 in a state where the imaging optical axis AP of the imaging unit 4E and the central axis AM of the end effector 3 are aligned with each other. Therefore, the observation system 1E can detect the positions of the end effector 3 mounted on the manipulator 2 and the object OB gripped by the end effector 3 with higher accuracy. Further, in the observation system 1E, since the manipulator 2 includes the optical system 5E, the image pickup unit 4E can easily perform the image pickup via the optical system 5E, and the object OB can be transported more efficiently. Further, in the present embodiment, since the manipulator 2 is provided with the optical system 5E with the upper part of the object OB being gripped hollow, an optical system (member holding the optical system) is provided between the object OB and the manipulator 2. Efficient operation can be realized because the operation of the inserted state is not required. Further, in the present embodiment, since the imaging unit 4E is arranged along the XY plane, space saving can be realized and it is possible to prevent the imaging unit 4E from becoming an obstacle during operation.

[第6実施形態]
次に、第6実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[Sixth Embodiment]
Next, the sixth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図20は、第6実施形態に係る観察システムの構成例を示す側面図である。図21は、第6実施形態に係る観察システムにおいて、光学素子を突出させた状態の例を示す側面図である。図20に示すように、観察システム1Fは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3Dと、撮像部4Fと、光学系5Fと、ロボット制御装置7Fとを有する。 FIG. 20 is a side view showing a configuration example of the observation system according to the sixth embodiment. FIG. 21 is a side view showing an example of a state in which the optical element is projected in the observation system according to the sixth embodiment. As shown in FIG. 20, the observation system 1F includes a manipulator (robot manipulator) 2, an end effector 3D, an imaging unit 4F, an optical system 5F, and a robot control device 7F.

本実施形態におけるエンドエフェクタ3Dは、上述した第4実施形態と同様に、マニピュレータ2のアーム21の端部のエフェクタ装着部25に着脱可能に装着される。エンドエフェクタ3Dは、例えば、図示しない加工対象物に所定の加工を施すドリル刃等の工具100である。エンドエフェクタ3Dは、エフェクタ装着部25に対して着脱可能とされたアーム接続部31Dと、工具本体101とを備える。なお、エンドエフェクタ3Dは、ドリル刃等の工具に限られない。 The end effector 3D in the present embodiment is detachably attached to the effector mounting portion 25 at the end of the arm 21 of the manipulator 2 in the same manner as in the fourth embodiment described above. The end effector 3D is, for example, a tool 100 such as a drill blade that performs a predetermined machining on an object to be machined (not shown). The end effector 3D includes an arm connecting portion 31D that is detachable from the effector mounting portion 25, and a tool body 101. The end effector 3D is not limited to tools such as drill blades.

撮像部4Fは、図示しない撮像素子を備える。撮像部4Fの撮像素子は、例えば、複数の画素が二次元的に配列されたCMOSイメージセンサ、又はCCDイメージセンサ等である。撮像部4Fは、撮像素子の撮像結果(観察結果、検出結果)を、ロボット制御装置7Fに出力する。本実施形態において、撮像部4Fは、マニピュレータ2に設けられる。マニピュレータ2は、撮像部4Fを支持する支持部材26Fを備える。支持部材26Fは、マニピュレータ2の第2アーム23の第1アーム22側とは反対の端部に設けられる。支持部材26Fは、ロボット制御装置7Fの制御に従って、第2アーム23の中心軸ACに対して交差(直交)する方向に移動可能である。撮像部4Fは、支持部材26Fに固定される。撮像部4Fは、撮像部4Fの撮像光軸APが、マニピュレータ2の中心軸ACに直交するように設けられる。撮像部4Fは、エンドエフェクタ3Dに装着された工具本体101を撮像する。より具体的には、撮像部4Fは、エンドエフェクタ3Dに保持された工具本体101の位置や姿勢を撮像する。 The image pickup unit 4F includes an image pickup element (not shown). The image sensor on the 4th floor of the image pickup unit is, for example, a CMOS image sensor in which a plurality of pixels are two-dimensionally arranged, a CCD image sensor, or the like. The image pickup unit 4F outputs the image pickup result (observation result, detection result) of the image pickup element to the robot control device 7F. In the present embodiment, the imaging unit 4F is provided on the manipulator 2. The manipulator 2 includes a support member 26F that supports the imaging unit 4F. The support member 26F is provided at an end of the second arm 23 of the manipulator 2 opposite to the first arm 22 side. The support member 26F can move in a direction intersecting (orthogonal) with respect to the central axis AC of the second arm 23 under the control of the robot control device 7F. The image pickup unit 4F is fixed to the support member 26F. The image pickup unit 4F is provided so that the image pickup optical axis AP of the image pickup unit 4F is orthogonal to the central axis AC of the manipulator 2. The imaging unit 4F images the tool body 101 mounted on the end effector 3D. More specifically, the imaging unit 4F images the position and orientation of the tool body 101 held by the end effector 3D.

光学系5Fは、支持部材26Fに設けられる。本実施形態において、光学系5Fは、1つの光学素子56を備える。光学素子56は、例えば、平板状のミラー等であり、撮像部4Fの撮像光軸AP、及びエンドエフェクタ3Dの中心軸AMの双方に対して所定の角度(例えば、45度)で傾斜して設けられる。光学素子56は、撮像部4の撮像光軸APをエンドエフェクタ3Dの中心軸AMに一致させるように配置される。光学素子56は、撮像部4Fとともに、支持部材26Fと一体に、マニピュレータ2の中心軸ACに直交する方向に移動可能に設けられる。図21に示すように、撮像部4Fにより撮像が行われる場合は、支持部材26Fが移動することで、光学素子56がマニピュレータ2から側方に突出する。光学素子56は、エンドエフェクタ3Dの工具本体101の像が、撮像部4Fの撮像素子上で結像するように設けられる。 The optical system 5F is provided on the support member 26F. In the present embodiment, the optical system 5F includes one optical element 56. The optical element 56 is, for example, a flat mirror or the like, and is inclined at a predetermined angle (for example, 45 degrees) with respect to both the imaging optical axis AP of the imaging unit 4F and the central axis AM of the end effector 3D. It will be provided. The optical element 56 is arranged so that the imaging optical axis AP of the imaging unit 4 coincides with the central axis AM of the end effector 3D. The optical element 56, together with the image pickup unit 4F, is provided integrally with the support member 26F so as to be movable in a direction orthogonal to the central axis AC of the manipulator 2. As shown in FIG. 21, when the imaging unit 4F performs imaging, the support member 26F moves so that the optical element 56 projects laterally from the manipulator 2. The optical element 56 is provided so that an image of the tool body 101 of the end effector 3D is formed on the image pickup element of the image pickup unit 4F.

ロボット制御装置7F(図5参照)は、マニピュレータ2、エンドエフェクタ3D、及び撮像部4F等の動作を制御する。第6実施形態における算出部73は、エンドエフェクタ3Dを撮像部4により撮像した撮像画像と、エンドエフェクタ3Dに関する情報とに基づいて、エンドエフェクタ3Dの中心軸AMの軸ずれ量を算出する。第6実施形態における補正部74は、算出部73が算出した軸ずれ量に基づいて、マニピュレータ2の移動先の位置(工具本体101による加工位置)や、エンドエフェクタ3Dの姿勢等を補正する。 The robot control device 7F (see FIG. 5) controls the operations of the manipulator 2, the end effector 3D, the imaging unit 4F, and the like. The calculation unit 73 in the sixth embodiment calculates the amount of misalignment of the central axis AM of the end effector 3D based on the image captured by the image pickup unit 4 of the end effector 3D and the information about the end effector 3D. The correction unit 74 in the sixth embodiment corrects the position of the movement destination of the manipulator 2 (machining position by the tool body 101), the posture of the end effector 3D, and the like based on the amount of axial deviation calculated by the calculation unit 73.

第6実施形態における移動制御部75は、マニピュレータ2によるエンドエフェクタ3Dの移動動作を制御する。移動制御部75は、例えば、補正部74が補正したマニピュレータ2の移動先の位置に応じて、マニピュレータ2を動作させる。移動制御部75は、補正部74が補正した工具本体101の加工位置に応じて、マニピュレータ2を動作させる。第6実施形態におけるエンドエフェクタ制御部76は、工具本体101の動作を制御する。エンドエフェクタ制御部76は、例えば、補正部74が補正したエンドエフェクタ3Dの姿勢等に基づいて、マニピュレータ2を制御してエンドエフェクタ3Dの姿勢を制御する。第6実施形態における撮像制御部77は、撮像部4Fによる撮像動作を制御する。第6実施形態における信号出力部78は、移動制御部75、エンドエフェクタ制御部76、及び撮像部4Fから出力される指令信号を出力する。 The movement control unit 75 in the sixth embodiment controls the movement operation of the end effector 3D by the manipulator 2. The movement control unit 75 operates the manipulator 2 according to, for example, the position of the movement destination of the manipulator 2 corrected by the correction unit 74. The movement control unit 75 operates the manipulator 2 according to the machining position of the tool body 101 corrected by the correction unit 74. The end effector control unit 76 in the sixth embodiment controls the operation of the tool body 101. The end effector control unit 76 controls the manipulator 2 to control the posture of the end effector 3D, for example, based on the posture of the end effector 3D corrected by the correction unit 74. The image pickup control unit 77 in the sixth embodiment controls the image pickup operation by the image pickup unit 4F. The signal output unit 78 in the sixth embodiment outputs a command signal output from the movement control unit 75, the end effector control unit 76, and the image pickup unit 4F.

図22は、第6実施形態に係るロボット制御装置における処理の流れの例を示すフローチャートである。ステップS31において、工具本体101を用いた加工等が行われる場合は、上述した第1実施形態のステップS1と同様に、撮像部4Fのステージ8に対する位置合わせが実施される。ステップS32において、移動制御部75は、上述した第4実施形態のステップS12と同様に、マニピュレータ2を所定位置に移動させ、マニピュレータ2の端部に工具100を装着させる。 FIG. 22 is a flowchart showing an example of a processing flow in the robot control device according to the sixth embodiment. When machining or the like using the tool body 101 is performed in step S31, the positioning of the imaging unit 4F with respect to the stage 8 is performed in the same manner as in step S1 of the first embodiment described above. In step S32, the movement control unit 75 moves the manipulator 2 to a predetermined position and attaches the tool 100 to the end of the manipulator 2 in the same manner as in step S12 of the fourth embodiment described above.

ステップS33において、ロボット制御装置7Fは、エンドエフェクタ3D(工具本体101)の中心軸AMの位置合わせを行う。例えば、ロボット制御装置7Fは、支持部材26Fを移動させ、光学素子56をマニピュレータ2から側方に突出させる(図21参照)。そして、撮像部4Fは、工具本体101の端部を撮像する。ステップS34において、算出部73は、撮像部4Fが撮像した撮像画像に基づいて、マニピュレータ2の中心軸ACに対するエンドエフェクタ3Dの中心軸AMの軸ずれ量を算出する。ステップS35において、補正部74は、算出部73が算出した軸ずれ量に基づいて、工具本体101による加工位置を補正する。ステップS36において、移動制御部75は、補正部74が補正した加工位置に基づいてマニピュレータ2を動作させ、エンドエフェクタ3Dに保持された工具本体101の中心位置を加工位置に移動させる。これらの後、マニピュレータ2及びエンドエフェクタ3Dは、工具本体101による加工対象物の加工を実施する。 In step S33, the robot control device 7F aligns the central axis AM of the end effector 3D (tool body 101). For example, the robot control device 7F moves the support member 26F to project the optical element 56 laterally from the manipulator 2 (see FIG. 21). Then, the image pickup unit 4F takes an image of the end portion of the tool body 101. In step S34, the calculation unit 73 calculates the amount of axial deviation of the central axis AM of the end effector 3D with respect to the central axis AC of the manipulator 2 based on the captured image captured by the imaging unit 4F. In step S35, the correction unit 74 corrects the machining position by the tool body 101 based on the shaft deviation amount calculated by the calculation unit 73. In step S36, the movement control unit 75 operates the manipulator 2 based on the machining position corrected by the correction section 74, and moves the center position of the tool body 101 held by the end effector 3D to the machining position. After these, the manipulator 2 and the end effector 3D process the object to be machined by the tool body 101.

本実施形態によれば、観察システム1Fは、撮像部4Fの撮像光軸APをエンドエフェクタ3Dの中心軸AMに一致させるように配置された光学系5Fをマニピュレータ2が備える。この結果、観察システム1Fは、エンドエフェクタ3Dと工具本体101との位置関係を高精度に把握できる。従って、観察システム1Fは、マニピュレータ2に装着された工具本体101の位置を、より高精度に検出できる。また、観察システム1Fは、マニピュレータ2に光学系5Fが設けられているので、光学系5Fを介した撮像部4Fによる撮像を容易に実施することができ、対象物OBの搬送をより効率的に実現できる。さらに、観察システム1Fは、支持部材26Fとともに、マニピュレータ2の中心軸ACに交差する方向に移動可能に光学系5Fが設けられるので、エンドエフェクタ3Dとしての工具100をマニピュレータ2に装着した場合であっても、工具本体101の端部の撮像を行い、位置の補正を確実に行える。なお、本実施形態では、エンドエフェクタ3Dを工具本体101としているが、第1実施形態で説明したように、エンドエフェクタ3Dのハンド本体34A、34Bが工具本体101を把持する構成でもよい。 According to the present embodiment, in the observation system 1F, the manipulator 2 includes an optical system 5F arranged so that the imaging optical axis AP of the imaging unit 4F coincides with the central axis AM of the end effector 3D. As a result, the observation system 1F can grasp the positional relationship between the end effector 3D and the tool body 101 with high accuracy. Therefore, the observation system 1F can detect the position of the tool body 101 mounted on the manipulator 2 with higher accuracy. Further, in the observation system 1F, since the manipulator 2 is provided with the optical system 5F, imaging by the imaging unit 4F via the optical system 5F can be easily performed, and the object OB can be transported more efficiently. realizable. Further, in the observation system 1F, since the optical system 5F is provided together with the support member 26F so as to be movable in the direction intersecting the central axis AC of the manipulator 2, the tool 100 as the end effector 3D is attached to the manipulator 2. However, the end portion of the tool body 101 can be imaged to reliably correct the position. In the present embodiment, the end effector 3D is the tool body 101, but as described in the first embodiment, the hand bodies 34A and 34B of the end effector 3D may grip the tool body 101.

[第7実施形態]
次に、第7実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[7th Embodiment]
Next, the seventh embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図23は、第7実施形態に係る観察システムの構成例を示す側面図である。図23に示すように、観察システム1Gは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3Dと、撮像部4と、光学系5Gと、ロボット制御装置7Eとを有する。本実施形態における観察システム1Gは、上述した第6実施形態における観察システム1Eに対して、光学系5Gの構成が主に異なる。 FIG. 23 is a side view showing a configuration example of the observation system according to the seventh embodiment. As shown in FIG. 23, the observation system 1G includes a manipulator (robot manipulator) 2, an end effector 3D, an imaging unit 4, an optical system 5G, and a robot control device 7E. The observation system 1G in the present embodiment is mainly different in the configuration of the optical system 5G from the observation system 1E in the sixth embodiment described above.

光学系5Gは、例えば、エンドエフェクタ3に設けられる。光学系5Gは、例えば、光学素子57A、光学素子57Bを備える。光学素子57A、57Bは、例えば、平板状のミラーであり、撮像部4の撮像光軸AP、及びエンドエフェクタ3の中心軸AMの双方に対して所定の角度(例えば、45度)で傾斜して、互いに平行に設けられる。光学素子57A、57Bは、撮像部4の撮像光軸APの少なくとも一部をエンドエフェクタ3の中心軸AMに一致させるように配置される。対象物OBが把持されたとき、折り曲げミラーである光学素子57Bは、対象物OBとマニピュレータ2(エンドエフェクタ3を含む)との間に配置された状態となる。光学素子57A、57Bは、エンドエフェクタ3のハンド本体34A、34Bの間の像が、撮像部4の撮像素子上で結像するように配置される。光学系5Gを備えるマニピュレータ2は、上述した第6実施形態と同様に制御される。 The optical system 5G is provided in, for example, the end effector 3. The optical system 5G includes, for example, an optical element 57A and an optical element 57B. The optical elements 57A and 57B are, for example, flat mirrors, and are inclined at a predetermined angle (for example, 45 degrees) with respect to both the imaging optical axis AP of the imaging unit 4 and the central axis AM of the end effector 3. And are provided parallel to each other. The optical elements 57A and 57B are arranged so that at least a part of the imaging optical axis AP of the imaging unit 4 coincides with the central axis AM of the end effector 3. When the object OB is gripped, the optical element 57B, which is a bending mirror, is in a state of being arranged between the object OB and the manipulator 2 (including the end effector 3). The optical elements 57A and 57B are arranged so that the image between the hand bodies 34A and 34B of the end effector 3 is formed on the image pickup element of the image pickup unit 4. The manipulator 2 including the optical system 5G is controlled in the same manner as in the sixth embodiment described above.

本実施形態によれば、観察システム1Gは、撮像部4の撮像光軸APの少なくとも一部をエンドエフェクタ3の中心軸AMに一致させるように配置された光学系5Gを、エンドエフェクタ3が備える。この結果、観察システム1Gは、エンドエフェクタ3と対象物OBとの位置関係を高精度に把握することができ、対象物OBの把持や解放の動作を円滑に行える。また、観察システム1Gは、光学系5Gがエンドエフェクタ3に設けられるので、光学系5Gを介した撮像部4による撮像を容易に実施することができ、対象物OBの搬送をより効率的に実現できる。 According to the present embodiment, in the observation system 1G, the end effector 3 includes an optical system 5G arranged so that at least a part of the imaging optical axis AP of the imaging unit 4 is aligned with the central axis AM of the end effector 3. .. As a result, the observation system 1G can grasp the positional relationship between the end effector 3 and the object OB with high accuracy, and can smoothly grasp and release the object OB. Further, in the observation system 1G, since the optical system 5G is provided in the end effector 3, imaging by the imaging unit 4 via the optical system 5G can be easily performed, and the object OB can be conveyed more efficiently. it can.

なお、第7実施形態では、光学系5Gをエンドエフェクタ3が備える場合を例に挙げた。光学系5Gの光学素子の少なくとも一つは、エンドエフェクタ3に備えられなくてもよい。例えば、エンドエフェクタ3は、光学素子57Aを備えなくてもよい。かかる場合、光学素子57Aは、ミラー保持部材等により固定された状態で配置してもよい。かかるミラー保持部材は、例えば、ステージ8の上面8aに直交するZ方向の上方に延びて、光学素子57Aを保持すればよい。また、ミラー保持部材は、マニピュレータ2の移動に際して、障害にならない位置に配置されることが好ましい。本実施形態において、光学素子57Aは「第1光学系」に対応し、光学素子57Bは「第2光学系」に対応する。このとき、観察システム1Gは、対象物OBを把持した後に、撮像部4の撮像光軸APの少なくとも一部が光学素子57Aを通る位置にマニピュレータ2を移動させたうえで、対象物OBを撮像して、対象物OBの把持ずれを補正すればよい。すなわち、本実施形態において、目標位置へのマニピュレータ2の移動は、撮像部4の撮像光軸APの少なくとも一部が光学素子57Aを通る位置にマニピュレータ2を移動させることと同等である。マニピュレータ2を目標位置へ移動させたとき、光学素子57A、57Bを介した撮像部4の撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとは一致する。 In the seventh embodiment, the case where the end effector 3 includes the optical system 5G is given as an example. At least one of the optical elements of the optical system 5G does not have to be provided in the end effector 3. For example, the end effector 3 does not have to include the optical element 57A. In such a case, the optical element 57A may be arranged in a state of being fixed by a mirror holding member or the like. Such a mirror holding member may extend upward in the Z direction orthogonal to the upper surface 8a of the stage 8 to hold the optical element 57A, for example. Further, it is preferable that the mirror holding member is arranged at a position that does not hinder the movement of the manipulator 2. In this embodiment, the optical element 57A corresponds to the "first optical system" and the optical element 57B corresponds to the "second optical system". At this time, the observation system 1G captures the object OB after grasping the object OB and then moving the manipulator 2 to a position where at least a part of the imaging optical axis AP of the imaging unit 4 passes through the optical element 57A. Then, the gripping deviation of the object OB may be corrected. That is, in the present embodiment, the movement of the manipulator 2 to the target position is equivalent to moving the manipulator 2 to a position where at least a part of the imaging optical axis AP of the imaging unit 4 passes through the optical element 57A. When the manipulator 2 is moved to the target position, at least a part of the imaging optical axis AP of the imaging unit 4 via the optical elements 57A and 57B coincides with the central axis AM of the end effector 3.

[第8実施形態]
次に、第8実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[8th Embodiment]
Next, the eighth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図24は、第8実施形態に係る観察システムの構成例を示す側面図である。図24に示すように、観察システム1Hは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3と、撮像部4Hと、光学系5Hと、ロボット制御装置7Eとを有する。本実施形態における観察システム1Hは、上述した第7実施形態における観察システム1Gに対して、撮像部4H、支持部材26H、及び光学系5Hの構成が主に異なる。 FIG. 24 is a side view showing a configuration example of the observation system according to the eighth embodiment. As shown in FIG. 24, the observation system 1H includes a manipulator (robot manipulator) 2, an end effector 3, an imaging unit 4H, an optical system 5H, and a robot control device 7E. The observation system 1H in the present embodiment is mainly different in the configuration of the imaging unit 4H, the support member 26H, and the optical system 5H from the observation system 1G in the seventh embodiment described above.

撮像部4Hは、図示しない撮像素子を備える。撮像部4Hは、マニピュレータ2に設けられる。マニピュレータ2は、撮像部4Hを支持する支持部材26Hを備える。支持部材26Hは、マニピュレータ2の第2アーム23の第1アーム22側とは反対の端部に設けられる。支持部材26Hは、第2アーム23の中心軸ACに対して交差(直交)して第2アーム23から側方に突出する支持部材基部26jと、支持部材基部26jの端部から下方に延びる延長部26kとを備える。撮像部4Hは、支持部材26Hの延長部26kの端部(下端)に固定される。撮像部4Hは、撮像部4Hの撮像光軸APが、エンドエフェクタ3の中心軸AMに直交するように設けられる。 The image pickup unit 4H includes an image pickup element (not shown). The image pickup unit 4H is provided on the manipulator 2. The manipulator 2 includes a support member 26H that supports the imaging unit 4H. The support member 26H is provided at an end portion of the second arm 23 of the manipulator 2 opposite to the first arm 22 side. The support member 26H has a support member base portion 26j that intersects (orthogonally) with respect to the central axis AC of the second arm 23 and projects laterally from the second arm 23, and an extension extending downward from the end portion of the support member base portion 26j. A unit 26k is provided. The image pickup unit 4H is fixed to the end portion (lower end) of the extension portion 26k of the support member 26H. The imaging unit 4H is provided so that the imaging optical axis AP of the imaging unit 4H is orthogonal to the central axis AM of the end effector 3.

光学系5Hは、エンドエフェクタ3に設けられる。光学系5Hは、光学素子57Cを備える。光学素子57Cは、例えば、平板状のミラー等であり、撮像部4Hの撮像光軸AP、及びエンドエフェクタ3の中心軸AMの双方に対して所定の角度(例えば、45度)で傾斜している。光学素子57Cは、撮像部4Hの撮像光軸APの少なくとも一部をエンドエフェクタ3の中心軸AMに一致させるように配置される。光学素子57Cは、エンドエフェクタ3のハンド本体34A、34Bの間の像が、撮像部4Hの撮像素子上で結像するように設けられる。すなわち、光学系5Hは、エンドエフェクタ3の端部、及びエンドエフェクタ3の端部が把持する(している)対象物OBの像を、撮像部4Hの撮像素子上に結像させる。マニピュレータ2が対象物OBを把持したとき、折り曲げミラーである光学素子57Cは、対象物OBとマニピュレータ2(エンドエフェクタ3を含む)との間に配置された状態となる。光学系5Hを備えるマニピュレータ2は、上述した第6実施形態、第7実施形態等と同様に制御される。 The optical system 5H is provided on the end effector 3. The optical system 5H includes an optical element 57C. The optical element 57C is, for example, a flat mirror or the like, and is inclined at a predetermined angle (for example, 45 degrees) with respect to both the imaging optical axis AP of the imaging unit 4H and the central axis AM of the end effector 3. There is. The optical element 57C is arranged so that at least a part of the imaging optical axis AP of the imaging unit 4H is aligned with the central axis AM of the end effector 3. The optical element 57C is provided so that an image between the hand bodies 34A and 34B of the end effector 3 is formed on the image pickup element of the image pickup unit 4H. That is, the optical system 5H forms an image of the end portion of the end effector 3 and the object OB held (held) by the end portion of the end effector 3 on the image sensor of the image pickup unit 4H. When the manipulator 2 grips the object OB, the optical element 57C, which is a bending mirror, is placed between the object OB and the manipulator 2 (including the end effector 3). The manipulator 2 including the optical system 5H is controlled in the same manner as in the sixth embodiment, the seventh embodiment, and the like described above.

本実施形態によれば、観察システム1Hは、撮像部4Hの撮像光軸APをエンドエフェクタ3の中心軸AMに一致するように配置された光学系5Hをエンドエフェクタ3が備える。この結果、観察システム1Hは、エンドエフェクタ3と対象物OBとの位置関係を高精度に把握することができ、対象物OBの把持や解放の動作を円滑に行える。従って、観察システム1Hは、マニピュレータ2に装着されたエンドエフェクタ3や、エンドエフェクタ3で把持した対象物OBの位置を、より高精度に検出できる。また、観察システム1Hは、エンドエフェクタ3に光学系5Hが設けられるので、光学系5Hを介した撮像部4Hによる撮像を容易に実施することができ、対象物OBの搬送をより効率的に実現できる。 According to the present embodiment, the observation system 1H includes an optical system 5H in which the imaging optical axis AP of the imaging unit 4H is arranged so as to coincide with the central axis AM of the end effector 3. As a result, the observation system 1H can grasp the positional relationship between the end effector 3 and the object OB with high accuracy, and can smoothly grasp and release the object OB. Therefore, the observation system 1H can detect the positions of the end effector 3 mounted on the manipulator 2 and the object OB gripped by the end effector 3 with higher accuracy. Further, in the observation system 1H, since the end effector 3 is provided with the optical system 5H, imaging by the imaging unit 4H via the optical system 5H can be easily performed, and the object OB can be conveyed more efficiently. it can.

[第9実施形態]
次に、第9実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[9th Embodiment]
Next, the ninth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図25は、第9実施形態に係る観察システムの構成例を示す側面図である。図25に示すように、観察システム1Jは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3と、撮像部4Jと、光学系5Jと、ロボット制御装置7Jとを有する。本実施形態における観察システム1Jは、上述した実施形態に対して、撮像部4Jと、光学系5Jとの構成が主に異なる。 FIG. 25 is a side view showing a configuration example of the observation system according to the ninth embodiment. As shown in FIG. 25, the observation system 1J includes a manipulator (robot manipulator) 2, an end effector 3, an imaging unit 4J, an optical system 5J, and a robot control device 7J. The observation system 1J in the present embodiment is mainly different in the configuration of the imaging unit 4J and the optical system 5J from the above-described embodiment.

撮像部4Jは、図示しない撮像素子を備える。撮像部4Jは、マニピュレータ2とは別に独立して設けられる。撮像部4Jは、例えば、ステージ8上に設けられた支持部材29に支持される。支持部材29は、ステージ8上に固定されたベース部材29aと、ベース部材29aのステージ8側とは反対の端部から、X−Y平面内に延びるミラー保持部材29bとを備える。また、撮像部4Jは、ミラー保持部材29bに固定される。撮像部4Jは、撮像部4Jの撮像光軸APが、エンドエフェクタ3の中心軸AMに直交するように設けられる。撮像部4Jは、エンドエフェクタ3が把持している対象物OBを撮像する。 The image pickup unit 4J includes an image pickup element (not shown). The image pickup unit 4J is provided independently of the manipulator 2. The image pickup unit 4J is supported by, for example, a support member 29 provided on the stage 8. The support member 29 includes a base member 29a fixed on the stage 8 and a mirror holding member 29b extending in an XY plane from an end portion of the base member 29a opposite to the stage 8 side. Further, the imaging unit 4J is fixed to the mirror holding member 29b. The imaging unit 4J is provided so that the imaging optical axis AP of the imaging unit 4J is orthogonal to the central axis AM of the end effector 3. The imaging unit 4J images the object OB held by the end effector 3.

光学系5Jは、エンドエフェクタ3が装着されたマニピュレータ2から独立して配置される。光学系5Jは、例えば、撮像部4Jとともに、ミラー保持部材29bに設けられる。光学系5Jは、例えば、光学素子58を備える。光学素子58は、例えば、平板状のミラー等である。光学素子58は、撮像部4Jの撮像光軸APに対して所定の角度(例えば、45度)だけ傾斜して設けられる。光学素子58は、エンドエフェクタ3の中心軸AMと光学素子58とのX−Y平面内における位置を合わせた状態で、ハンド本体34A、34Bの間の像が、撮像部4Jの撮像素子上で結像するように設けられる。このとき、ミラー保持部材29bは、エンドエフェクタ3の基部33と、把持部35A、35Bとの間に挿入された状態となる。 The optical system 5J is arranged independently of the manipulator 2 to which the end effector 3 is mounted. The optical system 5J is provided on the mirror holding member 29b together with the image pickup unit 4J, for example. The optical system 5J includes, for example, an optical element 58. The optical element 58 is, for example, a flat mirror or the like. The optical element 58 is provided so as to be inclined by a predetermined angle (for example, 45 degrees) with respect to the imaging optical axis AP of the imaging unit 4J. In the optical element 58, the image between the hand bodies 34A and 34B is displayed on the image sensor of the image pickup unit 4J in a state where the central axis AM of the end effector 3 and the optical element 58 are aligned in the XY plane. It is provided so as to form an image. At this time, the mirror holding member 29b is in a state of being inserted between the base portion 33 of the end effector 3 and the grip portions 35A and 35B.

上記により、光学系5Jは、撮像部4Jの撮像光軸APの少なくとも一部をエンドエフェクタ3の中心軸AMに一致するように配置される。光学系5Jは、エンドエフェクタ3の端部、及びエンドエフェクタ3の端部が把持する対象物OBの像を、撮像部4Jの撮像素子上に結像させる。撮像部4J及び光学系5Jは、例えば、対象物OBの搬送元から搬送先までの搬送経路の途中に配置される場合がある。マニピュレータ2が対象物OBを把持したとき、折り曲げミラーである光学素子58は、対象物OBとマニピュレータ2(エンドエフェクタ3を含む)との間に配置された状態となる。 As described above, the optical system 5J is arranged so that at least a part of the imaging optical axis AP of the imaging unit 4J coincides with the central axis AM of the end effector 3. The optical system 5J forms an image of the end of the end effector 3 and the object OB gripped by the end of the end effector 3 on the image sensor of the image pickup unit 4J. The imaging unit 4J and the optical system 5J may be arranged, for example, in the middle of the transport path from the transport source to the transport destination of the object OB. When the manipulator 2 grips the object OB, the optical element 58, which is a bending mirror, is placed between the object OB and the manipulator 2 (including the end effector 3).

ロボット制御装置7J(図5参照)は、マニピュレータ2、エンドエフェクタ3、及び撮像部4J等の動作を制御する。エンドエフェクタ制御部76は、エンドエフェクタ3における対象物OBの保持や解放の動作を制御する。撮像制御部77は、撮像部4Jに撮像処理を実行させる。 The robot control device 7J (see FIG. 5) controls the operations of the manipulator 2, the end effector 3, the imaging unit 4J, and the like. The end effector control unit 76 controls the operation of holding and releasing the object OB in the end effector 3. The image pickup control unit 77 causes the image pickup unit 4J to execute the image pickup process.

図26は、第9実施形態に係るロボット制御装置における処理の流れの例を示すフローチャートである。ステップS41において、移動制御部75は、マニピュレータ2を動作させ、対象物OBの搬送元の位置P1にエンドエフェクタ3を移動させる。ステップS42において、エンドエフェクタ制御部76は、ハンド本体34A、34Bの端部に設けられた把持部35A、35Bに圧力を加えさせ、把持パッド37のそれぞれを内側に突出させる。これにより、対象物OBは、把持パッド37のそれぞれの間に挟み込まれ、エンドエフェクタ3に保持(把持)される。 FIG. 26 is a flowchart showing an example of a processing flow in the robot control device according to the ninth embodiment. In step S41, the movement control unit 75 operates the manipulator 2 to move the end effector 3 to the position P1 of the transport source of the object OB. In step S42, the end effector control unit 76 applies pressure to the grip portions 35A and 35B provided at the ends of the hand bodies 34A and 34B to project each of the grip pads 37 inward. As a result, the object OB is sandwiched between the gripping pads 37 and held (held) by the end effector 3.

ステップS43において、移動制御部75は、マニピュレータ2を動作させ、対象物OBを把持したエンドエフェクタ3を、撮像部4J及び光学系5Jが設けられる位置に移動させる。具体的には、移動制御部75は、把持部35A、35Bの間に、光学系5J等が設けられたミラー保持部材29bを挿入させた状態となる位置に、エンドエフェクタ3を移動させる。このとき、移動先の座標を記憶部72等に予め記憶させ、移動制御部75は、記憶部72等に記憶された座標値に基づいてエンドエフェクタ3を移動させてもよい。 In step S43, the movement control unit 75 operates the manipulator 2 to move the end effector 3 holding the object OB to a position where the image pickup unit 4J and the optical system 5J are provided. Specifically, the movement control unit 75 moves the end effector 3 to a position where the mirror holding member 29b provided with the optical system 5J or the like is inserted between the grip portions 35A and 35B. At this time, the coordinates of the movement destination may be stored in advance in the storage unit 72 or the like, and the movement control unit 75 may move the end effector 3 based on the coordinate values stored in the storage unit 72 or the like.

ステップS44において、撮像制御部77は、撮像部4Jを制御し、光学系5Jを介して撮像素子上で結像する像を撮像させる。これにより、撮像部4Jは、エンドエフェクタ3のハンド本体34A、34Bの把持パッド37のそれぞれによって把持されている対象物OBを撮像する。撮像部4Jによって撮像された撮像画像のデータは、ロボット制御装置7Jに転送される(信号入力部71は、撮像画像を受信する)。 In step S44, the image pickup control unit 77 controls the image pickup unit 4J to image an image to be imaged on the image pickup element via the optical system 5J. As a result, the imaging unit 4J images the object OB gripped by the gripping pads 37 of the hand bodies 34A and 34B of the end effector 3. The data of the captured image captured by the imaging unit 4J is transferred to the robot control device 7J (the signal input unit 71 receives the captured image).

ステップS45において、算出部73は、エンドエフェクタ3が把持している対象物OBを撮像部4Jにより撮像した撮像画像と、記憶部72が記憶する対象物OBの大きさ及び形状等に関する情報とに基づいて、把持前の対象物OBの状態と、把持後の対象物OBの状態との変化量を算出する。算出部73は、上述した第1実施形態のステップS7と同様に、エンドエフェクタ3に把持されている対象物OBの状態の変化量として、例えばエンドエフェクタ3の中心軸AMに対する位置ずれや姿勢(傾き)等を算出する。 In step S45, the calculation unit 73 obtains an image captured by the imaging unit 4J of the object OB held by the end effector 3 and information on the size and shape of the object OB stored by the storage unit 72. Based on this, the amount of change between the state of the object OB before gripping and the state of the object OB after gripping is calculated. Similar to step S7 of the first embodiment described above, the calculation unit 73 sets the amount of change in the state of the object OB held by the end effector 3, for example, the position deviation or posture of the end effector 3 with respect to the central axis AM ( Inclination) etc. are calculated.

ステップS46において、補正部74は、算出部73が算出した変化量に基づいて、対象物OBの搬送先におけるエンドエフェクタ3の位置及び姿勢のうち少なくとも1つを補正する。具体的には、補正部74は、算出部73が算出した位置ずれ量から、エンドエフェクタ3の搬送先の位置P2を補正する。加えて、補正部74は、搬送先の位置P2において、エンドエフェクタ3に把持された対象物OBの姿勢(傾き)が補正されるように、エンドエフェクタ3の姿勢(傾き、角度)を補正する。 In step S46, the correction unit 74 corrects at least one of the positions and postures of the end effector 3 at the transport destination of the object OB based on the amount of change calculated by the calculation unit 73. Specifically, the correction unit 74 corrects the position P2 of the transfer destination of the end effector 3 from the position deviation amount calculated by the calculation unit 73. In addition, the correction unit 74 corrects the posture (tilt, angle) of the end effector 3 so that the posture (tilt) of the object OB gripped by the end effector 3 is corrected at the position P2 of the transport destination. ..

ステップS47において、移動制御部75は、補正部74が補正した搬送先の位置P2に基づいて、マニピュレータ2を動作させ、エンドエフェクタ3に保持された対象物OBを搬送先の位置P2に搬送する。エンドエフェクタ制御部76は、エンドエフェクタ3が把持している対象物OBを搬送先の位置P2に載置するために、把持パッド37のそれぞれに加えている圧力を解除し、挟み込んでいる対象物OBを解放させる。 In step S47, the movement control unit 75 operates the manipulator 2 based on the position P2 of the transfer destination corrected by the correction unit 74, and conveys the object OB held by the end effector 3 to the position P2 of the transfer destination. .. The end effector control unit 76 releases the pressure applied to each of the gripping pads 37 in order to place the object OB gripped by the end effector 3 at the transfer destination position P2, and sandwiches the object. Release the OB.

本実施形態によれば、観察システム1Jは、マニピュレータ2から独立して配置された光学系5Jを介して、撮像部4Jの撮像光軸APと、エンドエフェクタ3の中心軸AMとが一致する目標位置に、マニピュレータ2を動作させる。この結果、観察システム1Jは、エンドエフェクタ3と対象物OBとの位置関係を高精度に把握できる。従って、観察システム1Jは、マニピュレータ2に装着されたエンドエフェクタ3や、エンドエフェクタ3で把持した対象物OBの位置や姿勢等を、より高精度に検出できる。また、本実施形態では、把持ずれを算出するための撮像部4Jをマニピュレータ2が支持しないため、ロボットの動作時に撮像部4Jが障害とならずに効率的な作業が可能となる。 According to the present embodiment, the observation system 1J has a target in which the imaging optical axis AP of the imaging unit 4J and the central axis AM of the end effector 3 coincide with each other via the optical system 5J arranged independently of the manipulator 2. The manipulator 2 is operated at the position. As a result, the observation system 1J can grasp the positional relationship between the end effector 3 and the object OB with high accuracy. Therefore, the observation system 1J can detect the position and posture of the end effector 3 mounted on the manipulator 2 and the object OB gripped by the end effector 3 with higher accuracy. Further, in the present embodiment, since the manipulator 2 does not support the image pickup unit 4J for calculating the gripping deviation, the image pickup unit 4J does not become an obstacle during the operation of the robot, and efficient work becomes possible.

[第10実施形態]
次に、第10実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
[10th Embodiment]
Next, the tenth embodiment will be described. In the present embodiment, the same components as those in the above-described embodiment are designated by the same reference numerals, and the description thereof may be omitted or simplified.

図27は、第10実施形態に係る観察システムの構成例を示す側面図である。図27に示すように、観察システム1Kは、マニピュレータ(ロボットマニピュレータ)2と、エンドエフェクタ3と、撮像部4Jと、光学系5Kと、ロボット制御装置7Jとを有する。観察システム1Kは、上述した第9実施形態の観察システム1Jに対して、光学系5Kの構成が主に異なる。 FIG. 27 is a side view showing a configuration example of the observation system according to the tenth embodiment. As shown in FIG. 27, the observation system 1K includes a manipulator (robot manipulator) 2, an end effector 3, an imaging unit 4J, an optical system 5K, and a robot control device 7J. The observation system 1K is mainly different in the configuration of the optical system 5K from the observation system 1J of the ninth embodiment described above.

撮像部4Jは、上述した第9実施形態と同様に、マニピュレータ2とは別に独立して設けられる。撮像部4Jは、ステージ8上に設けられた支持部材29に支持される。撮像部4Jは、撮像部4Jの撮像光軸APの少なくとも一部(光学系5Kを介するまでの撮像光軸AP)が、エンドエフェクタ3の中心軸AMに直交するように設けられる。撮像部4Jは、対象物OBの搬送元から搬送先までの搬送経路の途中に配置される場合がある。 The image pickup unit 4J is provided independently of the manipulator 2 as in the ninth embodiment described above. The image pickup unit 4J is supported by a support member 29 provided on the stage 8. The image pickup unit 4J is provided so that at least a part of the image pickup optical axis AP of the image pickup unit 4J (the image pickup optical axis AP up to the optical system 5K) is orthogonal to the central axis AM of the end effector 3. The image pickup unit 4J may be arranged in the middle of the transport path from the transport source to the transport destination of the object OB.

光学系5Kは、エンドエフェクタ3に設けられる。光学系5Kは、例えば、光学素子59を備える。光学素子59は、例えば、平板状のミラー等であり、図示しない支持部材を介してエンドエフェクタ3に固定される。光学素子59は、撮像部4Jの撮像光軸APに対して所定の角度(例えば、45度)だけ傾斜して設けられる。光学系5Kは、撮像部4Jの撮像光軸APの少なくとも一部がエンドエフェクタ3の中心軸AMに一致するように配置される。光学系5Kは、エンドエフェクタ3の端部、及びエンドエフェクタ3の端部が把持する(している)対象物OBの像を、撮像部4Jの撮像素子上に結像させる。ロボット制御装置7J(図5参照)は、マニピュレータ2、エンドエフェクタ3、及び撮像部4J等の動作を制御する。なお、エンドエフェクタ3が光学系5Kを支持する代わりに、マニピュレータ2が光学系5Kを支持してもよい。このとき、上述した第5実施形態と同様に、エンドエフェクタ3には、光学系5Kの下方と側方とに、撮像部4Jが対象物OBを撮像するための開口が設けられる。 The optical system 5K is provided in the end effector 3. The optical system 5K includes, for example, an optical element 59. The optical element 59 is, for example, a flat mirror or the like, and is fixed to the end effector 3 via a support member (not shown). The optical element 59 is provided so as to be inclined by a predetermined angle (for example, 45 degrees) with respect to the imaging optical axis AP of the imaging unit 4J. The optical system 5K is arranged so that at least a part of the imaging optical axis AP of the imaging unit 4J coincides with the central axis AM of the end effector 3. The optical system 5K forms an image of the end portion of the end effector 3 and the object OB gripped (held) by the end portion of the end effector 3 on the image sensor of the image pickup unit 4J. The robot control device 7J (see FIG. 5) controls the operations of the manipulator 2, the end effector 3, the imaging unit 4J, and the like. Instead of the end effector 3 supporting the optical system 5K, the manipulator 2 may support the optical system 5K. At this time, similarly to the fifth embodiment described above, the end effector 3 is provided with openings below and to the side of the optical system 5K for the imaging unit 4J to image the object OB.

移動制御部75は、マニピュレータ2を動作させ、エンドエフェクタ3を搬送元の位置P1に移動させる(ステップS41に相当)。エンドエフェクタ制御部76は、ハンド本体34A、34Bの端部に設けられた把持部35A、35Bに圧力を加えさせ、把持パッド37のそれぞれを内側に突出させる(ステップS42に相当)。これにより、対象物OBは、把持パッド37のそれぞれの間に挟み込まれ、エンドエフェクタ3に保持(把持)される。 The movement control unit 75 operates the manipulator 2 to move the end effector 3 to the transfer source position P1 (corresponding to step S41). The end effector control unit 76 applies pressure to the grip portions 35A and 35B provided at the ends of the hand bodies 34A and 34B to project each of the grip pads 37 inward (corresponding to step S42). As a result, the object OB is sandwiched between the gripping pads 37 and held (held) by the end effector 3.

移動制御部75は、マニピュレータ2を動作させ、対象物OBを把持したエンドエフェクタ3を、撮像部4Jが設けられる位置に移動させる(ステップS43に相当)。移動制御部75による制御の結果、光学素子59は、撮像部4Jの撮像光軸AP、及びエンドエフェクタ3の中心軸AM上の位置に配置された状態となる。撮像制御部77は、撮像部4Jを制御し、エンドエフェクタ3のハンド本体34A、34Bの把持パッド37のそれぞれで把持している対象物OBを撮像させる(ステップS44に相当)。撮像部4Jによって撮像された撮像画像のデータは、ロボット制御装置7Jに転送される(信号入力部71は、撮像画像を受信する)。 The movement control unit 75 operates the manipulator 2 to move the end effector 3 holding the object OB to a position where the image pickup unit 4J is provided (corresponding to step S43). As a result of the control by the movement control unit 75, the optical element 59 is in a state of being arranged at positions on the imaging optical axis AP of the imaging unit 4J and the central axis AM of the end effector 3. The image pickup control unit 77 controls the image pickup unit 4J to take an image of the object OB gripped by each of the grip pads 37 of the hand body 34A and 34B of the end effector 3 (corresponding to step S44). The data of the captured image captured by the imaging unit 4J is transferred to the robot control device 7J (the signal input unit 71 receives the captured image).

算出部73は、エンドエフェクタ3が把持している対象物OBを撮像部4Jにより撮像した撮像画像と、記憶部72が記憶する対象物OBの大きさ及び形状等に関する情報とに基づいて、把持前の対象物OBの状態と、把持後の対象物OBの状態との変化量を算出する(ステップS45に相当)。補正部74は、算出部73が算出した変化量に基づいて、対象物OBの搬送先におけるエンドエフェクタ3の位置及び姿勢のうち少なくとも1つを補正する(ステップS46に相当)。 The calculation unit 73 grips the object OB held by the end effector 3 based on an image captured by the image pickup unit 4J and information on the size and shape of the object OB stored by the storage unit 72. The amount of change between the state of the previous object OB and the state of the object OB after gripping is calculated (corresponding to step S45). The correction unit 74 corrects at least one of the positions and postures of the end effector 3 at the transport destination of the object OB based on the amount of change calculated by the calculation unit 73 (corresponding to step S46).

移動制御部75は、補正部74が補正した搬送先の位置P2に基づいて、マニピュレータ2を動作させ、エンドエフェクタ3に把持された対象物OBを搬送先の位置P2に搬送する(ステップS47に相当)。エンドエフェクタ制御部76は、エンドエフェクタ3が把持している対象物OBを搬送先の位置P2に載置するために、把持パッド37のそれぞれに加えている圧力を解除し、挟み込んでいる対象物OBを解放させる。 The movement control unit 75 operates the manipulator 2 based on the position P2 of the transfer destination corrected by the correction unit 74, and conveys the object OB gripped by the end effector 3 to the position P2 of the transfer destination (in step S47). Equivalent). The end effector control unit 76 releases the pressure applied to each of the gripping pads 37 in order to place the object OB gripped by the end effector 3 at the transfer destination position P2, and sandwiches the object. Release the OB.

本実施形態によれば、観察システム1Kは、エンドエフェクタ3に設けられた光学系5Kを介して、撮像部4Jの撮像光軸APと、エンドエフェクタ3の中心軸AMとが一致する目標位置に、マニピュレータ2を動作させる。この結果、観察システム1Kは、エンドエフェクタ3と対象物OBとの位置関係を高精度に把握できる。従って、観察システム1Kは、マニピュレータ2に装着されたエンドエフェクタ3や、エンドエフェクタ3で把持した対象物OBの位置や姿勢等を、より高精度に検出できる。また、本実施形態では、把持ずれを算出するための撮像部4Jをマニピュレータ2が支持しないため、ロボットの動作時に撮像部4Jが障害とならずに効率的な作業が可能となる。 According to the present embodiment, the observation system 1K is set at a target position where the imaging optical axis AP of the imaging unit 4J and the central axis AM of the end effector 3 coincide with each other via the optical system 5K provided in the end effector 3. , Operate the manipulator 2. As a result, the observation system 1K can grasp the positional relationship between the end effector 3 and the object OB with high accuracy. Therefore, the observation system 1K can detect the position and posture of the end effector 3 mounted on the manipulator 2 and the object OB gripped by the end effector 3 with higher accuracy. Further, in the present embodiment, since the manipulator 2 does not support the image pickup unit 4J for calculating the gripping deviation, the image pickup unit 4J does not become an obstacle during the operation of the robot, and efficient work becomes possible.

上述してきた実施形態において、ロボット制御装置7は、例えば、コンピュータシステムを含む。ロボット制御装置7は、メモリ(例えば、記憶部72等)に記憶されたプログラムを読み出し、読み出したプログラムに従って各種の処理を実行する。かかるプログラムは、例えば、コンピュータに、ロボットマニピュレータから独立して配置された光学系を介して、対象物を撮像する撮像部が、エンドエフェクタが保持する対象物を撮像可能な位置に、ロボットマニピュレータを移動させること、を実行させる。このプログラムは、コンピュータ読み取り可能な記憶媒体(例えば、非一時的な記憶媒体、non‐transitory tangible media)に記録されて提供されてもよい。また、クラウドストレージを利用してプログラムが記憶される場合等も含む。 In the embodiments described above, the robot control device 7 includes, for example, a computer system. The robot control device 7 reads a program stored in a memory (for example, a storage unit 72 or the like) and executes various processes according to the read program. In such a program, for example, the robot manipulator is placed in a position where an imaging unit that images an object can image an object held by an end effector via an optical system arranged independently of the robot manipulator on a computer. To move, to do. The program may be recorded and provided on a computer-readable storage medium (eg, non-transitory tangible media). It also includes the case where the program is stored using cloud storage.

また、上述してきた実施形態において、マニピュレータ2やエンドエフェクタ3から独立して配置された光学系と、マニピュレータ2やエンドエフェクタ3に支持された光学系とを配置する形態としてもよい。このとき、上述してきた実施形態と同様に、撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとが一致する目標位置に、マニピュレータ2を移動させる制御等は同一となる。また、上述してきた実施形態によれば、光学系がマニピュレータから独立しているので、複数の方向から対象物を撮像(観察)できる。例えば、図3及び図4に示した光学系の配置と、図14に示した光学系の配置との形態の双方を実施することで、対象物の上下方向(複数の方向)から対象物を撮像(観察)できる。このとき、対象物の一度の搬送で、複数の方向のうち2方向以上について撮像(観察)して把持ずれ等を補正することで、補正の精度をより向上させることができる。 Further, in the above-described embodiment, an optical system arranged independently of the manipulator 2 and the end effector 3 and an optical system supported by the manipulator 2 and the end effector 3 may be arranged. At this time, similarly to the above-described embodiment, the control for moving the manipulator 2 to the target position where at least a part of the imaging optical axis AP and the central axis AM of the end effector 3 coincide with each other is the same. Further, according to the above-described embodiment, since the optical system is independent of the manipulator, it is possible to image (observe) an object from a plurality of directions. For example, by implementing both the arrangement of the optical system shown in FIGS. 3 and 4 and the arrangement of the optical system shown in FIG. 14, the object can be moved from the vertical direction (plurality of directions) of the object. Can be imaged (observed). At this time, the accuracy of the correction can be further improved by imaging (observing) two or more directions out of a plurality of directions and correcting the gripping deviation or the like by transporting the object once.

また、撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとが「一致」するとは、撮像光軸APの少なくとも一部とエンドエフェクタ3の中心軸とが同一軸となり完全に一致する場合だけでなく、ほぼ一致する場合も含む。また、撮像部4が、エンドエフェクタ3が把持する対象物OBを観察可能な位置であって、撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとを完全に一致させた位置から所定値だけオフセットさせた位置を目標位置としてもよい。この場合、撮像部4が撮像した対象物OBの撮像画像における対象物OBに対して所定値のオフセットを行うことで、撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとが完全に一致している場合に撮像した画像と同様に、対象物OBがオフセットしていない撮像画像を得ることができる。この場合、「一致」とは、撮像光軸APの少なくとも一部と、エンドエフェクタ3の中心軸AMとの平行度がほぼ一致していることを含む。また、エフェクタ装着部25とアーム接続部31とが嵌合等により小さい誤差で組み合わされる場合、エンドエフェクタ3の中心軸は、マニピュレータ2の中心軸と同じである。また、エンドエフェクタ3の中心軸は、把持部35A、35B、及び、ハンド本体34A、34Bのそれぞれの対称軸も含む。 Further, when at least a part of the imaging optical axis AP and the central axis AM of the end effector 3 "match", at least a part of the imaging optical axis AP and the central axis of the end effector 3 are on the same axis and completely coincide with each other. It includes not only the case of doing but also the case of almost matching. Further, the imaging unit 4 is a position where the object OB held by the end effector 3 can be observed, and at least a part of the imaging optical axis AP and the central axis AM of the end effector 3 are completely aligned with each other. The target position may be a position offset from the target position by a predetermined value. In this case, by offsetting a predetermined value with respect to the object OB in the captured image of the object OB imaged by the imaging unit 4, at least a part of the imaging optical axis AP and the central axis AM of the end effector 3 become Similar to the image captured when the images match perfectly, it is possible to obtain an captured image in which the object OB is not offset. In this case, "matching" includes that at least a part of the imaging optical axis AP and the central axis AM of the end effector 3 have substantially the same parallelism. Further, when the effector mounting portion 25 and the arm connecting portion 31 are combined with each other with a smaller error in fitting or the like, the central axis of the end effector 3 is the same as the central axis of the manipulator 2. The central axis of the end effector 3 also includes the axes of symmetry of the grip portions 35A and 35B and the hand bodies 34A and 34B, respectively.

なお、技術範囲は、上述した実施形態等で説明した態様に限定されるものではない。上述した実施形態等で説明した要件の1つ以上は、省略されることがある。また、上述した実施形態等で説明した要件は、適宜、組み合わせることができる。また、法令で許容される限りにおいて、上述した実施形態等で引用した全ての文献の開示を援用して本文の記載の一部とする。 The technical scope is not limited to the aspects described in the above-described embodiments and the like. One or more of the requirements described in the above-described embodiments and the like may be omitted. In addition, the requirements described in the above-described embodiments and the like can be combined as appropriate. In addition, to the extent permitted by law, the disclosure of all documents cited in the above-mentioned embodiments and the like shall be incorporated as part of the description in the main text.

1A・・・観察システム、2・・・マニピュレータ、3・・・エンドエフェクタ、4・・・撮像部、5・・・光学系、7・・・ロボット制御装置、71・・・信号入力部、72・・・記憶部、73・・・算出部、74・・・補正部、75・・・移動制御部、76・・・エンドエフェクタ制御部、77・・・撮像制御部、78・・・信号出力部 1A ... Observation system, 2 ... Manipulator, 3 ... End effector, 4 ... Imaging unit, 5 ... Optical system, 7 ... Robot control device, 71 ... Signal input unit, 72 ... Storage unit, 73 ... Calculation unit, 74 ... Correction unit, 75 ... Movement control unit, 76 ... End effector control unit, 77 ... Imaging control unit, 78 ... Signal output section

Claims (26)

エンドエフェクタを備えるロボットマニピュレータを制御するロボット制御装置であって、
前記ロボットマニピュレータから独立して配置された光学系を介して、対象物を撮像する撮像部が、前記エンドエフェクタが保持する対象物を撮像可能な位置に、前記ロボットマニピュレータを移動させるロボット制御部、
を備える、ロボット制御装置。
A robot control device that controls a robot manipulator equipped with an end effector.
A robot control unit that moves the robot manipulator to a position where an imaging unit that images an object can image an object held by the end effector via an optical system that is arranged independently of the robot manipulator.
A robot control device.
前記ロボット制御部は、前記撮像部の撮像光軸の少なくとも一部と、前記エンドエフェクタの中心軸とが一致する目標位置に、前記ロボットマニピュレータを移動させる、請求項1に記載のロボット制御装置。 The robot control device according to claim 1, wherein the robot control unit moves the robot manipulator to a target position where at least a part of the image pickup optical axis of the image pickup unit and the central axis of the end effector coincide with each other. 前記光学系は、複数の光学素子から構成され、
前記ロボット制御部は、前記撮像部が対象物を撮像する撮像光路の途中に複数の前記光学素子の少なくとも1つが配置されるように、前記ロボットマニピュレータを制御する、請求項1又は請求項2に記載のロボット制御装置。
The optical system is composed of a plurality of optical elements.
The robot control unit controls the robot manipulator so that at least one of the plurality of optical elements is arranged in the middle of an imaging optical path in which the imaging unit images an object, according to claim 1 or 2. The robot control device described.
前記エンドエフェクタは、対象物を把持することにより保持する少なくとも2つの指部、を有する、請求項1から請求項3のいずれか一項に記載のロボット制御装置。 The robot control device according to any one of claims 1 to 3, wherein the end effector has at least two fingers that hold the object by gripping it. 前記指部は、対象物の形状に応じて変形し、対象物を把持する変形部、を有する、請求項4に記載のロボット制御装置。 The robot control device according to claim 4, wherein the finger portion is deformed according to the shape of the object and has a deformed portion that grips the object. 前記エンドエフェクタが保持した対象物を前記撮像部により撮像した画像と、前記エンドエフェクタが保持した対象物の大きさ及び形状に関する情報とに基づいて、保持前に対して保持後の対象物の状態の変化量を算出する算出部と、
前記算出部が算出した前記変化量に基づいて、対象物の搬送先における前記エンドエフェクタの位置及び姿勢のうち少なくとも1つを補正する補正部と、を備える、請求項1から請求項5のいずれか一項に記載のロボット制御装置。
Based on the image of the object held by the end effector taken by the imaging unit and the information on the size and shape of the object held by the end effector, the state of the object before and after holding. A calculation unit that calculates the amount of change in
Any of claims 1 to 5, further comprising a correction unit that corrects at least one of the positions and postures of the end effector at the destination of the object to be transported based on the change amount calculated by the calculation unit. The robot control device according to claim 1.
前記補正部は、前記撮像部の撮像光軸と、前記エンドエフェクタの中心軸との所定の間隔からのずれを示す間隔ずれ量に基づいて、対象物の搬送先の位置を補正する、請求項6に記載のロボット制御装置。 The correction unit corrects the position of the transport destination of the object based on the amount of the interval deviation indicating the deviation from the predetermined distance between the imaging optical axis of the imaging unit and the central axis of the end effector. 6. The robot control device according to 6. 前記ロボット制御部は、前記ロボットマニピュレータから独立して配置された第1光学系と、前記ロボットマニピュレータに支持された第2光学系とを組み合わせた光学系を介して、対象物を撮像する前記撮像部の撮像光軸の少なくとも一部と、前記エンドエフェクタの中心軸とが一致する目標位置に、前記ロボットマニピュレータを移動させる、請求項1から請求項7のいずれか一項に記載のロボット制御装置。 The robot control unit takes an image of an object via an optical system that combines a first optical system arranged independently of the robot manipulator and a second optical system supported by the robot manipulator. The robot control device according to any one of claims 1 to 7, wherein the robot manipulator is moved to a target position where at least a part of the imaging optical axis of the unit and the central axis of the end effector coincide with each other. .. 請求項1から請求項8のいずれか一項に記載のロボット制御装置と、
エンドエフェクタを備えるロボットマニピュレータから独立して配置された光学系と、
前記光学系を介して前記エンドエフェクタが保持する対象物を撮像する撮像部と、
を有する、観察システム。
The robot control device according to any one of claims 1 to 8.
An optical system that is placed independently of the robot manipulator with an end effector,
An imaging unit that captures an object held by the end effector via the optical system, and an imaging unit.
Has an observation system.
前記光学系は、少なくとも2つの光学素子を有する、請求項9に記載の観察システム。 The observation system according to claim 9, wherein the optical system has at least two optical elements. 前記光学素子の少なくとも1つは、前記撮像部が対象物を撮像する撮像光路を折り曲げる折り曲げミラーである、請求項10に記載の観察システム。 The observation system according to claim 10, wherein at least one of the optical elements is a bending mirror that bends an imaging optical path in which the imaging unit images an object. 前記光学素子の少なくとも1つは、曲面ミラーである、請求項10又は請求項11に記載の観察システム。 The observation system according to claim 10 or 11, wherein at least one of the optical elements is a curved mirror. 前記撮像部の撮像光軸の少なくとも一部と、前記エンドエフェクタの中心軸とが一致する目標位置に前記ロボットマニピュレータが移動したときに、前記光学素子の少なくとも1つは、対象物と前記ロボットマニピュレータとの間、又は、対象物を挟んで前記ロボットマニピュレータの対面に配置される、請求項10から請求項12のいずれか一項に記載の観察システム。 When the robot manipulator moves to a target position where at least a part of the imaging optical axis of the imaging unit and the central axis of the end effector coincide with each other, at least one of the optical elements is an object and the robot manipulator. The observation system according to any one of claims 10 to 12, which is arranged between the robot manipulator and the robot manipulator with the object in between. 前記光学素子の少なくとも1つは、対象物の搬送元から搬送先を含む面の裏側に配置される、請求項10から請求項13のいずれか一項に記載の観察システム。 The observation system according to any one of claims 10 to 13, wherein at least one of the optical elements is arranged on the back side of a surface including a transport destination from a transport source of the object. 前記光学素子の少なくとも1つは、対象物の搬送元から搬送先までの搬送経路の途中に配置される、請求項10から請求項13のいずれか一項に記載の観察システム。 The observation system according to any one of claims 10 to 13, wherein at least one of the optical elements is arranged in the middle of a transport path from the transport source to the transport destination of the object. 前記ロボットマニピュレータは、前記撮像部を支持する、請求項9から請求項15のいずれか一項に記載の観察システム。 The observation system according to any one of claims 9 to 15, wherein the robot manipulator supports the imaging unit. 前記撮像部は、前記ロボットマニピュレータから独立して配置される、請求項9から請求項15のいずれか一項に記載の観察システム。 The observation system according to any one of claims 9 to 15, wherein the imaging unit is arranged independently of the robot manipulator. 請求項8に記載のロボット制御装置と、
エンドエフェクタを備えるロボットマニピュレータから独立して配置された第1光学系と、
前記ロボットマニピュレータに支持された第2光学系と、
対象物を撮像する撮像部と、
を有し、
前記撮像部は、前記撮像部の撮像光軸の少なくとも一部と、前記エンドエフェクタの中心軸とが一致する目標位置に前記ロボットマニピュレータが移動したときに、前記第1光学系と前記第2光学系とを組み合わせた光学系を介して対象物を撮像する、
観察システム。
The robot control device according to claim 8 and
The first optical system, which is arranged independently of the robot manipulator equipped with the end effector,
The second optical system supported by the robot manipulator and
An imaging unit that captures an object and
Have,
When the robot manipulator moves to a target position where at least a part of the image pickup optical axis of the image pickup unit and the central axis of the end effector coincide with each other, the first optical system and the second optical system Image an object via an optical system combined with a system,
Observation system.
エンドエフェクタを備えるロボットマニピュレータと、
光学系と、
前記光学系を介して前記エンドエフェクタが保持する対象物を撮像する撮像部と、
を備える、ロボットシステム。
A robot manipulator with an end effector and
Optical system and
An imaging unit that captures an object held by the end effector via the optical system, and an imaging unit.
A robot system equipped with.
前記光学系は、前記撮像部の撮像光軸の少なくとも一部と、前記エンドエフェクタの中心軸とが一致するように配置される、請求項19に記載のロボットシステム。 The robot system according to claim 19, wherein the optical system is arranged so that at least a part of an imaging optical axis of the imaging unit and a central axis of the end effector coincide with each other. 前記光学系を構成する光学素子の少なくとも1つは、前記撮像部が対象物を撮像する撮像光路の少なくとも一部を折り曲げる折り曲げミラーである、請求項19又は請求項20に記載のロボットシステム。 The robot system according to claim 19 or 20, wherein at least one of the optical elements constituting the optical system is a folding mirror that bends at least a part of an imaging optical path in which the imaging unit images an object. 前記折り曲げミラーは、対象物と前記ロボットマニピュレータとの間に配置される、請求項21に記載のロボットシステム。 The robot system according to claim 21, wherein the bent mirror is arranged between an object and the robot manipulator. 前記エンドエフェクタを備える前記ロボットマニピュレータを制御するロボット制御部、を備える、請求項19から請求項22のいずれか一項に記載のロボットシステム。 The robot system according to any one of claims 19 to 22, further comprising a robot control unit that controls the robot manipulator including the end effector. 前記エンドエフェクタが保持した対象物を前記撮像部により撮像した画像と、前記エンドエフェクタが保持した対象物の大きさ及び形状に関する情報とに基づいて、保持前に対して保持後の対象物の状態の変化量を算出する算出部と、
前記算出部が算出した前記変化量に基づいて、対象物の搬送先における前記エンドエフェクタの位置及び姿勢のうち少なくとも1つを補正する補正部と、を備える、請求項23に記載のロボットシステム。
Based on the image of the object held by the end effector taken by the imaging unit and the information on the size and shape of the object held by the end effector, the state of the object before and after holding. A calculation unit that calculates the amount of change in
The robot system according to claim 23, further comprising a correction unit that corrects at least one of the positions and postures of the end effector at the destination of the object to be transported based on the change amount calculated by the calculation unit.
エンドエフェクタを備えるロボットマニピュレータを制御するロボット制御方法であって、
前記ロボットマニピュレータから独立して配置された光学系を介して、対象物を撮像する撮像部が、前記エンドエフェクタが保持する対象物を撮像可能な位置に、前記ロボットマニピュレータを移動させること、
を含む、ロボット制御方法。
A robot control method that controls a robot manipulator equipped with an end effector.
To move the robot manipulator to a position where an imaging unit that images an object can image an object held by the end effector via an optical system arranged independently of the robot manipulator.
Robot control methods, including.
エンドエフェクタを備えるロボットマニピュレータを制御するロボット制御装置であって、
前記ロボットマニピュレータから独立して配置された光学系を介して対象物を撮像する撮像部の撮像光軸の少なくとも一部と、前記エンドエフェクタの中心軸との平行度が一致し、且つ、前記エンドエフェクタが保持した対象物を前記撮像部が撮像可能な目標位置に、前記ロボットマニピュレータを移動させるロボット制御部と、
前記エンドエフェクタが保持した対象物を前記撮像部により撮像した画像と、前記エンドエフェクタが保持した対象物の大きさ及び形状に関する情報とに基づいて、保持前に対して保持後の対象物の状態の変化量を算出する算出部と、を備え、
前記算出部は、更に、前記撮像光軸の少なくとも一部と、前記エンドエフェクタの前記中心軸とが同一となる位置からの前記目標位置のオフセット量に基づいて、対象物の状態の前記変化量を算出する、ロボット制御装置。
A robot control device that controls a robot manipulator equipped with an end effector.
At least a part of the imaging optical axis of the imaging unit that images an object via an optical system arranged independently of the robot manipulator and the central axis of the end effector have the same parallelism, and the end A robot control unit that moves the robot manipulator to a target position where the image pickup unit can image an object held by the effector, and a robot control unit.
Based on the image of the object held by the end effector taken by the imaging unit and the information on the size and shape of the object held by the end effector, the state of the object before and after holding. It is equipped with a calculation unit that calculates the amount of change in
The calculation unit further increases the amount of change in the state of the object based on the amount of offset of the target position from the position where at least a part of the imaging optical axis and the central axis of the end effector are the same. A robot control device that calculates.
JP2019226237A 2019-12-16 2019-12-16 Robot control device, observation system, robot system, and robot control method Pending JP2021094623A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019226237A JP2021094623A (en) 2019-12-16 2019-12-16 Robot control device, observation system, robot system, and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019226237A JP2021094623A (en) 2019-12-16 2019-12-16 Robot control device, observation system, robot system, and robot control method

Publications (1)

Publication Number Publication Date
JP2021094623A true JP2021094623A (en) 2021-06-24

Family

ID=76430087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019226237A Pending JP2021094623A (en) 2019-12-16 2019-12-16 Robot control device, observation system, robot system, and robot control method

Country Status (1)

Country Link
JP (1) JP2021094623A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048640A1 (en) * 2022-09-02 2024-03-07 ダイキン工業株式会社 Robot system, automated pressing system, program, and pressing jig

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048640A1 (en) * 2022-09-02 2024-03-07 ダイキン工業株式会社 Robot system, automated pressing system, program, and pressing jig

Similar Documents

Publication Publication Date Title
CN109866206B (en) Robot system and control method for robot system
US9517563B2 (en) Robot system using visual feedback
JP6429473B2 (en) Robot system, robot system calibration method, program, and computer-readable recording medium
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
JP6855492B2 (en) Robot system, robot system control device, and robot system control method
JP2014180720A (en) Robot system and calibration method
JP2009148845A (en) Small-size production equipment
JP6860843B2 (en) Robot system, robot control device, and robot control method
JP5618770B2 (en) Robot calibration apparatus and calibration method
JP2009269110A (en) Assembly equipment
JP4287788B2 (en) Self-propelled robotic hand
JP6885856B2 (en) Robot system and calibration method
JP2019136834A (en) Connection device and connection method
JP6897396B2 (en) Control devices, robot systems and control methods
JP2006082171A (en) Tool location correcting method for articulated robot
JP4274558B2 (en) Calibration method
JP4613955B2 (en) Rotation axis calculation method, program creation method, operation method, and robot apparatus
US20160306340A1 (en) Robot and control device
US10369703B2 (en) Robot, control device, and robot system
JP2021094623A (en) Robot control device, observation system, robot system, and robot control method
JP6039382B2 (en) Robot system and control method of robot system
JP2006159399A (en) Working mobile robot
JP2006297559A (en) Calibration system and robot's calibration method
JP2009125839A (en) Weld teaching position correction system
JP2015085499A (en) Robot, robot system, control device and control method