JP2021013983A - Apparatus and method for acquiring deviation of moving locus of moving machine - Google Patents

Apparatus and method for acquiring deviation of moving locus of moving machine Download PDF

Info

Publication number
JP2021013983A
JP2021013983A JP2019129371A JP2019129371A JP2021013983A JP 2021013983 A JP2021013983 A JP 2021013983A JP 2019129371 A JP2019129371 A JP 2019129371A JP 2019129371 A JP2019129371 A JP 2019129371A JP 2021013983 A JP2021013983 A JP 2021013983A
Authority
JP
Japan
Prior art keywords
image data
tool
locus
moving machine
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019129371A
Other languages
Japanese (ja)
Inventor
晃市郎 林
Koichiro Hayashi
晃市郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019129371A priority Critical patent/JP2021013983A/en
Publication of JP2021013983A publication Critical patent/JP2021013983A/en
Pending legal-status Critical Current

Links

Images

Abstract

To meet the demand for the technique for acquiring more highly accurately a deviation from a reference of a moving locus of a moving machine.SOLUTION: An apparatus 70 comprises: an optical sensor 40 moved by a moving machine 14, and continuously imaging a visual feature of an object around the moving machine 14; a locus acquisition part 60 for acquiring a movement locus of the moving machine 14 from a time point when first image data is captured by the optical sensor 40 to a time point when second image data is captured by the optical sensor 40 after the capture of the first image data, on the basis of a position of the visual feature in the first image data and a position of the visual feature in the second image data; and a deviation amount acquisition part 62 for acquiring a deviation amount of the movement locus acquired by the locus acquisition part 60 from a reference locus.SELECTED DRAWING: Figure 2

Description

本発明は、移動機械の移動軌跡の基準からのずれを取得する装置、及び方法に関する。 The present invention relates to an apparatus and a method for acquiring a deviation from a reference of a moving locus of a moving machine.

移動機械の移動軌跡を補正する技術が知られている(例えば、特許文献1)。 A technique for correcting a moving locus of a moving machine is known (for example, Patent Document 1).

特開2001−167817号公報Japanese Unexamined Patent Publication No. 2001-167817

従来、移動機械の移動軌跡の基準からのずれを、より高精度に取得する技術が求められている。 Conventionally, there has been a demand for a technique for acquiring a deviation from a reference of a moving locus of a moving machine with higher accuracy.

本開示の一態様において、移動機械の移動軌跡の基準からのずれを取得する装置は、移動機械によって移動され、該移動機械が移動指令に従って移動している間に該移動機械の周囲の物体の視覚的特徴を連続的に撮像し、又は、移動機械から離隔して配置され、移動機械が移動指令に従って移動している間に該移動機械又は該移動機械によって移動される物体の視覚的特徴を連続的に撮像する光学センサと、光学センサが撮像した第1の画像データにおける視覚的特徴の位置と、該第1の画像データの後に光学センサが撮像した第2の画像データにおける視覚的特徴の位置とに基づいて、第1の画像データの撮像時点から第2の画像データの撮像時点までの移動機械の移動軌跡を取得する軌跡取得部と、軌跡取得部が取得した移動軌跡の、移動指令によって規定される移動機械の基準軌跡からのずれ量を取得するずれ量取得部とを備える。 In one aspect of the present disclosure, a device that obtains deviations from a reference of a moving locus of a moving machine is moved by the moving machine and of an object around the moving machine while the moving machine is moving according to a movement command. Visual features are continuously imaged or the visual features of the moving machine or an object moved by the moving machine while it is placed away from the moving machine and moving according to a movement command. The position of the optical feature that is continuously imaged, the position of the visual feature in the first image data captured by the optical sensor, and the visual feature in the second image data captured by the optical sensor after the first image data. A movement command of a locus acquisition unit that acquires the movement locus of the moving machine from the time when the first image data is captured to the time when the second image data is captured, and a movement command of the movement locus acquired by the locus acquisition unit based on the position. It is provided with a deviation amount acquisition unit for acquiring the deviation amount from the reference locus of the moving machine defined by.

本開示の他の態様において、移動機械の移動軌跡の基準からのずれを取得する方法は、移動機械によって移動される光学センサによって、該移動機械が移動指令に従って移動している間に該移動機械の周囲の物体の視覚的特徴を連続して撮像し、又は、移動機械から離隔して配置された光学センサによって、移動機械が移動指令に従って移動している間に該移動機械又は該移動機械によって移動される物体の視覚的特徴を連続的に撮像し、光学センサが撮像した第1の画像データにおける視覚的特徴の位置と、該第1の画像データの後に光学センサが撮像した第2の画像データにおける視覚的特徴の位置とに基づいて、第1の画像データの撮像時点から第2の画像データの撮像時点までの移動機械の移動軌跡を取得し、取得した移動軌跡の、移動指令によって規定される移動機械の基準軌跡からのずれ量を取得する。 In another aspect of the present disclosure, a method of obtaining a deviation of a moving locus of a moving machine from a reference is such that the moving machine is moved by an optical sensor moved by the moving machine while the moving machine is moving according to a movement command. By the moving machine or the moving machine while the moving machine is moving according to the movement command by an optical sensor that continuously images the visual features of the surrounding object or is located away from the moving machine. The visual features of the moving object are continuously imaged, the position of the visual features in the first image data captured by the optical sensor, and the second image captured by the optical sensor after the first image data. Based on the position of the visual feature in the data, the movement locus of the moving machine from the time of capturing the first image data to the time of capturing the second image data is acquired, and the acquired movement locus is defined by the movement command. The amount of deviation from the reference trajectory of the moving machine to be performed is acquired.

本開示によれば、光学センサが撮像する画像データから、移動機械の移動軌跡の基準軌跡からのずれ量を、自動的且つ高精度に求めることができる。 According to the present disclosure, the amount of deviation of the movement locus of the moving machine from the reference locus can be automatically and highly accurately obtained from the image data captured by the optical sensor.

一実施形態に係る機械システムの図である。It is a figure of the mechanical system which concerns on one Embodiment. 図1に示す機械システムのブロック図である。It is a block diagram of the mechanical system shown in FIG. 図1に示す光学装置の拡大図である。It is an enlarged view of the optical apparatus shown in FIG. 移動機械の目標位置及び基準軌跡を説明するための図である。It is a figure for demonstrating the target position and the reference locus of a moving machine. 移動機械が目標位置に配置されたときに光学センサが撮像した画像データの一例である。This is an example of image data captured by the optical sensor when the moving machine is placed at the target position. 図5に示す画像データの次に光学センサが撮像した画像データの一例である。This is an example of the image data captured by the optical sensor next to the image data shown in FIG. 図6に示す画像データの次に光学センサが撮像した画像データの一例である。This is an example of the image data captured by the optical sensor next to the image data shown in FIG. 移動機械の移動軌跡の基準からのずれを説明するための図である。It is a figure for demonstrating the deviation from the reference | movement locus of a moving machine. 図5に示す画像データの次に光学センサが撮像した画像データの一例である。This is an example of the image data captured by the optical sensor next to the image data shown in FIG. 図9に示す画像データの次に光学センサが撮像した画像データの一例である。This is an example of the image data captured by the optical sensor next to the image data shown in FIG. 図10に示す画像データの次に光学センサが撮像した画像データの一例である。This is an example of the image data captured by the optical sensor next to the image data shown in FIG. 移動機械の移動軌跡の基準からのずれを説明するための図である。It is a figure for demonstrating the deviation from the reference | movement locus of a moving machine. 図1に示す機械システムの他の機能を示すブロック図である。It is a block diagram which shows the other function of the mechanical system shown in FIG. 図13に示す機械システムの動作フローを示すフローチャートである。It is a flowchart which shows the operation flow of the mechanical system shown in FIG. ずれ量の他の例を説明するための図である。It is a figure for demonstrating another example of the deviation amount. 図1に示す機械システムのさらに他の機能を示すブロック図である。It is a block diagram which shows the other function of the mechanical system shown in FIG. 図13に示す機械システムの動作フローを示すフローチャートである。It is a flowchart which shows the operation flow of the mechanical system shown in FIG. 参照軌跡の基準からのずれを説明するための図である。It is a figure for demonstrating the deviation from the reference | reference of a reference locus. 参照軌跡及び移動軌跡の基準からのずれを説明するための図である。It is a figure for demonstrating the deviation from the reference | reference | reference locus, and the movement locus. 一実施形態に係るツールの図である。It is a figure of the tool which concerns on one Embodiment. 他の実施形態に係るツールの図である。It is a figure of the tool which concerns on other embodiment. さらに他の実施形態に係るツールの図である。It is a figure of the tool which concerns on still another embodiment. 他の実施形態に係る機械システムの図である。It is a figure of the mechanical system which concerns on other embodiment. 図23の機械システムにおける、移動機械の目標位置及び基準軌跡を示す図である。It is a figure which shows the target position and the reference locus of a moving machine in the mechanical system of FIG. 図23に示す移動機械が目標位置に配置されたときに光学センサが撮像した画像データの一例である。This is an example of image data captured by the optical sensor when the moving machine shown in FIG. 23 is placed at the target position. 図25に示す画像データの次に光学センサが撮像した画像データの一例である。This is an example of the image data captured by the optical sensor next to the image data shown in FIG. 25. 図26に示す画像データの次に光学センサが撮像した画像データの一例である。This is an example of the image data captured by the optical sensor next to the image data shown in FIG. 26. さらに他の実施形態に係る機械システムの図である。It is a figure of the mechanical system which concerns on still another embodiment. さらに他の実施形態に係る機械システムの図である。It is a figure of the mechanical system which concerns on still another embodiment. 光学センサの投光部が出射する光の模様の一例を示す。An example of the pattern of the light emitted by the light projecting portion of the optical sensor is shown. さらに他の実施形態に係る機械システムの図である。It is a figure of the mechanical system which concerns on still another embodiment. 光学センサが撮像する物体の他の例を示す。Another example of an object imaged by an optical sensor is shown.

以下、本開示の実施の形態を図面に基づいて詳細に説明する。なお、以下に説明する種々の実施形態において、同様の要素には同じ符号を付し、重複する説明を省略する。まず、図1〜図3を参照して、一実施形態に係る機械システム10について説明する。機械システム10は、制御装置12、移動機械14、及び光学装置16を備える。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In various embodiments described below, similar elements are designated by the same reference numerals, and duplicate description will be omitted. First, the mechanical system 10 according to the embodiment will be described with reference to FIGS. 1 to 3. The mechanical system 10 includes a control device 12, a mobile machine 14, and an optical device 16.

制御装置12は、プロセッサ(CPU、GPU等)18、及び記憶部(ROM、RAM等)20を有するコンピュータであって、移動機械14、及び光学装置16を制御する。プロセッサ18は、記憶部20とバス22を介して互いに通信可能に接続され、記憶部20と通信しつつ、各種演算を実行する。 The control device 12 is a computer having a processor (CPU, GPU, etc.) 18 and a storage unit (ROM, RAM, etc.) 20, and controls the mobile machine 14 and the optical device 16. The processor 18 is communicably connected to each other via the storage unit 20 and the bus 22, and executes various operations while communicating with the storage unit 20.

移動機械14は、マニピュレータ24、及びツール26を有する。本実施形態においては、マニピュレータ24は、垂直多関節型ロボットであって、ベース部28、旋回胴30、下腕部32、上腕部34、及び手首部36を有する。ベース部28は、作業セルの床の上に固定されている。 The mobile machine 14 has a manipulator 24 and a tool 26. In the present embodiment, the manipulator 24 is a vertical articulated robot, and has a base portion 28, a swivel body 30, a lower arm portion 32, an upper arm portion 34, and a wrist portion 36. The base portion 28 is fixed on the floor of the work cell.

旋回胴30は、鉛直軸周りに回動可能となるようにベース部28に固定されている。下腕部32は、水平軸周りに回動可能となるように旋回胴30に設けられている。上腕部34は、下腕部32の先端部に回動可能に設けられている。手首部36は、上腕部34の前端部に回動可能に設けられている。手首部36は、ツール26を回動可能に支持する。 The swivel body 30 is fixed to the base portion 28 so as to be rotatable around a vertical axis. The lower arm portion 32 is provided on the swivel cylinder 30 so as to be rotatable around a horizontal axis. The upper arm portion 34 is rotatably provided at the tip end portion of the lower arm portion 32. The wrist portion 36 is rotatably provided at the front end portion of the upper arm portion 34. The wrist portion 36 rotatably supports the tool 26.

マニピュレータ24は、複数のサーボモータ38(図2)を有する。これらサーボモータ38は、ベース部28、旋回胴30、下腕部32、上腕部34、及び手首部36に内蔵され、制御装置12からの指令に応じて、マニピュレータ24の可動コンポーネント(すなわち、旋回胴30、下腕部32、上腕部34、及び手首部36)の各々を、駆動軸の周りに回転駆動する。 The manipulator 24 has a plurality of servomotors 38 (FIG. 2). These servomotors 38 are built in the base portion 28, the swivel body 30, the lower arm portion 32, the upper arm portion 34, and the wrist portion 36, and are movable components (that is, swivel) of the manipulator 24 in response to a command from the control device 12. Each of the body 30, the lower arm 32, the upper arm 34, and the wrist 36) is rotationally driven around the drive shaft.

ツール26は、例えば、レーザ加工ヘッド、スポット溶接ガン、又はロボットハンドであって、ワークWに対して所定の作業(レーザ加工、溶接、又はワークハンドリング等)を行う。ツール26は、手首部36に着脱可能に取りけられ、マニピュレータ24によって移動される。 The tool 26 is, for example, a laser processing head, a spot welding gun, or a robot hand, and performs a predetermined operation (laser processing, welding, work handling, etc.) on the work W. The tool 26 is detachably attached to the wrist portion 36 and moved by the manipulator 24.

マニピュレータ24には、マニピュレータ座標系Cが設定されている。マニピュレータ座標系Cは、マニピュレータ24の可動コンポーネントを自動制御するための座標系である。本実施形態においては、マニピュレータ座標系Cの原点が、ベース部28の中心に配置され、マニピュレータ座標系Cのz軸が、実空間の鉛直方向に平行であり、旋回胴30が、マニピュレータ座標系Cのz軸周りに回動されるように、マニピュレータ座標系Cが設定されている。ワークWは、その表面がマニピュレータ座標系Cのx−y平面と略平行となるように、マニピュレータ座標系Cの予め定められた位置に配置されている。 The manipulator 24, the manipulator coordinate system C M is set. Manipulator coordinate system C M is a coordinate system for automatically controlling the movable components of the manipulator 24. In this embodiment, the origin of the manipulator coordinate system C M is positioned in the center of the base portion 28, z-axis of the manipulator coordinate system C M is parallel to the vertical direction in the real space, rotating body 30 is, manipulators as will be rotated about the z-axis of the coordinate system C M, the manipulator coordinate system C M is set. Workpiece W has a surface such that a substantially parallel and the x-y plane of the manipulator coordinate system C M, is disposed at a predetermined position of the manipulator coordinate system C M.

一方、ツール26には、ツール座標系Cが設定される。このツール座標系Cは、3次元空間内におけるツール26の位置及び姿勢を自動制御するための座標系である。プロセッサ18は、ツール26の位置及び姿勢を、ツール座標系Cによって規定される位置及び姿勢に一致させるように、マニピュレータ24の可動コンポーネントの各々を、マニピュレータ座標系Cにおいて動作させる。こうして、ツール26は、マニピュレータ24によって移動され、マニピュレータ座標系Cにおける任意の位置及び姿勢に配置される。 On the other hand, the tool coordinate system CT is set in the tool 26. This tool coordinate system CT is a coordinate system for automatically controlling the position and orientation of the tool 26 in the three-dimensional space. Processor 18, the position and attitude of the tool 26, as to match the position and orientation is defined by the tool coordinate system C T, each of the movable components of the manipulator 24 operates in the manipulator coordinate system C M. Thus, the tool 26 is moved by the manipulator 24, it is disposed in an arbitrary position and orientation in the manipulator coordinate system C M.

図3に示すように、光学装置16は、光学センサ40、及び距離センサ42を有する。光学センサ40は、物体を撮像して該物体の画像データを取得する。本実施形態において、光学センサ40は、投光部40a及び受光部40bを有する。投光部40aは、光軸Oに沿って光(例えば、レーザ光)を出射し、該光を撮像対象に照射する。 As shown in FIG. 3, the optical device 16 has an optical sensor 40 and a distance sensor 42. The optical sensor 40 takes an image of an object and acquires image data of the object. In the present embodiment, the optical sensor 40 has a light emitting unit 40a and a light receiving unit 40b. The light projecting unit 40a emits light (for example, laser light) along the optical axis O and irradiates the imaging target with the light.

受光部40bは、撮像センサ(CCD、CMOS等)を有し、投光部40aによって撮像対象に照射された光の反射光を受光する。受光部40bは、受光した光を電気信号に変換し、撮像対象の画像データを取得する。光学センサ40に対しては、撮像座標系Cが設定されている。撮像座標系Cは、光学センサ40が撮像する画像データの各画素の座標を規定する座標系であって、光学センサ40によって撮像された画像データの各画素は、撮像座標系Cにおいて座標化される。 The light receiving unit 40b has an image pickup sensor (CCD, CMOS, etc.) and receives the reflected light of the light emitted to the image pickup target by the light projecting unit 40a. The light receiving unit 40b converts the received light into an electric signal and acquires image data to be imaged. For the optical sensor 40, the imaging coordinate system C I is set. Imaging coordinate system C I is a coordinate system that defines the coordinates of each pixel of the image data which the optical sensor 40 is captured, each pixel of image data captured by the optical sensor 40, the coordinates in the imaging coordinate system C I Be transformed.

距離センサ42は、光学センサ40から撮像対象までの光軸Oの方向の距離を測定する。具体的には、距離センサ42は、いわゆる光学式距離センサであって、投光部42a、受光部42b、及び距離演算部42cを有する。投光部42aは、光軸Oに沿って光(例えば、レーザ光)を出射し、該光を、光学センサ40の撮像対象に照射する。 The distance sensor 42 measures the distance in the direction of the optical axis O from the optical sensor 40 to the image pickup target. Specifically, the distance sensor 42 is a so-called optical distance sensor, and has a light projecting unit 42a, a light receiving unit 42b, and a distance calculation unit 42c. The light projecting unit 42a emits light (for example, laser light) along the optical axis O, and irradiates the image pickup target of the optical sensor 40 with the light.

受光部42bは、投光部42aによって撮像対象に照射された光の反射光を受光する。距離演算部42cは、プロセッサ等を有し、投光部42aが光を出射してから、受光部42bが該光の反射光を受光するまでの時間に基づいて、光学センサ40から撮像対象までの距離を測定する。なお、距離センサ42は、光学式距離センサに限定されず、光学センサ40から撮像対象までの距離を測定可能であれば、如何なるタイプのセンサであってもよい。 The light receiving unit 42b receives the reflected light of the light emitted to the image pickup target by the light projecting unit 42a. The distance calculation unit 42c has a processor or the like, and is from the optical sensor 40 to the image pickup target based on the time from when the light projecting unit 42a emits light until the light receiving unit 42b receives the reflected light of the light. Measure the distance of. The distance sensor 42 is not limited to the optical distance sensor, and may be any type of sensor as long as the distance from the optical sensor 40 to the image pickup target can be measured.

本実施形態においては、光学装置16は、ツール26に固定され、該ツール26とともにマニピュレータ24によって移動される。光学装置16は、ツール26に対して所定の位置関係となるように、配置される。具体的には、光学装置16は、光軸Oがツール座標系Cのz軸と平行となる(又は、一致する)ように、ツール26に対して配置されている。したがって、撮像座標系Cのx−y平面は、ツール座標系Cのz軸と直交する。 In this embodiment, the optical device 16 is fixed to the tool 26 and moved together with the tool 26 by the manipulator 24. The optical device 16 is arranged so as to have a predetermined positional relationship with respect to the tool 26. Specifically, the optical device 16, the optical axis O is parallel to the z axis of the tool coordinate system C T (or the matching) manner, are arranged with respect to the tool 26. Thus, x-y plane of the image acquisition coordinate system C I is orthogonal to the z axis of the tool coordinate system C T.

次に、機械システム10の動作について説明する。プロセッサ18は、マニピュレータ24を動作させてツール26を移動させつつ、該ツール26によってワークW上の作業箇所に対して所定の作業(レーザ加工、溶接、又はワークハンドリング等)を行う。ワークWに対する作業を行うとき、プロセッサ18は、ツール26を複数の目標位置P(n=1,2,3,・・・)に順に配置させる。 Next, the operation of the mechanical system 10 will be described. The processor 18 operates the manipulator 24 to move the tool 26, and the tool 26 performs a predetermined work (laser machining, welding, work handling, etc.) on the work portion on the work W. When performing work on the work W, the processor 18 sequentially arranges the tool 26 at a plurality of target positions P n (n = 1, 2, 3, ...).

図4に、目標位置Pの一例を示す。図4に示す例では、5つの目標位置P〜Pが設定されている。例えば、5つの目標位置P〜Pの各々は、ツール26を配置させるようにマニピュレータ24に教示する教示点である。代替的には、5つの目標位置P〜Pのうち、目標位置P、P及びPが教示点である一方、目標位置PとPの間の目標位置Pと、目標位置PとPの間の目標位置Pとは、補間点である。この補間点は、前後の教示点のマニピュレータ座標系Cの座標、及び、該前後の教示点の間のツール26の移動軌跡の滑らかさ等を鑑み、該前後の教示点の座標から演算によって求められる。 FIG. 4 shows an example of the target position P n . In the example shown in FIG. 4, five target positions P 1 to P 5 are set. For example, each of the five target positions P 1 to P 5 is a teaching point for teaching manipulator 24 so as to place the tool 26. Alternatively, of the five target positions P 1 to P 5 , the target positions P 1 , P 3 and P 5 are teaching points, while the target positions P 2 between the target positions P 1 and P 3 and the target position P 4 between the target position P 3 and P 5 are interpolation points. The interpolation point coordinates of the manipulator coordinate system C M before and after the teaching point, and, in view of the smoothness and the like of the moving locus of the tool 26 between the teaching points after the front, by calculation from the teaching point after front coordinates Desired.

以下の説明では、目標位置Pが、ツール26によってワークWの作業箇所に作業を行うための作業位置であるとする。この場合、プロセッサ18は、ワークWの作業のために、ツール26を、目標位置P→P→P→P→Pの順に、配置させる。ツール26を目標位置P(n=1〜5)に配置させるとき、プロセッサ18は、ツール座標系Cの原点(いわゆる、TCP)が目標位置Pに配置されるように、ツール座標系Cを設定する。 In the following description, the target position P 5 is assumed to be the working position for working on the working position of the workpiece W by the tool 26. In this case, the processor 18 arranges the tool 26 in the order of the target position P 1 → P 2 → P 3 → P 4 → P 5 for the work of the work W. When causing the tool 26 is positioned at the target position P n (n = 1~5), the processor 18, as the origin of the tool coordinate system C T (so-called, TCP) are arranged in a target position P n, the tool coordinate system setting the C T.

そして、プロセッサ18は、設定したツール座標系Cによって規定される位置及び姿勢に一致させるように、マニピュレータ24によってツール26を移動させ、これにより、ツール26を目標位置Pに配置する。プロセッサ18は、ツール26を目標位置Pへ移動させる一連の動作を、作業プログラムWPに従って実行する。 Then, the processor 18, to match the position and orientation is defined by the tool coordinate system C T set, moving the tool 26 by the manipulator 24, thereby placing the tool 26 to the target position P n. The processor 18 executes a series of operations for moving the tool 26 to the target position Pn according to the work program WP.

作業プログラムWPは、ツール26を、目標位置Pから目標位置Pn+1へ移動させるための移動指令MCを含む。移動指令MCは、目標位置P及びPn+1の情報(具体的には、マニピュレータ座標系Cの座標)を含む。作業プログラムWPは、ツール26を教示点としての目標位置Pの各々へ移動させる動作をマニピュレータ24に教示すること等によって構築され、記憶部20に予め記憶される。 The work program WP includes a movement command MC n for moving the tool 26 from the target position P n to the target position P n + 1 . Movement command MC n (specifically, coordinates of the manipulator coordinate system C M) target position P n and P n + 1 information including. The work program WP is constructed by instructing the manipulator 24 or the like to move the tool 26 to each of the target positions P n as a teaching point, and is stored in advance in the storage unit 20.

作業プログラムWPに含まれる移動指令MCによって、マニピュレータ24がツール26を移動させるべき基準軌跡Aが規定される。例えば、図4に示す例の場合、基準軌跡A〜Aが規定されている。これら基準軌跡Aは、作業プログラムWP上で規定される制御上の軌跡である。 The movement command MC n included in the work program WP, the manipulator 24 is standard locus A n to move the tool 26 is defined. For example, in the case of the example shown in FIG. 4, reference trajectories A 1 to A 4 are defined. These reference loci An are control loci defined on the work program WP.

ここで、プロセッサ18が作業プログラムWPに従ってマニピュレータ24へ移動指令MCを発信し、該マニピュレータ24が移動指令MCに従ってツール26を移動させた場合でも、ツール26の実際の移動軌跡が基準軌跡Aからずれる場合がある。このような移動軌跡のずれは、例えば、マニピュレータ24によってツール26を移動させるときの加減速等によって該ツール26に生じる微小振動、又は、マニピュレータ24の可動コンポーネント間のバックラッシに起因する。 Here, even when the processor 18 transmits a movement command MC n to the manipulator 24 according to the work program WP and the manipulator 24 moves the tool 26 according to the movement command MC n , the actual movement locus of the tool 26 is the reference locus A. It may deviate from n . Such a deviation of the movement locus is caused by, for example, minute vibration generated in the tool 26 due to acceleration / deceleration when the tool 26 is moved by the manipulator 24, or backlash between the movable components of the manipulator 24.

このように移動軌跡のずれが生じると、ツール26を作業位置(つまり、目標位置P)に配置させて該ツール26によってワークWに対する作業を実行したときに、ツール26がワークWに対して実際に作業する位置が、ワークW上に定められた作業箇所からずれてしまうことになり得る。 With such shift of the movement trajectory is generated, the working position the tool 26 (i.e., the target position P 5) when the tasks on the workpiece W by the tool 26 is disposed on the tool 26 against the workpiece W The actual work position may deviate from the work location defined on the work W.

そこで、本実施形態においては、プロセッサ18は、ツール26を目標位置Pの各々へ移動させるときの移動軌跡の基準軌跡Aからのずれを取得する。以下、機械システム10においてずれ量を取得する機能について説明する。プロセッサ18は、作業プログラムWPに従ってマニピュレータ24のサーボモータ38へ移動指令MCを発信し、マニピュレータ24は、プロセッサ18からの移動指令MCに従って、ツール26を目標位置P、P、P、P及びPへ順に移動させる。 Therefore, in this embodiment, the processor 18 obtains the deviation from the standard locus A n of the movement trajectory when moving the tool 26 into each of the target position P n. Hereinafter, the function of acquiring the deviation amount in the mechanical system 10 will be described. The processor 18 transmits a movement command MC n to the servomotor 38 of the manipulator 24 according to the work program WP, and the manipulator 24 sets the tool 26 to the target positions P 1 , P 2 , P 3 according to the movement command MC n from the processor 18. , it is moved in order to P 4 and P 5.

ここで、光学センサ40が物体を撮像することができる撮像範囲には、制限がある。光学センサ40の撮像範囲は、該光学センサ40の仕様(撮像センサのサイズ、焦点距離等)に依存する。以下、ツール26が目標位置P〜Pの間の位置にあるときに、ワークWが光学センサ40の撮像範囲に入るものとする。 Here, there is a limit to the imaging range in which the optical sensor 40 can image an object. The imaging range of the optical sensor 40 depends on the specifications of the optical sensor 40 (size of the imaging sensor, focal length, etc.). Hereinafter, when the tool 26 is in position between the target position P 3 to P 5, it is assumed that the workpiece W enters the imaging range of the optical sensor 40.

また、プロセッサ18は、ツール26を目標位置P、P及びPに配置するときに、ツール座標系Cのz軸(又は、光軸O)が、マニピュレータ座標系Cのx−y平面(又は、ワークWの表面)と直交するように、ツール座標系Cを設定し、ツール26の姿勢を一定に維持したまま、ツール26を目標位置P、P及びPへ移動させるものとする。 The processor 18, when placing the tool 26 at the target position P 3, P 4 and P 5, z-axis of the tool coordinate system C T (or, the optical axis O) is, of the manipulator coordinate system C M x- y plane (or the surface of the workpiece W) so as to be perpendicular to, to set the tool coordinate system C T, while maintaining the posture of the tool 26 to be constant, the tool 26 to the target position P 3, P 4 and P 5 It shall be moved.

プロセッサ18は、ツール26を目標位置P、P及びPへ順に移動させている間に光学センサ40を動作させて、移動機械14の周囲の物体としてワークWを連続的に撮像する。具体的には、プロセッサ18は、ツール26が目標位置P、P及びPの各々に到達した時点で、ワークWを撮像する。 The processor 18 operates the optical sensor 40 while the tool 26 is moved sequentially to the target position P 3, P 4 and P 5, continuously imaging the work W as an object around the mobile machine 14. Specifically, processor 18, when the tool 26 has reached the respective target positions P 3, P 4 and P 5, to image the workpiece W.

プロセッサ18は、マニピュレータ24の位置データ(例えば、各サーボモータ38の回転角度等)から、ツール26が、制御上の目標位置P、P及びPに到達したか否かを検知できる。プロセッサ18は、ツール26が制御上の目標位置P、P及びPに到達したことを検知した時点で、光学センサ40にワークWを撮像させる。 Processor 18, the position data of the manipulator 24 (e.g., the rotation angle of each servo motor 38) from the tool 26 can detect whether or not the target position has been reached P 3, P 4 and P 5 on the control. When the processor 18 detects that the tool 26 has reached the control target positions P 3 , P 4, and P 5 , the optical sensor 40 causes the optical sensor 40 to image the work W.

図5は、プロセッサ18がツール26を目標位置Pに配置したことを検知した時点τP3で光学センサ40がワークWを撮像した画像データ50を画像化した例を示す。図5に示す画像データ50には、ワークWの表面に存在する微小な凹凸等の視覚的特徴が模様を形成するように写っている。プロセッサ18は、画像データ50を画像解析し、画像データ50に含まれる1つの視覚的特徴VF(つまり、図5の画像データ50に写る黒点)を抽出する。 Figure 5 shows an example in which the processor 18 has imaged image data 50 optical sensor 40 images the workpiece W at the time tau P3 has been detected in that a tool 26 to the target position P 3. In the image data 50 shown in FIG. 5, visual features such as minute irregularities existing on the surface of the work W are reflected so as to form a pattern. The processor 18 performs image analysis on the image data 50 and extracts one visual feature VF (that is, a black dot reflected in the image data 50 of FIG. 5) included in the image data 50.

プロセッサ18は、画像データ50から抽出した視覚的特徴VFの、該画像データ50における位置を求める。具体的には、画像データ50における視覚的特徴VFの位置を示す情報として、画像データ50にて視覚的特徴VFを写す1つの画素(例えば、視覚的特徴VFの画像領域の中心の画素)の、撮像座標系Cの座標(x,y)を取得する。 The processor 18 obtains the position of the visual feature VF extracted from the image data 50 in the image data 50. Specifically, as information indicating the position of the visual feature VF in the image data 50, one pixel (for example, the central pixel of the image region of the visual feature VF) in which the visual feature VF is copied in the image data 50. , and acquires the coordinates (x 3, y 3) of the imaging coordinate system C I.

図6に、プロセッサ18がツール26を目標位置Pに配置したことを検知した時点τP4で光学センサ40がワークWを撮像した画像データ52を画像化した例を示す。なお、図6においては、比較のために、図5に示す画像データ50に写る視覚的特徴VFの位置を、白点Dとして図示している。 Figure 6 shows an example in which the processor 18 has imaged image data 52 optical sensor 40 images the workpiece W at the time tau P4 was detected in that a tool 26 to the target position P 4. In FIG. 6, for comparison, the position of the visual features VF caught on the image data 50 shown in FIG. 5, illustrated as white dots D 3.

プロセッサ18は、画像データ52を画像解析し、画像データ50と共通の視覚的特徴VFを抽出する。図6に示すように、画像データ52に写る視覚的特徴VFの位置は、画像データ50に写る視覚的特徴VFの位置Dから、変位量Eだけ、撮像座標系Cにおいて変位している。プロセッサ18は、画像データ52における視覚的特徴VFの位置として、画像データ52にて視覚的特徴VFを写す1つの画素の、撮像座標系Cにおける座標(x,y)を取得する。 The processor 18 performs image analysis on the image data 52 and extracts a visual feature VF common to the image data 50. As shown in FIG. 6, the position of the visual features VF caught on the image data 52 from the position D 3 of the visual features VF caught on the image data 50, only the displacement amount E 3, displaced in the imaging coordinate system C I There is. Processor 18, as the position of the visual features VF in the image data 52 is acquired by the image data 52 of one pixel copy visual characteristics VF, the coordinates (x 4, y 4) in the imaging coordinate system C I.

図7に、プロセッサ18がツール26を目標位置Pに配置したことを検知した時点τP5で光学センサ40がワークWを撮像した画像データ54を画像化した例を示す。なお、図7においては、比較のために、図5に示す画像データ50に写る視覚的特徴VFの位置を白点Dとして図示し、図6に示す画像データ52に写る視覚的特徴VFの位置を白点Dとして図示している。 Figure 7 shows an example in which the processor 18 has imaged image data 54 optical sensor 40 images the workpiece W at the time tau P5 it is detected that placing the tool 26 in the target position P 5. In FIG. 7, for comparison, illustrates the position of the visual features VF caught on the image data 50 shown in FIG. 5 as a white spot D 3, the visual features VF caught on the image data 52 shown in FIG. 6 It is shown positioned as white dots D 4.

プロセッサ18は、画像データ54を画像解析し、画像データ50及び52と共通の視覚的特徴VFを抽出する。図7に示すように、画像データ54に写る視覚的特徴VFの位置は、画像データ52に写る視覚的特徴VFの位置Dから、変位量Eだけ、撮像座標系Cにおいて変位している。 The processor 18 performs image analysis on the image data 54 and extracts a visual feature VF common to the image data 50 and 52. As shown in FIG. 7, the position of the visual features VF caught on the image data 54 from the position D 4 of the visual features VF caught on the image data 52, only the displacement amount E 4, displaced in the imaging coordinate system C I There is.

プロセッサ18は、画像データ54における視覚的特徴VFの位置として、画像データ54にて視覚的特徴VFを写す1つの画素の、撮像座標系Cにおける座標(x,y)を取得する。以上のように、光学センサ40は、ツール26が制御上の目標位置P、P及びPに到達したことを検知した時点τP3、τP4及びτP5で、ワークWの視覚的特徴VFを連続的に撮像する。 Processor 18, as the position of the visual features VF in the image data 54 is acquired by the image data 54 of one pixel copy visual characteristics VF, the coordinates (x 5, y 5) in the imaging coordinate system C I. As described above, the optical sensor 40, a target position on the tool 26 is controlled P 3, P 4 and the time tau P3 detects the arrival at the P 5, in tau P4 and tau P5, visual features of the workpiece W The VF is continuously imaged.

一方、光学センサ40がワークWを撮像する動作と同期して、プロセッサ18は、距離センサ42を動作させて、光学センサ40とワークWとの光軸Oの方向の距離Fを測定する。したがって、距離センサ42は、光学センサ40がワークWを撮像した時点τP3、τP4及びτP5で、光学センサ40とワークWとの光軸Oの方向の距離FP3、FP4及びFP5を、それぞれ測定する。 On the other hand, in synchronization with the operation of the optical sensor 40 to image the work W, the processor 18 operates the distance sensor 42 to measure the distance F in the direction of the optical axis O between the optical sensor 40 and the work W. Therefore, the distance sensor 42 is the distances F P3 , F P4, and F P5 in the direction of the optical axis O between the optical sensor 40 and the work W at the time points τ P3 , τ P4, and τ P5 when the optical sensor 40 images the work W. Are measured respectively.

そして、プロセッサ18は、画像データ50における視覚的特徴VFの位置と、該画像データ50の後に撮像された画像データ52における視覚的特徴VFの位置とに基づいて、画像データ50の撮像時点τP3から画像データ52の撮像時点τP4までのツール26の移動軌跡Kを取得する。 Then, the processor 18 is based on the position of the visual feature VF in the image data 50 and the position of the visual feature VF in the image data 52 captured after the image data 50, and the image data 50 is captured at the time of imaging τ P3. to obtain the movement locus K 3 of tool 26 to the imaging time tau P4 of the image data 52 from.

具体的には、プロセッサ18は、上述のように取得した座標(x,y)と座標(x,y)との差を、撮像座標系Cにおける変位量E(図6)として求める。なお、変位量Eはベクトルである。上述したように、ツール26を目標位置P〜Pへ移動するとき、光軸OがワークWの表面と直交するように、ツール座標系Cが設定されている(換言すれば、ツール26の姿勢が一定となっている)。よって、ツール26を目標位置P〜Pへ移動するときの、マニピュレータ座標系Cに対する撮像座標系Cの姿勢(つまり、各軸の方向)が既知となる。 Specifically, processor 18, a difference between the acquired coordinates as described above (x 3, y 3) and the coordinates (x 4, y 4), the displacement amount E 3 in the imaging coordinate system C I (Fig. 6 ). The displacement amount E 3 is a vector. As described above, when moving the tool 26 to the target position P 3 to P 5, so that the optical axis O is orthogonal to the surface of the workpiece W, the tool coordinate system C T is set (in other words, the tool The posture of 26 is constant). Therefore, when moving the tool 26 to the target position P 3 to P 5, orientation of the imaging coordinate system C I for the manipulator coordinate system C M (i.e., the direction of each axis) is known.

プロセッサ18は、マニピュレータ座標系Cに対する撮像座標系Cの姿勢情報と、撮像座標系Cにおける変位量Eと、距離FP3及びFP4とから、時点τP3から時点τP4までのツール26のマニピュレータ座標系Cにおける移動軌跡Kを、演算により求めることができる。このように、本実施形態においては、プロセッサ18は、画像データ50の撮像時点τP3から、画像データ52の撮像時点τP4までのツール26の移動軌跡Kを取得する軌跡取得部60(図2)として機能する。 Processor 18, and orientation information of the imaging coordinate system C I for the manipulator coordinate system C M, the displacement amount E 3 in the imaging coordinate system C I, from the distance F P3 and F P4 Prefecture, from time tau P3 to time tau P4 the movement locus K 3 in the manipulator coordinate system C M of the tool 26, it can be obtained by calculation. Thus, in the present embodiment, the processor 18, the imaging time tau P3 of the image data 50, the locus acquiring unit 60 (Fig for acquiring movement locus K 3 of tool 26 to the imaging time tau P4 of the image data 52 It functions as 2).

このように取得した移動軌跡Kの例を図8に示す。図8に示す例では、画像データ50及び52から取得した移動軌跡Kが、基準軌跡Aからずれ量δだけずれている。なお、図8に示す例では、ツール26が制御上の目標位置Pに到達したことが検知されたとき(つまり、時点τP3で)、該ツール26の実際の位置が制御上の目標位置Pに実質一致しているものと仮定している。 An example of a moving locus K 3 which thus acquired in FIG. In the example shown in FIG. 8, the movement locus K 3 obtained from the image data 50 and 52 are shifted by shift amount [delta] 4 from the reference locus A 3. In the example shown in FIG. 8, when it is detected that the tool 26 has reached the control target position P 3 (that is, at the time point τ P3 ), the actual position of the tool 26 is the control target position. It is assumed to be substantially matched to P 3.

このように、時点τP3でツール26の実際の位置を制御上の目標位置Pに実質一致させるために、例えば、プロセッサ18は、時点τP3でワークWを撮像する前にツール26の移動を一時的に停止してツール26に生じる振動を減衰させ、所定時間経過後に、目標位置Pへ向かうツール26の移動を再開させてもよい。 Thus, in order to substantially coincide with the target position P 3 on the control of the actual position of the tool 26 at time tau P3, for example, the processor 18, the movement of the tool 26 prior to imaging the work W at the time tau P3 temporarily dampen the vibrations occurring in the tool 26 is stopped, after a predetermined time has elapsed, the movement of the tool 26 toward the target position P 4 may be resumed.

プロセッサ18は、画像データ50及び52から取得した、マニピュレータ座標系Cにおける移動軌跡Kと、作業プログラムWPに含まれる、ツール26を目標位置PからPまで移動させるための移動指令MCによって規定される基準軌跡Aとから、ずれ量δを演算により取得する。 The processor 18 is acquired from the image data 50 and 52, the movement locus K 3 in the manipulator coordinate system C M, included in the work program WP, the movement command MC for moving the tool 26 from the target position P 3 to P 4 The deviation amount δ 4 is obtained by calculation from the reference locus A 3 defined by 3 .

具体的には、移動軌跡Kは、制御上の目標位置Pから位置Jへのベクトルであり、基準軌跡Aは、制御上の目標位置PからPへのベクトルであるので、これら2つのベクトルのマニピュレータ座標系Cにおける差を、ずれ量δとして演算することができる。このずれ量δは、位置Jから目標位置Pへのベクトルである。 Specifically, since the movement locus K 3 is a vector from the control target position P 3 to the position J 4 , and the reference locus A 3 is a vector from the control target position P 3 to P 4 . the difference in the manipulator coordinate system C M of these two vectors can be computed as the deviation amount [delta] 4. This deviation amount δ 4 is a vector from the position J 4 to the target position P 4 .

同様に、プロセッサ18は、マニピュレータ座標系Cに対する撮像座標系Cの姿勢情報と、画像データ52及び54から取得した撮像座標系Cにおける変位量E(図7)と、画像データ52及び54の撮像時点τP4及びτP5での距離FP4及びFP5とを用いて、時点τP4から時点τP5までのツール26のマニピュレータ座標系Cにおける移動軌跡Kを取得する。移動軌跡Kは、位置JからJへのベクトルである。 Similarly, processor 18, and orientation information of the imaging coordinate system C I for the manipulator coordinate system C M, the displacement amount in the imaging coordinate system C I acquired from the image data 52 and 54 E 4 (FIG. 7), the image data 52 and 54 by using the distance F P4 and F P5 of the imaging time tau P4 and tau P5 of, it acquires the movement trajectory K 4 in the manipulator coordinate system C M tools 26 from time tau P4 to time tau P5. The movement locus K 4 is a vector from position J 4 to J 5 .

そして、プロセッサ18は、マニピュレータ座標系Cにおける移動軌跡Kと、ツール26を目標位置PからPまで移動させるための移動指令MCによって規定される基準軌跡Aとから、移動軌跡Kの基準軌跡Aからのずれ量δを演算により取得する。このずれ量δは、位置Jから目標位置Pへのベクトルである。以上のように、プロセッサ18は、移動軌跡K、Kの基準軌跡A、Aからのずれ量δ、δを取得するずれ量取得部62(図2)として機能する。 The processor 18 includes a movement locus K 4 in the manipulator coordinate system C M, the reference trajectory A 4 Metropolitan defined by the movement command MC 4 for moving the tool 26 from the target position P 4 to P 5, the movement trajectory the shift amount [delta] 5 from the reference trajectory a 4 of K 4 is obtained by calculation. This deviation amount δ 5 is a vector from the position J 5 to the target position P 5 . As described above, the processor 18 functions as a deviation amount acquisition unit 62 (FIG. 2) for acquiring the deviation amounts δ 4 and δ 5 from the reference loci A 3 and A 4 of the movement loci K 3 and K 4 .

次いで、プロセッサ18は、取得したずれ量δ及びδに基づいて、ツール26の目標位置P及びPを補正する。具体的には、プロセッサ18は、作業プログラムWPに含まれていた目標位置Pを、マニピュレータ座標系Cにおいてずれ量δだけ変位させた位置に、補正する。また、プロセッサ18は、作業プログラムWPに含まれていた目標位置Pを、マニピュレータ座標系Cにおいてずれ量δだけ変位させた位置に、補正する。 Next, the processor 18 corrects the target positions P 4 and P 5 of the tool 26 based on the acquired deviation amounts δ 4 and δ 5 . Specifically, the processor 18, the target position P 4 contained in the work program WP, at a position displaced by the offset amount [delta] 4 in the manipulator coordinate system C M, it is corrected. Further, the processor 18, the target position P 5 that was included in the work program WP, at a position displaced by the offset amount [delta] 5 A manipulator coordinate system C M, it is corrected.

このようにして、プロセッサ18は、作業プログラムWPに規定されていた目標位置P、Pの位置情報を補正することにより、該作業プログラムWPを更新する。したがって、プロセッサ18は、ツール26の目標位置を補正する位置補正部64(図2)として機能する。 In this manner, processor 18, by correcting the position information of the target position P 4, P 5, which are specified in the work program WP, updates the working program WP. Therefore, the processor 18 functions as a position correction unit 64 (FIG. 2) that corrects the target position of the tool 26.

以上のように、本実施形態においては、マニピュレータ24が移動指令MCに従ってツール26を移動させている間にワークWの視覚的特徴VFを連続的に撮像する光学センサ40と、移動軌跡K、Kを取得する軌跡取得部60と、ずれ量δ、δを取得するずれ量取得部62とによって、ツール26の移動軌跡K、Kの基準A、Aからのずれを取得している。 As described above, in the present embodiment, the optical sensor 40 that continuously images the visual feature VF of the work W while the manipulator 24 is moving the tool 26 according to the movement command MC n, and the movement locus K 3 , K 4 is acquired by the locus acquisition unit 60, and the deviation amounts δ 4 and δ 5 are acquired by the deviation amount acquisition unit 62, so that the movement trajectories K 3 and K 4 of the tool 26 deviate from the reference A 3 and A 4. Is getting.

したがって、光学センサ40、軌跡取得部60、及びずれ量取得部62は、ツール26の移動軌跡K、Kの基準A、Aからのずれを取得する装置70(図1、図2)を構成する。この装置70によれば、光学センサ40が撮像する画像データ50、52、54から、ツール26の移動軌跡K、Kの基準軌跡A、Aからのずれ量δ、δを、自動的且つ高精度に求めることができる。 Accordingly, the optical sensor 40, the locus acquiring unit 60 and the shift amount acquisition unit 62, the reference A 3, to obtain a deviation from A 4 device 70 (FIG. 1 movement locus K 3, K 4 of the tool 26, FIG. 2 ). According to this device 70, from the image data 50, 52, 54 captured by the optical sensor 40, the deviation amounts δ 4 , δ 5 from the movement loci K 3 , K 4 reference loci A 3 , A 4 of the tool 26 are obtained. , Can be obtained automatically and with high accuracy.

また、本実施形態においては、距離センサ42は、装置70を構成し、光学センサ40が視覚的特徴VFを撮像したときに該光学センサ40から撮像対象のワークWまでの距離Fを測定している。この構成によれば、プロセッサ18は、マニピュレータ座標系Cにおける移動軌跡K及びKを、3次元軌跡として取得することができる。 Further, in the present embodiment, the distance sensor 42 constitutes the device 70, and when the optical sensor 40 images the visual feature VF, the distance F from the optical sensor 40 to the work W to be imaged is measured. There is. According to this configuration, the processor 18, the movement trajectory K 3 and K 4 in the manipulator coordinate system C M, can be obtained as a three-dimensional trajectory.

また、本実施形態においては、位置補正部64は、装置70を構成し、取得したずれ量δ、δに基づいて、ツール26の目標位置を補正している。この構成によれば、プロセッサ18が、更新後の作業プログラムWPに従ってマニピュレータ24を動作させてツール26を作業位置へ配置し、該ツール26でワークWに対する作業を行ったときに、ツール26がワークWに対して実際に作業する位置を、ワークW上の作業箇所に、より高精に配置させることができる。これにより、ワークWに対する作業不良を低減することができる。また、オペレータが手動で作業プログラムWPにおける目標位置Pの補正を行う作業を省くことができるので、マニピュレータ24の教示に掛かる作業を軽減できる。 Further, in the present embodiment, the position correction unit 64 constitutes the device 70 and corrects the target position of the tool 26 based on the acquired deviation amounts δ 4 and δ 5 . According to this configuration, when the processor 18 operates the manipulator 24 according to the updated work program WP to place the tool 26 at the work position and performs work on the work W with the tool 26, the tool 26 works. The position where the actual work is performed with respect to the W can be arranged more precisely at the work location on the work W. As a result, it is possible to reduce work defects with respect to the work W. Further, since the operator can omit the work of manually correcting the target position Pn in the work program WP, the work required for teaching the manipulator 24 can be reduced.

また、本実施形態においては、移動指令MCは、複数の目標位置Pの情報を含み、光学センサ40は、ツール26が複数の目標位置P、P及びPの各々に到達した時点τP3、τP4及びτP5で、ワークWの視覚的特徴VFを撮像している。この構成によれば、プロセッサ18は、作業プログラムWPに規定された目標位置P、Pでの移動軌跡K、Kのずれ量δ、δを取得できる。 Also, the time in the present embodiment, the movement command MC includes information of a plurality of target positions P n, the optical sensor 40, the tool 26 has reached the each of the plurality of target positions P 3, P 4 and P 5 The visual feature VF of the work W is imaged by τ P3 , τ P4, and τ P5 . According to this configuration, the processor 18 can acquire the deviation amounts δ 4 and δ 5 of the movement loci K 3 and K 4 at the target positions P 4 and P 5 defined in the work program WP.

なお、プロセッサ18は、ツール26を目標位置PからPまで移動させている間に、光学センサ40によってワークWを、上述の時点τP3、τP4及びτP5ではなく、周期的又はランダムなタイミングで撮像してもよい。以下、図9〜図12を参照して、装置70の他の機能について、説明する。 Incidentally, the processor 18, while the tool 26 is moved from the target position P 3 to P 5, the workpiece W by the optical sensor 40, the time tau P3 described above, rather than tau P4 and tau P5, periodic or random The image may be taken at any time. Hereinafter, other functions of the device 70 will be described with reference to FIGS. 9 to 12.

本実施形態においては、プロセッサ18は、ツール26を目標位置Pに到達させた時点τP3、該時点τP3から時間tが経過した時点τα(=τP3+t)、該時点ταから時間tが経過した時点τβ(=τα+t)、及び、該時点τβから時間tが経過した時点τγ(=τβ+t)で、光学センサ40にワークWを撮像させる。 In the present embodiment, the processor 18, the time tau P3 and the tool 26 to reach the target position P 3, the time τ α (= τ P3 + t 1) to time t 1 from said time point tau P3 has elapsed, said time points tau time from alpha time t 2 has elapsed τ β (= τ α + t 2), and, when the time t 3 from said time point tau beta has elapsed tau gamma by (= τ β + t 3) , the workpiece W to the optical sensor 40 Is imaged.

時間t、t及びtは、互いに同じであってもよい。この場合、光学センサ40は、時点τP3から所定の周期でワークWを撮像することになる。代替的には、時間t、t及びtは、互いに異なってもよい。この場合、光学センサ40は、時点τP3からランダムなタイミングでワークWを撮像することになる。 Times t 1 , t 2 and t 3 may be the same as each other. In this case, the optical sensor 40 images the work W at a predetermined cycle from the time point τ P3 . Alternatively, the times t 1 , t 2 and t 3 may be different from each other. In this case, the optical sensor 40 images the work W at a random timing from the time point τ P3 .

一方、光学センサ40がワークWを撮像する動作と同期して、プロセッサ18は、距離センサ42を動作させて、光学センサ40とワークWとの光軸Oの方向の距離を距離センサ42に測定させる。したがって、距離センサ42は、光学センサ40がワークWを撮像した時点τP3、τα、τβ及びτγで、光学センサ40とワークWとの距離FP3、Fα、Fβ及びFγを、それぞれ測定する。 On the other hand, in synchronization with the operation of the optical sensor 40 to image the work W, the processor 18 operates the distance sensor 42 to measure the distance between the optical sensor 40 and the work W in the direction of the optical axis O on the distance sensor 42. Let me. Therefore, the distance sensor 42 is the distances F P3 , F α , F β, and F γ between the optical sensor 40 and the work W at the time points τ P3 , τ α , τ β, and τ γ when the optical sensor 40 images the work W. Are measured respectively.

プロセッサ18は、時点τP3で、図5に示す画像データ50を撮像する。図9は、光学センサ40が時点ταでワークWを撮像した画像データ82を示す。なお、図9においては、比較のために、図5に示す画像データ50に写る視覚的特徴VFの位置を、白点Dとして図示している。 The processor 18 captures the image data 50 shown in FIG. 5 at the time point τ P3 . Figure 9 shows the image data 82 to the optical sensor 40 has captured the workpiece W at the time tau alpha. In FIG. 9, for comparison, the position of the visual features VF caught on the image data 50 shown in FIG. 5, illustrated as white dots D 3.

また、図10は、光学センサ40が時点τβでワークWを撮像した画像データ84を示す。図10においては、比較のために、図5に示す画像データ50に写る視覚的特徴VFの位置を白点Dとして図示し、図9に示す画像データ82に写る視覚的特徴VFの位置を白点Dαとして図示している。 Further, FIG. 10 shows the image data 84 to the optical sensor 40 has captured the workpiece W at the time tau beta. In Figure 10, for comparison, it illustrates the position of the visual features VF caught on the image data 50 shown in FIG. 5 as a white spot D 3, the position of the visual features VF caught on the image data 82 shown in FIG. 9 It is shown as a white point D α .

また、図11は、光学センサ40が時点τγでワークWを撮像した画像データ86を示す。図11においては、比較のために、図5に示す画像データ50に写る視覚的特徴VFの位置を白点Dとして図示し、図9に示す画像データ82に写る視覚的特徴VFの位置を白点Dαとして図示し、図10に示す画像データ84に写る視覚的特徴VFの位置を白点Dβとして図示している。 Further, FIG. 11 shows image data 86 in which the optical sensor 40 images the work W at the time point τ γ . In Figure 11, for comparison, it illustrates the position of the visual features VF caught on the image data 50 shown in FIG. 5 as a white spot D 3, the position of the visual features VF caught on the image data 82 shown in FIG. 9 It is shown as a white point D α , and the position of the visual feature VF reflected in the image data 84 shown in FIG. 10 is shown as a white point D β .

プロセッサ18は、軌跡取得部60として機能し、上述の実施形態と同様の方法で、画像データ50に写る視覚的特徴VFの位置から、画像データ82に写る視覚的特徴VFの位置までの、撮像座標系Cにおける変位量Eαを求め、該変位量Eαと、距離FP3及びFαとを用いて、時点τP3から時点ταまでのツール26のマニピュレータ座標系Cにおける移動軌跡Kα(図12)を取得する。この移動軌跡Kαは、制御上の目標位置Pから位置Jαへのベクトルである。 The processor 18 functions as a locus acquisition unit 60, and captures images from the position of the visual feature VF reflected in the image data 50 to the position of the visual feature VF reflected in the image data 82 in the same manner as in the above-described embodiment. obtains the displacement amount E alpha in the coordinate system C I, by using the displacement amount E alpha, the distance F P3 and F alpha, movement trajectory in the manipulator coordinate system C M tools 26 from time tau P3 to time tau alpha Acquire K α (Fig. 12). This movement locus K α is a vector from the control target position P 3 to the position J α .

同様に、プロセッサ18は、画像データ82に写る視覚的特徴VFの位置から、画像データ84に写る視覚的特徴VFの位置までの、撮像座標系Cにおける変位量Eβを求め、該変位量Eβと、距離Fα及びFβとを用いて、時点ταから時点τβまでのツール26のマニピュレータ座標系Cにおける移動軌跡Kβを取得する。この移動軌跡Kβは、位置JαからJβへのベクトルである。 Similarly, the processor 18, from the position of the visual features VF caught on the image data 82, to the position of the visual features VF caught on the image data 84, the displacement amount E beta in the imaging coordinate system C I calculated, displacement amount E and beta, using the distance and F alpha and F beta, acquires the movement trajectory K beta in the manipulator coordinate system C M tools 26 from time tau alpha to time tau beta. This movement locus K β is a vector from the position J α to J β .

同様に、プロセッサ18は、画像データ84に写る視覚的特徴VFの位置から、画像データ86に写る視覚的特徴VFの位置までの、撮像座標系Cにおける変位量Eγを求め、該変位量Eγと、距離Fβ及びFγとを用いて、時点τβから時点τγまでのツール26のマニピュレータ座標系Cにおける移動軌跡Kγを取得する。この移動軌跡Kγは、位置JβからJγへのベクトルである。 Similarly, the processor 18, from the position of the visual features VF caught on the image data 84, to the position of the visual features VF caught on the image data 86, the displacement amount E gamma in the imaging coordinate system C I calculated, displacement amount E and gamma, using the distance and F beta and F gamma, acquires the movement trajectory K gamma in the manipulator coordinate system C M tools 26 from time tau beta to time tau gamma. This movement locus K γ is a vector from the position J β to J γ .

次いで、プロセッサ18は、ずれ量取得部62として機能して、マニピュレータ座標系Cにおける移動軌跡Kα、Kβ及びKγの基準軌跡A及びAからのずれ量を取得する。一例として、プロセッサ18は、目標位置P、位置Jα、位置Jβ、及び位置Jγを結ぶ合成移動軌跡Kを求める。合成移動軌跡Kは、滑らかな曲線として求められてもよいし、移動軌跡Kα、Kβ及びKγに相当する直線の組み合わせとして求められてもよい。 Then, the processor 18, and functions as a shift amount acquisition unit 62 acquires the shift amount from the movement locus K alpha, standard locus A 3 and A 4 of the K beta and K gamma in the manipulator coordinate system C M. As an example, the processor 18, the target position P 3, the position J alpha, position J beta, and obtains the synthesized moving locus K C connecting the position J gamma. The synthetic movement locus K C may be obtained as a smooth curve, or may be obtained as a combination of straight lines corresponding to the movement loci K α , K β and K γ .

そして、プロセッサ18は、目標位置Pと合成移動軌跡Kとの距離が最短となる、合成移動軌跡K上の点Gと、該目標位置Pとの間のずれ量δαを取得する。このずれ量δαは、点Gから目標位置Pまでのベクトルである。また、プロセッサ18は、目標位置Pと合成移動軌跡Kとの距離が最短となる、合成移動軌跡K上の点Gと、該目標位置Pとの間のずれ量δβを取得する。このずれ量δβは、点Gから目標位置Pまでのベクトルである。 Then, the processor 18, the distance between the target position P 4 Synthesis movement locus K C becomes the shortest, and the point G 1 on the synthetic moving locus K C, the amount of deviation [delta] alpha between the target position P 4 get. This amount of deviation [delta] alpha, is a vector from the point G 1 to the target position P 4. Further, the processor 18 determines the amount of deviation δ β between the point G 2 on the synthetic movement locus K C and the target position P 5 at which the distance between the target position P 5 and the synthetic movement locus K C is the shortest. get. This amount of deviation δ β is a vector from the point G 2 to the target position P 5 .

そして、プロセッサ18は、位置補正部64として機能して、作業プログラムWPに含まれていた目標位置Pを、マニピュレータ座標系Cにおいてずれ量δαだけ変位させた位置に、補正する。また、プロセッサ18は、作業プログラムWPに含まれていた目標位置Pを、マニピュレータ座標系Cにおいてずれ量δβだけ変位させた位置に、補正する。このように、本実施形態によれば、光学センサ40が撮像する画像データ50、82、84、86から、ツール26の移動軌跡Kα、Kβ及びKγ(又は、合成移動軌跡K)の基準軌跡A、Aからのずれ量δα、δβを、自動的且つ高精度に求めることができる。 Then, the processor 18, and functions as a position correction unit 64, the target position P 4 contained in the work program WP, at a position displaced by the offset amount [delta] alpha A manipulator coordinate system C M, is corrected. Further, the processor 18, the target position P 5 that was included in the work program WP, at a position displaced by the offset amount [delta] beta A manipulator coordinate system C M, is corrected. As described above, according to the present embodiment, from the image data 50, 82, 84, 86 captured by the optical sensor 40, the movement loci K α , K β and K γ (or the composite movement locus K C ) of the tool 26. the amount of deviation from the reference locus a 3, a 4 δ α, the [delta] beta, can be obtained automatically and accurately.

次に、図13を参照して、機械システム10のさらに他の機能について説明する。本実施形態に係る機械システム10においては、プロセッサ18は、図8に示すずれ量δ及びδを取得したときに、該ずれ量δ及びδが閾値δthを超えたか否かを判定し、該ずれ量δ及びδが閾値δthを超えたと判定した場合に、警告信号を生成する。以下、図14を参照して、本実施形態に係る機械システム10の動作について説明する。 Next, still other functions of the mechanical system 10 will be described with reference to FIG. In the mechanical system 10 according to the present embodiment, when the processor 18 acquires the deviation amounts δ 4 and δ 5 shown in FIG. 8, it determines whether or not the deviation amounts δ 4 and δ 5 exceed the threshold value δ th. When the determination is made and it is determined that the deviation amounts δ 4 and δ 5 exceed the threshold value δ th , a warning signal is generated. Hereinafter, the operation of the mechanical system 10 according to the present embodiment will be described with reference to FIG.

図14に示すフローは、プロセッサ18がツール26を目標位置Pに配置し、光学センサ40が図5に示す画像データ50を撮像したときに、開始する。ステップS1において、プロセッサ18は、ツール26を配置すべき目標位置Pを特定する番号「n」を、「4」にセットする。図14に示すフローにおいては、プロセッサ18は、後述のステップS9でYESと判定するまで、ステップS2〜S9のループを繰り返し実行する。 Flow shown in FIG. 14, the processor 18 places the tool 26 at the target position P 3, when the optical sensor 40 has captured the image data 50 shown in FIG. 5, begins. In step S1, the processor 18 sets the number “n” that specifies the target position P n to which the tool 26 should be placed to “4”. In the flow shown in FIG. 14, the processor 18 repeatedly executes the loops of steps S2 to S9 until it determines YES in step S9 described later.

ステップS2において、プロセッサ18は、ツール26を目標位置Pへ移動する。仮に、第1巡目のループのステップS2を実行する場合は、目標位置Pを特定する番号「n」が「4」にセットされているので、このステップS2において、プロセッサ18は、目標位置Pから目標位置Pへ移動させるための移動指令MCに従ってマニピュレータ24を動作させ、ツール26を目標位置Pへ向かって移動させる。 In step S2, the processor 18 moves the tool 26 to the target position Pn . If the step S2 of the first loop is executed, the number "n" for specifying the target position Pn is set to "4". Therefore, in this step S2, the processor 18 is set to the target position. The manipulator 24 is operated according to the movement command MC 3 for moving from P 3 to the target position P 4 , and the tool 26 is moved toward the target position P 4 .

ステップS3において、プロセッサ18は、ツール26が目標位置Pに到達したか否かを判定する。上述したように、プロセッサ18は、マニピュレータ24の位置データ(例えば、各サーボモータ38の回転角度等)から、ツール26が、制御上の目標位置Pへ到達したか否かを検知できる。 In step S3, the processor 18 determines whether or not the tool 26 has reached the target position Pn . As described above, the processor 18 can detect whether or not the tool 26 has reached the control target position Pn from the position data of the manipulator 24 (for example, the rotation angle of each servomotor 38).

仮に、第1巡目のループのステップS3を実行する場合、このステップS3において、プロセッサ18は、ツール26が目標位置Pに到達したか否かを判定する。プロセッサ18は、ツール26が目標位置Pに到達したことを検知した場合にYESと判定し、ステップS4へ進む。一方、プロセッサ18は、ツール26が目標位置Pに到達していない場合にNOと判定し、ステップS3をループする。 Assuming that executes step S3 of the first round of the loop, in step S3, the processor 18 determines whether the tool 26 has reached the target position P 4. When the processor 18 detects that the tool 26 has reached the target position Pn , the processor 18 determines YES and proceeds to step S4. On the other hand, the processor 18 determines NO when the tool 26 has not reached the target position Pn , and loops step S3.

ステップS4において、プロセッサ18は、光学センサ40を動作させてワークWを撮像するのと同期して、距離センサ42を動作させて光学センサ40とワークWとの距離FPnを測定する。仮に、第1巡目のループのステップS4を実行する場合、プロセッサ18は、光学センサ40に図6に示す画像データ52を撮像させるのと同期して、距離センサ42に、光学センサ40とワークWとの距離FP4を測定させる。 In step S4, the processor 18 operates the distance sensor 42 to measure the distance FPn between the optical sensor 40 and the work W in synchronization with the operation of the optical sensor 40 to image the work W. If step S4 of the first loop is executed, the processor 18 causes the distance sensor 42 to work with the optical sensor 40 in synchronization with causing the optical sensor 40 to image the image data 52 shown in FIG. The distance F P4 from W is measured.

ステップS5において、プロセッサ18は、軌跡取得部60として機能して移動軌跡Kn−1を取得するとともに、ずれ量取得部62として機能して移動軌跡Kn−1の基準軌跡An−1からのずれ量δを取得する。仮に、第1巡目のループのステップS5を実行する場合、プロセッサ18は、図8の実施形態と同様の方法で、移動軌跡Kを取得するとともに、移動軌跡Kの基準軌跡Aからのずれ量δを取得する。 In step S5, the processor 18 acquires the movement trajectory K n-1 functions as a track acquiring unit 60, the reference trajectory A n-1 of the movement locus K n-1 functions as a shift amount obtaining unit 62 The amount of deviation δ n is obtained. If, when performing step S5 in the first round of the loop, the processor 18, in embodiments a manner similar to FIG. 8, obtains the movement trajectory K 3, the reference trajectory A 3 moving path K 3 The deviation amount δ 4 of is obtained.

また、第2巡目のループのステップS5を実行する場合、後述のステップS8の結果、目標位置Pを特定する番号「n」が「5」にセットされるので、プロセッサ18は、図8の実施形態と同様の方法で、移動軌跡Kを取得するとともに、移動軌跡Kの基準軌跡Aからのずれ量δを取得する。代替的には、プロセッサ18は、図15に示すように、移動軌跡Kの始点(つまり、位置J)と基準軌跡Aとの始点(つまり、目標位置P)とを一致させたときの移動軌跡Kと基準軌跡Aとの差δ’を、ずれ量として取得してもよい。 Further, when the step S5 of the second loop is executed, as a result of the step S8 described later, the number "n" for specifying the target position Pn is set to "5", so that the processor 18 is shown in FIG. In the same manner as in the embodiment of the above, the movement locus K 4 is acquired, and the deviation amount δ 5 of the movement locus K 4 from the reference locus A 4 is acquired. Alternatively, as shown in FIG. 15, the processor 18 matches the start point of the movement locus K 4 (that is, the position J 4 ) with the start point of the reference locus A 4 (that is, the target position P 4 ). the difference [delta] 5 'of the moving locus K 4 and the reference locus a 4 when, may be obtained as a displacement amount.

ステップS6において、プロセッサ18は、直近のステップS5で取得したずれ量δが、予め定められた閾値δthよりも大きいか否かを判定する。仮に、第1巡目のループのステップS6を実行する場合、プロセッサ18は、ずれ量δが閾値δthよりも大きいか否かを判定する。 In step S6, the processor 18 determines whether or not the deviation amount δ n acquired in the latest step S5 is larger than the predetermined threshold value δ th . If step S6 of the first loop is executed, the processor 18 determines whether or not the deviation amount δ 5 is larger than the threshold value δ th .

また、第2巡目のループのステップS5を実行する場合、プロセッサ18は、ずれ量δ(又はδ’)が、閾値δth(又はδth’)よりも大きいか否かを判定する。これら閾値δth(又はδth’)は、オペレータによって予め定められ、記憶部20に記憶される。 Further, when executing step S5 of the second loop, the processor 18 determines whether or not the deviation amount δ 5 (or δ 5 ') is larger than the threshold value δ th (or δ th '). .. These threshold values δ th (or δ th ') are predetermined by the operator and stored in the storage unit 20.

プロセッサ18は、ずれ量δが閾値δthよりも大きい場合にYESと判定し、ステップS7へ進む一方、ずれ量δが閾値δth以下である場合にNOと判定し、ステップS8へ進む。このように、本実施形態においては、プロセッサ18は、ずれ量δが閾値δthよりも大きいか否かを判定する判定部92(図13)として機能する。 The processor 18 determines YES when the deviation amount δ n is larger than the threshold value δ th , and proceeds to step S7. On the other hand, the processor 18 determines NO when the deviation amount δ n is equal to or less than the threshold value δ th , and proceeds to step S8. .. As described above, in the present embodiment, the processor 18 functions as a determination unit 92 (FIG. 13) for determining whether or not the deviation amount δ n is larger than the threshold value δ th .

ステップS7において、プロセッサ18は、警告信号を生成する。例えば、プロセッサ18は、「移動軌跡の基準からのずれが過大となっています」という音声又は画像の形式で警告信号を生成し、制御装置12に設けられたディスプレイ又はスピーカ(図示せず)を通して、該警告信号を出力する。このように、プロセッサ18は、ずれ量δが閾値δthよりも大きい場合に警告信号を生成する警告生成部94(図13)として機能する。 In step S7, the processor 18 generates a warning signal. For example, the processor 18 generates a warning signal in the form of voice or image that "the deviation from the reference of the movement locus is excessive", and through a display or a speaker (not shown) provided in the control device 12. , The warning signal is output. In this way, the processor 18 functions as a warning generation unit 94 (FIG. 13) that generates a warning signal when the deviation amount δ n is larger than the threshold value δ th .

ステップS8において、プロセッサ18は、目標位置Pを特定する番号「n」を、1だけインクリメントする。仮に、第1巡目のループのステップS8を実行する場合、プロセッサ18は、番号「n」を、「4」から「5」へインクリメントする。ステップS9において、プロセッサ18は、目標位置Pを特定する番号「n」が、「5」よりも大きいか否かを判定する。プロセッサ18は、番号「n」が「5」よりも大きい場合にYESと判定し、ステップS10へ進む一方、番号「n」が「5」以下である場合にNOと判定し、ステップS2へ戻る。 In step S8, the processor 18 increments the number “n” that identifies the target position P n by one. If step S8 of the first loop is executed, the processor 18 increments the number "n" from "4" to "5". In step S9, the processor 18 determines whether or not the number “n” that identifies the target position P n is larger than “5”. The processor 18 determines YES when the number "n" is larger than "5" and proceeds to step S10, while the processor 18 determines NO when the number "n" is "5" or less and returns to step S2. ..

ステップS10において、プロセッサ18は、位置補正部64として機能して、移動機械14のツール26の目標位置を補正する。具体的には、プロセッサ18は、作業プログラムWP内の目標位置Pをずれ量δだけ変位させた位置に補正し、目標位置Pをずれ量δだけ変位させた位置に補正することで、作業プログラムWPを更新する。 In step S10, the processor 18 functions as a position correction unit 64 to correct the target position of the tool 26 of the mobile machine 14. Specifically, the processor 18 corrects the target position P 4 in the work program WP to a position displaced by a displacement amount δ 4, and corrects the target position P 5 to a position displaced by a displacement amount δ 5. Then, update the work program WP.

以上のように、本実施形態においては、光学センサ40、軌跡取得部60、ずれ量取得部62、位置補正部64、判定部92、及び警告生成部94は、ツール26の移動軌跡K、Kの基準A、Aからのずれを取得する装置90(図13)を構成する。該装置90によれば、オペレータは、移動軌跡K、Kの基準A、Aからのずれが過大となっていることを、自動的且つ直感的に認識できる。 As described above, in the present embodiment, the optical sensor 40, the locus acquiring unit 60, the deviation amount acquisition unit 62, the position correcting unit 64, the determination unit 92 and a warning generating unit 94, the movement locus K 3 of tool 26, A device 90 (FIG. 13) for acquiring deviations from the criteria A 3 and A 4 of K 4 is configured. According to the device 90, the operator can automatically and intuitively recognize that the deviations of the movement loci K 3 and K 4 from the reference A 3 and A 4 are excessive.

なお、図12に示す実施形態において、ずれ量δα又はδβを取得したときに、プロセッサ18は、判定部92として機能して、ずれ量δα又はδβが閾値δth2よりも大きいか否かを判定してもよい。そして、ずれ量δα又はδβが閾値δth2よりも大きい場合に、プロセッサ18は、警告生成部94として機能して、警告信号を生成してもよい。 In the embodiment shown in FIG. 12, when the deviation amount δ α or δ β is acquired, the processor 18 functions as the determination unit 92, and whether the deviation amount δ α or δ β is larger than the threshold value δ th2 . It may be determined whether or not. Then, when the deviation amount δ α or δ β is larger than the threshold value δ th2 , the processor 18 may function as a warning generation unit 94 to generate a warning signal.

次に、図16及び図17を参照して、機械システム10のさらに他の機能について説明する。本実施形態に係る機械システム10においては、プロセッサ18は、マニピュレータ24によってツール26を目標位置P〜Pへ移動させている間に、マニピュレータ24の位置データから求められる参照軌跡の基準からのずれが過大であるか否かを判定する。 Next, other functions of the mechanical system 10 will be described with reference to FIGS. 16 and 17. A machine system 10 according to this embodiment, the processor 18 by the manipulator 24 while moving the tool 26 to the target position P 1 to P 3, from a reference of the reference trajectory calculated from position data of the manipulator 24 Determine if the deviation is excessive.

以下、図17を参照して、本実施形態に係る機械システム10の動作について説明する。なお、図17に示すフローにおいて、図14に示すフローと同様のプロセスには同じステップ番号を付し、重複する説明を省略する。図17に示すフローは、プロセッサ18がツール26を目標位置Pに配置したときに、開始する。ここで、プロセッサ18は、ツール26を目標位置Pに配置したとき、後述する位置データ取得部102として機能して、マニピュレータ24の位置データPDを取得する。 Hereinafter, the operation of the mechanical system 10 according to the present embodiment will be described with reference to FIG. In the flow shown in FIG. 17, the same process as the flow shown in FIG. 14 is assigned the same step number, and duplicate description will be omitted. Flow shown in FIG. 17, the processor 18 when placing the tool 26 to the target position P 1, starts. Here, the processor 18, when placing the tool 26 to the target position P 1, and functions as a position data acquiring unit 102 to be described later, to acquire the position data PD 1 of the manipulator 24.

ステップS11において、プロセッサ18は、ツール26を配置すべき目標位置Pを特定する番号「n」を、「2」にセットする。図17に示すフローにおいては、プロセッサ18は、後述のステップS16でYESと判定するまで、ステップS2〜S16のループを繰り返し実行する。 In step S11, the processor 18 sets the number “n” that specifies the target position Pn on which the tool 26 should be placed to “2”. In the flow shown in FIG. 17, the processor 18 repeatedly executes the loops of steps S2 to S16 until it determines YES in step S16 described later.

ステップS3でYESと判定したとき、ステップS12において、プロセッサ18は、マニピュレータ24の位置データPDを取得する。具体的には、プロセッサ18は、位置データPDとして、マニピュレータ24の各サーボモータ38の回転角度を取得する。この回転角度は、各サーボモータ38に設けられた回転検出器(エンコーダ又はホール素子等。図示せず)から取得できる。このように、プロセッサ18は、マニピュレータ24がツール26を移動している間に位置データPDを取得する位置データ取得部102(図16)として機能する。 When it is determined as YES in step S3, in step S12, the processor 18 acquires the position data PD n of the manipulator 24. Specifically, the processor 18 acquires the rotation angle of each servomotor 38 of the manipulator 24 as the position data PD n . This rotation angle can be obtained from a rotation detector (encoder, Hall element, etc., not shown) provided on each servomotor 38. In this way, the processor 18 functions as a position data acquisition unit 102 (FIG. 16) that acquires position data PD n while the manipulator 24 is moving the tool 26.

ステップS13において、プロセッサ18は、参照軌跡Hn−1を取得するとともに、ずれ量取得部62として機能して、参照軌跡Hn−1の基準軌跡An−1からのずれ量Δを取得する。以下、図18を参照して、このステップS13について説明する。ツール26を目標位置Pに配置させたときの、該ツール26のマニピュレータ座標系Cにおける計算上の位置(例えば、TCPの座標)を、マニピュレータ24の位置データPDから演算により求めることができる。 In step S13, the processor 18 acquires the reference locus H n-1 and functions as the deviation amount acquisition unit 62 to acquire the deviation amount Δ n of the reference locus H n-1 from the reference locus A n-1. To do. Hereinafter, step S13 will be described with reference to FIG. When the tool 26 is positioned at the target position P n, the position of the calculation in the manipulator coordinate system C M of the tool 26 (eg, TCP coordinates), be determined by calculation from the position data PD n of the manipulator 24 it can.

プロセッサ18は、このステップS13において、直近のステップS12で取得した位置データPDから、ツール26を目標位置Pに配置させたときの、該ツール26の計算上の位置Iを取得する。これととともに、プロセッサ18は、位置データPDの前に取得した位置データPDn−1から、ツール26を目標位置Pn−1に配置させたときの該ツール26の計算上の位置In−1を取得する。 The processor 18, in step S13, the position data PD n acquired in the immediately preceding step S12, when the tool 26 is positioned at the target position P n, obtains the position I n on the calculation of the tool 26. Together with this, the processor 18, the position data PD n-1 which has been acquired before the position data PD n, the position I n on the calculation of the tool 26 when the tool 26 is positioned at the target position P n-1 Get -1 .

仮に、第1巡目のループにおけるステップS13を実行する場合、プロセッサ18は、ツール26を目標位置Pに配置させたときのマニピュレータ24の位置データPDから、ツール26の計算上の位置I(図18)を取得するとともに、ツール26を目標位置Pに配置させたとき(すなわち、図17のフローの開始時)のマニピュレータ24の位置データPDから、ツール26の計算上の位置Iを取得する。 If step S13 in the first round loop is executed, the processor 18 uses the position data PD 2 of the manipulator 24 when the tool 26 is placed at the target position P 2 to calculate the position I of the tool 26. 2 (FIG. 18) is acquired and the calculated position of the tool 26 is calculated from the position data PD 1 of the manipulator 24 when the tool 26 is placed at the target position P 1 (that is, at the start of the flow of FIG. 17). Get I 1 .

そして、プロセッサ18は、取得した位置IからIまでのマニピュレータ座標系Cにおける移動軌跡を、参照軌跡Hとして演算により求める。こうして、プロセッサ18は、位置データPD及びPDn−1に基づいて、参照軌跡Hn−1を取得する。したがって、プロセッサ18は、参照軌跡Hn−1を取得する参照軌跡取得部104(図16)として機能する。 Then, the processor 18, a movement trajectory in the manipulator coordinate system C M from the acquired position I 1 to I 2, obtained by calculation as the reference trajectory H 1. In this way, the processor 18 acquires the reference locus H n-1 based on the position data PD n and PD n-1 . Therefore, the processor 18 functions as a reference locus acquisition unit 104 (FIG. 16) for acquiring the reference locus H n-1 .

次いで、プロセッサ18は、参照軌跡Hn−1の基準軌跡An−1からのずれ量Δを参照ずれ量として取得する。仮に、第1巡目のループのステップS13を実行する場合、プロセッサ18は、参照軌跡Hの基準軌跡Aからのずれ量Δを参照ずれ量として取得する。参照軌跡Hは、位置IからIへのベクトルであり、基準軌跡Aは、目標位置PからPへのベクトルであるので、これら2つのベクトルのマニピュレータ座標系Cにおける差を、ずれ量Δとして演算することができる。このずれ量Δは、位置Iから目標位置Pへのベクトルである。 Then, the processor 18 obtains a deviation amount delta n from the reference trajectory A n-1 of the reference trajectory H n-1 as the reference displacement amount. Assuming that executes step S13 in the first round of the loop, the processor 18 obtains a deviation amount delta 2 from the reference trajectory A 1 of the reference trajectory H 1 as a reference shift amount. The reference trajectory H 1 is the vector from the position I 1 to I 2, reference trajectory A 1 is Since the vector from the target position P 1 to P 2, the difference in the manipulator coordinate system C M of these two vectors and it can be calculated as a deviation amount delta 2. This deviation amount Δ 2 is a vector from the position I 2 to the target position P 2 .

また、第2巡目のループのステップS13を実行する場合、ステップS8の結果、目標位置Pを特定する番号「n」が「3」にセットされるので、プロセッサ18は、参照軌跡Hの基準軌跡Aからのずれ量Δを参照ずれ量として取得する。参照軌跡Hは、位置IからIまでのベクトルである。代替的には、プロセッサ18は、図15を用いて説明したように、参照軌跡Hの始点(つまり、位置I)と基準軌跡Aの始点(つまり、目標位置P)とを一致させたときの参照軌跡Hと基準軌跡Aとの差Δ’を、参照ずれ量として取得してもよい。 Also, when executing step S13 in the second round of the loop, the result in step S8, since specifying the target position P n number "n" is set to "3", the processor 18, the reference trajectory H 2 obtaining a shift amount delta 3 from the reference trajectory a 2 as reference deviation amount. The reference locus H 2 is a vector from positions I 2 to I 3 . Alternatively, the processor 18 coincides with the start point of the reference locus H 2 (ie, position I 2 ) and the start point of the reference locus A 2 (ie, the target position P 2 ), as described with reference to FIG. the difference delta 3 'of the reference trajectory H 2 and the reference locus a 2 obtained while, may be obtained by reference shift amount.

ステップS14において、プロセッサ18は、直近のステップS13で取得した参照ずれ量Δが、予め定められた閾値Δthよりも大きいか否かを判定する。仮に、第1巡目のループのステップS14を実行する場合、プロセッサ18は、参照ずれ量Δが閾値δthよりも大きいか否かを判定する。 In step S14, the processor 18 determines whether or not the reference deviation amount Δ n acquired in the latest step S13 is larger than the predetermined threshold value Δ th . If step S14 of the first loop is executed, the processor 18 determines whether or not the reference deviation amount Δ 2 is larger than the threshold value δ th .

また、第2巡目のループのステップS14を実行する場合、プロセッサ18は、参照ずれ量Δ(又はΔ’)が、閾値Δth(又はΔth’)よりも大きいか否かを判定する。これら閾値Δth(又はΔth’)は、オペレータによって予め定められ、記憶部20に記憶される。 Also, when executing step S14 in the second round of the loop, the processor 18 determines the reference shift amount delta 3 (or delta 3 ') is a threshold delta th (or delta th' or larger or not than) To do. These threshold values Δ th (or Δ th ′) are predetermined by the operator and stored in the storage unit 20.

プロセッサ18は、参照ずれ量Δが閾値Δthよりも大きい場合にYESと判定し、ステップS15へ進む一方、参照ずれ量Δが閾値Δth以下である場合にNOと判定し、ステップS8へ進む。このように、本実施形態においては、プロセッサ18は、参照ずれ量Δが閾値Δthよりも大きいか否かを判定する第2の判定部106(図13)として機能する。 Processor 18, the reference shift amount delta n is determined as YES is larger than the threshold delta th, the process proceeds to step S15, determination is NO if the reference shift amount delta n is equal to or less than the threshold delta th, step S8 Proceed to. As described above, in the present embodiment, the processor 18 functions as a second determination unit 106 (FIG. 13) for determining whether or not the reference deviation amount Δ n is larger than the threshold value Δ th .

ステップS15において、プロセッサ18は、第2の警告信号を生成する。例えば、プロセッサ18は、「参照軌跡の基準からのずれが過大となっています」という音声又は画像の形式で第2の警告信号を生成し、出力する。このように、プロセッサ18は、参照ずれ量Δが閾値Δthよりも大きい場合に第2の警告信号を生成する第2の警告生成部108(図16)として機能する。 In step S15, the processor 18 generates a second warning signal. For example, the processor 18 generates and outputs a second warning signal in the form of a voice or an image that "the deviation from the reference locus reference is excessive". Thus, processor 18 serves as a second alert generation unit 108 for generating a second warning signal (16) if the reference shift amount delta n is greater than the threshold value delta th.

ステップS16において、プロセッサ18は、目標位置Pを特定する番号「n」が、「3」よりも大きいか否かを判定する。プロセッサ18は、番号「n」が「3」よりも大きい場合にYESと判定し、ステップS17へ進む一方、番号「n」が「3」以下である場合にNOと判定し、ステップS2へ戻る。 In step S16, the processor 18 determines whether or not the number “n” that identifies the target position P n is larger than “3”. The processor 18 determines YES when the number "n" is larger than "3" and proceeds to step S17, while the processor 18 determines NO when the number "n" is "3" or less and returns to step S2. ..

ステップS17において、プロセッサ18は、位置補正部64として機能して、移動機械14のツール26の目標位置を補正する。具体的には、プロセッサ18は、作業プログラムWP内の目標位置Pを参照ずれ量Δ2だけ変位させた位置に補正し、目標位置Pをずれ量Δだけ変位させた位置に補正することで、作業プログラムWPを更新する。 In step S17, the processor 18 functions as a position correction unit 64 to correct the target position of the tool 26 of the mobile machine 14. Specifically, processor 18 corrects the position of displacing the target position P 2 in the working program WP by reference shift amount delta 2, corrects the position of displacing only the deviation amount of the target position P 3 delta 3 By doing so, the work program WP is updated.

以上のように、本実施形態においては、光学センサ40、軌跡取得部60、ずれ量取得部62、位置補正部64、位置データ取得部102、参照軌跡取得部104、第2の判定部106、及び第2の警告生成部108は、ツール26の移動軌跡Hの基準Aからのずれを取得する装置100(図16)を構成する。 As described above, in the present embodiment, the optical sensor 40, the locus acquisition unit 60, the deviation amount acquisition unit 62, the position correction unit 64, the position data acquisition unit 102, the reference locus acquisition unit 104, the second determination unit 106, and second warning generator 108 constitute a device 100 for obtaining a deviation from the reference a n moving path H n of tools 26 (FIG. 16).

装置100によれば、ワークWが光学センサ40の撮像範囲外となる目標位置P〜Pの間をツール26が移動しているときは、参照軌跡取得部104が取得した参照軌跡Hから参照ずれ量Δを取得し、ワークWが光学センサ40の撮像範囲内となる目標位置P〜Pの間をツール26が移動しているときは、軌跡取得部60が取得した移動軌跡Kから参照ずれ量δを取得することができる。 According to the apparatus 100, when the workpiece W is tool 26 between the target position P 1 to P 3 which is outside the imaging range of the optical sensor 40 is moving, the reference trajectory H n to the reference trajectory acquisition unit 104 acquires the reference deviation amount delta n obtained from, when the tool 26 between the target position P 3 to P 5 of the workpiece W is within the imaging range of the optical sensor 40 is moved, the locus acquiring unit 60 acquires moving The reference deviation amount δ n can be obtained from the locus K n .

したがって、目標位置P〜Pの範囲で、ツール26の移動軌跡H、Kの基準Aからのずれを取得できる。また、第2の判定部106及び第2の警告生成部108によって、オペレータは、参照軌跡Hの基準Aからのずれが過大となっていることを、自動的且つ直感的に認識できる。 Therefore, the range of the target position P 1 to P 5, the movement trajectory H n of tools 26, the deviation from the reference A n of K n can be obtained. Also, the second determination unit 106 and the second warning generating unit 108, the operator that the deviation from the reference A n of the reference trajectory H n becomes excessively large, automatically and intuitively recognizable.

なお、図16の実施形態の機能を図13の実施形態に組み合わせることもできる。この場合、装置90は、位置データ取得部102、参照軌跡取得部104、第2の判定部106、及び第2の警告生成部108をさらに備えることになる。以下、図16の実施形態の機能を図13に組み合わせた場合の機械システム10の動作の一例について、説明する。 It should be noted that the functions of the embodiment of FIG. 16 can be combined with the embodiment of FIG. In this case, the device 90 further includes a position data acquisition unit 102, a reference trajectory acquisition unit 104, a second determination unit 106, and a second warning generation unit 108. Hereinafter, an example of the operation of the mechanical system 10 when the functions of the embodiment of FIG. 16 are combined with FIG. 13 will be described.

まず、プロセッサ18は、図17のフローを開始し、第2巡目のループのステップS3を実行してYESと判定したとき(つまり、ツール26の目標位置Pへの配置を検知したとき)、光学センサ40にワークWを撮像させ、これにより、図5に示す画像データ50を撮像するとともに、図14に示すフローを開始する。そして、プロセッサ18は、図17に示すフローと並行して、図14に示すフローを実行する。 First, the processor 18 starts the flow of FIG. 17, when it is determined YES executes step S3 of the second round of the loop (that is, upon detecting the placement of the target position P 3 of the tool 26) , The optical sensor 40 is made to image the work W, whereby the image data 50 shown in FIG. 5 is imaged and the flow shown in FIG. 14 is started. Then, the processor 18 executes the flow shown in FIG. 14 in parallel with the flow shown in FIG.

一例として、図17のフローで第2巡目のループのステップS3を実行してYESと判定したときに、プロセッサ18は、ツール26に生じる振動を減衰させて参照ずれ量Δをゼロに近づけるべく、ツール26の移動を一時的に停止し、所定時間経過後に、光学センサ40にワークWを撮像させ、図14に示すフローを開始してもよい。 As an example, when it is determined YES running step S3 flow of the second round of the loop of Figure 17, the processor 18, approximate the reference shift amount delta 4 attenuates the vibration generated in the tool 26 to zero Therefore, the movement of the tool 26 may be temporarily stopped, and after a predetermined time has elapsed, the optical sensor 40 may image the work W and start the flow shown in FIG.

他の例として、図17のフローで第2巡目のループにおけるステップS3を実行してYESと判定したときに、ツール26の移動を継続させつつ光学センサ40にワークWを撮像させ、図14に示すフローを開始してもよい。そして、図14に示すフローの第1巡目のループにおけるステップS5を実行するときに、プロセッサ18は、図19に示すように、参照軌跡Hの終点である位置Iを始点として、移動軌跡Kを取得してもよい。 As another example, when step S3 in the loop of the second round is executed in the flow of FIG. 17 and a determination is made as YES, the optical sensor 40 is made to image the work W while continuing the movement of the tool 26, and FIG. The flow shown in may be started. Then, when executing step S5 in the first loop of the flow shown in FIG. 14, the processor 18 moves starting from the position I 3 which is the end point of the reference locus H 2 as shown in FIG. the trajectory K 3 may be acquired.

なお、上述のツール26としては、種々のタイプのものが考えられる。以下、図20及び図21を参照して、ツール26の具体例について説明する。図20に示すツール26は、レーザ加工ヘッドである。具体的には、ツール26は、中空のノズル110を有し、該ノズル110に形成された出射口110aから光軸Oに沿ってレーザ光を出射し、ワークWをレーザ加工(レーザ切断、レーザ溶接等)する。本実施形態においては、ツール座標系Cは、そのz軸が光軸Oに一致するように、ツール26に対して設定されている。 As the above-mentioned tool 26, various types can be considered. Hereinafter, a specific example of the tool 26 will be described with reference to FIGS. 20 and 21. The tool 26 shown in FIG. 20 is a laser machining head. Specifically, the tool 26 has a hollow nozzle 110, emits laser light along the optical axis O 2 from an exit port 110a formed in the nozzle 110, and laser-processes the work W (laser cutting, laser cutting, Laser welding, etc.). In the present embodiment, the tool coordinate system C T is the z axis so as to coincide with the optical axis O 2, are set for the tool 26.

ツール26でワークWに対して作業を行うとき、例えば、プロセッサ18は、ツール26を、上述の目標位置P(n=1〜5)に順に配置させ、ツール26を目標位置Pに配置させたときに、ツール26を動作させて光軸Oに沿ってレーザ光を出射し、ワークW上の作業箇所をレーザ加工する。このとき、光軸Oは、ワークWの表面と略直交し、且つ、作業箇所を通過するように配置される。 When working on the work W with the tool 26, for example, the processor 18 arranges the tool 26 in order at the above-mentioned target position P n (n = 1 to 5), and arranges the tool 26 at the target position P 5 . when brought into a laser beam emitted along the optical axis O 2 by the tool 26 is operated, laser machining the working position on the workpiece W. At this time, the optical axis O 2 is arranged so as to be substantially orthogonal to the surface of the work W and to pass through the work portion.

一方、光学装置16は、ノズル110の出射口110aに設けられている。光学装置16は、ツール26に対して所定の位置関係となるように配置される。具体的には、光学装置16は、光軸Oがレーザ光の光軸Oと一致する(又は、平行となる)ように、ツール26に対して配置されている。すなわち、光学装置16は、撮像座標系Cのx−y平面が、レーザ光の光軸O(又は、ツール座標系Cのz軸)と直交するように、ツール26に対して配置されている。なお、光学装置16は、出射口110aに限らず、ノズル110の如何なる位置に設けられてもよい。 On the other hand, the optical device 16 is provided at the exit port 110a of the nozzle 110. The optical device 16 is arranged so as to have a predetermined positional relationship with respect to the tool 26. Specifically, the optical device 16 is arranged with respect to the tool 26 so that the optical axis O coincides with (or is parallel to) the optical axis O 2 of the laser beam. That is, the optical device 16, x-y plane of the image acquisition coordinate system C I is the optical axis O 2 of the laser light (or, z axes of the tool coordinate system C T) so as to be perpendicular to the arrangement with respect to the tool 26 Has been done. The optical device 16 is not limited to the outlet 110a, and may be provided at any position of the nozzle 110.

図21に示すツール26は、スポット溶接ガンである。具体的には、ツール26は、固定アーム112、可動アーム114、固定電極116、及び可動電極118を有する。固定アーム112は、手首部36に対して固定される一方、可動アーム114は、軸線O(いわゆる、ガン軸)に沿って移動可能となるように設けられている。 The tool 26 shown in FIG. 21 is a spot welding gun. Specifically, the tool 26 has a fixed arm 112, a movable arm 114, a fixed electrode 116, and a movable electrode 118. Fixed arm 112, while being fixed to the wrist unit 36, the movable arm 114, the axis O 3 (so-called cancer-axis) are provided to be movable along.

固定電極116は、固定アーム112の先端に固定されている一方、可動電極118は、固定電極116と対向するように可動アーム114の先端に固定されている。固定電極116及び可動電極118は、軸線O上に整列するように配置されている。可動アーム114が軸線Oに沿って往復動するにつれて、可動電極118は、固定電極116に対して接近及び離反する。本実施形態においては、ツール座標系Cは、その原点が固定電極116上(例えば、上面の中心)に位置し、ツール座標系Cのz軸が軸線O(又は光軸O)と一致する(又は平行となる)ように、設定されている。 The fixed electrode 116 is fixed to the tip of the fixed arm 112, while the movable electrode 118 is fixed to the tip of the movable arm 114 so as to face the fixed electrode 116. Fixed electrode 116 and the movable electrode 118 is arranged so as to be aligned on the axis O 3. As the movable arm 114 is reciprocated along the axis O 3, movable electrode 118, toward and away from the fixed electrode 116. In the present embodiment, the origin of the tool coordinate system C T is located on the fixed electrode 116 (for example, the center of the upper surface), and the z-axis of the tool coordinate system C T is the axis O 3 (or the optical axis O). It is set to match (or be parallel).

ツール26でワークWに対して作業を行うとき、例えば、プロセッサ18は、ツール26を、上述の目標位置P(n=1〜5)に順に配置させる。ツール26が目標位置Pに配置されたときに、ワークW上の作業箇所は、固定電極116と可動電極118との間に配置され、軸線Oは、ワークWの表面と略直交するとともに作業箇所を通過するように配置される。 When working on the work W with the tool 26, for example, the processor 18 causes the tool 26 to be sequentially arranged at the above-mentioned target positions P n (n = 1 to 5). When the tool 26 is positioned at the target position P 5, working position on the workpiece W is positioned between the fixed electrode 116 and the movable electrode 118, the axis O 3, as well as substantially perpendicular to the surface of the workpiece W Arranged to pass through the work area.

ツール26が目標位置Pに配置されたとき、プロセッサ18は、可動電極118を固定電極へ向かって移動させて、ワークWの作業箇所を固定電極116と可動電極118との間で挟持して固定電極116及び可動電極118を通電させる。これにより、ワークWの作業箇所をスポット溶接する。 When the tool 26 is positioned at the target position P 5, the processor 18 moves toward the movable electrode 118 to the fixed electrode, is sandwiched between the working position of the workpiece W between the stationary electrode 116 and movable electrode 118 The fixed electrode 116 and the movable electrode 118 are energized. As a result, the work portion of the work W is spot welded.

一方、光学装置16は、可動電極118に設けられている。光学装置16は、ツール26に対して所定の位置関係となるように配置される。具体的には、光学装置16は、その光軸Oが軸線Oと一致する(又は、平行となる)ように、ツール26に対して配置されている。 On the other hand, the optical device 16 is provided on the movable electrode 118. The optical device 16 is arranged so as to have a predetermined positional relationship with respect to the tool 26. Specifically, the optical device 16, the optical axis O coincides with the axis O 3 (or, to be parallel) manner, are arranged with respect to the tool 26.

すなわち、光学装置16は、撮像座標系Cのx−y平面が、軸線O(又は、ツール座標系Cのz軸)と直交するように、ツール26に対して配置されている。なお、光学装置16は、可動電極118に限らず、ノズル110の如何なる位置(例えば、固定電極116)に設けられてもよい。 That is, the optical device 16, x-y plane of the image acquisition coordinate system C I is the axis O 3 (or, z axes of the tool coordinate system C T) so as to be perpendicular to, and is positioned relative to the tool 26. The optical device 16 is not limited to the movable electrode 118, and may be provided at any position (for example, the fixed electrode 116) of the nozzle 110.

図22に示すツール26は、ロボットハンドである。具体的には、ツール26は、手首部36に連結されたハンドベース120と、該ハンドベース120に開閉可能に設けられた複数の指部122とを有する。ツール26は、指部122を開閉させることで、部品(例えば、自動車用の円筒状シリンダ)を把持したり、解放したりできる。本実施形態においては、ツール座標系Cは、その原点が指部122の間の位置(把持位置)に配置され、ツール座標系Cのz軸が指部122の開閉方向と直交するように、設定されている。 The tool 26 shown in FIG. 22 is a robot hand. Specifically, the tool 26 has a hand base 120 connected to the wrist portion 36 and a plurality of finger portions 122 provided on the hand base 120 so as to be openable and closable. The tool 26 can grip and release a part (for example, a cylindrical cylinder for an automobile) by opening and closing the finger portion 122. In the present embodiment, the origin of the tool coordinate system C T is arranged at a position (grip position) between the finger portions 122, and the z-axis of the tool coordinate system C T is orthogonal to the opening / closing direction of the finger portion 122. Is set to.

ツール26でワークWに対して作業を行うとき、例えば、プロセッサ18は、ツール26で部品を把持した後、該ツール26を、上述の目標位置P(n=1〜5)に順に配置させる。ツール26が目標位置Pに配置されたとき、ツール26に把持された部品は、ワークW上の作業箇所としての嵌合穴(図示せず)から、ツール座標系Cのz軸プラス方向へ離隔した位置に、位置決めされる。この状態から、プロセッサ18は、ツール26を、ツール座標系Cのz軸マイナス方向へ移動させて、ツール26で把持した部品を、ワークWの嵌合穴に嵌入させる。 When working on the work W with the tool 26, for example, after the processor 18 grips the part with the tool 26, the tool 26 is sequentially arranged at the above-mentioned target position Pn (n = 1 to 5). .. When the tool 26 is positioned at the target position P 5, components that are gripped by the tool 26, the fitting hole of the working position on the work W (not shown), z-axis plus direction of the tool coordinate system C T It is positioned at a position separated from. In this state, the processor 18, the tool 26, is moved in the z-axis negative direction of the tool coordinate system C T, a part which is gripped by tool 26, is fitted into the fitting hole of the work W.

光学装置16は、指部122に固定(例えば、指部122に把持)される。光学装置16は、ツール26に対して所定の位置関係となるように配置される。具体的には、光学装置16は、その光軸Oがツール座標系Cのz軸(又は、部品を嵌合穴へ嵌入する方向)と一致する(又は、平行となる)ように、ツール26に対して配置されている。なお、光学装置16は、指部122に限らず、ツール26の如何なる位置(例えば、ハンドベース120)に設けられてもよい。 The optical device 16 is fixed to the finger portion 122 (for example, gripped by the finger portion 122). The optical device 16 is arranged so as to have a predetermined positional relationship with respect to the tool 26. Specifically, the optical device 16, the optical axis O z axis of the tool coordinate system C T (or, part orientation to fit in the fitting hole a) coincides with (or is parallel) manner, tool It is arranged for 26. The optical device 16 is not limited to the finger portion 122, and may be provided at any position (for example, the hand base 120) of the tool 26.

なお、上述の実施形態においては、光学装置16(光学センサ40)が、ツール26に固定され、マニピュレータ24によって移動される場合について述べた。しかしながら、これに限らず、光学装置16(光学センサ40)は、移動機械14から離隔して配置されてもよい。このような形態について、図23を参照して説明する。 In the above-described embodiment, the case where the optical device 16 (optical sensor 40) is fixed to the tool 26 and moved by the manipulator 24 has been described. However, the present invention is not limited to this, and the optical device 16 (optical sensor 40) may be arranged at a distance from the moving machine 14. Such a form will be described with reference to FIG.

図23に示す機械システム130においては、光学装置16が、移動機械14から離隔した位置で、ワークWに対して固定されている。つまり、光学装置16は、マニピュレータ24によって移動されず、ワークWに対して静止して配置されている。ここで、光学装置16は、撮像座標系Cがマニピュレータ座標系Cに対して既知の位置関係となるように、移動機械14に対して所定の位置関係に配置される。 In the mechanical system 130 shown in FIG. 23, the optical device 16 is fixed to the work W at a position separated from the moving machine 14. That is, the optical device 16 is not moved by the manipulator 24 and is stationaryly arranged with respect to the work W. Here, the optical device 16, as in the imaging coordinate system C I is a known positional relationship with respect to the manipulator coordinate system C M, is arranged in a predetermined positional relationship with respect to the mobile machine 14.

次に、図24を参照して、機械システム130の機能について説明する。上述の実施形態と同様に、プロセッサ18は、作業プログラムWPに従ってマニピュレータ24へ移動指令MCを発信し、ツール26を目標位置P、P、P、P及びPの順に配置させる。本実施形態においては、光学装置16は、ツール26が目標位置P〜Pの間にあるときに光学センサ40の撮像範囲に入るように、配置されている。 Next, the function of the mechanical system 130 will be described with reference to FIG. 24. Similar to the above embodiment, the processor 18 sends a movement command MC n to the manipulator 24 according to the work program WP, and arranges the tool 26 in the order of the target positions P 1 , P 2 , P 3 , P 4 and P 5 . .. In this embodiment, the optical device 16, to enter the imaging area of the optical sensor 40 when the tool 26 is between the target position P 3 to P 5, it is arranged.

プロセッサ18は、ツール26を目標位置P〜Pへ移動させている間に光学センサ40を動作させて、ツール26を連続的に撮像する。例えば、プロセッサ18は、図8の形態と同様に、ツール26を目標位置P、P及びPの各々に到達した時点τP3、τP4及びτP5でツール26を撮像する。 The processor 18 operates the optical sensor 40 while the tool 26 is moved to the target position P 3 to P 5, continuously imaging the tool 26. For example, the processor 18, as in the embodiment of FIG. 8, to image the tool 26 the tool 26 at the target position P 3, P 4 and the time tau P3 reaches the respective P 5, tau P4 and tau P5.

図25は、プロセッサ18がツール26を目標位置Pに配置したことを検知した時点τP3で光学センサ40がツール26を撮像した画像データ140を画像化した例を示す。図25に示す画像データ140には、ツール26が写っている。なお、実際上は、画像データ140に、マニピュレータ24のコンポーネント(上腕部34等)も写るが、理解の容易のために、画像データ140ではツール26のみを図示している。 Figure 25 shows an example in which the processor 18 has imaged image data 140 in which the optical sensor 40 has captured the tool 26 at the time tau P3 has been detected in that a tool 26 to the target position P 3. The tool 26 is shown in the image data 140 shown in FIG. 25. In practice, the components of the manipulator 24 (upper arm 34, etc.) are also shown in the image data 140, but for the sake of easy understanding, only the tool 26 is shown in the image data 140.

プロセッサ18は、画像データ140を画像解析し、画像データ140に写るツール26の1つの視覚的特徴VF(例えば、ツール26の中心、エッジ、凹凸等)を抽出する。そして、プロセッサ18は、上述の実施形態と同様に、画像データ140における視覚的特徴VFの位置を示す情報として、視覚的特徴VFの撮像座標系Cの座標(x,y)を取得する。 The processor 18 analyzes the image data 140 and extracts one visual feature VF of the tool 26 (for example, the center, edge, unevenness, etc. of the tool 26) reflected in the image data 140. Then, processor 18 obtains similar to the embodiment described above, as the information indicating the position of the visual features VF in the image data 140, the image acquisition coordinate system C I visual features VF coordinates (x 3, y 3) To do.

図26に、プロセッサ18がツール26を目標位置Pに配置したことを検知した時点τP4で光学センサ40がツール26を撮像した画像データ142を画像化した例を示す。なお、図26においては、比較のために、図25に示す画像データ140に写る視覚的特徴VFの位置を、白点Dとして図示している。 Figure 26 shows an example in which the processor 18 has imaged image data 142 in which the optical sensor 40 has captured the tool 26 at the time tau P4 was detected in that a tool 26 to the target position P 4. Incidentally, in FIG. 26, for comparison, the position of the visual features VF caught on the image data 140 shown in FIG. 25 are illustrated as white dots D 3.

プロセッサ18は、画像データ142を画像解析し、画像データ140と共通の視覚的特徴VFを抽出する。図26に示すように、画像データ142に写る視覚的特徴VFの位置は、画像データ140に写る視覚的特徴VFの位置Dから、変位量Eだけ、撮像座標系Cにおいて変位している。プロセッサ18は、画像データ142における視覚的特徴VFの位置として、視覚的特徴VFの撮像座標系Cにおける座標(x,y)を取得する。 The processor 18 analyzes the image data 142 and extracts the visual feature VF common to the image data 140. As shown in FIG. 26, the position of the visual features VF caught on the image data 142 from the position D 3 of the visual features VF caught on the image data 140, by a displacement amount E 3, displaced in the imaging coordinate system C I There is. Processor 18, as the position of the visual features VF in the image data 142, to obtain the coordinates (x 4, y 4) in the imaging coordinate system C I visual characteristics VF.

図27に、プロセッサ18がツール26を目標位置Pに配置したことを検知した時点τP5で光学センサ40がツール26を撮像した画像データ144を画像化した例を示す。なお、図27においては、比較のために、図25に示す画像データ140に写る視覚的特徴VFの位置を白点Dとして図示し、図26に示す画像データ142に写る視覚的特徴VFの位置を白点Dとして図示している。 Figure 27 shows an example in which the processor 18 has imaged image data 144 in which the optical sensor 40 has captured the tool 26 at the time tau P5 it is detected that placing the tool 26 in the target position P 5. Incidentally, in FIG. 27, for comparison, illustrates the position of the visual features VF caught on the image data 140 shown in FIG. 25 as a white spot D 3, the visual features VF caught on the image data 142 shown in FIG. 26 It is shown positioned as white dots D 4.

プロセッサ18は、画像データ144を画像解析し、画像データ140及び142と共通の視覚的特徴VFを抽出する。図27に示すように、画像データ144に写る視覚的特徴VFの位置は、画像データ142に写る視覚的特徴VFの位置Dから、変位量Eだけ、撮像座標系Cにおいて変位している。プロセッサ18は、画像データ144における視覚的特徴VFの位置として、視覚的特徴VFの撮像座標系Cにおける座標(x,y)を取得する。 The processor 18 performs image analysis on the image data 144 and extracts a visual feature VF common to the image data 140 and 142. As shown in FIG. 27, the position of the visual features VF caught on the image data 144 from the position D 4 of the visual features VF caught on the image data 142, by a displacement amount E 4, displaced in the imaging coordinate system C I There is. Processor 18, as the position of the visual features VF in the image data 144, to obtain the coordinates (x 5, y 5) in the imaging coordinate system C I visual characteristics VF.

光学センサ40がツール26を撮像する動作と同期して、プロセッサ18は、距離センサ42を動作させて、光学センサ40とツール26との光軸Oの方向の距離Fを測定する。したがって、距離センサ42は、時点τP3、τP4及びτP5で、光学センサ40とツール26との距離FP3、FP4及びFP5を、それぞれ測定する。 In synchronization with the operation of the optical sensor 40 to image the tool 26, the processor 18 operates the distance sensor 42 to measure the distance F in the direction of the optical axis O between the optical sensor 40 and the tool 26. Accordingly, the distance sensor 42 at the time tau P3, tau P4 and tau P5, the distance F P3, F P4 and F P5 between the optical sensor 40 and the tool 26 is measured.

そして、プロセッサ18は、画像データ140から取得した座標(x,y)と、画像データ142から取得した座標(x,y)との差を、撮像座標系Cにおける変位量E(図26)として求める。上述したように、撮像座標系Cは、マニピュレータ座標系Cに対し、既知の位置関係に配置されている。 The processor 18 includes a coordinate acquired from the image data 140 (x 3, y 3) , the difference between the acquired coordinates (x 4, y 4) from the image data 142, the displacement amount E in the imaging coordinate system C I It is calculated as 3 (Fig. 26). As described above, the imaging coordinate system C I, compared manipulator coordinate system C M, is arranged in a known positional relationship.

プロセッサ18は、軌跡取得部60として機能して、撮像座標系Cとマニピュレータ座標系Cとの位置関係と、撮像座標系Cにおける変位量Eと、距離FP3及びFP4とを用いて、時点τP3から時点τP4までのツール26のマニピュレータ座標系Cにおける移動軌跡K(図8)を、演算により求める。 Processor 18, and functions as a track acquiring unit 60, the positional relationship between the imaging coordinate system C I and the manipulator coordinate system C M, the displacement amount E 3 in the imaging coordinate system C I, and the distance F P3 and F P4 used, movement locus K 3 in the manipulator coordinate system C M tools 26 from time tau P3 to time tau P4 (FIG. 8), obtained by calculation.

そして、プロセッサ18は、上述の実施形態と同様に、ずれ量取得部62として機能して、移動軌跡Kの基準軌跡Aからのずれ量δ(図8)を取得する。同様に、プロセッサ18は、撮像座標系Cとマニピュレータ座標系Cとの位置関係と、画像データ142及び144から取得した撮像座標系Cにおける変位量E(図27)と、距離FP4及びFP5とを用いて、時点τP4から時点τP5までのツール26のマニピュレータ座標系Cにおける移動軌跡Kを取得する。そして、プロセッサ18は、移動軌跡Kの基準軌跡Aからのずれ量δを取得する。 Then, the processor 18 functions as the deviation amount acquisition unit 62 as in the above-described embodiment, and acquires the deviation amount δ 4 (FIG. 8) of the movement locus K 3 from the reference locus A 3 . Similarly, the processor 18 includes a positional relationship between the imaging coordinate system C I and the manipulator coordinate system C M, the displacement amount in the imaging coordinate system C I acquired from the image data 142 and 144 E 4 (FIG. 27), the distance F by using the P4 and F P5, it acquires the movement trajectory K 4 in the manipulator coordinate system C M tools 26 from time tau P4 to time tau P5. Then, the processor 18 acquires the deviation amount δ 5 of the movement locus K 4 from the reference locus A 4 .

このように、本実施形態に係る装置70によれば、移動機械14から離隔して配置された光学センサ40によって、ツール26の視覚的特徴VFを連続して撮像し、撮像した画像データ140、142、144から、上述の実施形態と同様にずれ量δ、δを取得することができる。 As described above, according to the device 70 according to the present embodiment, the visual feature VF of the tool 26 is continuously imaged by the optical sensor 40 arranged apart from the mobile machine 14, and the image data 140 captured. From 142 and 144, the deviation amounts δ 4 and δ 5 can be obtained in the same manner as in the above-described embodiment.

なお、図23に示す実施形態において、プロセッサ18は、図12に示す形態のように、ツール26を目標位置PからPまで移動させている間に、光学センサ40によってワークWを、周期的又はランダムなタイミングで撮像してもよい。この場合、プロセッサ18は、上述の移動軌跡Kα、Kβ及びKγの基準軌跡A及びAからのずれ量を取得できる。 In the embodiment shown in FIG. 23, the processor 18, as in the embodiment shown in FIG. 12, while the tool 26 is moved from the target position P 3 to P 5, the workpiece W by the optical sensor 40, the period Imaging may be performed at a target or random timing. In this case, the processor 18 can acquire the amount of deviation of the above-mentioned movement loci K α , K β, and K γ from the reference loci A 3 and A 4 .

次に、図28を参照して、他の実施形態に係る機械システム150について説明する。機械システム150においては、移動機械14は、ワークWを把持するためのツール26Aを有する一方、ワークWに作業をするためのツール26Bは、移動機械14から離隔して配置されている。 Next, with reference to FIG. 28, the mechanical system 150 according to another embodiment will be described. In the mechanical system 150, the mobile machine 14 has a tool 26A for gripping the work W, while the tool 26B for working on the work W is arranged at a distance from the mobile machine 14.

ツール26Aは、例えば、ロボットハンドであって、移動機械14の手首部36に連結されている。一方、ツール26Bは、例えば、レーザ加工ヘッドであって、移動機械14によって移動されず、マニピュレータ座標系Cに対して静止して配置されている。また、機械システム150においては、光学装置16は、ツール26A(又は、ワークW)に固定されている。 The tool 26A is, for example, a robot hand and is connected to the wrist portion 36 of the moving machine 14. On the other hand, the tool 26B, for example, a laser machining head is not moved by the mobile machine 14, it is arranged to be stationary with respect to the manipulator coordinate system C M. Further, in the mechanical system 150, the optical device 16 is fixed to the tool 26A (or the work W).

プロセッサ18は、作業プログラムWPに従ってマニピュレータ24へ移動指令MCを発信し、ワークWを把持したツール26Aを、複数の目標位置Pへ順に移動させる。そして、プロセッサ18は、ツール26Aを移動させている間に光学センサ40を動作させて、移動機械14の周囲の物体としてツール26Bを連続的に撮像する。 The processor 18 transmits a movement command MC n to the manipulator 24 according to the work program WP, and moves the tool 26A holding the work W to a plurality of target positions P n in order. Then, the processor 18 operates the optical sensor 40 while moving the tool 26A to continuously image the tool 26B as an object around the moving machine 14.

そして、プロセッサ18は、軌跡取得部60として機能して、図25〜図27の形態と同様の方法を用いて、画像データにおけるツール26Bの視覚的特徴VFの位置に基づいて、ツール26Aの移動軌跡Kを取得する。そして、プロセッサ18は、ずれ量取得部62として機能して、移動軌跡Kの基準軌跡Aからのずれ量δを取得する。 Then, the processor 18 functions as the locus acquisition unit 60, and moves the tool 26A based on the position of the visual feature VF of the tool 26B in the image data by using the same method as the form of FIGS. 25 to 27. Acquire the locus K. Then, the processor 18 functions as a deviation amount acquisition unit 62 to acquire the deviation amount δ of the movement locus K from the reference locus A.

次に、図29を参照して、さらに他の実施形態に係る機械システム160について説明する。機械システム160は、上述の機械システム150と、光学装置16の設置位置において、相違する。具体的には、機械システム160においては、光学装置16は、移動機械14から離隔した位置で、ツール26Bに対して固定されている。 Next, with reference to FIG. 29, the mechanical system 160 according to still another embodiment will be described. The mechanical system 160 is different from the above-mentioned mechanical system 150 in the installation position of the optical device 16. Specifically, in the mechanical system 160, the optical device 16 is fixed to the tool 26B at a position separated from the moving machine 14.

プロセッサ18は、作業プログラムWPに従ってマニピュレータ24へ移動指令MCを発信し、ワークWを把持したツール26Aを、複数の目標位置Pへ順に移動させる。そして、プロセッサ18は、ツール26Aを移動させている間に光学センサ40を動作させて、マニピュレータ24によって移動されるワークWの表面上の視覚的特徴VFを連続的に撮像する。 The processor 18 transmits a movement command MC n to the manipulator 24 according to the work program WP, and moves the tool 26A holding the work W to a plurality of target positions P n in order. Then, the processor 18 operates the optical sensor 40 while moving the tool 26A to continuously image the visual feature VF on the surface of the work W moved by the manipulator 24.

そして、プロセッサ18は、軌跡取得部60として機能して、図5〜図7の形態と同様の方法を用いて、画像データにおけるワークWの視覚的特徴VFの位置に基づいて、ツール26Aの移動軌跡Kを取得する。そして、プロセッサ18は、ずれ量取得部62として機能して、移動軌跡Kの基準軌跡Aからのずれ量δを取得する。 Then, the processor 18 functions as a locus acquisition unit 60, and moves the tool 26A based on the position of the visual feature VF of the work W in the image data by using the same method as the form of FIGS. 5 to 7. Acquire the locus K. Then, the processor 18 functions as a deviation amount acquisition unit 62 to acquire the deviation amount δ of the movement locus K from the reference locus A.

なお、光学センサ40の投光部40aは、所定の模様の光を出射してもよい。図30に、投光部40aが出射する光の一例を示す。図30に示す例では、投光部40aは、格子状の光を出射する。この構成によれば、光学センサ40は、撮像対称を撮像した画像データから、該撮像対称の視覚的特徴VFを抽出し易くなる。 The light projecting unit 40a of the optical sensor 40 may emit light having a predetermined pattern. FIG. 30 shows an example of the light emitted by the light projecting unit 40a. In the example shown in FIG. 30, the light projecting unit 40a emits light in a grid pattern. According to this configuration, the optical sensor 40 can easily extract the visual feature VF of the imaging symmetry from the image data obtained by imaging the imaging symmetry.

また、光学センサ40は、投光部40aが出射した光の反射光を受光部40bで受光するものに限らず、一般的なカメラであってもよい。また、光学センサ40と距離センサ42とで、投光部40a及び受光部40bを共有することもできる。この場合、距離センサ42の距離演算部42cは、投光部40aが光を出射してから、受光部40bが該光の反射光を受光するまでの時間に基づいて、光学センサ40から撮像対象までの距離を測定する。 Further, the optical sensor 40 is not limited to the one that receives the reflected light of the light emitted by the light projecting unit 40a by the light receiving unit 40b, and may be a general camera. Further, the optical sensor 40 and the distance sensor 42 can share the light emitting unit 40a and the light receiving unit 40b. In this case, the distance calculation unit 42c of the distance sensor 42 is an image pickup target from the optical sensor 40 based on the time from when the light projecting unit 40a emits light until the light receiving unit 40b receives the reflected light of the light. Measure the distance to.

また、上述の実施形態から、距離センサ42を省略することもできる。例えば、上述の実施形態において、目標位置P、P及びPの、マニピュレータ座標系Cのz軸の座標が同じに設定されている場合、目標位置P〜PとワークWとの距離が一定となる。したがって、この場合、光学センサ40からワークWまでの距離Fを測定せずに、光学センサ40が撮像した画像データから、ツール26(又は26A)の移動軌跡Kを、マニピュレータ座標系Cのx−y平面と平行な平面内での2次元の軌跡として、求めることができる。 Further, the distance sensor 42 can be omitted from the above-described embodiment. For example, in the above embodiment, the target position P 3, P 4 and P 5, when the coordinate in the z-axis of the manipulator coordinate system C M is set equal, and the target position P 3 to P 5 and the workpiece W The distance is constant. Therefore, in this case, without measuring the distance F from the optical sensor 40 to the workpiece W, from the image data optical sensor 40 is captured, the movement trajectory K of the tool 26 (or 26A), of the manipulator coordinate system C M x It can be obtained as a two-dimensional locus in a plane parallel to the −y plane.

また、上述の実施形態においては、軌跡取得部60、ずれ量取得部62、位置補正部64、判定部92、警告生成部94、位置データ取得部102、参照軌跡取得部104、第2の判定部106、及び第2の警告生成部108の機能が、制御装置12に実装され、プロセッサ18が、これら機能を実行する場合について説明した。 Further, in the above-described embodiment, the locus acquisition unit 60, the deviation amount acquisition unit 62, the position correction unit 64, the determination unit 92, the warning generation unit 94, the position data acquisition unit 102, the reference locus acquisition unit 104, and the second determination. The case where the functions of the unit 106 and the second warning generation unit 108 are implemented in the control device 12 and the processor 18 executes these functions has been described.

しかしながら、これに限らず、軌跡取得部60、ずれ量取得部62、位置補正部64、判定部92、警告生成部94、位置データ取得部102、参照軌跡取得部104、第2の判定部106、及び第2の警告生成部108の少なくとも1つは、制御装置12とは別に設けられてもよい。このような実施形態を図31に示す。 However, the present invention is not limited to this, and the locus acquisition unit 60, the deviation amount acquisition unit 62, the position correction unit 64, the determination unit 92, the warning generation unit 94, the position data acquisition unit 102, the reference locus acquisition unit 104, and the second determination unit 106. , And at least one of the second warning generation units 108 may be provided separately from the control device 12. Such an embodiment is shown in FIG.

図31に示す機械システム170は、制御装置12、移動機械14、及び装置172を備える。装置172は、ツール26の移動軌跡Kの基準Aからのずれを取得するものであって、光学センサ40、軌跡取得部60、及びずれ量取得部62を備える。軌跡取得部60及びずれ量取得部62は、制御装置12とは別に設けられている。軌跡取得部60及びずれ量取得部62は、プロセッサ及び記憶部を有する1つのコンピュータに実装されてもよいし、それぞれが別々のコンピュータに実装されてもよい。 The mechanical system 170 shown in FIG. 31 includes a control device 12, a mobile machine 14, and a device 172. The device 172 acquires the deviation of the movement locus K of the tool 26 from the reference A, and includes an optical sensor 40, a locus acquisition unit 60, and a deviation amount acquisition unit 62. The locus acquisition unit 60 and the deviation amount acquisition unit 62 are provided separately from the control device 12. The locus acquisition unit 60 and the deviation amount acquisition unit 62 may be mounted on one computer having a processor and a storage unit, or may be mounted on separate computers.

なお、上述の実施形態では、ツール26が目標位置P〜Pへ移動している間、光学センサ40は、移動機械14の周囲の物体としてワークWを撮像していた。しかしながら、これに限らず、光学センサ40は、移動機械14の周囲に在る如何なる物体を撮像してもよい。このような形態について、図32を参照して説明する。 In the above embodiment, while the tool 26 is moved to the target position P 3 to P 5, the optical sensor 40, the workpiece W has been captured as an object around the mobile machine 14. However, the present invention is not limited to this, and the optical sensor 40 may image any object around the moving machine 14. Such a form will be described with reference to FIG.

図32に示す形態では、ワークWに物体Qが設置されている。物体Qは、マニピュレータ座標系Cのx−z平面と略平行となるように移動機械14から離隔して配置され、ワークWに対して固定されている。一方、光学装置16はツール26に対して、その光軸Oがツール座標系Cのy軸と平行となる位置関係に、配置されている。 In the form shown in FIG. 32, the object Q is installed on the work W. Object Q is spaced apart from the mobile machine 14 so that the x-z plane of the manipulator coordinate system C M and substantially parallel and fixed relative to the workpiece W. On the other hand, the optical device 16 with respect to tool 26, the optical axis O is a positional relationship parallel to the y-axis of the tool coordinate system C T, is arranged.

この実施形態においては、プロセッサ18がツール26を目標位置P、P及びPへ移動させている間に、光学センサ40は、物体Qを連続的に撮像する。そして、プロセッサ18は、撮像した画像データを画像解析し、物体Qの視覚的特徴VFを抽出する。そして、プロセッサ18は、軌跡取得部60として機能して、図5〜図7の形態と同様の方法を用いて、画像データにおける物体Qの視覚的特徴VFの位置に基づいて、ツール26の移動軌跡Kを取得する。 In this embodiment, while the processor 18 is moving the tool 26 to the target position P 3, P 4 and P 5, the optical sensor 40 is continuously imaging an object Q. Then, the processor 18 analyzes the captured image data and extracts the visual feature VF of the object Q. Then, the processor 18 functions as a locus acquisition unit 60, and moves the tool 26 based on the position of the visual feature VF of the object Q in the image data by using the same method as the form of FIGS. 5 to 7. Acquire the locus K n .

そして、プロセッサ18は、ずれ量取得部62として機能して、移動軌跡Kの基準軌跡Aからのずれ量δを取得することができる。なお、物体Qにマーク(塗装、刻印、シール等)を設けて、光学センサ40は、該マークを視覚的特徴VFとして撮像してもよい。同様に、光学センサ40でワークWを撮像する上述の実施形態において、ワークWの表面にマークを設けて、光学センサ40は、ワークW上のマークを視覚的特徴VFとして撮像してもよい。 Then, the processor 18 can function as shift amount acquisition unit 62 acquires the shift amount [delta] n from the reference trajectory A n of the movement locus K n. A mark (painting, engraving, sticker, etc.) may be provided on the object Q, and the optical sensor 40 may image the mark as a visual feature VF. Similarly, in the above-described embodiment in which the optical sensor 40 images the work W, the optical sensor 40 may image the mark on the work W as a visual feature VF by providing a mark on the surface of the work W.

なお、上述の実施形態においては、軌跡取得部60は、ツール26の移動軌跡Kを取得する場合について述べた。しかしながら、これに限らず、軌跡取得部60は、マニピュレータ24の如何なる可動コンポーネントの移動軌跡を取得するように構成されてもよい。この場合、ずれ量取得部62は、該可動コンポーネントの移動軌跡の基準軌跡からのずれ量を取得する。 In addition, in the above-described embodiment, the case where the locus acquisition unit 60 acquires the movement locus K of the tool 26 has been described. However, not limited to this, the locus acquisition unit 60 may be configured to acquire the movement locus of any movable component of the manipulator 24. In this case, the deviation amount acquisition unit 62 acquires the deviation amount from the reference locus of the movement locus of the movable component.

また、上述の実施形態では、5つの目標位置P〜Pが設定されている場合について述べたが、目標位置Pの数は、如何なる数であってもよい。また、これら目標位置Pの各々が教示点であってもよいし、又は、教示点及び補間点として設定されてもよい。また、2つの教示点の間に、如何なる数の補間点が設定されてもよい。 Further, in the above-described embodiment, five target positions P 1 to P 5 has dealt with the case where is set, the number of target positions P n can be any number. Further, each of these target positions Pn may be a teaching point, or may be set as a teaching point and an interpolation point. Further, any number of interpolation points may be set between the two teaching points.

また、マニピュレータ24は、垂直多関節型ロボットに限らず、水平多関節型又はパラレルリンク型等、如何なるタイプのロボットであってもよい。又は、マニピュレータ24は、x軸方向のボールねじ機構、y軸方向のボールねじ機構、及びz軸方向のボールねじ機構を有するワークテーブル装置であってもよい。 Further, the manipulator 24 is not limited to the vertical articulated robot, and may be any type of robot such as a horizontal articulated robot or a parallel link robot. Alternatively, the manipulator 24 may be a work table device having a ball screw mechanism in the x-axis direction, a ball screw mechanism in the y-axis direction, and a ball screw mechanism in the z-axis direction.

以上、実施形態を通じて本開示を説明したが、上述の実施形態は、特許請求の範囲に係る発明を限定するものではない。 Although the present disclosure has been described above through the embodiments, the above-described embodiments do not limit the invention according to the claims.

10,130,150,160,170 機械システム
12 制御装置
14 移動機械
16 光学装置
18 プロセッサ
24 マニピュレータ
26,26A,26B ツール
40 光学センサ
42 距離センサ
60 軌跡取得部
62 ずれ量取得部
64 位置補正部
10, 130, 150, 160, 170 Mechanical system 12 Control device 14 Mobile machine 16 Optical device 18 Processor 24 Manipulator 26, 26A, 26B Tool 40 Optical sensor 42 Distance sensor 60 Trajectory acquisition unit 62 Misalignment amount acquisition unit 64 Position correction unit

Claims (11)

移動機械の移動軌跡の基準からのずれを取得する装置であって、
前記移動機械によって移動され、該移動機械が移動指令に従って移動している間に該移動機械の周囲の物体の視覚的特徴を連続的に撮像し、又は、前記移動機械から離隔して配置され、前記移動機械が移動指令に従って移動している間に該移動機械又は該移動機械によって移動される物体の視覚的特徴を連続的に撮像する光学センサと、
前記光学センサが撮像した第1の画像データにおける前記視覚的特徴の位置と、該第1の画像データの後に前記光学センサが撮像した第2の画像データにおける前記視覚的特徴の位置と、に基づいて、前記第1の画像データの撮像時点から前記第2の画像データの撮像時点までの前記移動機械の移動軌跡を取得する軌跡取得部と、
前記軌跡取得部が取得した前記移動軌跡の、前記移動指令によって規定される前記移動機械の基準軌跡からのずれ量を取得するずれ量取得部と、を備える、装置。
It is a device that acquires the deviation from the reference of the movement trajectory of the moving machine.
Moved by the moving machine, the visual features of objects around the moving machine are continuously imaged or placed away from the moving machine while the moving machine is moving according to a movement command. An optical sensor that continuously captures the visual features of the moving machine or an object moved by the moving machine while the moving machine is moving according to a movement command.
Based on the position of the visual feature in the first image data captured by the optical sensor and the position of the visual feature in the second image data captured by the optical sensor after the first image data. A locus acquisition unit that acquires the movement locus of the moving machine from the time of capturing the first image data to the time of capturing the second image data.
An apparatus including a deviation amount acquisition unit that acquires a deviation amount of the movement locus acquired by the locus acquisition unit from a reference trajectory of the moving machine defined by the movement command.
前記移動指令は、前記移動機械を配置すべき複数の目標位置の情報を含み、
前記光学センサは、前記移動機械が前記複数の目標位置の各々に到達した時点で、前記視覚的特徴を撮像する、請求項1に記載の装置。
The movement command includes information on a plurality of target positions where the moving machine should be placed.
The device according to claim 1, wherein the optical sensor images the visual features when the moving machine reaches each of the plurality of target positions.
前記光学センサは、
前記移動機械が第1の前記目標位置に到達した時点で前記第1の画像データを撮像し、
前記移動機械が第2の前記目標位置に到達した時点で前記第2の画像データを撮像し、
前記ずれ量取得部は、前記軌跡取得部が取得した前記移動軌跡の、前記第1の目標位置から前記第2の目標位置までの前記基準軌跡からの前記ずれ量を取得する、請求項2に記載の装置。
The optical sensor is
When the moving machine reaches the first target position, the first image data is imaged, and the first image data is captured.
When the moving machine reaches the second target position, the second image data is imaged, and the second image data is captured.
According to claim 2, the deviation amount acquisition unit acquires the deviation amount of the movement locus acquired by the locus acquisition unit from the reference locus from the first target position to the second target position. The device described.
前記光学センサが前記視覚的特徴を撮像したときに、該光学センサから撮像対象までの距離を測定する距離センサをさらに備え、
前記軌跡取得部は、前記距離センサが測定した前記距離にさらに基づいて、前記移動軌跡を取得する、請求項1〜3のいずれか1項に記載の装置。
Further comprising a distance sensor that measures the distance from the optical sensor to the imaging target when the optical sensor images the visual feature.
The device according to any one of claims 1 to 3, wherein the locus acquisition unit acquires the movement locus based on the distance measured by the distance sensor.
前記軌跡取得部は、
前記第1の画像データにおける前記視覚的特徴の前記位置を示す、前記光学センサの撮像座標系の第1の座標と、前記第2の画像データにおける前記視覚的特徴の前記位置を示す、前記撮像座標系の第2の座標と、を取得し、
前記撮像座標系における前記第1の座標と前記第2の座標との差を用いて、前記移動軌跡を取得する、請求項1〜4のいずれか1項に記載の装置。
The locus acquisition unit
The imaging, which indicates the position of the visual feature in the first image data, the first coordinate of the imaging coordinate system of the optical sensor, and the position of the visual feature in the second image data. Get the second coordinate of the coordinate system and
The apparatus according to any one of claims 1 to 4, wherein the movement locus is acquired by using the difference between the first coordinate and the second coordinate in the imaging coordinate system.
前記ずれ量取得部が取得した前記ずれ量に基づいて、前記移動機械の位置を補正する位置補正部をさらに備える、請求項1〜5のいずれか1項に記載の装置。 The apparatus according to any one of claims 1 to 5, further comprising a position correction unit that corrects the position of the moving machine based on the deviation amount acquired by the deviation amount acquisition unit. 前記ずれ量取得部が取得した前記ずれ量が予め定められた閾値よりも大きいか否かを判定する判定部と、
前記判定部によって前記ずれ量が前記閾値よりも大きいと判定された場合に警告信号を生成する警告生成部と、をさらに備える、請求項1〜6のいずれか1項に記載の装置。
A determination unit that determines whether or not the deviation amount acquired by the deviation amount acquisition unit is larger than a predetermined threshold value.
The apparatus according to any one of claims 1 to 6, further comprising a warning generation unit that generates a warning signal when the determination unit determines that the deviation amount is larger than the threshold value.
前記移動機械が移動している間に該移動機械の位置データを取得する位置データ取得部と、
前記位置データ取得部が取得した前記位置データに基づいて、前記移動機械の移動軌跡を参照軌跡として取得する参照軌跡取得部と、をさらに備える、請求項1〜7のいずれか1項に記載の装置。
A position data acquisition unit that acquires position data of the moving machine while the moving machine is moving,
The invention according to any one of claims 1 to 7, further comprising a reference locus acquisition unit that acquires the movement locus of the moving machine as a reference locus based on the position data acquired by the position data acquisition unit. apparatus.
前記ずれ量取得部は、前記参照軌跡取得部が取得した前記参照軌跡の前記基準軌跡からのずれ量を参照ずれ量としてさらに取得し、
前記装置は、
前記参照ずれ量が予め定められた第2の閾値よりも大きいか否かを判定する第2の判定部と、
前記第2の判定部によって前記参照ずれ量が前記第2の閾値よりも大きいと判定された場合に第2の警告信号を生成する第2の警告生成部と、をさらに備える、請求項8に記載の装置。
The deviation amount acquisition unit further acquires the deviation amount of the reference locus acquired by the reference locus acquisition unit from the reference locus as the reference deviation amount.
The device
A second determination unit that determines whether or not the reference deviation amount is larger than a predetermined second threshold value, and
8. The eighth aspect of the present invention further includes a second warning generation unit that generates a second warning signal when the reference deviation amount is determined to be larger than the second threshold value by the second determination unit. The device described.
前記移動機械は、ツール、及び該ツールを移動させるマニピュレータを有し、
前記マニピュレータは、前記ツールをワークに対して移動させ、
前記光学センサは、
前記ツールに対して所定の位置関係に配置されて、前記マニピュレータによって移動され、
前記周囲の物体としての前記ワークの前記視覚的特徴を連続して撮像し、
前記軌跡取得部は、前記ツールの前記移動軌跡を取得する、請求項1〜9のいずれか1項に記載の装置。
The moving machine has a tool and a manipulator that moves the tool.
The manipulator moves the tool with respect to the work and
The optical sensor is
Placed in a predetermined positional relationship with respect to the tool, moved by the manipulator,
The visual features of the work as the surrounding object are continuously imaged.
The device according to any one of claims 1 to 9, wherein the locus acquisition unit acquires the movement locus of the tool.
移動機械の移動軌跡の基準からのずれを取得する方法であって、
前記移動機械によって移動される光学センサによって、該移動機械が移動指令に従って移動している間に該移動機械の周囲の物体の視覚的特徴を連続して撮像し、又は、前記移動機械から離隔して配置された光学センサによって、前記移動機械が移動指令に従って移動している間に該移動機械又は該移動機械によって移動される物体の視覚的特徴を連続的に撮像し、
前記光学センサが撮像した第1の画像データにおける前記視覚的特徴の位置と、該第1の画像データの後に前記光学センサが撮像した第2の画像データにおける前記視覚的特徴の位置と、に基づいて、前記第1の画像データの撮像時点から前記第2の画像データの撮像時点までの前記移動機械の移動軌跡を取得し、
取得した前記移動軌跡の、前記移動指令によって規定される前記移動機械の基準軌跡からのずれ量を取得する、方法。
It is a method to obtain the deviation from the reference of the movement trajectory of the moving machine.
The optical sensor moved by the moving machine continuously images the visual features of objects around the moving machine while the moving machine is moving according to a movement command, or is separated from the moving machine. The optical sensors arranged on the moving machine continuously image the visual features of the moving machine or the object moved by the moving machine while the moving machine is moving according to the movement command.
Based on the position of the visual feature in the first image data captured by the optical sensor and the position of the visual feature in the second image data captured by the optical sensor after the first image data. Then, the movement locus of the moving machine from the time of capturing the first image data to the time of capturing the second image data is acquired.
A method for acquiring the amount of deviation of the acquired movement locus from the reference locus of the moving machine defined by the movement command.
JP2019129371A 2019-07-11 2019-07-11 Apparatus and method for acquiring deviation of moving locus of moving machine Pending JP2021013983A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019129371A JP2021013983A (en) 2019-07-11 2019-07-11 Apparatus and method for acquiring deviation of moving locus of moving machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019129371A JP2021013983A (en) 2019-07-11 2019-07-11 Apparatus and method for acquiring deviation of moving locus of moving machine

Publications (1)

Publication Number Publication Date
JP2021013983A true JP2021013983A (en) 2021-02-12

Family

ID=74532056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019129371A Pending JP2021013983A (en) 2019-07-11 2019-07-11 Apparatus and method for acquiring deviation of moving locus of moving machine

Country Status (1)

Country Link
JP (1) JP2021013983A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021106237A1 (en) * 2019-11-25 2021-06-03
JP7169474B1 (en) 2022-02-25 2022-11-10 Dmg森精機株式会社 Conveying device, control method, and control program
CN116944702A (en) * 2023-09-19 2023-10-27 南通科美自动化科技有限公司 In-situ laser cutting manipulator, device and method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003175481A (en) * 2001-12-11 2003-06-24 Ricoh Co Ltd Handling device
JP2011045898A (en) * 2009-08-26 2011-03-10 Amada Co Ltd Welding robot
WO2017037908A1 (en) * 2015-09-03 2017-03-09 富士機械製造株式会社 Robot system
JP2019038040A (en) * 2017-08-22 2019-03-14 ファナック株式会社 Robot system
JP2019093504A (en) * 2017-11-24 2019-06-20 キヤノン株式会社 Article manufacturing method and robot system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003175481A (en) * 2001-12-11 2003-06-24 Ricoh Co Ltd Handling device
JP2011045898A (en) * 2009-08-26 2011-03-10 Amada Co Ltd Welding robot
WO2017037908A1 (en) * 2015-09-03 2017-03-09 富士機械製造株式会社 Robot system
JP2019038040A (en) * 2017-08-22 2019-03-14 ファナック株式会社 Robot system
JP2019093504A (en) * 2017-11-24 2019-06-20 キヤノン株式会社 Article manufacturing method and robot system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021106237A1 (en) * 2019-11-25 2021-06-03
JP7357689B2 (en) 2019-11-25 2023-10-06 三菱電機株式会社 Control device, robot system and control method
JP7169474B1 (en) 2022-02-25 2022-11-10 Dmg森精機株式会社 Conveying device, control method, and control program
JP2023124073A (en) * 2022-02-25 2023-09-06 Dmg森精機株式会社 Transportation apparatus, control method, and control program
CN116944702A (en) * 2023-09-19 2023-10-27 南通科美自动化科技有限公司 In-situ laser cutting manipulator, device and method
CN116944702B (en) * 2023-09-19 2024-04-16 南通科美自动化科技有限公司 In-situ laser cutting method

Similar Documents

Publication Publication Date Title
US11964396B2 (en) Device and method for acquiring deviation amount of working position of tool
US7200260B1 (en) Teaching model generating device
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
JP6490037B2 (en) Robot system comprising a robot supported by a movable carriage
US10232512B2 (en) Coordinate system setting method, coordinate system setting apparatus, and robot system provided with coordinate system setting apparatus
JP7153085B2 (en) ROBOT CALIBRATION SYSTEM AND ROBOT CALIBRATION METHOD
TW201618913A (en) Robot and robot system
JP2021013983A (en) Apparatus and method for acquiring deviation of moving locus of moving machine
WO2018043525A1 (en) Robot system, robot system control device, and robot system control method
JP6869159B2 (en) Robot system
US11565421B2 (en) Robot and robot system
JP2007122705A (en) Welding teaching point correction system and calibration method
JP2019063955A (en) Robot system, operation control method and operation control program
KR20210117307A (en) Industrial robotic device with improved tooling path generation, and method for operating industrial robotic device according to improved tooling path
JP5509859B2 (en) Robot control apparatus and method
JP6474450B2 (en) Machine tool control system
WO2023032400A1 (en) Automatic transport device, and system
US20230278196A1 (en) Robot system
JP7414851B2 (en) Robot control device, robot system, control method, and computer program
JP7364773B2 (en) Teaching system and robot control device
JP6923688B2 (en) Robots and robot systems
JP2010149225A (en) Robot system, device and method for controlling robot system
JP2000326082A (en) Laser beam machine
JP2017170552A (en) Position control system
JP2000117466A (en) Teaching method of yag laser beam machine, and its device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220517

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230620

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507