JP5453859B2 - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP5453859B2
JP5453859B2 JP2009061092A JP2009061092A JP5453859B2 JP 5453859 B2 JP5453859 B2 JP 5453859B2 JP 2009061092 A JP2009061092 A JP 2009061092A JP 2009061092 A JP2009061092 A JP 2009061092A JP 5453859 B2 JP5453859 B2 JP 5453859B2
Authority
JP
Japan
Prior art keywords
image
captured
image data
plane
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009061092A
Other languages
Japanese (ja)
Other versions
JP2010214479A (en
Inventor
大介 由井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2009061092A priority Critical patent/JP5453859B2/en
Publication of JP2010214479A publication Critical patent/JP2010214479A/en
Application granted granted Critical
Publication of JP5453859B2 publication Critical patent/JP5453859B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ロボットシステムに関し、特に対象物品を撮影するカメラが設けられたロボットシステムに関する。   The present invention relates to a robot system, and more particularly to a robot system provided with a camera for photographing a target article.

従来、例えば対象物品の外観などを検査する場合、アームの先端にカメラを有するロボットが利用される。対象物品は、ロボットのアームの先端に搭載されたカメラによって撮影される。このようなカメラが搭載されたロボットを備えるロボットシステムの場合、検査の対象となる位置に正確にカメラが移動するように設定する、いわゆるティーチングを実施する必要がある(カメラのティーチングについて特許文献1参照)。カメラの位置は、カメラの外観的な位置だけでは正確性に欠けるため、カメラで撮影された撮影画像に基づいて適切であるか否かが判断される。   Conventionally, for example, when inspecting the appearance of a target article, a robot having a camera at the tip of an arm is used. The target article is photographed by a camera mounted on the tip of the robot arm. In the case of a robot system including a robot on which such a camera is mounted, it is necessary to perform so-called teaching in which the camera is set to accurately move to a position to be inspected (Patent Document 1 regarding camera teaching). reference). Since the camera position is not accurate only by the appearance position of the camera, it is determined whether or not the camera position is appropriate based on a photographed image photographed by the camera.

しかしながら、例えばカメラや制御装置の性能、あるいはカメラと制御装置とを接続する通信手段によっては、撮影画像の伝送および取得に時間を要し、カメラによる画像の撮影と表示手段による画像の表示との間に時間的な差が生じることがある。このように実際の画像の撮影と表示との間に時間的な差が生じると、制御装置からロボットに対する操作の指示にも遅れが生じる。そのため、ロボットに搭載されたカメラの操作に過剰な入力が行われ、いわゆるオーバーシュートやアンダーシュートが生じやすくなる。その結果、ロボットに搭載されたカメラの位置の微調整が困難になるという問題が生じる。一方、カメラの位置を精密に調整するためには、カメラ、制御装置および通信手段に高い性能が要求される。   However, depending on, for example, the performance of the camera or the control device or the communication means connecting the camera and the control device, it takes time to transmit and acquire the captured image. There may be a time difference between them. As described above, when there is a time difference between actual image capturing and display, a delay also occurs in an operation instruction from the control device to the robot. Therefore, excessive input is performed for the operation of the camera mounted on the robot, and so-called overshoot and undershoot are likely to occur. As a result, there arises a problem that fine adjustment of the position of the camera mounted on the robot becomes difficult. On the other hand, in order to precisely adjust the position of the camera, high performance is required for the camera, the control device, and the communication means.

特開平9−321080号公報JP-A-9-321080

そこで、本発明の目的は、通信手段の能力に依存することなく、ロボットに搭載されたカメラの正確な位置合わせが容易なロボットシステムを提供することにある。 An object of the present invention does not depend on the ability of the communication unit is that the accurate alignment of the camera mounted on the robot to provide easy robotic system.

請求項1、2または3記載の発明では、画像合成手段は、グループ化された複数のデータグループとして記憶手段に記憶されている平面画像データに基づいて合成画像を作成する。ロボットに搭載されたカメラの位置を微調整する場合、その直前に少なくとも一枚は対象物品を含む撮影画像が取得されている。画像合成手段は、この対象物品を含む撮影画像を用いて、現在カメラで撮影している画像に近似する合成画像を作成する。そのため、現在カメラで撮影している画像が表示手段に表示できないとき、すなわちカメラ、制御装置あるいは通信手段の能力によってカメラで撮影している画像と表示手段に表示している画像との間に時間差が生じるときでも、カメラで現在撮影した画像に対応して表示手段に表示されている合成画像を参照してロボットへ操作の指示が可能となる。したがって、通信手段の能力に依存することなく、ロボットに搭載されたカメラの正確な位置合わせを容易に行うことができる。 In the first, second, or third aspect of the invention, the image synthesizing unit creates a synthesized image based on the planar image data stored in the storage unit as a plurality of grouped data groups. When finely adjusting the position of the camera mounted on the robot, a photographed image including at least one target article is acquired immediately before that. The image composition means creates a composite image that approximates the image currently captured by the camera, using the captured image including the target article. Therefore, when the image currently captured by the camera cannot be displayed on the display means, that is, the time difference between the image captured by the camera and the image displayed on the display means due to the capability of the camera, control device or communication means. Even when this occurs, the robot can be instructed to operate by referring to the composite image displayed on the display means corresponding to the image currently captured by the camera. Therefore, without depending on the ability of the communication unit, the accurate alignment of the camera mounted on the robot can be easily performed.

また、請求項1記載の発明では、データ更新手段は、記憶手段に新たな平面画像データを記憶するための記憶領域が不足するとき、所定の平面画像データを削除して、空いた記憶領域に新たな平面画像データを記憶する。すなわち、データ更新手段は、記憶手段に複数記憶されているデータグループのうち属する平面画像データの数が最も多い最多データグループから合成画像の作成のために選択された選択時刻が最も古い平面画像データを削除する。属する平面画像データの数が最も多い最多データグループは、焦点座標が近似する平面画像データ、すなわち類似の画像を多く含んでいる可能性が高い。そして、その中でも最も選択時刻が古い、すなわち選択頻度が最も低い平面画像データが削除される。つまり、合成画像の作成に対する寄与度が低い平面画像データが削除され、新たな平面画像データが追加される。これにより、記憶領域を増大させなくても、ロボットの操作に必要な合成画像の基となる平面画像データが確保される。また、上述の条件に基づいて平面画像データを削除することにより、合成画像の作成に対する寄与度が低い平面画像データが減少し、合成画像の作成のために所望の平面画像データを選択する時間は短縮される。したがって、迅速に作成される合成画像によって撮影画像を代用することができ、ロボットに搭載されたカメラの正確な位置合わせを容易に行うことができる。   According to the first aspect of the present invention, when the storage area for storing new planar image data is insufficient in the storage means, the data updating means deletes the predetermined planar image data and creates a free storage area. New plane image data is stored. In other words, the data updating means is the plane image data having the oldest selection time selected for creating a composite image from the most frequent data group belonging to the largest number of plane image data belonging to the data group stored in the storage means. Is deleted. The most frequent data group having the largest number of plane image data belonging to it is highly likely to include a lot of plane image data with similar focal coordinates, that is, similar images. Then, the plane image data having the oldest selection time, that is, the lowest selection frequency is deleted. That is, the plane image data having a low contribution to the creation of the composite image is deleted, and new plane image data is added. As a result, plane image data serving as a basis for a composite image necessary for operation of the robot is ensured without increasing the storage area. Further, by deleting the plane image data based on the above-mentioned conditions, the plane image data having a low contribution to the creation of the composite image is reduced, and the time for selecting the desired plane image data for the creation of the composite image is Shortened. Therefore, a captured image can be substituted by a composite image that is quickly created, and accurate positioning of a camera mounted on a robot can be easily performed.

請求項2記載の発明では、データ更新手段は、記憶手段に新たな平面画像データを記憶するための記憶領域が不足するとき、所定の平面画像データを削除して、空いた記憶領域に新たな平面画像データを記憶する。すなわち、データ更新手段は、記憶手段に複数記憶されているデータグループのうち新たな平面画像データが属する特定データグループを選択する。そして、データ更新手段は、特定データグループに属する全ての平面画像データにおける焦点座標の平均値に焦点座標が最も近い平面画像データを削除する。特定データグループの焦点座標の平均値に近い範囲には、焦点座標が近似した多くの平面画像データが存在している可能性が高い。そのため、焦点座標が特定データグループにおける平均値に最も近い平面画像データは、焦点座標が近い他の平面画像データによって代用可能と考えられる。すなわち、合成画像の作成に対する影響が小さい平面画像データが削除され、新たな平面画像データが追加される。これにより、記憶領域を増大させなくても、ロボットの操作に必要な合成画像の基となる平面画像データが確保される。また、合成画像の作成への影響が小さい平面画像データを削除することにより、合成画像の作成に与える影響が小さい平面画像データが減少し、合成画像の作成のために所望の平面画像データを選択する時間は短縮される。したがって、迅速に作成される合成画像によって撮影画像を代用することができ、ロボットに搭載されたカメラの正確な位置合わせを容易に行うことができる。   In the invention described in claim 2, when the storage area for storing new planar image data is insufficient in the storage means, the data updating means deletes the predetermined planar image data and newly adds a new storage area. Planar image data is stored. That is, the data update unit selects a specific data group to which the new plane image data belongs from among a plurality of data groups stored in the storage unit. Then, the data update unit deletes the plane image data having the closest focal coordinate to the average value of the focal coordinates in all the planar image data belonging to the specific data group. There is a high possibility that a lot of plane image data having approximate focal coordinates exist in the range close to the average value of the focal coordinates of the specific data group. Therefore, it is considered that the planar image data whose focal point coordinates are closest to the average value in the specific data group can be substituted by other planar image data whose focal point coordinates are close. That is, the plane image data that has a small influence on the creation of the composite image is deleted, and new plane image data is added. As a result, plane image data serving as a basis for a composite image necessary for operation of the robot is ensured without increasing the storage area. In addition, by deleting plane image data that has a small effect on the creation of the composite image, the plane image data that has a small effect on the creation of the composite image is reduced, and the desired plane image data is selected for creating the composite image. The time to do is shortened. Therefore, a captured image can be substituted by a composite image that is quickly created, and accurate positioning of a camera mounted on a robot can be easily performed.

請求項3記載の発明では、データ更新手段は、記憶手段に新たな平面画像データを記憶するための記憶領域が不足するとき、所定の平面画像データを削除して、空いた記憶領域に新たな平面画像データを記憶する。すなわち、データ更新手段は、記憶手段に複数記憶されているデータグループのうち新たな平面画像データが属する特定データグループを選択する。そして、データ更新手段は、特定データグループに平面画像データのうち撮影時刻が最も古い画像を削除する。撮影時刻が最も古い平面画像データは、その後の画像の撮影によって近い位置で平面画像データが取得されている可能性が高い。そのため、特定データグループにおいて最も古い平面画像データは、その後に撮影された平面画像データによって代用可能と考えられる。すなわち、合成画像の作成に対する影響が小さい平面画像データが削除され、新たな平面画像データが追加される。これにより、記憶領域を増大させなくても、ロボットの操作に必要な合成画像の基となる平面画像データが確保される。また、合成画像の作成への影響が小さい平面画像データを削除することにより、合成画像の作成に与える影響が小さい平面画像データが減少し、合成画像の作成のために所望の平面画像データを選択する時間は短縮される。したがって、迅速に作成される合成画像によって撮影画像を代用することができ、ロボットに搭載されたカメラの正確な位置合わせを容易に行うことができる。   In the invention described in claim 3, when the storage area for storing the new plane image data is insufficient in the storage means, the data update means deletes the predetermined plane image data and creates a new one in the free storage area. Planar image data is stored. That is, the data update unit selects a specific data group to which the new plane image data belongs from among a plurality of data groups stored in the storage unit. Then, the data updating unit deletes the image having the oldest shooting time from the plane image data in the specific data group. There is a high possibility that the plane image data with the oldest shooting time has been acquired at a position close to the subsequent shooting of the image. For this reason, it is considered that the oldest plane image data in the specific data group can be substituted by plane image data photographed thereafter. That is, the plane image data that has a small influence on the creation of the composite image is deleted, and new plane image data is added. As a result, plane image data serving as a basis for a composite image necessary for operation of the robot is ensured without increasing the storage area. In addition, by deleting plane image data that has a small effect on the creation of the composite image, the plane image data that has a small effect on the creation of the composite image is reduced, and the desired plane image data is selected for creating the composite image. The time to do is shortened. Therefore, a captured image can be substituted by a composite image that is quickly created, and accurate positioning of a camera mounted on a robot can be easily performed.

本発明の第1実施形態によるロボットシステムを示すブロック図The block diagram which shows the robot system by 1st Embodiment of this invention. 第1実施形態によるロボットシステムを示す概略図Schematic showing the robot system according to the first embodiment 平面画像データのデータ構造を示す模式図Schematic diagram showing the data structure of planar image data カメラ、ワークおよび視野平面の関係を示す模式図Schematic diagram showing the relationship between the camera, workpiece, and field plane カメラ、ワーク、視野平面、交差画像および合成画像の関係を示す模式図Schematic diagram showing the relationship between the camera, workpiece, field plane, crossed image, and composite image 第1実施形態による表示部の表示を示す模式図The schematic diagram which shows the display of the display part by 1st Embodiment 第1実施形態によるロボットシステムにおけるデータグループを示す模式図The schematic diagram which shows the data group in the robot system by 1st Embodiment. 第1実施形態によるロボットシステムにおける処理の流れを示す概略図Schematic which shows the flow of a process in the robot system by 1st Embodiment. 第1実施形態によるロボットシステムにおけるデータ更新の処理の流れを示す概略図Schematic which shows the flow of a data update process in the robot system by 1st Embodiment. 第2実施形態によるロボットシステムにおけるデータ更新の処理の流れを示す概略図Schematic which shows the flow of a data update process in the robot system by 2nd Embodiment. 第2実施形態によるロボットシステムにおけるデータグループを示す模式図The schematic diagram which shows the data group in the robot system by 2nd Embodiment 第3実施形態によるロボットシステムにおけるデータ更新の処理の流れを示す概略図Schematic which shows the flow of a data update process in the robot system by 3rd Embodiment. 第3実施形態によるロボットシステムにおけるデータグループを示す模式図The schematic diagram which shows the data group in the robot system by 3rd Embodiment

以下、本発明の実施形態を図面に基づいて説明する。なお、複数の実施形態において実質的に同一の構成部位には同一の符号を付し、説明を省略する。
(第1実施形態)
第1実施形態によるロボットシステムを図1および図2に示す。ロボットシステム10は、ロボット11、制御装置12および通信手段としての通信部13を備える。第1実施形態のロボット11は、例えば対象物品であるワーク14の組み付けが正しく行われているか否かなどを検査するための視覚検査に適用される。ロボット11は、制御装置12とは遠隔に配置された検査設備15に設けられている。検査設備15は、例えばトンネル状に形成され、下部に搬送部16を有している。ワーク14は、この搬送部16によって検査設備15の所定の位置へ運搬される。ワーク14が所定の位置まで運搬されると、搬送部16は停止する。これにより、ワーク14は、ロボット11によって外観の検査が行われる。ロボット11は、検査設備15の天側に設けられている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that, in a plurality of embodiments, substantially the same components are denoted by the same reference numerals, and description thereof is omitted.
(First embodiment)
The robot system according to the first embodiment is shown in FIGS. The robot system 10 includes a robot 11, a control device 12, and a communication unit 13 as communication means. The robot 11 according to the first embodiment is applied to a visual inspection for inspecting whether or not the work 14 that is a target article is correctly assembled. The robot 11 is provided in an inspection facility 15 that is remotely located from the control device 12. The inspection facility 15 is formed in a tunnel shape, for example, and has a transport unit 16 at the bottom. The workpiece 14 is transported to a predetermined position of the inspection facility 15 by the transport unit 16. When the work 14 is transported to a predetermined position, the transport unit 16 stops. As a result, the appearance of the workpiece 14 is inspected by the robot 11. The robot 11 is provided on the top side of the inspection facility 15.

ロボット11は、例えば六軸の垂直多関節型のロボットとして構成されている。ロボット11は、周知の通り、アーム17を有している。アーム17は、それぞれアクチュエータであるサーボモータ18などからの駆動力で駆動される。アーム17は、先端にエンドエフェクタとしてのカメラ19を有している。サーボモータ18からアーム17のカメラ19までの間には、図示しない減速機構やリンクなどの駆動力伝達機構が設けられている。これにより、先端にカメラ19が設けられているアーム17は、サーボモータ18からの駆動力によって駆動される。   The robot 11 is configured as a six-axis vertical articulated robot, for example. As is well known, the robot 11 has an arm 17. Each arm 17 is driven by a driving force from a servo motor 18 that is an actuator. The arm 17 has a camera 19 as an end effector at the tip. Between the servo motor 18 and the camera 19 of the arm 17, a driving force transmission mechanism such as a speed reduction mechanism and a link (not shown) is provided. Thereby, the arm 17 provided with the camera 19 at the tip is driven by the driving force from the servo motor 18.

制御装置12は、ロボットコントローラ21および電子計算機であるパーソナルコンピュータ(以下、「パソコン」)22で構成されている。ロボットコントローラ21およびパソコン22は、図1に示すように制御装置12を構成している。制御装置12を構成するロボットコントローラ21とパソコン22とは、図2に示すようにロボットコントローラ21がロボット11の近傍にあるように互いに離れて配置してもよく、一体的に構成して近接して配置してもよい。制御装置12は、図1に示すように制御部23を有している。制御部23は、図示しないCPU、ROMおよびRAMなどからなるマイクロコンピュータを主体として構成されている。制御部23は、予め入力および記憶されたロボット制御プログラムに基づいてロボットコントローラ21のサーボ制御部24を経由してロボット11の各軸のサーボモータ18を駆動する。これにより、制御装置12は、ロボット11の動作を制御する。制御装置12は、パソコン22に接続されている入力部25を有している。入力部25は、例えばキーボード26、マウス27およびジョイスティック28などの手動で入力される機器、ならびにHDDやDVDなどの磁気的あるいは光学的な入力機器29などを有している。操作者30は、プログラミングソフトをパソコン22で実行することにより、アプリケーションに応じてロボット11の動作手順などを記述したロボット制御プログラムを作成可能である。この場合、操作者30は、アプリケーションに応じてパッケージ命令を組み合わせたり、修正を加えたりすることにより、比較的簡単にロボット制御プログラムを作成することができる。   The control device 12 includes a robot controller 21 and a personal computer (hereinafter “PC”) 22 which is an electronic computer. The robot controller 21 and the personal computer 22 constitute a control device 12 as shown in FIG. The robot controller 21 and the personal computer 22 constituting the control device 12 may be arranged apart from each other such that the robot controller 21 is in the vicinity of the robot 11 as shown in FIG. May be arranged. The control device 12 includes a control unit 23 as shown in FIG. The control unit 23 is mainly configured by a microcomputer including a CPU, a ROM, a RAM, and the like (not shown). The control unit 23 drives the servo motor 18 of each axis of the robot 11 via the servo control unit 24 of the robot controller 21 based on a robot control program input and stored in advance. Thereby, the control device 12 controls the operation of the robot 11. The control device 12 has an input unit 25 connected to the personal computer 22. The input unit 25 includes, for example, manually input devices such as a keyboard 26, a mouse 27, and a joystick 28, and a magnetic or optical input device 29 such as an HDD or a DVD. The operator 30 can create a robot control program describing the operation procedure of the robot 11 according to the application by executing the programming software on the personal computer 22. In this case, the operator 30 can create a robot control program relatively easily by combining or modifying package instructions according to the application.

通信部13は、ロボット11と制御装置12との間を通信可能に接続している。本実施形態の場合、通信部13は、図2に示すようにロボット11とロボットコントローラ21とを接続する第一ケーブル31、およびロボットコントローラ21とパソコン22とを接続する第二ケーブル32を有し、ロボット11と制御装置12との間を有線によって接続している。なお、通信部13は、有線による通信に限らず、例えば無線による通信を採用してもよい。ロボット11と制御装置12との間を通信部13によって接続することにより、ロボット11の各軸を駆動するサーボモータ18およびワーク14を撮影するカメラ19は、制御装置12によって制御される。また、カメラ19で撮影された画像は、通信部13を経由して制御装置12へ送信される。   The communication unit 13 connects the robot 11 and the control device 12 in a communicable manner. In the case of this embodiment, the communication unit 13 includes a first cable 31 for connecting the robot 11 and the robot controller 21 and a second cable 32 for connecting the robot controller 21 and the personal computer 22 as shown in FIG. The robot 11 and the control device 12 are connected by wire. Note that the communication unit 13 is not limited to wired communication, and may employ wireless communication, for example. By connecting the robot 11 and the control device 12 by the communication unit 13, the servo motor 18 that drives each axis of the robot 11 and the camera 19 that captures the workpiece 14 are controlled by the control device 12. In addition, an image captured by the camera 19 is transmitted to the control device 12 via the communication unit 13.

制御装置12のロボットコントローラ21は、パソコン22で実行される検査プログラムにしたがって、ロボット11のアーム17の移動を制御する。搬送部16を流れるワーク14は、検査設備15の所定位置に停止すると、カメラ19によって撮影される。ロボットコントローラ21は、アーム17を駆動してカメラ19を予め設定された三次元的な位置や向きの異なる複数の目標点に移動させつつ撮影を実行する。ロボット11に取り付けられたカメラ19が駆動される目標点は、予めティーチングされ、位置データとしてロボットコントローラ21またはパソコン22に記憶されている。また、ティーチングの際には、ロボット11の進入禁止領域もあわせて設定される。   The robot controller 21 of the control device 12 controls the movement of the arm 17 of the robot 11 in accordance with an inspection program executed on the personal computer 22. When the work 14 flowing through the transport unit 16 stops at a predetermined position of the inspection facility 15, the work 14 is taken by the camera 19. The robot controller 21 performs imaging while driving the arm 17 to move the camera 19 to a plurality of target points having different preset three-dimensional positions and orientations. The target point at which the camera 19 attached to the robot 11 is driven is taught in advance and stored in the robot controller 21 or the personal computer 22 as position data. In teaching, an entry prohibition area of the robot 11 is also set.

カメラ19は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを有しており、ワーク14を撮影する。カメラ19は、撮影した画像を画素ごとの電気信号として通信部13を経由して制御装置12へ出力する。カメラ19は、例えば視野の大きさ、焦点あるいは絞りなどの撮影時の光学的な条件が自動で調整される。また、カメラ19が撮影する画像の座標系であるカメラ座標系とロボット11の位置の座標系であるロボット座標系とは、座標変換すなわちキャリブレーションによって互いに相関が設定されている。 The camera 19 has, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs the workpiece 14. The camera 19 outputs the captured image as an electrical signal for each pixel to the control device 12 via the communication unit 13. In the camera 19, for example, optical conditions at the time of photographing such as the size of the visual field, the focus, or the aperture are automatically adjusted. Further, the camera coordinate system that is the coordinate system of the image captured by the camera 19 and the robot coordinate system that is the coordinate system of the position of the robot 11 are mutually correlated by coordinate transformation, that is, calibration.

制御装置12は、上記に加え、図1に示すように平面画像データ作成部33、記憶部34、グループ特定部35、画像合成部36、表示部37およびデータ更新部38を備えている。これら平面画像データ作成部33、グループ特定部35、画像合成部36およびデータ更新部38は、制御部23で実行されるコンピュータプログラムによってソフトウェア的に機能する構成でもよく、ハードウェアとして機能する構成でもよい。また、本実施形態では、平面画像データ作成部33、記憶部34、グループ特定部35、画像合成部36、表示部37およびデータ更新部38をパソコン22に設ける例について説明しているが、機能の一部または全部をロボットコントローラ21に設けてもよい。   In addition to the above, the control device 12 includes a planar image data creation unit 33, a storage unit 34, a group identification unit 35, an image composition unit 36, a display unit 37, and a data update unit 38 as shown in FIG. The planar image data creation unit 33, the group identification unit 35, the image composition unit 36, and the data update unit 38 may have a configuration that functions as software by a computer program executed by the control unit 23, or a configuration that functions as hardware. Good. In the present embodiment, an example in which the planar image data creation unit 33, the storage unit 34, the group identification unit 35, the image synthesis unit 36, the display unit 37, and the data update unit 38 are provided in the personal computer 22 has been described. A part or all of the above may be provided in the robot controller 21.

平面画像データ作成部33は、図3に示すような平面画像データ40を作成する。平面画像データ40は、カメラ19で撮影した撮影画像の焦点座標41を中心として、カメラ19で撮影された撮影画像42と、この撮影画像42が撮影されたときの焦点座標41を示す座標データ43および撮影画像42を撮影した向きを示す方向データ44とを関連づけて作成される。平面画像データ作成部33は、通信部13を経由して画素ごとの電気信号から作成される撮影画像42をカメラ19から取得する。また、このとき、平面画像データ作成部33は、ロボット11またはロボットコントローラ21からアーム17の位置と相関するカメラ19の焦点座標41を座標データとして、およびアーム17の角度に相関する撮影画像42を撮影した向きを方向データとしてあわせて取得する。さらに、平面画像データ作成部33は、撮影画像42が撮影された時刻を時刻データ45として取得する。なお、図3は、平面画像データ40のデータ構造を模式的に示したものであり、実際の平面画像データ40とは異なる。   The planar image data creation unit 33 creates planar image data 40 as shown in FIG. The planar image data 40 is centered on the focal coordinates 41 of the captured image captured by the camera 19, and the coordinate data 43 indicating the captured image 42 captured by the camera 19 and the focal coordinates 41 when the captured image 42 is captured. And the direction data 44 indicating the direction in which the photographed image 42 is photographed are created in association with each other. The planar image data creation unit 33 acquires the captured image 42 created from the electrical signal for each pixel from the camera 19 via the communication unit 13. At this time, the plane image data creation unit 33 uses the focal coordinates 41 of the camera 19 correlated with the position of the arm 17 from the robot 11 or the robot controller 21 as coordinate data, and the captured image 42 correlated with the angle of the arm 17. Acquire the direction of shooting as direction data. Further, the planar image data creation unit 33 acquires the time when the captured image 42 was captured as time data 45. FIG. 3 schematically shows the data structure of the planar image data 40 and is different from the actual planar image data 40.

記憶部34は、例えば不揮発性メモリやHDDなどを有している。記憶部34は、平面画像データ作成部33で作成された平面画像データ40を記憶する。この場合、グループ特定部35は、予め設定された設定範囲で近似する焦点座標を有する平面画像データ40をグループ化して複数のデータグループとして記憶部34へ記憶する。平面画像データ40は、ロボット11の可動領域の全体で取得される。そのため、グループ特定部35は、取得された平面画像データ40について、互いに焦点座標が近似するもの同士をグループ化して記憶部34に記憶する。なお、記憶部34は、制御部23のROMやRAMとともに構成してもよい。また、グループ特定部35によるグループ化は、焦点座標が近似するもの同士をグループ化するだけでなく、カメラ19で撮影する領域すなわち撮影対象となる空間を予め複数のグループ領域に分割し、そのグループ領域に含まれる焦点座標を有する平面画像データ40を一つのグループとするようなグループ化を行ってもよい。   The storage unit 34 includes, for example, a non-volatile memory and an HDD. The storage unit 34 stores the planar image data 40 created by the planar image data creation unit 33. In this case, the group specifying unit 35 groups the plane image data 40 having focal coordinates approximated within a preset setting range, and stores them in the storage unit 34 as a plurality of data groups. The planar image data 40 is acquired over the entire movable region of the robot 11. Therefore, the group specifying unit 35 groups the acquired plane image data 40 whose focal coordinates are close to each other and stores them in the storage unit 34. The storage unit 34 may be configured together with the ROM and RAM of the control unit 23. In addition, grouping by the group specifying unit 35 not only groups objects having similar focal coordinates, but also divides an area to be imaged by the camera 19, that is, a space to be imaged, into a plurality of group areas in advance. Grouping may be performed so that the planar image data 40 having the focal point coordinates included in the region is grouped into one group.

画像合成部36は、記憶部34に記憶されている平面画像データ40から合成画像を作成する。具体的には、画像合成部36は、記憶部34に記憶されている複数の平面画像データ40から選択平面画像データを選択する。選択平面画像データは、図4に示すようにカメラ19で撮影している仮想的な視野平面51を光軸延長方向へ移動させたときに、図5に示すようにこの視野平面51に交差する交差画像52、53、54の平面画像データである。すなわち、画像合成部36は、記憶部34に記憶されている複数の平面画像データから、視野平面51に交差する交差画像52、53、54の平面画像データを選択平面画像データとして選択する。そして、画像合成部36は、選択し選択平面画像データに基づく交差画像52、53、54の焦点座標および交差画像52、53、54を撮影した向きを交差画像52、53、54が撮影されたときのまま、視野平面51に投影する。画像合成部36は、この視野平面51に投影した画像を撮影したワーク14の合成画像55として作成する。画像合成部36は、合成画像55を作成するとともに、交差画像52、53、54として選択平面画像データを選択した選択時刻を、選択した平面画像データに付与して記憶部34に記憶する。表示部37は、例えばパソコン22と一体または別体の液晶ディスプレイなどである。表示部37は、図6に示すようにカメラ19で撮影された画像、あるいは画像合成部36で作成された合成画像を表示画像371として表示する。 The image composition unit 36 creates a composite image from the planar image data 40 stored in the storage unit 34. Specifically, the image composition unit 36 selects the selected plane image data from the plurality of plane image data 40 stored in the storage unit 34. The selected plane image data intersects the field plane 51 as shown in FIG. 5 when the virtual field plane 51 photographed by the camera 19 is moved in the optical axis extending direction as shown in FIG. This is plane image data of the intersecting images 52, 53, and 54. That is, the image compositing unit 36 selects, as the selected plane image data, the plane image data of the intersecting images 52, 53, and 54 that intersect the field plane 51 from the plurality of plane image data stored in the storage unit 34. Then, the image synthesizing unit 36, intersection image 52, 53 and 54 are taken by photographing the focal coordinates and intersection images 52, 53 of the cross image 52, 53, 54 based on the selected plane image data selected orientation The image is projected onto the field plane 51 as it is. The image composition unit 36 creates an image projected on the field plane 51 as a composite image 55 of the work 14 taken. The image composition unit 36 creates the composite image 55 and assigns the selected time when the selected plane image data is selected as the intersecting images 52, 53, 54 to the selected plane image data and stores it in the storage unit 34. The display unit 37 is, for example, a liquid crystal display that is integral with or separate from the personal computer 22. As shown in FIG. 6, the display unit 37 displays an image captured by the camera 19 or a composite image created by the image composition unit 36 as a display image 371.

データ更新部38は、記憶部34に記憶された平面画像データ40を更新しつつ記憶する。第1実施形態の場合、データ更新部38は、記憶部34に新たな平面画像データ40を記憶する記憶領域が不足するとき、データグループのうち属する平面画像データの数が最も多い最多データグループから選択時刻が最も古い平面画像データを削除して、空いた記憶領域に新たな平面画像データ40を記憶する。カメラ19は刻々と新たな画像を撮影するため、撮影された画像は次々に制御装置12へ送られる。一方、記憶部34の記憶領域は有限であるため、すべての平面画像データ40を記憶することはできない。そのため、データ更新部38は、記憶部34の記憶容量が不足するとき、最多データグループから選択時刻が最も古い平面画像データを削除する。   The data update unit 38 updates and stores the planar image data 40 stored in the storage unit 34. In the case of the first embodiment, when the storage area for storing new plane image data 40 is insufficient in the storage unit 34, the data update unit 38 starts from the most frequent data group having the largest number of plane image data belonging to the data group. The plane image data with the oldest selection time is deleted, and new plane image data 40 is stored in a free storage area. Since the camera 19 captures new images every moment, the captured images are sent to the control device 12 one after another. On the other hand, since the storage area of the storage unit 34 is finite, not all the plane image data 40 can be stored. Therefore, when the storage capacity of the storage unit 34 is insufficient, the data update unit 38 deletes the plane image data with the oldest selection time from the most frequent data group.

平面画像データ作成部33で作成された平面画像データ40は、その焦点座標41に基づいてグループ特定部35によって例えば図7に示すようにデータグループ61、62、63のいずれかに特定され、記憶部34に記憶される。複数のデータグループ61、62、63のうち含まれる平面画像データが最多のものが最多データグループ62となる。そのため、最多データグループ62には、互いに焦点座標が近似する平面画像データ40が多く含まれていると考えられる。この最多データグループ62には、画像合成部36で選択された選択時期が最も古い平面画像データ65から最も新しい平面画像データ66まで含まれる。このうち選択された選択時刻が最も古い平面画像データ65は、最多データグループ62の中でも最も利用頻度が低く、焦点座標41が近似する他の平面画像データ40で代用可能であると考えられる。すなわち、最多データグループ62において最も選択時期の古い平面画像データ65は、画像合成部36における合成画像の作成への利用価値が低いと考えられる。そこで、データ更新部38は、記憶部34の記憶容量が不足するとき、最多データグループ62から選択時刻が最も古い平面画像データ65を削除し、記憶領域を確保する。データ更新部38は、この確保した記憶領域に取得した新たな平面画像データ40を記憶する。   The plane image data 40 created by the plane image data creation unit 33 is specified and stored in one of the data groups 61, 62, and 63 as shown in FIG. Stored in the unit 34. Of the plurality of data groups 61, 62, 63, the one having the largest number of plane image data is the most data group 62. Therefore, it is considered that the most data group 62 includes a lot of plane image data 40 whose focal coordinates are close to each other. The most frequent data group 62 includes from the oldest flat image data 65 to the newest flat image data 66 selected by the image composition unit 36. Of these, the plane image data 65 with the oldest selection time is least frequently used in the most data group 62, and it can be considered that the other plane image data 40 that approximates the focal point coordinates 41 can be substituted. That is, it is considered that the planar image data 65 having the oldest selection time in the most data group 62 has a low utility value for creating a composite image in the image composition unit 36. Therefore, when the storage capacity of the storage unit 34 is insufficient, the data update unit 38 deletes the plane image data 65 having the oldest selection time from the most frequent data group 62 to secure a storage area. The data update unit 38 stores the new plane image data 40 acquired in the reserved storage area.

次に、上記の構成によるロボットシステム10の作動について図8に基づいて説明する。
ロボットシステム10は、検査対象であるワーク14の検査に先立って、ワーク14の撮影位置を設定するティーチングが実施される。ティーチングは、パソコン22で検査プログラムに含まれるティーチングプログラムを実行することにより実施される。操作者30は、パソコン22でティーチングプログラムを実行しつつ入力部25のジョイスティック28を操作することにより、ロボット11のアーム17に取り付けられたカメラ19を所定の撮影位置に移動させる。この場合、カメラ19は、数分の1または数十分の1秒ごとに画像を撮影する。そのため、カメラ19で撮影された撮影画像は、制御装置12の表示部37に動画として表示される。
Next, the operation of the robot system 10 having the above configuration will be described with reference to FIG.
Prior to the inspection of the workpiece 14 to be inspected, the robot system 10 performs teaching for setting the photographing position of the workpiece 14. Teaching is performed by executing a teaching program included in the inspection program on the personal computer 22. The operator 30 moves the camera 19 attached to the arm 17 of the robot 11 to a predetermined photographing position by operating the joystick 28 of the input unit 25 while executing the teaching program on the personal computer 22. In this case, the camera 19 captures an image every second or tens of minutes. Therefore, the captured image captured by the camera 19 is displayed as a moving image on the display unit 37 of the control device 12.

一方、通信部13の通信速度などによって、カメラ19で撮影している撮影画像と表示部37に表示している画像との間には、時間的なずれが生じる。例えばカメラ19を用いて焦点座標(x1,y1,z1)で撮影しているにも関わらず、表示部37には焦点座標(x0,y0,z0)で撮影された画像が表示される場合がある。操作者30は、表示部37に表示されている画像を見ながらロボット11を操作するため、このカメラ19での撮影と表示部37への表示との間に生じる時間的な差が拡大すると、入力部25であるジョイスティック28の操作と表示部37に表示されている画像との齟齬が大きくなる。その結果、入力部25であるジョイスティック28への入力が過大となってロボット11の動作にいわゆるオーバーシュートが生じたり、操作の違和感が増大する。そこで、第1実施形態では、図8に基づく処理によってカメラ19で撮影した画像と表示部37に表示される画像との差の低減を図っている。 On the other hand, the etc. communication speed of the communication unit 13, between the image and the photographed image which is captured by the camera 19 are displayed on the display unit 37, occurs a time lag. For example, there is a case where an image photographed at the focal coordinates (x0, y0, z0) is displayed on the display unit 37 even though the camera 19 is photographed at the focal coordinates (x1, y1, z1). is there. Since the operator 30 operates the robot 11 while viewing the image displayed on the display unit 37, when the temporal difference between the shooting with the camera 19 and the display on the display unit 37 increases, The discrepancy between the operation of the joystick 28 as the input unit 25 and the image displayed on the display unit 37 increases. As a result, the input to the joystick 28 serving as the input unit 25 becomes excessive, so-called overshoot occurs in the operation of the robot 11, and the uncomfortable feeling of operation increases. Therefore, in the first embodiment, the difference between the image captured by the camera 19 and the image displayed on the display unit 37 is reduced by the processing based on FIG.

ロボット11のアーム17、すなわちアーム17に取り付けられたカメラ19は、操作者30による入力部25の操作によって移動する(S101)。入力部25からの入力は、制御装置12のパソコン22からロボットコントローラ21を経由してロボット11へ伝達される。ロボットコントローラ21は、入力部25からの入力に応じてサーボ制御部24によってロボット11のサーボモータ18を駆動する。これにより、ロボット11のアーム17は、サーボモータ18によって入力部25からの入力に対応する位置へ移動する。その結果、アーム17に取り付けられたカメラ19も、入力に対応する撮影位置へ移動する。   The arm 17 of the robot 11, that is, the camera 19 attached to the arm 17, is moved by the operation of the input unit 25 by the operator 30 (S101). Input from the input unit 25 is transmitted from the personal computer 22 of the control device 12 to the robot 11 via the robot controller 21. The robot controller 21 drives the servo motor 18 of the robot 11 by the servo control unit 24 according to the input from the input unit 25. As a result, the arm 17 of the robot 11 is moved to a position corresponding to the input from the input unit 25 by the servo motor 18. As a result, the camera 19 attached to the arm 17 also moves to the shooting position corresponding to the input.

カメラ19は、アーム17とともに移動しながら例えば数十分の1秒ごとなど所定の時間間隔でワーク14を撮影する(S102)。このとき、カメラ19はワーク14を撮影した撮影画像とともに、撮影画像の焦点座標および撮影した向きを取得する(S103)。カメラ19は、例えばロボットコントローラ21などから撮影画像の焦点座標および撮影した向きを取得する。カメラ19は、所定の時間間隔でワーク14が撮影されるごとに、撮影画像の焦点座標および撮影した向きを取得する。   The camera 19 shoots the workpiece 14 at a predetermined time interval such as every several tenths of a second while moving with the arm 17 (S102). At this time, the camera 19 acquires the focal point coordinates and the shooting direction of the shot image together with the shot image of the workpiece 14 (S103). For example, the camera 19 acquires the focal point coordinates and the shooting direction of the shot image from the robot controller 21 or the like. Each time the work 14 is photographed at a predetermined time interval, the camera 19 acquires the focal point coordinates and the photographing direction of the photographed image.

取得された撮影画像ならびにこの撮影画像の焦点位置および撮影した向きは、通信部13を経由して制御装置12へ転送される(S104)。平面画像データ作成部33は、カメラ19から通信部13を経由して撮影画像ならびにこの撮影画像の焦点座標および撮影した向きを取得して、平面画像データ40を作成する。平面画像データ作成部33は、図3に示すように焦点座標41を中心として、撮影画像42と、この撮影画像42の焦点座標である座標データ43および撮影画像42を撮影した向きである方向データ44とを関連づけて平面画像データ40を作成する。また、このとき、平面画像データ作成部33は、撮影画像42を撮影した時刻を時刻データとして平面画像データ40に加える。平面画像データ40が作成されると、画像合成部36は上記の撮影画像42が所定の時間内に制御装置12で取得されたか否かを判断する(S105)。すなわち、画像合成部36は、カメラ19でワーク14を撮影してから所定の時間内に、撮影されたワーク14の撮影画像42が制御装置12へ転送されたか否かを判断する。   The acquired captured image, and the focal position and orientation of the captured image are transferred to the control device 12 via the communication unit 13 (S104). The planar image data creation unit 33 acquires the captured image, the focal coordinates of the captured image, and the captured orientation from the camera 19 via the communication unit 13, and creates the planar image data 40. As shown in FIG. 3, the plane image data creation unit 33 is centered on the focal point coordinate 41, the captured image 42, the coordinate data 43 that is the focal point coordinate of the captured image 42, and the direction data that is the direction in which the captured image 42 is captured. 44 to create the plane image data 40. At this time, the planar image data creation unit 33 adds the time at which the captured image 42 was captured to the planar image data 40 as time data. When the plane image data 40 is created, the image composition unit 36 determines whether or not the captured image 42 has been acquired by the control device 12 within a predetermined time (S105). That is, the image composition unit 36 determines whether or not the photographed image 42 of the photographed work 14 has been transferred to the control device 12 within a predetermined time after photographing the work 14 with the camera 19.

ワーク14を撮影した撮影画像がカメラ19での撮影から所定の時間内に制御装置12へ転送されると、カメラ19で撮影しているワーク14の撮影画像と表示部37に表示されている画像との間に生じる差は小さい。すなわち、カメラ19で撮影している撮影画像と表示部37に表示している画像との間の差は、操作者30が認識できない程度に小さくなる。この場合、上述のようなカメラ19が取り付けられたアーム17のオーバーシュートや操作の違和感はほとんど生じない。そのため、画像合成部36は、カメラ19で撮影した撮影画像のデータが撮影から所定の時間内に制御装置12で取得されたとき(S105:Yes)、カメラ19で撮影し制御装置12へ転送された撮影画像をそのまま表示部37に表示する(S106)。このとき、オーバーシュートや違和感を生じさせないための時間差は、例えば数ミリ秒以下程度である。平面画像データ40を構成するデータのうち、座標データ43、方向データ44および時刻データ45はテキストデータであるのに対し、撮影画像42は画像データである。そのため、座標データ43、方向データ44および時刻データ45は、撮影画像42に比較して短時間でカメラ19から制御装置12へ転送される。これにより、画像合成部36は、例えばカメラ19から転送された時刻データ45などに基づいて、カメラ19における画像の撮影から撮影画像42に係るデータの転送までの時間を取得する。   When a photographed image of the workpiece 14 is transferred to the control device 12 within a predetermined time after photographing with the camera 19, the photographed image of the workpiece 14 photographed with the camera 19 and the image displayed on the display unit 37 are displayed. The difference between the two is small. That is, the difference between the photographed image photographed by the camera 19 and the image displayed on the display unit 37 is so small that the operator 30 cannot recognize it. In this case, the above-described overshoot of the arm 17 to which the camera 19 is attached and an uncomfortable feeling of operation hardly occur. For this reason, when the image data captured by the camera 19 is acquired by the control device 12 within a predetermined time after shooting (S105: Yes), the image composition unit 36 captures the image by the camera 19 and transfers it to the control device 12. The captured image is displayed on the display unit 37 as it is (S106). At this time, the time difference for preventing overshoot and uncomfortable feeling is, for example, about several milliseconds or less. Of the data constituting the planar image data 40, the coordinate data 43, the direction data 44, and the time data 45 are text data, whereas the captured image 42 is image data. Therefore, the coordinate data 43, the direction data 44, and the time data 45 are transferred from the camera 19 to the control device 12 in a shorter time than the captured image 42. Thereby, the image composition unit 36 acquires the time from the image capturing by the camera 19 to the data transfer related to the captured image 42 based on, for example, the time data 45 transferred from the camera 19.

一方、ワーク14を撮影した撮影画像がカメラ19での撮影から所定の時間内に制御装置12で取得されないと、カメラ19で撮影しているワーク14の撮影画像と表示部37に表示されている画像との間にはオーバーシュートや違和感を生じさせる差が生じる。そのため、画像合成部36は、カメラ19で撮影した撮影画像のデータが撮影から所定の時間内に制御装置12で取得されないとき(S105:No)、撮影画像の焦点座標41および撮影の向きに基づいて合成画像を作成する(S107)。   On the other hand, if the photographed image of the workpiece 14 is not acquired by the control device 12 within a predetermined time from the photographing by the camera 19, the photographed image of the workpiece 14 photographed by the camera 19 and the display unit 37 are displayed. There is a difference between the image and an overshoot or discomfort. Therefore, when the data of the captured image captured by the camera 19 is not acquired by the control device 12 within a predetermined time from the capturing (S105: No), the image composition unit 36 is based on the focal coordinates 41 of the captured image and the capturing direction. A composite image is created (S107).

上述のようにカメラ19での撮影画像の撮影から表示部37での撮影画像の表示までの時間に差が大きくなると、カメラ19の操作においてオーバーシュートなどの操作不良が生じやすくなる。そのため、画像合成部36は、撮影画像のデータがカメラ19での撮影から所定の時間内に制御装置12で取得されないとき、記憶部34に既に記憶している平面画像データを利用してカメラ19で撮影した撮影画像に対応する仮想的な合成画像を作成する。この場合、合成画像は、カメラ19で撮影した撮影画像と完全に一致する必要はなく、あくまでの入力部25からの入力によるカメラ19の操作においてオーバーシュートなどの操作不良が生じない程度の仮想的なものであればよい。   As described above, when the difference between the time taken for capturing the captured image by the camera 19 and the time for displaying the captured image on the display unit 37 becomes large, an operation failure such as overshoot is likely to occur in the operation of the camera 19. For this reason, the image compositing unit 36 uses the planar image data already stored in the storage unit 34 when the captured image data is not acquired by the control device 12 within a predetermined time from the shooting by the camera 19. A virtual composite image corresponding to the photographed image taken in step 1 is created. In this case, the composite image does not need to completely match the captured image captured by the camera 19, and is a virtual image that does not cause an operation failure such as an overshoot in the operation of the camera 19 by the input from the input unit 25. Anything is acceptable.

具体的には、画像合成部36は次の手順で合成画像を作成する。画像合成部36は、図4に示すようにカメラ19で撮影している視野平面51を光軸延長方向へ移動させる。ここでカメラ19で撮影している視野平面51は、S104においてカメラ19から制御装置12へ転送される撮影画像42の視野平面51に対応する。画像合成部36は、記憶部34に記憶されている複数の平面画像データ40から、図5に示すようにこの視野平面51に交差する交差画像52、53、54の平面画像データを選択平面画像データとして選択する。すなわち、画像合成部36は、カメラ19の視野平面51に交差する交差画像52、53、54を選択し、この交差画像52、53、54の平面画像データを選択平面画像データとして設定する。そして、画像合成部36は、この選択された選択平面画像データに含まれている交差画像52、53、54の焦点座標に関する座標データおよび撮影した向きに関する方向データを取得する。ここで、交差画像52、53、54は、記憶部34に記憶されている撮影画像の平面画像データ40に基づいて選択される。そのため、選択された交差画像52、53、54に対応する平面画像データは、過去に撮影された際に取得された焦点座標データおよび方向データを含んでいる。画像合成部36は、取得した交差画像52、53、54を、この交差画像52、53、54が撮影されたときのまま視野平面51に投影して合成画像55を作成する。これにより、S102においてカメラ19で撮影された撮影画像と近似する合成画像55が擬似的に作成される。また、画像合成部36は、選択した交差画像52、53、54に対応する選択平面画像データに、図3に示すように選択した選択時刻を選択時刻データ46として付与して記憶部34に記憶させる。   Specifically, the image composition unit 36 creates a composite image in the following procedure. As shown in FIG. 4, the image composition unit 36 moves the visual field plane 51 photographed by the camera 19 in the optical axis extending direction. Here, the field plane 51 captured by the camera 19 corresponds to the field plane 51 of the captured image 42 transferred from the camera 19 to the control device 12 in S104. The image compositing unit 36 selects the plane image data of the intersecting images 52, 53, and 54 that intersect the field plane 51 as shown in FIG. 5 from the plurality of plane image data 40 stored in the storage unit 34. Select as data. That is, the image composition unit 36 selects the intersecting images 52, 53, and 54 that intersect the visual field plane 51 of the camera 19, and sets the planar image data of the intersecting images 52, 53, and 54 as selected planar image data. Then, the image composition unit 36 acquires coordinate data related to the focal coordinates of the intersecting images 52, 53, and 54 included in the selected selected plane image data and direction data related to the shooting direction. Here, the intersecting images 52, 53 and 54 are selected based on the planar image data 40 of the captured image stored in the storage unit 34. Therefore, the plane image data corresponding to the selected intersection images 52, 53, and 54 includes focal coordinate data and direction data acquired when the images were captured in the past. The image composition unit 36 projects the acquired cross images 52, 53, 54 onto the visual field plane 51 as they are when the cross images 52, 53, 54 are photographed to create a composite image 55. Thereby, a composite image 55 that approximates the captured image captured by the camera 19 in S102 is created in a pseudo manner. Further, the image composition unit 36 assigns the selected time selected as the selected time data 46 as shown in FIG. 3 to the selected plane image data corresponding to the selected intersecting images 52, 53, 54 and stores it in the storage unit 34. Let

画像合成部36において合成画像55が作成されると、表示部37は作成された合成画像55を表示する(S108)。これにより、操作者30は、表示部37に表示されているS102において撮影した撮影画像に対応する合成画像55を参照して入力部25を操作する。表示部37に表示されている合成画像55は、上述のようにS102において撮影したワーク14の撮影画像を擬似的に表現している。そのため、S108において表示部37に表示されている画像は、少なくともワーク14を撮影した位置すなわち焦点座標および撮影した向きが近似する。その結果、S102においてカメラ19で実際に撮影している撮影画像とS108において表示部37に表示している合成画像とは、厳密には異なるものの、撮影した焦点座標および向きが近似する。すなわち、カメラ19で撮影した動画にいわゆるコマ落ちが生じる場合、画像合成部36はコマ落ちしたコマに対応する擬似的な画像を作成して挿入する。したがって、カメラ19を操作する操作者30は、表示部37に表示されている画像から時間的な差による違和感を受けることなく入力部25の操作が可能となる。   When the composite image 55 is created in the image composition unit 36, the display unit 37 displays the created composite image 55 (S108). Thereby, the operator 30 operates the input unit 25 with reference to the composite image 55 corresponding to the captured image captured in S102 displayed on the display unit 37. The composite image 55 displayed on the display unit 37 simulates the captured image of the work 14 captured in S102 as described above. For this reason, the image displayed on the display unit 37 in S108 approximates at least the position at which the workpiece 14 is imaged, that is, the focal coordinates and the imaged direction. As a result, although the captured image actually captured by the camera 19 in S102 and the composite image displayed on the display unit 37 in S108 are strictly different, the captured focal coordinates and orientations are approximated. That is, when a so-called frame drop occurs in the moving image shot by the camera 19, the image composition unit 36 creates and inserts a pseudo image corresponding to the frame that has been dropped. Therefore, the operator 30 who operates the camera 19 can operate the input unit 25 without receiving a sense of incongruity due to a time difference from the image displayed on the display unit 37.

グループ特定部35は、撮影した画像すなわち撮影画像42のグループを特定する(S109)。カメラ19での画像の撮影から表示部37での表示までに時間的な差がある場合でも、制御装置12はいずれかの時期にS102においてカメラ19で撮影した撮影画像をカメラ19から受信する。グループ特定部35は、このようにカメラ19から受け取った撮影画像に対応する平面画像データ40をグループ分けする。具体的には、グループ特定部35は、予め設定された設定範囲で近似する焦点座標41を有する平面画像データ40をグループ化する。グループ特定部35は、図7に示すようにグループ化した平面画像データ40を複数のデータグループ61、62、63として記憶する。平面画像データ40は、ロボット11の可動領域の全体で取得される。そのため、グループ特定部35は、取得された平面画像データ40について、互いに焦点座標が近似するもの同士をグループ化する。グループ特定部35は、S102において撮影した撮影画像についてカメラ19から取得するごとにグループを特定し、いずれかのデータグループ61、62、63に分類して記憶部34に記憶する。   The group identifying unit 35 identifies a group of captured images, that is, captured images 42 (S109). Even when there is a time difference between the image capturing by the camera 19 and the display on the display unit 37, the control device 12 receives the captured image captured by the camera 19 in S102 from the camera 19 at any time. The group specifying unit 35 groups the plane image data 40 corresponding to the captured image received from the camera 19 in this way. Specifically, the group specifying unit 35 groups the plane image data 40 having the focal coordinates 41 that are approximated within a preset setting range. The group specifying unit 35 stores the planar image data 40 grouped as shown in FIG. 7 as a plurality of data groups 61, 62, and 63. The planar image data 40 is acquired over the entire movable region of the robot 11. Therefore, the group specifying unit 35 groups the acquired plane image data 40 whose focal coordinates are close to each other. The group specifying unit 35 specifies a group every time the captured image taken in S102 is acquired from the camera 19, classifies it into one of the data groups 61, 62, 63, and stores it in the storage unit 34.

撮影画像のグループが特定されると、データ更新部38は、記憶部34の記憶領域に、S102において撮影しS109においてグループを特定した撮影画像の平面画像データを記憶可能であるか否かを判断する(S110)。上述のように記憶部34の記憶領域は有限である。そのため、カメラ19で撮影された撮影画像42を含む平面画像データ40の記憶を繰り返すと、記憶部34の記憶領域はいずれかの時期に飽和する。そのため、データ更新部38は、カメラ19から撮影画像の平面画像データ40を取得するごとに、記憶部34にこの平面画像データ40を記憶可能な記憶領域が残存しているか否かを判断する。データ更新部38は、S110において記憶部34に記憶領域が残存していると判断すると(S110:Yes)、S102において撮影しS109においてグループが特定された撮影画像の平面画像データ40を記憶部34の空いている記憶領域に記憶する。   When the group of photographed images is specified, the data update unit 38 determines whether or not the storage area of the storage unit 34 can store the planar image data of the photographed image that has been photographed in S102 and identified in S109. (S110). As described above, the storage area of the storage unit 34 is finite. Therefore, when the storage of the plane image data 40 including the captured image 42 captured by the camera 19 is repeated, the storage area of the storage unit 34 is saturated at any time. Therefore, each time the flat image data 40 of the captured image is acquired from the camera 19, the data update unit 38 determines whether or not a storage area capable of storing the flat image data 40 remains in the storage unit 34. When the data updating unit 38 determines that the storage area remains in the storage unit 34 in S110 (S110: Yes), the storage unit 34 stores the planar image data 40 of the captured image that was captured in S102 and the group was specified in S109. Store in a free storage area.

一方、データ更新部38は、S110において記憶部34に記憶領域が残存していないと判断すると(S110:No)、図9に基づいて処理を実行する。すなわち、データ更新部38は、記憶部34の複数のデータグループ61、62、63から最多データグループ62を選択し、選択時刻が最古の平面画像データ65を削除する(S201)。具体的には、次の通りである。S109で説明したように、カメラ19で撮影された平面画像データ40は、グループ特定部35において互いに焦点座標41が近似するもの同士がグループ化される。そこで、データ更新部38は、記憶部34に記憶されている平面画像データ40のデータグループ61、62、63から、含まれる平面画像データ40の数が最多となる最多データグループ62を選択する。焦点座標41に応じて複数のデータグループ61、62、63が設定されているため、このうちのいずれかは最多データグループ62となる。   On the other hand, if the data update unit 38 determines in S110 that no storage area remains in the storage unit 34 (S110: No), the data update unit 38 executes processing based on FIG. That is, the data update unit 38 selects the most frequent data group 62 from the plurality of data groups 61, 62, and 63 in the storage unit 34, and deletes the plane image data 65 having the oldest selection time (S201). Specifically, it is as follows. As described in S <b> 109, the plane image data 40 captured by the camera 19 is grouped in the group specifying unit 35 whose focal coordinates 41 are approximate to each other. Therefore, the data updating unit 38 selects the most frequent data group 62 in which the number of the planar image data 40 included is the largest from the data groups 61, 62, 63 of the planar image data 40 stored in the storage unit 34. Since a plurality of data groups 61, 62, and 63 are set according to the focal point coordinate 41, one of these is the most frequent data group 62.

データ更新部38は、選択した最多データグループ62に含まれる平面画像データ40のうち選択時刻が最も古い平面画像データ65を抽出する。最多データグループ62をはじめとする各データグループ61、63は、複数の平面画像データ40を含んでいる。選択時刻は、選択時刻データ46として平面画像データ40に含まれている。そこで、データ更新部38は、最多データグループ62に含まれる複数の平面画像データ40から、S107における合成画像55の作成において選択平面画像データとして選択された時刻が最も古い平面画像データ65を抽出する。データ更新部38は、抽出した選択時刻が最も古い平面画像データ65を記憶部34の記憶領域から削除する。この場合、削除とは、該当する記憶領域に例えば「0データ」を書き込んで平面画像データ40そのものを削除すること、および単に該当する記憶領域を上書き可能とすることなどを含む。上述のように、最多データグループ62に含まれる平面画像データ40のうち選択時刻が最も古い平面画像データ65は、最多データグループ62に含まれる他の平面画像データで代用可能であり、削除しても合成画像55の作成に与える影響が小さいと考えられる。そのため、データ更新部38は、記憶部34に残存する新たな記憶領域が不足するとき、最多データグループ62に含まれる複数の平面画像データ40のうち選択時刻が最も古い平面画像データ65を削除する。   The data update unit 38 extracts the plane image data 65 having the oldest selection time from the plane image data 40 included in the selected most data group 62. Each data group 61, 63 including the most frequent data group 62 includes a plurality of plane image data 40. The selection time is included in the planar image data 40 as selection time data 46. Therefore, the data update unit 38 extracts, from the plurality of plane image data 40 included in the most data group 62, the plane image data 65 having the oldest time selected as the selected plane image data in the creation of the composite image 55 in S107. . The data update unit 38 deletes the extracted planar image data 65 with the oldest selection time from the storage area of the storage unit 34. In this case, the deletion includes, for example, writing “0 data” in the corresponding storage area to delete the plane image data 40 itself, and simply allowing the corresponding storage area to be overwritten. As described above, the plane image data 65 having the oldest selection time among the plane image data 40 included in the most frequent data group 62 can be substituted by other plane image data included in the most frequent data group 62 and deleted. It is considered that the influence on the creation of the composite image 55 is small. Therefore, when the new storage area remaining in the storage unit 34 is insufficient, the data update unit 38 deletes the plane image data 65 having the oldest selection time from the plurality of plane image data 40 included in the most frequent data group 62. .

データ更新部38は、最多データグループ62に含まれる選択時刻が最も古い平面画像データ65を削除することにより、記憶部34の空いた記憶領域にS102において撮影した画像の平面画像データ40を記憶する(S202)。これにより、S102において撮影され、S109においてグループが特定された平面画像データ40は、記憶部34の記憶領域に記憶される。S202において平面画像データ40が記憶部34に記憶されると、S101へリターンし上記の処理が繰り返される。   The data update unit 38 stores the plane image data 40 of the image captured in S102 in the vacant storage area of the storage unit 34 by deleting the plane image data 65 having the oldest selection time included in the most data group 62. (S202). As a result, the planar image data 40 shot in S102 and the group specified in S109 is stored in the storage area of the storage unit 34. When the plane image data 40 is stored in the storage unit 34 in S202, the process returns to S101 and the above processing is repeated.

以上説明した第1実施形態では、画像合成部36は、グループ化された複数のデータグループ61、62、63として記憶部34に記憶されている平面画像データ40に基づいて合成画像55を作成する。ロボット11に搭載されたカメラ19の位置を微調整する場合、その直前に少なくとも一枚はワーク14を含む画像が撮影されている。画像合成部36は、このワーク14を含む撮影画像を用いて、現在カメラ19で撮影している画像に近似する合成画像55を作成する。そのため、現在カメラ19で撮影している画像が表示部37に表示できないとき、すなわちカメラ19、制御装置12あるいは通信部13の能力によって撮影している画像と表示している画像との間に時間差が生じるときでも、操作者30はカメラ19で現在撮影した画像に対応して表示部37に表示されている合成画像55を参照してロボット11の操作が可能となる。その結果、例えば入力部25に対する過剰入力など、ロボット11の操作の違和感が低減される。したがって、カメラ19、制御装置12および通信部13の能力に依存することなく、ロボット11に搭載されたカメラ19の正確な位置合わせを容易に行うことができる。   In the first embodiment described above, the image composition unit 36 creates the composite image 55 based on the planar image data 40 stored in the storage unit 34 as a plurality of grouped data groups 61, 62, 63. . When the position of the camera 19 mounted on the robot 11 is finely adjusted, an image including at least one of the workpieces 14 is taken immediately before that. The image composition unit 36 uses the photographed image including the work 14 to create a composite image 55 that approximates the image currently photographed by the camera 19. Therefore, when the image currently captured by the camera 19 cannot be displayed on the display unit 37, that is, the time difference between the image captured by the capability of the camera 19, the control device 12, or the communication unit 13 and the displayed image. Even when this occurs, the operator 30 can operate the robot 11 with reference to the composite image 55 displayed on the display unit 37 corresponding to the image currently captured by the camera 19. As a result, the uncomfortable feeling of the operation of the robot 11 such as excessive input to the input unit 25 is reduced. Therefore, accurate alignment of the camera 19 mounted on the robot 11 can be easily performed without depending on the capabilities of the camera 19, the control device 12, and the communication unit 13.

また、第1実施形態では、データ更新部38は、記憶部34に新たな平面画像データ40を記憶するための記憶領域が不足するとき、記憶部34に複数記憶されているデータグループ61、62、63のうち属する平面画像データ40の数が最も多い最多データグループ62を選択する。そして、データ更新部38は、この最多データグループ62から合成画像55の作成のために選択された選択時刻が最も古い平面画像データ65を抽出して、これを削除する。最多データグループ62は、焦点座標41が近似、および撮影方向が近似する平面画像データ40、すなわち類似の画像を多く含んでいる可能性が高い。そして、その中でも最も選択時刻が古い、すなわち選択頻度が最も低い平面画像データ40が削除される。つまり、合成画像55の作成に対する寄与度が低い平面画像データ40が削除され、S102で撮影された画像に対応する新たな平面画像データ40が追加される。これにより、記憶部34の記憶領域を増大させなくても、ロボット11の操作に必要な合成画像55の基となる平面画像データ40が確保される。また、上述の条件に基づいて平面画像データ40を削除することにより、合成画像55の作成に対する寄与度が低い平面画像データ40が減少し、合成画像55の作成のために所望の平面画像データ40を選択する時間は短縮される。さらに、合成画像55の作成に対する寄与度の低い平面画像データ40を削除することにより、カメラ19の操作中に合成画像55が不意に消えることもない。したがって、迅速に作成される合成画像55によって撮影画像を代用することができ、ロボット11に搭載されたカメラ19の正確な位置合わせを容易に行うことができる。   In the first embodiment, when the storage area for storing new planar image data 40 is insufficient in the storage unit 34, the data update unit 38 stores a plurality of data groups 61 and 62 stored in the storage unit 34. , 63, the largest data group 62 having the largest number of plane image data 40 belonging thereto is selected. Then, the data update unit 38 extracts the plane image data 65 with the oldest selection time selected for creating the composite image 55 from the most frequent data group 62 and deletes it. The most frequent data group 62 is likely to contain a lot of planar image data 40 in which the focal coordinates 41 are approximate and the photographing direction is approximate, that is, similar images. Then, the flat image data 40 having the oldest selection time, that is, the lowest selection frequency is deleted. That is, the planar image data 40 having a low contribution to the creation of the composite image 55 is deleted, and new planar image data 40 corresponding to the image photographed in S102 is added. As a result, the planar image data 40 that is the basis of the composite image 55 necessary for the operation of the robot 11 is secured without increasing the storage area of the storage unit 34. Further, by deleting the plane image data 40 based on the above-described conditions, the plane image data 40 having a low contribution to the creation of the composite image 55 is reduced, and the desired plane image data 40 for creating the composite image 55 is reduced. The time for selecting is shortened. Furthermore, by deleting the planar image data 40 having a low contribution to the creation of the composite image 55, the composite image 55 does not disappear unexpectedly during the operation of the camera 19. Therefore, the captured image can be substituted by the composite image 55 that is quickly created, and accurate alignment of the camera 19 mounted on the robot 11 can be easily performed.

(第2実施形態)
第2実施形態によるロボットシステムについて説明する。第2実施形態によるロボットシステム10は、構成が第1実施形態と同一であるものの、データ更新部38における処理の流れが第1実施形態と異なる。したがって、図10に基づいて第2実施形態のデータ更新部38における処理の流れについて説明する。
図8に示すロボットシステム10の作動におけるS101からS111までの処理は、第1実施形態と同様である。データ更新部38は、S110において記憶部34に記憶領域が残存していないと判断すると(S110:No)、特定データグループを選択し、この特定データグループの焦点座標の平均値に最も近い平面画像データを削除する(S301)。具体的には、次の通りである。S109で説明したように、カメラ19で撮影された平面画像データ40は、グループ特定部35において互いに焦点座標が近似するもの同士がグループ化される。そこで、データ更新部38は、図11に示すように記憶部34に記憶されている平面画像データ40のデータグループ71、72、73から、S102において撮影されS109においてグループが特定された最新の平面画像データ40aが属するデータグループ72を特定データグループ72として選択する。
(Second Embodiment)
A robot system according to the second embodiment will be described. The robot system 10 according to the second embodiment has the same configuration as that of the first embodiment, but the processing flow in the data update unit 38 is different from that of the first embodiment. Therefore, the flow of processing in the data updating unit 38 of the second embodiment will be described based on FIG.
The processes from S101 to S111 in the operation of the robot system 10 shown in FIG. 8 are the same as those in the first embodiment. If the data update unit 38 determines in S110 that the storage area does not remain in the storage unit 34 (S110: No), the specific data group is selected, and the planar image closest to the average value of the focal coordinates of the specific data group is selected. Data is deleted (S301). Specifically, it is as follows. As described in S109, the plane image data 40 captured by the camera 19 is grouped in the group specifying unit 35 whose focal coordinates are similar to each other. Therefore, the data updating unit 38, as shown in FIG. 11, from the data groups 71, 72, and 73 of the plane image data 40 stored in the storage unit 34, the latest plane that has been shot in S102 and whose group has been specified in S109. The data group 72 to which the image data 40a belongs is selected as the specific data group 72.

データ更新部38は、選択した特定データグループ72に含まれる平面画像データ40から、焦点座標41がこの特定データグループ72に含まれる全ての平面画像データ40の焦点座標の平均値に最も近い平面画像データ74を抽出する。そして、データ更新部38は、特定データグループ72から焦点座標が平均値に最も近い抽出した平面画像データ74を削除する。特定データグループ72に複数含まれる平面画像データ40は、焦点座標の平均値付近により多く分布していると考えられる。そのため、焦点座標の平均値に最も近い平面画像データ74は、他の平面画像データ40によって代用可能であると考えられる。そこで、データ更新部38は、特定データグループ72に含まれる複数の平面画像データ40から焦点座標がその特定データグループ72の平均値に最も近い平面画像データ74を削除する。   From the planar image data 40 included in the selected specific data group 72, the data updating unit 38 has a planar image whose focal coordinates 41 are closest to the average value of the focal coordinates of all the planar image data 40 included in the specific data group 72. Data 74 is extracted. Then, the data update unit 38 deletes the extracted planar image data 74 whose focal point coordinates are closest to the average value from the specific data group 72. It is considered that a plurality of pieces of planar image data 40 included in the specific data group 72 are distributed near the average value of the focal coordinates. Therefore, it is considered that the plane image data 74 that is closest to the average value of the focal coordinates can be substituted by the other plane image data 40. Therefore, the data update unit 38 deletes the plane image data 74 whose focal point coordinates are closest to the average value of the specific data group 72 from the plurality of plane image data 40 included in the specific data group 72.

データ更新部38は、特定データグループ72の焦点座標の平均値に最も近い平面画像データ74を削除することにより、記憶部34の空いた記憶領域にS102において撮影した最新の平面画像データ40aを記憶する(S302)。これにより、S102において撮影され、S109においてグループが特定された最新の平面画像データ40aは、記憶部34の記憶領域に記憶される。S302において平面画像データ40が記憶部34に記憶されると、S101へリターンし上記の処理が繰り返される。   The data update unit 38 deletes the plane image data 74 closest to the average value of the focal coordinates of the specific data group 72, thereby storing the latest plane image data 40a captured in S102 in an empty storage area of the storage unit 34. (S302). As a result, the latest planar image data 40a photographed in S102 and identified in S109 is stored in the storage area of the storage unit 34. When the plane image data 40 is stored in the storage unit 34 in S302, the process returns to S101 and the above processing is repeated.

以上説明した第2実施形態では、データ更新部38は、記憶部34に最新の平面画像データ40aを記憶するための記憶領域が不足するとき、記憶部34に複数記憶されているデータグループ71、72、73のうち最新の平面画像データ40aが属する特定データグループ72を選択する。そして、データ更新部38は、特定データグループ72に属する全ての平面画像データ40における焦点座標の平均値に焦点座標が最も近い平面画像データ74を削除する。特定データグループ72の焦点座標の平均値に近い範囲には、焦点座標が近似した多くの平面画像データ40が存在している可能性が高い。そのため、焦点座標が特定データグループ72における平均値に最も近い平面画像データ74は、焦点座標が近い他の平面画像データ40によって代用可能と考えられる。すなわち、記憶部34の記憶領域には、合成画像55の作成に対する影響が小さい平面画像データ74が削除され、最新の平面画像データ40aが追加される。これにより、記憶部34の記憶領域を増大させなくても、ロボット11の操作に必要な合成画像55の基となる平面画像データ40が確保される。また、合成画像55の作成への影響が小さい平面画像データ74を削除することにより、合成画像55の作成に与える影響が小さい平面画像データ40が減少し、合成画像55の作成のために所望の平面画像データ40を選択する時間は短縮される。さらに、合成画像55の作成に対する寄与度の低い平面画像データ74を削除することにより、カメラ19の操作中に合成画像55が不意に消えることもない。したがって、迅速に作成される合成画像55によって撮影画像を代用することができ、ロボット11に搭載されたカメラ19の正確な位置合わせを容易に行うことができる。   In the second embodiment described above, when the storage area for storing the latest planar image data 40 a is insufficient in the storage unit 34, the data update unit 38 stores a plurality of data groups 71 stored in the storage unit 34. The specific data group 72 to which the latest planar image data 40a belongs is selected from 72 and 73. Then, the data update unit 38 deletes the plane image data 74 having the closest focal coordinates to the average value of the focal coordinates in all the planar image data 40 belonging to the specific data group 72. In the range close to the average value of the focal coordinates of the specific data group 72, there is a high possibility that a lot of planar image data 40 having approximate focal coordinates exists. Therefore, it is considered that the planar image data 74 whose focal point coordinates are closest to the average value in the specific data group 72 can be substituted by other planar image data 40 whose focal point coordinates are close. That is, the plane image data 74 that has a small influence on the creation of the composite image 55 is deleted in the storage area of the storage unit 34, and the latest plane image data 40a is added. As a result, the planar image data 40 that is the basis of the composite image 55 necessary for the operation of the robot 11 is secured without increasing the storage area of the storage unit 34. Further, by deleting the plane image data 74 that has a small influence on the creation of the composite image 55, the plane image data 40 that has a small influence on the creation of the composite image 55 is reduced. The time for selecting the planar image data 40 is shortened. Furthermore, by deleting the plane image data 74 having a low contribution to the creation of the composite image 55, the composite image 55 will not disappear unexpectedly during the operation of the camera 19. Therefore, the captured image can be substituted by the composite image 55 that is quickly created, and accurate alignment of the camera 19 mounted on the robot 11 can be easily performed.

(第3実施形態)
第3実施形態によるロボットシステムについて説明する。第3実施形態によるロボットシステム10は、構成が第1実施形態と同一であるものの、データ更新部38における処理の流れが第1実施形態と異なる。したがって、図12に基づいて第3実施形態のデータ更新部38における処理の流れについて説明する。
図8に示すロボットシステム10の作動におけるS101からS111までの処理は、第1実施形態と同様である。データ更新部38は、S110において記憶部34に記憶領域が残存していないと判断すると(S110:No)、特定データグループを選択し、この特定データグループのうち最も古い平面画像データを削除する(S401)。具体的には、次の通りである。S109で説明したように、カメラ19で撮影された平面画像データ40は、グループ特定部35において互いに焦点座標が近似するもの同士がグループ化される。そこで、データ更新部38は、図13に示すように記憶部34に記憶されている平面画像データ40のデータグループ81、82、83から、S102において撮影されS109においてグループが特定された最新の平面画像データ40bが属するデータグループ82を特定データグループ82として選択する。
(Third embodiment)
A robot system according to a third embodiment will be described. The robot system 10 according to the third embodiment has the same configuration as that of the first embodiment, but the processing flow in the data update unit 38 is different from that of the first embodiment. Therefore, the flow of processing in the data update unit 38 of the third embodiment will be described based on FIG.
The processes from S101 to S111 in the operation of the robot system 10 shown in FIG. 8 are the same as those in the first embodiment. If the data update unit 38 determines in S110 that no storage area remains in the storage unit 34 (S110: No), the data update unit 38 selects a specific data group and deletes the oldest planar image data from the specific data group ( S401). Specifically, it is as follows. As described in S109, the plane image data 40 captured by the camera 19 is grouped in the group specifying unit 35 whose focal coordinates are similar to each other. Therefore, the data update unit 38, as shown in FIG. 13, from the data groups 81, 82, and 83 of the plane image data 40 stored in the storage unit 34, the latest plane that was shot in S102 and the group was specified in S109. The data group 82 to which the image data 40b belongs is selected as the specific data group 82.

データ更新部38は、選択した特定データグループ82に含まれる平面画像データ40から、撮影時刻が最も古い最古の平面画像データ84を抽出する。そして、データ更新部38は、特定データグループ82から撮影時刻が最も古い平面画像データ84を削除する。特定データグループ82に複数含まれる平面画像データ40は、古いものほどカメラ19によるその後の画像の撮影によって近い位置で撮影が繰り返されている可能性が高い。そのため、撮影時刻の最も古い平面画像データ84は、他の平面画像データ40によって代用可能であると考えられる。そこで、データ更新部38は、特定データグループ82に含まれる複数の平面画像データ40から撮影時刻が最も古い平面画像データ84を削除する。   The data update unit 38 extracts the oldest flat image data 84 with the oldest shooting time from the flat image data 40 included in the selected specific data group 82. Then, the data update unit 38 deletes the plane image data 84 with the oldest shooting time from the specific data group 82. As for the plane image data 40 included in the plurality of specific data groups 82, the older one is, the higher the possibility that the photographing is repeated at a position closer to the subsequent photographing of the image by the camera 19. Therefore, it is considered that the plane image data 84 with the oldest shooting time can be substituted by other plane image data 40. Therefore, the data update unit 38 deletes the plane image data 84 having the oldest shooting time from the plurality of plane image data 40 included in the specific data group 82.

データ更新部38は、特定データグループ82に含まれる撮影時刻が最も古い平面画像データ84を削除することにより、記憶部34の空いた記憶領域にS102において撮影した最新の画像の平面画像データ40bを記憶する(S402)。これにより、S102において撮影され、S109においてグループが特定された最新の平面画像データ40bは、記憶部34の記憶領域に記憶される。S402において平面画像データ40が記憶部34に記憶されると、S101へリターンし上記の処理が繰り返される。   The data update unit 38 deletes the plane image data 84 with the oldest shooting time included in the specific data group 82, so that the plane image data 40 b of the latest image shot in S <b> 102 is stored in an empty storage area of the storage unit 34. Store (S402). As a result, the latest planar image data 40b that was shot in S102 and whose group was specified in S109 is stored in the storage area of the storage unit 34. When the plane image data 40 is stored in the storage unit 34 in S402, the process returns to S101 and the above processing is repeated.

第3実施形態では、データ更新部38は、記憶部34に最新の平面画像データ40bを記憶するための記憶領域が不足するとき、記憶部34に複数記憶されているデータグループ81、82、83のうち最新の平面画像データ40bが属する特定データグループ82を選択する。そして、データ更新部38は、特定データグループ82に平面画像データ40のうち撮影時刻が最も古い平面画像データ84を削除する。撮影時刻が最も古い平面画像データ84は、その後の画像の撮影によって近い位置で平面画像データ40が取得されている可能性が高い。そのため、特定データグループ82において最も古い平面画像データ84は、その後に撮影された平面画像データ40によって代用可能と考えられる。すなわち、記憶部34では、合成画像55の作成に対する影響が小さい平面画像データ84が削除され、最新の平面画像データ40bが追加される。これにより、記憶部34の記憶領域を増大させなくても、ロボット11の操作に必要な合成画像55の基となる平面画像データ40が確保される。また、合成画像55の作成への影響が小さい平面画像データ84を削除することにより、合成画像55の作成に与える影響が小さい平面画像データ40が減少し、合成画像55の作成のために所望の平面画像データ40を選択する時間は短縮される。さらに、合成画像55の作成に対する寄与度の低い平面画像データ84を削除することにより、カメラ19の操作中に合成画像55が不意に消えることもない。したがって、迅速に作成される合成画像55によって撮影画像を代用することができ、ロボット11に搭載されたカメラ19の正確な位置合わせを容易に行うことができる。   In the third embodiment, when the storage area for storing the latest planar image data 40 b is insufficient in the storage unit 34, the data update unit 38 has a plurality of data groups 81, 82, 83 stored in the storage unit 34. The specific data group 82 to which the latest plane image data 40b belongs is selected. Then, the data update unit 38 deletes the plane image data 84 having the oldest shooting time from the plane image data 40 in the specific data group 82. The flat image data 84 with the oldest shooting time is highly likely to have been acquired in a position close to the subsequent image shooting. Therefore, it is considered that the oldest flat image data 84 in the specific data group 82 can be substituted by the flat image data 40 captured thereafter. That is, in the storage unit 34, the plane image data 84 that has a small influence on the creation of the composite image 55 is deleted, and the latest plane image data 40b is added. As a result, the planar image data 40 that is the basis of the composite image 55 necessary for the operation of the robot 11 is secured without increasing the storage area of the storage unit 34. In addition, by deleting the plane image data 84 that has a small influence on the creation of the composite image 55, the plane image data 40 that has a small influence on the creation of the composite image 55 is reduced. The time for selecting the planar image data 40 is shortened. Furthermore, by deleting the plane image data 84 having a low contribution to the creation of the composite image 55, the composite image 55 will not disappear unexpectedly during the operation of the camera 19. Therefore, the captured image can be substituted by the composite image 55 that is quickly created, and accurate alignment of the camera 19 mounted on the robot 11 can be easily performed.

以上説明した本発明は、上記実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の実施形態に適用可能である。   The present invention described above is not limited to the above-described embodiment, and can be applied to various embodiments without departing from the gist thereof.

10はロボットシステム、11はロボット、12は制御装置、13は通信部(通信手段)、17はアーム、19はカメラ、21はロボットコントローラ(制御装置)、22はパソコン(制御装置)、33は平面画像データ作成部(平面画像データ作成手段)、34は記憶部(記憶手段)、36は画像合成部(画像合成手段)、37は表示部(表示手段)、38はデータ更新部(データ更新手段)を示す。   10 is a robot system, 11 is a robot, 12 is a control device, 13 is a communication unit (communication means), 17 is an arm, 19 is a camera, 21 is a robot controller (control device), 22 is a personal computer (control device), and 33 is Planar image data creation unit (planar image data creation unit), 34 is a storage unit (storage unit), 36 is an image synthesis unit (image synthesis unit), 37 is a display unit (display unit), and 38 is a data update unit (data update unit). Means).

Claims (3)

アームの先端にカメラを有するロボットと、通信手段を経由して前記ロボットと遠隔に配置された制御装置と、を備えるロボットシステムであって、
前記制御装置は、
前記カメラで撮影された撮影画像、ならびに前記撮影画像が撮影されたときの前記撮影画像の焦点座標および前記撮影画像を撮影した向きを関連づけて前記焦点座標を中心とする平面画像データを作成する平面画像データ作成手段と、
前記平面画像データ作成手段で作成された平面画像データから、予め設定された設定範囲で近似する前記焦点座標を有する複数の前記平面画像データをグループ化して複数のデータグループとして記憶する記憶手段と、
前記カメラで撮影された前記撮影画像を予め設定された所定時間内に取得できないとき、前記記憶手段に記憶された前記平面画像データから前記カメラで撮影している視野平面を光軸延長方向へ移動させたときに前記視野平面に交差する交差画像の平面画像データを選択平面画像データとして選択し、選択された前記選択平面画像データに基づく前記交差画像の焦点座標および前記交差画像を撮影した向きを前記交差画像が撮影されたときのまま前記視野平面に投影して合成画像を作成するとともに、前記選択平面画像データが選択された選択時刻を付与して前記記憶手段に記憶する画像合成手段と、
前記カメラで撮影された前記撮影画像を前記所定時間内に取得できないとき、前記画像合成手段で合成された前記合成画像を表示するとともに、前記カメラで撮影された前記撮影画像を所定の時間内に取得できたとき、前記カメラで撮影された実際の画像を表示する表示手段と、
前記記憶手段に新たな平面画像データを記憶する記憶領域が不足するとき、前記記憶手段に複数記憶されている前記データグループのうち属する前記平面画像データの数が多い最多データグループから前記選択時刻が最も古い平面画像データを削除して、空いた記憶領域に前記新たな平面画像データを記憶するデータ更新手段と、を備え、
前記所定時間は、前記通信手段を経由したデータの転送の遅延によって、前記カメラで撮影された前記撮影画像と前記表示手段に表示される画像との差が違和感を生じさせない程度に小さくなる値に設定されていることを特徴とするロボットシステム。
A robot system comprising a robot having a camera at the tip of an arm, and a control device disposed remotely from the robot via communication means,
The control device includes:
A plane that creates plane image data centered on the focal coordinates by associating the captured image captured by the camera and the focal coordinates of the captured image when the captured image is captured and the direction in which the captured image was captured. Image data creation means;
Storage means for grouping a plurality of the plane image data having the focal coordinates approximated in a preset setting range from the plane image data created by the plane image data creation means and storing them as a plurality of data groups;
When the captured image captured by the camera cannot be acquired within a predetermined time, the field plane captured by the camera is moved in the optical axis extending direction from the planar image data stored in the storage means. Plane image data of the intersecting image that intersects the field plane when selected as the selected plane image data, and the focal coordinates of the intersecting image based on the selected selected plane image data and the direction in which the intersecting image was captured are selected. An image composition unit that projects the projected image onto the field plane as it is when the crossed image is captured to create a composite image, and stores the selected plane image data in the storage unit with a selection time selected.
When the captured image captured by the camera cannot be acquired within the predetermined time, the combined image combined by the image combining means is displayed , and the captured image captured by the camera is displayed within the predetermined time. Display means for displaying an actual image taken by the camera when acquired ,
When a storage area for storing new planar image data is insufficient in the storage unit, the selection time is selected from the most frequent data group to which the number of the planar image data belongs among the plurality of data groups stored in the storage unit. Data updating means for deleting the oldest plane image data and storing the new plane image data in an empty storage area ,
The predetermined time is a value that is small enough that the difference between the captured image captured by the camera and the image displayed on the display means does not cause a sense of incongruity due to a delay in data transfer via the communication means. A robot system characterized by being set .
アームの先端にカメラを有するロボットと、通信手段を経由して前記ロボットと遠隔に配置された制御装置と、を備えるロボットシステムであって、
前記制御装置は、
前記カメラで撮影された撮影画像、ならびに前記撮影画像が撮影されたときの前記撮影画像の焦点座標および前記撮影画像を撮影した向きを関連づけて前記焦点座標を中心とする平面画像データを作成する平面画像データ作成手段と、
前記平面画像データ作成手段で作成された平面画像データから、予め設定された設定範囲で近似する前記焦点座標を有する複数の前記平面画像データをグループ化して複数のデータグループとして記憶する記憶手段と、
前記カメラで撮影された前記撮影画像を予め設定された所定時間内に取得できないとき、前記記憶手段に記憶された前記平面画像データから前記カメラで撮影している視野平面を光軸延長方向へ移動させたときに前記視野平面に交差する交差画像の平面画像データを選択平面画像データとして選択し、選択された前記選択平面画像データに基づく前記交差画像の焦点座標および前記交差画像を撮影した向きを前記交差画像が撮影されたときのまま前記視野平面に投影して合成画像を作成するとともに、前記選択平面画像データが選択された選択時刻を付与して前記記憶手段に記憶する画像合成手段と、
前記カメラで撮影された前記撮影画像を前記所定時間内に取得できないとき、前記画像合成手段で合成された前記合成画像を表示するとともに、前記カメラで撮影された前記撮影画像を所定の時間内に取得できたとき、前記カメラで撮影された実際の画像を表示する表示手段と、
前記記憶手段に新たな平面画像データを記憶する記憶領域が不足するとき、前記記憶手段に複数記憶されている前記データグループのうち前記新たな平面画像データが属する特定データグループを選択し、焦点座標が前記特定データグループに属する全ての平面画像データにおける焦点座標の平均値に最も近い平面画像データを削除し、空いた記憶領域に前記新たな平面画像データを記憶するデータ更新手段と、を備え、
前記所定時間は、前記通信手段を経由したデータの転送の遅延によって、前記カメラで撮影された前記撮影画像と前記表示手段に表示される画像との差が違和感を生じさせない程度に小さくなる値に設定されていることを特徴とするロボットシステム。
A robot system comprising a robot having a camera at the tip of an arm, and a control device disposed remotely from the robot via communication means,
The control device includes:
A plane that creates plane image data centered on the focal coordinates by associating the captured image captured by the camera and the focal coordinates of the captured image when the captured image is captured and the direction in which the captured image was captured. Image data creation means;
Storage means for grouping a plurality of the plane image data having the focal coordinates approximated in a preset setting range from the plane image data created by the plane image data creation means and storing them as a plurality of data groups;
When the captured image captured by the camera cannot be acquired within a predetermined time, the field plane captured by the camera is moved in the optical axis extending direction from the planar image data stored in the storage means. Plane image data of the intersecting image that intersects the field plane when selected as the selected plane image data, and the focal coordinates of the intersecting image based on the selected selected plane image data and the direction in which the intersecting image was captured are selected. An image composition unit that projects the projected image onto the field plane as it is when the crossed image is captured to create a composite image, and stores the selected plane image data in the storage unit with a selection time selected.
When the captured image captured by the camera cannot be acquired within the predetermined time, the combined image combined by the image combining means is displayed , and the captured image captured by the camera is displayed within the predetermined time. Display means for displaying an actual image taken by the camera when acquired ,
When a storage area for storing new plane image data is insufficient in the storage unit, a specific data group to which the new plane image data belongs is selected from the plurality of data groups stored in the storage unit, and focal coordinates are selected. Data update means for deleting the plane image data closest to the average value of the focal coordinates in all the plane image data belonging to the specific data group, and storing the new plane image data in a vacant storage area ,
The predetermined time is a value that is small enough that the difference between the captured image captured by the camera and the image displayed on the display means does not cause a sense of incongruity due to a delay in data transfer via the communication means. A robot system characterized by being set .
アームの先端にカメラを有するロボットと、通信手段を経由して前記ロボットと遠隔に配置された制御装置と、を備えるロボットシステムであって、
前記制御装置は、
前記カメラで撮影された撮影画像、ならびに前記撮影画像が撮影されたときの前記撮影画像の焦点座標および前記撮影画像を撮影した向きを関連づけて前記焦点座標を中心とする平面画像データを作成する平面画像データ作成手段と、
前記平面画像データ作成手段で作成された平面画像データから、予め設定された設定範囲で近似する前記焦点座標を有する複数の前記平面画像データをグループ化して複数のデータグループとして記憶する記憶手段と、
前記カメラで撮影された前記撮影画像を予め設定された所定時間内に取得できないとき、前記記憶手段に記憶された前記平面画像データから前記カメラで撮影している視野平面を光軸延長方向へ移動させたときに前記視野平面に交差する交差画像の平面画像データを選択平面画像データとして選択し、選択された前記選択平面画像データに基づく前記交差画像の焦点座標および前記交差画像を撮影した向きを前記交差画像が撮影されたときのまま前記視野平面に投影して合成画像を作成するとともに、前記選択平面画像データが選択された選択時刻を付与して前記記憶手段に記憶する画像合成手段と、
前記カメラで撮影された前記撮影画像を前記所定時間内に取得できないとき、前記画像合成手段で合成された前記合成画像を表示するとともに、前記カメラで撮影された前記撮影画像を所定の時間内に取得できたとき、前記カメラで撮影された実際の画像を表示する表示手段と、
前記記憶手段に新たな平面画像データを記憶する記憶領域が不足するとき、前記記憶手段に複数記憶されている前記データグループのうち前記新たな平面画像データが属する特定データグループを選択し、撮影時刻が前記特定データグループに属する全ての平面画像データのうち最も古い平面画像データを削除し、空いた記憶領域に前記新たな平面画像データを記憶するデータ更新手段と、を備え、
前記所定時間は、前記通信手段を経由したデータの転送の遅延によって、前記カメラで撮影された前記撮影画像と前記表示手段に表示される画像との差が違和感を生じさせない程度に小さくなる値に設定されていることを特徴とするロボットシステム。
A robot system comprising a robot having a camera at the tip of an arm, and a control device disposed remotely from the robot via communication means,
The control device includes:
A plane that creates plane image data centered on the focal coordinates by associating the captured image captured by the camera and the focal coordinates of the captured image when the captured image is captured and the direction in which the captured image was captured. Image data creation means;
Storage means for grouping a plurality of the plane image data having the focal coordinates approximated in a preset setting range from the plane image data created by the plane image data creation means and storing them as a plurality of data groups;
When the captured image captured by the camera cannot be acquired within a predetermined time, the field plane captured by the camera is moved in the optical axis extending direction from the planar image data stored in the storage means. Plane image data of the intersecting image that intersects the field plane when selected as the selected plane image data, and the focal coordinates of the intersecting image based on the selected selected plane image data and the direction in which the intersecting image was captured are selected. An image composition unit that projects the projected image onto the field plane as it is when the crossed image is captured to create a composite image, and stores the selected plane image data in the storage unit with a selection time selected.
When the captured image captured by the camera cannot be acquired within the predetermined time, the combined image combined by the image combining means is displayed , and the captured image captured by the camera is displayed within the predetermined time. Display means for displaying an actual image taken by the camera when acquired ,
When a storage area for storing new plane image data is insufficient in the storage unit, a specific data group to which the new plane image data belongs is selected from a plurality of data groups stored in the storage unit, and an imaging time is selected. Data update means for deleting the oldest plane image data from all the plane image data belonging to the specific data group, and storing the new plane image data in an empty storage area ,
The predetermined time is a value that is small enough that the difference between the captured image captured by the camera and the image displayed on the display means does not cause a sense of incongruity due to a delay in data transfer via the communication means. A robot system characterized by being set .
JP2009061092A 2009-03-13 2009-03-13 Robot system Active JP5453859B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009061092A JP5453859B2 (en) 2009-03-13 2009-03-13 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009061092A JP5453859B2 (en) 2009-03-13 2009-03-13 Robot system

Publications (2)

Publication Number Publication Date
JP2010214479A JP2010214479A (en) 2010-09-30
JP5453859B2 true JP5453859B2 (en) 2014-03-26

Family

ID=42973876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009061092A Active JP5453859B2 (en) 2009-03-13 2009-03-13 Robot system

Country Status (1)

Country Link
JP (1) JP5453859B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6054513B2 (en) * 2013-03-15 2016-12-27 株式会社日立製作所 Remote control system
JP6343938B2 (en) * 2014-01-14 2018-06-20 セイコーエプソン株式会社 Robot, control apparatus, robot system, and control method
US10576636B1 (en) 2019-04-12 2020-03-03 Mujin, Inc. Method and control system for and updating camera calibration for robot control

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5631973A (en) * 1994-05-05 1997-05-20 Sri International Method for telemanipulation with telepresence
JP3319283B2 (en) * 1996-05-28 2002-08-26 松下電器産業株式会社 Teaching method of bonding position
JP4531943B2 (en) * 2000-07-25 2010-08-25 株式会社デンソーウェーブ Robot end effector

Also Published As

Publication number Publication date
JP2010214479A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
TWI672206B (en) Method and apparatus of non-contact tool center point calibration for a mechanical arm, and a mechanical arm system with said calibration function
EP1512499A2 (en) Robot having a camera mounted at the distal end of its arm and method for operating such a robot
JP6843051B2 (en) Remote control robot system
JP6795471B2 (en) Robot system
JP2008254150A (en) Teaching method and teaching device of robot
US20090234502A1 (en) Apparatus for determining pickup pose of robot arm with camera
RU2015145035A (en) ROBOTIC SURGICAL SYSTEM WITH IMPROVED MANAGEMENT
JP2016107379A (en) Robot system including augmented reality corresponding display
CN103770112A (en) Robot system and processed product producing method
WO2010119734A1 (en) Image processing device
JP2011194498A (en) Visual inspection system
JP2018114524A (en) Soldering device
CN109459984B (en) Positioning and grabbing system based on three-dimensional point cloud and using method thereof
JP5453859B2 (en) Robot system
CN109794961A (en) Robot and robot system
JP5428639B2 (en) Robot control apparatus and robot teaching method
JP5573537B2 (en) Robot teaching system
JP5556552B2 (en) Robot control device, robot, and teaching method of robot control device
US9533412B2 (en) Robot, robot system, robot control device and robot control method
CN104296658B (en) The detection of a kind of cliff blast hole based on virtual binocular vision and positioner and localization method
CN110351475A (en) Camera system, information processing equipment and its control method and storage medium
JPH05318361A (en) Method for manipulating object
JP2014144516A (en) Robot control device, robot system, robot, control method and program
JP6005496B2 (en) Remote monitoring device and remote monitoring method
JP2000042960A (en) Remote control device for manipulator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131223

R150 Certificate of patent or registration of utility model

Ref document number: 5453859

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250