JP2019034386A - Robot control device, robot, robot system, and robot control method - Google Patents

Robot control device, robot, robot system, and robot control method Download PDF

Info

Publication number
JP2019034386A
JP2019034386A JP2017158465A JP2017158465A JP2019034386A JP 2019034386 A JP2019034386 A JP 2019034386A JP 2017158465 A JP2017158465 A JP 2017158465A JP 2017158465 A JP2017158465 A JP 2017158465A JP 2019034386 A JP2019034386 A JP 2019034386A
Authority
JP
Japan
Prior art keywords
imaging unit
robot
robot control
imaging
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017158465A
Other languages
Japanese (ja)
Inventor
佐藤 大輔
Daisuke Sato
大輔 佐藤
泉 飯田
Izumi Iida
泉 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017158465A priority Critical patent/JP2019034386A/en
Publication of JP2019034386A publication Critical patent/JP2019034386A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a robot control device which can accurately detect an attention part of an object on the basis of a picked-up image picked-up by an imaging part.SOLUTION: A robot control device controls a robot comprising a first movable part moving an object. The robot control device moves an attention part of the object by the first movable part into a first depth range being a range from a focal position in a depth direction of an imaging part to a position farthest from the imaging part in the depth direction out of ranges in the depth direction of a depth of field of the imaging part, and causes the imaging part to pick-up a region including the attention part.SELECTED DRAWING: Figure 4

Description

この発明は、ロボット制御装置、ロボット、ロボットシステム、及びロボット制御方法に関する。   The present invention relates to a robot control device, a robot, a robot system, and a robot control method.

対象物が撮像された撮像画像に基づいて、対象物に関する作業をロボットに行わせる技術についての研究、開発が行われている。   Research and development have been conducted on a technique for causing a robot to perform work related to an object based on a captured image obtained by imaging the object.

これに関し、撮像部を備え、把持した対象物を撮像部に近づけて対象物を撮像部に撮像させ、撮像部が撮像した撮像画像に基づいて対象物の位置及び姿勢を検出するロボットが知られている(特許文献1参照)。   In this regard, a robot is known that includes an imaging unit, causes the grasped object to approach the imaging unit, causes the imaging unit to image the object, and detects the position and orientation of the object based on the captured image captured by the imaging unit. (See Patent Document 1).

特開2015−226954号公報Japanese Patent Laying-Open No. 2015-226554

しかしながら、このようなロボットでは、撮像部により撮像された撮像画像には、対象物とともに対象物の背景として対象物以外の物体が撮像される場合がある。その結果、当該ロボットは、当該撮像画像から対象物を精度よく検出することが出来ないことがある。   However, in such a robot, an object other than the object may be imaged as the background of the object together with the object in the captured image captured by the imaging unit. As a result, the robot may not be able to accurately detect the target object from the captured image.

上記課題の少なくとも一つを解決するために本発明の一態様は、対象物を動かす第1可動部を備えたロボットを制御するロボット制御装置であって、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、ロボット制御装置である。
この構成により、ロボット制御装置は、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置は、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In order to solve at least one of the above-described problems, one aspect of the present invention is a robot control apparatus that controls a robot including a first movable unit that moves an object. The target portion is within a first depth range that is a range from a focal position in the depth direction of the imaging unit to a position farthest from the imaging unit in the depth direction in a range in the depth direction of the depth of field of the imaging unit. It is a robot control apparatus that moves the image to cause the imaging unit to image the region including the target portion.
With this configuration, the robot control device causes the first movable unit to move the target portion of the object from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit to the imaging unit in the depth direction. Is moved within a first depth range, which is a range from the farthest to the farthest position, and the imaging unit captures an area including the target portion. Thereby, the robot control apparatus can detect the attention part of the target object in the said imaging part with high precision based on the captured image imaged by the imaging part.

また、本発明の他の態様は、ロボット制御装置において、前記撮像部は、ロボット座標系における前記撮像部の位置及び姿勢が動かないように固定されている、構成が用いられてもよい。
この構成により、ロボット制御装置は、第1可動部により対象物の注目部分を、ロボット座標系における撮像部の位置及び姿勢が動かないように固定されている撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向において撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置は、ロボット座標系における撮像部の位置及び姿勢が動かないように固定されている撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In another aspect of the present invention, a configuration in which the imaging unit is fixed so that the position and orientation of the imaging unit in a robot coordinate system do not move may be used in the robot control device.
With this configuration, the robot control device allows the first movable unit to fix the target portion of the object so that the position and orientation of the imaging unit in the robot coordinate system do not move. Is moved within a first depth range, which is a range from the focal position in the depth direction of the imaging unit to the position farthest from the imaging unit in the depth direction, and causes the imaging unit to capture an area including the target portion. As a result, the robot controller accurately determines the target portion of the object in the imaging unit based on the captured image captured by the imaging unit that is fixed so that the position and orientation of the imaging unit in the robot coordinate system do not move. Can be detected well.

また、本発明の他の態様は、ロボット制御装置において、第2可動部により前記撮像部を前記対象物に対して相対的に動かす、構成が用いられてもよい。
この構成により、ロボット制御装置は、第2可動部により撮像部を対象物に対して相対的に動かす。これにより、ロボット制御装置は、第2可動部により対象物に対して相対的に動かした撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In another aspect of the present invention, in the robot control device, a configuration in which the imaging unit is moved relative to the object by the second movable unit may be used.
With this configuration, the robot control apparatus moves the imaging unit relative to the object by the second movable unit. Accordingly, the robot control device can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit moved relative to the target by the second movable unit. Can do.

また、本発明の他の態様は、ロボット制御装置において、前記撮像部は、ステレオカメラである、構成が用いられてもよい。
この構成により、ロボット制御装置は、ステレオカメラである撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向において撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置は、ステレオカメラである撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In another aspect of the present invention, in the robot control device, a configuration in which the imaging unit is a stereo camera may be used.
With this configuration, the robot control device has a range from the focal position in the depth direction of the image capturing unit to the position farthest from the image capturing unit in the depth direction of the range of the depth of field of the image capturing unit that is a stereo camera. The image is moved within a certain first depth range, and the imaging unit is caused to image a region including the target portion. Thereby, the robot control apparatus can detect the attention part of the target object in the said imaging part with high precision based on the captured image imaged by the imaging part which is a stereo camera.

また、本発明の他の態様は、ロボット制御装置において、前記撮像部により撮像された撮像画像に含まれる前記注目部分を検出する、構成が用いられてもよい。
この構成により、ロボット制御装置は、撮像部により撮像された撮像画像に含まれる対象物の注目部分を検出する。これにより、ロボット制御装置は、撮像画像から検出した注目部分に関する作業をロボットに精度よく行わせることができる。
In another aspect of the present invention, the robot control device may be configured to detect the portion of interest included in the captured image captured by the imaging unit.
With this configuration, the robot control device detects a target portion of the target object included in the captured image captured by the imaging unit. As a result, the robot control apparatus can cause the robot to accurately perform the work related to the target portion detected from the captured image.

また、本発明の他の態様は、ロボット制御装置において、前記撮像画像から検出した前記注目部分に応じた処理を行う、構成が用いられてもよい。
この構成により、ロボット制御装置は、撮像画像から検出した注目部分に応じた処理を行う。これにより、ロボット制御装置は、撮像画像から検出した注目部分に応じた処理を精度よく行うことができる。
In another aspect of the present invention, a configuration may be used in a robot control device that performs processing according to the portion of interest detected from the captured image.
With this configuration, the robot control apparatus performs processing according to the target portion detected from the captured image. Thereby, the robot control apparatus can perform the process according to the attention part detected from the captured image with high accuracy.

また、本発明の他の態様は、ロボット制御装置において、前記撮像画像から検出した前記注目部分に応じて、前記ロボットの動作に関する処理を行う、構成が用いられてもよい。
この構成により、ロボット制御装置は、撮像画像から検出した注目部分に応じて、ロボットの動作に関する処理を行う。これにより、ロボット制御装置は、ロボットの動作に関する処理を精度よく行うことができる。
In another aspect of the present invention, the robot control device may be configured to perform processing related to the operation of the robot in accordance with the attention portion detected from the captured image.
With this configuration, the robot control apparatus performs a process related to the operation of the robot according to the target portion detected from the captured image. Thereby, the robot control apparatus can perform the process regarding the operation of the robot with high accuracy.

また、本発明の他の態様は、対象物を動かす第1可動部を備え、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、ロボットである。
この構成により、ロボットは、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボットは、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
Moreover, the other aspect of this invention is equipped with the 1st movable part which moves a target object, The said attention part of the target object is made into the said depth direction of the depth of field of an imaging part by the said 1st movable part. A robot that moves within a first depth range, which is a range from a focal position in the depth direction of the imaging unit to a position farthest from the imaging unit in the depth direction, and causes the imaging unit to capture an area including the target portion It is.
With this configuration, the robot moves the target portion of the object from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit out of the range in the depth direction of the depth of field of the imaging unit by the first movable unit. It moves within the first depth range, which is a range up to a far position, and causes the imaging unit to image a region including the target portion. Accordingly, the robot can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit.

また、本発明の他の態様は、対象物を動かす第1可動部を備えたロボットと、前記ロボットを制御するロボット制御装置とを備えるロボットシステムであって、前記ロボット制御装置は、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、ロボットシステムである。
この構成により、ロボットシステムは、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボットシステムは、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
According to another aspect of the present invention, there is provided a robot system including a robot including a first movable unit that moves an object and a robot control device that controls the robot, wherein the robot control device includes the first control unit. A range from the focal position in the depth direction of the imaging unit to the farthest position from the imaging unit in the depth direction in the depth direction of the depth of field of the imaging unit by the movable part. This is a robot system that moves within a first depth range, and causes the imaging unit to image a region including the target portion.
With this configuration, the robot system allows the first movable unit to move the target portion of the object from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit from the imaging unit in the depth direction. It moves within the first depth range, which is the range up to the farthest position, and causes the imaging unit to image the region including the target portion. Accordingly, the robot system can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit.

また、本発明の他の態様は、対象物を動かす第1可動部を備えたロボットを制御するロボット制御方法であって、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、ロボット制御方法である。
この構成により、ロボット制御方法は、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボットシステムは、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
According to another aspect of the present invention, there is provided a robot control method for controlling a robot including a first movable unit that moves an object, wherein the target portion of the object is captured by an imaging unit by the first movable unit. Move within the first depth range, which is the range from the focal position in the depth direction of the imaging unit to the position farthest from the imaging unit in the depth direction, in the depth direction of the depth of field, and A robot control method for imaging a region including the target portion.
With this configuration, the robot control method allows the first movable unit to move the target portion of the object from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit to the imaging unit in the depth direction. Is moved within a first depth range, which is a range from the farthest to the farthest position, and the imaging unit captures an area including the target portion. Accordingly, the robot system can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit.

また、本発明の他の態様は、対象物を動かす第1可動部を備えたロボットを制御するロボット制御装置であって、プロセッサーを備え、前記プロセッサーは、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる指令を実行するように構成されていることを特徴する、ロボット制御装置である。
この構成により、ロボット制御装置は、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置は、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
According to another aspect of the present invention, there is provided a robot control device that controls a robot including a first movable unit that moves an object. The robot control device includes a processor, and the processor uses the first movable unit to control the object. The target portion is within a first depth range that is a range from a focal position in the depth direction of the imaging unit to a position farthest from the imaging unit in the depth direction in a range in the depth direction of the depth of field of the imaging unit. The robot control device is configured to execute a command to cause the imaging unit to image a region including the target portion.
With this configuration, the robot control device causes the first movable unit to move the target portion of the object from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit to the imaging unit in the depth direction. Is moved within a first depth range, which is a range from the farthest to the farthest position, and the imaging unit captures an area including the target portion. Thereby, the robot control apparatus can detect the attention part of the target object in the said imaging part with high precision based on the captured image imaged by the imaging part.

以上により、ロボット制御装置、ロボット、ロボットシステム、及びロボット制御方法は、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置、ロボット、ロボットシステム、及びロボット制御方法は、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。   As described above, in the robot control device, the robot, the robot system, and the robot control method, the first movable unit moves the target portion of the object in the depth direction of the imaging unit out of the range in the depth direction of the depth of field of the imaging unit. It moves within the first depth range, which is the range from the focal position to the farthest position from the imaging unit in the depth direction, and causes the imaging unit to image the region including the target portion. Accordingly, the robot control device, the robot, the robot system, and the robot control method can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit.

実施形態に係るロボットシステム1の構成の一例を示す図である。It is a figure showing an example of composition of robot system 1 concerning an embodiment. 複数の情報処理装置によってロボット制御装置30が構成される場合におけるロボット制御装置30のハードウェア構成の一例である。It is an example of the hardware constitutions of the robot control apparatus 30 in case the robot control apparatus 30 is comprised by several information processing apparatus. 対象物Oの一例を示す図である。当該例では、図3に示した対象物Oの上面が注目部分FOとして表されている。It is a figure which shows an example of the target object. In this example, the upper surface of the object O shown in FIG. 3 is represented as the target portion FO. ロボット制御装置30の機能構成の一例を示す図である。2 is a diagram illustrating an example of a functional configuration of a robot control device 30. FIG. 対象物Oを第3撮像部C3に撮像させるためにロボット制御装置30が第1アームA1を動かす処理の流れの一例を示す図である。It is a figure which shows an example of the flow of a process in which the robot control apparatus 30 moves 1st arm A1, in order to make the 3rd imaging part C3 image the target object O. FIG. 撮像位置及び撮像姿勢と位置及び姿勢が一致している状態の対象物Oの一例を示す図である。It is a figure which shows an example of the target object O in the state in which an imaging position and an imaging posture and a position and attitude | position correspond. 実施形態の変形例に係るロボットシステム2の一例を示す構成図である。It is a block diagram which shows an example of the robot system 2 which concerns on the modification of embodiment.

<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<ロボットシステムの概要>
まず、ロボットシステム1の概要について説明する。図1は、実施形態に係るロボットシステム1の構成の一例を示す図である。
<Overview of the robot system>
First, an outline of the robot system 1 will be described. FIG. 1 is a diagram illustrating an example of a configuration of a robot system 1 according to the embodiment.

ロボットシステム1は、撮像部に対象物を撮像させる。ロボットシステム1は、撮像部が対象物を撮像した撮像画像に基づいて、例えば、対象物に関する作業をロボットに行わせる。   The robot system 1 causes the imaging unit to image a target object. For example, the robot system 1 causes the robot to perform an operation related to the object based on the captured image obtained by the imaging unit capturing the object.

ここで、ロボットシステム1と異なるロボットシステムX(例えば、従来のロボットシステム)では、撮像部により撮像された撮像画像には、対象物とともに対象物の背景として対象物以外の物体が撮像される場合がある。その結果、ロボットシステムXは、当該撮像画像から対象物を精度よく検出することが出来ないことがある。   Here, in a robot system X different from the robot system 1 (for example, a conventional robot system), an object other than the object is imaged in the captured image captured by the imaging unit as a background of the object together with the object. There is. As a result, the robot system X may not be able to accurately detect an object from the captured image.

そこで、ロボットシステム1は、対象物を動かす第1可動部を備えたロボットを備え、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に当該注目部分を含む領域を撮像させる。ここで、当該深度方向は、撮像部の光軸に沿った方向のうち撮像部の撮像素子から撮像部のレンズに向かう方向のことである。これにより、ロボットシステム1は、撮像部に撮像された物体のうちの当該注目部分が惚けずに撮像された撮像画像であって、撮像部に撮像された物体のうちの当該注目部分以外の部分のほとんどが惚けて撮像されている撮像画像を取得することができる。ここで、当該撮像画像において当該部分が惚けているとは、当該撮像画像内の領域のうちの当該部分が撮像された領域内において、最も小さい錯乱円が予め決められた直径であって許容可能な最小の直径である許容直径よりも大きい直径であることを意味する。この場合、当該撮像画像から当該部分から何らかの形状を検出することは、困難である。その結果、ロボットシステム1は、撮像部により撮像された撮像画像に基づいて、当該撮像画像における当該注目部分以外の部分を当該注目部分として誤検出してしまうことを抑制するとともに、当該撮像画像における当該注目部分を精度よく検出することができる。   Therefore, the robot system 1 includes a robot including a first movable unit that moves the object, and the first movable unit captures the target portion of the target in the depth direction of the depth of field of the imaging unit. Is moved into a first depth range that is a range from the focal position in the depth direction to the position farthest from the imaging unit in the depth direction, and causes the imaging unit to image the region including the target portion. Here, the depth direction is a direction from the imaging element of the imaging unit to the lens of the imaging unit among the directions along the optical axis of the imaging unit. Thereby, the robot system 1 is a captured image in which the target portion of the object imaged by the imaging unit is captured without being lost, and a portion other than the target portion of the object imaged by the imaging unit. It is possible to acquire a picked-up image in which most of them are picked up. Here, in the captured image, the portion is blurred, and the smallest circle of confusion within a region where the portion of the captured image is captured is a predetermined diameter and allowable. This means that the diameter is larger than the allowable diameter which is the smallest diameter. In this case, it is difficult to detect any shape from the portion from the captured image. As a result, the robot system 1 suppresses erroneously detecting a portion other than the target portion in the captured image as the target portion based on the captured image captured by the imaging unit, and also in the captured image. The target portion can be detected with high accuracy.

以下では、ロボットシステム1の構成と、ロボットシステム1が行う処理のうち、対象物を撮像部に撮像させるためにロボットシステム1が第1可動部を動かす処理とについて説明する。   Below, the structure of the robot system 1 and the process which the robot system 1 moves a 1st movable part in order to make an imaging part image-capture a target object among the processes which the robot system 1 performs are demonstrated.

<ロボットシステムの構成>
まず、ロボットシステム1の構成について説明する。
図1は、実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、上記のロボットの一例であるロボット20を備える。また、ロボット20は、上記のロボット制御装置の一例であるロボット制御装置30を内蔵する。なお、ロボットシステム1は、ロボット20に加えて、ロボット20と別体の撮像部等の他の装置を備える構成であってもよい。
<Robot system configuration>
First, the configuration of the robot system 1 will be described.
FIG. 1 is a diagram illustrating an example of a configuration of a robot system 1 according to the embodiment. The robot system 1 includes a robot 20 which is an example of the above robot. The robot 20 includes a robot control device 30 that is an example of the robot control device described above. The robot system 1 may be configured to include other devices such as an imaging unit separate from the robot 20 in addition to the robot 20.

ロボット20は、第1アームA1と、第2アームA2と、第1アームA1及び第2アームA2を支持する支持台Bと、支持台Bの内側にロボット制御装置30を備える双腕ロボットである。なお、ロボット20は、双腕ロボットに代えて、3本以上のアームを備える複腕ロボットであってもよく、1本のアームを備える単腕ロボットであってもよい。また、ロボット20は、スカラ(水平多関節)ロボット、直交座標ロボット、円筒型ロボット等の他のロボットであってもよい。直交座標ロボットは、例えば、ガントリロボットである。   The robot 20 is a double-arm robot including a first arm A1, a second arm A2, a support base B that supports the first arm A1 and the second arm A2, and a robot control device 30 inside the support base B. . The robot 20 may be a double-arm robot having three or more arms or a single-arm robot having one arm instead of the double-arm robot. The robot 20 may be another robot such as a SCARA (horizontal articulated) robot, a Cartesian coordinate robot, or a cylindrical robot. The orthogonal coordinate robot is, for example, a gantry robot.

支持台Bは、ロボット20が設置された設置面に直交する方向に沿って2つの部分に分割されている。なお、支持台Bは、分割されていない構成であってもよく、3つ以上の部分に分割されている構成であってもよい。当該2つの部分のうち当該設置面から遠い方の部分である支持台上部B2は、当該2つの部分のうち当該設置面から近い方の部分である支持台下部B1に対して回動可能である。すなわち、ロボット20は、支持台上部B2と支持台下部B1との間を繋ぐ関節である関節J0を有している。支持台上部B2が回動する場合の回動面は、例えば、当該設置面に対して平行である。支持台下部B1の内側には、ロボット制御装置30が備えられている。また、支持台上部B2は、支持台下部B1に対して上下方向に並進可能である。上方向は、この一例において、設置面に直交する2つの方向のうち支持台下部B1から支持台上部B2に向かう方向のことである。また、下方向は、この一例において、上方向と逆の方向のことである。なお、当該回動面は、当該設置面に対して非平行であってもよい。また、支持台上部B2は、支持台下部B1に対して上下方向に並進不可能な構成であってもよい。   The support base B is divided into two parts along a direction orthogonal to the installation surface on which the robot 20 is installed. Note that the support base B may have a configuration that is not divided, or may be a configuration that is divided into three or more parts. The support base upper part B2 which is the part far from the installation surface among the two parts is rotatable with respect to the support base lower part B1 which is the part closer to the installation surface among the two parts. . That is, the robot 20 has a joint J0 that is a joint connecting the upper support base B2 and the lower support base B1. For example, the rotation surface when the support base upper portion B2 rotates is parallel to the installation surface. A robot control device 30 is provided inside the lower support base B1. Further, the support base upper part B2 can translate in the vertical direction with respect to the support base lower part B1. In this example, the upward direction is a direction from the support base lower part B1 toward the support base upper part B2 out of two directions orthogonal to the installation surface. Further, the downward direction is a direction opposite to the upward direction in this example. The rotating surface may be non-parallel to the installation surface. Further, the support base upper part B2 may be configured such that it cannot be translated in the vertical direction with respect to the support base lower part B1.

第1アームA1は、第1エンドエフェクターE1と、第1マニピュレーターM1を備える。   The first arm A1 includes a first end effector E1 and a first manipulator M1.

第1エンドエフェクターE1は、物体を保持するエンドエフェクターである。この一例において、第1エンドエフェクターE1は、指部を備え、当該指部によって物体を挟んで持つことにより当該物体を保持する。なお、第1エンドエフェクターE1は、これに代えて、空気の吸引や磁力、他の治具等によって物体を持ち上げることにより当該物体を保持する構成であってもよい。なお、この一例において、保持するとは、物体を持ち上げることが可能な状態にすることを意味する。   The first end effector E1 is an end effector that holds an object. In this example, the first end effector E1 includes a finger part, and holds the object by holding the object by the finger part. Alternatively, the first end effector E1 may be configured to hold the object by lifting the object by air suction, magnetic force, another jig, or the like. In this example, holding means that the object can be lifted.

第1エンドエフェクターE1は、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、第1エンドエフェクターE1は、ロボット制御装置30から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB(Universal Serial Bus)等の規格によって行われる。また、第1エンドエフェクターE1は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The first end effector E1 is communicably connected to the robot controller 30 via a cable. Thus, the first end effector E1 performs an operation based on the control signal acquired from the robot control device 30. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB (Universal Serial Bus), for example. The first end effector E1 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第1マニピュレーターM1は、7つの関節と、第1撮像部C1を備える。また、当該7つの関節のそれぞれは、図示しないアクチュエーターを備える。すなわち、第1マニピュレーターM1を備える第1アームA1は、7軸垂直多関節型のアームである。第1アームA1は、支持台Bと、第1エンドエフェクターE1と、第1マニピュレーターM1と、当該7つの関節それぞれのアクチュエーターとによる連携した動作によって7軸の自由度の動作を行う。なお、第1アームA1は、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。   The first manipulator M1 includes seven joints and a first imaging unit C1. Each of the seven joints includes an actuator (not shown). That is, the first arm A1 including the first manipulator M1 is a 7-axis vertical articulated arm. The first arm A1 performs an operation with seven degrees of freedom by a coordinated operation by the support base B, the first end effector E1, the first manipulator M1, and the actuators of the seven joints. The first arm A1 may be configured to operate with a degree of freedom of 6 axes or less, or may be configured to operate with a degree of freedom of 8 axes or more.

第1アームA1が7軸の自由度で動作する場合、第1アームA1は、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増える。これにより第1アームA1は、例えば、動作が滑らかになり、更に第1アームA1の周辺に存在する物体との干渉を容易に回避することができる。また、第1アームA1が7軸の自由度で動作する場合、第1アームA1の制御は、第1アームA1が8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。   When the first arm A1 operates with a degree of freedom of 7 axes, the posture that the first arm A1 can take is increased as compared with a case where the first arm A1 operates with a degree of freedom of 6 axes or less. Thereby, for example, the first arm A1 can be smoothly operated, and interference with an object existing around the first arm A1 can be easily avoided. In addition, when the first arm A1 operates with a degree of freedom of 7 axes, the control of the first arm A1 is easier and requires less calculation than when the first arm A1 operates with a degree of freedom of 8 axes or more. is there.

第1マニピュレーターM1が備える7つのアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第1マニピュレーターM1を動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、第1マニピュレーターM1が備える7つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   Each of the seven actuators provided in the first manipulator M1 is communicably connected to the robot controller 30 via a cable. Accordingly, the actuator operates the first manipulator M1 based on the control signal acquired from the robot control device 30. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB. Further, some or all of the seven actuators included in the first manipulator M1 may be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). Good.

第1撮像部C1は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。この一例において、第1撮像部C1は、第1マニピュレーターM1の一部に備えられる。そのため、第1撮像部C1は、第1マニピュレーターM1の動きに応じて移動する。また、第1撮像部C1が撮像可能な範囲は、第1アームA1の動きに応じて変化する。第1撮像部C1は、当該範囲の二次元画像を撮像する。なお、第1撮像部C1は、当該範囲の静止画像を撮像する構成であってもよく、当該範囲の動画像を撮像する構成であってもよい。第1撮像部C1は、上記の撮像部の一例である。   The first imaging unit C1 is a camera that includes, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like as an imaging element that converts the collected light into an electrical signal. In this example, the first imaging unit C1 is provided in a part of the first manipulator M1. Therefore, the first imaging unit C1 moves according to the movement of the first manipulator M1. Further, the range in which the first imaging unit C1 can capture an image changes according to the movement of the first arm A1. The first imaging unit C1 captures a two-dimensional image in the range. The first imaging unit C1 may be configured to capture a still image in the range, or may be configured to capture a moving image in the range. The first imaging unit C1 is an example of the imaging unit described above.

また、第1撮像部C1は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、第1撮像部C1は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The first imaging unit C1 is communicably connected to the robot control device 30 via a cable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The first imaging unit C1 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第2アームA2は、第2エンドエフェクターE2と、第2マニピュレーターM2を備える。   The second arm A2 includes a second end effector E2 and a second manipulator M2.

第2エンドエフェクターE2は、物体を保持するエンドエフェクターである。この一例において、第2エンドエフェクターE2は、指部を備え、当該指部によって物体を挟んで持つことにより当該物体を保持する。なお、第2エンドエフェクターE2は、これに代えて、空気の吸引や磁力、他の治具等によって物体を持ち上げることにより当該物体を保持する構成であってもよい。   The second end effector E2 is an end effector that holds an object. In this example, the second end effector E2 includes a finger part, and holds the object by holding the object by the finger part. Alternatively, the second end effector E2 may be configured to hold the object by lifting the object by air suction, magnetic force, other jigs, or the like.

第2エンドエフェクターE2は、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、第2エンドエフェクターE2は、ロボット制御装置30から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、第2エンドエフェクターE2は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The second end effector E2 is communicably connected to the robot controller 30 via a cable. Accordingly, the second end effector E2 performs an operation based on the control signal acquired from the robot control device 30. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB. The second end effector E2 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第2マニピュレーターM2は、7つの関節と、第2撮像部C2を備える。また、当該7つの関節のそれぞれは、図示しないアクチュエーターを備える。すなわち、第2マニピュレーターM2を備える第2アームA2は、7軸垂直多関節型のアームである。第2アームA2は、支持台Bと、第2エンドエフェクターE2と、第2マニピュレーターM2と、当該7つの関節それぞれのアクチュエーターとによる連携した動作によって7軸の自由度の動作を行う。なお、第2アームA2は、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。   The second manipulator M2 includes seven joints and a second imaging unit C2. Each of the seven joints includes an actuator (not shown). That is, the second arm A2 including the second manipulator M2 is a 7-axis vertical articulated arm. The second arm A2 performs an operation with seven degrees of freedom by a coordinated operation by the support base B, the second end effector E2, the second manipulator M2, and the actuators of the seven joints. The second arm A2 may be configured to operate with a degree of freedom of 6 axes or less, or may be configured to operate with a degree of freedom of 8 axes or more.

第2アームA2が7軸の自由度で動作する場合、第2アームA2は、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増える。これにより第2アームA2は、例えば、動作が滑らかになり、更に第2アームA2の周辺に存在する物体との干渉を容易に回避することができる。また、第2アームA2が7軸の自由度で動作する場合、第2アームA2の制御は、第2アームA2が8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。   When the second arm A2 operates with a degree of freedom of seven axes, the posture that the second arm A2 can take is increased as compared with a case where the second arm A2 operates with a degree of freedom of six axes or less. Thereby, for example, the second arm A2 can move smoothly and can easily avoid interference with an object existing around the second arm A2. In addition, when the second arm A2 operates with a degree of freedom of 7 axes, the control of the second arm A2 is easier and requires less calculation than when the second arm A2 operates with a degree of freedom of 8 axes or more. is there.

第2マニピュレーターM2が備える7つのアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第2マニピュレーターM2を動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、第2マニピュレーターM2が備える7つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   Each of the seven actuators included in the second manipulator M2 is communicably connected to the robot controller 30 via a cable. Thus, the actuator operates the second manipulator M2 based on the control signal acquired from the robot control device 30. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB. Further, some or all of the seven actuators included in the second manipulator M2 may be configured to be connected to the robot controller 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). Good.

第2撮像部C2は、例えば、CCD、CMOS等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。この一例において、第2撮像部C2は、第2マニピュレーターM2の一部に備えられる。そのため、第2撮像部C2は、第2マニピュレーターM2の動きに応じて移動する。また、第2撮像部C2が撮像可能な範囲は、第2アームA2の動きに応じて変化する。第2撮像部C2は、当該範囲の二次元画像を撮像する。なお、第2撮像部C2は、当該範囲の静止画像を撮像する構成であってもよく、当該範囲の動画像を撮像する構成であってもよい。第2撮像部C2は、上記の撮像部の一例である。   The second imaging unit C2 is a camera that includes, for example, a CCD, a CMOS, or the like as an imaging device that converts collected light into an electrical signal. In this example, the second imaging unit C2 is provided in a part of the second manipulator M2. Therefore, the second imaging unit C2 moves according to the movement of the second manipulator M2. In addition, the range in which the second imaging unit C2 can capture an image changes according to the movement of the second arm A2. The second imaging unit C2 captures a two-dimensional image in the range. The second imaging unit C2 may be configured to capture a still image in the range, or may be configured to capture a moving image in the range. The second imaging unit C2 is an example of the above imaging unit.

また、第2撮像部C2は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、第2撮像部C2は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The second imaging unit C2 is communicably connected to the robot control device 30 via a cable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The second imaging unit C2 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

また、ロボット20は、第3撮像部C3と、第4撮像部C4を備える。
第3撮像部C3は、例えば、CCD、CMOS等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。第3撮像部C3は、第4撮像部C4が撮像可能な範囲を第4撮像部C4とともにステレオ撮像可能な部位に備えられる。また、第3撮像部C3は、ロボット座標系における第3撮像部C3の位置及び姿勢が動かないように固定されている。第3撮像部C3は、上記の撮像部の一例である。第3撮像部C3は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、第3撮像部C3は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The robot 20 includes a third imaging unit C3 and a fourth imaging unit C4.
The third imaging unit C3 is a camera provided with, for example, a CCD, a CMOS, or the like as an imaging device that converts collected light into an electrical signal. The third image capturing unit C3 is provided in a region where the fourth image capturing unit C4 can capture an image together with the fourth image capturing unit C4. The third imaging unit C3 is fixed so that the position and orientation of the third imaging unit C3 in the robot coordinate system do not move. The third imaging unit C3 is an example of the above imaging unit. The third imaging unit C3 is communicably connected to the robot control device 30 via a cable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The third imaging unit C3 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第4撮像部C4は、例えば、CCD、CMOS等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。第4撮像部C4は、第3撮像部C3が撮像可能な範囲を第3撮像部C3とともにステレオ撮像可能な部位に備えられる。また、第4撮像部C4は、ロボット座標系における第4撮像部C4の位置及び姿勢が動かないように固定されている。第4撮像部C4は、上記の撮像部の一例である。第4撮像部C4は、ケーブルによって通信可能にロボット制御装置30と接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、第4撮像部C4は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The fourth imaging unit C4 is a camera provided with, for example, a CCD, a CMOS, or the like as an imaging device that converts collected light into an electrical signal. The fourth imaging unit C4 is provided in a region where the third imaging unit C3 can capture an image, together with the third imaging unit C3, in a portion where stereo imaging is possible. The fourth imaging unit C4 is fixed so that the position and orientation of the fourth imaging unit C4 in the robot coordinate system do not move. The fourth imaging unit C4 is an example of the imaging unit described above. The fourth imaging unit C4 is connected to the robot controller 30 via a cable so as to be communicable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The fourth imaging unit C4 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

ここで、この一例における第3撮像部C3及び第4撮像部C4は、前述の支持台上部B2に備えられる。このため、第3撮像部C3及び第4撮像部C4がステレオ撮像可能な範囲は、支持台上部B2の支持台下部B1に対する上下方向に沿った並進によって変化する。   Here, the third imaging unit C3 and the fourth imaging unit C4 in this example are provided in the above-described support base upper part B2. For this reason, the range in which the third imaging unit C3 and the fourth imaging unit C4 can perform stereo imaging changes due to translation in the vertical direction of the support base upper part B2 with respect to the support base lower part B1.

また、第3撮像部C3及び第4撮像部C4が備えられた支持台上部B2には、第3撮像部C3及び第4撮像部C4の両方を支持台上部B2に対して相対的に回動させることにより、第3撮像部C3及び第4撮像部C4それぞれの光軸の向きを変化させるチルト機構が設けられている。なお、支持台上部B2には、チルト機構が設けられていない構成であってもよい。   In addition, in the support base upper part B2 provided with the third image pickup part C3 and the fourth image pickup part C4, both the third image pickup part C3 and the fourth image pickup part C4 are rotated relative to the support base upper part B2. Thus, a tilt mechanism is provided that changes the direction of the optical axis of each of the third imaging unit C3 and the fourth imaging unit C4. The support base upper part B2 may be configured not to be provided with a tilt mechanism.

上記で説明したロボット20が備える各機能部は、この一例において、ロボット20に内蔵されたロボット制御装置30から制御信号を取得する。そして、当該各機能部は、取得した制御信号に基づいた動作を行う。なお、ロボット20は、ロボット制御装置30を内蔵する構成に代えて、外部に設置されたロボット制御装置30により制御される構成であってもよい。また、ロボット20は、第1撮像部C1、第2撮像部C2、第3撮像部C3、第4撮像部C4のうちの一部又は全部を備えない構成であってもよい。   In this example, each functional unit included in the robot 20 described above acquires a control signal from the robot control device 30 built in the robot 20. Then, each functional unit performs an operation based on the acquired control signal. Note that the robot 20 may be configured to be controlled by the robot control device 30 installed outside, instead of the configuration incorporating the robot control device 30. Further, the robot 20 may be configured not to include some or all of the first imaging unit C1, the second imaging unit C2, the third imaging unit C3, and the fourth imaging unit C4.

ロボット制御装置30は、少なくとも1つのプロセッサーと、少なくとも1つのメモリーとによって構成される。ロボット制御装置30において、当該少なくとも1つのプロセッサーは、1つの情報処理装置に備えられる構成であってもよく、複数の情報処理装置に分散されて備えられている構成であってもよい。また、ロボット制御装置30において、当該少なくとも1つのメモリーは、1つの情報処理装置に備えられる構成であってもよく、複数の情報処理装置に分散されて備えられている構成であってもよい。   The robot control device 30 includes at least one processor and at least one memory. In the robot control device 30, the at least one processor may be provided in one information processing device, or may be provided in a distributed manner in a plurality of information processing devices. Further, in the robot control device 30, the at least one memory may be configured to be provided in one information processing device, or may be configured to be distributed and provided in a plurality of information processing devices.

図1に示した例では、ロボット制御装置30は、情報処理装置PC1に備えられた1つのプロセッサーであるプロセッサー31と、情報処理装置PC1に備えられた1つのメモリーであるメモリー32とによって構成されている。なお、情報処理装置PC1は、プロセッサー31に加えて、他のプロセッサーを備える構成であってもよく、メモリー32に加えて、他のメモリーを備える構成であってもよい。   In the example illustrated in FIG. 1, the robot control device 30 includes a processor 31 that is one processor provided in the information processing device PC1 and a memory 32 that is one memory provided in the information processing device PC1. ing. The information processing apparatus PC1 may be configured to include other processors in addition to the processor 31, or may be configured to include other memories in addition to the memory 32.

情報処理装置PC1は、例えば、ワークステーション、デスクトップPC(Personal Computer)、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA(Personal Digital Assistant)等である。   The information processing apparatus PC1 is, for example, a workstation, a desktop PC (Personal Computer), a notebook PC, a tablet PC, a multi-function mobile phone terminal (smartphone), an electronic book reader with a communication function, a PDA (Personal Digital Assistant), or the like. .

プロセッサー31は、例えば、CPU(Central Processing Unit)である。なお、プロセッサー31は、FPGA(Field-Programmable Gate Array)等の他のプロセッサーであってもよい。プロセッサー31は、ロボット制御装置30が備えるメモリーに格納された各種の指令を実行する。また、プロセッサー31は、他の装置のメモリーに格納された各種の指令を実行する。   The processor 31 is, for example, a CPU (Central Processing Unit). The processor 31 may be another processor such as an FPGA (Field-Programmable Gate Array). The processor 31 executes various commands stored in a memory provided in the robot control device 30. The processor 31 also executes various commands stored in the memory of another device.

メモリー32は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。すなわち、メモリー32は、一時的な記憶装置と、非一時的な記憶装置とを含む。なお、メモリー32は、情報処理装置PC1に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。メモリー32は、プロセッサー31又は他の装置のプロセッサーが処理する各種の情報、指令321、322等のコンピューターにより実行可能な各種の指令(例えば、プログラム、コード等)、各種の画像等を格納する。   The memory 32 includes, for example, a hard disk drive (HDD), a solid state drive (SSD), an electrically erasable programmable read-only memory (EEPROM), a read-only memory (ROM), and a random access memory (RAM). That is, the memory 32 includes a temporary storage device and a non-temporary storage device. Note that the memory 32 may be an external storage device connected by a digital input / output port such as a USB instead of the one built in the information processing apparatus PC1. The memory 32 stores various information processed by the processor 31 or a processor of another device, various commands (for example, programs, codes, etc.) executable by a computer such as commands 321 and 322, various images, and the like.

指令321及び指令322はそれぞれ、プロセッサー31がロボット制御装置30を構成するためにプロセッサー31が実行する複数の指令(すなわち、コンピューターにより実行可能な複数の指令)のうちの一部である。   Each of the command 321 and the command 322 is a part of a plurality of commands (that is, a plurality of commands that can be executed by a computer) executed by the processor 31 in order for the processor 31 to configure the robot control device 30.

また、ロボット制御装置30は、他の装置と通信を行うため、ハードウェア機能部として通信部34を備える。
通信部34は、USB等のデジタル入出力ポート、イーサネット(登録商標)ポート等を含んで構成される。
In addition, the robot control device 30 includes a communication unit 34 as a hardware function unit in order to communicate with other devices.
The communication unit 34 includes a digital input / output port such as a USB, an Ethernet (registered trademark) port, and the like.

なお、ロボット制御装置30は、1つのプロセッサー31と、1つのメモリー32とを備える情報処理装置PC1に代えて、図2に示したように、複数の情報処理装置のうちの一部又は全部によって構成されてもよい。図2は、複数の情報処理装置によってロボット制御装置30が構成される場合におけるロボット制御装置30のハードウェア構成の一例である。   Note that the robot control device 30 is replaced by an information processing device PC1 including one processor 31 and one memory 32, as shown in FIG. It may be configured. FIG. 2 is an example of a hardware configuration of the robot control device 30 when the robot control device 30 is configured by a plurality of information processing devices.

図2に示した情報処理装置PC2は、1つのプロセッサーであるプロセッサー41と、1つのメモリーであるメモリー42と、通信部44を備える。なお、情報処理装置PC2は、プロセッサー41に加えて、他のプロセッサーを備える構成であってもよい。また、情報処理装置PC2は、メモリー42に加えて、他のメモリーを備える構成であってもよい。   The information processing apparatus PC2 illustrated in FIG. 2 includes a processor 41 that is one processor, a memory 42 that is one memory, and a communication unit 44. Note that the information processing apparatus PC2 may be configured to include other processors in addition to the processor 41. In addition to the memory 42, the information processing apparatus PC2 may be configured to include another memory.

情報処理装置PC2は、例えば、ワークステーション、デスクトップPC、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA等である。なお、情報処理装置PC2は、教示装置40であってもよい。   The information processing apparatus PC2 is, for example, a workstation, a desktop PC, a notebook PC, a tablet PC, a multi-function mobile phone terminal (smartphone), an electronic book reader with a communication function, a PDA, or the like. The information processing apparatus PC2 may be the teaching apparatus 40.

プロセッサー41は、CPUである。なお、プロセッサー41は、FPGA等の他のプロセッサーであってもよい。プロセッサー41は、メモリー32に格納された各種の指令を実行する。また、プロセッサー41は、他の装置のメモリーに格納された各種の指令を実行する。   The processor 41 is a CPU. The processor 41 may be another processor such as an FPGA. The processor 41 executes various commands stored in the memory 32. Further, the processor 41 executes various commands stored in the memory of another device.

メモリー42は、例えば、HDD、SSD、EEPROM、ROM、RAM等を含む。すなわち、メモリー42は、一時的な記憶装置と、非一時的な記憶装置とを含む。なお、メモリー42は、情報処理装置PC2に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。メモリー42は、プロセッサー41又は他の装置のプロセッサーが処理する各種の情報、コンピューターにより実行可能な各種の指令(例えば、プログラム、コード等)、各種の画像等を格納する。   The memory 42 includes, for example, an HDD, SSD, EEPROM, ROM, RAM, and the like. That is, the memory 42 includes a temporary storage device and a non-temporary storage device. The memory 42 may be an external storage device connected by a digital input / output port such as a USB instead of the one built in the information processing apparatus PC2. The memory 42 stores various information processed by the processor 41 or the processor of another device, various commands (for example, programs, codes, etc.) executable by the computer, various images, and the like.

通信部44は、USB等のデジタル入出力ポート、イーサネット(登録商標)ポート等を含んで構成される。   The communication unit 44 includes a digital input / output port such as a USB, an Ethernet (registered trademark) port, and the like.

図2に示した情報処理装置PC3は、1つのプロセッサーであるプロセッサー51と、1つのメモリーであるメモリー52と、通信部54を備える。なお、情報処理装置PC3は、プロセッサー51に加えて、他のプロセッサーを備える構成であってもよい。また、情報処理装置PC3は、メモリー52に加えて、他のメモリーを備える構成であってもよい。   The information processing apparatus PC3 illustrated in FIG. 2 includes a processor 51 that is one processor, a memory 52 that is one memory, and a communication unit 54. The information processing apparatus PC3 may be configured to include another processor in addition to the processor 51. In addition to the memory 52, the information processing apparatus PC3 may be configured to include another memory.

情報処理装置PC3は、例えば、ワークステーション、デスクトップPC、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA等である。   The information processing apparatus PC3 is, for example, a workstation, a desktop PC, a notebook PC, a tablet PC, a multi-function mobile phone terminal (smartphone), an electronic book reader with a communication function, a PDA, or the like.

プロセッサー51は、CPUである。なお、プロセッサー51は、FPGA等の他のプロセッサーであってもよい。プロセッサー51は、メモリー52に格納された各種の指令を実行する。また、プロセッサー51は、他の装置のメモリーに格納された各種の指令を実行する。   The processor 51 is a CPU. The processor 51 may be another processor such as an FPGA. The processor 51 executes various commands stored in the memory 52. Further, the processor 51 executes various commands stored in the memory of another device.

メモリー52は、例えば、HDD、SSD、EEPROM、ROM、RAM等を含む。すなわち、メモリー52は、一時的な記憶装置と、非一時的な記憶装置とを含む。なお、メモリー52は、情報処理装置PC3に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。メモリー52は、プロセッサー51又は他の装置のプロセッサーが処理する各種の情報、コンピューターにより実行可能な各種の指令(例えば、プログラム、コード等)、各種の画像等を格納する。   The memory 52 includes, for example, HDD, SSD, EEPROM, ROM, RAM, and the like. That is, the memory 52 includes a temporary storage device and a non-temporary storage device. Note that the memory 52 may be an external storage device connected by a digital input / output port such as a USB instead of the one built in the information processing apparatus PC3. The memory 52 stores various information processed by the processor 51 or the processor of another device, various commands (for example, programs, codes, etc.) executable by the computer, various images, and the like.

通信部54は、USB等のデジタル入出力ポート、イーサネット(登録商標)ポート等を含んで構成される。   The communication unit 54 includes a digital input / output port such as a USB, an Ethernet (registered trademark) port, and the like.

図2に示した例では、情報処理装置PC1と、情報処理装置PC2とが無線又は有線によって互いに通信可能に接続されている。また、当該例では、情報処理装置PC1と、情報処理装置PC3とがLAN(Local Area Network)を介して無線又は有線によって互いに通信可能に接続されている。また、当該例では、情報処理装置PC2と、情報処理装置PC3とがLANを介して無線又は有線によって互いに通信可能に接続されている。   In the example illustrated in FIG. 2, the information processing apparatus PC1 and the information processing apparatus PC2 are connected to be communicable with each other by wireless or wired communication. Further, in this example, the information processing device PC1 and the information processing device PC3 are connected to be communicable with each other by wireless or wired via a LAN (Local Area Network). In this example, the information processing device PC2 and the information processing device PC3 are connected to be communicable with each other by a wireless or wired connection via a LAN.

また、図2に示した例では、ロボット制御装置30は、プロセッサー31と、プロセッサー41と、プロセッサー51のうちの少なくとも1つと、メモリー32と、メモリー42と、メモリー52のうちの少なくとも1つとによって構成される。プロセッサー31と、プロセッサー41と、プロセッサー51のうちの2つ以上によってロボット制御装置30が構成される場合、ロボット制御装置30を構成する当該2つ以上のプロセッサーは、通信部による通信を行うことにより、連携してロボット制御装置30の機能を実現する。また、当該場合、当該2つ以上のプロセッサーは、メモリー32と、メモリー42と、メモリー52のうちの少なくとも1つに格納された指令に基づいて、ロボット制御装置30の機能による処理を実行する。   In the example illustrated in FIG. 2, the robot control device 30 includes a processor 31, a processor 41, at least one of the processors 51, a memory 32, a memory 42, and at least one of the memories 52. Composed. When the robot control device 30 is configured by two or more of the processor 31, the processor 41, and the processor 51, the two or more processors constituting the robot control device 30 perform communication by the communication unit. In cooperation, the functions of the robot control device 30 are realized. In this case, the two or more processors execute processing based on the function of the robot control device 30 based on a command stored in at least one of the memory 32, the memory 42, and the memory 52.

なお、図2に示した例のように、ロボット制御装置30が複数の情報処理装置によって構成される場合、教示装置40は、当該複数の情報処理装置の少なくとも1つと通信可能に接続される。   Note that, as in the example illustrated in FIG. 2, when the robot control device 30 includes a plurality of information processing devices, the teaching device 40 is connected to be communicable with at least one of the plurality of information processing devices.

図1に戻る。ロボット制御装置30は、ロボット20を制御する。より具体的には、ロボット制御装置30は、例えば、メモリー32に予め記憶された動作プログラムに応じて、上記の対象物の一例である対象物Oに関する作業をロボット20に行わせる。図1に示した例では、対象物Oは、第1エンドエフェクターE1に予め保持されている。なお、対象物Oは、第2エンドエフェクターE2に予め保持されている構成であってもよく、第1エンドエフェクターE1及び第2エンドエフェクターE2の両方に予め保持されている構成であってもよい。以下では、一例として、図1に示した通り、対象物Oが第1エンドエフェクターE1によって予め保持されている場合について説明する。この場合、第1アームA1は、上記の第1可動部の一例である。なお、以下において説明する処理によって第1アームA1が行う動作は、第2アームA2によって行われてもよい。この場合、第2アームA2は、上記の第1可動部の一例である。また、以下において説明する処理によって第1アームA1が行う動作は、第1アームA1及び第2アームA2の両方によって行われてもよい。この場合、第1アームA1及び第2アームA2の両方は、第1可動部の一例である。   Returning to FIG. The robot control device 30 controls the robot 20. More specifically, the robot control device 30 causes the robot 20 to perform an operation related to the object O, which is an example of the object, according to an operation program stored in advance in the memory 32, for example. In the example shown in FIG. 1, the object O is held in advance by the first end effector E1. The object O may be configured to be held in advance by the second end effector E2, or may be configured to be stored in advance by both the first end effector E1 and the second end effector E2. . Hereinafter, as an example, a case where the object O is held in advance by the first end effector E1 as illustrated in FIG. 1 will be described. In this case, 1st arm A1 is an example of said 1st movable part. Note that the operation performed by the first arm A1 by the processing described below may be performed by the second arm A2. In this case, the second arm A2 is an example of the first movable part. Further, the operation performed by the first arm A1 by the processing described below may be performed by both the first arm A1 and the second arm A2. In this case, both the first arm A1 and the second arm A2 are examples of the first movable part.

対象物Oは、製品に組み付ける産業用の部品や部材である。図1に示した例では、対象物Oは、直方体形状の物体として表されている。なお、対象物Oは、産業用の部品や部材に代えて、日用品、生体等の他の物体であってもよい。また、対象物Oの形状は、直方体形状に代えて、円柱形状等の他の形状であってもよい。   The object O is an industrial part or member to be assembled into a product. In the example illustrated in FIG. 1, the object O is represented as a rectangular parallelepiped object. The object O may be another object such as a daily necessities or a living body instead of an industrial part or member. Further, the shape of the object O may be another shape such as a cylindrical shape instead of the rectangular parallelepiped shape.

ここで、ロボット制御装置30は、対象物Oに関する作業をロボット20に行わせる際、ロボット20を制御し、対象物Oの注目部分を第1撮像部C1〜第4撮像部C4のうちの一部又は全部に撮像させる。以下では、一例として、ロボット制御装置30が、当該注目部分を第3撮像部C3に撮像させる場合について説明する。従って、以下において説明する処理によって第3撮像部C3が行う動作は、第1撮像部C1、第2撮像部C2、第4撮像部C4のいずれかによって行われてもよく、第1撮像部C1〜第4撮像部C4のうちの2つ以上の撮像部によって行われてもよい。また、当該動作が当該2つ以上の撮像部によって行われる場合、当該動作として、当該2つ以上の撮像部によりステレオ撮像が行われてもよい。すなわち、当該場合、当該撮像部は、ステレオカメラである。   Here, when the robot control device 30 causes the robot 20 to perform an operation related to the object O, the robot control apparatus 30 controls the robot 20 so that the target portion of the object O is one of the first imaging unit C1 to the fourth imaging unit C4. Part or all are imaged. Hereinafter, as an example, a case will be described in which the robot control device 30 causes the third imaging unit C3 to image the target portion. Therefore, the operation performed by the third imaging unit C3 by the process described below may be performed by any one of the first imaging unit C1, the second imaging unit C2, and the fourth imaging unit C4, and the first imaging unit C1. -It may be performed by two or more imaging units of the fourth imaging unit C4. Further, when the operation is performed by the two or more imaging units, stereo imaging may be performed by the two or more imaging units as the operation. That is, in this case, the imaging unit is a stereo camera.

対象物Oの注目部分は、対象物Oの部分のうち対象物Oに関する作業に応じて決まる部分のことである。より具体的には、当該注目部分は、当該作業をロボット20に行わせる場合において、対象物Oの部分のうち、ロボット制御装置30が第3撮像部C3に撮像させる部分(すなわち、ユーザーが第3撮像部C3に撮像させたい所望の部分)を含む部分のことである。図3に示した例では、当該注目部分は、対象物Oが有する6つの面のうちの1つの面である。図3は、対象物Oの一例を示す図である。当該例では、図3に示した対象物Oの上面が注目部分FOとして表されている。   The target part of the object O is a part determined according to the work related to the object O in the part of the object O. More specifically, in the case where the robot 20 performs the work, the target portion is a portion that the robot control device 30 causes the third imaging unit C3 to image (ie, the user performs the first operation). 3 is a portion including a desired portion to be imaged by the imaging unit C3. In the example illustrated in FIG. 3, the target portion is one of the six surfaces of the object O. FIG. 3 is a diagram illustrating an example of the object O. In this example, the upper surface of the object O shown in FIG. 3 is represented as the target portion FO.

ロボット制御装置30は、第3撮像部C3に対象物Oの注目部分FOを撮像させる際、第1エンドエフェクターE1により対象物Oの注目部分FOを、第3撮像部C3の被写界深度の深度方向における範囲のうち第3撮像部C3の深度方向における焦点位置から当該深度方向における第3撮像部C3から最も遠い位置までの範囲である第1深度範囲内に動かして、第3撮像部C3に注目部分FOを含む領域を撮像させる。これにより、ロボット制御装置30は、第3撮像部C3に撮像された物体のうち対象物Oの注目部分FOが惚けずに撮像された撮像画像であって、第3撮像部C3に撮像された物体のうちの注目部分FO以外の部分のほとんどが惚けて撮像されている撮像画像を第3撮像部C3から取得することができる。その結果、ロボット制御装置30は、第3撮像部C3により撮像された撮像画像に基づいて、当該撮像画像における注目部分FO以外の部分を注目部分FOとして誤検出してしまうことを抑制するとともに、当該撮像画像における注目部分FOを精度よく検出することができる。   When the robot controller 30 causes the third imaging unit C3 to capture the target portion FO of the target object O, the first end effector E1 converts the target portion FO of the target object O to the depth of field of the third imaging unit C3. Of the range in the depth direction, the third imaging unit C3 is moved within a first depth range that is a range from the focal position in the depth direction of the third imaging unit C3 to the farthest position from the third imaging unit C3 in the depth direction. The region including the target portion FO is imaged. Thereby, the robot control device 30 is a captured image in which the target portion FO of the object O among the objects imaged by the third imaging unit C3 is captured without being lost, and is captured by the third imaging unit C3. A captured image in which most of the object other than the target portion FO is blurred and captured can be acquired from the third imaging unit C3. As a result, the robot control device 30 suppresses erroneous detection of a portion other than the target portion FO in the captured image as the target portion FO based on the captured image captured by the third imaging unit C3. The target portion FO in the captured image can be detected with high accuracy.

第3撮像部C3に対象物Oの注目部分FOを撮像させた後、ロボット制御装置30は、第3撮像部C3により撮像された撮像画像に基づいて、当該撮像画像から注目部分FOを検出する。ロボット制御装置30は、例えば、パターンマッチング等の処理によって、当該撮像画像から注目部分FOを検出する。そして、ロボット制御装置30は、検出した注目部分FOに応じた処理を行う。当該処理は、ロボット20の動作に関する処理である。具体的には、例えば、当該注目部分FOに応じた処理は、注目部分FOの表面に異物(傷、意図せずに形成されている凹凸、粉塵等)が存在しているか否かを判定する処理である。当該表面に異物が存在しているか否かを判定した後、ロボット制御装置30は、判定結果に応じた領域に対象物Oを載置する。この一例において、当該表面に異物が存在していないと判定した場合、ロボット制御装置30は、対象物Oを予め決められた図示しない給材領域に載置する。一方、当該表面に異物が存在していると判定した場合、ロボット制御装置30は、対象物Oを予め決められた図示しない除材領域に載置する。また、例えば、対象物Oが電動ドライバーであり、注目部分FOが当該電動ドライバーの先端であった場合、ロボット制御装置30は、検出した注目部分FOに応じた処理として、当該先端にネジが給材されているか否かを判定する処理を行う。ロボット制御装置30は、当該先端にネジが給材されていない場合、ロボット20を動作させ、当該先端にネジを給材させる。一方、当該先端にネジが給材されていた場合、ロボット20を動作させ、当該電動ドライバーによって当該ネジを予め決められた物体に締結する。また、例えば、対象物Oがプレートであり、注目部分FOが当該プレートに設けられたバーコード等のマーカーであった場合、ロボット制御装置30は、注目部分FOとして検出したマーカーが示す情報を当該マーカーから読み取る。そして、ロボット制御装置30は、読み取った当該情報に基づく処理を行う。なお、ロボット制御装置30が検出した注目部分FOに応じた処理は、ロボット20の動作に関する処理以外の他の処理であってもよい。また、ロボット20の動作に関する処理は、他の処理であってもよい。   After causing the third imaging unit C3 to capture the target portion FO of the object O, the robot control device 30 detects the target portion FO from the captured image based on the captured image captured by the third imaging unit C3. . The robot control device 30 detects the target portion FO from the captured image, for example, by processing such as pattern matching. Then, the robot control device 30 performs processing according to the detected target portion FO. This process is a process related to the operation of the robot 20. Specifically, for example, the process corresponding to the target portion FO determines whether or not foreign matter (scratches, unintentionally formed unevenness, dust, etc.) is present on the surface of the target portion FO. It is processing. After determining whether or not there is a foreign object on the surface, the robot control device 30 places the object O in an area corresponding to the determination result. In this example, when it is determined that there is no foreign object on the surface, the robot control device 30 places the object O in a predetermined material supply area (not shown). On the other hand, when it determines with the foreign material existing on the said surface, the robot control apparatus 30 mounts the target object O in the material removal area | region which is determined beforehand and which is not shown in figure. Further, for example, when the object O is an electric driver and the target portion FO is the tip of the electric driver, the robot control device 30 supplies a screw to the tip as processing according to the detected target portion FO. Processing to determine whether or not the material is used. When the screw is not supplied to the tip, the robot controller 30 operates the robot 20 to supply the screw to the tip. On the other hand, when a screw is supplied to the tip, the robot 20 is operated, and the screw is fastened to a predetermined object by the electric screwdriver. In addition, for example, when the object O is a plate and the target portion FO is a marker such as a barcode provided on the plate, the robot control device 30 displays the information indicated by the marker detected as the target portion FO. Read from the marker. Then, the robot control device 30 performs processing based on the read information. Note that the process corresponding to the target portion FO detected by the robot control device 30 may be a process other than the process related to the operation of the robot 20. Further, the process related to the operation of the robot 20 may be another process.

<ロボット制御装置の機能構成>
以下、図4を参照し、ロボット制御装置30の機能構成について説明する。図4は、ロボット制御装置30の機能構成の一例を示す図である。
<Functional configuration of robot controller>
Hereinafter, the functional configuration of the robot control device 30 will be described with reference to FIG. 4. FIG. 4 is a diagram illustrating an example of a functional configuration of the robot control device 30.

ロボット制御装置30は、メモリー32と、通信部34と、制御部36を備える。   The robot control device 30 includes a memory 32, a communication unit 34, and a control unit 36.

制御部36は、ロボット制御装置30の全体を制御する。制御部36は、撮像制御部361と、画像取得部363と、ロボット制御部365と、画像処理部367を備える。制御部36が備えるこれらの機能部は、例えば、プロセッサー31が、メモリー32に記憶された指令321、322等の各種の指令を実行することにより実現される。また、当該機能部のうちの一部又は全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   The control unit 36 controls the entire robot control device 30. The control unit 36 includes an imaging control unit 361, an image acquisition unit 363, a robot control unit 365, and an image processing unit 367. These functional units included in the control unit 36 are realized, for example, when the processor 31 executes various commands such as commands 321 and 322 stored in the memory 32. Also, some or all of the functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

撮像制御部361は、第1撮像部C1が撮像可能な範囲を第1撮像部C1に撮像させる。また、撮像制御部361は、第2撮像部C2が撮像可能な範囲を第2撮像部C2に撮像させる。また、撮像制御部361は、第3撮像部C3が撮像可能な範囲を第3撮像部C3に撮像させる。また、撮像制御部361は、第4撮像部C4が撮像可能な範囲を第4撮像部C4に撮像させる。   The imaging control unit 361 causes the first imaging unit C1 to image the range that can be captured by the first imaging unit C1. In addition, the imaging control unit 361 causes the second imaging unit C2 to image a range that can be captured by the second imaging unit C2. In addition, the imaging control unit 361 causes the third imaging unit C3 to image a range that can be captured by the third imaging unit C3. In addition, the imaging control unit 361 causes the fourth imaging unit C4 to image a range that can be captured by the fourth imaging unit C4.

画像取得部363は、第1撮像部C1が撮像した撮像画像を第1撮像部C1から取得する。また、画像取得部363は、第2撮像部C2が撮像した撮像画像を第2撮像部C2から取得する。また、画像取得部363は、第3撮像部C3が撮像した撮像画像を第3撮像部C3から取得する。また、画像取得部363は、第4撮像部C4が撮像した撮像画像を第4撮像部C4から取得する。   The image acquisition unit 363 acquires the captured image captured by the first imaging unit C1 from the first imaging unit C1. Further, the image acquisition unit 363 acquires a captured image captured by the second imaging unit C2 from the second imaging unit C2. Further, the image acquisition unit 363 acquires the captured image captured by the third imaging unit C3 from the third imaging unit C3. Further, the image acquisition unit 363 acquires the captured image captured by the fourth imaging unit C4 from the fourth imaging unit C4.

ロボット制御部365は、ロボット20を動作させる。   The robot control unit 365 operates the robot 20.

画像処理部367は、画像取得部363が取得した撮像画像に基づく画像処理を行う。例えば、画像処理部367は、当該撮像画像に対象物Oの注目部分FOが撮像されていた場合、当該撮像画像から注目部分FOを検出する。   The image processing unit 367 performs image processing based on the captured image acquired by the image acquisition unit 363. For example, when the target portion FO of the object O is captured in the captured image, the image processing unit 367 detects the target portion FO from the captured image.

<対象物を撮像部に撮像させるためにロボット制御装置が第1アームを動かす処理>
以下、図5を参照し、対象物Oを第3撮像部C3に撮像させるためにロボット制御装置30が第1アームA1を動かす処理について説明する。図5は、対象物Oを第3撮像部C3に撮像させるためにロボット制御装置30が第1アームA1を動かす処理の流れの一例を示す図である。なお、図5に示したフローチャートでは、図5に示したステップS110の処理が実行される前のタイミングにおいて、第1エンドエフェクターE1が対象物Oを既に保持している場合について説明する。
<Process in which the robot control device moves the first arm to cause the imaging unit to image the object>
Hereinafter, a process in which the robot control device 30 moves the first arm A1 in order to cause the third imaging unit C3 to image the object O will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of a flow of processing in which the robot control device 30 moves the first arm A1 in order to cause the third imaging unit C3 to image the object O. In the flowchart shown in FIG. 5, the case where the first end effector E1 already holds the object O at the timing before the process of step S110 shown in FIG. 5 is executed will be described.

ロボット制御部365は、メモリー32に予め記憶された撮像位置姿勢情報をメモリー32から読み出す(ステップS110)。撮像位置姿勢情報は、予め決められた位置及び姿勢である撮像位置及び撮像姿勢を示す情報のことである。また、撮像位置及び撮像姿勢は、第3撮像部C3によって対象物Oを撮像する際に、ロボット20が対象物Oの位置及び姿勢を一致させる位置及び姿勢のことである。この一例において、対象物Oの位置は、対象物Oの重心の位置によって表される。また、対象物Oの姿勢は、当該位置に対応付けられた三次元局所座標系における各座標軸のロボット座標系における方向によって表される。なお、ロボット制御部365がロボット20を制御し、対象物Oの位置及び姿勢を撮像位置及び撮像姿勢に一致させる方法は、既知の方法であってもよく、これから開発される方法であってもよい。   The robot control unit 365 reads the imaging position / orientation information stored in advance in the memory 32 from the memory 32 (step S110). The imaging position / orientation information is information indicating an imaging position and an imaging attitude that are predetermined positions and attitudes. Further, the imaging position and the imaging posture are positions and postures at which the robot 20 matches the position and posture of the object O when the third imaging unit C3 images the object O. In this example, the position of the object O is represented by the position of the center of gravity of the object O. Further, the posture of the object O is represented by the direction in the robot coordinate system of each coordinate axis in the three-dimensional local coordinate system associated with the position. Note that a method in which the robot control unit 365 controls the robot 20 so that the position and orientation of the object O coincide with the imaging position and imaging orientation may be a known method or a method that will be developed in the future. Good.

ここで、図6を参照し、撮像位置及び撮像姿勢について説明する。図6は、撮像位置及び撮像姿勢と位置及び姿勢が一致している状態の対象物Oの一例を示す図である。図6に示した例では、図が煩雑になるのを防ぐため、ロボット20については、第3撮像部C3及び第4撮像部C4以外の部分が省略されている。図6に示した矢印C3Aは、第3撮像部C3の光軸に沿った方向のうち第3撮像部C3の撮像素子から第3撮像部C3のレンズに向かう方向を示す矢印であり、すなわち、第3撮像部C3の被写界深度の深度方向を示す矢印である。また、図6に示した位置P1は、第3撮像部C3の当該深度方向における焦点位置を示す。また、図6に示した範囲DFは、第3撮像部C3の被写界深度の当該深度方向における範囲を示す。また、図6に示した位置P11は、範囲DF内の位置であって当該深度方向において最も第3撮像部C3から遠い位置のことである。すなわち、位置P11は、第3撮像部C3の被写界深度の深度方向における範囲内の位置のうち、第3撮像部C3から最も離れた位置を示す。また、図6に示した範囲DF1は、当該深度方向における範囲であって位置P1から位置P11までの範囲である第1深度範囲を示す。また、図6に示した位置P12は、範囲DF内の位置であって当該深度方向において最も第3撮像部C3に近い位置のことである。すなわち、位置P12は、第3撮像部C3の被写界深度の深度方向における範囲内の位置のうち、第3撮像部C3に最も近い位置を示す。また、図6に示した範囲DF2は、当該深度方向における範囲であって位置P1から位置P12までの範囲である第2深度範囲を示す。図6に示した例では、第1深度範囲である範囲DF1と第2深度範囲である範囲DF2との比率は、範囲DF1:範囲DF2=2:1であるが、これに代えて、他の比率であってもよい。   Here, an imaging position and an imaging posture will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of the object O in a state where the imaging position and the imaging posture are in the same position and orientation. In the example illustrated in FIG. 6, portions other than the third imaging unit C3 and the fourth imaging unit C4 are omitted from the robot 20 in order to prevent the diagram from becoming complicated. The arrow C3A illustrated in FIG. 6 is an arrow indicating a direction from the image sensor of the third imaging unit C3 toward the lens of the third imaging unit C3 among the directions along the optical axis of the third imaging unit C3. It is an arrow which shows the depth direction of the depth of field of the 3rd imaging part C3. A position P1 illustrated in FIG. 6 indicates a focal position in the depth direction of the third imaging unit C3. A range DF illustrated in FIG. 6 indicates a range in the depth direction of the depth of field of the third imaging unit C3. A position P11 illustrated in FIG. 6 is a position within the range DF and a position farthest from the third imaging unit C3 in the depth direction. That is, the position P11 indicates the position farthest from the third imaging unit C3 among the positions within the range in the depth direction of the depth of field of the third imaging unit C3. A range DF1 illustrated in FIG. 6 indicates a first depth range that is a range in the depth direction and is a range from the position P1 to the position P11. Further, a position P12 illustrated in FIG. 6 is a position within the range DF and the position closest to the third imaging unit C3 in the depth direction. That is, the position P12 indicates the position closest to the third imaging unit C3 among the positions within the range in the depth direction of the depth of field of the third imaging unit C3. A range DF2 illustrated in FIG. 6 indicates a second depth range that is a range in the depth direction and is a range from the position P1 to the position P12. In the example shown in FIG. 6, the ratio of the range DF1 that is the first depth range and the range DF2 that is the second depth range is the range DF1: range DF2 = 2: 1. It may be a ratio.

この一例において、撮像位置は、対象物Oの位置のうち、対象物Oの位置が撮像位置と一致した場合において、第3撮像部C3が対象物Oを撮像可能な位置のことである。また、撮像位置は、対象物Oの位置のうち、当該場合において、対象物Oの注目部分FOの全体が前述の範囲DF1に含まれる位置のことである。なお、撮像位置は、当該場合において、対象物Oの注目部分FOの一部が範囲DF1に含まれる位置であってもよい。また、撮像位置は、第3撮像部C3の被写界深度の深度方向において位置P1に近いよりも位置P11に近い方が望ましい。また、撮像位置は、対象物Oの位置のうち、当該場合において、第1エンドエフェクターE1及び対象物Oの両方が他の物体(例えば、第3撮像部C3)に干渉しない位置であることが望ましい。   In this example, the imaging position is a position where the third imaging unit C3 can image the object O when the position of the object O matches the imaging position among the positions of the object O. In addition, the imaging position is a position in which the entire target portion FO of the object O is included in the above-described range DF1 among the positions of the object O. In this case, the imaging position may be a position where a part of the target portion FO of the object O is included in the range DF1. The imaging position is preferably closer to the position P11 than to the position P1 in the depth direction of the depth of field of the third imaging unit C3. In addition, the imaging position may be a position where both the first end effector E1 and the object O do not interfere with other objects (for example, the third imaging unit C3) among the positions of the object O. desirable.

また、この一例において、撮像姿勢は、対象物Oの姿勢のうち、対象物Oの位置及び姿勢が撮像位置及び撮像姿勢と一致した場合において、第3撮像部C3が対象物Oの注目部分FOの全体を撮像可能な姿勢のことである。なお、撮像姿勢は、対象物Oの姿勢のうち、当該場合において、第3撮像部C3が対象物Oの注目部分FOの一部を撮像可能な姿勢であってもよい。また、撮像姿勢は、対象物Oの姿勢のうち、当該場合において、第1エンドエフェクターE1及び対象物Oの両方が他の物体(例えば、第3撮像部C3)に干渉しない姿勢であることが望ましい。   Further, in this example, the imaging posture is determined by the third imaging unit C3 when the position and orientation of the object O coincides with the imaging position and orientation in the orientation of the object O. It is a posture capable of imaging the whole. Note that the imaging posture may be a posture in which, in this case, the third imaging unit C3 can capture a part of the target portion FO of the target object O among the postures of the target object O. In addition, the imaging posture may be a posture in which both the first end effector E1 and the target object O do not interfere with other objects (for example, the third imaging unit C3) among the postures of the target object O. desirable.

このような撮像位置及び撮像姿勢に対象物Oの位置及び姿勢が一致した場合、対象物Oの注目部分FOは、第3撮像部C3によって惚けずに撮像される。また、当該場合、第3撮像部C3によって撮像可能な物体のうち対象物O以外の物体(又は注目部分FO以外の物体)の少なくとも一部は、第3撮像部C3によって惚けて撮像される。これにより、ロボット制御装置30は、第3撮像部C3により撮像された撮像画像に基づいて、当該撮像画像における注目部分FO以外の部分を注目部分FOとして誤検出してしまうことを抑制するとともに、当該撮像部における注目部分FOを精度よく検出することができる。このように、ある撮像部(この一例において、第3撮像部C3)の被写界深度の深度方向における範囲のうちの第1深度範囲(この一例において、範囲DF1)に対象物Oの注目部分FOが含まれている場合における当該撮像部と対象物Oとの相対的な位置関係を、以下では、説明の便宜上、撮像位置関係と称して説明する。   When the position and orientation of the object O coincide with such an imaging position and orientation, the target portion FO of the object O is imaged without being lost by the third imaging unit C3. In this case, at least a part of an object other than the target object O (or an object other than the target portion FO) among objects that can be imaged by the third imaging unit C3 is captured by the third imaging unit C3. Thereby, the robot control apparatus 30 suppresses erroneously detecting a part other than the target part FO in the captured image as the target part FO based on the captured image captured by the third imaging unit C3. The target portion FO in the imaging unit can be detected with high accuracy. Thus, the target portion of the object O in the first depth range (the range DF1 in this example) of the range in the depth direction of the depth of field of a certain imaging unit (in this example, the third imaging unit C3). Hereinafter, the relative positional relationship between the imaging unit and the object O in the case where the FO is included will be described as an imaging positional relationship for convenience of explanation.

なお、ロボット制御装置30が第3撮像部C3と第4撮像部C4によって対象物Oの注目部分FOをステレオ撮像させる場合、第3撮像部C3と第4撮像部C4それぞれの焦点位置であって被写界深度の深度方向における焦点位置は、当該深度方向に直交する方向から見た場合にほぼ一致していることが望ましい。また、当該場合、第3撮像部C3と第4撮像部C4それぞれの被写界深度の深度方向における範囲のうちの第1深度範囲は、少なくとも一部分が重なっていることが望ましい。   In addition, when the robot control device 30 causes the third imaging unit C3 and the fourth imaging unit C4 to perform stereo imaging of the target portion FO of the object O, the focal positions of the third imaging unit C3 and the fourth imaging unit C4 are set. It is desirable that the focal positions in the depth direction of the depth of field substantially match when viewed from a direction orthogonal to the depth direction. In this case, it is desirable that at least a part of the first depth range of the ranges in the depth direction of the depth of field of the third imaging unit C3 and the fourth imaging unit C4 overlap each other.

図5に戻る。ステップS110の処理が行われた後、ロボット制御部365は、第1アームA1を動作させ、対象物Oの位置及び姿勢を、ステップS110においてメモリー32から読み出した撮像位置姿勢情報が示す撮像位置及び撮像姿勢と一致させる(ステップS120)。   Returning to FIG. After the processing of step S110 is performed, the robot control unit 365 operates the first arm A1, and the position and orientation of the object O are captured by the imaging position and orientation indicated by the imaging position and orientation information read from the memory 32 in step S110. The imaging posture is matched (step S120).

次に、撮像制御部361は、第3撮像部C3が撮像可能な範囲を第3撮像部C3に撮像させる(ステップS130)。   Next, the imaging control unit 361 causes the third imaging unit C3 to image the range that can be imaged by the third imaging unit C3 (step S130).

次に、画像取得部363は、ステップS130において第3撮像部C3が撮像した撮像画像を第3撮像部C3から取得する(ステップS140)。   Next, the image acquisition unit 363 acquires the captured image captured by the third imaging unit C3 in step S130 from the third imaging unit C3 (step S140).

次に、画像処理部367は、ステップS140において画像取得部363が取得した撮像画像に基づいて、当該撮像画像に撮像された注目部分FOを検出する(ステップS150)。ここで、当該撮像画像には、対象物O以外の物体が惚けて撮像されている。このため、画像処理部367は、ステップS150において、当該撮像画像における注目部分FO以外の部分を注目部分FOとして誤検出してしまうことを抑制するとともに、当該撮像画像における注目部分FOを精度よく検出することができる。   Next, based on the captured image acquired by the image acquisition unit 363 in step S140, the image processing unit 367 detects a target portion FO captured in the captured image (step S150). Here, in the captured image, an object other than the object O is blurred and captured. For this reason, in step S150, the image processing unit 367 suppresses erroneous detection of a part other than the target part FO in the captured image as the target part FO and accurately detects the target part FO in the captured image. can do.

次に、画像処理部367とロボット制御部365は、ステップS150において検出された注目部分FOに応じた処理を、所定の処理として行う(ステップS160)。例えば、画像処理部367は、当該注目部分FOに基づいて、実際の注目部分FOの表面に異物(傷、意図せずに形成されている凹凸、粉塵等)が存在しているか否かを判定する。そして、ロボット制御部365は、画像処理部367による判定結果に応じた領域に対象物Oを載置する。なお、ステップS160の処理は、ロボット制御部365によって全ての処理が行われる構成であってもよい。また、ステップS160の処理は、画像処理部367による判定処理が行われ、ロボット制御部365による対象物Oの載置処理が行われない構成であってもよい。ステップS160の処理が行われた後、ロボット制御部365は、処理を終了する。   Next, the image processing unit 367 and the robot control unit 365 perform processing corresponding to the target portion FO detected in step S150 as predetermined processing (step S160). For example, the image processing unit 367 determines, based on the target portion FO, whether or not foreign matter (scratches, unintentionally formed unevenness, dust, etc.) is present on the surface of the actual target portion FO. To do. Then, the robot control unit 365 places the object O in an area corresponding to the determination result by the image processing unit 367. Note that the processing in step S160 may be configured such that all processing is performed by the robot control unit 365. Further, the process of step S160 may be configured such that the determination process by the image processing unit 367 is performed and the placement process of the object O by the robot control unit 365 is not performed. After the process of step S160 is performed, the robot control unit 365 ends the process.

なお、ロボット制御装置30は、ロボット20を制御し、ロボット座標系において位置及び姿勢が変化しないように設置された(固定された)対象物Oに対して第1撮像部C1と第2撮像部C2の少なくとも一方の撮像部を相対的に移動させ、対象物Oと当該撮像部との相対的な位置関係を前述の撮像位置関係と一致させる構成であってもよい。   Note that the robot control device 30 controls the robot 20, and the first imaging unit C1 and the second imaging unit with respect to the object O that is installed (fixed) so that the position and orientation thereof do not change in the robot coordinate system. The configuration may be such that at least one of the imaging units of C2 is relatively moved so that the relative positional relationship between the object O and the imaging unit matches the above-described imaging positional relationship.

また、ロボット制御装置30は、ロボット20を制御し、ロボット座標系において位置及び姿勢が変化しないように設置された(固定された)撮像部であってロボット20と別体の撮像部に対して対象物Oを相対的に移動させ、対象物Oと当該撮像部との相対的な位置関係を撮像位置関係と一致させる構成であってもよい。   The robot control device 30 controls the robot 20 and is an imaging unit installed (fixed) so as not to change its position and posture in the robot coordinate system. The configuration may be such that the object O is relatively moved so that the relative positional relationship between the object O and the imaging unit matches the imaging positional relationship.

また、ロボット制御装置30は、ロボット20を制御し、第2アームA2が備える第2撮像部C2と、第1アームA1により保持された対象物Oとの少なくとも一方を移動させ、第2撮像部C2と対象物Oとの相対的な位置関係を前述の撮像位置関係と一致させる構成であってもよい。この場合、第2アームA2は、第2可動部の一例である。   In addition, the robot control device 30 controls the robot 20 to move at least one of the second imaging unit C2 provided in the second arm A2 and the object O held by the first arm A1, and the second imaging unit. A configuration in which the relative positional relationship between C2 and the object O matches the above-described imaging positional relationship may be employed. In this case, the second arm A2 is an example of a second movable part.

また、ロボット制御装置30は、ロボット20を制御し、支持台上部B2が備える第3撮像部C3と、第1アームA1により保持された対象物Oとの少なくとも一方を移動させ、対象物Oと第3撮像部C3との相対的な位置関係を前述の撮像位置関係と一致させる構成であってもよい。この場合、支持台上部B2は、第2可動部の一例である。   The robot control device 30 controls the robot 20 to move at least one of the third imaging unit C3 provided in the upper support base B2 and the object O held by the first arm A1, and The relative positional relationship with the third imaging unit C3 may be configured to match the above-described imaging positional relationship. In this case, the support base upper part B2 is an example of a second movable part.

また、第3撮像部C3がオートフォーカス機能を有している場合、ロボット制御装置30は、対象物Oの位置及び姿勢を撮像位置及び撮像姿勢と一致させた後、対象物Oの注目部分FOを含む領域に焦点を合わせた後、第3撮像部C3の被写界深度の深度方向における当該焦点の位置を予め決められた距離当該深度方向と逆方向に移動させる構成であってもよい。   When the third imaging unit C3 has an autofocus function, the robot control device 30 matches the position and orientation of the object O with the imaging position and orientation, and then the target portion FO of the object O. After focusing on the area including, the position of the focus in the depth direction of the depth of field of the third imaging unit C3 may be moved in a direction opposite to the depth direction by a predetermined distance.

<実施形態の変形例>
以下、図7を参照し、実施形態の変形例について説明する。なお、実施形態の変形例では、実施形態と同様な構成部に対して同じ符号を付して説明を省略する。
<Modification of Embodiment>
Hereinafter, a modified example of the embodiment will be described with reference to FIG. In addition, in the modification of embodiment, the same code | symbol is attached | subjected with respect to the structure part similar to embodiment, and description is abbreviate | omitted.

図7は、実施形態の変形例に係るロボットシステム2の一例を示す構成図である。実施形態の変形例では、ロボットシステム2は、単腕ロボットであるロボット20aと、ロボット20aと別体の撮像部C5と、ロボット20aと別体のロボット制御装置30を備える。そして、ロボット制御装置30は、ロボット20aと無線又は有線によって互いに通信可能に接続される。なお、ロボットシステム2では、ロボット制御装置30は、ロボット20aに内蔵される構成であってもよい。また、ロボットシステム2では、撮像部C5は、ロボット20aに備えられる構成であってもよい。   FIG. 7 is a configuration diagram illustrating an example of a robot system 2 according to a modification of the embodiment. In a modification of the embodiment, the robot system 2 includes a robot 20a that is a single-arm robot, an imaging unit C5 that is separate from the robot 20a, and a robot control device 30 that is separate from the robot 20a. The robot control device 30 is connected to the robot 20a so that they can communicate with each other wirelessly or by wire. In the robot system 2, the robot control device 30 may be configured to be built in the robot 20a. In the robot system 2, the imaging unit C5 may be configured to be included in the robot 20a.

<ロボットシステムの構成>
以下、図7を参照し、ロボットシステム2の構成について説明する。
<Robot system configuration>
Hereinafter, the configuration of the robot system 2 will be described with reference to FIG.

ロボット20aは、第3アームA3と、第3アームA3を支持する支持台B3を備える単腕ロボットである。   The robot 20a is a single-arm robot including a third arm A3 and a support base B3 that supports the third arm A3.

第3アームA3は、第3エンドエフェクターE3と、第3マニピュレーターM3を備える。
第3エンドエフェクターE3は、物体を保持するエンドエフェクターである。この一例において、第3エンドエフェクターE3は、指部を備え、当該指部によって物体を挟んで持つことにより当該物体を保持する。なお、第3エンドエフェクターE3は、これに代えて、空気の吸引や磁力、他の治具等によって物体を持ち上げることにより当該物体を保持する構成であってもよい。図7に示した例では、対象物Oは、実施形態におけるロボット20の第1エンドエフェクターE1に代えて、第3エンドエフェクターE3に予め保持されている。
The third arm A3 includes a third end effector E3 and a third manipulator M3.
The third end effector E3 is an end effector that holds an object. In this example, the third end effector E3 includes a finger part, and holds the object by holding the object by the finger part. Alternatively, the third end effector E3 may be configured to hold the object by lifting the object by air suction, magnetic force, another jig, or the like. In the example illustrated in FIG. 7, the object O is held in advance by the third end effector E3 instead of the first end effector E1 of the robot 20 in the embodiment.

第3エンドエフェクターE3は、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、第3エンドエフェクターE3は、ロボット制御装置30から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、第3エンドエフェクターE3は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The third end effector E3 is communicably connected to the robot controller 30 via a cable. Accordingly, the third end effector E3 performs an operation based on the control signal acquired from the robot control device 30. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB. The third end effector E3 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

第3マニピュレーターM3は、6つの関節を備える。また、6つの関節はそれぞれ、図示しないアクチュエーターを備える。すなわち、第3マニピュレーターM3を備える第3アームA3は、6軸垂直多関節型のアームである。なお、第3アームA3は、これに代えて、6軸水平多関節型のアームであってもよい。第3アームA3は、支持台B3と、第3エンドエフェクターE3と、第3マニピュレーターM3と、第3マニピュレーターM3が備える6つの関節それぞれのアクチュエーターとによる連携した動作によって6軸の自由度の動作を行う。なお、第3アームA3は、5軸以下の自由度で動作する構成であってもよく、7軸以上の自由度で動作する構成であってもよい。   The third manipulator M3 includes six joints. Each of the six joints includes an actuator (not shown). That is, the third arm A3 including the third manipulator M3 is a 6-axis vertical articulated arm. Alternatively, the third arm A3 may be a six-axis horizontal articulated arm instead. The third arm A3 performs a motion with six degrees of freedom by a coordinated operation by the support base B3, the third end effector E3, the third manipulator M3, and the actuators of each of the six joints included in the third manipulator M3. Do. The third arm A3 may be configured to operate with a degree of freedom of 5 axes or less, or may be configured to operate with a degree of freedom of 7 axes or more.

第3マニピュレーターM3が備える6つの(関節に備えられた)アクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第3マニピュレーターM3を動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、第3マニピュレーターM3が備える6つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   Each of the six actuators (provided at the joints) included in the third manipulator M3 is communicably connected to the robot controller 30 via a cable. Accordingly, the actuator operates the third manipulator M3 based on the control signal acquired from the robot control device 30. Note that wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. Further, some or all of the six actuators included in the third manipulator M3 may be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). Good.

撮像部C5は、例えば、CCD、CMOS等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。この一例において、撮像部C5は、第3アームA3の可動範囲の少なくとも一部を撮像可能な位置に設置される。この際、撮像部C5は、ロボット座標系における撮像部の位置及び姿勢が動かないように固定される。当該可動範囲は、この一例において、第3エンドエフェクターE3が第3マニピュレーターM3の動作によって移動可能な範囲のことである。なお、当該可動範囲は、これに代えて、第3アームA3に応じた他の範囲であってもよい。撮像部C5は、当該範囲の二次元画像を撮像する。なお、撮像部C5は、当該範囲の静止画像を撮像する構成であってもよく、当該範囲の動画像を撮像する構成であってもよい。   The imaging unit C5 is a camera including, for example, a CCD, a CMOS, or the like as an imaging device that converts collected light into an electrical signal. In this example, the imaging unit C5 is installed at a position where at least a part of the movable range of the third arm A3 can be imaged. At this time, the imaging unit C5 is fixed so that the position and orientation of the imaging unit in the robot coordinate system do not move. In this example, the movable range is a range in which the third end effector E3 can move by the operation of the third manipulator M3. In addition, the said movable range may replace with this and the other range according to 3rd arm A3 may be sufficient. The imaging unit C5 captures a two-dimensional image in the range. Note that the imaging unit C5 may be configured to capture a still image in the range, or may be configured to capture a moving image in the range.

撮像部C5は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、撮像部C5は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。   The imaging unit C5 is communicably connected to the robot control device 30 via a cable. Wired communication via a cable is performed according to standards such as Ethernet (registered trademark) and USB, for example. The imaging unit C5 may be configured to be connected to the robot control device 30 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

ロボットシステム2では、ロボット制御装置30は、実施形態におけるロボット20の第1アームA1に代えて、ロボット20aの第3アームA3を動作させる。また、ロボット制御装置30は、ロボット20の第3撮像部C3に代えて、撮像部C5に対象物Oの注目部分FOを含む領域を撮像させる。すなわち、ロボット制御装置30は、第3アームA3を動作させ、ロボット座標系において位置及び姿勢が変化しないように設置された(固定された)撮像部C5に対して対象物Oを相対的に移動させ、対象物Oと撮像部C5との相対的な位置関係を前述の撮像位置関係と一致させる。これにより、ロボット制御装置30は、撮像部C5により撮像された撮像画像に基づいて、当該撮像画像における注目部分FO以外の部分を注目部分FOとして誤検出してしまうことを抑制するとともに、当該撮像画像における注目部分FOを精度よく検出することができる。   In the robot system 2, the robot control device 30 operates the third arm A3 of the robot 20a instead of the first arm A1 of the robot 20 in the embodiment. Further, the robot control device 30 causes the imaging unit C5 to capture an area including the target portion FO of the object O instead of the third imaging unit C3 of the robot 20. That is, the robot control device 30 moves the object O relative to the imaging unit C5 installed (fixed) by operating the third arm A3 so that the position and orientation thereof do not change in the robot coordinate system. The relative positional relationship between the object O and the imaging unit C5 is matched with the above-described imaging positional relationship. Accordingly, the robot control device 30 suppresses erroneous detection of a part other than the target part FO in the captured image as the target part FO based on the captured image captured by the imaging unit C5, and the imaging The target portion FO in the image can be detected with high accuracy.

なお、ロボット制御装置30は、ロボット20aを制御し、ロボット座標系において位置及び姿勢が変化しないように設置された(固定された)対象物Oに対して、第3エンドエフェクターE3により保持された撮像部C5を相対的に移動させ、対象物Oと撮像部C5との相対的な位置関係を撮像位置関係と一致させる構成であってもよい。   Note that the robot control device 30 controls the robot 20a and is held by the third end effector E3 with respect to the target object O (fixed) installed (fixed) so that the position and posture thereof do not change in the robot coordinate system. The imaging unit C5 may be relatively moved so that the relative positional relationship between the object O and the imaging unit C5 matches the imaging positional relationship.

以上のように、ロボット制御装置30は、第1可動部(上記において説明した例では、第1エンドエフェクターE1、第2エンドエフェクターE2、第3エンドエフェクターE3)により対象物(上記において説明した例では、対象物O)の注目部分(上記において説明した例では、注目部分FO)を、撮像部(上記において説明した例では、第1撮像部C1、第2撮像部C2、第3撮像部C3、第4撮像部C4、撮像部C5)の被写界深度の深度方向における範囲(上記において説明した例では、範囲DF)のうち撮像部の深度方向における焦点位置(上記において説明した例では、位置P1)から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲(上記において説明した例では、範囲DF1)内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置30は、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。   As described above, the robot control device 30 uses the first movable part (in the example described above, the first end effector E1, the second end effector E2, and the third end effector E3) to execute the target (the example described above). Then, the target portion of the object O) (the target portion FO in the example described above) is changed to the imaging unit (in the example described above, the first imaging unit C1, the second imaging unit C2, and the third imaging unit C3). , The focal position in the depth direction of the imaging unit (in the example described above, in the range DF in the example described above) in the depth direction of the depth of field of the fourth imaging unit C4 and imaging unit C5) Moving within a first depth range (range DF1 in the example described above) that is a range from the position P1) to the farthest position from the imaging unit in the depth direction, Thereby imaging an area including the target portion to the image portion. Thereby, the robot control apparatus 30 can detect the attention part of the target object in the said imaging part accurately based on the captured image imaged by the imaging part.

また、ロボット制御装置30は、第1可動部により対象物の注目部分を、ロボット座標系における撮像部の位置及び姿勢が動かないように固定されている撮像部(上記において説明した例では、撮像部C5)の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向において撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置30は、ロボット座標系における撮像部の位置及び姿勢が動かないように固定されている撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。   In addition, the robot control device 30 is configured to capture the target portion of the target by the first movable unit so that the position and orientation of the imaging unit in the robot coordinate system do not move (in the example described above, imaging is performed). Part C5) is moved into a first depth range which is a range from a focal position in the depth direction of the imaging unit to a position farthest from the imaging unit in the depth direction in the range in the depth direction of the depth of field, The region including the part of interest is imaged. Thereby, the robot control device 30 determines the target portion of the target in the imaging unit based on the captured image captured by the imaging unit fixed so that the position and orientation of the imaging unit in the robot coordinate system do not move. It can be detected with high accuracy.

また、ロボット制御装置30は、第2可動部(この一例において、第1エンドエフェクターE1と第2エンドエフェクターE2とのうち第1可動部の一例ではない方、支持台上部B2)により撮像部を対象物に対して相対的に動かす。これにより、ロボット制御装置は、第2可動部により対象物に対して相対的に動かした撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。   Further, the robot control device 30 uses the second movable part (in this example, the first end effector E1 and the second end effector E2 which are not examples of the first movable part, the support base upper part B2). Move relative to the object. Accordingly, the robot control device can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit moved relative to the target by the second movable unit. Can do.

また、ロボット制御装置30は、ステレオカメラである撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向において撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置30は、ステレオカメラである撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。   The robot control device 30 is a range from a focal position in the depth direction of the imaging unit to a position farthest from the imaging unit in the depth direction in a range in the depth direction of the depth of field of the imaging unit which is a stereo camera. The image is moved within the first depth range, and the imaging unit is caused to image a region including the target portion. Thereby, the robot control apparatus 30 can detect the attention part of the target object in the said imaging part accurately based on the captured image imaged by the imaging part which is a stereo camera.

また、ロボット制御装置30は、撮像部により撮像された撮像画像に含まれる対象物の注目部分を検出する。これにより、ロボット制御装置30は、当該撮像画像から検出した注目部分に関する作業をロボット(この一例において、ロボット20、ロボット20a)に精度よく行わせることができる。   Further, the robot control device 30 detects a target portion of the target object included in the captured image captured by the imaging unit. Thereby, the robot control device 30 can cause the robot (the robot 20 and the robot 20a in this example) to perform the work related to the target portion detected from the captured image with high accuracy.

また、ロボット制御装置30は、撮像画像から検出した注目部分に応じた処理を行う。これにより、ロボット制御装置30は、撮像画像から検出した注目部分に応じた処理を精度よく行うことができる。   In addition, the robot control device 30 performs processing according to the target portion detected from the captured image. Thereby, the robot control apparatus 30 can perform the process according to the attention part detected from the captured image with high precision.

また、ロボット制御装置30は、撮像画像から検出した注目部分に応じて、ロボットの動作に関する処理を行う。これにより、ロボット制御装置30は、ロボットの動作に関する処理を精度よく行うことができる。   Further, the robot control device 30 performs processing related to the operation of the robot in accordance with the target portion detected from the captured image. Thereby, the robot control apparatus 30 can perform the process regarding the operation of the robot with high accuracy.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.

また、以上に説明した装置(例えば、ロボット制御装置30)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   Further, a program for realizing the function of an arbitrary component in the above-described apparatus (for example, robot control apparatus 30) is recorded on a computer-readable recording medium, and the program is read into a computer system and executed. You may make it do. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD (Compact Disk) -ROM, or a storage device such as a hard disk built in the computer system. . Furthermore, “computer-readable recording medium” means a volatile memory (RAM) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1、2…ロボットシステム、20、20a…ロボット、30…ロボット制御装置、31、41、51…プロセッサー、32、42、52…メモリー、34、44、54…通信部、321、322…指令、361…撮像制御部、363…画像取得部、365…ロボット制御部、367…画像処理部、A1…第1アーム、A2…第2アーム、A3…第3アーム、B、B3…支持台、C1…第1撮像部、C2…第2撮像部、C3…第3撮像部、C4…第4撮像部、C5…撮像部、E1…第1エンドエフェクター、E2…第2エンドエフェクター、E3…第3エンドエフェクター、M1…第1マニピュレーター、M2…第2マニピュレーター、M3…第3マニピュレーター、O…対象物、PC1、PC2、PC3…情報処理装置 DESCRIPTION OF SYMBOLS 1, 2 ... Robot system 20, 20a ... Robot, 30 ... Robot control apparatus 31, 41, 51 ... Processor, 32, 42, 52 ... Memory, 34, 44, 54 ... Communication part, 321, 322 ... Command, 361 ... Image pickup control unit, 363 ... Image acquisition unit, 365 ... Robot control unit, 367 ... Image processing unit, A1 ... First arm, A2 ... Second arm, A3 ... Third arm, B, B3 ... Support base, C1 ... 1st imaging part, C2 ... 2nd imaging part, C3 ... 3rd imaging part, C4 ... 4th imaging part, C5 ... Imaging part, E1 ... 1st end effector, E2 ... 2nd end effector, E3 ... 3rd End effector, M1 ... first manipulator, M2 ... second manipulator, M3 ... third manipulator, O ... object, PC1, PC2, PC3 ... information processing device

Claims (11)

対象物を動かす第1可動部を備えたロボットを制御するロボット制御装置であって、
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、
ロボット制御装置。
A robot control apparatus for controlling a robot having a first movable part that moves an object,
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit Moving within a first depth range that is a range up to, causing the imaging unit to image a region including the portion of interest,
Robot control device.
前記撮像部は、ロボット座標系における前記撮像部の位置及び姿勢が動かないように固定されている、
請求項1に記載のロボット制御装置。
The imaging unit is fixed so that the position and orientation of the imaging unit in a robot coordinate system do not move.
The robot control apparatus according to claim 1.
第2可動部により前記撮像部を前記対象物に対して相対的に動かす、
請求項1に記載のロボット制御装置。
Moving the imaging unit relative to the object by a second movable unit;
The robot control apparatus according to claim 1.
前記撮像部は、ステレオカメラである、
請求項1から3のうちいずれか一項に記載のロボット制御装置。
The imaging unit is a stereo camera.
The robot control apparatus according to any one of claims 1 to 3.
前記撮像部により撮像された撮像画像に含まれる前記注目部分を検出する、
請求項1から4のうちいずれか一項に記載のロボット制御装置。
Detecting the part of interest included in the captured image captured by the imaging unit;
The robot control apparatus according to any one of claims 1 to 4.
前記撮像画像から検出した前記注目部分に応じた処理を行う、
請求項5に記載のロボット制御装置。
Performing processing according to the target portion detected from the captured image;
The robot control apparatus according to claim 5.
前記撮像画像から検出した前記注目部分に応じて、前記ロボットの動作に関する処理を行う、
請求項6に記載のロボット制御装置。
Depending on the portion of interest detected from the captured image, processing related to the operation of the robot is performed.
The robot control device according to claim 6.
対象物を動かす第1可動部を備え、
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、
ロボット。
A first movable part for moving the object;
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit Moving within a first depth range that is a range up to, causing the imaging unit to image a region including the portion of interest,
robot.
対象物を動かす第1可動部を備えたロボットと、前記ロボットを制御するロボット制御装置とを備えるロボットシステムであって、
前記ロボット制御装置は、
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、
ロボットシステム。
A robot system comprising a robot having a first movable part that moves an object, and a robot control device that controls the robot,
The robot controller is
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit Moving within a first depth range that is a range up to, causing the imaging unit to image a region including the portion of interest,
Robot system.
対象物を動かす第1可動部を備えたロボットを制御するロボット制御方法であって、
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、
ロボット制御方法。
A robot control method for controlling a robot having a first movable part that moves an object,
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit Moving within a first depth range that is a range up to, causing the imaging unit to image a region including the portion of interest,
Robot control method.
対象物を動かす第1可動部を備えたロボットを制御するロボット制御装置であって、
プロセッサーを備え、
前記プロセッサーは、
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる指令を実行するように構成されていることを特徴する、
ロボット制御装置。
A robot control apparatus for controlling a robot having a first movable part that moves an object,
With a processor,
The processor is
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit It is configured to move within a first depth range that is a range up to and to execute a command to cause the imaging unit to image a region including the target portion.
Robot control device.
JP2017158465A 2017-08-21 2017-08-21 Robot control device, robot, robot system, and robot control method Pending JP2019034386A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017158465A JP2019034386A (en) 2017-08-21 2017-08-21 Robot control device, robot, robot system, and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017158465A JP2019034386A (en) 2017-08-21 2017-08-21 Robot control device, robot, robot system, and robot control method

Publications (1)

Publication Number Publication Date
JP2019034386A true JP2019034386A (en) 2019-03-07

Family

ID=65636345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158465A Pending JP2019034386A (en) 2017-08-21 2017-08-21 Robot control device, robot, robot system, and robot control method

Country Status (1)

Country Link
JP (1) JP2019034386A (en)

Similar Documents

Publication Publication Date Title
US10350768B2 (en) Control device, robot, and robot system
US20160184996A1 (en) Robot, robot system, control apparatus, and control method
US20170182665A1 (en) Robot, robot control device, and robot system
JP2018051704A (en) Robot control device, robot, and robot system
US20170277167A1 (en) Robot system, robot control device, and robot
CN111791270B (en) Robot system and shooting method
US20170203434A1 (en) Robot and robot system
US20150343634A1 (en) Robot, robot system, and control method
JP6699097B2 (en) Robot and control device
US20180085920A1 (en) Robot control device, robot, and robot system
JP6926906B2 (en) Robot system, control device and robot control method
JP6390088B2 (en) Robot control system, robot, program, and robot control method
US20180056517A1 (en) Robot, robot control device, and robot system
JP6488571B2 (en) Teaching apparatus and robot system
JP2016120530A (en) Robot and robot calibration system
JP6958091B2 (en) Robot system and robot control method
JP2019034386A (en) Robot control device, robot, robot system, and robot control method
JP6897398B2 (en) 3D shape measuring device, robot system, and 3D shape measuring method
JP2018017610A (en) Three-dimensional measuring device, robot, robot controlling device, and robot system
JP2016120558A (en) Robot and robot system
JP2018001321A (en) Robot, robot control device and robot system
JP2018015856A (en) Robot, robot control device, and robot system
JP2017100197A (en) Robot and control method
JP2019042902A (en) Imaging method and robot system
JP2019111588A (en) Robot system, information processor, and program

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20180910

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190402