JP2019034386A - Robot control device, robot, robot system, and robot control method - Google Patents
Robot control device, robot, robot system, and robot control method Download PDFInfo
- Publication number
- JP2019034386A JP2019034386A JP2017158465A JP2017158465A JP2019034386A JP 2019034386 A JP2019034386 A JP 2019034386A JP 2017158465 A JP2017158465 A JP 2017158465A JP 2017158465 A JP2017158465 A JP 2017158465A JP 2019034386 A JP2019034386 A JP 2019034386A
- Authority
- JP
- Japan
- Prior art keywords
- imaging unit
- robot
- robot control
- imaging
- control device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
この発明は、ロボット制御装置、ロボット、ロボットシステム、及びロボット制御方法に関する。 The present invention relates to a robot control device, a robot, a robot system, and a robot control method.
対象物が撮像された撮像画像に基づいて、対象物に関する作業をロボットに行わせる技術についての研究、開発が行われている。 Research and development have been conducted on a technique for causing a robot to perform work related to an object based on a captured image obtained by imaging the object.
これに関し、撮像部を備え、把持した対象物を撮像部に近づけて対象物を撮像部に撮像させ、撮像部が撮像した撮像画像に基づいて対象物の位置及び姿勢を検出するロボットが知られている(特許文献1参照)。 In this regard, a robot is known that includes an imaging unit, causes the grasped object to approach the imaging unit, causes the imaging unit to image the object, and detects the position and orientation of the object based on the captured image captured by the imaging unit. (See Patent Document 1).
しかしながら、このようなロボットでは、撮像部により撮像された撮像画像には、対象物とともに対象物の背景として対象物以外の物体が撮像される場合がある。その結果、当該ロボットは、当該撮像画像から対象物を精度よく検出することが出来ないことがある。 However, in such a robot, an object other than the object may be imaged as the background of the object together with the object in the captured image captured by the imaging unit. As a result, the robot may not be able to accurately detect the target object from the captured image.
上記課題の少なくとも一つを解決するために本発明の一態様は、対象物を動かす第1可動部を備えたロボットを制御するロボット制御装置であって、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、ロボット制御装置である。
この構成により、ロボット制御装置は、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置は、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In order to solve at least one of the above-described problems, one aspect of the present invention is a robot control apparatus that controls a robot including a first movable unit that moves an object. The target portion is within a first depth range that is a range from a focal position in the depth direction of the imaging unit to a position farthest from the imaging unit in the depth direction in a range in the depth direction of the depth of field of the imaging unit. It is a robot control apparatus that moves the image to cause the imaging unit to image the region including the target portion.
With this configuration, the robot control device causes the first movable unit to move the target portion of the object from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit to the imaging unit in the depth direction. Is moved within a first depth range, which is a range from the farthest to the farthest position, and the imaging unit captures an area including the target portion. Thereby, the robot control apparatus can detect the attention part of the target object in the said imaging part with high precision based on the captured image imaged by the imaging part.
また、本発明の他の態様は、ロボット制御装置において、前記撮像部は、ロボット座標系における前記撮像部の位置及び姿勢が動かないように固定されている、構成が用いられてもよい。
この構成により、ロボット制御装置は、第1可動部により対象物の注目部分を、ロボット座標系における撮像部の位置及び姿勢が動かないように固定されている撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向において撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置は、ロボット座標系における撮像部の位置及び姿勢が動かないように固定されている撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In another aspect of the present invention, a configuration in which the imaging unit is fixed so that the position and orientation of the imaging unit in a robot coordinate system do not move may be used in the robot control device.
With this configuration, the robot control device allows the first movable unit to fix the target portion of the object so that the position and orientation of the imaging unit in the robot coordinate system do not move. Is moved within a first depth range, which is a range from the focal position in the depth direction of the imaging unit to the position farthest from the imaging unit in the depth direction, and causes the imaging unit to capture an area including the target portion. As a result, the robot controller accurately determines the target portion of the object in the imaging unit based on the captured image captured by the imaging unit that is fixed so that the position and orientation of the imaging unit in the robot coordinate system do not move. Can be detected well.
また、本発明の他の態様は、ロボット制御装置において、第2可動部により前記撮像部を前記対象物に対して相対的に動かす、構成が用いられてもよい。
この構成により、ロボット制御装置は、第2可動部により撮像部を対象物に対して相対的に動かす。これにより、ロボット制御装置は、第2可動部により対象物に対して相対的に動かした撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In another aspect of the present invention, in the robot control device, a configuration in which the imaging unit is moved relative to the object by the second movable unit may be used.
With this configuration, the robot control apparatus moves the imaging unit relative to the object by the second movable unit. Accordingly, the robot control device can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit moved relative to the target by the second movable unit. Can do.
また、本発明の他の態様は、ロボット制御装置において、前記撮像部は、ステレオカメラである、構成が用いられてもよい。
この構成により、ロボット制御装置は、ステレオカメラである撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向において撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置は、ステレオカメラである撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In another aspect of the present invention, in the robot control device, a configuration in which the imaging unit is a stereo camera may be used.
With this configuration, the robot control device has a range from the focal position in the depth direction of the image capturing unit to the position farthest from the image capturing unit in the depth direction of the range of the depth of field of the image capturing unit that is a stereo camera. The image is moved within a certain first depth range, and the imaging unit is caused to image a region including the target portion. Thereby, the robot control apparatus can detect the attention part of the target object in the said imaging part with high precision based on the captured image imaged by the imaging part which is a stereo camera.
また、本発明の他の態様は、ロボット制御装置において、前記撮像部により撮像された撮像画像に含まれる前記注目部分を検出する、構成が用いられてもよい。
この構成により、ロボット制御装置は、撮像部により撮像された撮像画像に含まれる対象物の注目部分を検出する。これにより、ロボット制御装置は、撮像画像から検出した注目部分に関する作業をロボットに精度よく行わせることができる。
In another aspect of the present invention, the robot control device may be configured to detect the portion of interest included in the captured image captured by the imaging unit.
With this configuration, the robot control device detects a target portion of the target object included in the captured image captured by the imaging unit. As a result, the robot control apparatus can cause the robot to accurately perform the work related to the target portion detected from the captured image.
また、本発明の他の態様は、ロボット制御装置において、前記撮像画像から検出した前記注目部分に応じた処理を行う、構成が用いられてもよい。
この構成により、ロボット制御装置は、撮像画像から検出した注目部分に応じた処理を行う。これにより、ロボット制御装置は、撮像画像から検出した注目部分に応じた処理を精度よく行うことができる。
In another aspect of the present invention, a configuration may be used in a robot control device that performs processing according to the portion of interest detected from the captured image.
With this configuration, the robot control apparatus performs processing according to the target portion detected from the captured image. Thereby, the robot control apparatus can perform the process according to the attention part detected from the captured image with high accuracy.
また、本発明の他の態様は、ロボット制御装置において、前記撮像画像から検出した前記注目部分に応じて、前記ロボットの動作に関する処理を行う、構成が用いられてもよい。
この構成により、ロボット制御装置は、撮像画像から検出した注目部分に応じて、ロボットの動作に関する処理を行う。これにより、ロボット制御装置は、ロボットの動作に関する処理を精度よく行うことができる。
In another aspect of the present invention, the robot control device may be configured to perform processing related to the operation of the robot in accordance with the attention portion detected from the captured image.
With this configuration, the robot control apparatus performs a process related to the operation of the robot according to the target portion detected from the captured image. Thereby, the robot control apparatus can perform the process regarding the operation of the robot with high accuracy.
また、本発明の他の態様は、対象物を動かす第1可動部を備え、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、ロボットである。
この構成により、ロボットは、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボットは、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
Moreover, the other aspect of this invention is equipped with the 1st movable part which moves a target object, The said attention part of the target object is made into the said depth direction of the depth of field of an imaging part by the said 1st movable part. A robot that moves within a first depth range, which is a range from a focal position in the depth direction of the imaging unit to a position farthest from the imaging unit in the depth direction, and causes the imaging unit to capture an area including the target portion It is.
With this configuration, the robot moves the target portion of the object from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit out of the range in the depth direction of the depth of field of the imaging unit by the first movable unit. It moves within the first depth range, which is a range up to a far position, and causes the imaging unit to image a region including the target portion. Accordingly, the robot can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit.
また、本発明の他の態様は、対象物を動かす第1可動部を備えたロボットと、前記ロボットを制御するロボット制御装置とを備えるロボットシステムであって、前記ロボット制御装置は、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、ロボットシステムである。
この構成により、ロボットシステムは、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボットシステムは、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
According to another aspect of the present invention, there is provided a robot system including a robot including a first movable unit that moves an object and a robot control device that controls the robot, wherein the robot control device includes the first control unit. A range from the focal position in the depth direction of the imaging unit to the farthest position from the imaging unit in the depth direction in the depth direction of the depth of field of the imaging unit by the movable part. This is a robot system that moves within a first depth range, and causes the imaging unit to image a region including the target portion.
With this configuration, the robot system allows the first movable unit to move the target portion of the object from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit from the imaging unit in the depth direction. It moves within the first depth range, which is the range up to the farthest position, and causes the imaging unit to image the region including the target portion. Accordingly, the robot system can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit.
また、本発明の他の態様は、対象物を動かす第1可動部を備えたロボットを制御するロボット制御方法であって、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、ロボット制御方法である。
この構成により、ロボット制御方法は、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボットシステムは、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
According to another aspect of the present invention, there is provided a robot control method for controlling a robot including a first movable unit that moves an object, wherein the target portion of the object is captured by an imaging unit by the first movable unit. Move within the first depth range, which is the range from the focal position in the depth direction of the imaging unit to the position farthest from the imaging unit in the depth direction, in the depth direction of the depth of field, and A robot control method for imaging a region including the target portion.
With this configuration, the robot control method allows the first movable unit to move the target portion of the object from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit to the imaging unit in the depth direction. Is moved within a first depth range, which is a range from the farthest to the farthest position, and the imaging unit captures an area including the target portion. Accordingly, the robot system can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit.
また、本発明の他の態様は、対象物を動かす第1可動部を備えたロボットを制御するロボット制御装置であって、プロセッサーを備え、前記プロセッサーは、前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる指令を実行するように構成されていることを特徴する、ロボット制御装置である。
この構成により、ロボット制御装置は、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置は、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
According to another aspect of the present invention, there is provided a robot control device that controls a robot including a first movable unit that moves an object. The robot control device includes a processor, and the processor uses the first movable unit to control the object. The target portion is within a first depth range that is a range from a focal position in the depth direction of the imaging unit to a position farthest from the imaging unit in the depth direction in a range in the depth direction of the depth of field of the imaging unit. The robot control device is configured to execute a command to cause the imaging unit to image a region including the target portion.
With this configuration, the robot control device causes the first movable unit to move the target portion of the object from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit to the imaging unit in the depth direction. Is moved within a first depth range, which is a range from the farthest to the farthest position, and the imaging unit captures an area including the target portion. Thereby, the robot control apparatus can detect the attention part of the target object in the said imaging part with high precision based on the captured image imaged by the imaging part.
以上により、ロボット制御装置、ロボット、ロボットシステム、及びロボット制御方法は、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置、ロボット、ロボットシステム、及びロボット制御方法は、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。 As described above, in the robot control device, the robot, the robot system, and the robot control method, the first movable unit moves the target portion of the object in the depth direction of the imaging unit out of the range in the depth direction of the depth of field of the imaging unit. It moves within the first depth range, which is the range from the focal position to the farthest position from the imaging unit in the depth direction, and causes the imaging unit to image the region including the target portion. Accordingly, the robot control device, the robot, the robot system, and the robot control method can accurately detect the target portion of the target in the imaging unit based on the captured image captured by the imaging unit.
<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
<Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<ロボットシステムの概要>
まず、ロボットシステム1の概要について説明する。図1は、実施形態に係るロボットシステム1の構成の一例を示す図である。
<Overview of the robot system>
First, an outline of the
ロボットシステム1は、撮像部に対象物を撮像させる。ロボットシステム1は、撮像部が対象物を撮像した撮像画像に基づいて、例えば、対象物に関する作業をロボットに行わせる。
The
ここで、ロボットシステム1と異なるロボットシステムX(例えば、従来のロボットシステム)では、撮像部により撮像された撮像画像には、対象物とともに対象物の背景として対象物以外の物体が撮像される場合がある。その結果、ロボットシステムXは、当該撮像画像から対象物を精度よく検出することが出来ないことがある。 Here, in a robot system X different from the robot system 1 (for example, a conventional robot system), an object other than the object is imaged in the captured image captured by the imaging unit as a background of the object together with the object. There is. As a result, the robot system X may not be able to accurately detect an object from the captured image.
そこで、ロボットシステム1は、対象物を動かす第1可動部を備えたロボットを備え、第1可動部により対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に当該注目部分を含む領域を撮像させる。ここで、当該深度方向は、撮像部の光軸に沿った方向のうち撮像部の撮像素子から撮像部のレンズに向かう方向のことである。これにより、ロボットシステム1は、撮像部に撮像された物体のうちの当該注目部分が惚けずに撮像された撮像画像であって、撮像部に撮像された物体のうちの当該注目部分以外の部分のほとんどが惚けて撮像されている撮像画像を取得することができる。ここで、当該撮像画像において当該部分が惚けているとは、当該撮像画像内の領域のうちの当該部分が撮像された領域内において、最も小さい錯乱円が予め決められた直径であって許容可能な最小の直径である許容直径よりも大きい直径であることを意味する。この場合、当該撮像画像から当該部分から何らかの形状を検出することは、困難である。その結果、ロボットシステム1は、撮像部により撮像された撮像画像に基づいて、当該撮像画像における当該注目部分以外の部分を当該注目部分として誤検出してしまうことを抑制するとともに、当該撮像画像における当該注目部分を精度よく検出することができる。
Therefore, the
以下では、ロボットシステム1の構成と、ロボットシステム1が行う処理のうち、対象物を撮像部に撮像させるためにロボットシステム1が第1可動部を動かす処理とについて説明する。
Below, the structure of the
<ロボットシステムの構成>
まず、ロボットシステム1の構成について説明する。
図1は、実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、上記のロボットの一例であるロボット20を備える。また、ロボット20は、上記のロボット制御装置の一例であるロボット制御装置30を内蔵する。なお、ロボットシステム1は、ロボット20に加えて、ロボット20と別体の撮像部等の他の装置を備える構成であってもよい。
<Robot system configuration>
First, the configuration of the
FIG. 1 is a diagram illustrating an example of a configuration of a
ロボット20は、第1アームA1と、第2アームA2と、第1アームA1及び第2アームA2を支持する支持台Bと、支持台Bの内側にロボット制御装置30を備える双腕ロボットである。なお、ロボット20は、双腕ロボットに代えて、3本以上のアームを備える複腕ロボットであってもよく、1本のアームを備える単腕ロボットであってもよい。また、ロボット20は、スカラ(水平多関節)ロボット、直交座標ロボット、円筒型ロボット等の他のロボットであってもよい。直交座標ロボットは、例えば、ガントリロボットである。
The
支持台Bは、ロボット20が設置された設置面に直交する方向に沿って2つの部分に分割されている。なお、支持台Bは、分割されていない構成であってもよく、3つ以上の部分に分割されている構成であってもよい。当該2つの部分のうち当該設置面から遠い方の部分である支持台上部B2は、当該2つの部分のうち当該設置面から近い方の部分である支持台下部B1に対して回動可能である。すなわち、ロボット20は、支持台上部B2と支持台下部B1との間を繋ぐ関節である関節J0を有している。支持台上部B2が回動する場合の回動面は、例えば、当該設置面に対して平行である。支持台下部B1の内側には、ロボット制御装置30が備えられている。また、支持台上部B2は、支持台下部B1に対して上下方向に並進可能である。上方向は、この一例において、設置面に直交する2つの方向のうち支持台下部B1から支持台上部B2に向かう方向のことである。また、下方向は、この一例において、上方向と逆の方向のことである。なお、当該回動面は、当該設置面に対して非平行であってもよい。また、支持台上部B2は、支持台下部B1に対して上下方向に並進不可能な構成であってもよい。
The support base B is divided into two parts along a direction orthogonal to the installation surface on which the
第1アームA1は、第1エンドエフェクターE1と、第1マニピュレーターM1を備える。 The first arm A1 includes a first end effector E1 and a first manipulator M1.
第1エンドエフェクターE1は、物体を保持するエンドエフェクターである。この一例において、第1エンドエフェクターE1は、指部を備え、当該指部によって物体を挟んで持つことにより当該物体を保持する。なお、第1エンドエフェクターE1は、これに代えて、空気の吸引や磁力、他の治具等によって物体を持ち上げることにより当該物体を保持する構成であってもよい。なお、この一例において、保持するとは、物体を持ち上げることが可能な状態にすることを意味する。 The first end effector E1 is an end effector that holds an object. In this example, the first end effector E1 includes a finger part, and holds the object by holding the object by the finger part. Alternatively, the first end effector E1 may be configured to hold the object by lifting the object by air suction, magnetic force, another jig, or the like. In this example, holding means that the object can be lifted.
第1エンドエフェクターE1は、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、第1エンドエフェクターE1は、ロボット制御装置30から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB(Universal Serial Bus)等の規格によって行われる。また、第1エンドエフェクターE1は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The first end effector E1 is communicably connected to the
第1マニピュレーターM1は、7つの関節と、第1撮像部C1を備える。また、当該7つの関節のそれぞれは、図示しないアクチュエーターを備える。すなわち、第1マニピュレーターM1を備える第1アームA1は、7軸垂直多関節型のアームである。第1アームA1は、支持台Bと、第1エンドエフェクターE1と、第1マニピュレーターM1と、当該7つの関節それぞれのアクチュエーターとによる連携した動作によって7軸の自由度の動作を行う。なお、第1アームA1は、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。 The first manipulator M1 includes seven joints and a first imaging unit C1. Each of the seven joints includes an actuator (not shown). That is, the first arm A1 including the first manipulator M1 is a 7-axis vertical articulated arm. The first arm A1 performs an operation with seven degrees of freedom by a coordinated operation by the support base B, the first end effector E1, the first manipulator M1, and the actuators of the seven joints. The first arm A1 may be configured to operate with a degree of freedom of 6 axes or less, or may be configured to operate with a degree of freedom of 8 axes or more.
第1アームA1が7軸の自由度で動作する場合、第1アームA1は、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増える。これにより第1アームA1は、例えば、動作が滑らかになり、更に第1アームA1の周辺に存在する物体との干渉を容易に回避することができる。また、第1アームA1が7軸の自由度で動作する場合、第1アームA1の制御は、第1アームA1が8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。 When the first arm A1 operates with a degree of freedom of 7 axes, the posture that the first arm A1 can take is increased as compared with a case where the first arm A1 operates with a degree of freedom of 6 axes or less. Thereby, for example, the first arm A1 can be smoothly operated, and interference with an object existing around the first arm A1 can be easily avoided. In addition, when the first arm A1 operates with a degree of freedom of 7 axes, the control of the first arm A1 is easier and requires less calculation than when the first arm A1 operates with a degree of freedom of 8 axes or more. is there.
第1マニピュレーターM1が備える7つのアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第1マニピュレーターM1を動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、第1マニピュレーターM1が備える7つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
Each of the seven actuators provided in the first manipulator M1 is communicably connected to the
第1撮像部C1は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。この一例において、第1撮像部C1は、第1マニピュレーターM1の一部に備えられる。そのため、第1撮像部C1は、第1マニピュレーターM1の動きに応じて移動する。また、第1撮像部C1が撮像可能な範囲は、第1アームA1の動きに応じて変化する。第1撮像部C1は、当該範囲の二次元画像を撮像する。なお、第1撮像部C1は、当該範囲の静止画像を撮像する構成であってもよく、当該範囲の動画像を撮像する構成であってもよい。第1撮像部C1は、上記の撮像部の一例である。 The first imaging unit C1 is a camera that includes, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like as an imaging element that converts the collected light into an electrical signal. In this example, the first imaging unit C1 is provided in a part of the first manipulator M1. Therefore, the first imaging unit C1 moves according to the movement of the first manipulator M1. Further, the range in which the first imaging unit C1 can capture an image changes according to the movement of the first arm A1. The first imaging unit C1 captures a two-dimensional image in the range. The first imaging unit C1 may be configured to capture a still image in the range, or may be configured to capture a moving image in the range. The first imaging unit C1 is an example of the imaging unit described above.
また、第1撮像部C1は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、第1撮像部C1は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The first imaging unit C1 is communicably connected to the
第2アームA2は、第2エンドエフェクターE2と、第2マニピュレーターM2を備える。 The second arm A2 includes a second end effector E2 and a second manipulator M2.
第2エンドエフェクターE2は、物体を保持するエンドエフェクターである。この一例において、第2エンドエフェクターE2は、指部を備え、当該指部によって物体を挟んで持つことにより当該物体を保持する。なお、第2エンドエフェクターE2は、これに代えて、空気の吸引や磁力、他の治具等によって物体を持ち上げることにより当該物体を保持する構成であってもよい。 The second end effector E2 is an end effector that holds an object. In this example, the second end effector E2 includes a finger part, and holds the object by holding the object by the finger part. Alternatively, the second end effector E2 may be configured to hold the object by lifting the object by air suction, magnetic force, other jigs, or the like.
第2エンドエフェクターE2は、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、第2エンドエフェクターE2は、ロボット制御装置30から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、第2エンドエフェクターE2は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The second end effector E2 is communicably connected to the
第2マニピュレーターM2は、7つの関節と、第2撮像部C2を備える。また、当該7つの関節のそれぞれは、図示しないアクチュエーターを備える。すなわち、第2マニピュレーターM2を備える第2アームA2は、7軸垂直多関節型のアームである。第2アームA2は、支持台Bと、第2エンドエフェクターE2と、第2マニピュレーターM2と、当該7つの関節それぞれのアクチュエーターとによる連携した動作によって7軸の自由度の動作を行う。なお、第2アームA2は、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。 The second manipulator M2 includes seven joints and a second imaging unit C2. Each of the seven joints includes an actuator (not shown). That is, the second arm A2 including the second manipulator M2 is a 7-axis vertical articulated arm. The second arm A2 performs an operation with seven degrees of freedom by a coordinated operation by the support base B, the second end effector E2, the second manipulator M2, and the actuators of the seven joints. The second arm A2 may be configured to operate with a degree of freedom of 6 axes or less, or may be configured to operate with a degree of freedom of 8 axes or more.
第2アームA2が7軸の自由度で動作する場合、第2アームA2は、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増える。これにより第2アームA2は、例えば、動作が滑らかになり、更に第2アームA2の周辺に存在する物体との干渉を容易に回避することができる。また、第2アームA2が7軸の自由度で動作する場合、第2アームA2の制御は、第2アームA2が8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。 When the second arm A2 operates with a degree of freedom of seven axes, the posture that the second arm A2 can take is increased as compared with a case where the second arm A2 operates with a degree of freedom of six axes or less. Thereby, for example, the second arm A2 can move smoothly and can easily avoid interference with an object existing around the second arm A2. In addition, when the second arm A2 operates with a degree of freedom of 7 axes, the control of the second arm A2 is easier and requires less calculation than when the second arm A2 operates with a degree of freedom of 8 axes or more. is there.
第2マニピュレーターM2が備える7つのアクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第2マニピュレーターM2を動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、第2マニピュレーターM2が備える7つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
Each of the seven actuators included in the second manipulator M2 is communicably connected to the
第2撮像部C2は、例えば、CCD、CMOS等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。この一例において、第2撮像部C2は、第2マニピュレーターM2の一部に備えられる。そのため、第2撮像部C2は、第2マニピュレーターM2の動きに応じて移動する。また、第2撮像部C2が撮像可能な範囲は、第2アームA2の動きに応じて変化する。第2撮像部C2は、当該範囲の二次元画像を撮像する。なお、第2撮像部C2は、当該範囲の静止画像を撮像する構成であってもよく、当該範囲の動画像を撮像する構成であってもよい。第2撮像部C2は、上記の撮像部の一例である。 The second imaging unit C2 is a camera that includes, for example, a CCD, a CMOS, or the like as an imaging device that converts collected light into an electrical signal. In this example, the second imaging unit C2 is provided in a part of the second manipulator M2. Therefore, the second imaging unit C2 moves according to the movement of the second manipulator M2. In addition, the range in which the second imaging unit C2 can capture an image changes according to the movement of the second arm A2. The second imaging unit C2 captures a two-dimensional image in the range. The second imaging unit C2 may be configured to capture a still image in the range, or may be configured to capture a moving image in the range. The second imaging unit C2 is an example of the above imaging unit.
また、第2撮像部C2は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、第2撮像部C2は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The second imaging unit C2 is communicably connected to the
また、ロボット20は、第3撮像部C3と、第4撮像部C4を備える。
第3撮像部C3は、例えば、CCD、CMOS等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。第3撮像部C3は、第4撮像部C4が撮像可能な範囲を第4撮像部C4とともにステレオ撮像可能な部位に備えられる。また、第3撮像部C3は、ロボット座標系における第3撮像部C3の位置及び姿勢が動かないように固定されている。第3撮像部C3は、上記の撮像部の一例である。第3撮像部C3は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、第3撮像部C3は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The
The third imaging unit C3 is a camera provided with, for example, a CCD, a CMOS, or the like as an imaging device that converts collected light into an electrical signal. The third image capturing unit C3 is provided in a region where the fourth image capturing unit C4 can capture an image together with the fourth image capturing unit C4. The third imaging unit C3 is fixed so that the position and orientation of the third imaging unit C3 in the robot coordinate system do not move. The third imaging unit C3 is an example of the above imaging unit. The third imaging unit C3 is communicably connected to the
第4撮像部C4は、例えば、CCD、CMOS等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。第4撮像部C4は、第3撮像部C3が撮像可能な範囲を第3撮像部C3とともにステレオ撮像可能な部位に備えられる。また、第4撮像部C4は、ロボット座標系における第4撮像部C4の位置及び姿勢が動かないように固定されている。第4撮像部C4は、上記の撮像部の一例である。第4撮像部C4は、ケーブルによって通信可能にロボット制御装置30と接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、第4撮像部C4は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The fourth imaging unit C4 is a camera provided with, for example, a CCD, a CMOS, or the like as an imaging device that converts collected light into an electrical signal. The fourth imaging unit C4 is provided in a region where the third imaging unit C3 can capture an image, together with the third imaging unit C3, in a portion where stereo imaging is possible. The fourth imaging unit C4 is fixed so that the position and orientation of the fourth imaging unit C4 in the robot coordinate system do not move. The fourth imaging unit C4 is an example of the imaging unit described above. The fourth imaging unit C4 is connected to the
ここで、この一例における第3撮像部C3及び第4撮像部C4は、前述の支持台上部B2に備えられる。このため、第3撮像部C3及び第4撮像部C4がステレオ撮像可能な範囲は、支持台上部B2の支持台下部B1に対する上下方向に沿った並進によって変化する。 Here, the third imaging unit C3 and the fourth imaging unit C4 in this example are provided in the above-described support base upper part B2. For this reason, the range in which the third imaging unit C3 and the fourth imaging unit C4 can perform stereo imaging changes due to translation in the vertical direction of the support base upper part B2 with respect to the support base lower part B1.
また、第3撮像部C3及び第4撮像部C4が備えられた支持台上部B2には、第3撮像部C3及び第4撮像部C4の両方を支持台上部B2に対して相対的に回動させることにより、第3撮像部C3及び第4撮像部C4それぞれの光軸の向きを変化させるチルト機構が設けられている。なお、支持台上部B2には、チルト機構が設けられていない構成であってもよい。 In addition, in the support base upper part B2 provided with the third image pickup part C3 and the fourth image pickup part C4, both the third image pickup part C3 and the fourth image pickup part C4 are rotated relative to the support base upper part B2. Thus, a tilt mechanism is provided that changes the direction of the optical axis of each of the third imaging unit C3 and the fourth imaging unit C4. The support base upper part B2 may be configured not to be provided with a tilt mechanism.
上記で説明したロボット20が備える各機能部は、この一例において、ロボット20に内蔵されたロボット制御装置30から制御信号を取得する。そして、当該各機能部は、取得した制御信号に基づいた動作を行う。なお、ロボット20は、ロボット制御装置30を内蔵する構成に代えて、外部に設置されたロボット制御装置30により制御される構成であってもよい。また、ロボット20は、第1撮像部C1、第2撮像部C2、第3撮像部C3、第4撮像部C4のうちの一部又は全部を備えない構成であってもよい。
In this example, each functional unit included in the
ロボット制御装置30は、少なくとも1つのプロセッサーと、少なくとも1つのメモリーとによって構成される。ロボット制御装置30において、当該少なくとも1つのプロセッサーは、1つの情報処理装置に備えられる構成であってもよく、複数の情報処理装置に分散されて備えられている構成であってもよい。また、ロボット制御装置30において、当該少なくとも1つのメモリーは、1つの情報処理装置に備えられる構成であってもよく、複数の情報処理装置に分散されて備えられている構成であってもよい。
The
図1に示した例では、ロボット制御装置30は、情報処理装置PC1に備えられた1つのプロセッサーであるプロセッサー31と、情報処理装置PC1に備えられた1つのメモリーであるメモリー32とによって構成されている。なお、情報処理装置PC1は、プロセッサー31に加えて、他のプロセッサーを備える構成であってもよく、メモリー32に加えて、他のメモリーを備える構成であってもよい。
In the example illustrated in FIG. 1, the
情報処理装置PC1は、例えば、ワークステーション、デスクトップPC(Personal Computer)、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA(Personal Digital Assistant)等である。 The information processing apparatus PC1 is, for example, a workstation, a desktop PC (Personal Computer), a notebook PC, a tablet PC, a multi-function mobile phone terminal (smartphone), an electronic book reader with a communication function, a PDA (Personal Digital Assistant), or the like. .
プロセッサー31は、例えば、CPU(Central Processing Unit)である。なお、プロセッサー31は、FPGA(Field-Programmable Gate Array)等の他のプロセッサーであってもよい。プロセッサー31は、ロボット制御装置30が備えるメモリーに格納された各種の指令を実行する。また、プロセッサー31は、他の装置のメモリーに格納された各種の指令を実行する。
The
メモリー32は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。すなわち、メモリー32は、一時的な記憶装置と、非一時的な記憶装置とを含む。なお、メモリー32は、情報処理装置PC1に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。メモリー32は、プロセッサー31又は他の装置のプロセッサーが処理する各種の情報、指令321、322等のコンピューターにより実行可能な各種の指令(例えば、プログラム、コード等)、各種の画像等を格納する。
The
指令321及び指令322はそれぞれ、プロセッサー31がロボット制御装置30を構成するためにプロセッサー31が実行する複数の指令(すなわち、コンピューターにより実行可能な複数の指令)のうちの一部である。
Each of the
また、ロボット制御装置30は、他の装置と通信を行うため、ハードウェア機能部として通信部34を備える。
通信部34は、USB等のデジタル入出力ポート、イーサネット(登録商標)ポート等を含んで構成される。
In addition, the
The
なお、ロボット制御装置30は、1つのプロセッサー31と、1つのメモリー32とを備える情報処理装置PC1に代えて、図2に示したように、複数の情報処理装置のうちの一部又は全部によって構成されてもよい。図2は、複数の情報処理装置によってロボット制御装置30が構成される場合におけるロボット制御装置30のハードウェア構成の一例である。
Note that the
図2に示した情報処理装置PC2は、1つのプロセッサーであるプロセッサー41と、1つのメモリーであるメモリー42と、通信部44を備える。なお、情報処理装置PC2は、プロセッサー41に加えて、他のプロセッサーを備える構成であってもよい。また、情報処理装置PC2は、メモリー42に加えて、他のメモリーを備える構成であってもよい。
The information processing apparatus PC2 illustrated in FIG. 2 includes a
情報処理装置PC2は、例えば、ワークステーション、デスクトップPC、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA等である。なお、情報処理装置PC2は、教示装置40であってもよい。 The information processing apparatus PC2 is, for example, a workstation, a desktop PC, a notebook PC, a tablet PC, a multi-function mobile phone terminal (smartphone), an electronic book reader with a communication function, a PDA, or the like. The information processing apparatus PC2 may be the teaching apparatus 40.
プロセッサー41は、CPUである。なお、プロセッサー41は、FPGA等の他のプロセッサーであってもよい。プロセッサー41は、メモリー32に格納された各種の指令を実行する。また、プロセッサー41は、他の装置のメモリーに格納された各種の指令を実行する。
The
メモリー42は、例えば、HDD、SSD、EEPROM、ROM、RAM等を含む。すなわち、メモリー42は、一時的な記憶装置と、非一時的な記憶装置とを含む。なお、メモリー42は、情報処理装置PC2に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。メモリー42は、プロセッサー41又は他の装置のプロセッサーが処理する各種の情報、コンピューターにより実行可能な各種の指令(例えば、プログラム、コード等)、各種の画像等を格納する。
The
通信部44は、USB等のデジタル入出力ポート、イーサネット(登録商標)ポート等を含んで構成される。
The
図2に示した情報処理装置PC3は、1つのプロセッサーであるプロセッサー51と、1つのメモリーであるメモリー52と、通信部54を備える。なお、情報処理装置PC3は、プロセッサー51に加えて、他のプロセッサーを備える構成であってもよい。また、情報処理装置PC3は、メモリー52に加えて、他のメモリーを備える構成であってもよい。
The information processing apparatus PC3 illustrated in FIG. 2 includes a
情報処理装置PC3は、例えば、ワークステーション、デスクトップPC、ノートPC、タブレットPC、多機能携帯電話端末(スマートフォン)、通信機能付きの電子書籍リーダー、PDA等である。 The information processing apparatus PC3 is, for example, a workstation, a desktop PC, a notebook PC, a tablet PC, a multi-function mobile phone terminal (smartphone), an electronic book reader with a communication function, a PDA, or the like.
プロセッサー51は、CPUである。なお、プロセッサー51は、FPGA等の他のプロセッサーであってもよい。プロセッサー51は、メモリー52に格納された各種の指令を実行する。また、プロセッサー51は、他の装置のメモリーに格納された各種の指令を実行する。
The
メモリー52は、例えば、HDD、SSD、EEPROM、ROM、RAM等を含む。すなわち、メモリー52は、一時的な記憶装置と、非一時的な記憶装置とを含む。なお、メモリー52は、情報処理装置PC3に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。メモリー52は、プロセッサー51又は他の装置のプロセッサーが処理する各種の情報、コンピューターにより実行可能な各種の指令(例えば、プログラム、コード等)、各種の画像等を格納する。
The
通信部54は、USB等のデジタル入出力ポート、イーサネット(登録商標)ポート等を含んで構成される。
The
図2に示した例では、情報処理装置PC1と、情報処理装置PC2とが無線又は有線によって互いに通信可能に接続されている。また、当該例では、情報処理装置PC1と、情報処理装置PC3とがLAN(Local Area Network)を介して無線又は有線によって互いに通信可能に接続されている。また、当該例では、情報処理装置PC2と、情報処理装置PC3とがLANを介して無線又は有線によって互いに通信可能に接続されている。 In the example illustrated in FIG. 2, the information processing apparatus PC1 and the information processing apparatus PC2 are connected to be communicable with each other by wireless or wired communication. Further, in this example, the information processing device PC1 and the information processing device PC3 are connected to be communicable with each other by wireless or wired via a LAN (Local Area Network). In this example, the information processing device PC2 and the information processing device PC3 are connected to be communicable with each other by a wireless or wired connection via a LAN.
また、図2に示した例では、ロボット制御装置30は、プロセッサー31と、プロセッサー41と、プロセッサー51のうちの少なくとも1つと、メモリー32と、メモリー42と、メモリー52のうちの少なくとも1つとによって構成される。プロセッサー31と、プロセッサー41と、プロセッサー51のうちの2つ以上によってロボット制御装置30が構成される場合、ロボット制御装置30を構成する当該2つ以上のプロセッサーは、通信部による通信を行うことにより、連携してロボット制御装置30の機能を実現する。また、当該場合、当該2つ以上のプロセッサーは、メモリー32と、メモリー42と、メモリー52のうちの少なくとも1つに格納された指令に基づいて、ロボット制御装置30の機能による処理を実行する。
In the example illustrated in FIG. 2, the
なお、図2に示した例のように、ロボット制御装置30が複数の情報処理装置によって構成される場合、教示装置40は、当該複数の情報処理装置の少なくとも1つと通信可能に接続される。
Note that, as in the example illustrated in FIG. 2, when the
図1に戻る。ロボット制御装置30は、ロボット20を制御する。より具体的には、ロボット制御装置30は、例えば、メモリー32に予め記憶された動作プログラムに応じて、上記の対象物の一例である対象物Oに関する作業をロボット20に行わせる。図1に示した例では、対象物Oは、第1エンドエフェクターE1に予め保持されている。なお、対象物Oは、第2エンドエフェクターE2に予め保持されている構成であってもよく、第1エンドエフェクターE1及び第2エンドエフェクターE2の両方に予め保持されている構成であってもよい。以下では、一例として、図1に示した通り、対象物Oが第1エンドエフェクターE1によって予め保持されている場合について説明する。この場合、第1アームA1は、上記の第1可動部の一例である。なお、以下において説明する処理によって第1アームA1が行う動作は、第2アームA2によって行われてもよい。この場合、第2アームA2は、上記の第1可動部の一例である。また、以下において説明する処理によって第1アームA1が行う動作は、第1アームA1及び第2アームA2の両方によって行われてもよい。この場合、第1アームA1及び第2アームA2の両方は、第1可動部の一例である。
Returning to FIG. The
対象物Oは、製品に組み付ける産業用の部品や部材である。図1に示した例では、対象物Oは、直方体形状の物体として表されている。なお、対象物Oは、産業用の部品や部材に代えて、日用品、生体等の他の物体であってもよい。また、対象物Oの形状は、直方体形状に代えて、円柱形状等の他の形状であってもよい。 The object O is an industrial part or member to be assembled into a product. In the example illustrated in FIG. 1, the object O is represented as a rectangular parallelepiped object. The object O may be another object such as a daily necessities or a living body instead of an industrial part or member. Further, the shape of the object O may be another shape such as a cylindrical shape instead of the rectangular parallelepiped shape.
ここで、ロボット制御装置30は、対象物Oに関する作業をロボット20に行わせる際、ロボット20を制御し、対象物Oの注目部分を第1撮像部C1〜第4撮像部C4のうちの一部又は全部に撮像させる。以下では、一例として、ロボット制御装置30が、当該注目部分を第3撮像部C3に撮像させる場合について説明する。従って、以下において説明する処理によって第3撮像部C3が行う動作は、第1撮像部C1、第2撮像部C2、第4撮像部C4のいずれかによって行われてもよく、第1撮像部C1〜第4撮像部C4のうちの2つ以上の撮像部によって行われてもよい。また、当該動作が当該2つ以上の撮像部によって行われる場合、当該動作として、当該2つ以上の撮像部によりステレオ撮像が行われてもよい。すなわち、当該場合、当該撮像部は、ステレオカメラである。
Here, when the
対象物Oの注目部分は、対象物Oの部分のうち対象物Oに関する作業に応じて決まる部分のことである。より具体的には、当該注目部分は、当該作業をロボット20に行わせる場合において、対象物Oの部分のうち、ロボット制御装置30が第3撮像部C3に撮像させる部分(すなわち、ユーザーが第3撮像部C3に撮像させたい所望の部分)を含む部分のことである。図3に示した例では、当該注目部分は、対象物Oが有する6つの面のうちの1つの面である。図3は、対象物Oの一例を示す図である。当該例では、図3に示した対象物Oの上面が注目部分FOとして表されている。
The target part of the object O is a part determined according to the work related to the object O in the part of the object O. More specifically, in the case where the
ロボット制御装置30は、第3撮像部C3に対象物Oの注目部分FOを撮像させる際、第1エンドエフェクターE1により対象物Oの注目部分FOを、第3撮像部C3の被写界深度の深度方向における範囲のうち第3撮像部C3の深度方向における焦点位置から当該深度方向における第3撮像部C3から最も遠い位置までの範囲である第1深度範囲内に動かして、第3撮像部C3に注目部分FOを含む領域を撮像させる。これにより、ロボット制御装置30は、第3撮像部C3に撮像された物体のうち対象物Oの注目部分FOが惚けずに撮像された撮像画像であって、第3撮像部C3に撮像された物体のうちの注目部分FO以外の部分のほとんどが惚けて撮像されている撮像画像を第3撮像部C3から取得することができる。その結果、ロボット制御装置30は、第3撮像部C3により撮像された撮像画像に基づいて、当該撮像画像における注目部分FO以外の部分を注目部分FOとして誤検出してしまうことを抑制するとともに、当該撮像画像における注目部分FOを精度よく検出することができる。
When the
第3撮像部C3に対象物Oの注目部分FOを撮像させた後、ロボット制御装置30は、第3撮像部C3により撮像された撮像画像に基づいて、当該撮像画像から注目部分FOを検出する。ロボット制御装置30は、例えば、パターンマッチング等の処理によって、当該撮像画像から注目部分FOを検出する。そして、ロボット制御装置30は、検出した注目部分FOに応じた処理を行う。当該処理は、ロボット20の動作に関する処理である。具体的には、例えば、当該注目部分FOに応じた処理は、注目部分FOの表面に異物(傷、意図せずに形成されている凹凸、粉塵等)が存在しているか否かを判定する処理である。当該表面に異物が存在しているか否かを判定した後、ロボット制御装置30は、判定結果に応じた領域に対象物Oを載置する。この一例において、当該表面に異物が存在していないと判定した場合、ロボット制御装置30は、対象物Oを予め決められた図示しない給材領域に載置する。一方、当該表面に異物が存在していると判定した場合、ロボット制御装置30は、対象物Oを予め決められた図示しない除材領域に載置する。また、例えば、対象物Oが電動ドライバーであり、注目部分FOが当該電動ドライバーの先端であった場合、ロボット制御装置30は、検出した注目部分FOに応じた処理として、当該先端にネジが給材されているか否かを判定する処理を行う。ロボット制御装置30は、当該先端にネジが給材されていない場合、ロボット20を動作させ、当該先端にネジを給材させる。一方、当該先端にネジが給材されていた場合、ロボット20を動作させ、当該電動ドライバーによって当該ネジを予め決められた物体に締結する。また、例えば、対象物Oがプレートであり、注目部分FOが当該プレートに設けられたバーコード等のマーカーであった場合、ロボット制御装置30は、注目部分FOとして検出したマーカーが示す情報を当該マーカーから読み取る。そして、ロボット制御装置30は、読み取った当該情報に基づく処理を行う。なお、ロボット制御装置30が検出した注目部分FOに応じた処理は、ロボット20の動作に関する処理以外の他の処理であってもよい。また、ロボット20の動作に関する処理は、他の処理であってもよい。
After causing the third imaging unit C3 to capture the target portion FO of the object O, the
<ロボット制御装置の機能構成>
以下、図4を参照し、ロボット制御装置30の機能構成について説明する。図4は、ロボット制御装置30の機能構成の一例を示す図である。
<Functional configuration of robot controller>
Hereinafter, the functional configuration of the
ロボット制御装置30は、メモリー32と、通信部34と、制御部36を備える。
The
制御部36は、ロボット制御装置30の全体を制御する。制御部36は、撮像制御部361と、画像取得部363と、ロボット制御部365と、画像処理部367を備える。制御部36が備えるこれらの機能部は、例えば、プロセッサー31が、メモリー32に記憶された指令321、322等の各種の指令を実行することにより実現される。また、当該機能部のうちの一部又は全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
The
撮像制御部361は、第1撮像部C1が撮像可能な範囲を第1撮像部C1に撮像させる。また、撮像制御部361は、第2撮像部C2が撮像可能な範囲を第2撮像部C2に撮像させる。また、撮像制御部361は、第3撮像部C3が撮像可能な範囲を第3撮像部C3に撮像させる。また、撮像制御部361は、第4撮像部C4が撮像可能な範囲を第4撮像部C4に撮像させる。
The
画像取得部363は、第1撮像部C1が撮像した撮像画像を第1撮像部C1から取得する。また、画像取得部363は、第2撮像部C2が撮像した撮像画像を第2撮像部C2から取得する。また、画像取得部363は、第3撮像部C3が撮像した撮像画像を第3撮像部C3から取得する。また、画像取得部363は、第4撮像部C4が撮像した撮像画像を第4撮像部C4から取得する。
The
ロボット制御部365は、ロボット20を動作させる。
The
画像処理部367は、画像取得部363が取得した撮像画像に基づく画像処理を行う。例えば、画像処理部367は、当該撮像画像に対象物Oの注目部分FOが撮像されていた場合、当該撮像画像から注目部分FOを検出する。
The
<対象物を撮像部に撮像させるためにロボット制御装置が第1アームを動かす処理>
以下、図5を参照し、対象物Oを第3撮像部C3に撮像させるためにロボット制御装置30が第1アームA1を動かす処理について説明する。図5は、対象物Oを第3撮像部C3に撮像させるためにロボット制御装置30が第1アームA1を動かす処理の流れの一例を示す図である。なお、図5に示したフローチャートでは、図5に示したステップS110の処理が実行される前のタイミングにおいて、第1エンドエフェクターE1が対象物Oを既に保持している場合について説明する。
<Process in which the robot control device moves the first arm to cause the imaging unit to image the object>
Hereinafter, a process in which the
ロボット制御部365は、メモリー32に予め記憶された撮像位置姿勢情報をメモリー32から読み出す(ステップS110)。撮像位置姿勢情報は、予め決められた位置及び姿勢である撮像位置及び撮像姿勢を示す情報のことである。また、撮像位置及び撮像姿勢は、第3撮像部C3によって対象物Oを撮像する際に、ロボット20が対象物Oの位置及び姿勢を一致させる位置及び姿勢のことである。この一例において、対象物Oの位置は、対象物Oの重心の位置によって表される。また、対象物Oの姿勢は、当該位置に対応付けられた三次元局所座標系における各座標軸のロボット座標系における方向によって表される。なお、ロボット制御部365がロボット20を制御し、対象物Oの位置及び姿勢を撮像位置及び撮像姿勢に一致させる方法は、既知の方法であってもよく、これから開発される方法であってもよい。
The
ここで、図6を参照し、撮像位置及び撮像姿勢について説明する。図6は、撮像位置及び撮像姿勢と位置及び姿勢が一致している状態の対象物Oの一例を示す図である。図6に示した例では、図が煩雑になるのを防ぐため、ロボット20については、第3撮像部C3及び第4撮像部C4以外の部分が省略されている。図6に示した矢印C3Aは、第3撮像部C3の光軸に沿った方向のうち第3撮像部C3の撮像素子から第3撮像部C3のレンズに向かう方向を示す矢印であり、すなわち、第3撮像部C3の被写界深度の深度方向を示す矢印である。また、図6に示した位置P1は、第3撮像部C3の当該深度方向における焦点位置を示す。また、図6に示した範囲DFは、第3撮像部C3の被写界深度の当該深度方向における範囲を示す。また、図6に示した位置P11は、範囲DF内の位置であって当該深度方向において最も第3撮像部C3から遠い位置のことである。すなわち、位置P11は、第3撮像部C3の被写界深度の深度方向における範囲内の位置のうち、第3撮像部C3から最も離れた位置を示す。また、図6に示した範囲DF1は、当該深度方向における範囲であって位置P1から位置P11までの範囲である第1深度範囲を示す。また、図6に示した位置P12は、範囲DF内の位置であって当該深度方向において最も第3撮像部C3に近い位置のことである。すなわち、位置P12は、第3撮像部C3の被写界深度の深度方向における範囲内の位置のうち、第3撮像部C3に最も近い位置を示す。また、図6に示した範囲DF2は、当該深度方向における範囲であって位置P1から位置P12までの範囲である第2深度範囲を示す。図6に示した例では、第1深度範囲である範囲DF1と第2深度範囲である範囲DF2との比率は、範囲DF1:範囲DF2=2:1であるが、これに代えて、他の比率であってもよい。
Here, an imaging position and an imaging posture will be described with reference to FIG. FIG. 6 is a diagram illustrating an example of the object O in a state where the imaging position and the imaging posture are in the same position and orientation. In the example illustrated in FIG. 6, portions other than the third imaging unit C3 and the fourth imaging unit C4 are omitted from the
この一例において、撮像位置は、対象物Oの位置のうち、対象物Oの位置が撮像位置と一致した場合において、第3撮像部C3が対象物Oを撮像可能な位置のことである。また、撮像位置は、対象物Oの位置のうち、当該場合において、対象物Oの注目部分FOの全体が前述の範囲DF1に含まれる位置のことである。なお、撮像位置は、当該場合において、対象物Oの注目部分FOの一部が範囲DF1に含まれる位置であってもよい。また、撮像位置は、第3撮像部C3の被写界深度の深度方向において位置P1に近いよりも位置P11に近い方が望ましい。また、撮像位置は、対象物Oの位置のうち、当該場合において、第1エンドエフェクターE1及び対象物Oの両方が他の物体(例えば、第3撮像部C3)に干渉しない位置であることが望ましい。 In this example, the imaging position is a position where the third imaging unit C3 can image the object O when the position of the object O matches the imaging position among the positions of the object O. In addition, the imaging position is a position in which the entire target portion FO of the object O is included in the above-described range DF1 among the positions of the object O. In this case, the imaging position may be a position where a part of the target portion FO of the object O is included in the range DF1. The imaging position is preferably closer to the position P11 than to the position P1 in the depth direction of the depth of field of the third imaging unit C3. In addition, the imaging position may be a position where both the first end effector E1 and the object O do not interfere with other objects (for example, the third imaging unit C3) among the positions of the object O. desirable.
また、この一例において、撮像姿勢は、対象物Oの姿勢のうち、対象物Oの位置及び姿勢が撮像位置及び撮像姿勢と一致した場合において、第3撮像部C3が対象物Oの注目部分FOの全体を撮像可能な姿勢のことである。なお、撮像姿勢は、対象物Oの姿勢のうち、当該場合において、第3撮像部C3が対象物Oの注目部分FOの一部を撮像可能な姿勢であってもよい。また、撮像姿勢は、対象物Oの姿勢のうち、当該場合において、第1エンドエフェクターE1及び対象物Oの両方が他の物体(例えば、第3撮像部C3)に干渉しない姿勢であることが望ましい。 Further, in this example, the imaging posture is determined by the third imaging unit C3 when the position and orientation of the object O coincides with the imaging position and orientation in the orientation of the object O. It is a posture capable of imaging the whole. Note that the imaging posture may be a posture in which, in this case, the third imaging unit C3 can capture a part of the target portion FO of the target object O among the postures of the target object O. In addition, the imaging posture may be a posture in which both the first end effector E1 and the target object O do not interfere with other objects (for example, the third imaging unit C3) among the postures of the target object O. desirable.
このような撮像位置及び撮像姿勢に対象物Oの位置及び姿勢が一致した場合、対象物Oの注目部分FOは、第3撮像部C3によって惚けずに撮像される。また、当該場合、第3撮像部C3によって撮像可能な物体のうち対象物O以外の物体(又は注目部分FO以外の物体)の少なくとも一部は、第3撮像部C3によって惚けて撮像される。これにより、ロボット制御装置30は、第3撮像部C3により撮像された撮像画像に基づいて、当該撮像画像における注目部分FO以外の部分を注目部分FOとして誤検出してしまうことを抑制するとともに、当該撮像部における注目部分FOを精度よく検出することができる。このように、ある撮像部(この一例において、第3撮像部C3)の被写界深度の深度方向における範囲のうちの第1深度範囲(この一例において、範囲DF1)に対象物Oの注目部分FOが含まれている場合における当該撮像部と対象物Oとの相対的な位置関係を、以下では、説明の便宜上、撮像位置関係と称して説明する。
When the position and orientation of the object O coincide with such an imaging position and orientation, the target portion FO of the object O is imaged without being lost by the third imaging unit C3. In this case, at least a part of an object other than the target object O (or an object other than the target portion FO) among objects that can be imaged by the third imaging unit C3 is captured by the third imaging unit C3. Thereby, the
なお、ロボット制御装置30が第3撮像部C3と第4撮像部C4によって対象物Oの注目部分FOをステレオ撮像させる場合、第3撮像部C3と第4撮像部C4それぞれの焦点位置であって被写界深度の深度方向における焦点位置は、当該深度方向に直交する方向から見た場合にほぼ一致していることが望ましい。また、当該場合、第3撮像部C3と第4撮像部C4それぞれの被写界深度の深度方向における範囲のうちの第1深度範囲は、少なくとも一部分が重なっていることが望ましい。
In addition, when the
図5に戻る。ステップS110の処理が行われた後、ロボット制御部365は、第1アームA1を動作させ、対象物Oの位置及び姿勢を、ステップS110においてメモリー32から読み出した撮像位置姿勢情報が示す撮像位置及び撮像姿勢と一致させる(ステップS120)。
Returning to FIG. After the processing of step S110 is performed, the
次に、撮像制御部361は、第3撮像部C3が撮像可能な範囲を第3撮像部C3に撮像させる(ステップS130)。
Next, the
次に、画像取得部363は、ステップS130において第3撮像部C3が撮像した撮像画像を第3撮像部C3から取得する(ステップS140)。
Next, the
次に、画像処理部367は、ステップS140において画像取得部363が取得した撮像画像に基づいて、当該撮像画像に撮像された注目部分FOを検出する(ステップS150)。ここで、当該撮像画像には、対象物O以外の物体が惚けて撮像されている。このため、画像処理部367は、ステップS150において、当該撮像画像における注目部分FO以外の部分を注目部分FOとして誤検出してしまうことを抑制するとともに、当該撮像画像における注目部分FOを精度よく検出することができる。
Next, based on the captured image acquired by the
次に、画像処理部367とロボット制御部365は、ステップS150において検出された注目部分FOに応じた処理を、所定の処理として行う(ステップS160)。例えば、画像処理部367は、当該注目部分FOに基づいて、実際の注目部分FOの表面に異物(傷、意図せずに形成されている凹凸、粉塵等)が存在しているか否かを判定する。そして、ロボット制御部365は、画像処理部367による判定結果に応じた領域に対象物Oを載置する。なお、ステップS160の処理は、ロボット制御部365によって全ての処理が行われる構成であってもよい。また、ステップS160の処理は、画像処理部367による判定処理が行われ、ロボット制御部365による対象物Oの載置処理が行われない構成であってもよい。ステップS160の処理が行われた後、ロボット制御部365は、処理を終了する。
Next, the
なお、ロボット制御装置30は、ロボット20を制御し、ロボット座標系において位置及び姿勢が変化しないように設置された(固定された)対象物Oに対して第1撮像部C1と第2撮像部C2の少なくとも一方の撮像部を相対的に移動させ、対象物Oと当該撮像部との相対的な位置関係を前述の撮像位置関係と一致させる構成であってもよい。
Note that the
また、ロボット制御装置30は、ロボット20を制御し、ロボット座標系において位置及び姿勢が変化しないように設置された(固定された)撮像部であってロボット20と別体の撮像部に対して対象物Oを相対的に移動させ、対象物Oと当該撮像部との相対的な位置関係を撮像位置関係と一致させる構成であってもよい。
The
また、ロボット制御装置30は、ロボット20を制御し、第2アームA2が備える第2撮像部C2と、第1アームA1により保持された対象物Oとの少なくとも一方を移動させ、第2撮像部C2と対象物Oとの相対的な位置関係を前述の撮像位置関係と一致させる構成であってもよい。この場合、第2アームA2は、第2可動部の一例である。
In addition, the
また、ロボット制御装置30は、ロボット20を制御し、支持台上部B2が備える第3撮像部C3と、第1アームA1により保持された対象物Oとの少なくとも一方を移動させ、対象物Oと第3撮像部C3との相対的な位置関係を前述の撮像位置関係と一致させる構成であってもよい。この場合、支持台上部B2は、第2可動部の一例である。
The
また、第3撮像部C3がオートフォーカス機能を有している場合、ロボット制御装置30は、対象物Oの位置及び姿勢を撮像位置及び撮像姿勢と一致させた後、対象物Oの注目部分FOを含む領域に焦点を合わせた後、第3撮像部C3の被写界深度の深度方向における当該焦点の位置を予め決められた距離当該深度方向と逆方向に移動させる構成であってもよい。
When the third imaging unit C3 has an autofocus function, the
<実施形態の変形例>
以下、図7を参照し、実施形態の変形例について説明する。なお、実施形態の変形例では、実施形態と同様な構成部に対して同じ符号を付して説明を省略する。
<Modification of Embodiment>
Hereinafter, a modified example of the embodiment will be described with reference to FIG. In addition, in the modification of embodiment, the same code | symbol is attached | subjected with respect to the structure part similar to embodiment, and description is abbreviate | omitted.
図7は、実施形態の変形例に係るロボットシステム2の一例を示す構成図である。実施形態の変形例では、ロボットシステム2は、単腕ロボットであるロボット20aと、ロボット20aと別体の撮像部C5と、ロボット20aと別体のロボット制御装置30を備える。そして、ロボット制御装置30は、ロボット20aと無線又は有線によって互いに通信可能に接続される。なお、ロボットシステム2では、ロボット制御装置30は、ロボット20aに内蔵される構成であってもよい。また、ロボットシステム2では、撮像部C5は、ロボット20aに備えられる構成であってもよい。
FIG. 7 is a configuration diagram illustrating an example of a
<ロボットシステムの構成>
以下、図7を参照し、ロボットシステム2の構成について説明する。
<Robot system configuration>
Hereinafter, the configuration of the
ロボット20aは、第3アームA3と、第3アームA3を支持する支持台B3を備える単腕ロボットである。
The
第3アームA3は、第3エンドエフェクターE3と、第3マニピュレーターM3を備える。
第3エンドエフェクターE3は、物体を保持するエンドエフェクターである。この一例において、第3エンドエフェクターE3は、指部を備え、当該指部によって物体を挟んで持つことにより当該物体を保持する。なお、第3エンドエフェクターE3は、これに代えて、空気の吸引や磁力、他の治具等によって物体を持ち上げることにより当該物体を保持する構成であってもよい。図7に示した例では、対象物Oは、実施形態におけるロボット20の第1エンドエフェクターE1に代えて、第3エンドエフェクターE3に予め保持されている。
The third arm A3 includes a third end effector E3 and a third manipulator M3.
The third end effector E3 is an end effector that holds an object. In this example, the third end effector E3 includes a finger part, and holds the object by holding the object by the finger part. Alternatively, the third end effector E3 may be configured to hold the object by lifting the object by air suction, magnetic force, another jig, or the like. In the example illustrated in FIG. 7, the object O is held in advance by the third end effector E3 instead of the first end effector E1 of the
第3エンドエフェクターE3は、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、第3エンドエフェクターE3は、ロボット制御装置30から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、第3エンドエフェクターE3は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The third end effector E3 is communicably connected to the
第3マニピュレーターM3は、6つの関節を備える。また、6つの関節はそれぞれ、図示しないアクチュエーターを備える。すなわち、第3マニピュレーターM3を備える第3アームA3は、6軸垂直多関節型のアームである。なお、第3アームA3は、これに代えて、6軸水平多関節型のアームであってもよい。第3アームA3は、支持台B3と、第3エンドエフェクターE3と、第3マニピュレーターM3と、第3マニピュレーターM3が備える6つの関節それぞれのアクチュエーターとによる連携した動作によって6軸の自由度の動作を行う。なお、第3アームA3は、5軸以下の自由度で動作する構成であってもよく、7軸以上の自由度で動作する構成であってもよい。 The third manipulator M3 includes six joints. Each of the six joints includes an actuator (not shown). That is, the third arm A3 including the third manipulator M3 is a 6-axis vertical articulated arm. Alternatively, the third arm A3 may be a six-axis horizontal articulated arm instead. The third arm A3 performs a motion with six degrees of freedom by a coordinated operation by the support base B3, the third end effector E3, the third manipulator M3, and the actuators of each of the six joints included in the third manipulator M3. Do. The third arm A3 may be configured to operate with a degree of freedom of 5 axes or less, or may be configured to operate with a degree of freedom of 7 axes or more.
第3マニピュレーターM3が備える6つの(関節に備えられた)アクチュエーターはそれぞれ、ケーブルによってロボット制御装置30と通信可能に接続されている。これにより、当該アクチュエーターは、ロボット制御装置30から取得される制御信号に基づいて、第3マニピュレーターM3を動作させる。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)やUSB等の規格によって行われる。また、第3マニピュレーターM3が備える6つのアクチュエーターのうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
Each of the six actuators (provided at the joints) included in the third manipulator M3 is communicably connected to the
撮像部C5は、例えば、CCD、CMOS等を、集光された光を電気信号に変換する撮像素子として備えたカメラである。この一例において、撮像部C5は、第3アームA3の可動範囲の少なくとも一部を撮像可能な位置に設置される。この際、撮像部C5は、ロボット座標系における撮像部の位置及び姿勢が動かないように固定される。当該可動範囲は、この一例において、第3エンドエフェクターE3が第3マニピュレーターM3の動作によって移動可能な範囲のことである。なお、当該可動範囲は、これに代えて、第3アームA3に応じた他の範囲であってもよい。撮像部C5は、当該範囲の二次元画像を撮像する。なお、撮像部C5は、当該範囲の静止画像を撮像する構成であってもよく、当該範囲の動画像を撮像する構成であってもよい。 The imaging unit C5 is a camera including, for example, a CCD, a CMOS, or the like as an imaging device that converts collected light into an electrical signal. In this example, the imaging unit C5 is installed at a position where at least a part of the movable range of the third arm A3 can be imaged. At this time, the imaging unit C5 is fixed so that the position and orientation of the imaging unit in the robot coordinate system do not move. In this example, the movable range is a range in which the third end effector E3 can move by the operation of the third manipulator M3. In addition, the said movable range may replace with this and the other range according to 3rd arm A3 may be sufficient. The imaging unit C5 captures a two-dimensional image in the range. Note that the imaging unit C5 may be configured to capture a still image in the range, or may be configured to capture a moving image in the range.
撮像部C5は、ケーブルによってロボット制御装置30と通信可能に接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。なお、撮像部C5は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置30と接続される構成であってもよい。
The imaging unit C5 is communicably connected to the
ロボットシステム2では、ロボット制御装置30は、実施形態におけるロボット20の第1アームA1に代えて、ロボット20aの第3アームA3を動作させる。また、ロボット制御装置30は、ロボット20の第3撮像部C3に代えて、撮像部C5に対象物Oの注目部分FOを含む領域を撮像させる。すなわち、ロボット制御装置30は、第3アームA3を動作させ、ロボット座標系において位置及び姿勢が変化しないように設置された(固定された)撮像部C5に対して対象物Oを相対的に移動させ、対象物Oと撮像部C5との相対的な位置関係を前述の撮像位置関係と一致させる。これにより、ロボット制御装置30は、撮像部C5により撮像された撮像画像に基づいて、当該撮像画像における注目部分FO以外の部分を注目部分FOとして誤検出してしまうことを抑制するとともに、当該撮像画像における注目部分FOを精度よく検出することができる。
In the
なお、ロボット制御装置30は、ロボット20aを制御し、ロボット座標系において位置及び姿勢が変化しないように設置された(固定された)対象物Oに対して、第3エンドエフェクターE3により保持された撮像部C5を相対的に移動させ、対象物Oと撮像部C5との相対的な位置関係を撮像位置関係と一致させる構成であってもよい。
Note that the
以上のように、ロボット制御装置30は、第1可動部(上記において説明した例では、第1エンドエフェクターE1、第2エンドエフェクターE2、第3エンドエフェクターE3)により対象物(上記において説明した例では、対象物O)の注目部分(上記において説明した例では、注目部分FO)を、撮像部(上記において説明した例では、第1撮像部C1、第2撮像部C2、第3撮像部C3、第4撮像部C4、撮像部C5)の被写界深度の深度方向における範囲(上記において説明した例では、範囲DF)のうち撮像部の深度方向における焦点位置(上記において説明した例では、位置P1)から当該深度方向における撮像部から最も遠い位置までの範囲である第1深度範囲(上記において説明した例では、範囲DF1)内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置30は、撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
As described above, the
また、ロボット制御装置30は、第1可動部により対象物の注目部分を、ロボット座標系における撮像部の位置及び姿勢が動かないように固定されている撮像部(上記において説明した例では、撮像部C5)の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向において撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置30は、ロボット座標系における撮像部の位置及び姿勢が動かないように固定されている撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
In addition, the
また、ロボット制御装置30は、第2可動部(この一例において、第1エンドエフェクターE1と第2エンドエフェクターE2とのうち第1可動部の一例ではない方、支持台上部B2)により撮像部を対象物に対して相対的に動かす。これにより、ロボット制御装置は、第2可動部により対象物に対して相対的に動かした撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
Further, the
また、ロボット制御装置30は、ステレオカメラである撮像部の被写界深度の深度方向における範囲のうち撮像部の深度方向における焦点位置から当該深度方向において撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、撮像部に注目部分を含む領域を撮像させる。これにより、ロボット制御装置30は、ステレオカメラである撮像部により撮像された撮像画像に基づいて、当該撮像部における対象物の注目部分を精度よく検出することができる。
The
また、ロボット制御装置30は、撮像部により撮像された撮像画像に含まれる対象物の注目部分を検出する。これにより、ロボット制御装置30は、当該撮像画像から検出した注目部分に関する作業をロボット(この一例において、ロボット20、ロボット20a)に精度よく行わせることができる。
Further, the
また、ロボット制御装置30は、撮像画像から検出した注目部分に応じた処理を行う。これにより、ロボット制御装置30は、撮像画像から検出した注目部分に応じた処理を精度よく行うことができる。
In addition, the
また、ロボット制御装置30は、撮像画像から検出した注目部分に応じて、ロボットの動作に関する処理を行う。これにより、ロボット制御装置30は、ロボットの動作に関する処理を精度よく行うことができる。
Further, the
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.
また、以上に説明した装置(例えば、ロボット制御装置30)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 Further, a program for realizing the function of an arbitrary component in the above-described apparatus (for example, robot control apparatus 30) is recorded on a computer-readable recording medium, and the program is read into a computer system and executed. You may make it do. Here, the “computer system” includes hardware such as an OS (Operating System) and peripheral devices. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD (Compact Disk) -ROM, or a storage device such as a hard disk built in the computer system. . Furthermore, “computer-readable recording medium” means a volatile memory (RAM) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.
また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
Further, the above program may be for realizing a part of the functions described above. Further, the program may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
1、2…ロボットシステム、20、20a…ロボット、30…ロボット制御装置、31、41、51…プロセッサー、32、42、52…メモリー、34、44、54…通信部、321、322…指令、361…撮像制御部、363…画像取得部、365…ロボット制御部、367…画像処理部、A1…第1アーム、A2…第2アーム、A3…第3アーム、B、B3…支持台、C1…第1撮像部、C2…第2撮像部、C3…第3撮像部、C4…第4撮像部、C5…撮像部、E1…第1エンドエフェクター、E2…第2エンドエフェクター、E3…第3エンドエフェクター、M1…第1マニピュレーター、M2…第2マニピュレーター、M3…第3マニピュレーター、O…対象物、PC1、PC2、PC3…情報処理装置
DESCRIPTION OF
Claims (11)
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、
ロボット制御装置。 A robot control apparatus for controlling a robot having a first movable part that moves an object,
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit Moving within a first depth range that is a range up to, causing the imaging unit to image a region including the portion of interest,
Robot control device.
請求項1に記載のロボット制御装置。 The imaging unit is fixed so that the position and orientation of the imaging unit in a robot coordinate system do not move.
The robot control apparatus according to claim 1.
請求項1に記載のロボット制御装置。 Moving the imaging unit relative to the object by a second movable unit;
The robot control apparatus according to claim 1.
請求項1から3のうちいずれか一項に記載のロボット制御装置。 The imaging unit is a stereo camera.
The robot control apparatus according to any one of claims 1 to 3.
請求項1から4のうちいずれか一項に記載のロボット制御装置。 Detecting the part of interest included in the captured image captured by the imaging unit;
The robot control apparatus according to any one of claims 1 to 4.
請求項5に記載のロボット制御装置。 Performing processing according to the target portion detected from the captured image;
The robot control apparatus according to claim 5.
請求項6に記載のロボット制御装置。 Depending on the portion of interest detected from the captured image, processing related to the operation of the robot is performed.
The robot control device according to claim 6.
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、
ロボット。 A first movable part for moving the object;
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit Moving within a first depth range that is a range up to, causing the imaging unit to image a region including the portion of interest,
robot.
前記ロボット制御装置は、
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、
ロボットシステム。 A robot system comprising a robot having a first movable part that moves an object, and a robot control device that controls the robot,
The robot controller is
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit Moving within a first depth range that is a range up to, causing the imaging unit to image a region including the portion of interest,
Robot system.
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる、
ロボット制御方法。 A robot control method for controlling a robot having a first movable part that moves an object,
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit Moving within a first depth range that is a range up to, causing the imaging unit to image a region including the portion of interest,
Robot control method.
プロセッサーを備え、
前記プロセッサーは、
前記第1可動部により前記対象物の注目部分を、撮像部の被写界深度の深度方向における範囲のうち前記撮像部の前記深度方向における焦点位置から前記深度方向における前記撮像部から最も遠い位置までの範囲である第1深度範囲内に動かして、前記撮像部に前記注目部分を含む領域を撮像させる指令を実行するように構成されていることを特徴する、
ロボット制御装置。 A robot control apparatus for controlling a robot having a first movable part that moves an object,
With a processor,
The processor is
Positioning the target portion of the object by the first movable unit farthest from the imaging unit in the depth direction from the focal position in the depth direction of the imaging unit in the depth direction of the depth of field of the imaging unit It is configured to move within a first depth range that is a range up to and to execute a command to cause the imaging unit to image a region including the target portion.
Robot control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017158465A JP2019034386A (en) | 2017-08-21 | 2017-08-21 | Robot control device, robot, robot system, and robot control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017158465A JP2019034386A (en) | 2017-08-21 | 2017-08-21 | Robot control device, robot, robot system, and robot control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019034386A true JP2019034386A (en) | 2019-03-07 |
Family
ID=65636345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017158465A Pending JP2019034386A (en) | 2017-08-21 | 2017-08-21 | Robot control device, robot, robot system, and robot control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019034386A (en) |
-
2017
- 2017-08-21 JP JP2017158465A patent/JP2019034386A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10350768B2 (en) | Control device, robot, and robot system | |
US20160184996A1 (en) | Robot, robot system, control apparatus, and control method | |
US20170182665A1 (en) | Robot, robot control device, and robot system | |
JP2018051704A (en) | Robot control device, robot, and robot system | |
US20170277167A1 (en) | Robot system, robot control device, and robot | |
CN111791270B (en) | Robot system and shooting method | |
US20170203434A1 (en) | Robot and robot system | |
US20150343634A1 (en) | Robot, robot system, and control method | |
JP6699097B2 (en) | Robot and control device | |
US20180085920A1 (en) | Robot control device, robot, and robot system | |
JP6926906B2 (en) | Robot system, control device and robot control method | |
JP6390088B2 (en) | Robot control system, robot, program, and robot control method | |
US20180056517A1 (en) | Robot, robot control device, and robot system | |
JP6488571B2 (en) | Teaching apparatus and robot system | |
JP2016120530A (en) | Robot and robot calibration system | |
JP6958091B2 (en) | Robot system and robot control method | |
JP2019034386A (en) | Robot control device, robot, robot system, and robot control method | |
JP6897398B2 (en) | 3D shape measuring device, robot system, and 3D shape measuring method | |
JP2018017610A (en) | Three-dimensional measuring device, robot, robot controlling device, and robot system | |
JP2016120558A (en) | Robot and robot system | |
JP2018001321A (en) | Robot, robot control device and robot system | |
JP2018015856A (en) | Robot, robot control device, and robot system | |
JP2017100197A (en) | Robot and control method | |
JP2019042902A (en) | Imaging method and robot system | |
JP2019111588A (en) | Robot system, information processor, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190402 |