JP2015100868A - Robot system - Google Patents

Robot system Download PDF

Info

Publication number
JP2015100868A
JP2015100868A JP2013242057A JP2013242057A JP2015100868A JP 2015100868 A JP2015100868 A JP 2015100868A JP 2013242057 A JP2013242057 A JP 2013242057A JP 2013242057 A JP2013242057 A JP 2013242057A JP 2015100868 A JP2015100868 A JP 2015100868A
Authority
JP
Japan
Prior art keywords
imaging
robot
orientation
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013242057A
Other languages
Japanese (ja)
Inventor
智紀 原田
Tomonori Harada
智紀 原田
橋本 浩一
Koichi Hashimoto
浩一 橋本
慎吾 鏡
Shingo Kagami
慎吾 鏡
祐仁 安達
Masahito Adachi
祐仁 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013242057A priority Critical patent/JP2015100868A/en
Publication of JP2015100868A publication Critical patent/JP2015100868A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a robot system enabled to control a robot by shortening the time period which is necessary for estimating the position and the attitude of an object in a three-dimensional space.SOLUTION: A robot system comprises: a robot; an imaging part for imaging an object; and a control part for operating the robot, wherein the imaging part includes a plurality of imaging elements including a first imaging element and a second imaging element. The control part operates the robot such that the object is imaged in a first direction by the first imaging element, and such that the object is imaged by the second imaging element in a second direction different from the first direction.

Description

この発明は、ロボットシステムに関する。   The present invention relates to a robot system.

現在、産業用ロボットによって作業が行われる際、産業用ロボットが扱う対象となる物体の位置は、治具を用いる等の工夫によって、事前に決定されている必要がある。一方で、事前に物体の位置を固定できないような作業であり、産業用ロボットを活用したい作業は多い。物体の位置を固定できないような作業とは、例えば、物体同士の組み付けや、物体へのラベル貼り等である。これらの作業を産業用ロボットが行うためには、産業用ロボットが物体の三次元空間における位置及び姿勢を、正確且つ高速に認識する必要がある。近年、このような必要性から、カメラによって撮像された画像を用いることで、物体の三次元空間における位置及び姿勢を認識するシステムの研究・開発が盛んに行われている。   Currently, when work is performed by an industrial robot, the position of an object to be handled by the industrial robot needs to be determined in advance by means such as using a jig. On the other hand, it is an operation that cannot fix the position of an object in advance, and there are many operations that use an industrial robot. The work in which the position of the object cannot be fixed is, for example, assembly of objects or labeling on the object. In order for an industrial robot to perform these operations, the industrial robot needs to recognize the position and orientation of an object in a three-dimensional space accurately and at high speed. In recent years, research and development of a system for recognizing the position and orientation of an object in a three-dimensional space by using an image captured by a camera has been actively conducted because of such necessity.

これに関連し、空間中に配置された指標を含む画像を撮像し、撮像画像に含まれる指標に基づいて、その指標の分布範囲を導出し、導出された分布範囲の大きさに応じたアルゴリズムに基づいて、三次元空間における物体の位置及び姿勢を推定する位置姿勢計測装置が知られている(特許文献1参照)。   In relation to this, an image including an index arranged in the space is captured, the distribution range of the index is derived based on the index included in the captured image, and an algorithm according to the size of the derived distribution range Based on the above, there is known a position and orientation measurement apparatus that estimates the position and orientation of an object in a three-dimensional space (see Patent Document 1).

特開2006−242943号公報JP 2006-242943 A

しかしながら、従来の位置姿勢計測装置等では、三次元空間における位置及び姿勢を計測するための非線形最適化の手法として、多くの反復計算を必要とするニュートン法等を用いる例が挙げられている。しかしながら、ニュートン法を利用した手法では、短時間で物体の三次元空間における位置及び姿勢を推定することができない場合がある。   However, in a conventional position / orientation measurement apparatus or the like, as an example of a nonlinear optimization technique for measuring a position and orientation in a three-dimensional space, an example using Newton's method or the like that requires many iterative calculations is given. However, in the method using the Newton method, the position and orientation of the object in the three-dimensional space may not be estimated in a short time.

そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、物体の三次元空間における位置及び姿勢の推定に必要な時間を短縮してロボットを制御することができるロボットシステムを提供する。   Accordingly, the present invention has been made in view of the above-described problems of the prior art, and provides a robot system capable of controlling a robot while reducing the time required for estimating the position and orientation of an object in a three-dimensional space. .

[1]本発明は、上記の課題を解決するためになされたものであり、ロボットと、物体を撮像する撮像部と、前記ロボットを動作させる制御部と、を含み、前記撮像部は、第1撮像素子と第2撮像素子とを含む複数の撮像素子を備え、前記制御部は、前記第1撮像素子により第1方向から前記物体を撮像することと、前記第2撮像素子により前記第1方向とは異なる第2方向から前記物体を撮像することによって、前記ロボットを動作させる、ロボットシステムである。 [1] The present invention has been made to solve the above-described problem, and includes a robot, an imaging unit that images an object, and a control unit that operates the robot. A plurality of image sensors including one image sensor and a second image sensor; and the control unit images the object from a first direction by the first image sensor, and the first image by the second image sensor. The robot system operates the robot by imaging the object from a second direction different from the direction.

この構成により、ロボットシステムは、第1撮像素子と第2撮像素子とを含む複数の撮像素子を備える撮像部を備え、第1撮像素子により第1方向から物体を撮像することと、第2撮像素子により第1方向とは異なる第2方向から物体を撮像することによって、ロボットを動作させるため、物体の三次元空間における位置及び姿勢の推定に必要な時間を短縮してロボットを制御することができる。   With this configuration, the robot system includes an imaging unit including a plurality of imaging elements including a first imaging element and a second imaging element, and images the object from the first direction by the first imaging element, and the second imaging Since the robot is operated by imaging the object from the second direction different from the first direction by the element, the time required for estimating the position and orientation of the object in the three-dimensional space can be reduced to control the robot. it can.

[2]また、本発明は、[1]に記載のロボットシステムであって、前記制御部は、前記撮像部により撮像された複数の撮像画像に基づいて、前記物体の三次元ヤコビ行列を算出し、前記算出された三次元ヤコビ行列と、基準となる基準三次元ヤコビ行列とを比較して、前記物体の位置及び姿勢を推定し、前記推定された位置及び姿勢に基づいて、前記ロボットを動作させる、ロボットシステムである。 [2] The present invention is the robot system according to [1], in which the control unit calculates a three-dimensional Jacobian matrix of the object based on a plurality of captured images captured by the imaging unit. And comparing the calculated three-dimensional Jacobian matrix with a reference three-dimensional Jacobian matrix as a reference to estimate the position and posture of the object, and based on the estimated position and posture, the robot A robot system to be operated.

この構成により、ロボットシステムは、制御部は、撮像部により撮像された複数の撮像画像に基づいて、物体の三次元ヤコビ行列を算出し、算出された三次元ヤコビ行列と、基準となる基準三次元ヤコビ行列とを比較して、物体の位置及び姿勢を推定し、推定された位置及び姿勢に基づいて、ロボットを動作させるため、例えば、ESM(Efficient Second−order Minimization Method)法を用いた推定方法によって物体の位置及び姿勢を推定し、従来のニュートン法等の非線形最小化手法を用いた推定法に比べて、物体の位置及び姿勢の推定に必要な時間を短縮してロボットを制御することができる。   With this configuration, in the robot system, the control unit calculates the three-dimensional Jacobian matrix of the object based on the plurality of captured images captured by the imaging unit, the calculated three-dimensional Jacobian matrix, and the reference third order as a reference In order to estimate the position and orientation of the object by comparing with the original Jacobian matrix, and to operate the robot based on the estimated position and orientation, for example, estimation using an ESM (Efficient Second-order Minimization Method) method This method estimates the position and orientation of an object using a method, and controls the robot by shortening the time required to estimate the position and orientation of the object compared to the estimation method using a nonlinear minimization method such as the conventional Newton method. Can do.

[3]また、本発明は、[1]又は[2]に記載のロボットシステムであって、前記撮像部は、ハーフミラーと、複数のミラーを更に備え、前記ハーフミラーと前記複数のミラーとによって、前記第1方向と前記第2方向とから入射する前記物体からの光を前記第1撮像素子と前記第2撮像素子に集める、ロボットシステムである。 [3] The present invention is the robot system according to [1] or [2], wherein the imaging unit further includes a half mirror and a plurality of mirrors, and the half mirror and the plurality of mirrors Thus, the robot system collects light from the object incident from the first direction and the second direction on the first image sensor and the second image sensor.

この構成により、ロボットシステムは、撮像部が、ハーフミラーと複数のミラーとによって、第1方向と第2方向とから入射する物体からの光を第1撮像素子と第2撮像素子に集めるため、撮像部の位置を変えることなく、異なる方向から撮像された複数の画像を取得することができ、その結果として、物体の位置及び姿勢の推定に必要な時間を短縮することができる。また、撮像画像にぶれが生じることが無く、推定の精度を向上させることができる。   With this configuration, in the robot system, the imaging unit collects light from an object incident from the first direction and the second direction on the first imaging element and the second imaging element by the half mirror and the plurality of mirrors. A plurality of images captured from different directions can be acquired without changing the position of the imaging unit, and as a result, the time required for estimating the position and orientation of the object can be shortened. In addition, no blurring occurs in the captured image, and the estimation accuracy can be improved.

[4]また、本発明は、[3]に記載のロボットシステムであって、前記撮像部は、前記ハーフミラーにより前記第1方向と前記第2方向とから入射する前記物体からの光を分岐させることで、前記第1方向と前記第2方向とから入射する前記物体からの光を前記第1撮像素子と前記第2撮像素子に集める、ロボットシステムである。 [4] The present invention is the robot system according to [3], in which the imaging unit branches light from the object incident from the first direction and the second direction by the half mirror. By doing so, the robot system collects light from the object incident from the first direction and the second direction on the first image sensor and the second image sensor.

この構成により、ロボットシステムは、撮像部が、ハーフミラーにより第1方向と第2方向とから入射する物体からの光を分岐させることで、第1方向と第2方向とから入射する物体からの光を第1撮像素子と第2撮像素子に集めるため、1台の撮像部によって同時に異なる方向から物体を撮像することができ、物体の位置及び姿勢の推定をより短時間で行うことができる。   With this configuration, in the robot system, the imaging unit branches light from an object incident from the first direction and the second direction by the half mirror, so that the object from the object incident from the first direction and the second direction is split. Since light is collected on the first image sensor and the second image sensor, an object can be imaged simultaneously from different directions by a single imaging unit, and the position and orientation of the object can be estimated in a shorter time.

[5]また、本発明は、[3]に記載のロボットシステムであって、前記撮像部は、撮像素子の面に平行な面上に配列された、互いに異なる焦点を有する複数のレンズを更に備え、前記複数のレンズによって得られる奥行き方向の情報を含む画像を撮像する、ロボットシステムである。 [5] The present invention is the robot system according to [3], in which the imaging unit further includes a plurality of lenses arranged on a plane parallel to the plane of the imaging element and having different focal points. A robot system that captures an image including information in a depth direction obtained by the plurality of lenses.

この構成により、ロボットシステムは、撮像部が、撮像素子の面に平行な面上に配列された、互いに異なる焦点を有する複数のレンズを更に備え、複数のレンズによって得られる奥行き方向の情報を含む画像を撮像するため、ハーフミラーや複数のミラーにより構成される光学系を必要とせず、物体の位置及び姿勢の推定をより短時間で行うことができる。   With this configuration, in the robot system, the imaging unit further includes a plurality of lenses having different focal points arranged on a plane parallel to the plane of the imaging element, and includes information in the depth direction obtained by the plurality of lenses. Since an image is captured, an optical system composed of a half mirror and a plurality of mirrors is not required, and the position and orientation of an object can be estimated in a shorter time.

第1の実施形態におけるロボットシステム1の利用状況の一例を示す図である。It is a figure which shows an example of the utilization condition of the robot system 1 in 1st Embodiment. 物体位置姿勢推定装置30のハードウェア構成の一例を示す図である。2 is a diagram illustrating an example of a hardware configuration of an object position / orientation estimation apparatus 30. FIG. 物体位置姿勢推定装置30の機能構成の一例を示す図である。3 is a diagram illustrating an example of a functional configuration of an object position / orientation estimation apparatus 30. FIG. 撮像部10が備える専用の光学系optの一例を表す図である。3 is a diagram illustrating an example of a dedicated optical system opt included in the imaging unit 10. FIG. 図4で示した専用の光学系optを備えた撮像部10によって、異なる方向から撮像された物体の画像pic1〜pic4が撮像される状況の一例を説明する図である。It is a figure explaining an example of the condition where the images pic1-pic4 of the object imaged from a different direction are imaged by the imaging part 10 provided with the exclusive optical system opt shown in FIG. 物体位置姿勢推定装置30の動作の流れの一例を説明するフローチャートである。5 is a flowchart illustrating an example of an operation flow of the object position / orientation estimation apparatus 30. 第2の実施形態におけるロボットシステム1の利用状況の一例を示す図である。It is a figure which shows an example of the utilization condition of the robot system 1 in 2nd Embodiment.

<第1の実施形態>
以下、本発明の実施形態について、図面を参照して詳細に説明する。図1は、第1の実施形態におけるロボットシステム1の利用状況の一例を示す図である。第1の実施形態におけるロボットシステム1は、例えば、撮像部10と、物体位置姿勢推定装置30と、ロボット本体50とを具備する。撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えたカメラである。撮像部10は、静止画像や動画像を撮像する。以下では、説明を簡略化するため、撮像部10は、静止画像を撮像するものとする。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram illustrating an example of a usage status of the robot system 1 according to the first embodiment. The robot system 1 in the first embodiment includes, for example, an imaging unit 10, an object position / posture estimation device 30, and a robot body 50. The imaging unit 10 is a camera including an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), which is an imaging element that converts the collected light into an electrical signal. The imaging unit 10 captures still images and moving images. Hereinafter, in order to simplify the description, the imaging unit 10 captures a still image.

撮像部10は、ケーブルCblによって、物体位置姿勢推定装置30と通信可能に接続されている。ケーブルCblを介した有線通信は、例えば、HDMI(High−Definition Multimedia Interface、登録商標)、USB(Universal Serial Bus)等の規格によって行われる。なお、撮像部10と物体位置姿勢推定装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。撮像部10は、テーブルtbl上に置かれた対象物体bxを互いに異なる方向から撮像し、撮像した画像を、ケーブルCblを介して物体位置姿勢推定装置30へ出力する。異なる方向から撮像する方法についての詳細は、後述する。なお、それぞれの方向から撮像された画像は、それぞれの方向(例えば、第1方向と、第1方向とは異なる第2方向)に対応した複数の画像でもよく、異なる方向に対応した複数の画像が1つの撮像素子によりまとめて撮像された1つの画像でもよい。また、複数の画像が結合されて1つの画像として扱われるものであってもよい。特許請求の範囲における「複数の撮像画像」とは、これらのいずれであってもよい。以下では、説明を簡略化するため、それぞれの方向から撮像された画像が、それぞれの方向に対応した複数の画像であるものとして説明する。   The imaging unit 10 is communicably connected to the object position / orientation estimation apparatus 30 via a cable Cbl. Wired communication via the cable Cbl is performed according to standards such as HDMI (High-Definition Multimedia Interface (registered trademark)) and USB (Universal Serial Bus). The imaging unit 10 and the object position / orientation estimation apparatus 30 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). The imaging unit 10 captures the target object bx placed on the table tbl from different directions, and outputs the captured image to the object position / orientation estimation apparatus 30 via the cable Cbl. Details of the method of imaging from different directions will be described later. In addition, the image imaged from each direction may be a plurality of images corresponding to each direction (for example, a first direction and a second direction different from the first direction), or a plurality of images corresponding to different directions. May be one image picked up collectively by one image sensor. A plurality of images may be combined and handled as one image. The “plurality of captured images” in the claims may be any of these. Hereinafter, in order to simplify the description, it is assumed that images taken from each direction are a plurality of images corresponding to the respective directions.

物体位置姿勢推定装置30は、ケーブルEthによって、ロボット本体50と通信可能に接続されている。ケーブルEthを介した有線通信は、例えば、イーサネット(登録商標)等の通信規格によって行われる。なお、物体位置姿勢推定装置30とロボット本体50とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、図1において、物体位置姿勢推定装置30は、ロボット本体50の外部に設置されているが、ロボット本体50の内部に搭載されてもよい。物体位置姿勢推定装置30は、撮像部10から取得した撮像画像に基づいて、ロボット本体50に取り付けられた把持部hndの位置及び姿勢を制御し、把持部hndによって対象物体bxを予め決められた移動先へ移動させる。   The object position / orientation estimation apparatus 30 is connected to the robot body 50 via a cable Eth so as to be communicable. Wired communication via the cable Eth is performed according to a communication standard such as Ethernet (registered trademark), for example. The object position / orientation estimation apparatus 30 and the robot body 50 may be connected by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). In FIG. 1, the object position / orientation estimation apparatus 30 is installed outside the robot body 50, but may be mounted inside the robot body 50. The object position / orientation estimation apparatus 30 controls the position and orientation of the grip part hnd attached to the robot body 50 based on the captured image acquired from the image capturing unit 10, and the target object bx is determined in advance by the grip part hnd. Move to destination.

ロボット本体50は、例えば、把持部hndを可動に備えた6軸垂直多関節ロボットであり、支持台とアーム部と把持部hndとの連携した動作によって、6軸の自由度の動作を行うことができる。把持部hndは、物体を把持又は挟持可能な爪部を備える。なお、ロボット本体50は、5自由度以下で動作するものであってもよく、7自由度以上で動作するものであってもよい。   The robot main body 50 is, for example, a 6-axis vertical articulated robot that is movably provided with a gripping portion hnd, and performs a motion with 6 degrees of freedom by a coordinated operation of the support base, the arm portion, and the gripping portion hnd. Can do. The grip portion hnd includes a claw portion that can grip or clamp an object. The robot body 50 may operate with 5 degrees of freedom or less, or may operate with 7 degrees of freedom or more.

次に、図2を参照することで、物体位置姿勢推定装置30のハードウェア構成について説明する。図2は、物体位置姿勢推定装置30のハードウェア構成の一例を示す図である。物体位置姿勢推定装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34とを備え、通信部34を介して他の撮像部10、ロボット本体50と通信を行う。CPU31は、記憶部32に格納された各種プログラムを実行する。記憶部32は、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、物体位置姿勢推定装置30が処理する情報やプログラムを格納する。なお、記憶部32は、物体位置姿勢推定装置30に内蔵されるものに代えて、外付け型の記憶装置でもよい。   Next, the hardware configuration of the object position / orientation estimation apparatus 30 will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of a hardware configuration of the object position / posture estimation apparatus 30. The object position / orientation estimation apparatus 30 includes, for example, a CPU (Central Processing Unit) 31, a storage unit 32, an input reception unit 33, and a communication unit 34, and the other imaging unit 10 and robot via the communication unit 34. It communicates with the main body 50. The CPU 31 executes various programs stored in the storage unit 32. The storage unit 32 includes HDD (Hard Disk Drive), SSD (Solid State Drive), EEPROM (Electrically Erasable Programmable Read-Only Memory), ROM (Read-Only Memory, etc.). Information and programs to be processed by the posture estimation device 30 are stored. The storage unit 32 may be an external storage device in place of the storage unit 32 built in the object position / posture estimation device 30.

入力受付部33は、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部33は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。通信部34は、HDMIやUSB等のデジタル入出力ポートとともに、イーサネット(登録商標)ポートを含んで構成される。   The input receiving unit 33 is a keyboard, mouse, touch pad, or other input device. The input receiving unit 33 may function as a display unit, and may be configured as a touch panel. The communication unit 34 includes an Ethernet (registered trademark) port as well as a digital input / output port such as HDMI or USB.

次に、図3を参照することで、物体位置姿勢推定装置30の機能構成について説明する。図3は、物体位置姿勢推定装置30の機能構成の一例を示す図である。物体位置姿勢推定装置30は、例えば、記憶部32と、入力受付部33と、画像取得部35と、制御部36とを備える。画像取得部35は、撮像部10によって対象物体bxが異なる方向から撮像された画像を取得し、取得した画像を、後述する画像記憶部321に記憶させる。これらのうち、画像取得部35、ヤコビ行列算出部37、位置姿勢推定部41は、例えば、CPU31が記憶部32に格納されたプログラムを実行することにより機能するソフトウェア機能部である。また、これらのうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   Next, the functional configuration of the object position / orientation estimation apparatus 30 will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of a functional configuration of the object position / posture estimation apparatus 30. The object position / orientation estimation apparatus 30 includes, for example, a storage unit 32, an input reception unit 33, an image acquisition unit 35, and a control unit 36. The image acquisition unit 35 acquires an image captured by the imaging unit 10 from different directions of the target object bx, and stores the acquired image in an image storage unit 321 described later. Among these, the image acquisition unit 35, the Jacobian matrix calculation unit 37, and the position / orientation estimation unit 41 are software function units that function when the CPU 31 executes a program stored in the storage unit 32, for example. Some or all of these may be hardware function units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

記憶部32は、例えば、画像記憶部321と、モデル記憶部322とを備える。画像記憶部321は、画像取得部35が取得した画像を記憶する。モデル記憶部322は、対象物体bx又は対象物体bxの形状、色彩、模様等を三次元モデル化して得られた三次元モデルデータ(以下、リファレンスモデルと称する)を予め記憶する。リファレンスモデルは、撮像部10により撮像された対象物体bxとの比較対象となるものであり、例えば、
三次元コンピューターグラフィックス(Computer Graphics;CG)で表現される。この三次元CGは、例えば、ポリゴンデータの集合として表される。
The storage unit 32 includes, for example, an image storage unit 321 and a model storage unit 322. The image storage unit 321 stores the image acquired by the image acquisition unit 35. The model storage unit 322 stores in advance three-dimensional model data (hereinafter referred to as a reference model) obtained by modeling the target object bx or the shape, color, pattern, and the like of the target object bx. The reference model is a comparison target with the target object bx imaged by the imaging unit 10, for example,
It is expressed by three-dimensional computer graphics (Computer Graphics; CG). This three-dimensional CG is represented as a set of polygon data, for example.

制御部36は、例えば、ヤコビ行列算出部37と、位置姿勢推定部41と、駆動制御部43とを備える。ヤコビ行列算出部37は、画像記憶部321に記憶された画像(対象物体bxが異なる方向から撮像された画像)に基づいて、対象物体bxの三次元ヤコビ行列を算出する。三次元ヤコビ行列は、例えば、対象物体bxの位置及び姿勢を推定するために利用される非線形最小化手法に必要なパラメーターを含む行列である。非線形最小化手法とは、例えば、ESM(Efficient Second−order Minimization Method)法やレーベンバーグ・マルカート法、ニュートン法、ガウス・ニュートン法等である。これらの非線形最小化手法のうち、ESM法は、他の手法に比べて反復計算の回数が少ないため、対象物体bxの位置及び姿勢をより高速に推定したい場合に、好適に用いることができる。そこで、以下では、非線形最小化手法としてESM法を採用し、算出した三次元ヤコビ行列は、ESM法に用いるパラメーターであるものとして説明する。   The control unit 36 includes, for example, a Jacobian matrix calculation unit 37, a position / orientation estimation unit 41, and a drive control unit 43. The Jacobian matrix calculation unit 37 calculates a three-dimensional Jacobian matrix of the target object bx based on the image stored in the image storage unit 321 (the image obtained by capturing the target object bx from different directions). The three-dimensional Jacobian matrix is a matrix including parameters necessary for a nonlinear minimization technique used for estimating the position and orientation of the target object bx, for example. Examples of the nonlinear minimization method include an ESM (Efficient Second-Order Minimization Method) method, a Levenberg-Marquardt method, a Newton method, a Gauss-Newton method, and the like. Among these nonlinear minimization methods, the ESM method has a smaller number of iterative calculations than other methods, and can be suitably used when it is desired to estimate the position and orientation of the target object bx at a higher speed. Therefore, the following description will be made assuming that the ESM method is adopted as the nonlinear minimization method and the calculated three-dimensional Jacobian matrix is a parameter used for the ESM method.

また、ヤコビ行列算出部37は、ロボット本体50によって対象物体bxを移動させた後の位置及び姿勢(リファレンスモデルの仮想的な位置及び姿勢)を、ユーザーからの入力として入力受付部33から取得する。ヤコビ行列算出部37は、例えば、一時的な記憶領域を備えており、ユーザーからの入力を記憶する。そして、ヤコビ行列算出部37は、モデル記憶部322に記憶されたリファレンスモデルと、ユーザーからの入力に基づいて、対象物体bxの位置及び姿勢をESM法によって推定するための基準となる三次元ヤコビ行列(特許請求の範囲における基準三次元ヤコビ行列の一例)を算出する。また、ヤコビ行列算出部37は、画像から算出した三次元ヤコビ行列と、リファレンスモデルから算出した基準となる三次元ヤコビ行列とを、位置姿勢推定部41へ出力する。   Further, the Jacobian matrix calculation unit 37 acquires the position and orientation (the virtual position and orientation of the reference model) after the target object bx is moved by the robot body 50 from the input reception unit 33 as input from the user. . The Jacobian matrix calculation unit 37 includes, for example, a temporary storage area and stores input from the user. The Jacobian matrix calculation unit 37 then uses the reference model stored in the model storage unit 322 and the input from the user as a reference for estimating the position and orientation of the target object bx by the ESM method. A matrix (an example of a reference three-dimensional Jacobian matrix in the claims) is calculated. Further, the Jacobian matrix calculation unit 37 outputs the three-dimensional Jacobian matrix calculated from the image and the reference three-dimensional Jacobian matrix calculated from the reference model to the position / orientation estimation unit 41.

位置姿勢推定部41は、取得した画像から算出した三次元ヤコビ行列と、リファレンスモデルから算出した基準となる三次元ヤコビ行列とに基づいて、ESM法によって対象物体bxのカメラ座標系における位置及び姿勢を推定する。ESM法による位置及び姿勢の推定についての詳細は、後述する。カメラ座標系とは、位置姿勢推定部41が仮想空間上に設ける座標系のことであり、例えば、撮像部10によって撮像される画像内における位置を表すために用いられる座標系である。位置姿勢推定部41は、推定した対象物体bxのカメラ座標系における位置及び姿勢を表す情報を、駆動制御部43へ出力する。   The position / orientation estimation unit 41 uses the ESM method to determine the position and orientation of the target object bx in the camera coordinate system based on the three-dimensional Jacobian matrix calculated from the acquired image and the reference three-dimensional Jacobian matrix calculated from the reference model. Is estimated. Details of the position and orientation estimation by the ESM method will be described later. The camera coordinate system is a coordinate system provided in the virtual space by the position / orientation estimation unit 41, and is a coordinate system used to represent a position in an image captured by the imaging unit 10, for example. The position / orientation estimation unit 41 outputs information representing the estimated position and orientation of the target object bx in the camera coordinate system to the drive control unit 43.

駆動制御部43は、取得した対象物体bxのカメラ座標系における位置及び姿勢を表す情報に基づいて、対象物体bxのロボット座標系における位置及び姿勢を算出する。ロボット座標系とは、ロボット本体50が稼働する際に、把持部の位置を表すために用いられる座標系である。駆動制御部43は、位置姿勢推定部41に適用するカメラ座標系と、ロボット本体50に適用するロボット座標系とのキャリブレーション(較正)処理を行う。   The drive control unit 43 calculates the position and orientation of the target object bx in the robot coordinate system based on the acquired information representing the position and orientation of the target object bx in the camera coordinate system. The robot coordinate system is a coordinate system that is used to represent the position of the grip portion when the robot body 50 operates. The drive control unit 43 performs a calibration process between a camera coordinate system applied to the position / orientation estimation unit 41 and a robot coordinate system applied to the robot body 50.

駆動制御部43は、算出した対象物体bxのロボット座標系における位置及び姿勢に基づいて、ロボット本体50が備える把持部hndの位置及び姿勢を計算する。そして、駆動制御部43は、この計算結果に基づいて、ロボット本体50の各可動部の動作を制御する。   Based on the calculated position and orientation of the target object bx in the robot coordinate system, the drive control unit 43 calculates the position and orientation of the grip portion hnd included in the robot body 50. And the drive control part 43 controls operation | movement of each movable part of the robot main body 50 based on this calculation result.

次に、図4と図5とを参照することで、異なる方向から対象物体bxを撮像する方法の一例について説明する。図4は、撮像部10が備える専用の光学系optの一例を表す図である。対象物体bxからの反射光は、光学系optを介して、撮像素子ccd1、ccd2に入射する。なお、撮像素子ccd1は、第1撮像素子の一例である。また、撮像素子ccd2は、第2撮像素子の一例である。対象物体bxからの反射光は、まずハーフミラーhmrへと入射する。ハーフミラーhmrは、入射光の約50%を透過させ、残りの50%を透過光とは直交する方向へ反射させる。図4において、実線の矢印は、入射光ll1の光路を表し、一点鎖線の矢印は、入射光ll2の光路を表している。なお、入射光ll1がハーフミラーhmrに入射する方向は、第1方向の一例である。また、入射光ll2がハーフミラーhmrに入射する方向は、第2方向の一例である。ハーフミラーhmrにより反射された入射光ll1は、ミラーmr1、mr2によって反射され、撮像素子ccd1へと到達する。一方、ハーフミラーhmrを透過した入射光ll2は、ミラーmr3、mr4によって反射され、撮像素子ccd2へと到達する。このとき、mr3の反射面の傾きによって、入射光ll1と、入射光ll2とのそれぞれによって撮像される対象物体bxの像は、単純に反転しているわけではなく、微小変化量分だけ対象物体bxを移動させてから撮像したような像となっている。なお、ミラーmr1〜4は、複数のミラーの一例である。   Next, an example of a method for imaging the target object bx from different directions will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram illustrating an example of a dedicated optical system opt included in the imaging unit 10. The reflected light from the target object bx enters the image sensors ccd1 and ccd2 via the optical system opt. The image sensor ccd1 is an example of a first image sensor. The image sensor ccd2 is an example of a second image sensor. The reflected light from the target object bx first enters the half mirror hmr. The half mirror hmr transmits about 50% of the incident light and reflects the remaining 50% in a direction orthogonal to the transmitted light. In FIG. 4, the solid line arrow represents the optical path of the incident light ll1, and the alternate long and short dash line arrow represents the optical path of the incident light ll2. The direction in which the incident light ll1 enters the half mirror hmr is an example of a first direction. The direction in which the incident light ll2 enters the half mirror hmr is an example of a second direction. Incident light ll1 reflected by the half mirror hmr is reflected by the mirrors mr1 and mr2, and reaches the image sensor ccd1. On the other hand, the incident light ll2 transmitted through the half mirror hmr is reflected by the mirrors mr3 and mr4 and reaches the image sensor ccd2. At this time, due to the inclination of the reflecting surface of mr3, the image of the target object bx imaged by each of the incident light ll1 and the incident light ll2 is not simply inverted, but the target object by a minute change amount. The image looks like an image taken after moving bx. The mirrors mr1 to mr4 are examples of a plurality of mirrors.

ここで、ミラーmr1、mr2、及び撮像素子ccd1によって構成される撮像系と、ミラーmr3、mr4、及び撮像素子ccd2によって構成される撮像系とは、ヤコビ行列算出部37は、この微小変化量に基づいて、三次元ヤコビ行列を算出することができる。具体的には、三次元ヤコビ行列の各要素は、対象物体bxを撮像する方向を微小変化させた場合に、その変化させた方向への微小変化に対する対象物体bxを表す画像中のピクセルの輝度が変化する時の変化率を表す値である。ヤコビ行列算出部37は、対象物体bx自体を動かすのに代えて、異なる方向から撮像した対象物体bxの画像を比較し、差分を求めることによって、上記変化率を算出し、この変化率に基づいて三次元ヤコビ行列の各要素を決定する。   Here, the imaging system configured by the mirrors mr1 and mr2 and the imaging device ccd1 and the imaging system configured by the mirrors mr3 and mr4 and the imaging device ccd2 are configured so that the Jacobian matrix calculation unit 37 determines the minute change amount. Based on this, a three-dimensional Jacobian matrix can be calculated. Specifically, each element of the three-dimensional Jacobian matrix indicates the luminance of a pixel in the image representing the target object bx with respect to the minute change in the changed direction when the direction in which the target object bx is imaged is slightly changed. It is a value representing the rate of change when. Instead of moving the target object bx itself, the Jacobian matrix calculating unit 37 compares the images of the target object bx captured from different directions and calculates the difference, thereby calculating the change rate, and based on the change rate To determine each element of the three-dimensional Jacobian matrix.

なお、図4において、画像pic1、pic2はそれぞれ、撮像素子ccd1、ccd2に入射したそれぞれの入射光ll1、ll2による像である。ここで、図4において、画像pic1と、画像pic2とが、専用の光学系optを通過した際に反転してしまうことを明確に示すため、対象物体bxには、矢印arを描いている。撮像部10は、このような専用の光学系optを、左右方向に対して対象物体bxを反転させるものと、上下方向に対して対象物体bxを反転させるものとの2つを備えることで、ヤコビ行列算出部37が三次元ヤコビ行列を算出するために必要な情報を、画像として提供することができる。   In FIG. 4, images pic <b> 1 and pic <b> 2 are images obtained by the incident lights ll <b> 1 and ll <b> 2 incident on the image sensors ccd <b> 1 and ccd <b> 2, respectively. Here, in FIG. 4, an arrow ar is drawn on the target object bx in order to clearly show that the image pic <b> 1 and the image pic <b> 2 are inverted when passing through the dedicated optical system opt. The imaging unit 10 includes two dedicated optical systems opt, one that inverts the target object bx with respect to the left-right direction and one that inverts the target object bx with respect to the up-down direction. Information necessary for the Jacobian matrix calculation unit 37 to calculate the three-dimensional Jacobian matrix can be provided as an image.

図5は、図4で示した光学系optを備えた撮像部10によって、異なる方向から撮像された物体の画像pic1〜pic4が撮像される状況の一例を説明する図である。対象物体bxからの反射光は、入射光ll1〜ll4として、専用の光学系optへ入射する。専用の光学系optに入射した入射光ll1〜ll4は、それぞれの光路を通過し、レンズlnsを介して、撮像素子snsrに入射する。撮像素子snsrは、4つの撮像素子が格子状に並べられたものである。画像pic1〜pic4は、それぞれの撮像素子で撮像された画像である。   FIG. 5 is a diagram for explaining an example of a situation in which the images pic1 to pic4 of the object captured from different directions are captured by the imaging unit 10 including the optical system opt illustrated in FIG. The reflected light from the target object bx enters the dedicated optical system opt as incident light 111-ll4. Incident light ll1 to ll4 incident on the dedicated optical system opt passes through the respective optical paths and is incident on the image sensor snsr via the lens lns. The image sensor snsr is obtained by arranging four image sensors in a grid pattern. Images pic1 to pic4 are images captured by the respective image sensors.

次に、図6を参照することで、物体位置姿勢推定装置30の動作の流れを説明する。図6は、物体位置姿勢推定装置30の動作の流れの一例を説明するフローチャートである。
(ステップS100)まず、入力受付部33は、ユーザーからの入力を受け付けることで、リファレンスモデルの仮想的な位置及び姿勢を表す情報を、ヤコビ行列算出部37に出力して設定する。
(ステップS120)次に、モデル記憶部322は、入力受付部33を介して、リファレンスモデルを記憶する。
Next, the flow of operations of the object position / posture estimation apparatus 30 will be described with reference to FIG. FIG. 6 is a flowchart for explaining an example of the operation flow of the object position / posture estimation apparatus 30.
(Step S <b> 100) First, the input receiving unit 33 receives the input from the user, and outputs information indicating the virtual position and orientation of the reference model to the Jacobian matrix calculating unit 37 for setting.
(Step S120) Next, the model storage unit 322 stores the reference model via the input reception unit 33.

(ステップS140)次に、ヤコビ行列算出部37は、リファレンスモデルの三次元ヤコビ行列を算出する。ヤコビ行列算出部37は、リファレンスモデルの三次元ヤコビ行列の各要素を、ステップS100で設定されたリファレンスモデルの位置及び姿勢から、リファレンスモデルを仮想的に微小量分だけ動かすシミュレーションに基づいて決定する。なお、ステップS100〜S140の処理は、ステップS160以下の処理の直前に行われる必要はなく、予めリファレンスモデルの三次元ヤコビ行列が記憶部32に格納されていてよい。
(ステップS160)次に、画像取得部35は、撮像部10から、異なる方向から撮像された対象物体bxの画像を取得し、取得した画像を画像記憶部321に記憶させる。
(Step S140) Next, the Jacobian matrix calculation unit 37 calculates a three-dimensional Jacobian matrix of the reference model. The Jacobian matrix calculation unit 37 determines each element of the three-dimensional Jacobian matrix of the reference model based on a simulation of moving the reference model virtually by a minute amount from the position and orientation of the reference model set in step S100. . Note that the processing of steps S100 to S140 need not be performed immediately before the processing of step S160 and subsequent steps, and a three-dimensional Jacobian matrix of the reference model may be stored in the storage unit 32 in advance.
(Step S160) Next, the image acquisition unit 35 acquires an image of the target object bx imaged from different directions from the imaging unit 10, and stores the acquired image in the image storage unit 321.

(ステップS180)次に、ヤコビ行列算出部37は、画像記憶部321に記憶された異なる方向から撮像された対象物体bxの画像に基づいて、前述した方法により各方向からの画像を比較することで、対象物体bxの三次元ヤコビ行列の各要素を決定する。
(ステップS200)次に、ヤコビ行列算出部37は、ステップS180で三次元ヤコビ行列の全ての要素が決定できたか否かを判定する。ヤコビ行列算出部37により、三次元ヤコビ行列の全ての要素が決定できていないと判定された場合(ステップS200−No)、画像取得部35は、ステップS160へ戻り、撮像部10から再び対象物体bxの画像を取得する。ヤコビ行列算出部37により、三次元ヤコビ行列の全ての要素が決定できたと判定された場合(ステップS200−Yes)、ヤコビ行列算出部37は、算出したリファレンスモデルの三次元ヤコビ行列と、対象物体bxの三次元ヤコビ行列とを、位置姿勢推定部41へ出力する。そして、位置姿勢推定部41は、取得したリファレンスモデルの三次元ヤコビ行列と、対象物体bxの三次元ヤコビ行列とに基づいて、ESM法を利用してカメラ座標系における対象物体bxの位置及び姿勢を推定する(ステップS220)。
(Step S180) Next, the Jacobian matrix calculation unit 37 compares images from each direction by the above-described method based on the image of the target object bx captured from different directions stored in the image storage unit 321. Thus, each element of the three-dimensional Jacobian matrix of the target object bx is determined.
(Step S200) Next, the Jacobian matrix calculation unit 37 determines whether or not all elements of the three-dimensional Jacobian matrix have been determined in Step S180. When it is determined by the Jacobian matrix calculation unit 37 that all elements of the three-dimensional Jacobian matrix have not been determined (No at Step S200), the image acquisition unit 35 returns to Step S160, and again the target object from the imaging unit 10 The image of bx is acquired. When the Jacobian matrix calculation unit 37 determines that all the elements of the three-dimensional Jacobian matrix have been determined (step S200-Yes), the Jacobian matrix calculation unit 37 calculates the three-dimensional Jacobian matrix of the calculated reference model and the target object. The bx three-dimensional Jacobian matrix is output to the position / orientation estimation unit 41. Then, the position / orientation estimation unit 41 uses the ESM method based on the acquired 3D Jacobian matrix of the reference model and the 3D Jacobian matrix of the target object bx to detect the position and orientation of the target object bx in the camera coordinate system. Is estimated (step S220).

ここで、ESM法を利用したカメラ座標系における対象物体bxの位置及び姿勢の推定方法について、簡単に説明する。ESM法を用いた推定方法とは、例えば、対象物体bxの画像(以下、実画像と称する)を表す輝度マップと、リファレンスモデルを利用した画像であって、対象物体bxを移動先に移動させた場合の画像(以下、テンプレート画像と称する)の輝度マップとの差分が最小となるような移動量(6自由度の移動量、すなわち3軸方向の並進と、3軸まわりの回転角)を導出する方法である。実画像の輝度マップを表す関数(例えば、画像の各ピクセルの輝度を表す値を要素に持つベクトル)をSとし、テンプレート画像の輝度マップを表す関数をSとすると、上記移動量Δz(ボールド体)は、以下の(1)〜(3)式で表すことができる。なお、(ボールド体)は、カッコの前の文字がボールド体で表されるベクトル、あるいは、行列であることを表すものとする。 Here, a method for estimating the position and orientation of the target object bx in the camera coordinate system using the ESM method will be briefly described. The estimation method using the ESM method is, for example, a luminance map representing an image of the target object bx (hereinafter referred to as a real image) and an image using a reference model, and the target object bx is moved to a destination. A moving amount (moving amount of six degrees of freedom, that is, translation in three axes and a rotation angle around three axes) that minimizes the difference between the brightness map of the image (hereinafter referred to as a template image) in the case of It is a method of deriving. If the function representing the luminance map of the actual image (for example, a vector having a value representing the luminance of each pixel of the image as an element) is S and the function representing the luminance map of the template image is S * , the movement amount Δz (bold (Body) can be represented by the following formulas (1) to (3). Note that (bold) means that the character before the parenthesis is a vector or matrix expressed in bold.

Figure 2015100868
Figure 2015100868

Figure 2015100868
Figure 2015100868

Figure 2015100868
Figure 2015100868

ここで、J(ボールド体)は、対象物体bxの三次元ヤコビ行列であり、J(ボールド体)*は、リファレンスモデルの三次元ヤコビ行列である。対象物体bxの移動先における位置及び姿勢は、予めユーザーから入力されているため、既知である。それ故、位置姿勢推定部41は、上記(1)式から移動量Δz(ボールド体)を求め、求めた移動量Δzと、対象物体bxの移動先における位置及び姿勢とに基づいて、移動前の対象物体bxの位置及び姿勢を推定することができる。位置姿勢推定部41は、推定した対象物体bxの位置及び姿勢を、駆動制御部43へ出力する。   Here, J (bold body) is a three-dimensional Jacobian matrix of the target object bx, and J (bold body) * is a three-dimensional Jacobian matrix of the reference model. The position and orientation of the target object bx at the destination are known in advance because they are input in advance by the user. Therefore, the position / orientation estimation unit 41 obtains the movement amount Δz (bold body) from the above equation (1), and based on the obtained movement amount Δz and the position and orientation of the target object bx at the movement destination, The position and orientation of the target object bx can be estimated. The position / orientation estimation unit 41 outputs the estimated position and orientation of the target object bx to the drive control unit 43.

(ステップS240)次に、駆動制御部43は、取得した対象物体bxの位置及び姿勢の座標を、カメラ座標系の座標からロボット座標系の座標へと変換し、変換した座標に基づいて、ロボット本体50の把持部により対象物体bxを、移動先へと移動させる。 (Step S240) Next, the drive control unit 43 converts the coordinates of the acquired position and orientation of the target object bx from the coordinates of the camera coordinate system to the coordinates of the robot coordinate system, and based on the converted coordinates, the robot The target object bx is moved to the destination by the grip portion of the main body 50.

以上説明したように、第1の実施形態におけるロボットシステム1は、撮像素子ccd1と撮像素子ccd2とを含む複数の撮像素子を備える撮像部10を備え、撮像素子ccd1によりハーフミラーhmrに入射する方向から対象物体bxを撮像することと、撮像素子ccd2により入射光ll2がハーフミラーhmrに入射する方向から対象物体bxを撮像することによって、ロボット本体50を動作させるため、対象物体bxの三次元空間における位置及び姿勢の推定に必要な時間を短縮してロボット本体50を制御することができる。   As described above, the robot system 1 according to the first embodiment includes the imaging unit 10 including a plurality of imaging elements including the imaging element ccd1 and the imaging element ccd2, and enters the half mirror hmr by the imaging element ccd1. In order to operate the robot main body 50 by imaging the target object bx from the imaging direction and imaging the target object bx from the direction in which the incident light ll2 enters the half mirror hmr by the imaging element ccd2, the three-dimensional space of the target object bx It is possible to control the robot main body 50 by shortening the time required for estimating the position and orientation at.

また、ロボットシステム1は、制御部36が、撮像部10により撮像された複数の撮像画像に基づいて、対象物体bxの三次元ヤコビ行列を算出し、算出された三次元ヤコビ行列と、基準となる基準三次元ヤコビ行列とを比較して、対象物体bxの位置及び姿勢を推定し、推定された位置及び姿勢に基づいて、ロボット本体50を動作させるため、例えば、ESM法を用いた推定方法によって対象物体bxの位置及び姿勢を推定し、従来のニュートン法等の非線形最小化手法を用いた推定法に比べて、対象物体bxの位置及び姿勢の推定に必要な時間を短縮してロボット本体50を制御することができる。   In the robot system 1, the control unit 36 calculates a three-dimensional Jacobian matrix of the target object bx based on a plurality of captured images captured by the imaging unit 10, and calculates the calculated three-dimensional Jacobian matrix, a reference, In order to estimate the position and orientation of the target object bx and to operate the robot body 50 based on the estimated position and orientation, for example, an estimation method using the ESM method The position and orientation of the target object bx are estimated by the above, and the time required for estimating the position and orientation of the target object bx is shortened compared to the estimation method using the nonlinear minimization method such as the conventional Newton method. 50 can be controlled.

また、ロボットシステム1は、撮像部10が、ハーフミラーhmrとミラーmr1〜4とによって、入射光ll1がハーフミラーhmrに入射する方向と、入射光ll2がハーフミラーhmrに入射する方向とから入射する対象物体bxからの光を撮像素子ccd1と撮像素子ccd2に集めるため、撮像部10の位置を変えることなく、異なる方向から撮像された複数の画像を取得することができ、その結果として、対象物体bxの位置及び姿勢の推定に必要な時間を短縮することができる。また、撮像画像にぶれが生じることが無く、推定の精度を向上させることができる。   Also, in the robot system 1, the imaging unit 10 is incident from the direction in which the incident light ll1 is incident on the half mirror hmr and the direction in which the incident light ll2 is incident on the half mirror hmr by the half mirror hmr and the mirrors mr1 to mr4. Since the light from the target object bx to be collected is collected in the image sensor ccd1 and the image sensor ccd2, it is possible to acquire a plurality of images captured from different directions without changing the position of the image pickup unit 10, and as a result The time required for estimating the position and orientation of the object bx can be shortened. In addition, no blurring occurs in the captured image, and the estimation accuracy can be improved.

また、ロボットシステム1は、撮像部10が、ハーフミラーhmrにより入射光ll1がハーフミラーhmrに入射する方向と、入射光ll2がハーフミラーhmrに入射する方向とから入射する対象物体bxからの光を分岐させることで、入射光ll1がハーフミラーhmrに入射する方向と入射光ll2がハーフミラーhmrに入射する方向とから入射する対象物体bxからの光を撮像素子ccd1と撮像素子ccd2に集めるため、1台の撮像部10によって同時に異なる方向から対象物体bxを撮像することができ、対象物体bxの位置及び姿勢の推定をより短時間で行うことができる。   Further, in the robot system 1, the imaging unit 10 receives light from the target object bx that is incident from the direction in which the incident light ll1 is incident on the half mirror hmr and the direction in which the incident light ll2 is incident on the half mirror hmr. To collect the light from the target object bx incident from the direction in which the incident light ll1 is incident on the half mirror hmr and the direction in which the incident light ll2 is incident on the half mirror hmr on the image sensor ccd1 and the image sensor ccd2. The target object bx can be imaged simultaneously from different directions by one imaging unit 10, and the position and orientation of the target object bx can be estimated in a shorter time.

<第2の実施形態>
以下、第2の実施形態について説明する。構成については、図2、3を援用し、同じ機能部に対して同一の符号を付して説明する。図7は、第2の実施形態におけるロボットシステム1の利用状況の一例を示す図である。第2の実施形態におけるロボットシステム1は、撮像部10が、ロボット本体50の把持部付近に設置され、ロボット本体50の把持部とともに移動する。第2の実施形態の撮像部10は、第1の実施形態で備えていた専用の光学系optを備えることに代えて、ロボット本体50の把持部が微小変化量分だけ移動しながら対象物体bxを、異なる方向から撮像する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. About a structure, FIG.2, 3 is used and it attaches | subjects and demonstrates the same code | symbol with respect to the same function part. FIG. 7 is a diagram illustrating an example of a usage status of the robot system 1 according to the second embodiment. In the robot system 1 according to the second embodiment, the imaging unit 10 is installed in the vicinity of the grip unit of the robot body 50 and moves together with the grip unit of the robot body 50. The imaging unit 10 of the second embodiment replaces with the dedicated optical system opt provided in the first embodiment, and the target object bx while the gripping part of the robot body 50 moves by a minute change amount. Are imaged from different directions.

以上説明したように、第2の実施形態におけるロボットシステム1は、撮像部10がロボット本体50の把持部とともに移動し、異なる方向から対象物体bxを撮像することで、異なる方向から撮像可能な撮像部10により撮像された物体の二次元画像を取得し、取得した画像に基づいて対象物体bxの三次元ヤコビ行列を算出し、算出された三次元ヤコビ行列と、リファレンスモデルの三次元ヤコビ行列とを比較して、対象物体bxの位置及び姿勢をESM法を用いた推定法によって推定するため、対象物体bxの位置及び姿勢の推定に必要な時間を、従来のニュートン法等の非線形最小化手法を用いた推定法に比べて短縮してロボット本体50を制御することができる。   As described above, in the robot system 1 according to the second embodiment, the imaging unit 10 moves together with the grip unit of the robot body 50 and images the target object bx from different directions, so that imaging is possible from different directions. A two-dimensional image of the object imaged by the unit 10 is acquired, a three-dimensional Jacobian matrix of the target object bx is calculated based on the acquired image, the calculated three-dimensional Jacobian matrix, the three-dimensional Jacobian matrix of the reference model, In order to estimate the position and orientation of the target object bx by the estimation method using the ESM method, the time required to estimate the position and orientation of the target object bx is reduced by a nonlinear minimization method such as the conventional Newton method. The robot main body 50 can be controlled in a shorter manner than the estimation method using.

<第3の実施形態>
以下、第3の実施形態について説明する。構成については、図2、3を援用し、同じ機能部に対して同一の符号を付して説明する。第3の実施形態におけるロボットシステム1は、撮像部10がライトフィールドカメラであり、第2の実施形態と同様に、第1の実施形態で備えていた専用の光学系optを備えていない。ライトフィールドカメラとは、撮像素子の手前に、異なる焦点を持つマイクロレンズが、撮像素子の面に平行な面上で配列されており、この構成によって得られる奥行き方向の情報を含む画像を利用することで、1台でステレオ撮像を行うことが可能なカメラである。従って、第3の実施形態におけるヤコビ行列算出部37は、ライトフィールドカメラである撮像部10によってステレオ撮像された三次元画像に基づいて、対象物体bxの三次元ヤコビ行列を算出する。
<Third Embodiment>
Hereinafter, a third embodiment will be described. About a structure, FIG.2, 3 is used and it attaches | subjects and demonstrates the same code | symbol with respect to the same function part. In the robot system 1 according to the third embodiment, the imaging unit 10 is a light field camera, and does not include the dedicated optical system opt provided in the first embodiment, as in the second embodiment. In the light field camera, microlenses having different focal points are arranged on a plane parallel to the surface of the image sensor in front of the image sensor, and an image including information in the depth direction obtained by this configuration is used. Thus, it is a camera that can perform stereo imaging with a single unit. Therefore, the Jacobian matrix calculation unit 37 in the third embodiment calculates the three-dimensional Jacobian matrix of the target object bx based on the three-dimensional image captured in stereo by the imaging unit 10 that is a light field camera.

以上説明したように、第3の実施形態におけるロボットシステム1は、撮像部10がライトフィールドカメラを撮像部10として備え、撮像部10がステレオ撮像することで得られる三次元画像に基づいて、ヤコビ行列算出部37が対象物体bxの三次元ヤコビ行列を算出するため、第1の実施形態と同様の効果を得ることができる。   As described above, in the robot system 1 according to the third embodiment, the imaging unit 10 includes the light field camera as the imaging unit 10, and the Jacobian is based on the three-dimensional image obtained by the imaging unit 10 performing stereo imaging. Since the matrix calculation unit 37 calculates the three-dimensional Jacobian matrix of the target object bx, the same effect as that of the first embodiment can be obtained.

また、ロボットシステム1は、撮像部10が、撮像素子の面に平行な面上に配列された、互いに異なる焦点を有する複数のレンズを更に備え、複数のレンズによって得られる奥行き方向の情報を含む画像を撮像するため、ハーフミラーhmrや複数のミラーmr1〜4により構成される光学系を必要とせず、物体の位置及び姿勢の推定をより短時間で行うことができる。   In the robot system 1, the imaging unit 10 further includes a plurality of lenses having different focal points arranged on a plane parallel to the plane of the imaging element, and includes information in the depth direction obtained by the plurality of lenses. Since an image is picked up, an optical system composed of the half mirror hmr and the plurality of mirrors mr1 to mr4 is not required, and the position and orientation of the object can be estimated in a shorter time.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.

1 ロボットシステム、10 撮像部、30 物体位置姿勢推定装置、31 CPU、32 記憶部、33 入力受付部、34 通信部、35 画像取得部、37 ヤコビ行列算出部、41 位置姿勢推定部、43 駆動制御部、50 ロボット本体、321 画像記憶部、322 モデル記憶部 DESCRIPTION OF SYMBOLS 1 Robot system, 10 Imaging part, 30 Object position and orientation estimation apparatus, 31 CPU, 32 Storage part, 33 Input reception part, 34 Communication part, 35 Image acquisition part, 37 Jacobian matrix calculation part, 41 Position and orientation estimation part, 43 Drive Control unit, 50 robot body, 321 image storage unit, 322 model storage unit

Claims (5)

ロボットと、
物体を撮像する撮像部と、
前記ロボットを動作させる制御部と、
を含み、
前記撮像部は、第1撮像素子と第2撮像素子とを含む複数の撮像素子を備え、
前記制御部は、前記第1撮像素子により第1方向から前記物体を撮像することと、前記第2撮像素子により前記第1方向とは異なる第2方向から前記物体を撮像することによって、前記ロボットを動作させる、
ロボットシステム。
With robots,
An imaging unit for imaging an object;
A control unit for operating the robot;
Including
The imaging unit includes a plurality of imaging elements including a first imaging element and a second imaging element,
The control unit images the object from a first direction by the first image sensor, and images the object from a second direction different from the first direction by the second image sensor, so that the robot Make the work,
Robot system.
請求項1に記載のロボットシステムであって、
前記制御部は、前記撮像部により撮像された複数の撮像画像に基づいて、前記物体の三次元ヤコビ行列を算出し、前記算出された三次元ヤコビ行列と、基準となる基準三次元ヤコビ行列とを比較して、前記物体の位置及び姿勢を推定し、前記推定された位置及び姿勢に基づいて、前記ロボットを動作させる、
ロボットシステム。
The robot system according to claim 1,
The control unit calculates a three-dimensional Jacobian matrix of the object based on a plurality of captured images captured by the imaging unit, the calculated three-dimensional Jacobian matrix, a reference three-dimensional Jacobian matrix serving as a reference, And estimating the position and orientation of the object, and operating the robot based on the estimated position and orientation.
Robot system.
請求項1又は2に記載のロボットシステムであって、
前記撮像部は、ハーフミラーと、複数のミラーを更に備え、前記ハーフミラーと前記複数のミラーとによって、前記第1方向と前記第2方向とから入射する前記物体からの光を前記第1撮像素子と前記第2撮像素子に集める、
ロボットシステム。
The robot system according to claim 1 or 2,
The imaging unit further includes a half mirror and a plurality of mirrors, and the first mirror captures light from the object incident from the first direction and the second direction by the half mirror and the plurality of mirrors. Collecting the device and the second imaging device;
Robot system.
請求項3に記載のロボットシステムであって、
前記撮像部は、前記ハーフミラーにより前記第1方向と前記第2方向とから入射する前記物体からの光を分岐させることで、前記第1方向と前記第2方向とから入射する前記物体からの光を前記第1撮像素子と前記第2撮像素子に集める、
ロボットシステム。
The robot system according to claim 3, wherein
The imaging unit causes the light from the object incident from the first direction and the second direction to be branched by the half mirror, so that the object from the object incident from the first direction and the second direction is separated. Collecting light on the first image sensor and the second image sensor;
Robot system.
請求項3に記載のロボットシステムであって、
前記撮像部は、撮像素子の面に平行な面上に配列された、互いに異なる焦点を有する複数のレンズを更に備え、前記複数のレンズによって得られる奥行き方向の情報を含む画像を撮像する、
ロボットシステム。
The robot system according to claim 3, wherein
The imaging unit further includes a plurality of lenses having different focal points arranged on a plane parallel to the plane of the imaging element, and captures an image including information in the depth direction obtained by the plurality of lenses.
Robot system.
JP2013242057A 2013-11-22 2013-11-22 Robot system Withdrawn JP2015100868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013242057A JP2015100868A (en) 2013-11-22 2013-11-22 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013242057A JP2015100868A (en) 2013-11-22 2013-11-22 Robot system

Publications (1)

Publication Number Publication Date
JP2015100868A true JP2015100868A (en) 2015-06-04

Family

ID=53377036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013242057A Withdrawn JP2015100868A (en) 2013-11-22 2013-11-22 Robot system

Country Status (1)

Country Link
JP (1) JP2015100868A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021200438A1 (en) * 2020-03-31 2021-10-07 ミネベアミツミ株式会社 Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
JP2021171865A (en) * 2020-04-23 2021-11-01 株式会社デンソー Robot control device and robot control method

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63309806A (en) * 1987-06-12 1988-12-16 Canon Inc Measuring instrument for depth of projection and recess part
JPH01110243A (en) * 1987-10-23 1989-04-26 Hitachi Vlsi Eng Corp Appearance inspecting device
WO1997006406A1 (en) * 1995-08-07 1997-02-20 Komatsu Ltd. Distance measuring apparatus and shape measuring apparatus
JPH1185235A (en) * 1997-09-01 1999-03-30 Yaskawa Electric Corp Visual feedback method for machine device using image pickup unit
US6084712A (en) * 1998-11-03 2000-07-04 Dynamic Measurement And Inspection,Llc Three dimensional imaging using a refractive optic design
JP2000295635A (en) * 1999-04-01 2000-10-20 Sony Corp Three-dimensional image pickup device
JP2001158507A (en) * 1999-09-21 2001-06-12 Shinko Electric Co Ltd Method and device for teaching robot for stoker, and storage medium
JP2002018754A (en) * 2000-07-10 2002-01-22 Toyota Central Res & Dev Lab Inc Robot device and its control method
US6611344B1 (en) * 1998-11-30 2003-08-26 Rahmonic Resources Pte Ltd Apparatus and method to measure three dimensional data
JP2005271693A (en) * 2004-03-24 2005-10-06 Sumitomo Electric Ind Ltd Object detection device
JP2006165601A (en) * 2004-12-02 2006-06-22 Sony Corp Imaging apparatus and imaging element
JP2009092584A (en) * 2007-10-11 2009-04-30 Sharp Corp Distance information detection device
JP2009241247A (en) * 2008-03-10 2009-10-22 Kyokko Denki Kk Stereo-image type detection movement device
JP2009271305A (en) * 2008-05-07 2009-11-19 Nippon Hoso Kyokai <Nhk> Stereoscopic information generating device and stereoscopic information generating program
JP2009288042A (en) * 2008-05-29 2009-12-10 Nikon Corp Distance measuring device
JP2011058858A (en) * 2009-09-08 2011-03-24 Honda Motor Co Ltd Viewing device
JP2012130977A (en) * 2010-12-20 2012-07-12 Toshiba Corp Robot control apparatus
JP2013057744A (en) * 2011-09-07 2013-03-28 Nikon Corp Imaging device
JP2013198015A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Imaging apparatus, image processing method and program

Patent Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63309806A (en) * 1987-06-12 1988-12-16 Canon Inc Measuring instrument for depth of projection and recess part
JPH01110243A (en) * 1987-10-23 1989-04-26 Hitachi Vlsi Eng Corp Appearance inspecting device
WO1997006406A1 (en) * 1995-08-07 1997-02-20 Komatsu Ltd. Distance measuring apparatus and shape measuring apparatus
JPH1185235A (en) * 1997-09-01 1999-03-30 Yaskawa Electric Corp Visual feedback method for machine device using image pickup unit
US6084712A (en) * 1998-11-03 2000-07-04 Dynamic Measurement And Inspection,Llc Three dimensional imaging using a refractive optic design
US6611344B1 (en) * 1998-11-30 2003-08-26 Rahmonic Resources Pte Ltd Apparatus and method to measure three dimensional data
JP2000295635A (en) * 1999-04-01 2000-10-20 Sony Corp Three-dimensional image pickup device
JP2001158507A (en) * 1999-09-21 2001-06-12 Shinko Electric Co Ltd Method and device for teaching robot for stoker, and storage medium
JP2002018754A (en) * 2000-07-10 2002-01-22 Toyota Central Res & Dev Lab Inc Robot device and its control method
JP2005271693A (en) * 2004-03-24 2005-10-06 Sumitomo Electric Ind Ltd Object detection device
JP2006165601A (en) * 2004-12-02 2006-06-22 Sony Corp Imaging apparatus and imaging element
JP2009092584A (en) * 2007-10-11 2009-04-30 Sharp Corp Distance information detection device
JP2009241247A (en) * 2008-03-10 2009-10-22 Kyokko Denki Kk Stereo-image type detection movement device
JP2009271305A (en) * 2008-05-07 2009-11-19 Nippon Hoso Kyokai <Nhk> Stereoscopic information generating device and stereoscopic information generating program
JP2009288042A (en) * 2008-05-29 2009-12-10 Nikon Corp Distance measuring device
JP2011058858A (en) * 2009-09-08 2011-03-24 Honda Motor Co Ltd Viewing device
JP2012130977A (en) * 2010-12-20 2012-07-12 Toshiba Corp Robot control apparatus
JP2013057744A (en) * 2011-09-07 2013-03-28 Nikon Corp Imaging device
JP2013198015A (en) * 2012-03-21 2013-09-30 Casio Comput Co Ltd Imaging apparatus, image processing method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"ライトフィールドカメラ・原理", ライトフィールドカメラ, JPN6017032403, 28 March 2013 (2013-03-28), JP, ISSN: 0003879055 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021200438A1 (en) * 2020-03-31 2021-10-07 ミネベアミツミ株式会社 Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
JP2021160037A (en) * 2020-03-31 2021-10-11 ミネベアミツミ株式会社 Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
JP7423387B2 (en) 2020-03-31 2024-01-29 ミネベアミツミ株式会社 Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device
JP2021171865A (en) * 2020-04-23 2021-11-01 株式会社デンソー Robot control device and robot control method
JP7310693B2 (en) 2020-04-23 2023-07-19 株式会社デンソー ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD

Similar Documents

Publication Publication Date Title
JP6364836B2 (en) Robot, robot system, and control device
JP7016058B2 (en) Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
JP6107081B2 (en) Image processing apparatus, image processing method, and program
CN108765498B (en) Monocular vision tracking, device and storage medium
JP7038345B2 (en) Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device
CN106687063B (en) Tracking system and tracking method using the same
US9652660B2 (en) Control system, robot system, and control method
EP2543483B1 (en) Information processing apparatus and information processing method
US9437005B2 (en) Information processing apparatus and information processing method
JP6222898B2 (en) Three-dimensional measuring device and robot device
KR100855657B1 (en) System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor
JP5710752B2 (en) Detection apparatus, method and program
JP2011232330A (en) Imaging apparatus, distance measuring method, and program
JP4132068B2 (en) Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus
CN113256718B (en) Positioning method and device, equipment and storage medium
JP5959899B2 (en) Contact state estimation device
WO2022247548A1 (en) Positioning method, apparatus, electronic device, and storage medium
JP2015031601A (en) Three-dimensional measurement instrument, method, and program
CN113701750A (en) Fusion positioning system of underground multi-sensor
JP2015100868A (en) Robot system
JP2018009918A (en) Self-position detection device, moving body device, and self-position detection method
JP4935769B2 (en) Plane region estimation apparatus and program
JP2015087313A (en) Control device, robot, control system, control method, and control program
JP2022011821A (en) Information processing device, information processing method and mobile robot
JP2015226954A (en) Robot, control method of the same and control unit of the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20181026

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20181101