JP2015100868A - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- JP2015100868A JP2015100868A JP2013242057A JP2013242057A JP2015100868A JP 2015100868 A JP2015100868 A JP 2015100868A JP 2013242057 A JP2013242057 A JP 2013242057A JP 2013242057 A JP2013242057 A JP 2013242057A JP 2015100868 A JP2015100868 A JP 2015100868A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- robot
- orientation
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
この発明は、ロボットシステムに関する。 The present invention relates to a robot system.
現在、産業用ロボットによって作業が行われる際、産業用ロボットが扱う対象となる物体の位置は、治具を用いる等の工夫によって、事前に決定されている必要がある。一方で、事前に物体の位置を固定できないような作業であり、産業用ロボットを活用したい作業は多い。物体の位置を固定できないような作業とは、例えば、物体同士の組み付けや、物体へのラベル貼り等である。これらの作業を産業用ロボットが行うためには、産業用ロボットが物体の三次元空間における位置及び姿勢を、正確且つ高速に認識する必要がある。近年、このような必要性から、カメラによって撮像された画像を用いることで、物体の三次元空間における位置及び姿勢を認識するシステムの研究・開発が盛んに行われている。 Currently, when work is performed by an industrial robot, the position of an object to be handled by the industrial robot needs to be determined in advance by means such as using a jig. On the other hand, it is an operation that cannot fix the position of an object in advance, and there are many operations that use an industrial robot. The work in which the position of the object cannot be fixed is, for example, assembly of objects or labeling on the object. In order for an industrial robot to perform these operations, the industrial robot needs to recognize the position and orientation of an object in a three-dimensional space accurately and at high speed. In recent years, research and development of a system for recognizing the position and orientation of an object in a three-dimensional space by using an image captured by a camera has been actively conducted because of such necessity.
これに関連し、空間中に配置された指標を含む画像を撮像し、撮像画像に含まれる指標に基づいて、その指標の分布範囲を導出し、導出された分布範囲の大きさに応じたアルゴリズムに基づいて、三次元空間における物体の位置及び姿勢を推定する位置姿勢計測装置が知られている(特許文献1参照)。 In relation to this, an image including an index arranged in the space is captured, the distribution range of the index is derived based on the index included in the captured image, and an algorithm according to the size of the derived distribution range Based on the above, there is known a position and orientation measurement apparatus that estimates the position and orientation of an object in a three-dimensional space (see Patent Document 1).
しかしながら、従来の位置姿勢計測装置等では、三次元空間における位置及び姿勢を計測するための非線形最適化の手法として、多くの反復計算を必要とするニュートン法等を用いる例が挙げられている。しかしながら、ニュートン法を利用した手法では、短時間で物体の三次元空間における位置及び姿勢を推定することができない場合がある。 However, in a conventional position / orientation measurement apparatus or the like, as an example of a nonlinear optimization technique for measuring a position and orientation in a three-dimensional space, an example using Newton's method or the like that requires many iterative calculations is given. However, in the method using the Newton method, the position and orientation of the object in the three-dimensional space may not be estimated in a short time.
そこで本発明は、上記従来技術の問題に鑑みてなされたものであり、物体の三次元空間における位置及び姿勢の推定に必要な時間を短縮してロボットを制御することができるロボットシステムを提供する。 Accordingly, the present invention has been made in view of the above-described problems of the prior art, and provides a robot system capable of controlling a robot while reducing the time required for estimating the position and orientation of an object in a three-dimensional space. .
[1]本発明は、上記の課題を解決するためになされたものであり、ロボットと、物体を撮像する撮像部と、前記ロボットを動作させる制御部と、を含み、前記撮像部は、第1撮像素子と第2撮像素子とを含む複数の撮像素子を備え、前記制御部は、前記第1撮像素子により第1方向から前記物体を撮像することと、前記第2撮像素子により前記第1方向とは異なる第2方向から前記物体を撮像することによって、前記ロボットを動作させる、ロボットシステムである。 [1] The present invention has been made to solve the above-described problem, and includes a robot, an imaging unit that images an object, and a control unit that operates the robot. A plurality of image sensors including one image sensor and a second image sensor; and the control unit images the object from a first direction by the first image sensor, and the first image by the second image sensor. The robot system operates the robot by imaging the object from a second direction different from the direction.
この構成により、ロボットシステムは、第1撮像素子と第2撮像素子とを含む複数の撮像素子を備える撮像部を備え、第1撮像素子により第1方向から物体を撮像することと、第2撮像素子により第1方向とは異なる第2方向から物体を撮像することによって、ロボットを動作させるため、物体の三次元空間における位置及び姿勢の推定に必要な時間を短縮してロボットを制御することができる。 With this configuration, the robot system includes an imaging unit including a plurality of imaging elements including a first imaging element and a second imaging element, and images the object from the first direction by the first imaging element, and the second imaging Since the robot is operated by imaging the object from the second direction different from the first direction by the element, the time required for estimating the position and orientation of the object in the three-dimensional space can be reduced to control the robot. it can.
[2]また、本発明は、[1]に記載のロボットシステムであって、前記制御部は、前記撮像部により撮像された複数の撮像画像に基づいて、前記物体の三次元ヤコビ行列を算出し、前記算出された三次元ヤコビ行列と、基準となる基準三次元ヤコビ行列とを比較して、前記物体の位置及び姿勢を推定し、前記推定された位置及び姿勢に基づいて、前記ロボットを動作させる、ロボットシステムである。 [2] The present invention is the robot system according to [1], in which the control unit calculates a three-dimensional Jacobian matrix of the object based on a plurality of captured images captured by the imaging unit. And comparing the calculated three-dimensional Jacobian matrix with a reference three-dimensional Jacobian matrix as a reference to estimate the position and posture of the object, and based on the estimated position and posture, the robot A robot system to be operated.
この構成により、ロボットシステムは、制御部は、撮像部により撮像された複数の撮像画像に基づいて、物体の三次元ヤコビ行列を算出し、算出された三次元ヤコビ行列と、基準となる基準三次元ヤコビ行列とを比較して、物体の位置及び姿勢を推定し、推定された位置及び姿勢に基づいて、ロボットを動作させるため、例えば、ESM(Efficient Second−order Minimization Method)法を用いた推定方法によって物体の位置及び姿勢を推定し、従来のニュートン法等の非線形最小化手法を用いた推定法に比べて、物体の位置及び姿勢の推定に必要な時間を短縮してロボットを制御することができる。 With this configuration, in the robot system, the control unit calculates the three-dimensional Jacobian matrix of the object based on the plurality of captured images captured by the imaging unit, the calculated three-dimensional Jacobian matrix, and the reference third order as a reference In order to estimate the position and orientation of the object by comparing with the original Jacobian matrix, and to operate the robot based on the estimated position and orientation, for example, estimation using an ESM (Efficient Second-order Minimization Method) method This method estimates the position and orientation of an object using a method, and controls the robot by shortening the time required to estimate the position and orientation of the object compared to the estimation method using a nonlinear minimization method such as the conventional Newton method. Can do.
[3]また、本発明は、[1]又は[2]に記載のロボットシステムであって、前記撮像部は、ハーフミラーと、複数のミラーを更に備え、前記ハーフミラーと前記複数のミラーとによって、前記第1方向と前記第2方向とから入射する前記物体からの光を前記第1撮像素子と前記第2撮像素子に集める、ロボットシステムである。 [3] The present invention is the robot system according to [1] or [2], wherein the imaging unit further includes a half mirror and a plurality of mirrors, and the half mirror and the plurality of mirrors Thus, the robot system collects light from the object incident from the first direction and the second direction on the first image sensor and the second image sensor.
この構成により、ロボットシステムは、撮像部が、ハーフミラーと複数のミラーとによって、第1方向と第2方向とから入射する物体からの光を第1撮像素子と第2撮像素子に集めるため、撮像部の位置を変えることなく、異なる方向から撮像された複数の画像を取得することができ、その結果として、物体の位置及び姿勢の推定に必要な時間を短縮することができる。また、撮像画像にぶれが生じることが無く、推定の精度を向上させることができる。 With this configuration, in the robot system, the imaging unit collects light from an object incident from the first direction and the second direction on the first imaging element and the second imaging element by the half mirror and the plurality of mirrors. A plurality of images captured from different directions can be acquired without changing the position of the imaging unit, and as a result, the time required for estimating the position and orientation of the object can be shortened. In addition, no blurring occurs in the captured image, and the estimation accuracy can be improved.
[4]また、本発明は、[3]に記載のロボットシステムであって、前記撮像部は、前記ハーフミラーにより前記第1方向と前記第2方向とから入射する前記物体からの光を分岐させることで、前記第1方向と前記第2方向とから入射する前記物体からの光を前記第1撮像素子と前記第2撮像素子に集める、ロボットシステムである。 [4] The present invention is the robot system according to [3], in which the imaging unit branches light from the object incident from the first direction and the second direction by the half mirror. By doing so, the robot system collects light from the object incident from the first direction and the second direction on the first image sensor and the second image sensor.
この構成により、ロボットシステムは、撮像部が、ハーフミラーにより第1方向と第2方向とから入射する物体からの光を分岐させることで、第1方向と第2方向とから入射する物体からの光を第1撮像素子と第2撮像素子に集めるため、1台の撮像部によって同時に異なる方向から物体を撮像することができ、物体の位置及び姿勢の推定をより短時間で行うことができる。 With this configuration, in the robot system, the imaging unit branches light from an object incident from the first direction and the second direction by the half mirror, so that the object from the object incident from the first direction and the second direction is split. Since light is collected on the first image sensor and the second image sensor, an object can be imaged simultaneously from different directions by a single imaging unit, and the position and orientation of the object can be estimated in a shorter time.
[5]また、本発明は、[3]に記載のロボットシステムであって、前記撮像部は、撮像素子の面に平行な面上に配列された、互いに異なる焦点を有する複数のレンズを更に備え、前記複数のレンズによって得られる奥行き方向の情報を含む画像を撮像する、ロボットシステムである。 [5] The present invention is the robot system according to [3], in which the imaging unit further includes a plurality of lenses arranged on a plane parallel to the plane of the imaging element and having different focal points. A robot system that captures an image including information in a depth direction obtained by the plurality of lenses.
この構成により、ロボットシステムは、撮像部が、撮像素子の面に平行な面上に配列された、互いに異なる焦点を有する複数のレンズを更に備え、複数のレンズによって得られる奥行き方向の情報を含む画像を撮像するため、ハーフミラーや複数のミラーにより構成される光学系を必要とせず、物体の位置及び姿勢の推定をより短時間で行うことができる。 With this configuration, in the robot system, the imaging unit further includes a plurality of lenses having different focal points arranged on a plane parallel to the plane of the imaging element, and includes information in the depth direction obtained by the plurality of lenses. Since an image is captured, an optical system composed of a half mirror and a plurality of mirrors is not required, and the position and orientation of an object can be estimated in a shorter time.
<第1の実施形態>
以下、本発明の実施形態について、図面を参照して詳細に説明する。図1は、第1の実施形態におけるロボットシステム1の利用状況の一例を示す図である。第1の実施形態におけるロボットシステム1は、例えば、撮像部10と、物体位置姿勢推定装置30と、ロボット本体50とを具備する。撮像部10は、例えば、集光された光を電気信号に変換する撮像素子であるCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を備えたカメラである。撮像部10は、静止画像や動画像を撮像する。以下では、説明を簡略化するため、撮像部10は、静止画像を撮像するものとする。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a diagram illustrating an example of a usage status of the
撮像部10は、ケーブルCblによって、物体位置姿勢推定装置30と通信可能に接続されている。ケーブルCblを介した有線通信は、例えば、HDMI(High−Definition Multimedia Interface、登録商標)、USB(Universal Serial Bus)等の規格によって行われる。なお、撮像部10と物体位置姿勢推定装置30とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。撮像部10は、テーブルtbl上に置かれた対象物体bxを互いに異なる方向から撮像し、撮像した画像を、ケーブルCblを介して物体位置姿勢推定装置30へ出力する。異なる方向から撮像する方法についての詳細は、後述する。なお、それぞれの方向から撮像された画像は、それぞれの方向(例えば、第1方向と、第1方向とは異なる第2方向)に対応した複数の画像でもよく、異なる方向に対応した複数の画像が1つの撮像素子によりまとめて撮像された1つの画像でもよい。また、複数の画像が結合されて1つの画像として扱われるものであってもよい。特許請求の範囲における「複数の撮像画像」とは、これらのいずれであってもよい。以下では、説明を簡略化するため、それぞれの方向から撮像された画像が、それぞれの方向に対応した複数の画像であるものとして説明する。
The
物体位置姿勢推定装置30は、ケーブルEthによって、ロボット本体50と通信可能に接続されている。ケーブルEthを介した有線通信は、例えば、イーサネット(登録商標)等の通信規格によって行われる。なお、物体位置姿勢推定装置30とロボット本体50とは、Wi−Fi(登録商標)等の通信規格により行われる無線通信によって接続されてもよい。また、図1において、物体位置姿勢推定装置30は、ロボット本体50の外部に設置されているが、ロボット本体50の内部に搭載されてもよい。物体位置姿勢推定装置30は、撮像部10から取得した撮像画像に基づいて、ロボット本体50に取り付けられた把持部hndの位置及び姿勢を制御し、把持部hndによって対象物体bxを予め決められた移動先へ移動させる。
The object position /
ロボット本体50は、例えば、把持部hndを可動に備えた6軸垂直多関節ロボットであり、支持台とアーム部と把持部hndとの連携した動作によって、6軸の自由度の動作を行うことができる。把持部hndは、物体を把持又は挟持可能な爪部を備える。なお、ロボット本体50は、5自由度以下で動作するものであってもよく、7自由度以上で動作するものであってもよい。
The robot
次に、図2を参照することで、物体位置姿勢推定装置30のハードウェア構成について説明する。図2は、物体位置姿勢推定装置30のハードウェア構成の一例を示す図である。物体位置姿勢推定装置30は、例えば、CPU(Central Processing Unit)31と、記憶部32と、入力受付部33と、通信部34とを備え、通信部34を介して他の撮像部10、ロボット本体50と通信を行う。CPU31は、記憶部32に格納された各種プログラムを実行する。記憶部32は、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)などを含み、物体位置姿勢推定装置30が処理する情報やプログラムを格納する。なお、記憶部32は、物体位置姿勢推定装置30に内蔵されるものに代えて、外付け型の記憶装置でもよい。
Next, the hardware configuration of the object position /
入力受付部33は、キーボードやマウス、タッチパッド、その他の入力装置である。なお、入力受付部33は、表示部として機能してもよく、さらに、タッチパネルとして構成されてもよい。通信部34は、HDMIやUSB等のデジタル入出力ポートとともに、イーサネット(登録商標)ポートを含んで構成される。
The
次に、図3を参照することで、物体位置姿勢推定装置30の機能構成について説明する。図3は、物体位置姿勢推定装置30の機能構成の一例を示す図である。物体位置姿勢推定装置30は、例えば、記憶部32と、入力受付部33と、画像取得部35と、制御部36とを備える。画像取得部35は、撮像部10によって対象物体bxが異なる方向から撮像された画像を取得し、取得した画像を、後述する画像記憶部321に記憶させる。これらのうち、画像取得部35、ヤコビ行列算出部37、位置姿勢推定部41は、例えば、CPU31が記憶部32に格納されたプログラムを実行することにより機能するソフトウェア機能部である。また、これらのうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。
Next, the functional configuration of the object position /
記憶部32は、例えば、画像記憶部321と、モデル記憶部322とを備える。画像記憶部321は、画像取得部35が取得した画像を記憶する。モデル記憶部322は、対象物体bx又は対象物体bxの形状、色彩、模様等を三次元モデル化して得られた三次元モデルデータ(以下、リファレンスモデルと称する)を予め記憶する。リファレンスモデルは、撮像部10により撮像された対象物体bxとの比較対象となるものであり、例えば、
三次元コンピューターグラフィックス(Computer Graphics;CG)で表現される。この三次元CGは、例えば、ポリゴンデータの集合として表される。
The
It is expressed by three-dimensional computer graphics (Computer Graphics; CG). This three-dimensional CG is represented as a set of polygon data, for example.
制御部36は、例えば、ヤコビ行列算出部37と、位置姿勢推定部41と、駆動制御部43とを備える。ヤコビ行列算出部37は、画像記憶部321に記憶された画像(対象物体bxが異なる方向から撮像された画像)に基づいて、対象物体bxの三次元ヤコビ行列を算出する。三次元ヤコビ行列は、例えば、対象物体bxの位置及び姿勢を推定するために利用される非線形最小化手法に必要なパラメーターを含む行列である。非線形最小化手法とは、例えば、ESM(Efficient Second−order Minimization Method)法やレーベンバーグ・マルカート法、ニュートン法、ガウス・ニュートン法等である。これらの非線形最小化手法のうち、ESM法は、他の手法に比べて反復計算の回数が少ないため、対象物体bxの位置及び姿勢をより高速に推定したい場合に、好適に用いることができる。そこで、以下では、非線形最小化手法としてESM法を採用し、算出した三次元ヤコビ行列は、ESM法に用いるパラメーターであるものとして説明する。
The
また、ヤコビ行列算出部37は、ロボット本体50によって対象物体bxを移動させた後の位置及び姿勢(リファレンスモデルの仮想的な位置及び姿勢)を、ユーザーからの入力として入力受付部33から取得する。ヤコビ行列算出部37は、例えば、一時的な記憶領域を備えており、ユーザーからの入力を記憶する。そして、ヤコビ行列算出部37は、モデル記憶部322に記憶されたリファレンスモデルと、ユーザーからの入力に基づいて、対象物体bxの位置及び姿勢をESM法によって推定するための基準となる三次元ヤコビ行列(特許請求の範囲における基準三次元ヤコビ行列の一例)を算出する。また、ヤコビ行列算出部37は、画像から算出した三次元ヤコビ行列と、リファレンスモデルから算出した基準となる三次元ヤコビ行列とを、位置姿勢推定部41へ出力する。
Further, the Jacobian
位置姿勢推定部41は、取得した画像から算出した三次元ヤコビ行列と、リファレンスモデルから算出した基準となる三次元ヤコビ行列とに基づいて、ESM法によって対象物体bxのカメラ座標系における位置及び姿勢を推定する。ESM法による位置及び姿勢の推定についての詳細は、後述する。カメラ座標系とは、位置姿勢推定部41が仮想空間上に設ける座標系のことであり、例えば、撮像部10によって撮像される画像内における位置を表すために用いられる座標系である。位置姿勢推定部41は、推定した対象物体bxのカメラ座標系における位置及び姿勢を表す情報を、駆動制御部43へ出力する。
The position /
駆動制御部43は、取得した対象物体bxのカメラ座標系における位置及び姿勢を表す情報に基づいて、対象物体bxのロボット座標系における位置及び姿勢を算出する。ロボット座標系とは、ロボット本体50が稼働する際に、把持部の位置を表すために用いられる座標系である。駆動制御部43は、位置姿勢推定部41に適用するカメラ座標系と、ロボット本体50に適用するロボット座標系とのキャリブレーション(較正)処理を行う。
The
駆動制御部43は、算出した対象物体bxのロボット座標系における位置及び姿勢に基づいて、ロボット本体50が備える把持部hndの位置及び姿勢を計算する。そして、駆動制御部43は、この計算結果に基づいて、ロボット本体50の各可動部の動作を制御する。
Based on the calculated position and orientation of the target object bx in the robot coordinate system, the
次に、図4と図5とを参照することで、異なる方向から対象物体bxを撮像する方法の一例について説明する。図4は、撮像部10が備える専用の光学系optの一例を表す図である。対象物体bxからの反射光は、光学系optを介して、撮像素子ccd1、ccd2に入射する。なお、撮像素子ccd1は、第1撮像素子の一例である。また、撮像素子ccd2は、第2撮像素子の一例である。対象物体bxからの反射光は、まずハーフミラーhmrへと入射する。ハーフミラーhmrは、入射光の約50%を透過させ、残りの50%を透過光とは直交する方向へ反射させる。図4において、実線の矢印は、入射光ll1の光路を表し、一点鎖線の矢印は、入射光ll2の光路を表している。なお、入射光ll1がハーフミラーhmrに入射する方向は、第1方向の一例である。また、入射光ll2がハーフミラーhmrに入射する方向は、第2方向の一例である。ハーフミラーhmrにより反射された入射光ll1は、ミラーmr1、mr2によって反射され、撮像素子ccd1へと到達する。一方、ハーフミラーhmrを透過した入射光ll2は、ミラーmr3、mr4によって反射され、撮像素子ccd2へと到達する。このとき、mr3の反射面の傾きによって、入射光ll1と、入射光ll2とのそれぞれによって撮像される対象物体bxの像は、単純に反転しているわけではなく、微小変化量分だけ対象物体bxを移動させてから撮像したような像となっている。なお、ミラーmr1〜4は、複数のミラーの一例である。
Next, an example of a method for imaging the target object bx from different directions will be described with reference to FIGS. 4 and 5. FIG. 4 is a diagram illustrating an example of a dedicated optical system opt included in the
ここで、ミラーmr1、mr2、及び撮像素子ccd1によって構成される撮像系と、ミラーmr3、mr4、及び撮像素子ccd2によって構成される撮像系とは、ヤコビ行列算出部37は、この微小変化量に基づいて、三次元ヤコビ行列を算出することができる。具体的には、三次元ヤコビ行列の各要素は、対象物体bxを撮像する方向を微小変化させた場合に、その変化させた方向への微小変化に対する対象物体bxを表す画像中のピクセルの輝度が変化する時の変化率を表す値である。ヤコビ行列算出部37は、対象物体bx自体を動かすのに代えて、異なる方向から撮像した対象物体bxの画像を比較し、差分を求めることによって、上記変化率を算出し、この変化率に基づいて三次元ヤコビ行列の各要素を決定する。
Here, the imaging system configured by the mirrors mr1 and mr2 and the imaging device ccd1 and the imaging system configured by the mirrors mr3 and mr4 and the imaging device ccd2 are configured so that the Jacobian
なお、図4において、画像pic1、pic2はそれぞれ、撮像素子ccd1、ccd2に入射したそれぞれの入射光ll1、ll2による像である。ここで、図4において、画像pic1と、画像pic2とが、専用の光学系optを通過した際に反転してしまうことを明確に示すため、対象物体bxには、矢印arを描いている。撮像部10は、このような専用の光学系optを、左右方向に対して対象物体bxを反転させるものと、上下方向に対して対象物体bxを反転させるものとの2つを備えることで、ヤコビ行列算出部37が三次元ヤコビ行列を算出するために必要な情報を、画像として提供することができる。
In FIG. 4, images pic <b> 1 and pic <b> 2 are images obtained by the incident lights ll <b> 1 and ll <b> 2 incident on the image sensors ccd <b> 1 and ccd <b> 2, respectively. Here, in FIG. 4, an arrow ar is drawn on the target object bx in order to clearly show that the image pic <b> 1 and the image pic <b> 2 are inverted when passing through the dedicated optical system opt. The
図5は、図4で示した光学系optを備えた撮像部10によって、異なる方向から撮像された物体の画像pic1〜pic4が撮像される状況の一例を説明する図である。対象物体bxからの反射光は、入射光ll1〜ll4として、専用の光学系optへ入射する。専用の光学系optに入射した入射光ll1〜ll4は、それぞれの光路を通過し、レンズlnsを介して、撮像素子snsrに入射する。撮像素子snsrは、4つの撮像素子が格子状に並べられたものである。画像pic1〜pic4は、それぞれの撮像素子で撮像された画像である。
FIG. 5 is a diagram for explaining an example of a situation in which the images pic1 to pic4 of the object captured from different directions are captured by the
次に、図6を参照することで、物体位置姿勢推定装置30の動作の流れを説明する。図6は、物体位置姿勢推定装置30の動作の流れの一例を説明するフローチャートである。
(ステップS100)まず、入力受付部33は、ユーザーからの入力を受け付けることで、リファレンスモデルの仮想的な位置及び姿勢を表す情報を、ヤコビ行列算出部37に出力して設定する。
(ステップS120)次に、モデル記憶部322は、入力受付部33を介して、リファレンスモデルを記憶する。
Next, the flow of operations of the object position /
(Step S <b> 100) First, the
(Step S120) Next, the
(ステップS140)次に、ヤコビ行列算出部37は、リファレンスモデルの三次元ヤコビ行列を算出する。ヤコビ行列算出部37は、リファレンスモデルの三次元ヤコビ行列の各要素を、ステップS100で設定されたリファレンスモデルの位置及び姿勢から、リファレンスモデルを仮想的に微小量分だけ動かすシミュレーションに基づいて決定する。なお、ステップS100〜S140の処理は、ステップS160以下の処理の直前に行われる必要はなく、予めリファレンスモデルの三次元ヤコビ行列が記憶部32に格納されていてよい。
(ステップS160)次に、画像取得部35は、撮像部10から、異なる方向から撮像された対象物体bxの画像を取得し、取得した画像を画像記憶部321に記憶させる。
(Step S140) Next, the Jacobian
(Step S160) Next, the
(ステップS180)次に、ヤコビ行列算出部37は、画像記憶部321に記憶された異なる方向から撮像された対象物体bxの画像に基づいて、前述した方法により各方向からの画像を比較することで、対象物体bxの三次元ヤコビ行列の各要素を決定する。
(ステップS200)次に、ヤコビ行列算出部37は、ステップS180で三次元ヤコビ行列の全ての要素が決定できたか否かを判定する。ヤコビ行列算出部37により、三次元ヤコビ行列の全ての要素が決定できていないと判定された場合(ステップS200−No)、画像取得部35は、ステップS160へ戻り、撮像部10から再び対象物体bxの画像を取得する。ヤコビ行列算出部37により、三次元ヤコビ行列の全ての要素が決定できたと判定された場合(ステップS200−Yes)、ヤコビ行列算出部37は、算出したリファレンスモデルの三次元ヤコビ行列と、対象物体bxの三次元ヤコビ行列とを、位置姿勢推定部41へ出力する。そして、位置姿勢推定部41は、取得したリファレンスモデルの三次元ヤコビ行列と、対象物体bxの三次元ヤコビ行列とに基づいて、ESM法を利用してカメラ座標系における対象物体bxの位置及び姿勢を推定する(ステップS220)。
(Step S180) Next, the Jacobian
(Step S200) Next, the Jacobian
ここで、ESM法を利用したカメラ座標系における対象物体bxの位置及び姿勢の推定方法について、簡単に説明する。ESM法を用いた推定方法とは、例えば、対象物体bxの画像(以下、実画像と称する)を表す輝度マップと、リファレンスモデルを利用した画像であって、対象物体bxを移動先に移動させた場合の画像(以下、テンプレート画像と称する)の輝度マップとの差分が最小となるような移動量(6自由度の移動量、すなわち3軸方向の並進と、3軸まわりの回転角)を導出する方法である。実画像の輝度マップを表す関数(例えば、画像の各ピクセルの輝度を表す値を要素に持つベクトル)をSとし、テンプレート画像の輝度マップを表す関数をS*とすると、上記移動量Δz(ボールド体)は、以下の(1)〜(3)式で表すことができる。なお、(ボールド体)は、カッコの前の文字がボールド体で表されるベクトル、あるいは、行列であることを表すものとする。 Here, a method for estimating the position and orientation of the target object bx in the camera coordinate system using the ESM method will be briefly described. The estimation method using the ESM method is, for example, a luminance map representing an image of the target object bx (hereinafter referred to as a real image) and an image using a reference model, and the target object bx is moved to a destination. A moving amount (moving amount of six degrees of freedom, that is, translation in three axes and a rotation angle around three axes) that minimizes the difference between the brightness map of the image (hereinafter referred to as a template image) in the case of It is a method of deriving. If the function representing the luminance map of the actual image (for example, a vector having a value representing the luminance of each pixel of the image as an element) is S and the function representing the luminance map of the template image is S * , the movement amount Δz (bold (Body) can be represented by the following formulas (1) to (3). Note that (bold) means that the character before the parenthesis is a vector or matrix expressed in bold.
ここで、J(ボールド体)は、対象物体bxの三次元ヤコビ行列であり、J(ボールド体)*は、リファレンスモデルの三次元ヤコビ行列である。対象物体bxの移動先における位置及び姿勢は、予めユーザーから入力されているため、既知である。それ故、位置姿勢推定部41は、上記(1)式から移動量Δz(ボールド体)を求め、求めた移動量Δzと、対象物体bxの移動先における位置及び姿勢とに基づいて、移動前の対象物体bxの位置及び姿勢を推定することができる。位置姿勢推定部41は、推定した対象物体bxの位置及び姿勢を、駆動制御部43へ出力する。
Here, J (bold body) is a three-dimensional Jacobian matrix of the target object bx, and J (bold body) * is a three-dimensional Jacobian matrix of the reference model. The position and orientation of the target object bx at the destination are known in advance because they are input in advance by the user. Therefore, the position /
(ステップS240)次に、駆動制御部43は、取得した対象物体bxの位置及び姿勢の座標を、カメラ座標系の座標からロボット座標系の座標へと変換し、変換した座標に基づいて、ロボット本体50の把持部により対象物体bxを、移動先へと移動させる。
(Step S240) Next, the
以上説明したように、第1の実施形態におけるロボットシステム1は、撮像素子ccd1と撮像素子ccd2とを含む複数の撮像素子を備える撮像部10を備え、撮像素子ccd1によりハーフミラーhmrに入射する方向から対象物体bxを撮像することと、撮像素子ccd2により入射光ll2がハーフミラーhmrに入射する方向から対象物体bxを撮像することによって、ロボット本体50を動作させるため、対象物体bxの三次元空間における位置及び姿勢の推定に必要な時間を短縮してロボット本体50を制御することができる。
As described above, the
また、ロボットシステム1は、制御部36が、撮像部10により撮像された複数の撮像画像に基づいて、対象物体bxの三次元ヤコビ行列を算出し、算出された三次元ヤコビ行列と、基準となる基準三次元ヤコビ行列とを比較して、対象物体bxの位置及び姿勢を推定し、推定された位置及び姿勢に基づいて、ロボット本体50を動作させるため、例えば、ESM法を用いた推定方法によって対象物体bxの位置及び姿勢を推定し、従来のニュートン法等の非線形最小化手法を用いた推定法に比べて、対象物体bxの位置及び姿勢の推定に必要な時間を短縮してロボット本体50を制御することができる。
In the
また、ロボットシステム1は、撮像部10が、ハーフミラーhmrとミラーmr1〜4とによって、入射光ll1がハーフミラーhmrに入射する方向と、入射光ll2がハーフミラーhmrに入射する方向とから入射する対象物体bxからの光を撮像素子ccd1と撮像素子ccd2に集めるため、撮像部10の位置を変えることなく、異なる方向から撮像された複数の画像を取得することができ、その結果として、対象物体bxの位置及び姿勢の推定に必要な時間を短縮することができる。また、撮像画像にぶれが生じることが無く、推定の精度を向上させることができる。
Also, in the
また、ロボットシステム1は、撮像部10が、ハーフミラーhmrにより入射光ll1がハーフミラーhmrに入射する方向と、入射光ll2がハーフミラーhmrに入射する方向とから入射する対象物体bxからの光を分岐させることで、入射光ll1がハーフミラーhmrに入射する方向と入射光ll2がハーフミラーhmrに入射する方向とから入射する対象物体bxからの光を撮像素子ccd1と撮像素子ccd2に集めるため、1台の撮像部10によって同時に異なる方向から対象物体bxを撮像することができ、対象物体bxの位置及び姿勢の推定をより短時間で行うことができる。
Further, in the
<第2の実施形態>
以下、第2の実施形態について説明する。構成については、図2、3を援用し、同じ機能部に対して同一の符号を付して説明する。図7は、第2の実施形態におけるロボットシステム1の利用状況の一例を示す図である。第2の実施形態におけるロボットシステム1は、撮像部10が、ロボット本体50の把持部付近に設置され、ロボット本体50の把持部とともに移動する。第2の実施形態の撮像部10は、第1の実施形態で備えていた専用の光学系optを備えることに代えて、ロボット本体50の把持部が微小変化量分だけ移動しながら対象物体bxを、異なる方向から撮像する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. About a structure, FIG.2, 3 is used and it attaches | subjects and demonstrates the same code | symbol with respect to the same function part. FIG. 7 is a diagram illustrating an example of a usage status of the
以上説明したように、第2の実施形態におけるロボットシステム1は、撮像部10がロボット本体50の把持部とともに移動し、異なる方向から対象物体bxを撮像することで、異なる方向から撮像可能な撮像部10により撮像された物体の二次元画像を取得し、取得した画像に基づいて対象物体bxの三次元ヤコビ行列を算出し、算出された三次元ヤコビ行列と、リファレンスモデルの三次元ヤコビ行列とを比較して、対象物体bxの位置及び姿勢をESM法を用いた推定法によって推定するため、対象物体bxの位置及び姿勢の推定に必要な時間を、従来のニュートン法等の非線形最小化手法を用いた推定法に比べて短縮してロボット本体50を制御することができる。
As described above, in the
<第3の実施形態>
以下、第3の実施形態について説明する。構成については、図2、3を援用し、同じ機能部に対して同一の符号を付して説明する。第3の実施形態におけるロボットシステム1は、撮像部10がライトフィールドカメラであり、第2の実施形態と同様に、第1の実施形態で備えていた専用の光学系optを備えていない。ライトフィールドカメラとは、撮像素子の手前に、異なる焦点を持つマイクロレンズが、撮像素子の面に平行な面上で配列されており、この構成によって得られる奥行き方向の情報を含む画像を利用することで、1台でステレオ撮像を行うことが可能なカメラである。従って、第3の実施形態におけるヤコビ行列算出部37は、ライトフィールドカメラである撮像部10によってステレオ撮像された三次元画像に基づいて、対象物体bxの三次元ヤコビ行列を算出する。
<Third Embodiment>
Hereinafter, a third embodiment will be described. About a structure, FIG.2, 3 is used and it attaches | subjects and demonstrates the same code | symbol with respect to the same function part. In the
以上説明したように、第3の実施形態におけるロボットシステム1は、撮像部10がライトフィールドカメラを撮像部10として備え、撮像部10がステレオ撮像することで得られる三次元画像に基づいて、ヤコビ行列算出部37が対象物体bxの三次元ヤコビ行列を算出するため、第1の実施形態と同様の効果を得ることができる。
As described above, in the
また、ロボットシステム1は、撮像部10が、撮像素子の面に平行な面上に配列された、互いに異なる焦点を有する複数のレンズを更に備え、複数のレンズによって得られる奥行き方向の情報を含む画像を撮像するため、ハーフミラーhmrや複数のミラーmr1〜4により構成される光学系を必要とせず、物体の位置及び姿勢の推定をより短時間で行うことができる。
In the
以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and changes, substitutions, deletions, and the like are possible without departing from the gist of the present invention. May be.
1 ロボットシステム、10 撮像部、30 物体位置姿勢推定装置、31 CPU、32 記憶部、33 入力受付部、34 通信部、35 画像取得部、37 ヤコビ行列算出部、41 位置姿勢推定部、43 駆動制御部、50 ロボット本体、321 画像記憶部、322 モデル記憶部
DESCRIPTION OF
Claims (5)
物体を撮像する撮像部と、
前記ロボットを動作させる制御部と、
を含み、
前記撮像部は、第1撮像素子と第2撮像素子とを含む複数の撮像素子を備え、
前記制御部は、前記第1撮像素子により第1方向から前記物体を撮像することと、前記第2撮像素子により前記第1方向とは異なる第2方向から前記物体を撮像することによって、前記ロボットを動作させる、
ロボットシステム。 With robots,
An imaging unit for imaging an object;
A control unit for operating the robot;
Including
The imaging unit includes a plurality of imaging elements including a first imaging element and a second imaging element,
The control unit images the object from a first direction by the first image sensor, and images the object from a second direction different from the first direction by the second image sensor, so that the robot Make the work,
Robot system.
前記制御部は、前記撮像部により撮像された複数の撮像画像に基づいて、前記物体の三次元ヤコビ行列を算出し、前記算出された三次元ヤコビ行列と、基準となる基準三次元ヤコビ行列とを比較して、前記物体の位置及び姿勢を推定し、前記推定された位置及び姿勢に基づいて、前記ロボットを動作させる、
ロボットシステム。 The robot system according to claim 1,
The control unit calculates a three-dimensional Jacobian matrix of the object based on a plurality of captured images captured by the imaging unit, the calculated three-dimensional Jacobian matrix, a reference three-dimensional Jacobian matrix serving as a reference, And estimating the position and orientation of the object, and operating the robot based on the estimated position and orientation.
Robot system.
前記撮像部は、ハーフミラーと、複数のミラーを更に備え、前記ハーフミラーと前記複数のミラーとによって、前記第1方向と前記第2方向とから入射する前記物体からの光を前記第1撮像素子と前記第2撮像素子に集める、
ロボットシステム。 The robot system according to claim 1 or 2,
The imaging unit further includes a half mirror and a plurality of mirrors, and the first mirror captures light from the object incident from the first direction and the second direction by the half mirror and the plurality of mirrors. Collecting the device and the second imaging device;
Robot system.
前記撮像部は、前記ハーフミラーにより前記第1方向と前記第2方向とから入射する前記物体からの光を分岐させることで、前記第1方向と前記第2方向とから入射する前記物体からの光を前記第1撮像素子と前記第2撮像素子に集める、
ロボットシステム。 The robot system according to claim 3, wherein
The imaging unit causes the light from the object incident from the first direction and the second direction to be branched by the half mirror, so that the object from the object incident from the first direction and the second direction is separated. Collecting light on the first image sensor and the second image sensor;
Robot system.
前記撮像部は、撮像素子の面に平行な面上に配列された、互いに異なる焦点を有する複数のレンズを更に備え、前記複数のレンズによって得られる奥行き方向の情報を含む画像を撮像する、
ロボットシステム。 The robot system according to claim 3, wherein
The imaging unit further includes a plurality of lenses having different focal points arranged on a plane parallel to the plane of the imaging element, and captures an image including information in the depth direction obtained by the plurality of lenses.
Robot system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242057A JP2015100868A (en) | 2013-11-22 | 2013-11-22 | Robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013242057A JP2015100868A (en) | 2013-11-22 | 2013-11-22 | Robot system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015100868A true JP2015100868A (en) | 2015-06-04 |
Family
ID=53377036
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013242057A Withdrawn JP2015100868A (en) | 2013-11-22 | 2013-11-22 | Robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015100868A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021200438A1 (en) * | 2020-03-31 | 2021-10-07 | ミネベアミツミ株式会社 | Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device |
JP2021171865A (en) * | 2020-04-23 | 2021-11-01 | 株式会社デンソー | Robot control device and robot control method |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63309806A (en) * | 1987-06-12 | 1988-12-16 | Canon Inc | Measuring instrument for depth of projection and recess part |
JPH01110243A (en) * | 1987-10-23 | 1989-04-26 | Hitachi Vlsi Eng Corp | Appearance inspecting device |
WO1997006406A1 (en) * | 1995-08-07 | 1997-02-20 | Komatsu Ltd. | Distance measuring apparatus and shape measuring apparatus |
JPH1185235A (en) * | 1997-09-01 | 1999-03-30 | Yaskawa Electric Corp | Visual feedback method for machine device using image pickup unit |
US6084712A (en) * | 1998-11-03 | 2000-07-04 | Dynamic Measurement And Inspection,Llc | Three dimensional imaging using a refractive optic design |
JP2000295635A (en) * | 1999-04-01 | 2000-10-20 | Sony Corp | Three-dimensional image pickup device |
JP2001158507A (en) * | 1999-09-21 | 2001-06-12 | Shinko Electric Co Ltd | Method and device for teaching robot for stoker, and storage medium |
JP2002018754A (en) * | 2000-07-10 | 2002-01-22 | Toyota Central Res & Dev Lab Inc | Robot device and its control method |
US6611344B1 (en) * | 1998-11-30 | 2003-08-26 | Rahmonic Resources Pte Ltd | Apparatus and method to measure three dimensional data |
JP2005271693A (en) * | 2004-03-24 | 2005-10-06 | Sumitomo Electric Ind Ltd | Object detection device |
JP2006165601A (en) * | 2004-12-02 | 2006-06-22 | Sony Corp | Imaging apparatus and imaging element |
JP2009092584A (en) * | 2007-10-11 | 2009-04-30 | Sharp Corp | Distance information detection device |
JP2009241247A (en) * | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | Stereo-image type detection movement device |
JP2009271305A (en) * | 2008-05-07 | 2009-11-19 | Nippon Hoso Kyokai <Nhk> | Stereoscopic information generating device and stereoscopic information generating program |
JP2009288042A (en) * | 2008-05-29 | 2009-12-10 | Nikon Corp | Distance measuring device |
JP2011058858A (en) * | 2009-09-08 | 2011-03-24 | Honda Motor Co Ltd | Viewing device |
JP2012130977A (en) * | 2010-12-20 | 2012-07-12 | Toshiba Corp | Robot control apparatus |
JP2013057744A (en) * | 2011-09-07 | 2013-03-28 | Nikon Corp | Imaging device |
JP2013198015A (en) * | 2012-03-21 | 2013-09-30 | Casio Comput Co Ltd | Imaging apparatus, image processing method and program |
-
2013
- 2013-11-22 JP JP2013242057A patent/JP2015100868A/en not_active Withdrawn
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63309806A (en) * | 1987-06-12 | 1988-12-16 | Canon Inc | Measuring instrument for depth of projection and recess part |
JPH01110243A (en) * | 1987-10-23 | 1989-04-26 | Hitachi Vlsi Eng Corp | Appearance inspecting device |
WO1997006406A1 (en) * | 1995-08-07 | 1997-02-20 | Komatsu Ltd. | Distance measuring apparatus and shape measuring apparatus |
JPH1185235A (en) * | 1997-09-01 | 1999-03-30 | Yaskawa Electric Corp | Visual feedback method for machine device using image pickup unit |
US6084712A (en) * | 1998-11-03 | 2000-07-04 | Dynamic Measurement And Inspection,Llc | Three dimensional imaging using a refractive optic design |
US6611344B1 (en) * | 1998-11-30 | 2003-08-26 | Rahmonic Resources Pte Ltd | Apparatus and method to measure three dimensional data |
JP2000295635A (en) * | 1999-04-01 | 2000-10-20 | Sony Corp | Three-dimensional image pickup device |
JP2001158507A (en) * | 1999-09-21 | 2001-06-12 | Shinko Electric Co Ltd | Method and device for teaching robot for stoker, and storage medium |
JP2002018754A (en) * | 2000-07-10 | 2002-01-22 | Toyota Central Res & Dev Lab Inc | Robot device and its control method |
JP2005271693A (en) * | 2004-03-24 | 2005-10-06 | Sumitomo Electric Ind Ltd | Object detection device |
JP2006165601A (en) * | 2004-12-02 | 2006-06-22 | Sony Corp | Imaging apparatus and imaging element |
JP2009092584A (en) * | 2007-10-11 | 2009-04-30 | Sharp Corp | Distance information detection device |
JP2009241247A (en) * | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | Stereo-image type detection movement device |
JP2009271305A (en) * | 2008-05-07 | 2009-11-19 | Nippon Hoso Kyokai <Nhk> | Stereoscopic information generating device and stereoscopic information generating program |
JP2009288042A (en) * | 2008-05-29 | 2009-12-10 | Nikon Corp | Distance measuring device |
JP2011058858A (en) * | 2009-09-08 | 2011-03-24 | Honda Motor Co Ltd | Viewing device |
JP2012130977A (en) * | 2010-12-20 | 2012-07-12 | Toshiba Corp | Robot control apparatus |
JP2013057744A (en) * | 2011-09-07 | 2013-03-28 | Nikon Corp | Imaging device |
JP2013198015A (en) * | 2012-03-21 | 2013-09-30 | Casio Comput Co Ltd | Imaging apparatus, image processing method and program |
Non-Patent Citations (1)
Title |
---|
"ライトフィールドカメラ・原理", ライトフィールドカメラ, JPN6017032403, 28 March 2013 (2013-03-28), JP, ISSN: 0003879055 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021200438A1 (en) * | 2020-03-31 | 2021-10-07 | ミネベアミツミ株式会社 | Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device |
JP2021160037A (en) * | 2020-03-31 | 2021-10-11 | ミネベアミツミ株式会社 | Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device |
JP7423387B2 (en) | 2020-03-31 | 2024-01-29 | ミネベアミツミ株式会社 | Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device |
JP2021171865A (en) * | 2020-04-23 | 2021-11-01 | 株式会社デンソー | Robot control device and robot control method |
JP7310693B2 (en) | 2020-04-23 | 2023-07-19 | 株式会社デンソー | ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6364836B2 (en) | Robot, robot system, and control device | |
JP7016058B2 (en) | Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device | |
JP6107081B2 (en) | Image processing apparatus, image processing method, and program | |
CN108765498B (en) | Monocular vision tracking, device and storage medium | |
JP7038345B2 (en) | Camera parameter set calculation method, camera parameter set calculation program and camera parameter set calculation device | |
CN106687063B (en) | Tracking system and tracking method using the same | |
US9652660B2 (en) | Control system, robot system, and control method | |
EP2543483B1 (en) | Information processing apparatus and information processing method | |
US9437005B2 (en) | Information processing apparatus and information processing method | |
JP6222898B2 (en) | Three-dimensional measuring device and robot device | |
KR100855657B1 (en) | System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor | |
JP5710752B2 (en) | Detection apparatus, method and program | |
JP2011232330A (en) | Imaging apparatus, distance measuring method, and program | |
JP4132068B2 (en) | Image processing apparatus, three-dimensional measuring apparatus, and program for image processing apparatus | |
CN113256718B (en) | Positioning method and device, equipment and storage medium | |
JP5959899B2 (en) | Contact state estimation device | |
WO2022247548A1 (en) | Positioning method, apparatus, electronic device, and storage medium | |
JP2015031601A (en) | Three-dimensional measurement instrument, method, and program | |
CN113701750A (en) | Fusion positioning system of underground multi-sensor | |
JP2015100868A (en) | Robot system | |
JP2018009918A (en) | Self-position detection device, moving body device, and self-position detection method | |
JP4935769B2 (en) | Plane region estimation apparatus and program | |
JP2015087313A (en) | Control device, robot, control system, control method, and control program | |
JP2022011821A (en) | Information processing device, information processing method and mobile robot | |
JP2015226954A (en) | Robot, control method of the same and control unit of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170821 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180420 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180918 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20181026 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20181101 |