JP2015157339A - ロボット、ロボットシステム、制御装置、及び制御方法 - Google Patents

ロボット、ロボットシステム、制御装置、及び制御方法 Download PDF

Info

Publication number
JP2015157339A
JP2015157339A JP2014033771A JP2014033771A JP2015157339A JP 2015157339 A JP2015157339 A JP 2015157339A JP 2014033771 A JP2014033771 A JP 2014033771A JP 2014033771 A JP2014033771 A JP 2014033771A JP 2015157339 A JP2015157339 A JP 2015157339A
Authority
JP
Japan
Prior art keywords
robot
image
unit
reference image
work object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2014033771A
Other languages
English (en)
Inventor
良至 岸
Ryoji Kishi
良至 岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014033771A priority Critical patent/JP2015157339A/ja
Publication of JP2015157339A publication Critical patent/JP2015157339A/ja
Withdrawn legal-status Critical Current

Links

Abstract

【課題】作業対象物を目的の位置姿勢にすることができるロボット、ロボットシステム、制御装置、及び制御方法を提供する。【解決手段】ロボットシステムは、作業対象物38に所定画像を投影する投影部32と、投影部32により所定画像が投影された作業対象物38を撮像し、撮像画像36を取得する撮像部340と、作業対象物38を動かすロボットと、参照画像34を記憶する記憶部と、撮像画像36と参照画像34とに基づいて、ロボットのビジュアルサーボを行い、ロボットの制御信号を出力する処理部と、制御信号に基づいて、ロボットを制御するロボット制御部と、を含む。【選択図】図2

Description

本発明は、ロボット、ロボットシステム、制御装置、及び制御方法に関するものである。
近年、生産現場において、人が行ってきた作業を機械化・自動化するために、産業用ロボットを導入することが多くなってきた。しかし、ロボットのアームやハンド等の位置決めを行うにあたっては、精密なキャリブレーションが前提となり、ロボット導入の障壁となっている。
ここで、ロボットのアームやハンド等の位置決めを行う手法の一つとしてビジュアルサーボがある。ある種のビジュアルサーボは、キャリブレーションに精密さを求めない点で有用であり、ロボット導入障壁を下げる技術として注目されている。
これらのビジュアルサーボに関する発明としては、光を投影し、カメラに映る物体と、物体が作る影を検出することでビジュアルサーボを行う方法が提案されている(例えば、特許文献1参照)。
特開平4−201021号公報
しかしながら、特許文献1では、投影される箇所が平面でなく立体的で、かつ色が一色であるようなもの、あるいは物体に何も描かれていない真っ白な板のようなものは、ビジュアルサーボが上手く収束しないおそれがある。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[適用例1]本適用例に係るロボットシステムは、作業対象物に所定画像を投影する投影部と、前記投影部により前記所定画像が投影された前記作業対象物を撮像し、撮像画像を取得する撮像部と、前記作業対象物を動かすロボットと、参照画像を記憶する記憶部と、前記撮像画像と前記参照画像とに基づいて、前記ロボットのビジュアルサーボを行い、前記ロボットの制御信号を出力する処理部と、前記制御信号に基づいて、前記ロボットを制御するロボット制御部と、を含むことを特徴とする。
本適用例によれば、投影部から、作業対象物に対して所定画像を投影し、予め用意しておいた参照画像と投影した所定画像との図柄が同じになるように、ロボットをビジュアルサーボで制御する。これにより、投影される箇所が平面でなく立体的で、かつ色が一色であるようなもの、あるいは作業対象物に何も描かれていない真っ白な板のようなもの、さらにロボットが作業対象物を把持する姿勢が変わったとしても、投影した図柄が同じになるようにビジュアルサーボをすることが可能である。その結果、作業対象物を目的の位置姿勢にすることができる。
[適用例2]上記適用例に記載のロボットシステムにおいて、前記参照画像は、予め前記投影部により前記所定画像が投影された前記作業対象物を撮像した画像であることを特徴とする。
本適用例によれば、参照画像と撮像画像との撮像時の環境が同じであり、ビジュアルサーボの制御精度を向上させることができる。
[適用例3]上記適用例に記載のロボットシステムにおいて、前記参照画像は、CG画像であることを特徴とする。
本適用例によれば、参照画像の環境を撮像画像の環境に合わせることができる。
[適用例4]上記適用例に記載のロボットシステムにおいて、前記投影部は、前記所定画像の明るさを調整することを特徴とする。
本適用例によれば、作業対象物以外の動かない箇所(背景等)が、参照画像を作った照明環境と同じになるように、投影部の明るさを調節することで、安定したビジュアルサーボが可能である。また、使用する環境によるが、十分に明るい光源を使用すると、背景を白飛びさせることで、背景に写る余計な特徴の影響を低減することができる。
[適用例5]本適用例に係る制御装置は、参照画像を記憶する記憶部と、所定画像が投影された作業対象物が映る撮像画像と前記参照画像とに基づいて、ロボットのビジュアルサーボを行い、前記ロボットの制御信号を出力する処理部と、前記制御信号に基づいて、前記ロボットを制御するロボット制御部と、を含むことを特徴とする。
本適用例によれば、作業対象物に対して所定画像を投影し、予め用意しておいた参照画像と投影した所定画像の図柄が同じになるように、ロボットをビジュアルサーボで制御できる。
[適用例6]本適用例に係るロボットは、上記に記載の制御装置を含むことを特徴とする。
本適用例によれば、作業対象物に対して所定画像を投影し、予め用意しておいた参照画像と投影した所定画像の図柄が同じになるように、ロボットをビジュアルサーボで制御する。これにより、作業対象物を目的の位置姿勢にすることができる。
[適用例7]本適用例に係る制御方法は、作業対象物に所定画像を投影することと、前記所定画像が投影された前記作業対象物を撮像し、撮像画像を取得することと、前記撮像画像と参照画像とに基づいて、ロボットのビジュアルサーボを行い、前記ロボットの制御信号を出力することと、前記制御信号に基づいて、前記ロボットを制御することと、を含むことを特徴とする。
本適用例によれば、作業対象物に対して所定画像を投影し、予め用意しておいた参照画像と投影した所定画像の図柄が同じになるように、ロボットをビジュアルサーボで制御できる。
本実施形態に係るシステム構成を示す図。 本実施形態に係るロボットシステムを示す図。 (A)、(B)は、本実施形態に係るロボットの構成例を示す図。 本実施形態に係る特徴ベースビジュアルサーボの処理の流れを説明するフローチャート。 本実施形態に係るロボットシステムを示す図。 本実施形態に係るロボットシステムを示す図。 本実施形態に係るロボットシステムを示す図。 本実施形態に係るロボットシステムを示す図。
以下、本実施形態について説明する。まず、本実施形態の概要を説明し、次にシステム構成例について説明する。そして、ビジュアルサーボの概要について説明した後で、フローチャート等を用いて本実施形態で行う処理の詳細について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
1.概要
ビジュアルサーボは、参照画像(ゴール画像、目標画像)と撮像画像(現在の画像)との差に基づいて、ロボットを制御する技術である。
ここで、ビジュアルサーボに用いる参照画像は、予めワーク等の作業対象物を撮像した画像である。一方で、撮像画像は、ロボットを実際に動作させる際に現在の様子を撮像した画像である。
ここで、作業対象物のワークは、多種多様であり撮像される箇所が平面でなく立体的で、かつ色が一色であるようなものであってもよい。あるいはワークは、何も描かれていない真っ白な板のようなものであってもよい。
2.システム構成例
図1は、本実施形態に係るシステム構成を示す図である。図2は、本実施形態に係るロボットシステム2を示す図である。本実施形態に係るロボットシステム2は、図1に示すように、ロボット制御システム(制御装置)10と、ロボット30と、を備える。また、ロボットシステム2は、図2に示すように、プロジェクター(投影部)32を備える。
ロボット制御システム10は、処理部110と、ロボット制御部120と、記憶部130と、I/F部(入力部)140と、を含む。なお、ロボット制御システム10は、図1の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
次に、ロボット制御システム10の各部で行われる処理について説明する。
処理部110は、後述するカメラ(撮像部)340から得られる撮像画像36(図2参照)と、後述する記憶部130から取得される参照画像34(図2参照)とに基づいて、ロボット30のビジュアルサーボを行い、ロボット30の制御信号を出力する。
ロボット制御部120は、制御信号に基づいて、ロボット30を制御する。なお、処理部110と、ロボット制御部120との機能は、各種プロセッサー(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。
そして、記憶部130は、例えばロボット30の目標状態を表す画像である参照画像34を記憶したり、処理部110やロボット制御部120のワーク領域となったりするもので、その機能はRAM等のメモリーやHDD(ハードディスクドライブ)などにより実現できる。
さらに、入力部(I/F部)140は、ロボット制御システム10に対する作業者からの入力を受け付けたり、ロボット制御システム10とロボット30との間で情報をやり取りしたりするためのインターフェイスである。作業者からの入力等を受け付ける場合には、入力部(I/F部)140は、スイッチ、ボタン、キーボード、あるいはマウス等から構成されてもよい。また、ロボット制御システム10とロボット30との間で情報をやり取りする場合には、入力部(I/F部)140はネットワークを介して通信を行う通信部であってもよい。
また、ロボット30は、図1に示すように、制御部310と、第1のアーム320と、第2のアーム330と、カメラ340と、エンドエフェクター350と、を含む。さらに、図3(A)及び図3(B)に示すように、ロボット30では、第1のアーム320にハンド44が設けられ、第2のアーム330にエンドエフェクター350が設けられる。なお、ロボット30は、図1、図3(A)、及び図3(B)の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加したりするなどの種々の変形実施が可能である。
次に、ロボット30の各部で行われる処理について説明する。
本実施形態の制御部310は、ロボット制御部120からの情報に基づいて、ロボット30の各部(第1のアーム320、第2のアーム330、カメラ340、及びエンドエフェクター350等)の制御を行う。
本実施形態のロボット30は双腕のロボットであり、ロボット30には、第1のアーム320と、第1のアーム320とは異なる第2のアーム330が設けられている。ここで、アームとは、ロボット30のパーツであって、一つ以上の関節を含む可動パーツのことをいう。
さらに、カメラ340は、ロボット30の作業現場等を撮像し、制御部310とI/F部140とを介して処理部110に撮像画像を出力する。例えばカメラ340は、可視カメラであってもよいし、赤外線カメラであってもよい。さらに、例えば可視カメラは、撮像素子としてCCDやCMOSを用いるカメラであっても良く、また、白黒カメラであっても、カラーカメラであっても良い。白黒カメラを使う場合には、撮像画像36として濃淡画像が撮像され、カラーカメラを使う場合には、撮像画像36として色画像が撮像される。なお、可視カメラ及び赤外線カメラは、画像処理用等に用いられるデバイス(プロセッサー)を含んでもよい。本実施形態においては、カメラ340は撮像画像36そのものを出力するが、これに限定されるものではない。例えば、処理部110において行う画像処理の一部を、カメラ340が行っても良い。その場合、撮像画像36に対して、画像処理が施された後の撮像情報が処理部110に出力されることになる。
また、エンドエフェクター350は、アームのエンドポイントに設けられる把持部又はツールのことをいう。
ここで、把持部とは、ワークを把持したり、持ち上げたり、つりあげたり、吸着させたりするために用いる部品のことをいう。把持部は、ハンドであってもよいし、フックであってもよいし、吸盤等であってもよい。なお、1本のアームに対して、複数のハンドを設けても良い。
また、ツールとは、ワークに対して加工等の作業を行うための道具であって、例えばドリルやドライバーなどの工具を指す。なお、ツールは、ハンドにより把持されるものであってもよいし、アームのエンドポイントに直接設けられるものであってもよい。ここで、アームのエンドポイントとは、アームの先端部分のポイントであって、ロボット30のハンド以外の他の部分と接続されていない部分のことをいう。
プロジェクター32は、ワーク38に対してパターン(所定画像)40のパターン光を投影する。プロジェクター32は、パターン40のパターン光の明るさを調整できてもよい。これによれば、ワーク38以外の動かない箇所(背景等)が、参照画像34を作った照明環境と同じになるように、プロジェクター32の明るさを調節することで、安定したビジュアルサーボが可能である。また、使用する環境によるが、十分に明るい光源を使用すると、背景を白飛びさせることで、背景に写る余計な特徴の影響を低減することができる。
次に、ロボット制御システム10とロボット30との一例を図3に示す。
図3は、本実施形態に係るロボットの構成例を示す図である。例えば図3(A)のロボット30では、ロボット本体42とロボット制御システム10とが一体に構成されている。
本実施形態によれば、ワーク38に対してパターン40を投影し、予め用意しておいた参照画像34と投影したパターン40の図柄が同じになるように、ロボット30をビジュアルサーボで制御する。これにより、ワーク38を目的の位置姿勢にすることができる。しかし、本実施形態のロボット制御システム10及びロボット30は図3(A)の構成に限定されず、図3(B)のようにロボット本体42とロボット制御システム10とが別体に構成されていてもよい。具体的には図3(A)に示したように、ロボット30は、ロボット本体(第1のアーム320、第2のアーム330、ハンド44、及びエンドエフェクター350を有する)42及びロボット本体42を支えるベースユニット部を有し、当該ベースユニット部にロボット制御システム10が格納されるものであってもよい。図3(A)のロボット30には、ベースユニット部に車輪等が設けられ、ロボット30全体が移動可能な構成となっている。なお、図3(A)のロボット30は双腕型の例であるが、ロボット30は単腕型や多腕型のロボットであってもよい。なお、ロボット30は、人手により移動させられるものであってもよいし、車輪を駆動するモーターを設け、当該モーターをロボット制御システム10により制御することにより、移動させられるものであってもよい。また、ロボット制御システム10は、図3(A)のようにロボット30の下に設けられたベースユニット部に設けられるとは限られない。
3.ビジュアルサーボの概要
本実施形態の処理の詳細を説明する前に、ビジュアルサーボの概要と、位置ベースビジュアルサーボの流れ、特徴ベースビジュアルサーボの流れについて説明する。
ビジュアルサーボとは、ワーク38の位置の変化を視覚情報として計測し、それをフィードバック情報として用いることによってワーク38を追跡するサーボ系の一種である。ビジュアルサーボは、サーボ系への入力情報(制御量)によって、位置ベースビジュアルサーボと特徴ベースビジュアルサーボとの二つに大別される。位置ベースビジュアルサーボは、ワーク38の位置情報や姿勢情報がサーボ系への入力情報となり、特徴ベースビジュアルサーボは、画像の特徴量がサーボ系への入力情報となる。他にも、位置ベースと特徴ベースとをハイブリッドした手法もある。本実施形態で扱うビジュアルサーボは、特徴ベースの手法を対象とする。
これらのビジュアルサーボは、参照画像34と撮像画像36とを元にサーボ系への入力情報を求める点で共通している。
参照画像34は、予めプロジェクター32によりパターン40が投影されたワーク38を撮像した画像であってもよい。これによれば、参照画像34と撮像画像36との撮像時の環境が同じであり、ビジュアルサーボの制御精度を向上させることができる。
参照画像34は、CG画像であってもよい。これによれば、参照画像34の環境を撮像画像36の環境に合わせることができる。
3.1 特徴ベースビジュアルサーボの流れ
本実施形態に係るロボットシステム2は、図2に示すように、プロジェクター32から、ワーク38に対してパターン光を投影し、予め用意しておいた参照画像34と投影したパターン40の図柄が同じになるように、ロボット30のロボットアームをビジュアルサーボで制御する。
ロボット30のハンド44が把持したワーク38に対して、プロジェクター32で特徴あるパターン40を投影し、それをカメラ340で撮像する。
例えば目標とする姿勢でワーク38に映った図柄をカメラ340で撮影したものを参照画像34とする。
参照画像34と同じ図柄になるようにワーク(ロボットアーム)38をビジュアルサーボで動かして、目標とする位置姿勢に正確に合わせる。
通常ビジュアルサーボはワーク38そのものの特徴に注目してビジュアルサーボを行うが、本実施形態は、ワーク38そのものの特徴だけを使うのではなく、ワーク38に投影されたパターン40が参照画像34と同じになるように、ワーク38を動かすビジュアルサーボを行う。
図4は、本実施形態に係る特徴ベースビジュアルサーボの処理の流れを説明するフローチャートである。次に、図4のフローチャートにおいて、特徴ベースビジュアルサーボの流れを示す。
まず、ステップS10において、参照画像34を設定する。
次に、ステップS11において、カメラ340によって作業スペースを撮像し、撮像画像36を取得する。なお、特徴ベースビジュアルサーボを用いる場合には、参照画像34を設定する際に参照画像34の特徴抽出を行い、特徴量を算出しておくことが望ましい。又は、参照画像34の特徴を抽出した参照画像34情報を記憶部130に記憶しておいてもよい。画像の特徴抽出については、例えば、コーナー検出やガウスフィルター等を用いて行う。
次に、ステップS12において、撮像画像36の特徴を抽出する。なお、参照画像34の特徴抽出は、参照画像34設定の際に行っておくことが望ましいが、本ステップで行ってもよい。撮像画像36の特徴抽出では、ビジュアルサーボ系への入力情報(制御量)として、撮像画像36の特徴量を求める。
次に、ステップS13において、撮像画像36の特徴量に基づいて、参照画像34と撮像画像36とが一致するか否かを比較する。
そして、ステップS14において、画像が一致すると判断する場合には、ビジュアルサーボを終了する。一方、画像が一致しないと判断する場合には、ステップS15へ進む。
次に、ステップS15において、制御指令を生成する。
次に、ステップS16において、ロボット制御部120に制御指令を送出する。
特徴ベースビジュアルサーボでは、制御量が目標値に収束するまで以上の処理を繰り返す。
4.処理の詳細
本実施形態のロボット制御システム10は、例えばロボット30の目標状態を表す画像である参照画像を記憶する記憶部130と、カメラ340から得られる撮像画像36と参照画像34とに基づいて、ロボット30のビジュアルサーボを行い、ロボット30の制御信号を出力する処理部110と、制御信号に基づいて、ロボット30を制御するロボット制御部120と、を含む。そして、記憶部130は、ロボット30のワーク38が映る画像を参照画像34として記憶する。さらに、処理部110は、ワーク38が映る撮像画像36と、参照画像34とに基づいて、ビジュアルサーボを行う。
本実施形態によれば、ワーク38に対してパターン40を投影し、予め用意しておいた参照画像34と投影したパターン40の図柄が同じになるように、ロボット30をビジュアルサーボで制御できる。
図5は、本実施形態に係るロボットシステム2を示す図である。図5に示すように、投影したパターン40以外に、ワーク38やロボット30が光を遮ってできる影も利用してビジュアルサーボを行ってもよい。
図6、図7、及び図8は、本実施形態に係るロボットシステム2を示す図である。図6、図7、及び図8に示すように、投影されるワーク38は立体的で、テクスチャーがないようなものでもよい。
本実施形態によれば、プロジェクター32から、ワーク38に対してパターン40を投影し、予め用意しておいた参照画像34と投影したパターン40との図柄が同じになるように、ロボット30をビジュアルサーボで制御する。これにより、投影される箇所が平面でなく立体的で、かつ色が一色であるようなもの、あるいはワーク38に何も描かれていない真っ白な板のようなもの、さらにロボット30がワーク38を把持する姿勢が変わったとしても、投影した図柄が同じになるようにビジュアルサーボをすることが可能である。その結果、ワーク38を目的の位置姿勢にすることができる。
なお、本実施形態の制御装置10及びロボット30等は、その処理の一部又は大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサーがプログラムを実行することで、本実施形態の制御装置10及びロボット30等が実現される。具体的には、情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサーが実行する。ここで、情報記憶媒体(コンピューターにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、あるいはメモリー(カード型メモリー、ROM等)などにより実現できる。そして、CPU等のプロセッサーは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピューター(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピューターに実行させるためのプログラム)が記憶される。
以上のように本実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義又は同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、ロボット制御システム、ロボット、及びプログラム等の構成、動作も本実施形態で説明したものに限定されず、種々の変形実施が可能である。
2…ロボットシステム 10…ロボット制御システム(制御装置) 30…ロボット 32…プロジェクター(投影部) 34…参照画像 36…撮像画像 38…ワーク(作業対象物) 40…パターン 42…ロボット本体 44…ハンド 110…処理部 120…ロボット制御部 130…記憶部 140…I/F部(入力部) 310…制御部 320…第1のアーム 330…第2のアーム 340…カメラ(撮像部) 350…エンドエフェクター。

Claims (7)

  1. 作業対象物に所定画像を投影する投影部と、
    前記投影部により前記所定画像が投影された前記作業対象物を撮像し、撮像画像を取得する撮像部と、
    前記作業対象物を動かすロボットと、
    参照画像を記憶する記憶部と、
    前記撮像画像と前記参照画像とに基づいて、前記ロボットのビジュアルサーボを行い、前記ロボットの制御信号を出力する処理部と、
    前記制御信号に基づいて、前記ロボットを制御するロボット制御部と、
    を含むことを特徴とするロボットシステム。
  2. 請求項1に記載のロボットシステムにおいて、
    前記参照画像は、予め前記投影部により前記所定画像が投影された前記作業対象物を撮像した画像であることを特徴とするロボットシステム。
  3. 請求項1に記載のロボットシステムにおいて、
    前記参照画像は、CG画像であることを特徴とするロボットシステム。
  4. 請求項1〜3のいずれか一項に記載のロボットシステムにおいて、
    前記投影部は、前記所定画像の明るさを調整することを特徴とするロボットシステム。
  5. 参照画像を記憶する記憶部と、
    所定画像が投影された作業対象物が映る撮像画像と前記参照画像とに基づいて、ロボットのビジュアルサーボを行い、前記ロボットの制御信号を出力する処理部と、
    前記制御信号に基づいて、前記ロボットを制御するロボット制御部と、
    を含むことを特徴とする制御装置。
  6. 請求項5に記載の制御装置を含むことを特徴とするロボット。
  7. 作業対象物に所定画像を投影することと、
    前記所定画像が投影された前記作業対象物を撮像し、撮像画像を取得することと、
    前記撮像画像と参照画像とに基づいて、ロボットのビジュアルサーボを行い、前記ロボットの制御信号を出力することと、
    前記制御信号に基づいて、前記ロボットを制御することと、
    を含むことを特徴とする制御方法。
JP2014033771A 2014-02-25 2014-02-25 ロボット、ロボットシステム、制御装置、及び制御方法 Withdrawn JP2015157339A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014033771A JP2015157339A (ja) 2014-02-25 2014-02-25 ロボット、ロボットシステム、制御装置、及び制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014033771A JP2015157339A (ja) 2014-02-25 2014-02-25 ロボット、ロボットシステム、制御装置、及び制御方法

Publications (1)

Publication Number Publication Date
JP2015157339A true JP2015157339A (ja) 2015-09-03

Family

ID=54181802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014033771A Withdrawn JP2015157339A (ja) 2014-02-25 2014-02-25 ロボット、ロボットシステム、制御装置、及び制御方法

Country Status (1)

Country Link
JP (1) JP2015157339A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020196081A (ja) * 2019-05-31 2020-12-10 株式会社デンソー ビジュアルサーボシステム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0227485A (ja) * 1988-07-16 1990-01-30 Mitsubishi Electric Corp 画像処理システム
JPH0631666A (ja) * 1992-07-15 1994-02-08 Fujitsu Ltd 知能ロボット
JP2001252883A (ja) * 2000-03-09 2001-09-18 Denso Corp 移動ロボットシステム
JP2004138462A (ja) * 2002-10-17 2004-05-13 Fanuc Ltd 3次元視覚センサ
JP2011000669A (ja) * 2009-06-18 2011-01-06 Yaskawa Electric Corp ロボットシステム及び物品並置方法
JP2011186928A (ja) * 2010-03-10 2011-09-22 Canon Inc 情報処理装置および情報処理装置の制御方法
JP2011257267A (ja) * 2010-06-09 2011-12-22 Kawada Industries Inc 撮像面位置検出装置およびそれを具える作業ロボット
JP2012168180A (ja) * 2011-02-16 2012-09-06 Steinbichler Optotechnik Gmbh 対象物の3次元座標を決定するための、および工業用ロボットを較正するための装置および方法
JP2012254518A (ja) * 2011-05-16 2012-12-27 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
JP2013130426A (ja) * 2011-12-20 2013-07-04 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2013184279A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0227485A (ja) * 1988-07-16 1990-01-30 Mitsubishi Electric Corp 画像処理システム
JPH0631666A (ja) * 1992-07-15 1994-02-08 Fujitsu Ltd 知能ロボット
JP2001252883A (ja) * 2000-03-09 2001-09-18 Denso Corp 移動ロボットシステム
JP2004138462A (ja) * 2002-10-17 2004-05-13 Fanuc Ltd 3次元視覚センサ
JP2011000669A (ja) * 2009-06-18 2011-01-06 Yaskawa Electric Corp ロボットシステム及び物品並置方法
JP2011186928A (ja) * 2010-03-10 2011-09-22 Canon Inc 情報処理装置および情報処理装置の制御方法
JP2011257267A (ja) * 2010-06-09 2011-12-22 Kawada Industries Inc 撮像面位置検出装置およびそれを具える作業ロボット
JP2012168180A (ja) * 2011-02-16 2012-09-06 Steinbichler Optotechnik Gmbh 対象物の3次元座標を決定するための、および工業用ロボットを較正するための装置および方法
JP2012254518A (ja) * 2011-05-16 2012-12-27 Seiko Epson Corp ロボット制御システム、ロボットシステム及びプログラム
JP2013130426A (ja) * 2011-12-20 2013-07-04 Canon Inc 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2013184279A (ja) * 2012-03-09 2013-09-19 Canon Inc 情報処理装置、情報処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020196081A (ja) * 2019-05-31 2020-12-10 株式会社デンソー ビジュアルサーボシステム

Similar Documents

Publication Publication Date Title
JP6966582B2 (ja) ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法
JP2012254518A (ja) ロボット制御システム、ロボットシステム及びプログラム
US9981380B2 (en) Teaching apparatus and robot system
JP6892286B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
US10306149B2 (en) Image processing apparatus, robot system, robot, and image processing method
JP2015071206A (ja) 制御装置、ロボット、教示データ生成方法及びプログラム
JP6885856B2 (ja) ロボットシステムおよびキャリブレーション方法
US10207409B2 (en) Image processing method, image processing device, and robot system
JP2016078195A (ja) ロボットシステム、ロボット、制御装置及びロボットの制御方法
JP2014188617A (ja) ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2015112654A (ja) 制御装置、ロボット、教示データ生成方法及びロボットシステム
CN114080590A (zh) 使用先进扫描技术的机器人料箱拾取系统和方法
JP6390088B2 (ja) ロボット制御システム、ロボット、プログラム及びロボット制御方法
JP6424432B2 (ja) 制御装置、ロボットシステム、ロボット及びロボット制御方法
JP6488571B2 (ja) 教示装置、及びロボットシステム
JP2015003348A (ja) ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法
JP2019077026A (ja) 制御装置、ロボットシステム、制御装置の動作方法及びプログラム
JP2015157339A (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2014144516A (ja) ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム
JPWO2016151667A1 (ja) ティーチング装置及び制御情報の生成方法
JP2015058488A (ja) ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2015145050A (ja) ロボットシステム、ロボット制御装置、ロボット制御方法およびロボット制御プログラム
CN113858214A (zh) 一种用于机器人作业的定位方法与控制系统
CN116472551A (zh) 调整参数的装置、机器人系统、方法以及计算机程序
JP6123364B2 (ja) ロボット制御システム、ロボット、プログラム及びロボット制御方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20171027