JP2018158429A - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP2018158429A
JP2018158429A JP2017058199A JP2017058199A JP2018158429A JP 2018158429 A JP2018158429 A JP 2018158429A JP 2017058199 A JP2017058199 A JP 2017058199A JP 2017058199 A JP2017058199 A JP 2017058199A JP 2018158429 A JP2018158429 A JP 2018158429A
Authority
JP
Japan
Prior art keywords
robot
virtual
controller
posture
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017058199A
Other languages
English (en)
Other versions
JP6939003B2 (ja
Inventor
大介 由井
Daisuke Yui
大介 由井
博太 當眞
Hirota Toma
博太 當眞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2017058199A priority Critical patent/JP6939003B2/ja
Publication of JP2018158429A publication Critical patent/JP2018158429A/ja
Application granted granted Critical
Publication of JP6939003B2 publication Critical patent/JP6939003B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ユーザがロボットの姿勢を容易に把握することのできるロボットシステムを提供する。【解決手段】ロボットシステム10は、姿勢を変更可能な垂直多関節型のロボット20と、画像を表示する表示装置40と、ロボット20の姿勢を取得し、ロボット20の座標軸に対して固定された仮想の立体図形を、取得したロボット20の姿勢に対応する方向から見た状態で表示装置40に表示させるコントローラ30と、を備える。【選択図】 図1

Description

本発明は、ロボット、コントローラ、及び表示装置を備えるロボットシステムに関する。
従来、カメラの撮像データに基づいてワーク上の部材の位置を識別し、ユーザが表示装置に表示されたワークを見ながら、部材の位置に基づくロボットに対する教示点を微調整するものがある(特許文献1参照)
特許第5983763号公報
ところで、特許文献1に記載のものでは、教示点を微調整する前に、ワークに対してカメラ(ロボット)の姿勢を設定する方法を考慮していない。このため、ユーザがカメラとワークとの位置関係を目視で確認しながら、ワークに対するカメラの姿勢を設定していると考えられる。その際に、ユーザがカメラの姿勢を正確に把握することは容易ではなく、未だ改善の余地を残している。
本発明は、こうした課題を解決するためになされたものであり、その主たる目的は、ユーザがロボットの姿勢を容易に把握することのできるロボットシステムを提供することにある。
上記課題を解決するための第1の手段は、ロボットシステムであって、
姿勢を変更可能な垂直多関節型のロボットと、
画像を表示する表示装置と、
前記ロボットの姿勢を取得し、前記ロボットの座標軸に対して向きが固定された仮想の立体図形を、取得した前記ロボットの姿勢に対応する方向から見た状態で前記表示装置に表示させるコントローラと、
を備える。
上記構成によれば、垂直多関節型のロボットの姿勢が変更される。表示装置により画像が表示される。ここで、コントローラにより、ロボットの姿勢が取得される。そして、ロボットの座標軸に対して向きが固定された仮想の立体図形が、取得されたロボットの姿勢に対応する方向から見た状態で表示装置に表示される。このため、ユーザは、表示装置に表示された仮想の立体図形の状態を見ることにより、ロボットの姿勢を直感的に容易に把握することができる。
第2の手段では、前記表示装置は、タッチされた部分を検出可能なタッチパネルであり、前記仮想の立体図形は、仮想の多面体であり、前記コントローラは、前記タッチパネルに表示された前記仮想の多面体の所定面がタッチされたと判定した場合に、前記所定面を正視する方向に対応する姿勢に前記ロボットを制御する。
上記構成によれば、表示装置はタッチパネルであり、ユーザによりタッチされた部分を検出することができる。仮想の立体図形は、仮想の多面体であり、多角形により各面が構成されている。そして、コントローラにより、タッチパネルに表示された仮想の多面体の所定面がタッチされたと判定された場合に、所定面を正視する方向に対応する姿勢にロボットが制御される。このため、ユーザは、タッチパネルに表示された仮想の多面体の面を選択してタッチすることにより、ロボットの姿勢を容易に制御することができる。
第3の手段では、前記コントローラは、前記ロボットの手先と前記仮想の立体図形との距離にかかわらず、前記仮想の立体図形を一定の大きさで前記表示装置に表示させる。
上記構成によれば、ロボットの手先と仮想の立体図形との距離にかかわらず、仮想の立体図形が一定の大きさで表示装置に表示される。このため、ロボットの手先が仮想の立体図形の内部に位置する状態になった場合であっても、ロボットの姿勢を把握するための仮想の立体図形を表示装置に表示することができる。
第4の手段では、前記コントローラは、前記仮想の立体図形に対して前記ロボットの手先が平行移動しても、前記表示装置の一定の位置に前記仮想の立体図形を表示させる。
上記構成によれば、仮想の立体図形に対してロボットの手先が平行移動しても、表示装置の一定の位置に仮想の立体図形が表示される。このため、ロボットの手先の延長上から仮想の立体図形が大きく外れた状態になった場合であっても、ロボットの姿勢を把握するための仮想の立体図形を表示装置に表示することができる。
第5の手段では、前記仮想の立体図形は、仮想の直方体であり、前記仮想の直方体の各辺は、前記ロボットの座標軸に対して平行に固定されている。
上記構成によれば、仮想の立体図形は仮想の直方体であるため、仮想の立体図形が仮想の立方体である場合と比較して、立体図形を見た方向、ひいてはロボットの姿勢をユーザが把握し易い。さらに、仮想の直方体の各辺は、ロボットの座標軸に対して平行に固定されている。このため、ユーザは、ロボットの座標軸と、ロボットの姿勢との関係を容易に把握することができる。
第6の手段では、前記ロボットには、前記ロボットの手先に対して所定方向を撮影するカメラが取り付けられており、前記表示装置は、前記カメラにより撮影された物体の画像を表示し、前記コントローラは、前記表示装置に表示された前記物体の画像に重ねて、前記仮想の立体図形を前記表示装置に表示させる。
上記構成によれば、ロボットには、カメラが取り付けられており、カメラによりロボットの手先に対して所定方向が撮影される。カメラにより撮影された物体の画像が表示装置に表示される。そして、コントローラは、表示装置に表示された物体の画像に重ねて、仮想の立体図形を表示装置に表示させる。このため、ユーザは、カメラにより撮影された物体と、ロボットの姿勢との関係を把握することができる。
第7の手段では、前記コントローラは、取得した前記ロボットの姿勢と前記所定方向とに基づいて前記カメラの撮影方向を取得し、取得した前記撮影方向から前記カメラにより撮影された状態で前記仮想の立体図形を前記表示装置に表示させる。
上記構成によれば、コントローラは、取得したロボットの姿勢と、ロボットの手先に対してカメラが撮影する方向である所定方向とに基づいて、カメラの撮影方向を取得する。そして、コントローラは、取得した撮影方向からカメラにより撮影された状態で、仮想の立体図形を表示装置に表示させる。このため、ユーザは、表示装置に表示された仮想の立体図形の状態を見ることにより、カメラの姿勢を直感的に容易に把握することができる。
第8の手段では、前記コントローラは、取得した前記ロボットの姿勢に基づいて前記ロボットの手先の方向を取得し、取得した前記手先の方向から見た状態で前記仮想の立体図形を前記表示装置に表示させる。
上記構成によれば、コントローラは、取得したロボットの姿勢に基づいて、ロボットの手先の方向を取得する。そして、コントローラは、取得した手先の方向から見た状態で、仮想の立体図形を表示装置に表示させる。このため、ユーザは、表示装置に表示された仮想の立体図形の状態を見ることにより、ロボットの手先の姿勢を直感的に容易に把握することができる。
ロボットシステムの概要を示す斜視図。 ロボットの座標軸と仮想の直方体との関係を示す斜視図。 仮想の直方体を見る方向を示す模式図。 図3のA視の姿勢における仮想の直方体の画像を示す図。 図3のB視の姿勢における仮想の直方体の画像を示す図。 図3のC視の姿勢における仮想の直方体の画像を示す図。 カメラで撮影されたワーク及び仮想の直方体の画像を示す図。 仮想の直方体の各面とロボットの動作との関係を示す模式図。 ロボットの姿勢把握及び姿勢制御の手順を示すフローチャート。
以下、一実施形態について、図面を参照しつつ説明する。本実施形態は、機械組立工場等において、機械等の組み立てを行うロボットシステムとして具現化している。
図1は、ロボットシステム10の概要を示す斜視図である。同図に示すように、ロボットシステム10は、ロボット20、コントローラ30、タッチパネル40、及びカメラ50を備えている。
ロボット20は、垂直多関節型の6軸ロボットであり、基台22及び複数のリンクを備えている。複数のリンクのうち先端のリンクは、ハンド部21となっている。隣り合うリンクは、それぞれ関節により回転可能に連結されている。なお、ロボット20として、垂直多関節型の6軸ロボットに限らず、垂直多関節型の5軸ロボットや7軸ロボット等、他の垂直多関節型のロボットを採用することもできる。
各関節には、それぞれサーボモータ(図示略)が設けられており、これらのサーボモータの回転により各リンクが駆動される。各サーボモータには、その出力軸を制動する電磁ブレーキと、出力軸の回転角度に応じたパルス信号を出力するエンコーダとがそれぞれ設けられている。ロボット20は、各リンクを動作させることにより、ワークWに対する部品の組付けやワークWの搬送等の作業を行う。
ロボット20には、ハンド部21の先端(手先に相当)に対して所定方向を撮影するカメラ50が取り付けられている。カメラ50は、例えばCCDセンサやCMOSセンサ等を用いたデジタルカメラである。カメラ50は、コントローラ30に接続されており、撮影により取得したデータ(以下、「撮影データ」という)をコントローラ30へ出力する。上記所定方向は、ロボット20に対するカメラ50の取り付け角度により決まる方向である。所定方向は、ハンド部21の軸線方向H(手先の方向に相当)と、カメラ50の撮影方向Cとの相違に相当する方向である。本実施形態では、ハンド部21の軸線方向Hとカメラ50の撮影方向Cとは平行になっており、所定方向はハンド部21の軸線方向Hに対して同一方向になっている。
タッチパネル40(表示装置に相当)は、画像表示素子や圧力検出素子等を備えており、画像を表示するとともにタッチされた部分を検出する。タッチパネル40は、コントローラ30に接続されており、コントローラ30から入力されるデータに基づいて画像を表示する。また、タッチパネル40は、タッチされた部分の検出結果をコントローラ30へ出力する。
コントローラ30は、CPU、ROM、RAM、駆動回路、位置検出回路、入出力インターフェース等を備えている。ROMは、ロボット20のシステムプログラムや動作プログラム等を記憶している。RAMは、これらのプログラムを実行する際にパラメータの値等を記憶する。位置検出回路には、各エンコーダの検出信号がそれぞれ入力される。位置検出回路は、各エンコーダの検出信号に基づいて、各関節に設けられたサーボモータの回転角度を検出する。CPUは、検出された各サーボモータの回転角度に基づいて、ロボット20の位置及び姿勢を検出する。CPUは、動作プログラム(プログラム)を実行することにより、位置検出回路から入力される位置情報に基づいて、各関節の回転角度を目標回転角度に制御する。
本実施形態では、コントローラ30は、カメラ50から入力された撮影データをタッチパネル40へ出力して、カメラ50により撮影された物体の画像をタッチパネル40に表示させる。例えば、カメラ50によりワークWが撮影されている場合、タッチパネル40にはワークWの画像Wpが表示される。
また、コントローラ30は、仮想の直方体(仮想の多面体、仮想の立体図形に相当)をタッチパネル40に表示させる。図2に示すように、仮想の直方体Iは、所定形状の直方体であり、ロボット20の座標軸X,Y,Zに対して所定座標に固定されている。詳しくは、仮想の直方体Iの各辺は、ロボット20の座標軸X,Y,Zに対して平行に固定されている。仮想の直方体Iにおいて、Z軸方向の長さはY軸方向の長さよりも長く、X軸方向の長さはZ軸方向の長さよりも長くなっている。
コントローラ30は、検出された各関節のサーボモータの回転角度に基づいて、ロボット20の手先の方向H(ロボット20の姿勢に相当)を取得する。そして、コントローラ30は、取得した手先の方向Hと上記所定方向とに基づいてカメラ50の撮影方向Cを取得する。コントローラ30は、取得した撮影方向Cからカメラ50により撮影された状態(見た状態)で、仮想の直方体Iをタッチパネル40に表示させる。
図3は、仮想の直方体Iを見る方向を示す模式図である。例えば、カメラ50の撮影方向CがA〜C視の方向である場合、すなわちロボット20の姿勢がカメラ50をそれぞれA〜C視にする姿勢である場合は、それぞれ図4〜6に示すように仮想の直方体Iをタッチパネル40表示させる。要するに、コントローラ30は、ロボット20の座標軸X,Y,Zに対して向きが固定された仮想の直方体Iを、取得したロボット20の姿勢に対応する方向から見た状態でタッチパネル40に表示させる。
ここで、ロボット20の手先と仮想の直方体Iとの距離に応じて、仮想の直方体Iをタッチパネル40に表示させる大きさを変更すると以下の問題が生じるおそれがある。すなわち、ロボット20の手先が仮想の直方体Iの内部に位置する状態になった場合、ロボット20の手先と仮想の直方体Iとの距離に応じた大きさで仮想の直方体Iを表示することができなくなる。そこで、コントローラ30は、ロボット20の手先と仮想の直方体Iとの距離にかかわらず、仮想の直方体Iを一定の大きさ(例えばタッチパネル40の表示範囲に対して所定割合)でタッチパネル40に表示させる。
また、仮想の直方体Iに対してロボット20の手先が平行移動した場合に、タッチパネル40の表示範囲内において仮想の直方体Iの画像を平行移動させると、以下の問題が生じるおそれがある。すなわち、ロボット20の手先の延長上から仮想の直方体Iが大きく外れた状態になった場合、タッチパネル40の表示範囲内に仮想の直方体Iを表示することができなくなるおそれがある。そこで、コントローラ30は、仮想の直方体Iに対してロボット20の手先が平行移動しても、タッチパネル40の表示範囲における一定の位置(例えば中央)に仮想の直方体Iを表示させる。すなわち、仮想の直方体Iは、ロボット20の座標軸X,Y,Zに対して、向きのみが固定されており、位置は固定されていない。
図7に示すように、コントローラ30は、タッチパネル40に表示された物体の画像(詳しくはワークWの画像Wp)に重ねて、仮想の直方体Iをタッチパネル40に表示させる。ただし、ワークWの画像Wpと仮想の直方体Iとが互いに干渉することはなく、ワークWの画像Wpと仮想の直方体Iとが衝突することは考慮しなくてよい。
さらに、コントローラ30は、タッチパネル40に表示された仮想の直方体Iの所定面がタッチされたと判定した場合に、所定面を正視する方向に対応する姿勢にロボット20を制御する。図8は、仮想の直方体Iの各面とロボット20の動作との関係を示す模式図である。
具体的には、コントローラ30は、仮想の直方体Iの上面S1,側面S2がタッチされたとタッチパネル40により検出された場合に、それぞれ上面S1,側面S2をカメラ50が正視する姿勢にロボット20を制御する。また、コントローラ30は、タッチパネル40が複数回(例えば2回)タッチされたことや、長く(例えば所定時間を超えて継続して)タッチされたことが検出された場合に、仮想の直方体Iの奥側の面がタッチされたと判定する。例えば、コントローラ30は、側面S3の位置が2回タッチされたとタッチパネル40により検出された場合に、側面S3をカメラ50が正視する姿勢にロボット20を制御する。
図9は、ロボット20の姿勢把握及び姿勢制御の手順を示すフローチャートである。この一連の処理は、コントローラ30により所定の周期で繰り返し実行される。
まず、カメラ50により撮影された物体の画像をタッチパネル40に表示させる(S11)。具体的には、カメラ50の撮影データをカメラ50から入力し、撮影データをタッチパネル40へ出力して表示させる。なお、カメラ50により撮影された物体の画像と、仮想の直方体Iの画像(後述のS14)とを、同時に(合成して)タッチパネル40に表示させてもよい。
続いて、検出された各関節のサーボモータの回転角度に基づいて、ロボット20の手先の方向Hを取得する(S12)。取得した手先の方向Hと上記所定方向とに基づいて、カメラ50の撮影方向Cを取得する(S13)。本実施形態では、ロボット20の手先の方向Hとカメラ50の撮影方向Cとは平行であり、所定方向はロボット20の手先の方向Hに対して同一方向である。
続いて、カメラ50により撮影方向Cから撮影した仮想の直方体Iの状態を算出する(S14)。具体的には、ロボット20の座標軸X,Y,Zに向きが固定された仮想の直方体Iの座標データとカメラ50の撮影方向Cとに基づいて、カメラ50により撮影方向Cから撮影されたと仮定した場合の仮想の直方体Iの画像を作成する。作成した仮想の直方体Iの画像を、カメラ50により撮影された物体の画像に重ねてタッチパネル40に表示させる(S15)。
続いて、ユーザによりタッチされた仮想の直方体Iの面を判定する(S16)。詳しくは、タッチパネル40により検出されたタッチ位置とタッチ態様(回数等)とに基づいて、仮想の直方体Iにおいてユーザによりタッチされた所定面を判定する。そして、仮想の直方体Iの所定面がタッチされたと判定した場合に、所定面をカメラ50が正視する姿勢にロボット20を制御する(S17)。具体的には、所定面をカメラ50が正視するように、ロボット20の各関節の回転角度を制御する。なお、所定面をカメラ50が正視する姿勢にロボット20を制御する際に、ワークW又は仮想の直方体Iと、カメラ50との距離が一定距離(所定距離)となるように、ロボット20を制御してもよい。その後、この一連の処理を一旦終了する(END)。
以上詳述した本実施形態は、以下の利点を有する。
・コントローラ30により、ロボット20の姿勢が取得される。そして、ロボット20の座標軸X,Y,Zに対して向きが固定された仮想の直方体Iが、取得されたロボット20の姿勢に対応する方向から見た状態でタッチパネル40に表示される。このため、ユーザは、タッチパネル40に表示された仮想の直方体Iの状態を見ることにより、ロボット20の姿勢を直感的に容易に把握することができる。
・コントローラ30により、タッチパネル40に表示された仮想の直方体Iの所定面がタッチされたと判定された場合に、所定面を正視する方向に対応する姿勢にロボット20が制御される。このため、ユーザは、タッチパネル40に表示された仮想の直方体Iの面を選択してタッチすることにより、ロボット20の姿勢を容易に制御することができる。
・ロボット20の手先と仮想の直方体Iとの距離にかかわらず、仮想の直方体Iが一定の大きさでタッチパネル40に表示される。このため、ロボット20の手先が仮想の直方体Iの内部に位置する状態になった場合であっても、ロボット20の姿勢を把握するための仮想の直方体Iをタッチパネル40に表示することができる。
・仮想の直方体Iに対してロボット20の手先が平行移動しても、タッチパネル40の中央(一定の位置)に仮想の直方体Iが表示される。このため、ロボット20の手先の延長上から仮想の直方体Iが大きく外れた状態になった場合であっても、ロボット20の姿勢を把握するための仮想の直方体Iをタッチパネル40に表示することができる。
・仮想の立体図形として直方体Iを採用しているため、仮想の立体図形が仮想の立方体である場合と比較して、直方体Iを見た方向、ひいてはロボット20の姿勢をユーザが把握し易い。さらに、仮想の直方体Iの各辺は、ロボット20の座標軸X,Y,Zに対して平行に固定されている。このため、ユーザは、ロボット20の座標軸X,Y,Zと、ロボット20の姿勢との関係を容易に把握することができる。
・コントローラ30は、タッチパネル40に表示された物体の画像に重ねて、仮想の直方体Iをタッチパネル40に表示させる。このため、ユーザは、カメラ50により撮影された物体と、ロボット20の姿勢との関係を把握することができる。
・コントローラ30は、取得したロボット20の姿勢と、ロボット20の手先に対してカメラ50が撮影する方向である所定方向とに基づいて、カメラ50の撮影方向Cを取得する。そして、コントローラ30は、取得した撮影方向Cからカメラ50により撮影された状態で、仮想の直方体Iをタッチパネル40に表示させる。このため、ユーザは、タッチパネル40に表示された仮想の直方体Iの状態を見ることにより、カメラ50の姿勢を直感的に容易に把握することができる。
なお、上記実施形態を、以下のように変更して実施することもできる。
・カメラ50をタッチパネル40に直接接続して撮影データをタッチパネル40へ出力し、撮影された物体の画像をタッチパネル40に表示させてもよい。
・仮想の立体図形は、直方体Iに限らず、八面体や十二面体等を採用することもできる。その場合、各面をユーザが識別し易くするために、X軸に垂直な面(正面)を赤色にしたり、各面の色を異ならせたりしてタッチパネル40に表示させてもよい。また、仮想の立体図形の各辺が、ロボット20の座標軸X,Y,Zに対して非平行に固定されている構成を採用することもできる。
・ロボット20の手先と仮想の直方体Iとの距離に応じて、仮想の直方体Iをタッチパネル40に表示する大きさを可変とすることもできる。その場合は、検出された各関節のサーボモータの回転角度に基づいて、ロボット20の手先の方向Hと併せて手先の位置を取得する。こうした構成においては、ロボット20の手先と仮想の直方体Iとの距離が所定距離よりも短くなった場合に、仮想の直方体Iを一定の大きさでタッチパネル40に表示させるとよい。
・仮想の直方体Iをタッチパネル40に表示する一定の位置は、タッチパネル40の中央に限らず、タッチパネル40の左下隅等、任意に設定することができる。また、タッチパネル40の表示範囲内において、仮想の直方体Iを表示させる位置を可変とすることもできる。
・ハンド部21の軸線方向H(手先の方向H)とカメラ50の撮影方向Cとが平行ではなく、ハンド部21の軸線方向Hに対して斜め方向(所定方向に相当)を撮影するように、ロボット20にカメラ50を取り付けることもできる。この場合も、コントローラ30は、撮影方向Cからカメラ50により撮影された状態で、仮想の直方体Iをタッチパネル40に表示させることができる。また、コントローラ30は、取得したロボット20の姿勢に基づいてロボット20の手先の方向Hを取得し、取得した手先の方向Hから見た状態で仮想の直方体I(立体図形)をタッチパネル40に表示させることもできる。こうした構成によれば、ユーザは、タッチパネル40に表示された仮想の直方体Iの状態を見ることにより、ロボット20の手先の姿勢を直感的に容易に把握することができる。
また、カメラ50に代えて、ワークWに対する作業を行うツール等をロボット20に取り付けることもできる。その場合に、ツールの方向(手先の方向Hに対して所定方向)から見た状態で仮想の直方体Iをタッチパネル40に表示させることで、ユーザはツールの姿勢を直感的に容易に把握することができる。また、手先の方向Hから見た状態で仮想の直方体Iをタッチパネル40に表示させることで、ユーザはロボット20の手先の姿勢を直感的に容易に把握することができる。なお、カメラ50と共に、こうしたツールをロボット20に取り付けてもよい。
・3DのCGを描画するコンピュータ(コントローラに相当)等により、ロボット20を制御するコントローラ30からロボット20の姿勢を取得し、取得した姿勢に対応する方向から見た状態で仮想の直方体Iをタッチパネル40に表示させることもできる。
・コントローラ30は、タッチパネル40に表示された仮想の直方体Iの所定面がタッチされたと判定した場合に、所定面を正視する方向に対応する姿勢にロボット20を制御することを省略することもできる。その場合であっても、ユーザは、タッチパネル40に表示された仮想の直方体Iの状態を見ることにより、ロボット20の姿勢を直感的に容易に把握することはできる。また、仮想の立体図形の各面をタッチする必要がないことから、タッチパネル40に代えて、画像の表示のみを行うディスプレイを採用してもよい。併せて、紡錘形や角が丸い立体図形のように各面が明確でない立体図形等、多面体以外の立体図形を採用してもよい。
10…ロボットシステム、20…ロボット、21…ハンド部、30…コントローラ、40…タッチパネル(表示装置)、50…カメラ。

Claims (8)

  1. 姿勢を変更可能な垂直多関節型のロボットと、
    画像を表示する表示装置と、
    前記ロボットの姿勢を取得し、前記ロボットの座標軸に対して向きが固定された仮想の立体図形を、取得した前記ロボットの姿勢に対応する方向から見た状態で前記表示装置に表示させるコントローラと、
    を備えるロボットシステム。
  2. 前記表示装置は、タッチされた部分を検出可能なタッチパネルであり、
    前記仮想の立体図形は、仮想の多面体であり、
    前記コントローラは、前記タッチパネルに表示された前記仮想の多面体の所定面がタッチされたと判定した場合に、前記所定面を正視する方向に対応する姿勢に前記ロボットを制御する請求項1に記載のロボットシステム。
  3. 前記コントローラは、前記ロボットの手先と前記仮想の立体図形との距離にかかわらず、前記仮想の立体図形を一定の大きさで前記表示装置に表示させる請求項1又は2に記載のロボットシステム。
  4. 前記コントローラは、前記仮想の立体図形に対して前記ロボットの手先が平行移動しても、前記表示装置の一定の位置に前記仮想の立体図形を表示させる請求項1〜3のいずれか1項に記載のロボットシステム。
  5. 前記仮想の立体図形は、仮想の直方体であり、
    前記仮想の直方体の各辺は、前記ロボットの座標軸に対して平行に固定されている請求項1〜4のいずれか1項に記載のロボットシステム。
  6. 前記ロボットには、前記ロボットの手先に対して所定方向を撮影するカメラが取り付けられており、
    前記表示装置は、前記カメラにより撮影された物体の画像を表示し、
    前記コントローラは、前記表示装置に表示された前記物体の画像に重ねて、前記仮想の立体図形を前記表示装置に表示させる請求項1〜5のいずれか1項に記載のロボットシステム。
  7. 前記コントローラは、取得した前記ロボットの姿勢と前記所定方向とに基づいて前記カメラの撮影方向を取得し、取得した前記撮影方向から前記カメラにより撮影された状態で前記仮想の立体図形を前記表示装置に表示させる請求項6に記載のロボットシステム。
  8. 前記コントローラは、取得した前記ロボットの姿勢に基づいて前記ロボットの手先の方向を取得し、取得した前記手先の方向から見た状態で前記仮想の立体図形を前記表示装置に表示させる請求項1〜6のいずれか1項に記載のロボットシステム。
JP2017058199A 2017-03-23 2017-03-23 ロボットシステム Active JP6939003B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017058199A JP6939003B2 (ja) 2017-03-23 2017-03-23 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017058199A JP6939003B2 (ja) 2017-03-23 2017-03-23 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2018158429A true JP2018158429A (ja) 2018-10-11
JP6939003B2 JP6939003B2 (ja) 2021-09-22

Family

ID=63794806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017058199A Active JP6939003B2 (ja) 2017-03-23 2017-03-23 ロボットシステム

Country Status (1)

Country Link
JP (1) JP6939003B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111941392A (zh) * 2019-05-14 2020-11-17 发那科株式会社 机器人操作装置、机器人及机器人操作方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100821A (ja) * 1999-09-30 2001-04-13 Japan Science & Technology Corp マニピュレータ制御方法および装置
JP2003311661A (ja) * 2002-04-24 2003-11-05 Hitachi Ltd 遠隔操作制御装置
JP2015112688A (ja) * 2013-12-12 2015-06-22 株式会社Ihi ロボットの遠隔操作システムと方法
US20150331415A1 (en) * 2014-05-16 2015-11-19 Microsoft Corporation Robotic task demonstration interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001100821A (ja) * 1999-09-30 2001-04-13 Japan Science & Technology Corp マニピュレータ制御方法および装置
JP2003311661A (ja) * 2002-04-24 2003-11-05 Hitachi Ltd 遠隔操作制御装置
JP2015112688A (ja) * 2013-12-12 2015-06-22 株式会社Ihi ロボットの遠隔操作システムと方法
US20150331415A1 (en) * 2014-05-16 2015-11-19 Microsoft Corporation Robotic task demonstration interface

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111941392A (zh) * 2019-05-14 2020-11-17 发那科株式会社 机器人操作装置、机器人及机器人操作方法
JP2020185639A (ja) * 2019-05-14 2020-11-19 ファナック株式会社 ロボット操作装置、ロボットおよびロボット操作方法
US11618166B2 (en) 2019-05-14 2023-04-04 Fanuc Corporation Robot operating device, robot, and robot operating method
JP7306871B2 (ja) 2019-05-14 2023-07-11 ファナック株式会社 ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置

Also Published As

Publication number Publication date
JP6939003B2 (ja) 2021-09-22

Similar Documents

Publication Publication Date Title
US11197730B2 (en) Manipulator system
CN111482959B (zh) 机器人运动视觉系统的自动手眼标定系统与方法
CN105666505B (zh) 具备扩展现实对应显示器的机器人系统
US10786906B2 (en) Robot system
WO2020090809A1 (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
JP2011189431A (ja) ロボットシステム
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP7396872B2 (ja) 拡張現実を用いたシミュレーション装置及びロボットシステム
US20190160671A1 (en) Robot control device for setting jog coordinate system
US11446822B2 (en) Simulation device that simulates operation of robot
JP6171457B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP2014065100A (ja) ロボットシステム、及びロボットのティーチング方法
JP2018051634A (ja) ロボット制御装置、ロボット、ロボットシステムおよび姿勢特定装置
JP2008009899A (ja) 組立作業用ロボットの自動教示システム及び教示方法
Arango et al. Master-slave system using Kinect and an industrial robot for teleoperations
WO2020179416A1 (ja) ロボット制御装置、ロボット制御方法、及びロボット制御プログラム
JP2018158429A (ja) ロボットシステム
JP6409605B2 (ja) ロボットシステム
EP3946825A1 (en) Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
WO2022176928A1 (ja) 教示装置
JP2011083883A (ja) ロボット装置
TW202218836A (zh) 機器人控制裝置及機器人系統
JPH1177568A (ja) 教示支援方法及び装置
JP2012022600A (ja) マスク画像作成システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210816

R150 Certificate of patent or registration of utility model

Ref document number: 6939003

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150