JP2012218120A - マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 - Google Patents
マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 Download PDFInfo
- Publication number
- JP2012218120A JP2012218120A JP2011087990A JP2011087990A JP2012218120A JP 2012218120 A JP2012218120 A JP 2012218120A JP 2011087990 A JP2011087990 A JP 2011087990A JP 2011087990 A JP2011087990 A JP 2011087990A JP 2012218120 A JP2012218120 A JP 2012218120A
- Authority
- JP
- Japan
- Prior art keywords
- manipulator
- image
- transition
- trajectory
- worker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】マニピュレーターの軌道を作業者に適切に提示する装置を提供する。
【解決手段】視点測定装置3によって得られた作業者の視点とマニピュレーター2の軌道とを用いて、予定推移の立体モデルからなる推移画像を作成し、作業者が装着した液晶表示装置4に表示する。液晶表示装置4は、マニピュレーター2と作業者の間に位置し、推移画像がマニピュレーター2に重ねて表示される。
【選択図】図1
【解決手段】視点測定装置3によって得られた作業者の視点とマニピュレーター2の軌道とを用いて、予定推移の立体モデルからなる推移画像を作成し、作業者が装着した液晶表示装置4に表示する。液晶表示装置4は、マニピュレーター2と作業者の間に位置し、推移画像がマニピュレーター2に重ねて表示される。
【選択図】図1
Description
本発明は、マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法に関する。
作業者がマニピュレーターと同じ空間で作業を行うための研究開発が行われている。こうした環境では、作業者がマニピュレーターの動作を適切に認識することが、マニピュレーターと作業者との衝突といった危険を回避するための重要な課題となっている。
マニピュレーターの動作を予告する手段としては、警告灯や音声等による動作の警告が用いられているが、実際のマニピュレーターの動作を分かりやすく適切に告知することは難しい。
ハンドと把持対象物の相対位置を告知する手段として、マニピュレーターの手先に小型のプロジェクターを取り付け、マニピュレーターが動作に先立って、プロジェクターを通して把持対象物に投影光を照射することで、把持対象物を作業者に直感的に提示する方法が提案されている(特許文献1参照。)。
作業者にマニピュレーターの動作を予告することで、作業者は安全にマニピュレーターとの協調作業を行うことができる。
作業者にマニピュレーターの動作を予告することで、作業者は安全にマニピュレーターとの協調作業を行うことができる。
しかしながら、特許文献1に記載のマニピュレーター動作予告装置では、マニピュレーターの軌道を提示するものではなかった。作業者は、指定された把持対象物とマニピュレーターの現在位置から、その後のマニピュレーターの軌道を推測しなくてはならない。マニピュレーターが把持対象物まで動作する際に、(例えば特異点や障害物を避けるために)必ずしも直線軌道をとるとは限らない。
そこで、マニピュレーターの軌道を作業者に適切に提示する装置が求められていた。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。
[適用例1]本適用例にかかるマニピュレーター動作予告装置は、可動部を有するマニピュレーターと、前記マニピュレーターの軌道を演算する軌道生成部と、作業者の視点を測定する視点測定部と、前記マニピュレーターの軌道の予定推移の立体モデルからなる推移画像を生成する画像生成部と、前記マニピュレーターと前記推移画像とを前記作業者に目視させる画像表示部と、を有し、前記画像表示部は前記作業者の目と前記マニピュレーターとの間に配置され、前記作業者が見ている前記マニピュレーターを前記予定推移の始点とする前記推移画像を表示することを特徴とする。
本適用例によれば、軌道生成部がマニピュレーターの予定推移を演算する。そして、画像生成部がマニピュレーターの軌道の予定推移の立体モデルからなる推移画像を生成する。さらに、視点測定部が作業者の視点を測定する。そして、作業者の目とマニピュレーターとの間に画像表示部が位置し、画像表示部は光透過性のスクリーンに推移画像を表示する。従って、作業者はマニピュレーターと推移画像とを両方見ることができる。そして、マニピュレーター動作予告装置は、作業者が見ているマニピュレーターを予定推移の始点とする推移画像を画像表示部に表示する。従って、マニピュレーター動作予告装置は、マニピュレーターの軌道予定推移を作業者に適切に提示することができる。
[適用例2]上記適用例に記載のマニピュレーター動作予告装置において、前記画像表示部は、前記作業者の顔面に装着され、前記視点測定部は前記画像表示部に設置されたことが好ましい。
本適用例によれば、画像表示部は作業者の顔面に装着されている。従って、画像表示部は作業者の視点と連動する。そして、視点測定部が画像表示部に設置されている為容易に作業者の視点位置を測定することができる。
[適用例3]本適用例にかかるロボットシステムは、上記に記載のマニピュレーター動作予告装置と、前記可動部を制御する制御部と、を備えたことを特徴とする。
本適用例によれば、ロボットシステムは可動部を制御する制御部を備えている。また、ロボットシステムは、作業者にマニピュレーターの移動予定位置の推移をわかりやすく提示するマニピュレーター動作予告装置を備えている。従って、ロボットシステムは可動部の軌道の予定推移を作業者に適切に提示することができる。
[適用例4]本適用例にかかるマニピュレーターの動作予告方法は、マニピュレーターの軌道を演算する軌道生成工程と、作業者の視点を測定する視点測定工程と、前記マニピュレーターの軌道の予定推移の立体モデルからなる推移画像を生成する画像生成工程と、前記推移画像を前記作業者に提示する画像表示工程と、を有し、前記画像表示工程では、前記作業者が見ている前記マニピュレーターを前記予定推移の始点とする前記推移画像を表示することを特徴とする
本適用例によれば、軌道生成工程においてマニピュレーターの軌道を演算する。視点測定工程では作業者の視点を測定する。画像生成工程ではマニピュレーターの軌道の予定推移の立体モデルからなる推移画像を生成している。画像表示工程では、作業者が見るマニピュレーターを予定推移の始点とするマニピュレーターの推移画像を表示している。これにより、マニピュレーターが見えている場所からの軌道予定推移を提示することができる。従って、作業者に対して、マニピュレーターの軌道を適切に提示することができる。
以下、本発明の実施形態について、図面を参照して説明する。尚、以下の各図においては、各部材を認識可能な程度の大きさにするため、各部材の尺度を実際とは異ならせしめている。
(実施形態)
図1(a)は、実施形態にかかるマニピュレーター動作予告装置の構成を示す概略斜視図である。図1(a)に示すように、マニピュレーター動作予告装置10は、軌道生成部及び画像生成部としてのワークステーション1、視点測定部としての視点測定装置3、画像表示部としての液晶表示装置4とを備える。マニピュレーター2は可動部2aと可動部2aを動かす駆動部2bとを備えている。駆動部2bは電動モーターやエンコーダー等により構成されている。
図1(a)は、実施形態にかかるマニピュレーター動作予告装置の構成を示す概略斜視図である。図1(a)に示すように、マニピュレーター動作予告装置10は、軌道生成部及び画像生成部としてのワークステーション1、視点測定部としての視点測定装置3、画像表示部としての液晶表示装置4とを備える。マニピュレーター2は可動部2aと可動部2aを動かす駆動部2bとを備えている。駆動部2bは電動モーターやエンコーダー等により構成されている。
ワークステーション1はマニピュレーター2の軌道を計算する軌道生成部及び、マニピュレーター2の立体モデルからなる推移画像を生成する画像生成部を備えている。液晶表示装置4は作業者5に装着され、マニピュレーター2の立体モデルからなる推移画像を作業者5に提示する。視点測定装置3は液晶表示装置4に設置され、作業者5の視点位置を測定する。マニピュレーター2は、ワークステーション1の制御に基づき、例えば、作業テーブル7上に置かれた対象物6を作業者5から受け取るといった協調動作を行う。
図1(b)は、作業者が装着する液晶表示装置の構成を示す模式正面図である。図1(b)に示すように、液晶表示装置4は作業者5の顔面に装着される。液晶表示装置4には一対の視点測定装置3が取り付けられており、視点測定装置3は作業者5の視点を測定する。視点測定装置3は撮像装置と演算装置とを備えている。そして、撮像装置が作業者5が見ている画像を演算装置に出力する。演算装置は撮影した画像から眼の位置を算出し作業者5の視点を測定する。そして、作業者5の視点をワークステーション1に送信する。液晶表示装置4は、ワークステーション1の画像生成部で生成されたマニピュレーター2の推移画像を作業者5に提示する。
視点測定装置3は、撮像装置に限定されない。撮像装置の他にも超音波、無線、ジャイロセンサー、地磁気センサー、加速度センサー等を使用して位置測定を行う。正確な位置測定を行うために、これらのセンサーを組み合わせても良い。
液晶表示装置4に取り付けられた視点測定装置3で視点の位置を正確に計測するために、液晶表示装置4はヘッドマウントディスプレイ(HMD)のような眼鏡型が好ましい。そして、液晶表示装置4は作業者5の目とマニピュレーター2との間に設置される。また、マニピュレーター2の推移画像と実際のマニピュレーター2を作業者5が同時に視認するために、液晶表示装置4の表示部分は光透過性のスクリーンとなっている。このスクリーンは半透明であることが好ましい。表示部が半透明でない場合は、液晶表示装置4にカメラを取り付け、作業者5の視点から見えるマニピュレーター2の撮影映像を取得し、マニピュレーター2の推移画像と重ねて表示しても良い。
いずれの方法においても、作業者5は、液晶表示装置4によりマニピュレーター2の推移画像と実際のマニピュレーター2とを同時に目視することができる。また、液晶表示装置4は作業者5の右目用のスクリーンと左目用のスクリーンを備えている。従って、作業者5は液晶表示装置4を見ることにより、立体像を視認することが可能になっている。
図2は、マニピュレーター動作予告装置の構成を示すブロック図である。図2に示すように、ワークステーション1はマニピュレーター2の軌道データを生成する軌道生成部210を有している。他にも、ワークステーション1はマニピュレーター2の軌道の予定推移の立体モデルからなる推移画像を生成する画像生成部220や、マニピュレーター2の行う一連の作業データを予め入力するための入力部230を有する。他にも、ワークステーション1はマニピュレーター2の軌道を決定する3次元幾何学モデルデータ及び、入力されたマニピュレーター2の行う一連の作業データ等を記憶する記憶部240を有する。さらに、ワークステーション1は、マニピュレーター2の軌道データを基に実際のマニピュレーター2を制御する制御部としてのマニピュレーター制御部250を備えている。
入力部230は、キーボード、マウス等から構成され、マニピュレーター2の一連の作業データを入力するのに使用される。
軌道生成部210は、入力部によってワークステーション1に入力された、マニピュレーター2の一連の作業データを基に、マニピュレーター2の軌道データを生成する。生成されたマニピュレーター2の軌道データは、記憶部に格納される。
画像生成部220は、記憶部240に格納されたマニピュレーター2の軌道データ及び、視点測定装置3によって測定した作業者5の視点の情報を用いて、マニピュレーター2の軌道の予定推移の立体モデルからなる推移画像を生成する。マニピュレーター2の軌道の予定推移の立体モデルからなる推移画像の生成は、生成したマニピュレーター2の軌道データを基に、実際のマニピュレーター2の動作より先行して動作する動作姿勢を表す立体モデルを描画することで行う。推移画像は、所定の時間間隔の間に移動する立体モデルの複数の画像を重ねた画像となっている。もしくは、推移画像は、所定の時間間隔の間に移動する立体モデルの動画でも良い。この際に、作業者5の視点を3D空間のカメラ視点とし、実際のマニピュレーター2の位置を始点とする推移姿勢をとった立体モデルを描画する。
マニピュレーター制御部250は、記憶部240に格納されているマニピュレーター2の軌道データを基に、実際のマニピュレーター2の制御を行う。視点測定装置3は画像生成部220と接続され、作業者5の視点を検出して画像生成部220に出力する。画像生成部220は液晶表示装置4と接続され、作業者5の視点の情報を用いてマニピュレーター2の推移画像を描画して液晶表示装置4に出力する。
図3(a)はマニピュレーターの推移画像の提示方法を説明するための模式図である。図3(b)は、マニピュレーターの推移画像を示す模式図である。図3(c)は、作業者の視野にあるマニピュレーターとマニピュレーターの推移画像を合成した模式図である。
図3(a)に示すように、作業者5は液晶表示装置4を装着し、マニピュレーター2を視野に捉えた状態でマニピュレーター2と協調作業を行う。図3(b)に示すように、推移画像310は、視点測定装置3が検出した作業者5の視点とマニピュレーター2の軌道データを基に生成した、マニピュレーター2の軌道の予定推移の立体モデルからなる画像である。推移画像310は作業者5の右目用の画像と左目用の画像が描画される。そして、作業者5は2つの画像を各眼で見ることにより推移画像310を立体にみることができる。分かりやすくするために推移画像310には1つの立体モデルの像が描画されているが、時間の経過に従って移動する複数の画像を描画しても良く、動画にしても良い。複数の画像を表示することにより、推移が分かり難くなるときには1つ画像のみを表示しても良い。
図3(c)に示すように、視認領域320には作業者5が視野に捉えている実際のマニピュレーター2と液晶表示装置4に表示されている推移画像310とが同時に見えている。推移画像310は、マニピュレーター2の設置位置を共有したマニピュレーター2の次の動作姿勢を描画した画像である。作業者5は、視認領域320を見ているため、マニピュレーター2が次にどのような姿勢をとるかを直感的に理解することができる。
図4は、マニピュレーター動作予告を行う工程の工程フロー図である。まず、マニピュレーター動作予告装置10及びマニピュレーター2の電源を入れシステムを起動する。次に、作業データ入力工程を行う。この工程ではマニピュレーター2の手先の座標や作業対象物の座標等の作業データを作業者5が入力部230を用いて入力する。(S10)実際にマニピュレーター2を動作させるためには、決められた座標間を繰り返し動作する方法と、片方の座標を固定しカメラの画像等から動的に座標を求める方法等がある。いずれの場合もマニピュレーター2の手先座標、もしくは各アクチュエーターの動作データ等のデータの入力が必要になる。
次に、軌道生成工程を行う。この工程では入力された各種データと記憶部240に格納されているマニピュレーター2の3次元幾何学モデルを示す座標データを用いて、軌道生成部210がマニピュレーター2の軌道を計算する。(S20)生成されたマニピュレーター2の軌道データは、記憶部240に格納される。マニピュレーター2の軌道データの生成方法は、従来から良く知られている公知のアルゴリズムを使用できるため、説明を省略する。
次に、視点測定工程を行う。この工程では視点測定装置3が作業者5の視点を測定する。(S30)そして、視点測定装置3は測定した視点の情報を無線または有線でワークステーション1の画像生成部220に出力する。
次に、画像形成工程を行う。この工程では記憶部240に格納されているマニピュレーター2の軌道データと視点測定装置3が測定した作業者5の視点のデータとを用いてマニピュレーター2の立体モデルが推移する推移画像を画像生成部220が生成する。(S40)立体モデルを描画する際には、実際のマニピュレーター2を動作させる軌道データより先の軌道データを用いる。生成したマニピュレーター2の推移画像は、液晶表示装置4に送られる。
次に、画像表示工程を行う。この工程では画像生成部220が作成したマニピュレーター2の推移画像を液晶表示装置4が表示する。(S50)このとき、推移画像は実際のマニピュレーター2の像と先行する動作をしたマニピュレーター2の姿勢の像を表示し、作業者5に視認される。つまり、作業者5が見るマニピュレーター2を予定推移の始点とする推移画像を表示する。
次に、マニピュレーター作動工程を行う。この工程ではマニピュレーター制御部250が実際にマニピュレーター2を動作させる。(S60)このとき、マニピュレーター2は画像表示工程で示した推移画像と同じ動作を行う。
次に、終了判定工程を行う。この工程ではステップS10の作業データ入力工程で入力した作業データに対応する動作をマニピュレーター2が完了しているかの判定を行う。(S70)終了していないので継続する場合はステップS30に戻りステップS30〜ステップS70を繰り返す。終了する場合は、作業を終了する。
上述したように、本実施形態によれば、以下の効果を有する。
(1)本実施形態によれば、マニピュレーター動作予告装置10は、作業者5が見るマニピュレーター2を予定推移の始点とする推移画像を液晶表示装置4に表示する。従って、マニピュレーター動作予告装置10は、マニピュレーター2の軌道予定推移を作業者5に適切に提示することができる。
(1)本実施形態によれば、マニピュレーター動作予告装置10は、作業者5が見るマニピュレーター2を予定推移の始点とする推移画像を液晶表示装置4に表示する。従って、マニピュレーター動作予告装置10は、マニピュレーター2の軌道予定推移を作業者5に適切に提示することができる。
(2)本実施形態によれば、液晶表示装置4は作業者5の顔面に装着されている。従って、液晶表示装置4は作業者5の視点と連動する。そして、視点測定装置3が液晶表示装置4に設置されている為容易に作業者5の視点を測定することができる。
(3)本実施形態によれば、ロボットシステムは可動部2aを制御するマニピュレーター制御部250を備えている。これにより、マニピュレーターは可動部2aに所定の動作をさせることができる。そして、ロボットシステムは、作業者5にマニピュレーター2の移動予定位置の推移をわかりやすく提示するマニピュレーター動作予告装置10を備えている。従って、ロボットシステムは可動部2aの軌道の予定推移を作業者5に適切に提示することができる。
尚、本発明本実施形態は上述した実施形態に限定されるものではなく、種々の変更や改良を加えることも可能である。変形例を以下に述べる。
(変形例1)
前記実施形態では、マニピュレーター2に垂直多関節ロボットを採用したが、マニピュレーター2の形態に限定されない。水平多関節ロボット、直交ロボット、パラレルリンクロボット等各種の形態のロボットを採用することができる。
(変形例1)
前記実施形態では、マニピュレーター2に垂直多関節ロボットを採用したが、マニピュレーター2の形態に限定されない。水平多関節ロボット、直交ロボット、パラレルリンクロボット等各種の形態のロボットを採用することができる。
1…軌道生成部および画像生成部としてのワークステーション、2…マニピュレーター、2a…可動部、3…視点測定部としての視点測定装置、4…画像表示部としての液晶表示装置、5…作業者、10…マニピュレーター動作予告装置、210…軌道生成部、220…画像生成部、250…制御部としてのマニピュレーター制御部。
Claims (4)
- 可動部を有するマニピュレーターと、
前記マニピュレーターの軌道を演算する軌道生成部と、
作業者の視点を測定する視点測定部と、
前記マニピュレーターの軌道の予定推移の立体モデルからなる推移画像を生成する画像生成部と、
前記マニピュレーターと前記推移画像とを前記作業者に目視させる画像表示部と、を有し、
前記画像表示部は前記作業者の目と前記マニピュレーターとの間に配置され、前記作業者が見ている前記マニピュレーターを前記予定推移の始点とする前記推移画像を表示することを特徴とするマニピュレーター動作予告装置。 - 請求項1に記載のマニピュレーター動作予告装置において、
前記画像表示部は、前記作業者の顔面に装着され、前記視点測定部は前記画像表示部に設置されたことを特徴とするマニピュレーター動作予告装置。 - 請求項1または2に記載のマニピュレーター動作予告装置と、
前記可動部を制御する制御部と、
を備えたことを特徴とするロボットシステム。 - マニピュレーターの軌道を演算する軌道生成工程と、
作業者の視点を測定する視点測定工程と、
前記マニピュレーターの軌道の予定推移の立体モデルからなる推移画像を生成する画像生成工程と、
前記推移画像を前記作業者に提示する画像表示工程と、を有し、
前記画像表示工程では、前記作業者が見ている前記マニピュレーターを前記予定推移の始点とする前記推移画像を表示することを特徴とするマニピュレーター動作予告方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011087990A JP2012218120A (ja) | 2011-04-12 | 2011-04-12 | マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011087990A JP2012218120A (ja) | 2011-04-12 | 2011-04-12 | マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012218120A true JP2012218120A (ja) | 2012-11-12 |
Family
ID=47270209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011087990A Withdrawn JP2012218120A (ja) | 2011-04-12 | 2011-04-12 | マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012218120A (ja) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012223831A (ja) * | 2011-04-15 | 2012-11-15 | Mitsubishi Electric Corp | 衝突回避装置 |
CN104865896A (zh) * | 2015-03-18 | 2015-08-26 | 贵州翰凯斯智能技术有限公司 | 一种工业机器人个性化作图方法 |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
JP2016120585A (ja) * | 2014-12-25 | 2016-07-07 | ファナック株式会社 | ロボット識別システム |
JP2017094450A (ja) * | 2015-11-25 | 2017-06-01 | 株式会社デンソーウェーブ | ロボット安全システム |
JP2017094466A (ja) * | 2015-11-26 | 2017-06-01 | 株式会社デンソーウェーブ | ロボットモニタシステム |
JP2017100234A (ja) * | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | ティーチング結果表示システム |
JP2017102242A (ja) * | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | 情報表示システム |
JP2017100205A (ja) * | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | バーチャルフェンス表示システム |
JP2017100204A (ja) * | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | ロボット操作システム |
CN106808496A (zh) * | 2015-11-25 | 2017-06-09 | 电装波动株式会社 | 机器人安全系统 |
JP2017523054A (ja) * | 2014-07-16 | 2017-08-17 | エックス デベロップメント エルエルシー | ロボット装置用仮想セーフティケージ |
CN107584206A (zh) * | 2016-07-08 | 2018-01-16 | 发那科株式会社 | 激光加工机器人系统 |
WO2018190345A1 (ja) * | 2017-04-11 | 2018-10-18 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
WO2019026790A1 (ja) * | 2017-08-02 | 2019-02-07 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
WO2019106862A1 (ja) * | 2017-11-28 | 2019-06-06 | シュナイダーエレクトリックホールディングス株式会社 | 操作案内システム |
US10427298B2 (en) | 2017-05-31 | 2019-10-01 | Fanuc Corporation | Robot system displaying information for teaching robot |
CN111093903A (zh) * | 2017-08-31 | 2020-05-01 | 川崎重工业株式会社 | 机器人系统及其运行方法 |
US10676022B2 (en) | 2017-12-27 | 2020-06-09 | X Development Llc | Visually indicating vehicle caution regions |
US10712566B2 (en) | 2015-11-26 | 2020-07-14 | Denso Wave Incorporated | Information displaying system provided with head-mounted type display |
JP2021058972A (ja) * | 2019-10-08 | 2021-04-15 | ファナック株式会社 | ロボットシステム |
-
2011
- 2011-04-12 JP JP2011087990A patent/JP2012218120A/ja not_active Withdrawn
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012223831A (ja) * | 2011-04-15 | 2012-11-15 | Mitsubishi Electric Corp | 衝突回避装置 |
JP2017523054A (ja) * | 2014-07-16 | 2017-08-17 | エックス デベロップメント エルエルシー | ロボット装置用仮想セーフティケージ |
JP2018086724A (ja) * | 2014-07-16 | 2018-06-07 | エックス デベロップメント エルエルシー | ロボット装置用仮想セーフティケージ |
US9821463B2 (en) | 2014-07-16 | 2017-11-21 | X Development Llc | Virtual safety cages for robotic devices |
JP2016107379A (ja) * | 2014-12-08 | 2016-06-20 | ファナック株式会社 | 拡張現実対応ディスプレイを備えたロボットシステム |
US10052765B2 (en) | 2014-12-08 | 2018-08-21 | Fanuc Corporation | Robot system having augmented reality-compatible display |
JP2016120585A (ja) * | 2014-12-25 | 2016-07-07 | ファナック株式会社 | ロボット識別システム |
US9905016B2 (en) | 2014-12-25 | 2018-02-27 | Fanuc Corporation | Robot identification system |
CN104865896A (zh) * | 2015-03-18 | 2015-08-26 | 贵州翰凯斯智能技术有限公司 | 一种工业机器人个性化作图方法 |
CN106808496A (zh) * | 2015-11-25 | 2017-06-09 | 电装波动株式会社 | 机器人安全系统 |
JP2017094450A (ja) * | 2015-11-25 | 2017-06-01 | 株式会社デンソーウェーブ | ロボット安全システム |
JP2017094466A (ja) * | 2015-11-26 | 2017-06-01 | 株式会社デンソーウェーブ | ロボットモニタシステム |
US10712566B2 (en) | 2015-11-26 | 2020-07-14 | Denso Wave Incorporated | Information displaying system provided with head-mounted type display |
JP2017100204A (ja) * | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | ロボット操作システム |
JP2017100205A (ja) * | 2015-11-30 | 2017-06-08 | 株式会社デンソーウェーブ | バーチャルフェンス表示システム |
JP2017102242A (ja) * | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | 情報表示システム |
JP2017100234A (ja) * | 2015-12-01 | 2017-06-08 | 株式会社デンソーウェーブ | ティーチング結果表示システム |
CN107584206B (zh) * | 2016-07-08 | 2019-04-26 | 发那科株式会社 | 激光加工机器人系统 |
CN107584206A (zh) * | 2016-07-08 | 2018-01-16 | 发那科株式会社 | 激光加工机器人系统 |
US10413994B2 (en) | 2016-07-08 | 2019-09-17 | Fanuc Corporation | Laser processing robot system for performing laser processing using robot |
JP2018176342A (ja) * | 2017-04-11 | 2018-11-15 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
WO2018190345A1 (ja) * | 2017-04-11 | 2018-10-18 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
US10427298B2 (en) | 2017-05-31 | 2019-10-01 | Fanuc Corporation | Robot system displaying information for teaching robot |
DE102018112403B4 (de) | 2017-05-31 | 2019-10-02 | Fanuc Corporation | Robotersystem, das informationen zur unterweisung eines roboters anzeigt |
JP7071070B2 (ja) | 2017-08-02 | 2022-05-18 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
JP2019025620A (ja) * | 2017-08-02 | 2019-02-21 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
CN111093911B (zh) * | 2017-08-02 | 2024-02-09 | 川崎重工业株式会社 | 机器人系统及其运行方法 |
CN111093911A (zh) * | 2017-08-02 | 2020-05-01 | 川崎重工业株式会社 | 机器人系统及其运行方法 |
US11865697B2 (en) | 2017-08-02 | 2024-01-09 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system and method for operating same |
WO2019026790A1 (ja) * | 2017-08-02 | 2019-02-07 | 川崎重工業株式会社 | ロボットシステム及びその運転方法 |
CN111093903A (zh) * | 2017-08-31 | 2020-05-01 | 川崎重工业株式会社 | 机器人系统及其运行方法 |
US11475606B2 (en) | 2017-11-28 | 2022-10-18 | Schneider Electric Japan Holdings Ltd. | Operation guiding system for operation of a movable device |
WO2019106862A1 (ja) * | 2017-11-28 | 2019-06-06 | シュナイダーエレクトリックホールディングス株式会社 | 操作案内システム |
JP2019101476A (ja) * | 2017-11-28 | 2019-06-24 | シュナイダーエレクトリックホールディングス株式会社 | 操作案内システム |
US10875448B2 (en) | 2017-12-27 | 2020-12-29 | X Development Llc | Visually indicating vehicle caution regions |
US10676022B2 (en) | 2017-12-27 | 2020-06-09 | X Development Llc | Visually indicating vehicle caution regions |
JP2021058972A (ja) * | 2019-10-08 | 2021-04-15 | ファナック株式会社 | ロボットシステム |
US11691287B2 (en) | 2019-10-08 | 2023-07-04 | Fanuc Corporation | Robot system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012218120A (ja) | マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法 | |
JP5824537B2 (ja) | 情報処理装置および情報処理方法 | |
EP3055744B1 (en) | A method and a device for verifying one or more safety volumes for a movable mechanical unit | |
JP4850984B2 (ja) | 動作空間提示装置、動作空間提示方法およびプログラム | |
CN104897091B (zh) | 关节臂坐标测量机 | |
JP5390813B2 (ja) | 空間情報表示装置及び支援装置 | |
JP5062774B2 (ja) | 作業訓練システム及び作業訓練方法並びに該作業訓練方法を記録した記録媒体 | |
JP6445092B2 (ja) | ロボットの教示のための情報を表示するロボットシステム | |
JP6723738B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014136275A (ja) | ロボット教示システム、ロボット教示プログラムの生成方法および教示ツール | |
JP2012521855A5 (ja) | ||
KR20180063515A (ko) | 로봇 교시장치 및 이의 교시방법 | |
JP6863927B2 (ja) | ロボットのシミュレーション装置 | |
JP6589604B2 (ja) | ティーチング結果表示システム | |
CN109116807B (zh) | 复合现实模拟装置以及计算机可读介质 | |
JP2019217571A (ja) | ロボット制御システム | |
JP2010264553A (ja) | 遠隔操作システム及び遠隔操作方法 | |
JP2010271928A (ja) | 作業アシストシステム及び作業アシスト方法並びに該作業アシスト方法を記録した記録媒体 | |
JP2016110177A (ja) | 3次元入力装置及び入力システム | |
JP5467683B2 (ja) | 立体映像表示装置の立体ノギス像形成装置およびプログラム | |
JP2021065971A (ja) | ロボット教示システム、画像生成方法、及びプログラム | |
US11926064B2 (en) | Remote control manipulator system and remote control assistance system | |
JP6029938B2 (ja) | キャリブレーション方法および三次元加工装置 | |
JP2020175453A (ja) | 遠隔操作装置 | |
JP2020129167A (ja) | 情報処理装置および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140701 |