JP2017104944A - 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム - Google Patents

仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム Download PDF

Info

Publication number
JP2017104944A
JP2017104944A JP2015241007A JP2015241007A JP2017104944A JP 2017104944 A JP2017104944 A JP 2017104944A JP 2015241007 A JP2015241007 A JP 2015241007A JP 2015241007 A JP2015241007 A JP 2015241007A JP 2017104944 A JP2017104944 A JP 2017104944A
Authority
JP
Japan
Prior art keywords
robot
image
camera
augmented reality
end effector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015241007A
Other languages
English (en)
Other versions
JP6420229B2 (ja
Inventor
敏晃 加茂井
Toshiaki Kamoi
敏晃 加茂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2015241007A priority Critical patent/JP6420229B2/ja
Priority to CN201611094231.9A priority patent/CN106863295B/zh
Priority to US15/371,760 priority patent/US10543599B2/en
Priority to DE102016123945.3A priority patent/DE102016123945B4/de
Publication of JP2017104944A publication Critical patent/JP2017104944A/ja
Application granted granted Critical
Publication of JP6420229B2 publication Critical patent/JP6420229B2/ja
Priority to US16/681,049 priority patent/US11345042B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)
  • Numerical Control (AREA)

Abstract

【課題】エンドエフェクタやロボット周辺装置が無くても、それらが在るものと見なしてロボット教示作業を実施できるロボットシステムを提供する。
【解決手段】このロボットシステム10は、ロボット11を制御する制御装置12と、制御装置12に接続された映像表示装置13とを備える。映像表示装置13は、カメラ18により撮影されたロボット11を含む実空間の画像をリアルタイムに表示する表示部19と、ロボット11のエンドエフェクタもしくはロボット周辺装置の仮想画像を、カメラ18により撮影されたロボット11の実画像に重畳して表示部19に表示させる拡張現実画像処理部24と、を具備する。
【選択図】図1

Description

本発明は、拡張現実感処理の技術を利用して、仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステムに関する。
製造現場における産業用ロボットシステムにおいては、ロボットハンドや加工ツールなどのエンドエフェクタがロボットのアーム部の先端に装着されている。さらに、ベルトコンベアやレール式搬送台車などのロボット周辺装置がロボットの周辺に配置されている。
しかしながら、作業動作をロボットに教示する段階においては、未だ、前述のようなエンドエフェクタやロボット周辺装置を用意できない場合がある。この場合、エンドエフェクタやロボット周辺装置が用意されるまで、作業者は適切なロボット教示作業を実施できない。このため、エンドエフェクタやロボット周辺装置が用意されていない場合でも、それらが在るものと見なしてロボット教示作業を実施できることが望まれている。
上記の課題を解決する可能性のある技術として、仮想画像をリアルタイムの映像に重畳表示するという拡張現実感処理の技術が考えられる。また、近年、そのような拡張現実感処理の技術を利用して、ロボット教示作業時の操作性を高める装置が公開されている。
例えば、特許文献1は、動作計画に従って動作するロボットの動作空間を拡張現実感処理によって実ロボットの画像上に重畳して表示する技術を開示している。さらに、特許文献2は、動作プログラムに基づくロボットの動作軌跡を拡張現実感処理によって実ロボットの画像上に重畳して表示する技術を開示している。
特許第4850984号公報 特開2014−180707号公報
しかしながら、特許文献1及び特許文献2には、拡張現実感処理の技術を用いて、前述したようなエンドエフェクタやロボット周辺装置の映像を実ロボットの画像上に重畳して表示する技術は提案されていない。
そこで本発明は、上述の実情に鑑み、エンドエフェクタやロボット周辺装置が無くても、それらが在るものと見なしてロボット教示作業を実施できるロボットシステムを提供することを目的とする。
本発明の第一態様によれば、ロボットを制御する制御装置と、制御装置に接続された映像表示装置と、を備えるロボットシステムであって、映像表示装置は、カメラにより撮影されたロボットを含む実空間の画像をリアルタイムに表示する表示部と、ロボットのエンドエフェクタもしくはロボット周辺装置の仮想画像を、カメラにより撮影されたロボットの実画像に重畳して表示部に表示させる拡張現実画像処理部と、を具備する、ロボットシステムが提供される。
本発明の第二態様によれば、上記第一態様のロボットシステムであって、映像表示装置は、ロボットとカメラとの相対的な位置及び角度に基づいて、カメラにより撮影されたロボットの実画像に重畳すべきエンドエフェクタもしくはロボット周辺装置の仮想画像を生成する仮想物体画像生成部を具備する、ロボットシステムが提供される。
本発明の第三態様によれば、上記第一態様または第二態様のロボットシステムであって、拡張現実画像処理部は、制御装置により制御されているロボットの位置姿勢データ、もしくは制御装置からの疑似信号に基づいて、エンドエフェクタもしくはロボット周辺装置の仮想画像を動かしつつ表示部に表示させるようにした、ロボットシステムが提供される。
本発明の第四態様によれば、上記第一態様から第三態様のいずれかのロボットシステムであって、制御装置は、ロボットの教示操作を行う教示操作盤を備える、ロボットシステムが提供される。
本発明の第五態様によれば、上記第一態様から第四態様のいずれかのロボットシステムであって、映像表示装置は、カメラを備えたヘッドマウントディスプレイである、ロボットシステムが提供される。
本発明の第一態様、第二態様、第三態様及び第四態様によれば、エンドエフェクタやロボット周辺装置がロボットに対して用意されていない場合であっても、映像表示装置により、エンドエフェクタやロボット周辺装置が在るものと見なしてロボット教示作業を実施することができる。
本発明の第五態様によれば、作業者は表示部に表示されるカメラの映像を視認しながら教示操作盤を操作することができる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
本発明の一実施形態のロボットシステムを示すブロック図である。 仮想物体の画像を実ロボットの画像に重畳して表示する際の処理フローを示すフローチャートである。 第一実施例の処理の様子を模式的に示した図である。 ロボットを動作させたときに拡張現実対応ディスプレイの表示部に表示される画像の様子を模式的に示した図である。 第二実施例の処理の様子を模式的に示した図である。
次に、本発明の実施形態について図面を参照して説明する。以下の図面において、同じ部材には同じ参照符号が付けられている。そして、異なる図面において同じ参照符号が付されたものは同じ機能を有する構成要素であることを意味するものとする。また、理解を容易にするために、これらの図面は縮尺を適宜変更している。
図1は、本発明の一実施形態のロボットシステムを示すブロック図である。図1に示されるように、本実施形態のロボットシステム10は、ロボット11と、ロボット11を制御するロボット制御装置12と、ロボット制御装置12に接続された映像表示装置としての拡張現実対応ディスプレイ13と、ロボット制御装置12に接続されていてロボット11の教示操作を行う教示操作盤14と、を具備する。
ロボット11は、例えば多関節垂直型マニュピレータである。ロボット11の各関節軸にはサーボモータ(図示せず)が設けられている。さらに、ロボット11には、各サーボモータの軸位置(回転角度)を検出する位置検出センサ15、例えばパルスエンコーダが設けられている。
ロボット11のアーム部の先端には、ロボットハンドや加工ツールなどの着脱自在なエンドエフェクタを取付ける取付部(図示せず)が設けられている。
ロボット制御装置12は、動作プログラムに基づいて制御信号を生成しロボット11を駆動する機能を有する。また、ロボット制御装置12は、制御信号をロボット11に出力すると共に、拡張現実対応ディスプレイ13及び教示操作盤14からの信号を受信する。
さらに、ロボット制御装置12は、ロボット11の動作プログラムを保持するプログラム保持部16と、ロボット11の位置姿勢データを生成する位置姿勢データ生成部17と、を有する。
プログラム保持部16には、教示操作盤14からロボット11の動作プログラムが入力される。また、教示操作盤14は、プログラム保持部16内の動作プログラムを書換えることができる。
ロボット制御装置12は、プログラム保持部16内の動作プログラムに従ってサーボモータに位置指令を与えつつ、位置検出センサ15によって検出されるサーボモータの位置が位置指令と合致するようにサーボモータを制御する。これにより、ロボット11は、プログラム保持部16内の動作プログラムどおりに動作する。
位置姿勢データ生成部17は、位置検出センサ15から出力されたサーボモータの位置信号に基づいてロボット11の位置姿勢データを生成して拡張現実対応ディスプレイ13に出力する。
ロボット教示作業を実施する場合には、作業者が拡張現実対応ディスプレイ13を視認しつつ、教示操作盤14によってロボット11を操作する。このとき、所望の作業動作が教示操作盤14からロボット制御装置12を介してロボット11に教示される。これにより、所望の作業動作がロボット制御装置12のプログラム保持部16に記録される。
前述のロボット教示作業の際、ロボット11のアーム部の先端に装着すべきロボットハンドや加工ツールなどのエンドエフェクタを用意できない場合がある。また、ワークを搬送するベルトコンベアやレール式搬送台車などのロボット周辺装置をロボット11の周辺に配置できない場合もある。このような場合でも、本実施形態のロボットシステム10は、エンドエフェクタ又はロボット周辺装置を仮想の画像として拡張現実対応ディスプレイ13に表示するように構成されている。
具体的には、図1に示されるように、拡張現実対応ディスプレイ13は、ロボット11を含む実空間の撮影に用いられるカメラ18と、カメラ18により撮影されたロボット11を含む実空間の画像をリアルタイムに表示する表示部19と、計算機20とを具備する。
拡張現実対応ディスプレイ13は例えばヘッドマウントディスプレイである(図3及び図4参照)。この場合、表示部19は、眼鏡レンズ程度の大きさであって、人の両眼にそれぞれ対応するように配置された表示画面を有することが好ましい。なお、拡張現実対応ディスプレイ13は、作業者が教示操作盤14を持ちながらカメラ18の映像を視認できるものならば、ヘッドマウントディスプレイに限定されない。
拡張現実対応ディスプレイ13の計算機20は、図1に示されるように、カメラ位置姿勢推定部21と、仮想物体データ保持部22と、仮想物体画像生成部23と、拡張現実画像処理部24とを具備する。但し、仮想物体データ保持部22及び仮想物体画像生成部23は、ロボット制御装置12に内蔵されていてもよい。
カメラ位置姿勢推定部21は、ロボット11とこれを撮影するカメラ18との相対的な位置及び角度(姿勢)を推定する。
仮想物体データ保持部22は、ロボット11が設置された実空間に存在していない仮想物体のデータを保持する。仮想物体のデータは、教示操作盤14から仮想物体データ保持部22に入力される。また、前述の仮想物体のデータは、前述したエンドエフェクタ、ロボット周辺装置などに関する三次元形状や設置場所のデータである。
仮想物体画像生成部23には、前述した仮想物体のデータが仮想物体データ保持部22から入力される。さらに、仮想物体画像生成部23には、カメラ位置姿勢推定部21から、ロボット11とカメラ18との相対位置角度(相対位置姿勢)のデータが入力される。
そして、仮想物体画像生成部23は、仮想物体のデータと、ロボット11とカメラ18との相対位置角度のデータとに基づいて、カメラ18により撮影されたロボット11の実画像に適合する仮想物体の画像を生成する。このとき、ロボット11とカメラ18との相対位置角度が変われば、それに応じて、仮想物体の画像は、撮影されたロボット11の実画像に適合する画像に変更される。
拡張現実画像処理部24には、仮想物体画像生成部23により生成された仮想物体の画像情報が入力される。
さらに、拡張現実画像処理部24には、ロボット11の動作中の位置姿勢データがロボット制御装置12の位置姿勢データ生成部17から計算機20を介して入力される。また、拡張現実画像処理部24には、カメラ18により撮影されたロボット11の実画像の情報も入力される。
そして、拡張現実画像処理部24は、仮想物体画像生成部23により生成された仮想物体の画像をロボット11の位置姿勢データに基づいてロボット11の実画像に重畳して表示部19に表示させる。ロボット11を動作させている場合には、撮影されたロボット11の実画像に重畳すべき仮想物体の画像のデータを、ロボット11の動作中の位置姿勢データに基づいて所定時間ごとに更新することが好ましい。
図2は、前述したエンドエフェクタ、ロボット周辺装置などの仮想物体の画像をカメラ18により撮影されたロボット11の実画像に重畳して表示する際の処理フローを示すフローチャートである。
図2に示されるように、まず、拡張現実対応ディスプレイ13は、カメラ18を介してロボット11の実画像が取込まれているかを判断する(ステップS11)。
ロボット11の実画像が取込まれていると判断した場合には、拡張現実対応ディスプレイ13のカメラ位置姿勢推定部21は、ロボット11とカメラ18との相対位置角度を推定する(ステップS12)。
そして、上記ステップS12の後、ロボット制御装置12は、位置姿勢データ生成部17からロボット11の位置姿勢データを拡張現実対応ディスプレイ13に出力する(ステップS13)。
続いて、拡張現実対応ディスプレイ13は、エンドエフェクタ、ロボット周辺装置などの仮想物体の画像をカメラ18により撮影されたロボット11の実画像に重畳して表示部19に表示させる(ステップS14)。このとき、前述したように、ロボット11とカメラ18との相対位置角度に応じて仮想物体の画像が作成され、ロボット11の位置姿勢データに基づいて仮想物体の画像がロボット11の実画像に重畳される。
さらに、拡張現実対応ディスプレイ13は、前述の重畳表示画像、すなわちロボット11の実画像に重畳表示された仮想物体の画像を動作させる必要があるかを判断する(ステップS15)。
位置姿勢データ生成部17から拡張現実対応ディスプレイ13に出力されるロボット11の位置姿勢データが変化した時、拡張現実対応ディスプレイ13は、上記ステップS15において「YES」と判断する。
上記ステップS15において「YES」と判断した場合には、拡張現実対応ディスプレイ13は、前述した重畳表示画像を動作させる(ステップS16)。この場合、重畳表示画像のデータをロボット11の動作中の位置姿勢データに基づいて所定時間ごとに更新すればよい。
以下に、仮想のエンドエフェクタの画像を現実のロボット11の実画像に重畳表示する場合(以下、第一実施例と呼ぶ。)を具体的に例示する。
(第一実施例)
図3は第一実施例の処理の様子を模式的に示した図である。
ロボット教示作業を行う際、図3に示されるように、作業者は拡張現実対応ディスプレイ13を装着し、所定の場所に設置されたロボット11を視認する。このとき、ロボット11のアーム部の先端にはロボットハンドや加工ツールなどのエンドエフェクタは装着されていない。また、ロボット11の周辺には、ワークを搬送するベルトコンベアやレール式搬送台車などのロボット周辺装置も配置されていない。
このような実環境において、拡張現実対応ディスプレイ13は、カメラ18により撮影されたロボット11を含む実環境の画像を取込む(図3における矢印A参照)。
続いて、拡張現実対応ディスプレイ13のカメラ位置姿勢推定部21は、ロボット11とカメラ18との相対位置角度を推定する。この理由は、仮想のエンドエフェクタの画像を現実のロボット11の実画像R1に重畳表示する際に、その仮想のエンドエフェクタの画像R2を適切な向き及び位置に表示する必要があるからである。
第一実施例においては、次のような方法により、前述のようなロボット11とカメラ18との相対位置角度を推定する。
すなわち、カメラ18により多数の視点から、様々な静止姿勢のロボット11を事前に撮影して、複数のロボット11の画像モデルをカメラ位置姿勢推定部21に記録しておく。このとき、各々のロボット11の画像モデルを取得した際の、ロボット11とカメラ18との相対位置角度も記録しておく。
その後、前述したように現実のロボット11の実画像R1が拡張現実対応ディスプレイ13に取込まれると、取込まれたロボット11の実画像R1が、予め記録しておいた複数のロボット11の画像モデルM、M、・・・Mのうちのどれに最も近いかが判定される(図3における矢印B参照)。そして、カメラ位置姿勢推定部21は、その最も近い画像モデルに対応する、ロボット11とカメラ18との相対位置角度を、カメラ18により現在撮影されているロボット11とカメラ18との相対位置角度とみなす。
続いて、カメラ位置姿勢推定部21は、ロボット11とカメラ18との相対位置角度を推定した旨をロボット制御装置12に通知する(図3における矢印C参照)。
それにより、ロボット制御装置12の位置姿勢データ生成部17は、ロボット11の現在の位置姿勢データを拡張現実対応ディスプレイ13に送信する(図3における矢印D参照)。
続いて、拡張現実対応ディスプレイ13内の仮想物体画像生成部23は、カメラ18により現在撮影されているロボット11の実画像R1に適合する仮想のエンドエフェクタの画像R2を生成する。このとき、仮想のエンドエフェクタの画像R2は、仮想物体データ保持部22に記憶保持されたエンドエフェクタの三次元形状等のデータと、前述のように推定されたロボット11とカメラ18との相対位置角度とに基づいて作成される。つまり、仮想のエンドエフェクタの画像R2は、カメラ18により撮影されたロボット11の実画像R1におけるアーム部の先端に対して適切な向き、位置、及び大きさを有する画像として生成される。
そして、拡張現実対応ディスプレイ13内の拡張現実画像処理部24は、仮想物体画像生成部23により生成された仮想のエンドエフェクタの画像R2を、カメラ18により撮影されたロボット11の実画像R1におけるアーム部の先端に付加して表示部19に表示させる(図3における矢印E参照)。このとき、ロボット11の実画像R1におけるアーム部の先端の位置は、ロボット制御装置12から送信されたロボット11の位置姿勢データと、ロボット11とカメラ18との相対位置角度とに基づいて特定される。
図4は、ロボット11を動作させたときに拡張現実対応ディスプレイ13に表示される画像の様子を模式的に示した図である。
ロボット教示作業の際に作業者は教示操作盤14を用いてロボット11を動作させる。それにより、ロボット11の位置姿勢が変化するため、図4に示されるように表示部19におけるロボット11の実画像R1が変化する。拡張現実画像処理部24は、変化するロボット11の位置姿勢データに基づいて、ロボット11の実画像R1におけるアーム部の先端近傍に表示すべき仮想のエンドエフェクタの画像R2のデータを更新する。このとき、仮想のエンドエフェクタの画像R2は、仮想物体画像生成部23により、ロボット11の実画像R1の変化に応じてリアルタイムに生成されることが好ましい。以上のことにより、ロボット11の実画像R1におけるアーム部の先端近傍に表示される仮想のエンドエフェクタの画像R2(図4において破線により囲まれている画像部分25)は、ロボット11の実画像R1の変化とともに動くようになる。
以上に説明した第一実施例によれば、ロボット11のアーム部の先端にエンドエフェクタが取付けられていない場合でも、拡張現実対応ディスプレイ13により、エンドエフェクタが在るものと見なしてロボット教示作業を実施することができる。また、拡張現実対応ディスプレイ13としてヘッドマウントディスプレイを使用しているため、作業者は表示部19に表示されるカメラ18の映像を視認しながら教示操作盤14を操作することができる。
次に、仮想のロボット周辺装置の画像を現実のロボット11の実画像に重畳表示する場合(以下、第二実施例と呼ぶ。)を具体的に例示する。
(第二実施例)
図5は第二実施例の処理の様子を模式的に示した図である。
ロボット教示作業を行う際、図5に示されるように、作業者は拡張現実対応ディスプレイ13を装着し、所定の場所に設置されたロボット11を視認する。このとき、ロボット11のアーム部の先端にはロボットハンドや加工ツールなどのエンドエフェクタは装着されていない。また、ロボット11の周辺には、ワークを搬送するベルトコンベアやレール式搬送台車などのロボット周辺装置も配置されていない。
このような実環境において、拡張現実対応ディスプレイ13は、カメラ18により撮影されたロボット11を含む実環境の画像を取込む(図5における矢印F参照)。但し、第二実施例の場合、ロボット11の表面に少なくとも一つのマーカ26が装着されている。マーカ26は所定の形状もしくはパターンを有していて、カメラ18により画像として認識できるものであることが好ましい。
続いて、拡張現実対応ディスプレイ13のカメラ位置姿勢推定部21は、ロボット11とカメラ18との相対位置角度を推定する。この理由は、前述した第一実施例において説明したとおりである。
第二実施例においては、次のような方法により、前述のようなロボット11とカメラ18との相対位置角度を推定する。
すなわち、複数のマーカ26を実空間に設置されたロボット11の表面に取付けておき、マーカ26をカメラ18により撮影する。各マーカ26の実空間での位置は既知である。このため、カメラ18の画像座標上に投影されたマーカ26の位置から、カメラ18の実空間座標系での位置及び姿勢(角度)を逆算することができる。このような計算により、カメラ位置姿勢推定部21は、ロボット11とカメラ18との相対位置角度を推定する。また、所望のロボット周辺装置の画像モデルをマーカ26の位置と関連付けておくことが好ましい。このことにより、カメラ18の実空間座標系での位置及び姿勢(角度)を基に、所望のロボット周辺装置の画像モデルのデータをロボット11の実画像における所望の位置に重畳表示することができる。
続いて、カメラ位置姿勢推定部21は、ロボット11とカメラ18との相対位置角度をロボット制御装置12に通知する(図5における矢印G参照)。なお、第二実施形態においては、図1に示された形態に替えて、仮想物体データ保持部22及び仮想物体画像生成部23はロボット制御装置12に内蔵されているものとする。
ロボット制御装置12に内蔵された仮想物体画像生成部23は、カメラ18により現在撮影されているロボット11の実画像R1に付加すべき仮想のロボット周辺装置、例えばベルトコンベアの画像R3を生成する。このとき、仮想のロボット周辺装置の画像R3は、仮想物体データ保持部22に記憶保持されたロボット周辺装置の三次元形状等のデータと、前述のように算出されたロボット11とカメラ18との相対位置角度とに基づいて作成される。つまり、仮想のロボット周辺装置の画像R3は、カメラ18により撮影されたロボット11の実画像R1に対して適切な向き、位置、及び大きさを有する画像として生成される。
続いて、ロボット制御装置12は、仮想物体画像生成部23により生成された仮想のロボット周辺装置の画像R3を拡張現実対応ディスプレイ13内の拡張現実画像処理部24に送信する((図5における矢印H参照)。
そして、拡張現実画像処理部24は、仮想物体画像生成部23により生成された仮想のロボット周辺装置の画像R3を、カメラ18により撮影されたロボット11の実画像R1に重畳して表示部19に表示させる(図5における矢印I参照)。このとき、仮想のロボット周辺装置の画像R3を重畳表示する位置は、カメラ18の画像座標上に投影されたマーカ26の位置と、ロボット11とカメラ18との相対位置角度とに基づいて特定される。
なお、ロボット11の実画像に重畳表示された仮想のロボット周辺装置、例えばベルトコンベアの画像R3を動かすためには、次のような方法をとるのが好ましい。まず、仮想のベルトコンベアの画像R3に基づいて、仮想のベルトコンベアの可動ベルト部が少しずつ移動された複数の移動画像を事前に作成して、仮想物体データ保持部22に記録しておく。ロボット制御装置12は、仮想のベルトコンベアを制御するための疑似信号を所望の時機に拡張現実対応ディスプレイ13に出力できるように構成される。そして、拡張現実対応ディスプレイ13は、ロボット制御装置12からの擬似信号の入力により、前述した可動ベルト部の移動画像を所定時間ごとにロボット11の実画像に対して適切な向き、位置、及び大きさで重畳して表示する。
以上に説明した第二実施例によれば、ロボット11の周辺にベルトコンベア等のロボット周辺装置が実際には配置されていない場合でも、拡張現実対応ディスプレイ13により、ロボット周辺装置が在るものと見なしてロボット教示作業を実施することができる。また、拡張現実対応ディスプレイ13としてヘッドマウントディスプレイを使用しているため、作業者は表示部19に表示されるカメラ18の映像を視認しながら教示操作盤14を操作することができる。
以上、典型的な実施例を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施例に変更および種々の他の変更、省略、追加を行うことができるのを理解できるであろう。また、上述の各実施例を適宜組み合わせることは本発明の範囲に含まれる。
10 ロボットシステム
11 ロボット
12 ロボット制御装置
13 拡張現実対応ディスプレイ(映像表示装置)
14 教示操作盤
15 位置検出センサ
16 プログラム保持部
17 位置姿勢データ生成部
18 カメラ
19 表示部
20 計算機
21 カメラ位置姿勢推定部
22 仮想物体データ保持部
23 仮想物体画像生成部
24 拡張現実画像処理部
25 画像部分
26 マーカ
R1 ロボットの実画像
R2 仮想のエンドエフェクタの画像
R3 仮想のロボット周辺装置の画像

Claims (5)

  1. ロボット(11)を制御する制御装置(12)と、
    前記制御装置(12)に接続された映像表示装置(13)と、を備え、
    前記映像表示装置(13)は、
    カメラ(18)により撮影された前記ロボット(11)を含む実空間の画像をリアルタイムに表示する表示部(19)と、
    前記ロボット(11)のエンドエフェクタもしくはロボット周辺装置の仮想画像を、前記カメラ(18)により撮影された前記ロボット(11)の実画像に重畳して前記表示部(19)に表示させる拡張現実画像処理部(24)と、を具備する、
    ロボットシステム(10)。
  2. 前記映像表示装置(13)は、
    前記ロボット(11)と前記カメラ(18)との相対的な位置及び角度に基づいて、前記カメラ(18)により撮影された前記ロボット(11)の実画像に重畳すべき前記エンドエフェクタもしくは前記ロボット周辺装置の仮想画像を生成する仮想物体画像生成部(23)を具備する、請求項1に記載のロボットシステム(10)。
  3. 前記拡張現実画像処理部(24)は、前記制御装置(12)により制御されている前記ロボット(11)の位置姿勢データ、もしくは前記制御装置(12)からの疑似信号に基づいて、前記エンドエフェクタもしくは前記ロボット周辺装置の仮想画像を動かしつつ前記表示部(19)に表示させるようにした、請求項1または2に記載のロボットシステム(10)。
  4. 前記制御装置(12)は、前記ロボット(11)の教示操作を行う教示操作盤(14)を備える、請求項1から3のいずれか一項に記載のロボットシステム(10)。
  5. 前記映像表示装置(13)は、前記カメラ(18)を備えたヘッドマウントディスプレイである、請求項1から4のいずれか一項に記載のロボットシステム(10)。
JP2015241007A 2015-12-10 2015-12-10 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム Active JP6420229B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015241007A JP6420229B2 (ja) 2015-12-10 2015-12-10 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
CN201611094231.9A CN106863295B (zh) 2015-12-10 2016-12-02 机器人系统
US15/371,760 US10543599B2 (en) 2015-12-10 2016-12-07 Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot
DE102016123945.3A DE102016123945B4 (de) 2015-12-10 2016-12-09 Mit einem Videoanzeigegerät, das ein Bild eines virtuellen Objekts überlagernd auf einem Videobild eines Roboters anzeigt, ausgestattetes Robotersystem
US16/681,049 US11345042B2 (en) 2015-12-10 2019-11-12 Robot system equipped with video display apparatus that displays image of virtual object in superimposed fashion on real image of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015241007A JP6420229B2 (ja) 2015-12-10 2015-12-10 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム

Publications (2)

Publication Number Publication Date
JP2017104944A true JP2017104944A (ja) 2017-06-15
JP6420229B2 JP6420229B2 (ja) 2018-11-07

Family

ID=58773730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015241007A Active JP6420229B2 (ja) 2015-12-10 2015-12-10 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム

Country Status (4)

Country Link
US (2) US10543599B2 (ja)
JP (1) JP6420229B2 (ja)
CN (1) CN106863295B (ja)
DE (1) DE102016123945B4 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107656505A (zh) * 2017-08-21 2018-02-02 杭州太若科技有限公司 使用增强现实设备控制人机协作的方法、装置和系统
JP2019098513A (ja) * 2017-11-28 2019-06-24 株式会社デンソーウェーブ 教示装置、教示方法
JP2019212041A (ja) * 2018-06-05 2019-12-12 ファナック株式会社 仮想オブジェクト表示システム
JP2020015128A (ja) * 2018-07-25 2020-01-30 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
JP2020055075A (ja) * 2018-10-02 2020-04-09 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置
JP2020121351A (ja) * 2019-01-29 2020-08-13 ファナック株式会社 ロボットシステム
JP2021008033A (ja) * 2020-10-27 2021-01-28 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
JP2021058972A (ja) * 2019-10-08 2021-04-15 ファナック株式会社 ロボットシステム
JP2021058979A (ja) * 2019-10-08 2021-04-15 大豊精機株式会社 ロボットアーム試験装置
JP2021088028A (ja) * 2019-12-04 2021-06-10 ファナック株式会社 表示装置及び表示プログラム
US11049287B2 (en) 2018-08-31 2021-06-29 Fanuc Corporation Sensing system, work system, augmented-reality-image displaying method, and program
CN113524262A (zh) * 2021-08-20 2021-10-22 太仓中科信息技术研究院 摄像机器人虚实融合精度优化装置和方法
JP7109699B1 (ja) * 2021-07-07 2022-07-29 三菱電機株式会社 遠隔操作システム
WO2022176928A1 (ja) * 2021-02-18 2022-08-25 ファナック株式会社 教示装置
WO2023080050A1 (ja) * 2021-11-02 2023-05-11 ローレルバンクマシン株式会社 情報処理装置、ロボットの制御方法、プログラム、移動体及びロボットシステム
US11667031B2 (en) 2019-05-31 2023-06-06 Seiko Epson Corporation Teaching method

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6138566B2 (ja) * 2013-04-24 2017-05-31 川崎重工業株式会社 部品取付作業支援システムおよび部品取付方法
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
US10684480B2 (en) * 2017-03-16 2020-06-16 Denso Wave Incorporated Information display system
WO2018173178A1 (ja) * 2017-03-23 2018-09-27 株式会社Fuji ロボットシステム
JP6506348B2 (ja) * 2017-06-14 2019-04-24 ファナック株式会社 ロボットの軌道を修正するロボットの教示装置
US10712902B2 (en) * 2017-07-14 2020-07-14 Sst Systems, Inc. Augmented reality system for conveyor system and method
DE112018002565B4 (de) 2017-08-10 2021-07-01 Robert Bosch Gmbh System und Verfahren zum direkten Anlernen eines Roboters
JP6795471B2 (ja) * 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
DE102017215114A1 (de) * 2017-08-30 2019-02-28 Deutsches Zentrum für Luft- und Raumfahrt e.V. Manipulatorsystem und Verfahren zum Steuern eines robotischen Manipulators
JP7066357B2 (ja) * 2017-08-31 2022-05-13 川崎重工業株式会社 ロボットシステム及びその運転方法
JP6669714B2 (ja) * 2017-11-28 2020-03-18 ファナック株式会社 教示操作盤およびロボット制御システム
US10751877B2 (en) 2017-12-31 2020-08-25 Abb Schweiz Ag Industrial robot training using mixed reality
CN109078334B (zh) * 2018-06-21 2020-04-14 广州市世平计算机科技有限公司 一种基于虚拟机器人的vr操作引导及陪练方法和系统
JP6885909B2 (ja) * 2018-10-12 2021-06-16 ファナック株式会社 ロボット制御装置
CN109799771B (zh) * 2018-12-29 2021-01-05 深圳市越疆科技有限公司 一种工业机器人的控制系统、方法及装置
US10592713B1 (en) 2018-12-31 2020-03-17 Datalogic Usa, Inc. Computationally-augmented video display facilitating package handling
CN109648563B (zh) * 2019-01-02 2021-10-29 南京邮电大学 串联机器人运动控制方法及计算机存储介质
CN109571507A (zh) * 2019-01-16 2019-04-05 鲁班嫡系机器人(深圳)有限公司 一种服务机器人系统及服务方法
DE102019103349B3 (de) 2019-02-11 2020-06-18 Beckhoff Automation Gmbh Industrierobotersystem und Verfahren zur Steuerung eines Industrieroboters
US12036663B2 (en) * 2019-03-25 2024-07-16 Abb Schweiz Ag Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
JP7260405B2 (ja) * 2019-06-07 2023-04-18 ファナック株式会社 オフラインプログラミング装置、ロボット制御装置および拡張現実システム
JP7388074B2 (ja) * 2019-09-17 2023-11-29 オムロン株式会社 シミュレーション装置、シミュレーションプログラムおよびシミュレーション方法
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
CN110815177B (zh) * 2019-10-29 2022-08-16 中科新松有限公司 一种复合机器人2d视觉引导示教的迁移方法
CN110815189B (zh) * 2019-11-20 2022-07-05 福州大学 基于混合现实的机器人快速示教系统及方法
KR20210072463A (ko) * 2019-12-09 2021-06-17 한국전자통신연구원 인간-머신 상호작용 방법 및 이를 위한 장치
JP7424825B2 (ja) * 2019-12-26 2024-01-30 ファナック株式会社 I/o信号情報表示システム
US12070861B2 (en) * 2020-04-14 2024-08-27 3Deo, Inc. Robotics for three-dimensional printing
DE102021133633B3 (de) 2021-12-17 2023-01-26 J. Schmalz Gmbh Verfahren zum Bereitstellen einer Greifvorrichtung
DE102022202562A1 (de) 2022-03-15 2023-09-21 Kuka Deutschland Gmbh Ermitteln wenigstens einer Grenze für ein Betreiben eines Roboters
DE102022202563B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Planen einer Bahn eines Roboters
DE102022202571B3 (de) 2022-03-15 2023-07-06 Kuka Deutschland Gmbh Prüfen einer vorgegebenen Bahn eines Roboters
US20240189993A1 (en) * 2022-12-13 2024-06-13 Acumino System for testing and training robot control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03213278A (ja) * 1990-01-12 1991-09-18 Fujitsu Ltd ロボットの遠隔操作支援方式
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
US20140277737A1 (en) * 2013-03-18 2014-09-18 Kabushiki Kaisha Yaskawa Denki Robot device and method for manufacturing processing object

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE0203908D0 (sv) 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
DE10345743A1 (de) 2003-10-01 2005-05-04 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Bestimmen von Position und Orientierung einer Bildempfangseinrichtung
DE102005009437A1 (de) 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
US7818092B2 (en) * 2006-01-20 2010-10-19 Fisher Controls International Llc In situ emission measurement for process control equipment
KR100786351B1 (ko) * 2006-08-29 2007-12-14 울산대학교 산학협력단 Ar을 이용한 작업로봇 티칭 시스템 및 방법
JP4850984B2 (ja) 2009-12-28 2012-01-11 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
CN102350700A (zh) * 2011-09-19 2012-02-15 华南理工大学 一种基于视觉的机器人控制方法
US9415509B2 (en) 2011-11-04 2016-08-16 Fanuc America Corporation Robot teach device with 3-D display
CN103302668B (zh) * 2013-05-22 2016-03-16 东南大学 基于Kinect的空间遥操作机器人的控制系统及其方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03213278A (ja) * 1990-01-12 1991-09-18 Fujitsu Ltd ロボットの遠隔操作支援方式
JP2004243516A (ja) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh コンピュータによって生成された情報を現実環境の画像へとフェードインするための方法、およびコンピュータによって生成された情報を現実環境の画像に視覚化するための装置
US20040189631A1 (en) * 2003-02-11 2004-09-30 Arif Kazi Method and device for visualizing computer-generated informations
US20120290130A1 (en) * 2011-05-10 2012-11-15 Agile Planet, Inc. Method to Model and Program a Robotic Workcell
US20140277737A1 (en) * 2013-03-18 2014-09-18 Kabushiki Kaisha Yaskawa Denki Robot device and method for manufacturing processing object
JP2014180707A (ja) * 2013-03-18 2014-09-29 Yaskawa Electric Corp ロボット装置及び被加工物の製造方法

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107656505A (zh) * 2017-08-21 2018-02-02 杭州太若科技有限公司 使用增强现实设备控制人机协作的方法、装置和系统
JP2019098513A (ja) * 2017-11-28 2019-06-24 株式会社デンソーウェーブ 教示装置、教示方法
JP7259284B2 (ja) 2017-11-28 2023-04-18 株式会社デンソーウェーブ 教示装置、教示方法
US11199828B2 (en) 2018-06-05 2021-12-14 Fanuc Corporation Virtual object display system
JP2019212041A (ja) * 2018-06-05 2019-12-12 ファナック株式会社 仮想オブジェクト表示システム
US10885340B2 (en) 2018-07-25 2021-01-05 Fanuc Corporation Sensing system, work system, augmented-reality-image displaying method, augmented-reality-image storing method, and program
US11328507B2 (en) 2018-07-25 2022-05-10 Fanuc Corporation Sensing system, work system, augmented-reality-image displaying method, augmented-reality-image storing method, and program
JP2020015128A (ja) * 2018-07-25 2020-01-30 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
US11049287B2 (en) 2018-08-31 2021-06-29 Fanuc Corporation Sensing system, work system, augmented-reality-image displaying method, and program
DE102019009313B4 (de) 2018-10-02 2024-02-15 Fanuc Corporation Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
US11724388B2 (en) 2018-10-02 2023-08-15 Fanuc Corporation Robot controller and display device using augmented reality and mixed reality
JP2020055075A (ja) * 2018-10-02 2020-04-09 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置及び表示装置
DE102019006800B4 (de) 2018-10-02 2022-07-28 Fanuc Corporation Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
JP7000364B2 (ja) 2019-01-29 2022-01-19 ファナック株式会社 ロボットシステム
US11267132B2 (en) 2019-01-29 2022-03-08 Fanuc Corporation Robot system
JP2020121351A (ja) * 2019-01-29 2020-08-13 ファナック株式会社 ロボットシステム
US11667031B2 (en) 2019-05-31 2023-06-06 Seiko Epson Corporation Teaching method
JP7443014B2 (ja) 2019-10-08 2024-03-05 大豊精機株式会社 ロボットアーム試験装置
JP2021058979A (ja) * 2019-10-08 2021-04-15 大豊精機株式会社 ロボットアーム試験装置
JP2021058972A (ja) * 2019-10-08 2021-04-15 ファナック株式会社 ロボットシステム
JP2021088028A (ja) * 2019-12-04 2021-06-10 ファナック株式会社 表示装置及び表示プログラム
JP7409848B2 (ja) 2019-12-04 2024-01-09 ファナック株式会社 表示装置及び表示プログラム
JP7068416B2 (ja) 2020-10-27 2022-05-16 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
JP2021008033A (ja) * 2020-10-27 2021-01-28 ファナック株式会社 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法
WO2022176928A1 (ja) * 2021-02-18 2022-08-25 ファナック株式会社 教示装置
JP7109699B1 (ja) * 2021-07-07 2022-07-29 三菱電機株式会社 遠隔操作システム
CN113524262A (zh) * 2021-08-20 2021-10-22 太仓中科信息技术研究院 摄像机器人虚实融合精度优化装置和方法
WO2023080050A1 (ja) * 2021-11-02 2023-05-11 ローレルバンクマシン株式会社 情報処理装置、ロボットの制御方法、プログラム、移動体及びロボットシステム

Also Published As

Publication number Publication date
CN106863295B (zh) 2019-09-10
JP6420229B2 (ja) 2018-11-07
US10543599B2 (en) 2020-01-28
US11345042B2 (en) 2022-05-31
DE102016123945A1 (de) 2017-06-14
US20200078951A1 (en) 2020-03-12
DE102016123945B4 (de) 2022-03-03
US20170165841A1 (en) 2017-06-15
CN106863295A (zh) 2017-06-20

Similar Documents

Publication Publication Date Title
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
CN105666505B (zh) 具备扩展现实对应显示器的机器人系统
JP6843050B2 (ja) ロボットシステム
US10786906B2 (en) Robot system
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP6348149B2 (ja) ロボットを用いてレーザ加工を行うレーザ加工ロボットシステム
JP2020075354A (ja) 外部入力装置、ロボットシステム、ロボットシステムの制御方法、制御プログラム、及び記録媒体
JP2005106825A (ja) 受像装置の位置および方向づけの決定方法および装置
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP6589604B2 (ja) ティーチング結果表示システム
TW201927496A (zh) 機器人系統以及機器人控制方法
JP2014065100A (ja) ロボットシステム、及びロボットのティーチング方法
CN113165186B (zh) 机器人系统及其控制装置和方法、摄像装置和存储介质
JP7517803B2 (ja) ロボット教示システム、画像生成方法、及びプログラム
JP2015174184A (ja) 制御装置
JP2011083883A (ja) ロボット装置
JP2020175453A (ja) 遠隔操作装置
JP5200866B2 (ja) ロボットシステム、ロボット制御装置およびロボット制御方法
JP2020157394A (ja) ロボット装置
WO2020203819A1 (ja) 遠隔操作装置
JP2012022600A (ja) マスク画像作成システム
JPH10264066A (ja) ロボットの制御装置
JP2022039416A (ja) 加工システム
JP2005258758A (ja) 画像処理装置および画像処理方法

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171023

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171208

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180918

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181011

R150 Certificate of patent or registration of utility model

Ref document number: 6420229

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150