JPWO2020203819A1 - 遠隔操作装置 - Google Patents

遠隔操作装置 Download PDF

Info

Publication number
JPWO2020203819A1
JPWO2020203819A1 JP2021512029A JP2021512029A JPWO2020203819A1 JP WO2020203819 A1 JPWO2020203819 A1 JP WO2020203819A1 JP 2021512029 A JP2021512029 A JP 2021512029A JP 2021512029 A JP2021512029 A JP 2021512029A JP WO2020203819 A1 JPWO2020203819 A1 JP WO2020203819A1
Authority
JP
Japan
Prior art keywords
virtual
unit
image
remote control
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021512029A
Other languages
English (en)
Inventor
田中 真人
峻一 山崎
拓 清水
祥 安井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Publication of JPWO2020203819A1 publication Critical patent/JPWO2020203819A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0038Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

この遠隔操作装置(2)は、作業現場における移動ロボット(1)と当該移動ロボットの周囲の物体(W)との距離を検出するセンサ(1d)と、前記作業現場の仮想三次元映像の視点を指定する視点指定部(2e)と、前記センサの検出結果及び前記視点指定部が指定する視点に基づいて前記仮想三次元映像を生成する仮想映像生成部(2a)と、前記仮想三次元映像を表示する表示部(2c)と、前記移動ロボットを遠隔操作する操作信号を生成する操作部(2d)とを備える。

Description

本開示は、遠隔操作装置に関する。
本願は、2019年3月29日に日本に出願された特願2019−067408号に基づき優先権を主張し、その内容をここに援用する。
下記特許文献1には、マニピュレータの遠隔操作装置が開示されている。この遠隔操作装置は、ロボット(マニピュレータ)の作業空間を撮影するカメラユニットと、カメラユニットが撮影した映像を表示するヘッドマウントディスプレイ(HMD)と、操作者がヘッドマウントディスプレイの映像を見ながら操作する三次元入力装置と、ロボット制御用コンピュータとを備えている。
日本国特開2000−042960号公報
上述した遠隔操作装置では、操作者は、三次元入力装置を用いることにより、ヘッドマウントディスプレイに表示される作業現場のカメラ映像を見ながらロボットを操作する。ここで、カメラユニットは固定設置されており、カメラ映像の範囲(視野)が固定した範囲に限定される。したがって、例えばカメラ映像に表示されていない物体にマニピュレータが干渉する場合がある。
本開示は、上述した事情に鑑みてなされ、視野が可変可能な遠隔操作装置の提供を目的とする。
本開示の第1の態様の遠隔操作装置は、作業現場における移動ロボットと当該移動ロボットの周囲の物体との距離を検出するセンサと、前記作業現場の仮想三次元映像の視点を指定する視点指定部と、前記センサの検出結果及び前記視点指定部が指定する視点に基づいて前記仮想三次元映像を生成する仮想映像生成部と、前記仮想三次元映像を表示する表示部と、前記移動ロボットを遠隔操作する操作信号を生成する操作部とを備える。
本開示の第2の態様は、上記第1の態様の遠隔操作装置が、前記作業現場の実映像を撮像する撮像部と、前記仮想三次元映像と前記実映像とを合成して合成映像を生成する映像合成部とをさらに備え、前記表示部は、前記仮想三次元映像に代えて前記合成映像を表示する。
本開示の第3の態様は、上記第2の態様の遠隔操作装置において、前記映像合成部が、前記合成映像に前記移動ロボットの制御情報をはめ込む。
本開示の第4の態様は、上記第1〜第3のいずれか1つの態様の遠隔操作装置において、前記仮想三次元映像が、前記移動ロボットのオブジェクトと前記移動ロボットが作業対象とするワークのオブジェクトとを含む。
本開示の第5の態様は、上記第1〜第4のいずれか1つの態様の遠隔操作装置において、前記表示部が、ヘッドマウントディスプレイであり、前記視点指定部が、ヘッドマウントディスプレイに組み込まれたモーションセンサである。
本開示によれば、視野が可変可能な遠隔操作装置を提供することが可能である。
本開示の一実施形態におけるロボットシステムの全体構成を示すシステム構成図である。 本開示の一実施形態に係る遠隔操作装置の構成を示すブロック図である。 本開示の一実施形態における合成映像を示す模式図である。
以下、図面を参照して、本開示の一実施形態について説明する。
本実施形態におけるロボットシステムは、図1に示すようにロボット本体1と遠隔操作装置2とによって構成される。
ロボット本体1は、所定の作業現場(作業空間)で移動しつつワークWに対して所定の作業を行う多関節ロボットである。ロボット本体1は、図示するように移動台車1a、マニピュレータ1b、作業具1c、センサ1d及びロボットコントローラ1eを少なくとも備えている。なお、このロボット本体1は、本開示の移動ロボットに相当する。
この作業現場には、ロボット本体1の作業対象であるワークWが支持台T上に載置されている。ロボット本体1は、ロボットコントローラ1eによって制御されることによって、支持台T上に載置されたワークWに対して所定の作業を行う。
移動台車1aは、複数の車輪と当該車輪を駆動する駆動装置(モータ等)を備えており、ロボットコントローラ1eから入力される走行制御信号に基づいて作業現場のフロアF上を走行する。この移動台車1aは、自らに搭載されたマニピュレータ1bの作業現場における位置を所定の作業位置に設定する。なお、移動台車1aの移動のための構成は車輪に限られず、例えばキャタピラや歩行脚等であってもよい。
マニピュレータ1bは、上記移動台車1aの上に固定設置されており、複数のアームと当該アームを連結する複数の関節部を備える。このマニピュレータ1bは、ロボットコントローラ1eから入力される関節制御信号に基づいて関節部に備えられたモータを駆動することにより、先端部に装着された作業具1cを移動させる。すなわち、このマニピュレータ1bは、作業具1cの位置や姿勢をワークWに対する作業内容に応じて最適設定する機械装置である。
作業具1cは、マニピュレータ1bの先端部に着脱可能に装着されており、ワークWに対して直接的な作業を行う部位である。例えば、ワークに対して機械的な加工を行う場合、作業具1cは、ワークに対してせん断力や押圧力等を作用させる工具である。
センサ1dは、距離センサとカメラとを少なくとも含む。このセンサ1dは、移動台車1aの前方側、つまり移動台車1aにおいてマニピュレータ1bの前(マニピュレータ1bの移動台車1aに対する固定部位の前方)に固定設置されており、作業現場におけるロボット本体1と当該ロボット本体1の周囲の物体との距離を検出すると共に、移動台車1aの前方の映像を作業現場の実映像として撮像する。
なお、「移動台車1aの前方側」とは、例えば作業時において、移動台車1aのワークWに近い側をいう。若しくは、「移動台車1aの前方側」とは、マニピュレータ1bが作業のために動いても、センサ1dがワークWを検出可能な側(死角とならない側)をいう。
この実映像は、作業現場におけるワークW及び当該ワークに対して作業を行う作業具1cの状態を示す動画である。このようなセンサ1dは、周囲の物体との距離の検出結果を距離検出信号として遠隔操作装置2に出力すると共に、実映像を実映像信号として遠隔操作装置2に出力する。
ここで、図1ではセンサ1dと遠隔操作装置2とが別体の構成要素として描かれているが、センサ1dは、機能的には遠隔操作装置2に含まれる構成要素である。また、このセンサ1dは、作業現場の実映像を撮像する撮像部に相当する。すなわち、センサ1dのカメラが撮像部に相当する。
ロボットコントローラ1eは、操作室の遠隔操作装置2と通信可能に接続された制御装置であり、遠隔操作装置2から受信した操作信号に基づいて移動台車1a及びマニピュレータ1bを制御する。このロボットコントローラ1eは、一種のコンピュータであり、予め記憶された制御プログラムに従って操作信号を情報処理することにより、操作信号に従って移動台車1a及びマニピュレータ1bを制御する。このコンピュータは、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)やROM(Read Only Memory)といったメモリ、及び外部の機器との信号のやり取りを行う入出力装置を備える。
また、このロボットコントローラ1eは、移動台車1a及びマニピュレータ1bの制御情報を遠隔操作装置2に送信する。この制御情報は、ロボット本体1の動作モード、移動台車1aの位置及び/あるいはマニピュレータ1bにおける各関節の角度等である。
遠隔操作装置2は、作業現場とは離間した操作室に備えられており、操作者からの操作入力に基づいてロボット本体1に操作信号を出力する。この遠隔操作装置2は、操作入力を操作プログラムに基づいて情報処理することにより操作信号を生成する一種のコンピュータであり、機能構成要素として図2に示す仮想映像生成部2a、映像合成部2b、表示部2c及び操作部2dを少なくとも備えている。
なお、遠隔操作装置2がコンピュータを備え、このコンピュータが、仮想映像生成部2a及び映像合成部2bの機能を担ってもよい。このコンピュータは、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)やROM(Read Only Memory)といったメモリ、及び外部の機器との信号のやり取りを行う入出力装置を備えてもよい。
仮想映像生成部2aは、作業現場の仮想三次元映像つまりバーチャルリアリティ映像を生成する。すなわち、この仮想映像生成部2aは、後述する表示部2cから入力される視点指定信号及びセンサ(センサ1dの距離センサ)から入力される距離検出信号に基づいて、作業現場の仮想三次元映像(バーチャルリアリティ映像)を生成する。この仮想三次元映像(バーチャルリアリティ映像)は、ワークW及びロボット本体1の各三次元モデル(オブジェクト)を少なくとも含む。
また、上記仮想三次元映像(バーチャルリアリティ映像)は、視点が視点指定信号に基づいて設定される。すなわち、この仮想三次元映像(バーチャルリアリティ映像)では、ワークW及びロボット本体1等が視点指定信号で指定される視点から見たオブジェクト(物体)として表示される。すなわち、本実施形態における「視点」とは、実際の物体を撮像または視認するための視点だけでなく、生成された仮想三次元映像における視点の意味を含む。
映像合成部2bは、仮想映像生成部2aから入力される仮想三次元映像(バーチャルリアリティ映像)を基本映像とし、当該仮想三次元映像内にセンサ1dから入力される作業現場の実映像及びロボットコントローラ1eから入力されるロボット本体1の制御情報を合成する。この映像合成部2bは、仮想三次元映像(バーチャルリアリティ映像)に実映像及び制御情報を合成した合成映像Gを生成して表示部2cに出力する。
図3は、上記合成映像Gの一例を示す模式図である。この合成映像Gは、作業現場の仮想三次元映像(バーチャルリアリティ映像)に実映像g1及び制御情報映像g2をはめ込んで生成されている。バーチャルリアリティ映像には、支持台T上のワークWとロボット本体1とが、オブジェクト(仮想映像内の物体)として表示されている。また、この合成映像Gでは、バーチャルリアリティ映像において、ワークW及びロボット本体1の各オブジェクト以外の領域に実映像g1及び制御情報映像g2が配置されている。
表示部2cは、上記合成映像Gを表示する表示装置である。この表示部2cは、ロボット本体1を遠隔操作する上での支援情報として操作者に対して合成映像Gを提供する。すなわち、この表示部2cは、操作室において操作者が視認し易い形態を有しており、例えばヘッドマウントディスプレイ(HMD)である。
また、この表示部2cには、被装着者つまり操作者の頭の向きを検出するモーションセンサ2eが組み込まれている。このモーションセンサ2eは、操作者の頭の向きを示す検出信号を視点指定信号として仮想映像生成部2aに出力する。このようなモーションセンサ2eは、仮想三次元映像(バーチャルリアリティ映像)の視点を指定する視点指定部に相当する。
なお、上述した仮想映像生成部2aは、このようなモーションセンサ2eの検出信号を視点指定信号として取り込むことにより、操作者の頭の向きに応じて視点が変化する仮想三次元映像(バーチャルリアリティ映像)を生成する。
操作部2dは、操作者が操作指示を入力する装置である。すなわち、この操作部2dは、ロボット本体1を遠隔操作するための操作指示を操作者から受け付け、当該操作指示を示す操作信号を生成してロボットコントローラ1eに出力する。このような操作部2dは、例えばジョイステックである。
次に、本実施形態に係る遠隔操作装置の動作についてさらに詳しく説明する。
この遠隔操作装置を用いてロボット本体1を遠隔操作する場合、操作者はHMDである表示部2cを顔に装着して操作部2dに操作入力を行う。すなわち、操作者は、図3の合成映像Gを表示部2cで視認しつつ操作部2dに対して操作入力を行うことにより、ロボット本体1を遠隔操作する。
このような遠隔操作環境では、操作者が頭の向きを変えると、この変化が表示部2cのモーションセンサ2eによって検出され、視点指定信号として仮想映像生成部2aに入力される。この結果、仮想映像生成部2aは、新たな頭の向きに対応した視点の仮想三次元映像(バーチャルリアリティ映像)を生成する。そして、新たな視点の仮想三次元映像(バーチャルリアリティ映像)は、仮想映像生成部2aから映像合成部2bに入力される。
そして、映像合成部2bは、仮想映像生成部2aから入力された新たな視点の仮想三次元映像(バーチャルリアリティ映像)に実映像及び制御情報を画像合成することにより合成映像Gを生成し、この新たな合成映像Gを表示部2cに出力する。このような新たな視点の合成映像Gは、操作者が頭の向きを変える度に繰り返し生成されて表示部2cに表示される。
そして、操作者は、このような新たな視点の合成映像Gを遠隔操作の支援情報として確認することにより操作部2dに操作入力を行う。そして、この操作入力に応じた操作信号が操作部2dからロボットコントローラ1eに入力され、よって移動台車1a、マニピュレータ1b及び作業具1cは、操作入力に従った動きをする。すなわち、ロボット本体1は、遠隔操作装置2に対する操作者の操作入力に従って遠隔操作される。
このような本実施形態によれば、操作者が頭の向きを変えると、表示部2cに表示される合成映像GにおけるワークW及びロボット本体1等のオブジェクトの視点が変化するので、視野が可変可能な遠隔操作装置を提供することが可能である。したがって、本実施形態によれば、操作者はワークWとロボット本体1との距離やそれぞれの状態をより的確に把握することが可能であり、よって従来よりも作業性に優れると共により正確な作業を実現することが可能である。
特に、本実施形態によれば、ロボット本体1のオブジェクトだけではなく、ワークWのオブジェクトをも仮想三次元映像(バーチャルリアリティ映像)として表示部2cに表示するので、操作者は、ロボット本体1とワークWとの位置関係を視点を変えることによってより正確に確認することが可能である。したがって、本実施形態によれば、従来よりも作業性に優れた遠隔操作装置を提供することが可能である。
さらに、本実施形態によれば、仮想三次元映像(バーチャルリアリティ映像)にはめ込まれる形で実映像g1及び制御情報映像g2が表示部2cに表示されるので、操作者は作業現場の状況をより正確に把握することが可能であると共に、ロボット本体1の動作状態を的確に把握することができる。したがって、本実施形態によれば、これによっても従来よりも作業性に優れた遠隔操作装置を提供することが可能である。
なお、本開示は上記実施形態に限定されず、例えば以下のような変形例が考えられる。
(1)上記実施形態では、仮想三次元映像(バーチャルリアリティ映像)に実映像g1及び制御情報映像g2をはめ込んだが、本開示はこれに限定されない。必要に応じて仮想三次元映像(バーチャルリアリティ映像)のみを表示部2cに表示してもよい。また、仮想三次元映像(バーチャルリアリティ映像)に実映像g1のみをはめ込んだ映像を表示部2cに表示してもよい。
また、仮想映像生成部2aが、表示部2cから入力される視点指定信号及びセンサ1dから入力される距離検出信号と、予め準備された作業現場の設計情報(CADデータ等)とを組み合わせて、作業現場の仮想三次元映像(バーチャルリアリティ映像)を生成してもよい。なお、作業現場の設計情報を用いることで作業現場の状況が十分に確認できる仮想三次元映像を生成できる場合は、映像合成部2bにおける、仮想映像生成部2aから入力される仮想三次元映像と、センサ1dから入力される作業現場の実映像との合成が行われずともよい。
(2)上記実施形態では、ロボット本体1を移動ロボットとしたが、本開示はこれに限定されない。すなわち、本開示は、作業現場に固定設置されるロボットにも適用可能である。また、本開示は、ロボット本体1が固定設置され、ワークWが移動する作業現場、及びロボット本体1とワークWとがそれぞれ移動する作業現場にも適用可能である。
(3)上記実施形態の仮想三次元映像(バーチャルリアリティ映像)は、ワークW及びロボット本体1のオブジェクト(物体)を少なくとも含んでいるが、本開示はこれに限定されない。作業現場にロボット本体1を遠隔操作する上で必要あるいは重要な物があれば、この物をもオブジェクトとして仮想三次元映像(バーチャルリアリティ映像)に含めてもよい。
(4)上記実施形態では、ヘッドマウントディスプレイ(HMD)を表示部2cとして採用したが、本開示はこれに限定されない。例えば表示部2cが固定型のモニタであってもよい。また、本開示の視点指定部は、モーションセンサ2eに限定されない。例えば操作者が操作部2dを操作することによって仮想三次元映像(バーチャルリアリティ映像)の視点を指定してもよい。すなわち、本開示の視点指定部は、操作者の視点を検出するセンサ等の検出器であってもよい。
本開示は、作業現場における移動ロボットの遠隔操作装置に適用でき、視野が可変可能な遠隔操作装置を提供することができる。
1 ロボット本体(移動ロボット)
1a 移動台車
1b マニピュレータ
1c 作業具
1d センサ
1e ロボットコントローラ
2 遠隔操作装置
2a 仮想映像生成部
2b 映像合成部
2c 表示部
2d 操作部
2e モーションセンサ
g1 実映像
g2 制御情報映像
G 合成映像
F フロア
W ワーク(物体)
T 支持台

Claims (5)

  1. 作業現場における移動ロボットと当該移動ロボットの周囲の物体との距離を検出するセンサと、
    前記作業現場の仮想三次元映像の視点を指定する視点指定部と、
    前記センサの検出結果及び前記視点指定部が指定する視点に基づいて前記仮想三次元映像を生成する仮想映像生成部と、
    前記仮想三次元映像を表示する表示部と、
    前記移動ロボットを遠隔操作する操作信号を生成する操作部と
    を備える、遠隔操作装置。
  2. 前記作業現場の実映像を撮像する撮像部と、
    前記仮想三次元映像と前記実映像とを合成して合成映像を生成する映像合成部とをさらに備え、
    前記表示部は、前記仮想三次元映像に代えて前記合成映像を表示する、請求項1に記載の遠隔操作装置。
  3. 前記映像合成部は、前記合成映像に前記移動ロボットの制御情報をはめ込む、請求項2に記載の遠隔操作装置。
  4. 前記仮想三次元映像は、前記移動ロボットのオブジェクトと前記移動ロボットが作業対象とするワークのオブジェクトとを含む、請求項1〜3のいずれか一項に記載の遠隔操作装置。
  5. 前記表示部は、ヘッドマウントディスプレイであり、
    前記視点指定部は、ヘッドマウントディスプレイに組み込まれたモーションセンサである、請求項1〜4のいずれか一項に記載の遠隔操作装置。
JP2021512029A 2019-03-29 2020-03-27 遠隔操作装置 Pending JPWO2020203819A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019067408 2019-03-29
JP2019067408 2019-03-29
PCT/JP2020/014141 WO2020203819A1 (ja) 2019-03-29 2020-03-27 遠隔操作装置

Publications (1)

Publication Number Publication Date
JPWO2020203819A1 true JPWO2020203819A1 (ja) 2021-10-14

Family

ID=72668118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021512029A Pending JPWO2020203819A1 (ja) 2019-03-29 2020-03-27 遠隔操作装置

Country Status (5)

Country Link
US (1) US20220214685A1 (ja)
JP (1) JPWO2020203819A1 (ja)
CN (1) CN113631325A (ja)
DE (1) DE112020001675B4 (ja)
WO (1) WO2020203819A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10315166A (ja) * 1997-05-22 1998-12-02 Kawasaki Heavy Ind Ltd 注視機能を付加した遠隔視覚提示装置
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2017102242A (ja) * 2015-12-01 2017-06-08 株式会社デンソーウェーブ 情報表示システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224267A (ja) * 1996-02-16 1997-08-26 Olympus Optical Co Ltd 立体映像作成装置及び立体映像表示装置並びにシステム
JP2000042960A (ja) 1998-07-29 2000-02-15 Gifu Prefecture マニピュレータの遠隔操作装置
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
CN101396829A (zh) * 2007-09-29 2009-04-01 株式会社Ihi 机器人装置的控制方法以及机器人装置
DE102012009863B4 (de) 2012-05-21 2018-05-03 Baden-Württemberg Stiftung Ggmbh Fernsteuerung von Robotern
US10442025B2 (en) * 2014-10-22 2019-10-15 Illinois Tool Works Inc. Virtual reality controlled mobile robot
JP2016107379A (ja) 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP6653526B2 (ja) * 2015-04-21 2020-02-26 株式会社ミツトヨ 測定システムおよびユーザインタフェース装置
US10712566B2 (en) 2015-11-26 2020-07-14 Denso Wave Incorporated Information displaying system provided with head-mounted type display
US10322506B2 (en) * 2016-05-06 2019-06-18 Kindred Systems Inc. Systems, devices, articles, and methods for using trained robots
JP6499993B2 (ja) * 2016-05-18 2019-04-10 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
JP6940879B2 (ja) * 2016-11-24 2021-09-29 国立大学法人京都大学 ロボット制御システム、機械制御システム、ロボット制御方法、機械制御方法、およびコンピュータプログラム
DE102016224774B3 (de) 2016-12-13 2018-01-25 Audi Ag Verfahren zur Programmierung eines Messroboters und Programmiersystem
JP6795471B2 (ja) 2017-08-25 2020-12-02 ファナック株式会社 ロボットシステム
US10095977B1 (en) 2017-10-04 2018-10-09 StradVision, Inc. Learning method and learning device for improving image segmentation and testing method and testing device using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10315166A (ja) * 1997-05-22 1998-12-02 Kawasaki Heavy Ind Ltd 注視機能を付加した遠隔視覚提示装置
JP2012171024A (ja) * 2011-02-17 2012-09-10 Japan Science & Technology Agency ロボットシステム
JP2017102242A (ja) * 2015-12-01 2017-06-08 株式会社デンソーウェーブ 情報表示システム

Also Published As

Publication number Publication date
CN113631325A (zh) 2021-11-09
US20220214685A1 (en) 2022-07-07
DE112020001675T5 (de) 2021-12-30
DE112020001675B4 (de) 2023-07-06
WO2020203819A1 (ja) 2020-10-08

Similar Documents

Publication Publication Date Title
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
CN105666505B (zh) 具备扩展现实对应显示器的机器人系统
EP1970169B1 (en) Master-slave manipulator system
EP1985416B1 (en) Mobile robot
US7818091B2 (en) Process and device for determining the position and the orientation of an image reception means
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP5022868B2 (ja) 情報処理装置、情報処理方法
KR20180038479A (ko) 로봇시스템
JP4167954B2 (ja) ロボット及びロボット移動方法
JP6723738B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2004213673A (ja) 強化現実システム及び方法
JP6589604B2 (ja) ティーチング結果表示システム
KR20170016436A (ko) 작업 로봇의 교시 데이터 생성 장치 및 교시 데이터 생성 방법
JPH0421105A (ja) マニピユレータの立体教示装置
JP4277825B2 (ja) ロボットの教示システム
JP2010131751A (ja) 移動型ロボット
WO2020203819A1 (ja) 遠隔操作装置
JP2021065971A (ja) ロボット教示システム、画像生成方法、及びプログラム
JP2020175453A (ja) 遠隔操作装置
JP2000042960A (ja) マニピュレータの遠隔操作装置
JP3376029B2 (ja) ロボットの遠隔操作装置
JPWO2022124398A5 (ja)
KR101975556B1 (ko) 로봇의 관측 시점 제어 장치
KR20160094105A (ko) 로봇 제어 시각화 장치
JP7230626B2 (ja) ロボット装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210720

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220404

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220413

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220419

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220603

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220607

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221004

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230421