JP2017094466A - ロボットモニタシステム - Google Patents

ロボットモニタシステム Download PDF

Info

Publication number
JP2017094466A
JP2017094466A JP2015230572A JP2015230572A JP2017094466A JP 2017094466 A JP2017094466 A JP 2017094466A JP 2015230572 A JP2015230572 A JP 2015230572A JP 2015230572 A JP2015230572 A JP 2015230572A JP 2017094466 A JP2017094466 A JP 2017094466A
Authority
JP
Japan
Prior art keywords
robot
image data
head
operator
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015230572A
Other languages
English (en)
Other versions
JP6582921B2 (ja
Inventor
喜浩 宮越
Yoshihiro Miyakoshi
喜浩 宮越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2015230572A priority Critical patent/JP6582921B2/ja
Priority to US15/362,123 priority patent/US10712566B2/en
Publication of JP2017094466A publication Critical patent/JP2017094466A/ja
Application granted granted Critical
Publication of JP6582921B2 publication Critical patent/JP6582921B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】作業者がロボット本体に背を向けている状態でも、ロボット本体をモニタできるロボットモニタシステムを提供する。【解決手段】カメラ4は、ロボットアーム2の作業領域内に位置する作業者8の位置情報を取得し、付属カメラ6は、前記作業領域内に位置する作業者8の頭部方向を検出するための方向情報としての画像データを出力する。コントローラ3はアーム2の動作を制御すると共に、アーム2を3次元でモデリングした3Dモデル画像データを保持する。デバイス7は、コントローラ3より3Dモデル画像データを取得し、前記作業領域内に作業者8が位置しており且つその作業者8の頭部方向が当該作業者8の視界にアーム2が入らない方向にあると、3Dモデル画像データをその時の作業者8の位置からアーム2を視界に入れた際に見えるアーム2の状態の画像となるように加工してモニタ5の表示部5Dに表示させる。【選択図】図1

Description

本発明は、ロボット本体を画像によりモニタするシステムに関する。
従来、ロボットと人とが共存する設備では、ロボットコントローラが例えばライトカーテンやレーザセンサ等を用いて人が接近したことを検出すると、ロボットアームの動作を停止させたり安全な低速で動作させることで、人の安全を確保するように制御している。
特開2010−231713号公報
しかしながら、作業者がロボットアームに背を向けて作業している状態では、作業者はロボットアームを目視することができない。
本発明は上記事情に鑑みてなされたものであり、その目的は、作業者がロボット本体に背を向けている状態でも、ロボット本体をモニタできるロボットモニタシステムを提供することにある。
請求項1記載のロボットモニタシステムによれば、位置情報取得部は、ロボット本体の作業領域内に位置する作業者の位置情報を取得し、方向情報出力部は、前記作業領域内に位置する作業者の頭部正面が向いている方向である頭部方向を検出するための方向情報を出力する。
表示制御部は、前記作業領域内に作業者が位置しており、且つ方向情報より検出される作業者の頭部方向が当該作業者の視界にロボット本体が入らない方向にあると、前記ロボット本体の画像データを、その時の作業者の位置からロボット本体を視界に入れた際に見えるロボット本体の状態の画像となるように加工して頭部装着型ディスプレイの表示部に投影する。
このように構成すれば、作業者がロボット本体に背を向けていることでロボット本体を直接目視できない状態にあっても、ロボット本体のル画像データが、例えば作業者がその位置からロボット本体側に振り返った際に見えるロボット本体の状態で頭部装着型ディスプレイに投影される。したがって、作業者は、自身の背面側に位置するロボット本体の状態を、頭部装着型ディスプレイに表示された画像により確認できるようになり、作業時の安全性を向上させることができる。
請求項2記載のロボットモニタシステムによれば、表示制御部は、ロボット本体を3次元でモデリングした3Dモデル画像データを前記加工の対象とする。このように構成すれば、作業者は、ロボット本体が3Dモデル画像で表示されることで、自身の背面側に位置するロボット本体の状態をよりリアルに視認できる。
請求項3記載のロボットモニタシステムによれば、表示制御部は、ロボット本体の姿勢情報を取得すると、頭部装着型ディスプレイの表示部に投影する画像データを、その時点の姿勢情報に応じた姿勢の画像データに加工する。このように構成すれば、作業者は、表示部に表示された画像によりその時点のロボット本体の姿勢も認識できる。したがって、安全性をより向上させることができる。
請求項4記載のロボットモニタシステムによれば、表示制御部は、位置情報よりロボット本体と前記作業者との距離を求めると、その距離に応じて頭部装着型ディスプレイの表示部に投影する画像データの大きさを変化させる。このように構成すれば、作業者は、頭部装着型ディスプレイに表示された画像によって、その時点のロボット本体との距離感も認識できるようになり、安全性を更に向上させることができる。
請求項5記載のロボットモニタシステムによれば、方向情報出力部に頭部装着型ディスプレイに配置される撮像器を備え、その撮像器により撮像された画像を処理して作業者の頭部方向を検出する。すなわち、頭部装着型ディスプレイに配置した撮像器によって、作業者の頭部が正面を向いている状態の画像を撮像すれば、その画像により作業者の視界にロボット本体が入っているか否かが分かる。したがって、撮像器により撮像された画像を処理すれば、作業者の頭部方向を容易に検出できる。
一実施形態であり、ロボットモニタシステムの構成を概略的に示す機能ブロック図 カメラによる撮像領域を示す側面図 カメラによる撮像領域を示す平面図 主に眼鏡型モニタデバイス側の処理内容を示すフローチャート 作業者が眼鏡型モニタの表示部を介して見る視界の一例を示す図
以下、一実施形態について説明する。図1は、本実施形態のロボットモニタシステムの構成を概略的に示す機能ブロック図である。このシステム1は、例えば組立用のロボットアーム2,このロボットアーム2を制御するロボットコントローラ3,カメラ4,眼鏡型モニタ5,付属カメラ6及び眼鏡型モニタデバイス7より構成されている。
ロボット本体であるロボットアーム2は、例えば6軸の垂直多関節型ロボットとして構成されている。一般的な構成につき詳しい説明は省略するが、このロボットアーム2は、夫々サーボモータにより駆動される6軸のアームを有し、第6軸アームの先端部に、例えばパレット内に収容されているワークを把持するためのハンド等を備えている。ロボットアーム2は、前記ロボットコントローラ3に図示しない接続ケーブルを介して接続され、前記各軸のサーボモータがこのロボットコントローラ3により制御される。
表示制御部及びロボット側制御装置に対応するロボットコントローラ3は、矩形箱状をなすフレーム内に、何れも図示しない制御回路やサーボ制御部、電源装置等を組込んで構成されている。制御回路はマイコンを主体として構成され、予め記憶された動作プログラムや、図示しないティーチングペンダント等により設定された教示データ、各種パラメータ等に従い、サーボ制御部を介してロボットアーム2の各軸サーボモータを制御し、ロボットアーム2によるワークの組付け作業等を自動で実行させる。
また、ロボットコントローラ3には、上記の制御を行うため、各軸に配置されている図示しないエンコーダからのエンコーダ値が入力されている。更に、ロボットコントローラ3は、ロボットアーム2の形態を3次元的にモデリングしたデータである3Dモデル画像データを内部のメモリに記憶して保持している。
カメラ4は、その撮像領域が少なくともロボットアーム2の作業領域を含むように、例えば図2に示すように、ロボットアーム2の情報から前記作業領域を俯瞰するような位置に設置されている。カメラ4により撮像された画像データは、ロボットコントローラ3に入力される。カメラ4は位置情報取得部に相当し、図3に平面図を示すように、カメラ4の撮像領域内に作業者8が位置している際には、ロボットコントローラ3が入力される画像データを処理することで、ロボットアーム2の位置を原点として、作業者8の位置を示す情報である2次元座標値(x,y)を取得する。
頭部装着型ディスプレイである眼鏡型モニタ5は、図1に示すように、作業者8が頭部に眼鏡として装着するもので、眼鏡のレンズ部分に相当する透明な表示部5Dに、図示しない投影部を介して画像を投影可能な所謂透過型のディスプレイである。眼鏡型モニタ5のフレームの一側部には、方向情報出力部及び撮像器である付属カメラ6が配置されており、作業者7が眼鏡型モニタ5を頭部に装着した状態で、作業者8の頭部正面が向いている方向の画像を撮像する。カメラ4及び6は、例えばCCD(Charge Coupled Device)やCMOSイメージセンサなどで構成されている。
眼鏡型モニタ5は、表示制御部及びディスプレイ側制御装置である眼鏡型モニタデバイス7に無線又は有線で接続されている。眼鏡型モニタデバイス7は、マイクロコンピュータ等を内蔵して構成され、眼鏡型モニタ5の表示部5Dに投影する画像データを送信したり、付属カメラ6により撮像された画像データを受信する。また、眼鏡型モニタデバイス7は、ロボットコントローラ3と有線又は無線通信が可能となっており、ロボットコントローラ3より作業者8の位置情報を含む作業領域の監視情報や、姿勢情報であるロボットアーム2の各軸エンコーダ値,及び上述した3Dモデル画像データを取得する。
次に、本実施形態の作用について図4及び図5も参照して説明する。図4は、主に眼鏡型モニタデバイス7側の処理内容を示すフローチャートである。眼鏡型モニタデバイス7は、先ずロボットコントローラ3との通信を開始して接続すると(S1)、ロボットアーム2の3Dモデル画像データを取得する(S2)。以降のステップS3〜S14の処理は無限ループとなっている。
ステップS4において領域監視情報を取得すると、ロボットアーム2の作業領域内に作業者8が存在するか否かを判断する(S5)。作業者8が存在しておらず「無」と判断するとステップS3に戻る。作業者8が存在しており「有」と判断すると、付属カメラ6より入力される画像データを処理する画像認識を行う(S6)。ここで、前記画像データにロボットアーム2を捉えた画像が含まれており、続くステップS7で「有」と判断した場合は、作業者8の頭部正面は概ねロボットアーム2の方向を向いていると推定されるので「正面判定」とする(S8)。この場合は特段の処理をすることなく、ステップS14に移行する。
一方、ステップS7において、前記画像データにロボットアーム2を捉えた画像が含まれておらず「無」と判断すると、作業者8の頭部正面は概ねロボットアーム2とは反対の方向を向いていると推定されるので「背面判定」とする(S9)。そして、以降のようにロボットアーム2の3Dモデル画像データを加工、眼鏡型モニタ5の表示部5Dに投影する画像データを生成する。
先ず、作業者8が、現在の位置からロボットアーム2を見ようとした場合に、作業者8に見えるロボットアーム2の方向を算出する(S10)。次に、ロボットコントローラ3より各軸のエンコーダ値を取得すると(S11)、3Dモデル画像データにそのエンコーダ値を反映させて、ロボットアーム2が現在とっている姿勢を再現させる。またこの時、作業者8の位置からロボットアーム2の原点位置までの距離が分かるので、その距離に応じて表示させる画像データの大きさを変化させる(S12)。ここでは言うまでもなく、距離が短くなるほど画像データが大きく表示されるように調整する。画像データの大きさを変化させる段階は必ずしも距離の分解能に比例させる必要はなく、例えば距離の長短を複数段階に区切る等して、その段階に応じて変化させても良い。
以上のようにして画像データを生成すると、当該データを眼鏡型モニタ5に送信して表示部5Dに表示させる(S13)。この場合、作業者8が表示部5Dを介して見る視界には、例えば図5に示すように、表示部5Dを透過して見える実景を背景として、表示部5Dの一領域部分に表示されたロボットアーム2の3D画像データが重畳された状態となる。この時、3D画像データを見易くするため、ロボットアーム2の周辺の一定領域が非透明となるように塗り潰すように画像データを生成する。
以上のように本実施形態によれば、眼鏡型モニタデバイス7は、作業者8が頭部に装着している眼鏡型モニタ5の表示部5Dに投影する映像信号,画像データを送信する。カメラ4は、ロボットアーム2の作業領域内に位置する作業者8の位置情報を取得し、付属カメラ6は、前記作業領域内に位置する作業者8の頭部正面が向いている方向である頭部方向を検出するための方向情報としての画像データを出力する。ロボットコントローラ3は、ロボットアーム2の動作を制御すると共に、ロボットアーム2を3次元でモデリングした3Dモデル画像データを保持する。
眼鏡型モニタデバイス7は、ロボットコントローラ3より3Dモデル画像データを取得し、前記作業領域内に作業者8が位置しており、且つその作業者8の頭部方向が当該作業者8の視界にロボットアーム2が入らない方向にあると、3Dモデル画像データをその時の作業者8の位置からロボットアーム2を視界に入れた際に、ロボットアーム2が見える状態の画像となるように加工して眼鏡型モニタ5の表示部5Dに表示させる。
このように構成すれば、作業者8がロボットアーム2に背を向けておりロボットアーム2を直接目視できない状態にあっても、ロボットアーム2の3Dモデル画像データが、作業者8がその位置からロボットアーム2側に振り返った際に見えるロボットアーム2の状態で眼鏡型モニタ5に投影される。したがって、作業者8は、自身の背面側に位置するロボットアーム2の状態を、眼鏡型モニタ5に表示された3D画像によってリアルな状態で確認できるようになり、作業時の安全性を向上させることができる。
また、眼鏡型モニタデバイス7は、ロボットコントローラ3よりロボットアーム2のエンコーダ値を取得し、眼鏡型モニタ5に投影する3Dモデル画像データを、その時点のエンコーダ値に応じた姿勢の画像データに加工する。このように構成すれば、作業者8は、眼鏡型モニタ5に表示された画像によりその時点のロボットアーム2の姿勢も認識できる。したがって、安全性をより向上させることができる。
更に、眼鏡型モニタデバイス7は、位置情報よりロボットアーム2と作業者8との距離を求めると、その距離に応じて眼鏡型モニタ5に投影する3Dモデル画像データの大きさを変化させる。このように構成すれば、作業者8は、眼鏡型モニタ5に表示された画像によって、その時点のロボットアーム2との距離感も認識できるようになり、安全性を更に向上させることができる。
加えて、眼鏡型モニタデバイス7は、眼鏡型モニタ5に配置される付属カメラ6により撮像された画像を処理して作業者8の頭部方向を検出する。すなわち、付属カメラ6によって作業者8の頭部が正面を向いている状態の画像を撮像すれば、その画像により作業者8の視界にロボットアーム2が入っているか否かが分かる。そして、眼鏡型モニタデバイス7が撮像された画像を処理すれば、作業者8の頭部方向を容易に検出できる。
本発明は上記した、又は図面に記載した実施形態にのみ限定されるものではなく、以下のような変形又は拡張が可能である。
ロボット本体の画像データは、3Dモデル画像を生成するものに限らず、2次元的な画像を生成するものでも良い。
ロボット本体はロボットアーム2に限ることなく、その他例えば水平4軸構成のロボットアーム,自走式のロボットや人型のロボットでも良い。
位置情報取得部に、レーザセンサや赤外センサを用いても良い。
カメラ4により撮像される作業者の画像を処理すれば、作業者の頭部が向いている方向を検出できる。したがって、カメラ4に方向情報出力部としての機能を持たせても良いし、カメラ4とは別個のカメラを方向情報出力部として用いても良い。また、これらの画像データを直接、眼鏡型モニタデバイス7に入力しても良い。
表示部5Dに表示させる3Dモデル画像データには、必ずしもロボットアーム2の姿勢を反映させる必要はない。また、画像の大きさを距離に応じて変化させる必要もなく、常に一定の大きさで表示させても良い。
ディスプレイ側制御装置とロボット側制御装置とを一体の制御装置として構成しても良い。この場合の「通信」は、例えばバスを介して制御装置の内部で行えば良い。
表示制御部としての機能は、必ずしもディスプレイ側制御装置とロボット側制御装置とに振り分ける必要はなく、全ての機能を何れか一方の制御装置に持たせても良い。或いは、全ての機能を独立した第3の制御装置に持たせても良い。
頭部装着型ディスプレイは、必ずしも眼鏡型モニタ5である必要はなく、作業者が頭部に装着する表示部に画像を投影可能に構成されるものであれば良い。
図面中、1はロボットモニタシステム、2はロボットアーム、3はロボットコントローラ、4はカメラ、5は眼鏡型モニタ、6は付属カメラ、7は眼鏡型モニタデバイス、8は作業者を示す。

Claims (5)

  1. 作業者が頭部に装着する表示部に、画像を投影可能に構成される頭部装着型ディスプレイと、
    ロボット本体の作業領域内に位置する作業者の位置情報を取得する位置情報取得部と、
    前記作業領域内に位置する作業者の頭部正面が向いている方向である頭部方向を検出するための方向情報を出力する方向情報出力部と、
    前記作業領域内に作業者が位置しており、且つ前記方向情報より検出される前記作業者の頭部方向が当該作業者の視界に前記ロボット本体が入らない方向にあると、前記ロボット本体の画像データを、前記作業者の位置から前記ロボット本体を視界に入れた際に見える状態の画像となるように加工して前記頭部装着型ディスプレイの表示部に投影する表示制御部とを備えるロボットモニタシステム。
  2. 前記表示制御部は、前記ロボット本体を3次元でモデリングした3Dモデル画像データを、前記加工の対象とする請求項1記載のロボットモニタシステム。
  3. 前記表示制御部は、前記ロボット本体の姿勢情報を取得し、
    前記頭部装着型ディスプレイの表示部に投影する画像データを、その時点の姿勢情報に応じた姿勢の画像データに加工する請求項1又は2記載のロボットモニタシステム。
  4. 前記表示制御部は、前記位置情報より前記ロボット本体と前記作業者との距離を求め、前記距離に応じて前記表示部に投影する画像データの大きさを変化させる請求項1から3の何れか一項に記載のロボットモニタシステム。
  5. 前記方向情報出力部は、前記頭部装着型ディスプレイに配置される撮像器を有し、
    前記撮像器により撮像された画像を処理することで前記作業者の頭部方向を検出する請求項1から4の何れか一項に記載のロボットモニタシステム。
JP2015230572A 2015-11-26 2015-11-26 ロボットモニタシステム Active JP6582921B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015230572A JP6582921B2 (ja) 2015-11-26 2015-11-26 ロボットモニタシステム
US15/362,123 US10712566B2 (en) 2015-11-26 2016-11-28 Information displaying system provided with head-mounted type display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015230572A JP6582921B2 (ja) 2015-11-26 2015-11-26 ロボットモニタシステム

Publications (2)

Publication Number Publication Date
JP2017094466A true JP2017094466A (ja) 2017-06-01
JP6582921B2 JP6582921B2 (ja) 2019-10-02

Family

ID=58803099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015230572A Active JP6582921B2 (ja) 2015-11-26 2015-11-26 ロボットモニタシステム

Country Status (1)

Country Link
JP (1) JP6582921B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019188531A (ja) * 2018-04-25 2019-10-31 ファナック株式会社 ロボットのシミュレーション装置
CN111062366A (zh) * 2019-12-30 2020-04-24 中祖建设安装工程有限公司 一种消控室内人员姿态检测方法及系统
JP2021065971A (ja) * 2019-10-23 2021-04-30 ファナック株式会社 ロボット教示システム、画像生成方法、及びプログラム
CN112788142A (zh) * 2021-01-18 2021-05-11 四川中英智慧质量工程技术研究院有限公司 一种支持多传感器接入的智能边缘物联网关
CN112936269A (zh) * 2021-02-04 2021-06-11 珠海市一微半导体有限公司 一种基于智能终端的机器人控制方法
CN114502337A (zh) * 2019-12-13 2022-05-13 川崎重工业株式会社 机器人系统以及工件的三维模型的形成方法
WO2022209578A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 ロボット制御システム、および制御装置
US11978168B2 (en) 2020-04-27 2024-05-07 Fanuc Corporation Display device for industrial machine
JP7517803B2 (ja) 2019-10-23 2024-07-17 ファナック株式会社 ロボット教示システム、画像生成方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
JP2012223831A (ja) * 2011-04-15 2012-11-15 Mitsubishi Electric Corp 衝突回避装置
JP2014164482A (ja) * 2013-02-25 2014-09-08 Tokyo Electron Ltd 支援情報表示方法、基板処理装置の保守支援方法、支援情報表示制御装置、基板処理システム及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
JP2012218120A (ja) * 2011-04-12 2012-11-12 Seiko Epson Corp マニピュレーター動作予告装置、ロボットシステム及びマニピュレーター動作予告方法
JP2012223831A (ja) * 2011-04-15 2012-11-15 Mitsubishi Electric Corp 衝突回避装置
JP2014164482A (ja) * 2013-02-25 2014-09-08 Tokyo Electron Ltd 支援情報表示方法、基板処理装置の保守支援方法、支援情報表示制御装置、基板処理システム及びプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019188531A (ja) * 2018-04-25 2019-10-31 ファナック株式会社 ロボットのシミュレーション装置
CN110394779A (zh) * 2018-04-25 2019-11-01 发那科株式会社 机器人的模拟装置
US11192249B2 (en) 2018-04-25 2021-12-07 Fanuc Corporation Simulation device for robot
JP2021065971A (ja) * 2019-10-23 2021-04-30 ファナック株式会社 ロボット教示システム、画像生成方法、及びプログラム
JP7517803B2 (ja) 2019-10-23 2024-07-17 ファナック株式会社 ロボット教示システム、画像生成方法、及びプログラム
CN114502337A (zh) * 2019-12-13 2022-05-13 川崎重工业株式会社 机器人系统以及工件的三维模型的形成方法
CN114502337B (zh) * 2019-12-13 2024-01-09 川崎重工业株式会社 机器人系统以及工件的三维模型的形成方法
CN111062366A (zh) * 2019-12-30 2020-04-24 中祖建设安装工程有限公司 一种消控室内人员姿态检测方法及系统
CN111062366B (zh) * 2019-12-30 2023-12-15 中祖建设安装工程有限公司 一种消控室内人员姿态检测方法及系统
US11978168B2 (en) 2020-04-27 2024-05-07 Fanuc Corporation Display device for industrial machine
CN112788142A (zh) * 2021-01-18 2021-05-11 四川中英智慧质量工程技术研究院有限公司 一种支持多传感器接入的智能边缘物联网关
CN112788142B (zh) * 2021-01-18 2023-03-28 四川中英智慧质量工程技术研究院有限公司 一种支持多传感器接入的智能边缘物联网关
CN112936269A (zh) * 2021-02-04 2021-06-11 珠海市一微半导体有限公司 一种基于智能终端的机器人控制方法
WO2022209578A1 (ja) * 2021-03-31 2022-10-06 Johnan株式会社 ロボット制御システム、および制御装置

Also Published As

Publication number Publication date
JP6582921B2 (ja) 2019-10-02

Similar Documents

Publication Publication Date Title
JP6582921B2 (ja) ロボットモニタシステム
JP6589604B2 (ja) ティーチング結果表示システム
US9855664B2 (en) Robot safety system
US10712566B2 (en) Information displaying system provided with head-mounted type display
CN105666505B (zh) 具备扩展现实对应显示器的机器人系统
JP5549749B1 (ja) ロボット教示システム、ロボット教示プログラムの生成方法および教示ツール
JP6645142B2 (ja) ロボット安全システム
JP7003633B2 (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
US11148299B2 (en) Teaching apparatus and teaching method for robots
JP7058621B2 (ja) 映像記録装置およびヘッドマウントディスプレイ
US9905016B2 (en) Robot identification system
JP6598191B2 (ja) 画像表示システムおよび画像表示方法
US11393177B2 (en) Information processing apparatus, information processing method, and program
JP6657858B2 (ja) ロボット操作システム
JP2017102242A (ja) 情報表示システム
JP6834620B2 (ja) 情報表示システム
JP2561561B2 (ja) ロボットハンドの遠隔操作システム
KR102679727B1 (ko) 이미지 처리 장치, 시스템, 이미지 처리 방법, 및 이미지 처리 프로그램
CN115514885A (zh) 基于单双目融合的远程增强现实随动感知系统及方法
JP6690203B2 (ja) ロボット安全システム
JP2022122936A (ja) 情報表示システム
JP2018156391A (ja) 情報表示システム
CN111970502A (zh) 一种适用于机器人遥操作的仿人双目随动虚拟现实系统
Kon et al. Development of robot teleoperation system in bad viewing condition
WO2022138340A1 (ja) 安心ビジョン装置、及び安心ビジョンシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190819

R150 Certificate of patent or registration of utility model

Ref document number: 6582921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250