JP2020121351A - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP2020121351A
JP2020121351A JP2019013403A JP2019013403A JP2020121351A JP 2020121351 A JP2020121351 A JP 2020121351A JP 2019013403 A JP2019013403 A JP 2019013403A JP 2019013403 A JP2019013403 A JP 2019013403A JP 2020121351 A JP2020121351 A JP 2020121351A
Authority
JP
Japan
Prior art keywords
robot
image
gaze target
information
wearer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019013403A
Other languages
English (en)
Other versions
JP7000364B2 (ja
Inventor
崇紘 岡元
Takahiro Okamoto
崇紘 岡元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2019013403A priority Critical patent/JP7000364B2/ja
Priority to CN202010059442.9A priority patent/CN111487946B/zh
Priority to DE102020000390.7A priority patent/DE102020000390B4/de
Priority to US16/751,222 priority patent/US11267132B2/en
Publication of JP2020121351A publication Critical patent/JP2020121351A/ja
Application granted granted Critical
Publication of JP7000364B2 publication Critical patent/JP7000364B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40131Virtual reality control, programming of manipulator

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Manufacturing & Machinery (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ユーザがより効率的に所望の情報にアクセス可能な構成を有するロボットシステムを提供する。【解決手段】ロボット10と、ロボット10を制御するロボット制御装置50と、ロボット10及びロボット制御装置50を含む作業空間の現実の映像を取得する映像取得装置91と、視線情報を取得する視線追跡部92を備えた頭部装着型の映像表示装置90とを具備するロボットシステム100である。ロボット制御装置50は、ロボットの制御に用いる情報を物体の種類と関連付けて格納する情報格納部80と、装着者が作業空間において見ている注視対象を、視線情報に基づいて映像の中で特定する注視対象特定部51と、特定された注視対象に対応する物体に関連付けされた情報を、映像表示装置90に、装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、注視対象に並べて表示させる表示処理部53とを備える。【選択図】図2

Description

本発明は、ロボットシステムに関する。
近年、拡張現実(Augmented Reality:AR)技術の産業用ロボットへの応用が期待されている。例えば、特許文献1は、撮像装置を備えたヘッドマウントディスプレイに表示された実環境のロボットの画像上に、ツール先端点におけるジョグ操作の方向を示す操作ガイドを重畳表示するロボットシステムを記載する。特許文献2は、ユーザの注視対象をヘッドマウントディスプレイに備えられた視線追跡装置で認識することで、実環境の映像に重畳して表示されたアプリケーションランチャーを、ユーザが視線をマウスカーソルのように使用して操作するシステムを記載する。
特開2016−107379号公報 特表2017−538218号公報
一般に、ロボットシステムにおいてユーザが教示操作盤の表示部等に表示されたユーザインタフェース画面を介して目的の情報にアクセスするためには、階層的に提示される選択メニューを順次選択して目的の情報を見つけ出す操作を行う必要がある。ユーザがより効率的に所望の情報にアクセス可能な構成を有するロボットシステムが望まれている。
本開示の一態様は、ロボットと、前記ロボットを制御するロボット制御装置と、前記ロボット及び前記ロボット制御装置を含む作業空間の現実の映像を取得する映像取得装置と、装着者の視線情報を取得する視線追跡部を備えた頭部装着型の映像表示装置とを具備し、前記ロボット制御装置は、前記ロボットの制御に用いる情報を、前記作業空間に存在する物体の種類と関連付けて格納する情報格納部と、前記映像表示装置の装着者が前記作業空間において見ている注視対象を、前記視線情報に基づいて前記映像の中で特定する注視対象特定部と、特定された前記注視対象に対応する前記物体に関連付けされた前記情報を、前記映像表示装置に、前記装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、前記注視対象に並べて表示させる表示処理部とを備える、ロボットシステムである。
上記構成によれば、ユーザがより効率的に所望の情報にアクセスすることが可能となる。
添付図面に示される本発明の典型的な実施形態の詳細な説明から、本発明のこれらの目的、特徴および利点ならびに他の目的、特徴および利点がさらに明確になるであろう。
本開示の一実施形態に係るロボットシステムの構成を表す図である。 ロボットシステムの機能ブロック図である。 情報表示処理を表すフローチャートである。 ツール座標系を新たに設定する否かを選択する選択メニューが映像に重畳された表示画面例である。 選択メニューを視線により選択操作する状態を表す図である。 負荷情報に関する内容が表示画面に重畳された表示画面例である。 ツール座標に関する情報が表示画面に重畳された表示画面例である。 ロボットの速度や軌跡に関する情報が映像に重畳された表示画面例である。 ジョグ操作に関連する情報が映像に重畳表示された表示画面例である。 関節の現在位置及び可動域に関する情報が映像に重畳表示された表示画面例である。 進入禁止区域に関する情報が映像に重畳表示された表示画面例である。 電源再投入のための選択メニューが映像に重畳表示された表示画面例である。 運転モード切り替えに関する選択メニューが映像に重畳された表示画面例である。 動作プログラムに動作状態に関する情報が映像に重畳された表示画面例である。 ツール座標系設定処理を説明するための図である。 ツール座標系設定処理を説明するための図である。
次に、本開示の実施形態について図面を参照して説明する。参照する図面において、同様の構成部分または機能部分には同様の参照符号が付けられている。理解を容易にするために、これらの図面は縮尺を適宜変更している。また、図面に示される形態は本発明を実施するための一つの例であり、本発明は図示された形態に限定されるものではない。
図1は本開示の一実施形態に係るロボットシステム100の構成を表す図である。図2は、ロボットシステム100の機能ブロック図である。図1−2に示すようにロボットシステム100は、ロボット10と、ロボット10を制御するロボット制御装置50と、ロボット10及びロボット制御装置50を含む作業空間の現実の映像を取得する映像取得装置91と、装着者の視線情報を取得する視線追跡部92を備えた頭部装着型の映像表示装置90とを具備する。ロボット制御装置50は、ロボット10の制御に用いる情報を、作業空間に存在する物体(ロボット10、ロボット制御装置50及び周辺装置等)の種類と関連付けて格納する情報格納部80と、映像表示装置90の装着者が作業空間において見ている注視対象を、視線情報に基づいて映像の中で特定する注視対象特定部51と、特定された注視対象に対応する物体に関連付けされた情報を、映像表示装置90に、装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、注視対象に並べて表示させる表示処理部53とを備える。本実施形態では、映像取得装置91は、映像表示装置90に一体的に組み込まれているが、これは例示であり、映像取得装置91は映像表示装置90と別体に設けられていても良い。
ロボット10は本実施形態では垂直多関節ロボットであり、アーム先端部にはツール12が装着されている。なお、ロボット10は他のタイプのロボットでも良い。例えば、ロボット10が6軸のロボットである場合、ロボット制御装置50はロボット10から各軸(J1−J6)の位置をロボット10の現在位置を表す情報として取得する。ロボット制御装置50は、CPU、ROM、RAM、記憶装置等を有する一般的なコンピュータとしての構成を有していても良い。
映像表示装置90は、装着者の両眼前部に配置されたディスプレイ94を有し、映像取得装置91により取得された映像をディスプレイ94に表示する。視線追跡部92として、視線を計測する当分野で知られた一般的な構成の装置を用いることができる。一例として、視線追跡部92は、映像表示装置90の装着者の両眼前方の位置に配置された赤外LED及び赤外カメラにより装着者の両眼の角膜反射(基準点)と瞳孔(動点)との位置関係を取得しそれにより視線方向(図1において破線の矢印Eで示す)を求める。映像取得装置91により取得された映像と、視線追跡部92により得られた視線情報はロボット制御装置50に送信される。画像処理部93は、ロボット制御装置50から提供される注視対象に関する情報を、映像取得装置91からの映像内において注視対象に並べて重畳表示する画像処理を実行する。
本実施形態では、映像取得装置91及び視線追跡部92は、映像表示装置90に一体的に設けられており、装着者の頭部に対し位置が固定されている。したがって、視線追跡部92により計測された視線情報(眼球の向き)を用いることにより映像内での装着者の注視対象を特定することができる。ロボット制御装置50は、作業空間内の各物体(ロボット10、ロボット制御装置50及び周辺装置等)をモデル化した物体モデルを格納する物体モデル格納部81を有する。注視対象特定部51は、一例として、物体モデル格納部81に格納された物体モデルを用いた画像認識処理により、映像内での物体の位置及び物体上の注視対象部位を特定しても良い。
ロボット制御装置50は、特徴識別部52と、ツール座標系設定部54とを更に備える。各物体に予め定めた特徴部ごとに該特徴部固有の情報を映像表示装置90に表示可能とするために、情報格納部80は、物体に予め定めた各特徴部に対し特徴部固有の情報を関連付けて格納する。下記表1は、情報格納部90に格納された情報の一例である。下記表1に示されるように、ロボット10に予め定めた特徴部は例えばツール、関節部位であり、ロボット制御装置50に予め定めた特徴部は例えば電源スイッチ、モードスイッチである。各特徴部固有の情報は、特徴部の内部情報や設定情報を含む。
Figure 2020121351
特徴識別部52は、物体モデルと映像及び視線情報とを用いて装着者が注視する特徴部を識別する。特徴識別部52は、例えばロボット10の物体モデルとロボット10の各軸の現在位置とを用い、物体モデルに現在のロボット10の姿勢に対応する姿勢をとらせた上で、パターンマッチングにより映像内でのロボット10の位置を特定し、更に、装着者の注視対象がロボット10に物体の各々に予め設定された複数の特徴部のうちどの特徴部にあるかを識別する。
表示処理部53は、特徴識別部52により識別された特徴部の固有の情報を情報格納部80から取得して映像表示装置90に提供し、ディスプレイ94に表示されている映像にその情報を画像化して重畳表示させる。図1において符号190は、映像表示装置90のディスプレイ94に表示されている画面の例である。
図3は、注視対象に関する情報を装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で映像表示装置90上に表示させる処理(以下、情報表示処理と記す)を表すフローチャートである。図3の情報表示処理は、ロボット制御装置50のCPUによる制御下で実行される。具体的には、注視対象特定部51及び特徴識別部52による注視対象(特徴部)の特定結果を用いて、表示処理部53が注視対象(特徴部)に関する情報を映像中の注視対象に並べて表示させる。ユーザは映像表示装置90を装着し、ロボット制御装置50に対し所定の操作を行い情報表示処理を起動する。はじめに、注視対象特定部51及び特徴識別部52による注視対象の特定ができているか否かが判定される(ステップS1)。注視対象が特定できていない場合、特定ができるまで待機する(ステップS1:NO)。注視対象が特定されると(S1:YES)、注視対象がロボット10のツール12であるか否かが判定される(ステップS2)。
装着者の視線方向Eによる注視点Aがツール12上にあり注視対象がロボット10のツール12であると判定されると(S2:YES)、表示処理部53は、ツール12のツール座標系が設定済か否か、及びツール12に応じた負荷が設定済か否かに応じて、装着者が視覚により、ツール座標系の設定状態の把握、ツール座標系の新規設定又は変更設定、負荷の設定状態の把握、及び負荷の新規設定又は変更設定のうち、少なくともいずれかを実行できる画像を映像表示装置90に表示させる(ステップS6−S8)。
具体的には、装着者がツール12を注視し(S2:YES)、ロボット10が停止中(S3:YES)且つツール座標系が未設定(S4:NO)である場合、表示処理部53は図4に示すようにツール座標系が未設定であるというメッセージ301とツール座標系を新たに設定する否かを選択する選択メニュー302とをディスプレイ94上の映像に重畳して表示させる(ステップS8)。図4において符号201は、ロボット10を含む映像に上記メッセージ301及び選択メニュー302が重畳されたディスプレイ94上の表示画面を表している。
装着者は表示画面201上で選択メニュー302に対する視線による選択を行うことができる(図5)。例えば、ロボット制御装置50は、装着者の注視点Aが選択メニュー302上の「YES」近辺に数秒間滞留した場合に、装着者が「YES」を選択したと判定することができる。ここで装着者が「YES」を選択した場合のツール座標系設定処理については後述する。
ツール座標系が設定済で(S4:YES)且つ負荷設定がなされていない場合(S5:NO)、表示処理部53はステップS7において負荷設定がなされていないこというメッセージ311をディスプレイ94上の映像に重畳して表示させる(図6)。また、このとき表示処理部53は、負荷情報を新規に設定するか否かを視線により選択するための選択メニュー312も表示する。図6において符号202は、ロボット10を含む映像に上記メッセージ311及び選択メニュー312が重畳されたディスプレイ94上の表示画面を表している。ここで、装着者が視線により選択メニュー312上の「YES」を選択した場合には、表示処理部53は負荷設定値を入力するためのユーザインタフェース画面を更に表示しても良い。
ツール座標系が設定されており(S4:YES)且つ負荷設定もなされている場合(S5:YES)、表示処理部53はステップS6においてツール座標系又は負荷情報の現在の設定値321をディスプレイ94上の映像に重畳表示させる(図7)。図7において、符号203は、ロボット10を含む映像にツール座標系の設定値321が重畳表示されたディスプレイ94上の表示画面を表している。また、この表示画面203には、設定値変更の処理に移行、又は負荷情報の表示への移行を指示するための選択メニュー322も表示されている。ここで、装着者が視線により選択メニュー322における「変更」を選択した場合には、後述のツール座標系設定処理に移行する。装着者が視線により選択メニュー322の「負荷情報へ」を選択した場合には、ツール座標系の設定値に替えて負荷情報の設定値が表示される。負荷情報の設定値の表示画像には、負荷情報の設定値を変更する画面に移行するためのメニューが表示される。
ステップS3においてロボット10が動作中であると判断されるとき(S3:NO)、表示処理部53は、装着者が視覚により、ツール12を動かすロボット10の動作情報の把握を実行できる画像を映像表示装置90に表示させる。具体的には、ロボット10が動作中で(S3:NO)且つロボット10が動作プログラムを実行中である場合(S9:YES)、表示処理部53はステップS10においてロボット10の速度や軌跡に関する情報を映像に重畳表示させる(図8)。図8において、符号204は、ロボット10を含む映像にロボット10の速度や軌跡に関する情報331が重畳表示されたディスプレイ94上の表示画面を表している。表示画面204には、動作プログラム名、ロボット10の動作形式、速度オーバライド、教示速度、ツールセンタポイントの速度(TCP速度)を表す文字情報が重畳表示されると共に、ツール先端の動作軌跡T及び教示点Pがグラフィカルに重畳表示されている。
ロボット10が動作中で(S3:NO)且つロボット10が動作プログラムを実行中でない場合(S9:NO)、ロボット制御装置50はロボット10がロボット制御装置50に接続された教示操作盤(不図示)を用いたジョグ操作による動作を実行中であると判断する。この場合、表示処理部53はステップS11においてジョグ操作に関連する情報332を映像に重畳表示させる(図9)。図9において、符号205は、ロボット10を含む映像に、ジョグ操作によるロボット10の動作速度、動作範囲、進行方向が文字及び画像として重畳表示されたディスプレイ94上の表示画面を表している。
装着者の注視対象がロボット10の関節部位である場合(S12:YES)、表示処理部53はステップS13において関節部位の現在位置及び関節可動域に関する情報333を映像に重畳表示させる(図10)。ここでは、装着者の視線Eによる注視点Aが第5番目の関節部位(J5)にあるものとする。図10において、符号206は、ロボット10を含む映像に、第5番目の関節部位の現在位置及び関節可動域に関する情報が文字及び画像として重畳表示されたディスプレイ94上の表示画面を表している。
産業用ロボットでは、ロボットの周囲の環境との干渉を避けるために、ロボットが進入できない領域を定義し、その領域にロボットが進入しようとした場合にロボットを停止させる機能を持つ場合がある。以下ではこのような領域を進入禁止区域と記載する。進入禁止区域の位置に関する情報は、例えばロボット10のベース座標系上での位置として、ロボット制御装置50の情報格納部80に格納されている。ステップS14では、装着者の注視点Aがロボット10ではなくロボット10の周辺環境である場合に(S14:YES)、表示処理部53は周辺領域に進入禁止区域が定義されていれば進入禁止区域に関する情報を映像に重畳表示させる(ステップS15;図11)。図11において、符号207は、ロボット10を含む映像に、進入禁止区域を表す破線Hが画像として重畳表示されたディスプレイ94上の表示画面を表している。
ステップS16−S21では、注視対象特定部51がロボット制御装置50に設けられた選択スイッチを注視対象として特定したときに、表示処理部53は、装着者が視覚により選択スイッチの選択を実行できる画像を映像表示装置90に表示させる。具体的には、装着者の注視対象がロボット制御装置50であり(S16:YES)且つロボット10が停止中である場合(S17:YES)、更に装着者の注視点Aがロボット制御装置50のどの部位であるかが判別される(ステップS18、S20)。装着者の視線Eによる注視点Aが電源スイッチ51近辺にあり注視対象の特徴部が電源スイッチ51であると判断される場合(S18:YES)、表示処理部53はステップS19において電源再投入を行うか否かを選択するための選択メニュー341を映像に重畳表示する(図12)。図12において、符号208は、ロボット制御装置50を含む映像に、選択メニュー341が文字情報として重畳表示された表示装部30上の表示画面を表している。装着者が視線により選択メニュー341上の「YES」を選択した場合には、ロボット制御装置50はロボット10の電源再投入を実行する。
装着者の視線Eによる注視点Aがモード切替スイッチ52近辺にあり注視対象の特徴部がモード切替スイッチ52であると判断される場合(S18:NO、S20:YES)、表示処理部53はステップS21においてロボット制御装置50の現在の運転モードを示すメッセージ351と運転モードを切り替えるための選択メニュー352とを映像に重畳表示する(図13)。図13において、符号209は、ロボット制御装置50を含む映像に、メッセージ351と選択メニュー352とが文字情報として重畳表示されたディスプレイ94上の表示画面を表している。装着者が視線によりT1モード又はT2モードのいずれかを選択した場合、ロボット制御装置50は運転モードを、選択されたモードに切り替える。
装着者がロボット制御装置50上の任意箇所を注視し(S16:YES)ロボット10が停止中である場合(S17:NO)、表示処理部53は動作プログラムの実行状態を表す情報361及びプログラムの一時停止又は再開を選択するための選択メニュー362を映像に重畳表示する(ステップS23;図14)。図14において、符号210は、ロボット制御装置50を含む映像に、動作プログラムの状態を表す情報361及び選択メニュー362が文字情報として重畳表示されたディスプレイ94上の表示画面を表している。選択メニュー362上で装着者が視線により「YES」を選択した場合、ロボット制御装置50は動作プログラムを一時停止させる。
次に、ステップS8(図4)において選択メニュー302の「YES」が選択され、又は、ステップS6(図7)において選択メニュー322の「変更」が選択されることにより実行されるツール座標系設定処理について図15−16を参照して説明する。ツール座標系設定処理は、ロボット制御装置50が有するツール座標系設定部54により実行される。ここで、ツール座標系設定処理とは、ロボット10のアーム先端のフランジ座標系に対し所定の関係を有するツール座標系を設定する処理である。図15に示されるように、ツール先端を複数の方向から見た装着者の視線の交点によってツール先端の位置を推定する。一例として、図15に示すように、装着者に2つの位置からツール先端を注視してもらい、そのときの2つの視線方向E1、E2の交点によりツール先端の位置を求める。
図16は、ツール先端位置を求める具体的な方法を説明するための図である。フランジ座標系をΣF、ロボット10のベース座標系をΣRと定義する。ΣFとΣRの関係はロボット10の現在位置から既知である。ここでは、フランジ座標系ΣF上でのツール先端の座標(x,y,z)を求める。装着者が2つの異なる位置からツール先端を注視した場合の頭部の位置及び姿勢を表す頭部座標系をそれぞれΣH、ΣH’と定義する。ΣH、ΣH’は映像表示装置90に固定された座標系を用いても良い。頭部座標系ΣH、ΣH’は、映像表示装置90に加速度センサ及びジャイロセンサを搭載して求める方法、ARマーカ用いて測定する方法等、当分野で知られた各種位置検出方法を用いることができる。以上により、ΣR、ΣF、ΣH、ΣH’相互の変換は既知となる。次に視線追跡部92によって計測された2つの視線方向E1、E2の始点をそれぞれΣH、ΣH’の原点に設定し、視線方向E1、E2のフランジ座標系ΣF上に定義される任意の平面(例えば、XY平面)との交点をそれぞれ点P、P’とする。この場合、ツール先端の座標(x,y,z)は、線分OPと線分O’P’の交点M、或いは線分OPと線分O’P’の間の距離が最小になる点として求めることができる。これにより、フランジ座標系に対して所定の関係を有するツール座標系を設定することができる。例えば、ツール座標系の原点をツール先端に設定しても良い。
ステップS6−S8、S10、S11、S13、S15、S19、S20(NO)、S21、S23の後、情報表示処理は終了する。なお、これらのステップの後に処理をステップS1に戻して処理を継続するようにしても良い。
以上説明したように、上記実施形態によれば、ユーザは各物体の関心部位を見るのみで当該部位に関する情報の把握、選択又は設定を実行することができる。すなわち、上記実施形態によれば、ユーザがより効率的に所望の情報にアクセスすることが可能となる。
以上、典型的な実施形態を用いて本発明を説明したが、当業者であれば、本発明の範囲から逸脱することなしに、上述の各実施形態に変更及び種々の他の変更、省略、追加を行うことができるのを理解できるであろう。
上述の実施形態において、映像表示装置90は映像取得装置91により取得された映像を表示するディスプレイ94を備えるいわゆる密閉型の構成となっているが、映像表示装置90は透過型のディスプレイを有する構成であっても良い。透過型のディスプレイはハーフミラーで構成され、ディスプレイを装着した装着者の視野に、ロボット制御装置50から提供される注視対象の情報を合成して表示する。
映像表示装置90が透過型のディスプレイを有する構成である場合、映像取得装置91は、映像表示装置90とは別体の装置としてロボット制御装置50に接続されても良い。このような構成の場合には、映像表示装置90に装着者の頭部の位置及び姿勢を検出するセンサ(加速度センサ、ジャイロセンサ等)を設ける。作業空間内の物体の位置は既知である。この場合、注視対象特定部は、映像表示装置90とロボット10等の対象物体との相対位置、装着者の頭部の姿勢、視線情報(眼球の向き)を把握することで、対象物体に向かう装着者の視線ベクトルを求め、映像取得装置により取得される映像内で注視対象を特定する。映像取得装置が取得した映像内での対象物体の位置の特定は、画像認識処理により行う手法、映像取得装置と対象物体の相対位置関係を用いて行う手法等が有り得る。
図2に示した各機能ブロックの配置は例示であり、ロボット制御装置50と映像表示装置90への機能の配分は図2の例に限られない。例えば、映像内の注視対象に並べて各種情報を重畳させる画像処理を行う画像処理部93は、ロボット制御装置50に設けられていても良い。この場合には、各種情報が重畳された映像の信号がロボット制御装置50から映像表示装置90に送信される。また、特徴識別部53は、映像表示装置90に設けられていても良い。この場合、特徴識別部53は、ロボット制御装置50側から取得した又は特徴識別部53内に保有する物体モデルを用いて、映像内の注視点が物体上のどの特徴部にあるか特定する。
注視対象特定部51が物体上の注視対象部位を特定する場合に、注視対象特定部51は装着者の注視点を含む所定の範囲を注視範囲として設定して当該注視範囲に含まれる部位を注視対象部位として特定しても良い。この場合、例えば装着者がロボットのツールの近辺を見ると注視対象部位としてツールが特定されるようになりユーザ利便性を向上させることができる。また、この注視範囲はユーザ設定できるようにしても良い。
図3に示した情報表示処理を実行するプログラムは、コンピュータに読み取り可能な各種記録媒体(例えば、ROM、EEPROM、フラッシュメモリ等の半導体メモリ、磁気記録媒体、CD−ROM、DVD−ROM等の光ディスク)に記録することができる。
10 ロボット
50 ロボット制御装置
51 注視対象特定部
52 特徴識別部
53 表示処理部
54 ツール座標系設定部
80 情報格納部
81 物体モデル格納部
90 映像表示装置
91 映像取得装置
92 視線追跡装置
93 画像処理部
94 ディスプレイ
100 ロボットシステム

Claims (15)

  1. ロボットと、
    前記ロボットを制御するロボット制御装置と、
    前記ロボット及び前記ロボット制御装置を含む作業空間の現実の映像を取得する映像取得装置と、
    装着者の視線情報を取得する視線追跡部を備えた頭部装着型の映像表示装置とを具備し、
    前記ロボット制御装置は、
    前記ロボットの制御に用いる情報を、前記作業空間に存在する物体の種類と関連付けて格納する情報格納部と、
    前記映像表示装置の装着者が前記作業空間において見ている注視対象を、前記視線情報に基づいて前記映像の中で特定する注視対象特定部と、
    特定された前記注視対象に対応する前記物体に関連付けされた前記情報を、前記映像表示装置に、前記装着者が視覚により内容の把握、選択又は設定を実行できる1つの画像の形態で、前記注視対象に並べて表示させる表示処理部とを備える、
    ロボットシステム。
  2. 前記情報格納部は、前記物体に予め定めた特徴部に対し特徴部固有の前記情報を関連付けて格納し、
    前記表示処理部は、前記注視対象に対応する前記特徴部に関連付けされた前記情報を前記映像表示装置に表示させる、請求項1に記載のロボットシステム。
  3. 前記ロボット制御装置又は前記映像表示装置は、前記物体をモデル化した物体モデルと前記映像及び前記視線情報とを用いて前記特徴部を識別する特徴識別部を備える、請求項2に記載のロボットシステム。
  4. 前記注視対象特定部が、前記ロボットの手首フランジに取り付けたツールを前記注視対象として特定したときに、前記表示処理部は、前記ツールのツール座標系が設定済か否か、及び前記ツールに応じた負荷が設定済か否かに応じて、前記装着者が視覚により、前記ツール座標系の設定状態の把握、前記ツール座標系の新規設定又は変更設定、前記負荷の設定状態の把握、及び前記負荷の新規設定又は変更設定のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、請求項1から3のいずれか一項に記載のロボットシステム。
  5. 前記注視対象特定部が、前記ロボットの手首フランジに取り付けたツールを前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により、前記ツールを動かす前記ロボットの動作情報の把握を実行できる前記画像を、前記映像表示装置に表示させる、請求項1から3のいずれか一項に記載のロボットシステム。
  6. 頭部を第1の位置及び姿勢に配置した前記装着者が前記ツールを見たときに得られる第1の前記視線情報と、頭部を前記第1の位置及び姿勢と異なる第2の位置及び姿勢に配置した前記装着者が前記ツールを見たときに得られる第2の前記視線情報と、前記ロボットのベース座標系と、前記ロボットのフランジ座標系と、前記ベース座標系と前記頭部の前記第1の位置及び姿勢との相対関係と、前記ベース座標系と前記頭部の前記第2の位置及び姿勢との相対関係とに基づいて、前記ツール座標系を設定するツール座標系設定部を更に具備する、請求項4又は5に記載のロボットシステム。
  7. 前記注視対象特定部が、前記ロボットの関節部位を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により、前記関節部位の軸位置の把握及び前記関節部位の可動範囲の把握のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、請求項1から6のいずれか一項に記載のロボットシステム。
  8. 前記注視対象特定部が、前記ロボットの進入禁止区域を含む周辺環境の所定箇所を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により前記進入禁止区域の把握を実行できる前記画像を、前記映像表示装置に表示させる、請求項1から7のいずれか一項に記載のロボットシステム。
  9. 前記注視対象特定部が、前記ロボット制御装置に設けられた選択スイッチを前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により前記選択スイッチの選択を実行できる前記画像を、前記映像表示装置に表示させる、請求項1から8のいずれか一項に記載のロボットシステム。
  10. 前記注視対象特定部が、前記ロボット制御装置の任意箇所を前記注視対象として特定したときに、前記表示処理部は、前記装着者が視覚により、前記ロボットの動作プログラムの実行状態の把握及び前記動作プログラムの実行の選択のうち、少なくともいずれかを実行できる前記画像を、前記映像表示装置に表示させる、請求項1から9のいずれか一項に記載のロボットシステム。
  11. 前記ロボット制御装置は、前記ロボットが停止中か否かに応じて、前記表示処理部に前記画像の表示処理を行わせる、請求項1から10のいずれか一項に記載のロボットシステム。
  12. 前記ロボット制御装置又は前記映像表示装置は、前記情報を前記1つの画像の形態に画像化する画像処理部を備える、請求項1から11のいずれか一項に記載のロボットシステム。
  13. 前記映像表示装置は、前記映像取得装置が取得した前記映像を前記情報と共に表示するディスプレイを備え、前記注視対象特定部は、前記装着者が前記ディスプレイで前記映像として見ている前記注視対象を特定する、請求項1から12のいずれか一項に記載のロボットシステム。
  14. 前記映像表示装置は、前記情報を表示する透過型のディスプレイを備え、前記注視対象特定部は、前記装着者が前記透過型のディスプレイを通して見ている現実の前記注視対象を特定する、請求項1から12のいずれか一項に記載のロボットシステム。
  15. 前記映像取得装置は、前記映像表示装置に搭載されているか、又は前記映像表示装置とは別体に設けられている、請求項1から14のいずれか一項に記載のロボットシステム。
JP2019013403A 2019-01-29 2019-01-29 ロボットシステム Active JP7000364B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019013403A JP7000364B2 (ja) 2019-01-29 2019-01-29 ロボットシステム
CN202010059442.9A CN111487946B (zh) 2019-01-29 2020-01-19 机器人系统
DE102020000390.7A DE102020000390B4 (de) 2019-01-29 2020-01-22 Robotersystem
US16/751,222 US11267132B2 (en) 2019-01-29 2020-01-24 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019013403A JP7000364B2 (ja) 2019-01-29 2019-01-29 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2020121351A true JP2020121351A (ja) 2020-08-13
JP7000364B2 JP7000364B2 (ja) 2022-01-19

Family

ID=71524251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019013403A Active JP7000364B2 (ja) 2019-01-29 2019-01-29 ロボットシステム

Country Status (4)

Country Link
US (1) US11267132B2 (ja)
JP (1) JP7000364B2 (ja)
CN (1) CN111487946B (ja)
DE (1) DE102020000390B4 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131068A1 (ja) * 2020-12-14 2022-06-23 ファナック株式会社 拡張現実表示装置、及び拡張現実表示システム
JP7149440B1 (ja) 2022-04-21 2022-10-06 三菱製鋼株式会社 操作装置
JP7288158B1 (ja) * 2022-11-07 2023-06-06 ファナック株式会社 数値制御装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112265000B (zh) * 2020-11-13 2023-12-22 辽宁科技大学 一种弯管内表面磁粒研磨轨迹快速获取的装置及方法
JP2022088884A (ja) * 2020-12-03 2022-06-15 セイコーエプソン株式会社 コンピュータープログラム、及び、ロボットの教示方法
CN113887373B (zh) * 2021-09-27 2022-12-16 中关村科学城城市大脑股份有限公司 基于城市智慧体育的并行融合网络的姿态识别方法和系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP2017102242A (ja) * 2015-12-01 2017-06-08 株式会社デンソーウェーブ 情報表示システム
JP2017104944A (ja) * 2015-12-10 2017-06-15 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2018153874A (ja) * 2017-03-15 2018-10-04 株式会社オカムラ 提示装置、提示方法およびプログラム、ならびに作業システム
JP2018176342A (ja) * 2017-04-11 2018-11-15 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2020069538A (ja) * 2018-10-29 2020-05-07 セイコーエプソン株式会社 表示システム、及び、表示システムの制御方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649061A (en) * 1995-05-11 1997-07-15 The United States Of America As Represented By The Secretary Of The Army Device and method for estimating a mental decision
US6120461A (en) * 1999-08-09 2000-09-19 The United States Of America As Represented By The Secretary Of The Army Apparatus for tracking the human eye with a retinal scanning display, and method thereof
US20040104935A1 (en) * 2001-01-26 2004-06-03 Todd Williamson Virtual reality immersion system
CN101770710A (zh) * 2009-12-31 2010-07-07 哈尔滨工业大学 用于遥控焊接的激光视觉传感辅助遥控示教方法
CN102566523B (zh) * 2010-12-24 2014-12-24 中国科学院深圳先进技术研究院 管家机器人及基于管家机器人的网络控制系统
US8824779B1 (en) * 2011-12-20 2014-09-02 Christopher Charles Smyth Apparatus and method for determining eye gaze from stereo-optic views
JP6292658B2 (ja) * 2013-05-23 2018-03-14 国立研究開発法人理化学研究所 頭部装着型映像表示システム及び方法、頭部装着型映像表示プログラム
US9552060B2 (en) * 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
US10248192B2 (en) 2014-12-03 2019-04-02 Microsoft Technology Licensing, Llc Gaze target application launcher
EP3258876B1 (en) * 2015-02-20 2023-10-18 Covidien LP Operating room and surgical site awareness
JP6540108B2 (ja) * 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
US10712566B2 (en) * 2015-11-26 2020-07-14 Denso Wave Incorporated Information displaying system provided with head-mounted type display
US10956739B2 (en) * 2016-06-27 2021-03-23 Autodesk, Inc. Augmented reality robotic system visualization
JP6445092B2 (ja) * 2017-05-31 2018-12-26 ファナック株式会社 ロボットの教示のための情報を表示するロボットシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP2017102242A (ja) * 2015-12-01 2017-06-08 株式会社デンソーウェーブ 情報表示システム
JP2017104944A (ja) * 2015-12-10 2017-06-15 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
JP2018153874A (ja) * 2017-03-15 2018-10-04 株式会社オカムラ 提示装置、提示方法およびプログラム、ならびに作業システム
JP2018176342A (ja) * 2017-04-11 2018-11-15 川崎重工業株式会社 ロボットシステム及びその運転方法
JP2020069538A (ja) * 2018-10-29 2020-05-07 セイコーエプソン株式会社 表示システム、及び、表示システムの制御方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022131068A1 (ja) * 2020-12-14 2022-06-23 ファナック株式会社 拡張現実表示装置、及び拡張現実表示システム
JP7149440B1 (ja) 2022-04-21 2022-10-06 三菱製鋼株式会社 操作装置
JP2023160061A (ja) * 2022-04-21 2023-11-02 三菱製鋼株式会社 操作装置
JP7288158B1 (ja) * 2022-11-07 2023-06-06 ファナック株式会社 数値制御装置
WO2024100719A1 (ja) * 2022-11-07 2024-05-16 ファナック株式会社 数値制御装置

Also Published As

Publication number Publication date
US11267132B2 (en) 2022-03-08
US20200238536A1 (en) 2020-07-30
CN111487946B (zh) 2024-03-29
DE102020000390A1 (de) 2020-07-30
DE102020000390B4 (de) 2023-07-20
CN111487946A (zh) 2020-08-04
JP7000364B2 (ja) 2022-01-19

Similar Documents

Publication Publication Date Title
JP7000364B2 (ja) ロボットシステム
CN110394780B (zh) 机器人的仿真装置
EP1537959B1 (en) A method and a system for programming an industrial robot
US11850755B2 (en) Visualization and modification of operational bounding zones using augmented reality
JP4167940B2 (ja) ロボットシステム
US6587752B1 (en) Robot operation teaching method and apparatus
EP1435280B1 (en) A method and a system for programming an industrial robot
US7353081B2 (en) Method and a system for programming an industrial robot
US20190163266A1 (en) Interaction system and method
Bolano et al. Transparent robot behavior using augmented reality in close human-robot interaction
EP0743589B1 (en) Interactive image generation method and apparatus
WO2019186551A1 (en) Augmented reality for industrial robotics
Bolano et al. Deploying multi-modal communication using augmented reality in a shared workspace
US20220176555A1 (en) Non-transitory computer-readable storage medium and teaching method for robot
JP6157703B1 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JPH06131442A (ja) 3次元虚像造形装置
Gregg-Smith et al. Investigating spatial guidance for a cooperative handheld robot
JP6140871B1 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
Dinh et al. Augmented reality interface for taping robot
JP2018110871A (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP2018026105A (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP6290493B2 (ja) 情報処理方法、当該情報処理方法をコンピュータに実行させるためのプログラム及びコンピュータ
JP6449922B2 (ja) 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
Matour et al. Towards Intuitive Extended Reality-Based Robot Control and Path Planning: Comparison of Augmented Reality and Mixed Reality-Based Approaches

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200609

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210521

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211223

R150 Certificate of patent or registration of utility model

Ref document number: 7000364

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150