JP2020059112A - ロボット制御装置 - Google Patents

ロボット制御装置 Download PDF

Info

Publication number
JP2020059112A
JP2020059112A JP2018193862A JP2018193862A JP2020059112A JP 2020059112 A JP2020059112 A JP 2020059112A JP 2018193862 A JP2018193862 A JP 2018193862A JP 2018193862 A JP2018193862 A JP 2018193862A JP 2020059112 A JP2020059112 A JP 2020059112A
Authority
JP
Japan
Prior art keywords
robot
display device
display
image
worker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018193862A
Other languages
English (en)
Other versions
JP6885909B2 (ja
Inventor
延宏 吉田
Nobuhiro Yoshida
延宏 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2018193862A priority Critical patent/JP6885909B2/ja
Priority to US16/597,876 priority patent/US11254005B2/en
Priority to CN201910963712.6A priority patent/CN111045354A/zh
Priority to DE102019007091.7A priority patent/DE102019007091A1/de
Publication of JP2020059112A publication Critical patent/JP2020059112A/ja
Application granted granted Critical
Publication of JP6885909B2 publication Critical patent/JP6885909B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • G05B19/0423Input/output
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0004Braking devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/25Pc structure of the system
    • G05B2219/25257Microcontroller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35482Eyephone, head-mounted 2-D or 3-D display, also voice and other control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39091Avoid collision with moving obstacles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】作業者とロボットとの位置関係によらず、ロボットが作業者または他の物体と接触する危険性を軽減できるロボット制御装置を提供する。【解決手段】ロボット制御装置は、作業者が所持または装着する表示機器2に取り付けられ、作業者の周囲の環境を撮影して、その環境の画像を生成する撮像部3と、その環境に含まれる所定のロボットが表示機器2に表示されていない場合、その所定のロボットの一部しか表示されていない場合、または、表示機器2の表示領域に対するその所定のロボットが表された領域の比が所定の閾値以下である場合にその所定のロボットの動作を減速または停止させる制御部22とを有する。【選択図】図2

Description

本発明は、例えば、ロボットを制御するロボット制御装置に関する。
アームなどの可動部を有し、その可動部がサーボモータを用いて駆動されるロボットに実行させる動作を作業者が教示する際、あるいは、そのようなロボットと作業者とが協働作業する際に、作業者とロボットとが接触する可能性がある。そのような接触が、作業者が意図することなく生じると、作業者にとって危険である。そこで、人間を含む画像から抽出される人間に関する所定の情報に基づいて、ロボットについての人間の認識状態を推定し、その推定結果とロボットと人間との接触の予測結果とに基づいて、ロボットの動作を制御する技術が提案されている(例えば、特許文献1を参照)。
特開2016−209991号公報
上記の技術では、視覚センサにより取得された画像に基づいて人間の視認範囲が推定され、人間と接触する可能性のあるロボットの位置が人間の視認範囲内にあるか否かの判断結果に基づいて人間がロボットを認識しているか否かが推定される。しかし、ロボットが設置される環境によっては、ロボットと作業者以外にも、他の装置など、様々な物体が存在することがある。このような場合、視覚センサと人間との位置関係によっては、何らかの物体が視覚センサの撮影範囲を遮ってしまい、視覚センサにより取得された画像に人間の頭部が写っておらず、人間の視認範囲を推定することが困難となる。
一つの側面では、作業者とロボットとの位置関係によらず、ロボットが作業者または他の物体と接触する危険性を軽減できるロボット制御装置を提供することを目的とする。
一つの実施形態によれば、ロボット制御装置が提供される。このロボット制御装置は、作業者が所持または装着する表示機器に取り付けられ、作業者の周囲の環境を撮影して、その環境の画像を生成する撮像部と、その環境に含まれる所定のロボットが表示機器に表示されていない場合、その所定のロボットの一部しか表示されていない場合、または、表示機器の表示領域に対するその所定のロボットが表された領域の比が所定の閾値以下である場合にその所定のロボットの動作を減速または停止させる制御部とを有する。
他の実施形態によれば、ロボット制御装置が提供される。このロボット制御装置は、作業者が装着し、かつ、コンピュータによって生成された情報を、現実の環境に重ね合わせて表示可能な表示機器と、表示機器または作業者の頭部に取り付けられ、表示機器または作業者の頭部の変位量を表す測定信号を出力する変位測定部と、その測定信号に基づいて、作業者が表示機器を通して視認できる視認範囲を推定し、推定した視認範囲に環境に含まれる所定のロボットが含まれるか否かを判定する判定部と、視認範囲にその所定のロボットが含まれない場合にその所定のロボットの動作を減速または停止させる制御部とを有する。
一つの側面によれば、作業者とロボットとの位置関係によらず、ロボットが作業者または他の物体と接触する危険性を軽減することができる。
第1の実施形態によるロボット制御装置の概略構成図である。 ロボット制御処理に関する、プロセッサの機能ブロック図である。 表示機器に表示される画像とロボットの制御との関係の一例を示す図である。 第1の実施形態による、ロボット制御処理の動作フローチャートである。 第2の実施形態によるロボット制御装置に含まれる、表示機器の概略構成図である。 作業者の視認範囲とロボットの位置関係と、ロボットの制御との関係の一例を示す図である。 作業者の視認範囲とロボットの位置関係と、ロボットの制御との関係の他の一例を示す図である。 第2の実施形態によるロボット制御処理の動作フローチャートである。
以下、図を参照しつつ、ロボット制御装置について説明する。このロボット制御装置は、作業者が所持または装着した表示機器のディスプレイに、表示機器に取り付けられたカメラが撮影することにより得られた作業者の周囲の環境が表された画像を表示させる。そしてこのロボット制御装置は、ディスプレイに表示された画像の表示範囲に、ロボット制御装置により制御されるロボットが表されていない場合に、そのロボットの動作を停止させる。あるいは、このロボット制御装置は、作業者が装着した、透過型ディスプレイを有する表示機器に取り付けられた、作業者の頭部の動きを測定するセンサによる測定信号に基づいて、作業者がそのディスプレイを介して視認できる範囲を推定し、推定したその視認できる範囲にロボットが存在しない場合に、そのロボットの動作を停止させる。
このロボット制御装置は、例えば、ロボットに対する教示の際、あるいは、ロボットを運用して何らかの作業を実行する際、または、ロボットに対する保守作業を行う際に適用される。
図1は、第1の実施形態によるロボット制御装置の概略構成図である。ロボット制御装置1は、表示機器2と、カメラ3と、無線通信インターフェース4と、通信インターフェース5と、メモリ6と、プロセッサ7とを有する。このうち、無線通信インターフェース4、通信インターフェース5、メモリ6及びプロセッサ7は、ロボット制御装置1の本体12に収容される。また、無線通信インターフェース4、通信インターフェース5及びメモリ6は、プロセッサ7と信号線を介して互いに通信可能に接続される。さらに、表示機器2及びカメラ3は、それぞれ、例えば、Bluetooth(登録商標)といった所定の無線通信規格に準拠した無線通信により、無線通信インターフェース4を介して本体12と通信可能に接続される。そしてロボット制御装置1は、通信回線13を介してロボット11を制御する。
この例では、ロボット11は、少なくとも一つの軸を有し、その少なくとも一つの軸のそれぞれが、サーボモータ(図示せず)によって駆動されることで、ロボット11の位置及び姿勢が変化する。そしてロボット制御装置1は、作業者の操作、あるいは、予め設定されたロボット11の制御プログラムに従って、ロボット11が所定の位置及び姿勢となるよう、通信回線13を介してサーボモータを制御する。またロボット制御装置1は、サーボモータにより駆動される各軸の回転量などを、通信回線13を介してロボット11から受信することにより、ロボット11の位置及び姿勢を検知する。
表示機器2は、例えば、タブレット端末といった携帯端末、あるいは、作業者の頭部に装着されるヘッドマウントディスプレイを含むウェアラブル端末といった、作業者が所持または装着可能な携帯型の表示機器であり、カメラ3が作業者の周囲の環境を撮影することで得られた画像などを表示する。表示機器2は、携帯端末である場合、例えば、タッチパネルディスプレイと、タッチパネルディスプレイを介した操作に対応する操作信号を生成し、あるいは、本体12から受信した、ロボット11の操作に用いられる、操作アイコンなどの表示用データまたはカメラ3から受け取った画像をタッチパネルディスプレイに表示させるプロセッサと、プロセッサにより生成された操作信号を含む無線信号を生成して本体12へ送信し、あるいは、本体12からの無線信号を受信するための無線通信インターフェースとを有する。なお、タッチパネルディスプレイは、表示部の一例である。
例えば、タッチパネルディスプレイに表示された操作アイコンなどを作業者がタッチすることで、表示機器2のプロセッサが、その操作アイコンに応じた操作(例えば、ロボット11の所定部位を何れかの方向へ移動させる操作、あるいは、所定部位に設定される直交座標系の何れかの軸を回転軸としてロボットを回転させる操作など)を表す操作信号を生成する。また、作業者がタッチパネルディスプレイに対する所定の操作を行うことで、表示機器2のプロセッサは、タッチパネルディスプレイに表示された、カメラ3から得た画像を拡大または縮小表示し、あるいは、カメラ3から得た画像の一部をトリミングしてタッチパネルディスプレイに表示させてもよい。この場合、表示機器2のプロセッサは、タッチパネルディスプレイに表示されている画像の範囲(以下、単に表示範囲と呼ぶ)が変更される度に、その表示範囲を表す情報(例えば、画像上での表示範囲の左上端及び右下端の座標)も無線信号に含めて、本体12へ送信してもよい。なお、表示範囲が予め設定されており、かつ、変更されない場合には、表示機器2は、表示範囲を本体12へ通知しなくてもよい。また、表示機器2がタッチパネルディスプレイに画像全体を表示させる場合には、画像全体が表示範囲となる。
また、表示機器2がウェアラブル端末である場合、表示機器2は、タッチパネルディスプレイの代わりに液晶ディスプレイといった、単に表示を行うディスプレイを有していてもよい。さらに、そのディスプレイは、透過型のディスプレイであってもよい。この場合には、ロボット制御装置1は、本体12と無線通信可能であり、かつ、ロボット11の操作を行うための入力機器(図示せず)を表示機器2と別個に有していてもよい。
なお、以下では、表示機器2が有するタッチパネルディスプレイについても、単にディスプレイと呼ぶことがある。
カメラ3は、撮像部の一例であり、例えば、表示機器2に取り付けられる。例えば、表示機器2が携帯端末である場合、カメラ3は、表示機器2のディスプレイが設けられる面の背面側に取り付けられる。あるいは、カメラ3は、例えば、作業者が表示機器2のディスプレイを見て作業するよう表示機器2を所持したときの表示機器2の上端に、表示機器2の上方を向くように(すなわち、表示機器2のディスプレイが水平となるように作業者が表示機器2を所持したときに、作業者から見て前方を向くように)、表示機器2に取り付けられてもよい。これにより、作業者がロボット11の方を向いていない場合でも、カメラ3は、ロボット11をその撮影範囲に含めることができる。また表示機器2がウェアラブル端末である場合、表示機器2を装着した作業者の正面方向を向くように、カメラ3は取り付けられる。そしてカメラ3は、例えば、表示機器2と通信可能に接続される。カメラ3は、ロボット制御装置1がロボット11を制御している間、所定の撮影周期ごとに、作業者の周囲の環境を撮影してその環境の画像を生成し、生成した画像を表示機器2及び表示機器2を介して無線信号にて本体12へ送信する。
無線通信インターフェース4は、所定の無線通信規格に準じた無線信号の送受信に関する処理を実行するための回路などを含む。そして無線通信インターフェース4は、表示機器2から受信した無線信号に含まれる、操作信号、画像または表示範囲等の情報を取り出して、プロセッサ7へわたす。また無線通信インターフェース4は、プロセッサ7から受け取った、表示機器2に表示させる表示用データなどを含む無線信号を生成し、生成した無線信号を表示機器2へ送信する。
通信インターフェース5は、例えば、ロボット制御装置1を通信回線13と接続するための通信インターフェース及び通信回線13を介した信号の送受信に関する処理を実行するための回路などを含む。そして通信インターフェース5は、例えば、プロセッサ7から受け取った、ロボット11のサーボモータに対するトルク指令値といった制御情報を、通信回線13を介してロボット11へ出力する。また通信インターフェース5は、ロボット11から、通信回線13を介して、サーボモータのフィードバック電流の値、サーボモータにより駆動されるロボット11の軸の回転量を表すエンコーダからのエンコーダ信号など、サーボモータの動作状況を表す情報を受信して、その情報をプロセッサ7へわたす。
メモリ6は、記憶部の一例であり、例えば、読み書き可能な半導体メモリと読み出し専用の半導体メモリとを有する。さらに、メモリ6は、半導体メモリカード、ハードディスク、あるいは光記憶媒体といった記憶媒体及びその記憶媒体にアクセスする装置を有していてもよい。
メモリ6は、プロセッサ7で実行される、ロボット11の制御処理用のコンピュータプログラムなどを記憶する。また、メモリ6は、表示機器2に表示させる、ロボット11の操作用アイコンといったロボット11の操作に用いられる表示用データなどを記憶する。さらに、メモリ6は、ロボット11の動作中においてロボット11から得られるサーボモータの動作状況を表す情報、ロボット制御処理の途中において生成される各種のデータ、及び、カメラ3から得られる画像などを記憶する。
プロセッサ7は、例えば、Central Processing Unit(CPU)及びその周辺回路を有する。さらにプロセッサ7は、数値演算用のプロセッサユニットを有していてもよい。そしてプロセッサ7は、ロボット制御処理を実行する。
図2は、ロボット制御処理に関する、プロセッサ7の機能ブロック図である。プロセッサ7は、判定部21と、制御部22とを有する。プロセッサ7が有するこれらの各部は、例えば、プロセッサ7上で実行されるコンピュータプログラムにより実現される機能モジュールである。あるいは、これらの各部は、プロセッサ7の一部に設けられる専用の演算回路として、プロセッサ7に実装されてもよい。
判定部21は、カメラにより生成された画像を、無線通信インターフェース4を介して受信する度に、表示機器2を介してロボット11が作業者に認識可能な状態になっているか否かを判定する。本実施形態では、判定部21は、受信した画像の表示範囲にロボット11が表されているか否か判定し、受信した画像の表示範囲にロボット11が表されている場合、表示機器2を介してロボット11が作業者に認識可能な状態になっていると判定する。
例えば、判定部21は、ロボット11を検出するように予め学習された識別器に、画像のうちの表示範囲内の各画素の値、または、表示範囲内の各画素の値から算出される、HOG等の特徴量を入力することで、画像の表示範囲内でロボット11が写っている領域を検出する。判定部21は、そのような識別器として、例えば、ニューラルネットワーク、あるいはAdaBoostといった識別器を利用できる。あるいは、判定部21は、ロボット11が表されたテンプレートと画像の表示範囲との相対的な位置を変えながら、テンプレートとその表示範囲との間でテンプレートマッチングを実行することで、画像の表示範囲内でロボット11が写っている領域を検出してもよい。なお、カメラ3とロボット11間の想定される複数の相対的な位置関係のそれぞれについて、その相対的な位置関係においてカメラ3から見えるロボット11の姿勢を表す複数のテンプレートがメモリ6に予め記憶されてもよい。そして判定部21は、それら複数のテンプレートのそれぞれと画像の表示範囲との間でテンプレートマッチングを実行してもよい。また、ロボット11に識別用の何らかのマーカが付されている場合には、テンプレートはそのマーカを表すものであってもよい。この場合には、判定部21は、例えば、マーカを表すテンプレートと画像の表示範囲との間でテンプレートマッチングを実行して、そのマーカが検出できた場合に、ロボット11が表された領域を検出できたと判定してもよい。
なお、判定部21は、画像全体に対して上記の処理を行って、画像にロボット11が表されているか否かを判定してもよい。そして判定部21は、画像全体においてロボット11が表された領域を検出できない場合、あるいは、ロボット11が表された領域が表示範囲から外れている場合に、画像の表示範囲からロボット11が表された領域が検出できなかったと判定してもよい。
判定部21は、画像の表示範囲からロボット11が表された領域が検出できた場合、画像の表示範囲にロボット11が表されていると判定する。一方、判定部21は、画像の表示範囲からロボット11が表された領域が検出できなかった場合、画像の表示範囲にロボット11が表されていない、すなわち、表示機器2を介してロボット11が作業者に認識可能な状態になっていないと判定する。
判定部21は、画像の表示範囲にロボット11が表されているか否かを判定する度に、その判定結果を制御部22へ通知する。
制御部22は、判定部21から、画像の表示範囲にロボット11が表されているか否かの判定結果が通知される度に、その判定結果に応じて、ロボット11の動作を停止させるか否かを制御する。
本実施形態では、制御部22は、通知された判定結果において、画像の表示範囲にロボット11が表されていることが示されている場合、ロボット11の実行中の動作を継続させる。一方、制御部22は、通知された判定結果において、画像の表示範囲にロボット11が表されていないことが示されている場合、通信インターフェース5及び通信回線13を介して、ロボット11の動作を停止させる制御信号をロボット11へ出力して、ロボット11の動作を停止する。
なお、判定部21は、画像の表示範囲にロボット11が表されていないと判定した場合に限り、その判定結果を制御部22へ通知してもよい。そして制御部22は、判定部21から、画像の表示範囲にロボット11が表されていないという判定結果が通知されると、通信インターフェース5及び通信回線13を介して、ロボット11の動作を停止させる制御信号をロボット11へ出力して、ロボット11の動作を停止させてもよい。
また、判定部21は、判定結果とともに、画像上でロボット11が表された領域を制御部22へ通知してもよい。そして制御部22は、画像の表示範囲に対する、画像上でロボット11が表された領域のサイズの比が所定の閾値(例えば、0.2〜0.3)以下である場合も、通信インターフェース5及び通信回線13を介して、ロボット11の動作を停止させる制御信号をロボット11へ出力してもよい。これにより、画像の表示範囲に表されたロボット11があまりにも小さいか、その表示範囲にロボット11の一部しか表されておらず、作業者がロボット11の動作の詳細を確認することが困難な場合も、制御部22は、ロボット11の動作を停止できる。
図3は、表示機器2に表示される画像とロボット11の制御との関係の一例を示す図である。表示機器2のディスプレイに表示される、画像中の表示範囲301のように、その表示範囲301内にロボット11全体が表されている場合、作業者は表示機器2を介してロボット11を視認できるので、ロボット制御装置1は、ロボット11の動作を停止しない。同様に、表示範囲302のように、ロボット11の検出に利用されるマーカ310がその表示範囲302に表されている場合、ロボット制御装置1は、ロボット11の動作を停止しない。一方、表示範囲303のように、ロボット11が表される領域が非常に小さいか、あるいは、表示範囲にロボット11が表されていない場合、作業者は表示機器2を介してロボット11の動作の詳細を確認できないので、ロボット制御装置1は、ロボット11の動作を停止させる。
図4は、第1の実施形態による、ロボット制御処理の動作フローチャートである。プロセッサ7は、例えば、カメラ3により生成された画像を受信する度、下記の動作フローチャートに従ってロボット制御処理を実行する。
判定部21は、カメラ3により生成された画像の表示範囲にロボット11が表されているか否か判定する(ステップS101)。画像の表示範囲にロボット11が表されていない場合(ステップS101−No)、制御部22は、ロボット11の動作を停止させる(ステップS102)。
一方、画像の表示範囲にロボット11が表されている場合(ステップS101−Yes)、制御部22は、ロボット11の実行中の動作を継続させる(ステップS103)。
ステップS102またはS103の後、プロセッサ7は、ロボット制御処理を終了する。
以上に説明してきたように、第1の実施形態によるロボット制御装置は、作業者が所持し、あるいは作業者が装着する表示機器に取り付けられたカメラにより生成された画像のうちの表示機器に表示される範囲内にロボットが表されていない場合に、ロボットの動作を停止させる。そのため、このロボット制御装置は、作業者とロボットとの位置関係によらず、作業者がロボットの動作を確認できない場合にロボットの動作を停止させることができる。その結果として、このロボット制御装置は、ロボットが作業者または他の物体と接触する危険性を軽減することができる。さらに、このロボット制御装置は、表示機器に表示される画像に基づいて、ロボットの動作を停止させるか否かを判定するので、作業者がロボットの方を見ずに、表示機器を見ながら何らかの作業を行っている場合でも、ロボットの動作を停止させるか否かを適切に判定できる。
なお、変形例によれば、一定期間(例えば、1〜3秒間)にわたってカメラ3から受信した各画像について、判定部21がその画像の表示範囲にロボット11が表されていないと判定した場合に、制御部22は、ロボット11の動作を停止させてもよい。これにより、ロボット制御装置1は、作業者が表示機器2に表示された画像の表示範囲においてロボット11を一瞬だけ視認できなくなり、その後直ぐにロボット11を視認できるようになった場合には、ロボット11の動作を継続できるので、ロボット11が頻繁に停止して、作業効率が低下することを防止できる。
なお、環境によっては、同じ形式のロボットが複数設置されており、カメラ3の撮影方向を変更することで、それら複数のロボットの何れかがカメラ3により撮影されることがある。このような場合、画像上に何れかのロボットが表されていたとしても、そのロボットが、ロボット制御装置1により制御されるロボット11とは限らない。
そこで、他の変形例によれば、判定部21は、画像の表示範囲からロボットを検出できた場合に、その検出されたロボットが、ロボット制御装置1により制御されるロボット11か否かを判定してもよい。そして判定部21は、検出されたロボットが、ロボット制御装置1により制御されるロボット11であることを確認できた場合に限り、画像の表示範囲にロボット11が表されていると判定してもよい。
この場合、例えば、ロボットごとに、そのロボットを他のロボットと区別するためのロボット識別情報を含むマーカ(識別マーカ)が取り付けられる。マーカは、例えば、QRコード(登録商標)、バーコード、あるいは、識別番号が記載されたマーカであってよい。
判定部21は、画像の表示範囲からロボットが表された領域が検出された場合、その領域からマーカが表されたマーカ領域を検出する。そのために、判定部21は、例えば、ロボットを検出する場合と同様に、マーカを検出するように予め学習された識別器に、ロボットが表された領域あるいはその領域から抽出された特徴量を入力することで、マーカ領域を検出する。判定部21は、そのような識別器として、例えば、ニューラルネットワーク、あるいはAdaBoostといった識別器を利用できる。あるいは、判定部21は、マーカが表されたテンプレートとロボットが表された領域との相対的な位置を変えながら、テンプレートとロボットが表された領域との間でテンプレートマッチングを実行することで、ロボットが表された領域内でマーカ領域を検出してもよい。そして判定部21は、マーカ領域に対してマーカに表されたロボット識別情報を解析するための処理を実行することで、マーカに表されたロボット識別情報を読み取る。例えば、マーカがQRコードあるいはバーコードである場合には、判定部21は、QRコードまたはバーコード読み取り用の処理を実行し、マーカに識別番号が記載されている場合には、所定の文字認識処理を実行すればよい。そして判定部21は、読み取ったロボット識別情報に表されるロボットの識別番号が、メモリ6に予め記憶されている、ロボット制御装置1が制御するロボット11の識別番号と一致するか否か判定する。ロボット識別情報に表されるロボットの識別番号が、ロボット制御装置1が制御するロボット11の識別番号と一致する場合、判定部21は、画像の表示範囲に表されているロボットが、ロボット制御装置1が制御するロボット11であると判定する。一方、ロボット識別情報に表されるロボットの識別番号が、ロボット制御装置1が制御するロボット11の識別番号と一致しない場合、判定部21は、画像の表示範囲に表されているロボットは、ロボット制御装置1が制御するロボット11でないと判定する。
あるいは、判定部21は、作業者の指示によるロボットの動作と、カメラ3により生成された時系列の一連の画像の表示範囲に表されたロボットの動作とが異なる場合に、判定部21は、画像の表示範囲にロボット11が表されていない、すなわち、表示機器2を介してロボット11が作業者に認識可能な状態になっていないと判定してもよい。この場合には、例えば、作業者が表示機器2あるいは入力機器を介してロボット11に所定の動作をさせる操作を行ってから一定期間内にカメラ3により生成された時系列の一連の画像のそれぞれから、判定部21は、その所定の動作で移動するロボットの部位(例えば、ロボットのアームの先端)を検出する。そして判定部21は、その一連の画像のそれぞれにおける、その部位の位置を結ぶ、その部位の移動軌跡を求める。その移動軌跡に沿った部位の移動量が所定の閾値未満である場合、画像の表示範囲に表されたロボットの所定の部位は、指示した操作に応じて移動していないと考えられる。そこで判定部21は、画像の表示範囲に表されているロボットは、ロボット制御装置1が制御するロボット11でないと判定する。
また、第2の実施形態に関連して詳細は後述するように、表示機器2に、表示機器2の動きを測定するためのジャイロセンサなどのセンサが設けられ、そのセンサによる測定信号に基づいて表示機器2とロボット11との相対的な位置関係が推定可能である場合には、判定部21は、作業者が指示した操作に応じたロボット11の所定の部位の移動軌跡を画像上に仮想的に投影してもよい。そして判定部21は、仮想的に投影された移動軌跡と、一連の画像から求められた移動軌跡とを比較することで、画像の表示範囲に表されているロボットが、ロボット制御装置1が制御するロボット11か否かを判定してもよい。この場合、判定部21は、表示機器2とロボット11との相対的な位置関係に基づいて、実空間上の所定の基準点を原点として設定されるワールド座標系で表される、作業者が指示した操作に応じたロボット11の所定の部位の移動軌跡を、カメラ3を基準とするカメラ座標系での移動軌跡に変換する。そして判定部21は、カメラ座標系での移動軌跡に対して投影処理を実行することで、作業者が指示した操作に応じたロボット11の所定の部位の移動軌跡を、画像上に仮想的に投影すればよい。そして、仮想的に投影された移動軌跡上の何れかの点について、一連の画像から求められた移動軌跡からの距離が所定の閾値以上である場合、画像の表示範囲に表されたロボットの所定の部位の動作は、指示した操作に応じた動作とは異なると考えられる。そこで判定部21は、画像の表示範囲に表されているロボットは、ロボット制御装置1が制御するロボット11でないと判定すればよい。
さらに、表示機器2に、カメラ3とは別個に、あるいは、カメラ3の代わりに、表示機器2の周囲の物体までの距離を測定して、その距離を表す距離画像を生成する3Dセンサ(図示せず)が設けられてもよい。この3Dセンサは、撮像部の他の一例である。この場合には、例えば、作業者が表示機器2あるいは入力機器を介してロボット11に所定の動作をさせる操作を行ってから一定期間内に3Dセンサにより生成された複数の距離画像のそれぞれから、判定部21は、その所定の動作で移動するロボットの部位を検出する。その際、判定部21は、例えば、カメラ3により得られた画像上のその部位の位置と、カメラ3と3Dセンサとの位置関係に基づいて、距離画像上でのその部位の位置を特定してもよい。あるいは、判定部21は、距離画像上でのその部位を表すテンプレートと距離画像との間でテンプレートマッチングを実行することで、その部位の位置を特定してもよい。そして、その一定期間の最初の距離画像で表される、その部位までの距離と、その一定期間内の各距離画像で表される、その部位までの距離との差の絶対値が所定の閾値未満である場合、画像の表示範囲に表されたロボットの所定の部位は、指示した操作に応じて移動していないと考えられる。そこで判定部21は、画像の表示範囲に表されているロボットは、ロボット制御装置1が制御するロボット11でないと判定すればよい。
あるいは、判定部21は、ある時点の距離画像から検出したロボットの所定の部位の位置及び姿勢と、通信インターフェース5を介してロボット11から取得したエンコーダ信号などからもとめられるロボット11の各軸の位置情報とに基づいて、ある時点のロボット11の原点位置を計算する。また、判定部21は、ある時点から所定時間経過後に得られた距離画像から検出したロボットの所定の部位の位置及び姿勢と、通信インターフェース5を介してロボット11から取得したエンコーダ信号などからもとめられるロボット11の各軸の位置情報とに基づいて、ある時点から所定時間経過後のロボット11の原点位置を計算する。そして判定部21は、ある時点のロボット11の原点位置と、ある時点から所定時間経過後のロボット11の原点位置との差が所定の閾値以上であれば、画像の表示範囲に表されているロボットは、ロボット制御装置1が制御するロボット11でないと判定してもよい。
なお、画像の表示範囲に複数のロボットが表されている場合、判定部21は、その複数のロボットごとに上記の処理を実行すればよい。そして複数のロボットの何れもが、ロボット制御装置1が制御するロボット11と異なる場合、判定部21は、画像の表示範囲にロボット11が表されていないと判定すればよい。
次に、第2の実施形態によるロボット制御装置について説明する。第2の実施形態によるロボット制御装置は、表示機器が透過型ディスプレイと、作業者の頭部の動きを計測するセンサとを有し、そのセンサにより得られた、作業者の頭部の変位量を表す測定信号に基づいて、作業者がそのディスプレイを介して視認できる範囲を推定し、推定した視認範囲にロボットが存在しない場合に、そのロボットの動作を停止させる。
第2の実施形態によるロボット制御装置は、第1の実施形態によるロボット制御装置と比較して、表示機器の構成及びロボット制御装置のプロセッサの処理に関して相違する。そこで以下では、その相違点及び関連部分について説明する。それ以外のロボット制御装置の構成要素については、上記の第1の実施形態における対応する構成要素の説明を参照されたい。
図5は、第2の実施形態によるロボット制御装置に含まれる、表示機器の概略構成図である。第2の実施形態による表示機器30は、コンピュータによって生成された情報を、現実の環境に重ね合わせて表示可能な表示機器の一例であり、例えば、ヘッドマウント型または眼鏡装着型のウェアラブル端末であり、透過型ディスプレイ31と、センサ32と、無線通信インターフェース33と、メモリ34と、プロセッサ35とを有する。さらに、表示機器30は、表示機器30が作業者の頭部または眼鏡に装着されたときに透過型ディスプレイ31が作業者の視野と重なるように配置されるようにするための装着部材(図示せず)を有する。そして表示機器30には、カメラ3が、表示機器30を装着した作業者の正面方向を向くように取り付けられる。カメラ3、透過型ディスプレイ31、センサ32、無線通信インターフェース33及びメモリ34は、信号線を介してプロセッサ35と通信可能に接続される。
透過型ディスプレイ31は、例えば、液晶ディスプレイで構成され、プロセッサ35から受信した各種の表示用データを、作業者の視野に重畳して表示する。
センサ32は、変位測定部の一例であり、一定の周期ごとに、表示機器30または作業者の頭部の動きを測定し、表示機器30または頭部の変位量を表す測定信号をプロセッサ35へ出力する。センサ32には、例えば、ジャイロセンサ、加速度センサ、あるいは、表示機器30または作業者の頭部の動きを測定することができる他のセンサのうちの少なくとも一つが含まれる。なお、センサ32は、表示機器30とは別個に作業者の頭部に取り付けられてもよい。
無線通信インターフェース33は、所定の無線通信規格に準じた無線信号の送受信に関する処理を実行するための回路などを含む。そして無線通信インターフェース33は、プロセッサ35から受信した、カメラ3により得られた画像またはセンサ32により得られた測定信号などを含む無線信号を生成し、生成した無線信号を本体12へ送信する。また、無線通信インターフェース33は、本体12から受信した無線信号に含まれる、表示機器2に表示させる表示用データなどを取り出して、プロセッサ35へわたす。
メモリ34は、例えば、読み書き可能な半導体メモリと読み出し専用の半導体メモリとを有する。そしてメモリ34は、例えば、センサ32から受信した測定信号、カメラ3から受信した画像、あるいは表示用データなどを一時的に記憶する。さらに、メモリ34は、プロセッサ35による処理で用いられる各種のデータを記憶してもよい。
プロセッサ35は、例えば、Central Processing Unit(CPU)及びその周辺回路を有する。さらに、プロセッサ35は、グラフィック処理用のプロセッサユニットを有していてもよい。そしてプロセッサ35は、受信した無線信号から取り出された表示用データなどを透過型ディスプレイ31に表示させる。またプロセッサ35は、カメラ3から受信した画像、あるいは、センサ32から受信した測定信号を無線通信インターフェース33へわたす。
本実施形態では、プロセッサ7は、ロボット制御処理に先立って、表示機器30とロボット11との相対的な位置関係をもとめるためのキャリブレーション処理を実行する。キャリブレーション処理では、先ず、作業者が表示機器30を装着して、透過型ディスプレイ31を介して、所定の姿勢にて停止した状態のロボット11を視認できる状態で、カメラ3によりロボット11が撮影される。そしてロボット11が表された画像が、表示機器30から無線信号にて本体12へ送信される。
プロセッサ7は、表示機器30とロボット11間の想定される相対的な位置関係のそれぞれに対応する複数のテンプレートと受信した画像との間でテンプレートマッチング処理を実行することで、複数のテンプレートのうち、受信した画像と最も一致するテンプレートとを特定する。なお、複数のテンプレートは、例えば、メモリ6に予め記憶される。そしてプロセッサ7は、特定したテンプレートに対応する、表示機器30とロボット11間の相対的な位置関係を、表示機器30とロボット11間のロボット制御処理開始時の相対的位置としてメモリ6に記憶する。なお、この相対的位置は、例えば、ロボット11の設置位置または実空間上の他の基準点を原点とするワールド座標系における、ロボット11及び表示機器30のそれぞれの位置、及び、作業者の顔の向きとして表される。なお、画像上の各画素は、カメラ3から見た方向と1対1に対応するので、特定したテンプレートと一致した画像上の領域の重心の位置により、カメラ3からロボット11へ向かう方向が分かる。そこで、プロセッサ7は、特定したテンプレートと一致した画像上の領域の重心の位置と、カメラ3と作業者の頭部の向きの関係から、ロボット制御処理開始時の作業者の頭部の向きをもとめることができる。
さらに、プロセッサ7は、ロボット11の所定の姿勢における、通信インターフェース5を介してロボット11から受信した、エンコーダ信号などのサーボモータの動作状況を表す情報をメモリ6に記憶してもよい。
なお、ロボット11と同形式の複数のロボットが設置されている場合には、プロセッサ7は、上述した第1の実施形態の変形例において説明した、画像に表されたロボットが、ロボット制御装置1により制御されるロボット11か否かを判定する処理と同様の処理を実施して、画像に表されたロボットがロボット11であることを確認してから、キャリブレーション処理を実行してもよい。
ロボット制御処理が開始されると、プロセッサ7の判定部21は、表示機器30から測定信号を受信する度に、ロボット11が作業者に認識可能な状態となっているか否かを判定する。本実施形態では、判定部21は、作業者が透過型ディスプレイ31を介して視認可能な視認範囲にロボット11が含まれるか否か判定し、その視認可能な視認範囲にロボット11が含まれる場合、ロボット11が作業者に認識可能な状態となっていると判定する。そのために、判定部21は、キャリブレーション処理の実施以降に表示機器30から受信した無線信号に含まれる測定信号に基づいて作業者の頭部の動きを推定することで視認範囲を推定する。例えば、判定部21は、測定信号が得られる度に、前回の測定信号受信時から最新の測定信号受信時までの作業者の頭部の位置及び向きの変位量を算出する。例えば、測定信号が、表示機器30または作業者の頭部の角加速度または加速度を表していれば、判定部21は、その角加速度または加速度を2階積分することで、作業者の頭部の位置及び向きの変位量を算出できる。そして判定部21は、キャリブレーション処理の実施以降の作業者の頭部の位置及び向きの変位量の総和を求めることで、最新の測定信号受信時の作業者の頭部の位置及び向きを推定できる。さらに、表示機器30が作業者に装着されたときの作業者の目と透過型ディスプレイ31間の距離、及び、透過型ディスプレイ31の表示領域のサイズにより、作業者が透過型ディスプレイ31を介して視認できる視認可能範囲が決まる。この視認可能範囲は、例えば、作業者の正面方向を基準とする水平方向及び垂直方向の角度範囲で表され、メモリ6に予め記憶される。そこで、判定部21は、推定された、最新の測定信号受信時の作業者の頭部の位置及び向きとその視認可能範囲とにより、ワールド座標系で表される、最新の測定信号受信時の作業者の視認範囲を推定できる。
さらに、判定部21は、最新の測定信号受信時における、ロボット11からのエンコーダ信号から、最新の測定信号受信時における、ロボット11の位置及び姿勢を推定できる。そして判定部21は、最新の測定信号受信時における、作業者の視認範囲とロボット11の位置及び姿勢を比較することで、作業者の視認範囲にロボット11が含まれるか否かを判定できる。なお、判定部21は、作業者の視認範囲にロボット11全体が含まれる場合だけでなく、ロボット11の所定の部位(例えば、ロボット11の各アーム、先端あるいは先端に取り付けられたツール)の少なくとも一つが含まれる場合も、作業者の視認範囲にロボット11が含まれると判定してもよい。
判定部21は、作業者の視認範囲にロボット11が含まれるか否かを判定する度に、その判定結果を制御部22へ通知する。
制御部22は、判定部21から作業者の視認範囲にロボット11が含まれるか否かの判定結果を受信する度に、その判定結果に基づいて、ロボット11の動作を停止させるか否かを判定する。すなわち、制御部22は、作業者の視認範囲にロボット11が含まれる場合、ロボット11の動作を継続させる。一方、作業者の視認範囲にロボット11が含まれない場合、制御部22は、通信インターフェース5及び通信回線13を介して、ロボット11の動作を停止させる制御信号をロボット11へ出力する。
なお、判定部21は、作業者の視認範囲にロボット11が含まれていないと判定したときに限り、その判定結果を制御部22へ通知してもよい。そして制御部22は、判定部21から、作業者の視認範囲にロボット11が含まれていないという判定結果が通知されると、通信インターフェース5及び通信回線13を介して、ロボット11の動作を停止させる制御信号をロボット11へ出力してもよい。
図6A及び図6Bは、それぞれ、作業者の視認範囲とロボット11の位置関係と、ロボット11の制御との関係の一例を示す図である。図6Aに示されるように、作業者600が表示機器30の透過型ディスプレイを介して視認できる視認範囲601にロボット11が含まれている場合、作業者は表示機器30を介してロボット11を視認できるので、ロボット制御装置1は、ロボット11の動作を停止しない。一方、図6Bに示されるように、作業者600が表示機器30の透過型ディスプレイを介して視認できる視認範囲602にロボット11が含まれていない場合、作業者600は表示機器30を介してロボット11を視認できないので、ロボット制御装置1は、ロボット11の動作を停止させる。
図7は、第2の実施形態によるロボット制御処理の動作フローチャートである。プロセッサ7は、例えば、センサ32により生成された測定信号を受信する度、下記の動作フローチャートに従ってロボット制御処理を実行する。
判定部21は、受信した測定信号に基づいて、作業者が表示機器30の透過型ディスプレイ31を介して視認できる視認範囲を推定する(ステップS201)。そして判定部21は、その視認範囲にロボット11が含まれるか否か判定する(ステップS202)。作業者の視認範囲にロボット11が含まれていない場合(ステップS202−No)、制御部22は、ロボット11の動作を停止させる(ステップS203)。
一方、作業者の視認範囲にロボット11が含まれる場合(ステップS203−Yes)、制御部22は、ロボット11の実行中の動作を継続させる(ステップS204)。
ステップS203またはS204の後、プロセッサ7は、ロボット制御処理を終了する。
以上に説明してきたように、第2の実施形態によるロボット制御装置は、作業者が装着する表示機器の透過型ディスプレイを介して視認できる視認範囲にロボットが含まれない場合に、ロボットの動作を停止させる。そのため、第2の実施形態によるロボット制御装置も、作業者とロボットとの位置関係によらず、作業者がロボットの動作を確認できない場合にロボットの動作を停止させることができる。その結果として、このロボット制御装置は、ロボットが作業者または他の物体と接触する危険性を軽減することができる。
なお、変形例によれば、一定期間(例えば、1〜3秒間)にわたって、判定部21が作業者の視認範囲にロボット11が含まれていないと判定した場合に、制御部22は、ロボット11の動作を停止させてもよい。これにより、ロボット制御装置1は、作業者の視認範囲から一瞬だけロボット11が外れ、その後直ぐにロボット11が視認範囲に含まれるようになった場合には、ロボット11の動作を継続できるので、ロボット11が頻繁に停止して、作業効率が低下することを防止できる。
他の変形例によれば、キャリブレーション処理の実行時において、プロセッサ7は、表示機器30とロボット11間の想定される相対的な位置関係のそれぞれに対応する複数のテンプレートを無線信号に含めて表記機器30へ送信してもよい。そして表示機器30のプロセッサ35は、受信した複数のテンプレートを透過型ディスプレイ31に順次表示する。作業者は、各テンプレートのうち、表示されたテンプレートとロボット11とを重ね合わせてみたときに、ロボット11と最も一致するテンプレートを選択する操作を、例えば、入力機器(図示せず)を介して実行する。これにより、プロセッサ7は、作業者により選択されたテンプレートに対応する相対的な位置を、表示機器30とロボット11間のロボット制御処理開始時の相対的位置とすればよい。
あるいは、キャリブレーション処理の実行時において、プロセッサ7は、表示機器30とロボット11間の想定される相対的な位置関係に対応する一つのテンプレートを無線信号に含めて表記器30へ送信してもよい。そして表示機器30のプロセッサ35は、受信したテンプレートを透過型ディスプレイ31に表示する。作業者は、表示されたテンプレートとロボット11とを重ね合わせてみたときに、ロボット11とテンプレートとが一致するように移動し、ロボット11とテンプレートとが一致したときに、そのことを表す操作を、例えば、入力機器(図示せず)を介して実行してもよい。これにより、プロセッサ7は、テンプレートに対応する相対的な位置を、表示機器30とロボット11間のロボット制御処理開始時の相対的位置とすればよい。
この変形例によれば、カメラ3は省略されてもよい。
また他の変形例によれば、カメラ3の代わりに、3Dセンサが表示機器30に取り付けられてもよい。この場合、キャリブレーション処理の実行時に、表示機器30は、3Dセンサにより生成された距離画像を含む無線信号を本体12へ送信する。そしてプロセッサ7は、受信した無線信号に含まれる距離画像からロボット11またはロボット11の所定の部位を検出する処理(例えば、識別器を用いた検出処理またはテンプレートマッチング)を実行して、距離画像上でのロボット11または所定の部位が表された領域を特定することで、表示機器30とロボット11間の相対的な位置を検出してもよい。すなわち、プロセッサ7は、特定された領域の重心に対応する方向を、表示機器30からロボット11へ向かう方向とし、その領域内の各画素の値の平均値で表される距離を、表示機器30とロボット11間の距離とすることができる。
さらに他の変形例によれば、制御部22は、作業者が装着する表示機器30の透過型ディスプレイ31を介して視認できる視認範囲にロボット11が含まれていても、作業者とロボット11間の距離が所定の下限値以下の場合、ロボット11の動作を停止させてもよい。これにより、ロボット制御装置1は、作業者とロボット11とが近付き過ぎている場合にロボット11が作業者と衝突する危険性を軽減できる。また、制御部22は、作業者が装着する表示機器30の透過型ディスプレイ31を介して視認できる視認範囲にロボット11が含まれていても、作業者とロボット11間の距離が所定の上限値以上の場合も、ロボット11の動作を停止させてもよい。これにより、ロボット制御装置1は、作業者とロボット11とが離れすぎていて、ロボット11の動作の詳細の確認が困難な場合にロボット11の動作を停止させて、ロボット11が他の物体と衝突する危険性を軽減できる。
さらに、上記の各実施形態または変形例において、制御部22は、表示機器または表示機器の透過型ディスプレイを介してロボット11が作業者に認識可能な状態になっていないと判定された場合、すなわち、ロボット11が表示機器30に表示されていないか、ロボット11の一部しか表示機器30に表示されていない場合、あるいは、表示機器30の表示領域に対するロボット11が表された領域の比が所定の閾値以下である場合若しくは推定された視認範囲にロボット11が含まれない場合に、通信インターフェース5及び通信回線13を介して、ロボット11の動作を減速させる制御信号をロボット11へ出力してもよい。
なお、上記の各実施形態またはその変形例において、判定部21及び制御部22のうちの両方の処理、あるいは、判定部21の処理は、表示機器2が有するプロセッサにより実行されてもよい。また、無線通信インタフェース4、33は、有線通信インタフェースにより代替されてもよい。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
1 ロボット制御装置
2、30 表示機器
3 カメラ
4、33 無線通信インターフェース
5 通信インターフェース
6 メモリ
7、35 プロセッサ
11 ロボット
12 本体
13 通信回線
21 判定部
22 制御部
31 透過型ディスプレイ
32 センサ
34 メモリ

Claims (4)

  1. 作業者が所持または装着する表示機器に取り付けられ、前記作業者の周囲の環境を撮影して、当該環境の画像を生成する撮像部と、
    前記環境に含まれる所定のロボットが前記表示機器に表示されていない場合、前記ロボットの一部しか表示されていない場合、または、前記表示機器の表示領域に対する前記ロボットが表された領域の比が所定の閾値以下である場合に前記ロボットの動作を減速または停止させる制御部と、
    を有するロボット制御装置。
  2. 前記ロボットには、前記ロボットを識別するための識別マーカが付され、
    前記表示機器に表示された画像から、前記ロボットを示す前記識別マーカを検出できない場合、前記制御部は前記ロボットの動作を減速または停止させる、請求項1に記載のロボット制御装置。
  3. 前記表示機器に表示されたロボットの動作と、前記所定のロボットについて指示された動作とが異なる場合、前記制御部は前記ロボットの動作を減速または停止させる、請求項1または2に記載のロボット制御装置。
  4. 作業者が装着し、かつ、コンピュータによって生成された情報を、現実の環境に重ね合わせて表示可能な表示機器と、
    前記表示機器または前記作業者の頭部に取り付けられ、前記表示機器または前記作業者の頭部の変位量を表す測定信号を出力する変位測定部と、
    前記測定信号に基づいて、前記作業者が前記表示機器を通して視認できる視認範囲を推定し、推定した前記視認範囲に前記環境に含まれる所定のロボットが含まれるか否かを判定する判定部と、
    前記視認範囲に前記ロボットが含まれない場合に前記ロボットの動作を減速または停止させる制御部と、
    を有するロボット制御装置。
JP2018193862A 2018-10-12 2018-10-12 ロボット制御装置 Active JP6885909B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018193862A JP6885909B2 (ja) 2018-10-12 2018-10-12 ロボット制御装置
US16/597,876 US11254005B2 (en) 2018-10-12 2019-10-10 Robot control device
CN201910963712.6A CN111045354A (zh) 2018-10-12 2019-10-11 机器人控制装置
DE102019007091.7A DE102019007091A1 (de) 2018-10-12 2019-10-11 Robotersteuervorrichtung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018193862A JP6885909B2 (ja) 2018-10-12 2018-10-12 ロボット制御装置

Publications (2)

Publication Number Publication Date
JP2020059112A true JP2020059112A (ja) 2020-04-16
JP6885909B2 JP6885909B2 (ja) 2021-06-16

Family

ID=69954433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193862A Active JP6885909B2 (ja) 2018-10-12 2018-10-12 ロボット制御装置

Country Status (4)

Country Link
US (1) US11254005B2 (ja)
JP (1) JP6885909B2 (ja)
CN (1) CN111045354A (ja)
DE (1) DE102019007091A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220309753A1 (en) * 2021-03-25 2022-09-29 B/E Aerospace, Inc. Virtual reality to assign operation sequencing on an assembly line

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009119579A (ja) * 2007-11-16 2009-06-04 Canon Inc 情報処理装置、情報処理方法
JP2016172303A (ja) * 2015-03-17 2016-09-29 ファナック株式会社 機械と可搬式無線操作盤との間の距離に基づいて警告を発生し、または機械を停止させる機能を備えたロボット制御システム
JP2016224547A (ja) * 2015-05-27 2016-12-28 株式会社リコー 画像処理装置、画像処理システム及び画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3708083B2 (ja) * 2003-02-28 2005-10-19 ファナック株式会社 ロボット教示装置
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
JP6824622B2 (ja) 2015-05-01 2021-02-03 キヤノン株式会社 ロボットの制御装置、制御方法およびシステム
JP6420229B2 (ja) * 2015-12-10 2018-11-07 ファナック株式会社 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
CN107378941B (zh) * 2016-05-16 2022-02-18 精工爱普生株式会社 机器人、控制装置以及机器人系统
JP6490037B2 (ja) * 2016-10-04 2019-03-27 ファナック株式会社 移動可能な台車に支持されたロボットを備えるロボットシステム
JP6866673B2 (ja) * 2017-02-15 2021-04-28 オムロン株式会社 監視システム、監視装置、および監視方法
US20200055195A1 (en) * 2017-05-03 2020-02-20 Taiga Robotics Corp. Systems and Methods for Remotely Controlling a Robotic Device
US11498216B2 (en) * 2017-09-22 2022-11-15 Mitsubishi Electric Corporation Remote control manipulator system and control device
JP7467041B2 (ja) * 2018-09-27 2024-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びシステム
US11040444B2 (en) * 2019-01-03 2021-06-22 Lucomm Technologies, Inc. Flux sensing system
US20200259896A1 (en) * 2019-02-13 2020-08-13 Telefonaktiebolaget Lm Ericsson (Publ) Industrial Automation with 5G and Beyond

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009119579A (ja) * 2007-11-16 2009-06-04 Canon Inc 情報処理装置、情報処理方法
JP2016172303A (ja) * 2015-03-17 2016-09-29 ファナック株式会社 機械と可搬式無線操作盤との間の距離に基づいて警告を発生し、または機械を停止させる機能を備えたロボット制御システム
JP2016224547A (ja) * 2015-05-27 2016-12-28 株式会社リコー 画像処理装置、画像処理システム及び画像処理方法

Also Published As

Publication number Publication date
JP6885909B2 (ja) 2021-06-16
DE102019007091A1 (de) 2020-04-16
US20200114512A1 (en) 2020-04-16
US11254005B2 (en) 2022-02-22
CN111045354A (zh) 2020-04-21

Similar Documents

Publication Publication Date Title
US8731276B2 (en) Motion space presentation device and motion space presentation method
US11148299B2 (en) Teaching apparatus and teaching method for robots
JP2005250990A (ja) 作業支援装置
JP6824622B2 (ja) ロボットの制御装置、制御方法およびシステム
JP2018183845A (ja) ロボットを操作するための操作装置、ロボットシステム、および操作方法
JP2016224547A (ja) 画像処理装置、画像処理システム及び画像処理方法
JP2020137000A (ja) 映像記録装置およびヘッドマウントディスプレイ
US20180165853A1 (en) Head-mounted display apparatus and virtual object display system
JP6823018B2 (ja) 協調動作支援装置
CN112449708A (zh) 虚拟现实系统、程序、以及计算机可读取存储介质
CN107408354B (zh) 动作评估装置、动作评估方法和计算机可读存储介质
JP6885909B2 (ja) ロボット制御装置
JP2021002290A (ja) 画像処理装置およびその制御方法
US20220176560A1 (en) Control system, control method, and control unit
JP2020011357A (ja) 制御装置、ヘッドマウントディスプレイおよびロボットシステム
CN111565898B (zh) 操作引导系统
CN111522299B (zh) 机械控制装置
CN110712189B (zh) 机器人
JP6670682B2 (ja) 位置検出方法及び位置検出システム
WO2022234668A1 (ja) 稼働管理装置
KR102377988B1 (ko) 로봇과의 협업 보조 방법 및 장치
US11698434B2 (en) Machine control device
JP6681278B2 (ja) 位置検出システム及び位置検出方法
CN116363633A (zh) 驾驶员举动判定装置及其方法以及驾驶员举动判定用计算机程序
JP2023156237A (ja) 処理装置、処理システム、頭部装着ディスプレイ、処理方法、プログラム、及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200323

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200616

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210413

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210513

R150 Certificate of patent or registration of utility model

Ref document number: 6885909

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150