JP6823018B2 - 協調動作支援装置 - Google Patents

協調動作支援装置 Download PDF

Info

Publication number
JP6823018B2
JP6823018B2 JP2018146907A JP2018146907A JP6823018B2 JP 6823018 B2 JP6823018 B2 JP 6823018B2 JP 2018146907 A JP2018146907 A JP 2018146907A JP 2018146907 A JP2018146907 A JP 2018146907A JP 6823018 B2 JP6823018 B2 JP 6823018B2
Authority
JP
Japan
Prior art keywords
robot
display
display data
unit
axes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018146907A
Other languages
English (en)
Other versions
JP2020019127A (ja
Inventor
健一郎 小栗
健一郎 小栗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2018146907A priority Critical patent/JP6823018B2/ja
Priority to US16/513,709 priority patent/US11458618B2/en
Priority to DE102019005297.8A priority patent/DE102019005297B4/de
Priority to CN201910702015.5A priority patent/CN110788836A/zh
Publication of JP2020019127A publication Critical patent/JP2020019127A/ja
Application granted granted Critical
Publication of JP6823018B2 publication Critical patent/JP6823018B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35503Eye tracking associated with head mounted display to detect eye position
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)

Description

本発明は、例えば、ロボットとの協調動作を支援する協調動作支援装置に関する。
アームなどの可動部を有し、その可動部がサーボモータを用いて駆動されるロボットに実行させる動作を作業者が教示する際、あるいは、そのようなロボットと作業者とが協働作業する際に、作業者が手動でロボットの位置または姿勢を変化させるリードスルー動作をロボットに実行させることがある。
リードスルー動作を介してロボットに動作を教示する場合、一般に、作業者は、ロボットの動作に関する設定を確認し、あるいはロボットの動作を設定するための制御パラメータの値を入力するために、ティーチペンダントと呼ばれる入力機器を操作する。しかし、ティーチペンダントを操作するためには、作業者は、行っている作業を一旦中断する必要があるため、作業効率が低下する。そこで、オペレータの音声から、ロボットの動作を指示する言葉を抽出して、ロボットに動作を指示するためのデータを作成する技術が提案されている(例えば、特許文献1を参照)。
特開2006−289543号公報
しかしながら、上記の技術でも、作業者が設定された制御パラメータに対してロボットが実際にどのように動作するかを直感的に把握することは容易ではない。例えば、ロボットに取り付けられたツールを基準とする所定の方向において所定の粘性値が設定されていたとしても、作業者は、その所定の方向が、実空間においてどの方向を向いているか、及び、設定された粘性値により、ロボットの動作がどの程度変わるかを直感的に把握することは困難である。
一つの側面では、ロボットの動作に関する設定を作業者が直感的に把握することが容易となる協調動作支援装置を提供することを目的とする。
一つの実施形態によれば、協調動作支援装置が提供される。この協調動作支援装置は、ロボットと作業者とが協調動作する際のロボットの動作の形式ごとに、その形式におけるロボットの動作を表す表示用データを記憶する記憶部と、作業者に装着される表示部であって、作業者が表示部の表示領域を介してロボットを視認可能な表示部と、ロボットまたは作業者を撮影してロボットまたは作業者が表された画像を生成する撮像部と、撮像部により生成された画像に基づいて、作業者が表示領域を介してロボットを視認したときの表示領域上での、入力機器を介して指定されたロボットの動作の形式に関連するロボットの部分の位置を検出する表示位置設定部と、指定されたロボットの動作の形式に応じて、記憶部に記憶されている表示用データの中から、指定された形式に対応する表示用データを選択する表示用データ選択部と、表示領域上でのロボットの部分の位置と所定の位置関係となるように選択された表示用データを表示部の表示領域に表示させる表示制御部とを有する。
一つの側面によれば、ロボットの動作に関する設定を作業者が直感的に把握することが容易となる。
一つの実施形態による協調動作支援装置の概略構成図である。 協調動作支援処理に関する、プロセッサの機能ブロック図である。 リードスルー動作の形式の一例を示す図である。 リードスルー動作の形式の他の一例を示す図である。 各軸リードスルーに関して、ヘッドマウントディスプレイに表示される表示用データの一例を示す図である。 直交リードスルーに関して、ヘッドマウントディスプレイに表示される表示用データの一例を示す図である。 各軸リードスルーにおいて、軸ごとのサーボモータの制御パラメータの値が異なる場合のヘッドマウントディスプレイに表示される表示用データの一例を示す図である。 協調動作支援処理の動作フローチャートである。
以下、図を参照しつつ、協調動作支援装置について説明する。この協調動作支援装置は、作業者が装着した透過型のディスプレイに、作業者と協調動作するロボットについて指定された動作形式と関連するロボットの部分と関連付けてその指定された動作の形式におけるロボットの動作を表す表示用データを表示することで、作業者がロボットの動作に関する設定を直感的に把握できるようにする。
図1は、協調動作支援装置の概略構成図である。協調動作支援装置1は、入力機器2と、ヘッドマウントディスプレイ3と、カメラ4と、無線通信インターフェース5と、通信インターフェース6と、メモリ7と、プロセッサ8とを有する。このうち、無線通信インターフェース5、通信インターフェース6、メモリ7及びプロセッサ8は、例えば、教示対象となる、あるいは作業者と協働作業するロボット11の制御装置12に実装される。そして無線通信インターフェース5、通信インターフェース6及びメモリ7は、プロセッサ8と信号線を介して互いに通信可能に接続される。また、入力機器2、ヘッドマウントディスプレイ3及びカメラ4は、それぞれ、例えば、Bluetooth(登録商標)といった所定の無線通信規格に準拠した無線通信により、無線通信インターフェース5を介してプロセッサ8と通信可能に接続される。
この例では、ロボット11は、3個の軸11a〜11cを有する多関節ロボットであり、ロボット11の先端にツール11dが取り付けられる。ロボット11の各軸11a〜11cのそれぞれがサーボモータ(図示せず)によって駆動されることで、ロボット11の姿勢が変化する。なお、作業者と協調動作するロボット11は、この例に限られず、サーボモータによって駆動される少なくとも一つの軸を有するロボットであればよい。
入力機器2は、いわゆるティーチペンダントといった、作業者が携帯可能な入力機器であり、ロボット11の動作に関する設定情報を入力するために用いられる。そのために、入力機器2は、例えば、複数の操作ボタンと、複数の操作ボタンのうちの押下された操作ボタンに対応する操作信号を生成する制御回路と、制御回路により生成された操作信号を含む無線信号を生成し、その無線信号を制御装置12へ送信するための無線通信回路とを有する。そして入力機器2は、作業者の操作に応じて、ロボット11にリードスルー動作をさせるか否か、リードスルー動作の形式、及び、ロボット11のリードスルー動作における、各軸を駆動するサーボモータを制御するための各種制御パラメータの値を表す操作信号を生成し、その操作信号を含む無線信号を制御装置12へ送信する。
ヘッドマウントディスプレイ3は、表示部の一例であり、作業者の頭部に装着された状態で、作業者に対して制御装置12から受信した、ロボット11がリードスルー動作する際のロボット11のそのリードスルー動作におけるロボット11の動作を表す表示用データを、作業者の視野に重畳して表示する。そのために、ヘッドマウントディスプレイ3は、例えば、液晶ディスプレイにより構成される透過型ディスプレイと、ヘッドマウントディスプレイ3が作業者の頭部に装着されたときにその透過型ディスプレイが作業者の視野と重なるように配置されるようにするための装着部材と、制御装置12と無線通信するための無線通信回路と、制御装置12から受信した無線信号に含まれる表示用データを透過型ディスプレイに表示させ、あるいは、カメラ4から受信した画像を、無線通信回路を介して制御装置12へ送信するための制御回路とを有する。
カメラ4は、撮像部の一例であり、例えば、作業者がヘッドマウントディスプレイ3を装着したときに、作業者の視野を撮影できるようにヘッドマウントディスプレイ3に取り付けられる。例えば、ヘッドマウントディスプレイ3の透過型ディスプレイの側方または上方において、カメラ4がヘッドマウントディスプレイ3を装着した作業者の正面方向を向くように、カメラ4は取り付けられる。そしてカメラ4は、例えば、ヘッドマウントディスプレイ3の制御回路と通信可能に接続される。カメラ4は、協調動作支援装置1が協調動作支援処理を実行している間、所定の撮影周期ごとに、ヘッドマウントディスプレイ3を装着した作業者の視野を含む撮影範囲を撮影して画像を生成し、生成した画像をヘッドマウントディスプレイ3の制御回路へ出力する。
無線通信インターフェース5は、所定の無線通信規格に準じた無線信号の送受信に関する処理を実行するための回路などを含む。そして無線通信インターフェース5は、入力機器2及びヘッドマウントディスプレイ3から受信した無線信号に含まれる、操作信号または画像等の情報を取り出して、プロセッサ8へわたす。また無線通信インターフェース5は、プロセッサ8から受け取った、ヘッドマウントディスプレイ3に表示させるデータなどを含む無線信号を生成し、生成した無線信号をヘッドマウントディスプレイ3へ送信する。
通信インターフェース6は、例えば、制御装置12を通信回線13と接続するための通信インターフェース及び通信回線13を介した信号の送受信に関する処理を実行するための回路などを含む。そして通信インターフェース6は、例えば、プロセッサ8から受け取った、ロボット11のサーボモータに対するトルク指令値などを、通信回線13を介してロボット11へ出力する。また通信インターフェース6は、ロボット11から、通信回線13を介して、サーボモータのフィードバック電流の値、サーボモータにより駆動される各軸11a〜11cの回転量を表すエンコーダからのエンコーダ信号など、サーボモータの動作状況を表す情報を受信して、その情報をプロセッサ8へわたす。
メモリ7は、記憶部の一例であり、例えば、読み書き可能な半導体メモリと読み出し専用の半導体メモリとを有する。さらに、メモリ7は、半導体メモリカード、ハードディスク、あるいは光記憶媒体といった記憶媒体及びその記憶媒体にアクセスする装置を有していてもよい。
メモリ7は、プロセッサ8で実行される、ロボット11の制御用の各種プログラム、及び、協調動作支援処理用のコンピュータプログラムなどを記憶する。また、メモリ7は、ヘッドマウントディスプレイ3に表示させる、リードスルー動作の形式ごとの、ロボット11の動作を表す表示用データなどを、対応するリードスルー動作の形式と関連付けて記憶する。さらに、メモリ7は、ロボット11の動作中においてロボット11から得られるサーボモータの動作状況を表す情報、協調動作支援処理の途中において生成される各種のデータ、及び、カメラ4から得られる画像などを記憶する。
プロセッサ8は、制御部の一例であり、例えば、Central Processing Unit(CPU)及びその周辺回路を有する。さらにプロセッサ8は、数値演算用のプロセッサを有していてもよい。そしてプロセッサ8は、協調動作支援装置1全体を制御する。またプロセッサ8は、ロボット11の動作を制御するとともに、協調動作支援処理を実行する。
図2は、協調動作支援処理に関する、プロセッサ8の機能ブロック図である。プロセッサ8は、リードスルー制御部21と、表示用データ選択部22と、表示位置設定部23と、表示制御部24とを有する。プロセッサ8が有するこれらの各部は、例えば、プロセッサ8上で実行されるコンピュータプログラムにより実現される機能モジュールである。あるいは、これらの各部は、プロセッサ8の一部に実装される専用の演算回路として実装されてもよい。
リードスルー制御部21は、動作制御部の一例であり、入力機器2から無線通信インターフェース5を介して受信した無線信号に含まれる操作信号にて指定された、ロボット11にリードスルー動作をさせるか否か、リードスルー動作の形式あるいは制御パラメータの値に基づいて、ロボット11の動作を制御する。
ここで、リードスルー動作について説明する。
図3A及び図3Bは、それぞれ、リードスルー動作の形式の一例を示す図である。図3Aに示される動作形式では、ロボット11の各関節の軸11a〜11cに掛かる外力に応じて、各関節の軸11a〜11cが追従するように、ロボット11が動作する。例えば、図3Aにおいて矢印301にて示されるように、作業者300がロボット11の先端を押すことに応じて、矢印302〜304に示されるように、ロボット11の各関節の軸11a〜11cが回転する。以下、図3Aに示される動作形式を、便宜上、各軸リードスルーと呼ぶ。
一方、図3Bに示される動作形式では、ロボット11の何れかの位置に掛かる外力に応じて、その位置について設定される直交座標系が追従するように、ロボット11が動作する。例えば、図3Bに示されるように、ロボット11の先端に取り付けられたツール11dに対して作業者300が力を加えることで、そのツール11dについて設定された直交座標系311が、その力の方向に応じて変化するように、各関節の軸11a〜11cの何れか、例えば、ツール11dが取り付けられる軸11cが回転する。以下、図3Bに示される動作形式を、便宜上、直交リードスルーと呼ぶ。
なお、各軸リードスルーにおいて、ロボット11の何れかの軸は固定されてもよい。また、直交リードスルーにおいて、直交座標系における何れかの軸方向の動作、あるいは、直交座標系における何れかの軸周りの動作は固定されてもよい。
さらに、リードスルー動作では、入力機器2を介して、ロボット11の動作を設定するために、サーボモータの制御パラメータとして、ロボット11が動作する際における、ロボット11の各軸11a〜11cについての仮想的な粘性、弾性、慣性、あるいは、各軸11a〜11cの回転速度が設定されてもよい。
そこで、リードスルー制御部21は、操作信号にて指定されたリードスルー動作の形式及び固定される軸の指定などに応じて、固定される軸を決定する。そしてリードスルー制御部21は、作業者によりロボット11に外力が加えられると、その外力に応じて、指定されたリードスルー動作の形式に従って、固定される軸以外の軸を回転させる。その際、リードスルー制御部21は、操作信号に含まれる、各軸の仮想的な粘性、弾性または慣性の値(操作信号に粘性値などが含まれない場合は、過去に設定され、あるいはデフォルトの値)に従って、その軸を駆動するサーボモータに対するトルク指令値を決定する。その際、リードスルー制御部21は、例えば、仮想的な粘性、弾性または慣性の値の組み合わせと、トルク指令値との関係を表すテーブルを参照することで、トルク指令値を決定する。そのようなテーブルは、例えば、予めメモリ7に記憶される。あるいは、リードスルー制御部21は、仮想的な粘性、弾性または慣性の値の組み合わせと、トルク指令値との関係を表す式に従って、トルク指令値を算出してもよい。そしてリードスルー制御部21は、そのトルク指令値を通信インターフェース6及び通信回線13を介してロボット11へ出力することで、仮想的な粘性、弾性または慣性の値に相当するトルクを固定される軸以外の各軸を駆動するサーボモータに生じさせる。そしてサーボモータは、作業者によりロボット11に加えられた外力により生じる実トルクと、トルク指令値により指定されたトルクとに基づいてProportional-Integral-Differential(PID)制御されればよい。さらに、リードスルー制御部21は、設定された回転速度を表すサーボモータの制御値(例えば、パルス幅変調におけるデューティ比)を、通信インターフェース6及び通信回線13を介してロボット11へ出力する。
リードスルー制御部21は、各軸あるいは各軸を駆動するサーボモータに取り付けられたエンコーダからのエンコーダ信号の受信回数をカウントすることで、各軸の回転量を求めてもよい。リードスルー制御部21は、動作を開始した時点のロボット11の姿勢と、着目する時点における、各軸の回転量とにより、着目する時点におけるロボット11の姿勢をもとめることができる。
表示用データ選択部22は、操作信号により指定されたリードスルー動作の形式に応じて、ヘッドマウントディスプレイ3に表示させる表示用データを、メモリ7に記憶された各動作の形式の表示用データの中から選択する。そのために、表示用データ選択部22は、例えば、リードスルー動作の形式と表示用データとの関係を表すテーブルを参照することで、操作信号にて指定されたリードスルー動作の形式に対応する表示用データを選択する。例えば、各軸リードスルーでは、個々の軸についてその軸の回転方向を表す記号(例えば、円弧状の矢印)を表す表示用データが選択され、一方、直交リードスルーでは、直交座標系を表す記号(例えば、直交座標系の各軸を表す直線状の矢印、軸ごとの直線状の矢印を中心とする円弧状の矢印の組み合わせ)を表す表示用データが選択される。そして表示用データ選択部22は、選択した表示用データをメモリ7から読み込む。
また、表示用データ選択部22は、操作信号に含まれる制御パラメータの値(例えば、粘性値、弾性値、慣性値、回転速度など)に応じて表示用データを変化させてもよい。例えば、表示用データ選択部22は、表示用データに表される矢印の輝度を、設定された仮想的な粘性、弾性または慣性の値が大きくなるほど高くしてもよい。あるいは、表示用データ選択部22は、表示用データに表される矢印の色、太さ、長さまたは透明度を、設定された仮想的な粘性、弾性または慣性の値に応じて変化させてもよい。また、ロボット11の軸ごとに、制御パラメータが異なる値に設定される場合には、軸ごとに、その軸について設定される制御パラメータの値に応じて表示用データを変化させてもよい。
さらに、表示用データ選択部22は、ロボット11が有する軸11a〜11cのうちの何れかが固定される場合、その固定される軸を表す表示用データをメモリ7から読み込んでもよい。
表示用データ選択部22は、メモリ7から読み込んだ、選択した表示用データを表示制御部24へわたす。
表示位置設定部23は、ヘッドマウントディスプレイ3の透過型ディスプレイの表示領域において、表示用データ選択部22により選択された表示用データを表示する位置を設定する。例えば、各軸リードスルーでは、固定されていないロボット11の軸の周囲に、その軸の回転方向を表す記号が表示されることが好ましい。また、直交リードスルーでは、直交座標系が指定される位置に、その直交座標系を表す記号が表示されることが好ましい。このように、ロボット11の動作を表す表示用データは、リードスルー動作においてロボット11の動作する箇所が分かるよう、指定されたリードスルー動作の形式に関連するロボット11の部分と関連付けて表示されることが好ましい。そこで表示位置設定部23は、協調動作支援処理が開始されると、その開始後にカメラ4から画像が得られる度に、得られた画像において、指定されたリードスルー動作の形式に関連するロボット11の部分を検出する。例えば、指定されたリードスルー動作の形式が各軸リードスルーである場合、表示位置設定部23は、画像上でのロボット11の各軸を検出する。また、指定されたリードスルー動作の形式が直交リードスルーである場合、直交座標系が指定されるロボット11の位置、例えば、ロボット11の先端に取り付けられたツール11dを検出する。そのために、表示位置設定部23は、例えば、検出対象となるロボット11の部分ごとに、その部分を表すテンプレートを用いて画像とテンプレートマッチングすることで、画像上で検出対象となる部分が写っている領域を検出する。なお、そのようなテンプレートは、例えば、メモリ7に予め記憶される。その際、表示位置設定部23は、作業者から見たロボット11の姿勢に応じて異なる複数のテンプレートをテンプレートマッチングに使用してもよい。この場合、表示位置設定部23は、検出対象となる部分ごとに、その部分についての複数のテンプレートのうち、画像と最も一致するテンプレートに表されるその部分の姿勢を、作業者から見たその部分の姿勢としてもよい。あるいは、表示位置設定部23は、ロボット11の検出対象となる部分を検出するように予め学習された識別器に画像を入力することで、画像上でロボット11の検出対象となる部分が写っている領域を検出してもよい。表示位置設定部23は、そのような識別器として、例えば、ディープニューラルネットワーク、あるいはAdaBoostといった識別器を利用できる。
本実施形態では、カメラ4は、その撮影範囲にヘッドマウントディスプレイ3を装着した作業者の視野が含まれるようにヘッドマウントディスプレイ3に取り付けられる。したがって、カメラ4により得られた画像上の所定の物体が写っている位置は、作業者がヘッドマウントディスプレイ3の透過型ディスプレイを通してその所定の物体を見たときに、その所定の物体が透過型ディスプレイの表示領域上に重畳される位置と1対1に対応付けられる。そこで、表示位置設定部23は、カメラ4により得られた画像上の位置とヘッドマウントディスプレイ3の透過型ディスプレイの表示領域上の位置との対応関係を表すテーブルを参照することで、ロボット11の各検出対象となる部分について、カメラ4により得られた画像上におけるその部分が写っている領域の重心に対応する表示領域上の位置を、表示領域上でのその部分の位置として求めることができる。そのようなテーブルは、例えば、予めメモリ7に記憶される。あるいは、表示位置設定部23は、そのようなテーブルの代わりに、カメラ4により得られた画像上の位置とヘッドマウントディスプレイ3の透過型ディスプレイの表示領域上の位置との対応関係を表す位置変換式に、検出対象となる部分が写っている領域の重心の座標を入力することで、表示領域上でのその部分の位置を求めてもよい。
表示位置設定部23は、カメラ4から画像が得られる度に、上記の処理を行って、表示領域上での指定されたリードスルー動作の形式に関連する各部分の位置を更新する。これにより、作業者がリードスルー動作中に移動したり、顔の向きを変えたりしても、表示位置設定部23は、ロボット11の指定されたリードスルー動作の形式に関連する各部分に対して所定の位置関係となるように、ヘッドマウントディスプレイ3にその部分についての指定されたリードスルー動作の形式におけるロボットの動作を表す表示用データを表示させることができる。
表示位置設定部23は、カメラ4から画像が得られる度に、ロボット11の指定されたリードスルー動作の形式に関連する各部分の位置を表示制御部24へ通知する。
表示制御部24は、ロボット11の指定されたリードスルー動作の形式に関連する各部分と所定の位置関係となるように、指定されたリードスルー動作の形式における、その部分についての動作を表す表示用データをヘッドマウントディスプレイ3に表示させる。例えば、表示制御部24は、ロボット11の指定されたリードスルー動作の形式に関連する各部分についての表示領域上の位置に対して所定の位置関係になるようにその部分に対応する表示用データの表示領域上の位置を設定する。そして表示制御部24は、ロボット11の指定されたリードスルー動作の形式に関連する各部分について、その部分に対応する表示用データと、その表示位置とを含む信号を、無線通信インターフェース5を介してヘッドマウントディスプレイ3へ送信する。
図4Aは、各軸リードスルーに関して、ヘッドマウントディスプレイ3に表示される表示用データの一例を示す図である。図4Aに示される例では、ヘッドマウントディスプレイ3の表示領域400において、ロボット11の各軸11a〜11cが動作箇所となるため、各軸11a〜11cのそれぞれについて、その軸の回転方向を表す円弧状の矢印401〜403が、その軸を中心とするように表示される。
なお、各軸11a〜11cのうちの何れかが固定される場合には、その固定される軸についてはロボット11の動作を表す表示用データは表示されなくてよい。例えば、軸11aが固定される場合には、軸11aの周囲に示される円弧状の矢印401は表示されなくてよい。これにより、作業者は、リードスルー動作において固定される軸及び固定されていない軸を直感的に把握することができる。
あるいは、表示制御部24は、固定される軸に対して、動作しないことを表す表示用データを表示してもよい。例えば、軸11aが固定される場合には、表示制御部24は、軸11aに対応する表示領域上の位置に、X字状の記号を表示してもよい。この場合、表示制御部24は、通信インターフェース6を介して取得される、固定される軸のサーボモータの実トルクの絶対値が、外力が加わったことを表す所定値以上となった場合に、動作しないことを表す表示用データを表示してもよい。これにより、表示制御部24は、作業者の視野に重畳される表示用データの数を抑制して作業者が煩雑さを感じないようするとともに、作業者がロボット11を動かす場合には、作業者が固定される軸を直感的に把握できるようにする。
図4Bは、直交リードスルーに関して、ヘッドマウントディスプレイ3に表示される表示用データの一例を示す図である。図4Bに示される例では、ヘッドマウントディスプレイ3の表示領域400において、ロボット11に取り付けられたツール11dの位置に直交座標系が設定されるため、ツール11dに対応する表示領域上の位置を原点とするように直交座標系410及び直交座標系の各軸周りに円弧状の矢印411〜413が表示される。
この例についても、表示制御部24は、固定される直交座標系の軸については、その軸を表す矢印を表示しなくてもよい。あるいは、表示制御部24は、固定される直交座標系の軸の輝度を、直交座標系の固定されない軸の輝度よりも低くしてもよい。あるいはまた、表示制御部24は、固定される直交座標系の軸の透明度を、直交座標系の固定されない軸の透明度よりも高くしてもよい。
図4Cは、各軸リードスルーにおいて、軸ごとの仮想的な粘性、弾性または慣性の値といった、サーボモータの制御パラメータの値が異なる場合のヘッドマウントディスプレイ3に表示される表示用データの一例を示す図である。図4Cに示される例では、ヘッドマウントディスプレイ3の表示領域400において、ロボット11の各軸11a〜11cが動作箇所となるため、各軸11a〜11cのそれぞれについて、その軸の回転方向を表す円弧状の矢印421〜423が、その軸を中心とするように表示される。さらに、この例では、設定される仮想的な粘性、弾性または慣性の値に応じて矢印の太さが変更される。例えば、軸11bに設定される粘性値が軸11aに設定される粘性値及び軸11cに設定される粘性値よりも大きい場合、軸11bの周りに表示される矢印422は、軸11aの周りに表示される矢印421の太さ及び軸11cの周りに表示される矢印423よりも太く表示される。これにより、作業者は、軸11bの回転動作が軸11a及び軸11cの回転動作よりも柔らかいことを直感的に把握できる。このように、各軸について設定されるサーボモータの制御パラメータの値に応じて表示される表示用データを変化させることで、作業者は、設定される制御パラメータを直感的に把握することができる。
図5は、協調動作支援処理の動作フローチャートである。プロセッサ8は、例えば、入力機器2から操作信号を受信する度、下記の動作フローチャートに従って協調動作支援処理を実行する。
リードスルー制御部21は、入力機器2からの操作信号に従って、ロボット11のリードスルー動作を制御する(ステップS101)。また、表示用データ選択部22は、操作信号により指定されたリードスルー動作の形式に従って、メモリ7に記憶されている表示用データの中から、ヘッドマウントディスプレイ3に表示させる表示用データを選択する(ステップS102)。
表示位置設定部23は、カメラ4から得られた画像において、指定されたリードスルー動作の形式に関連するロボット11の部分を検出する(ステップS103)。そして表示位置設定部23は、画像上でのロボット11の検出された部分の位置から、ヘッドマウントディスプレイ3の表示領域においてその部分の位置を特定する(ステップS104)。
表示制御部24は、指定されたリードスルー動作の形式に関連するロボット11の部分について、ヘッドマウントディスプレイ3の表示領域上でのその部分の位置と所定の位置関係となるように、選択された表示用データをヘッドマウントディスプレイ3に表示させる(ステップS105)。
ステップS105の後、プロセッサ8は、入力機器2からリードスルー動作を終了することを表す操作信号を受信したか否か判定する(ステップS106)。リードスルー動作を終了することを表す操作信号を受信していない場合(ステップS106−No)、プロセッサ8は、ステップS103以降の処理を繰り返す。一方、リードスルー動作を終了することを表す操作信号を受信した場合(ステップS106−No)、プロセッサ8は、協調動作支援処理を終了する。
以上に説明してきたように、この協調動作支援装置は、ロボットにリードスルー動作をさせる際、指定されたリードスルー動作の形式に関連するロボットの部分と関連付けて、指定されたリードスルー動作の形式におけるロボットの動作を表す表示用データを作業者が装着するヘッドマウントディスプレイに表示させる。そのため、この協調動作支援装置は、作業者がリードスルー動作するロボットの動作に関する設定を直感的に把握することを容易化できる。
変形例によれば、表示制御部24は、表示用データとして、カメラ4から得られた画像上に写っている、指定されたリードスルー動作の形式に関連するロボット11の部分の像、例えば、その部分の輪郭像を用いてもよい。この場合には、表示制御部24は、画像から、表示位置設定部23にて検出された、指定されたリードスルー動作の形式に関連する部分が写っている領域をトリミングする。表示制御部24は、トリミングされた領域に対してSobelフィルタ等のエッジ検出フィルタを用いたエッジ検出処理を実行して、所定以上のエッジ強度を持つエッジ画素を検出する。そして表示制御部24は、トリミングされた領域内で、水平方向の画素列ごとに、その画素列において最も左端のエッジ画素と最も右端のエッジ画素とを、指定されたリードスルー動作の形式に関連する部分の輪郭を表す輪郭画素として検出する。そして表示制御部24は、各輪郭画素が他の画素の値と異なる画素値を持つ輪郭像を表示用データとして生成すればよい。
この場合、表示制御部24は、ロボット11の各軸のサーボモータの制御パラメータの値に応じて輪郭像のサイズを変更してもよい。例えば、表示制御部24は、仮想的な粘性値または弾性値が大きいほど、輪郭像が大きくなるように、輪郭像を拡大してもよい。これにより、作業者は、指定されたリードスルー動作の形式に関連するロボット11の部分のサイズでその部分について設定された制御パラメータの値を視覚的に知ることができるので、直感的に設定された制御パラメータを把握することができる。
他の変形例によれば、プロセッサ8のリードスルー制御部21は、作業者がヘッドマウントディスプレイ3に表示された表示用データと重畳する位置を所定期間(例えば、1〜2秒間)にわたって指で示すことで、その表示用データと関連する部分について設定される制御パラメータの値を変更してもよい。例えば、リードスルー制御部21は、作業者が図4Aに示される矢印411の右回り側の先端を所定期間にわたって指し示すことで、軸11aについて、仮想的な粘性値を所定値だけ増加させ、一方、作業者が図4Aに示される矢印411の左回り側の先端を所定期間にわたって指し示すことで、軸11aについて、仮想的な粘性値を所定値だけ減少させてもよい。
そのために、表示用データには、作業者の指により示されることで制御パラメータの値を所定量だけ変更する範囲(例えば、図4Aにおける矢印411の各先端)が設定される。また、リードスルー制御部21は、カメラ4により得られた画像において、作業者の指を検出する。例えば、リードスルー制御部21は、指を検出するように予め学習された識別器に画像を入力することで、画像上で指が写っている領域を検出し、その領域の重心を指の位置とする。リードスルー制御部21は、そのような識別器として、例えば、ディープニューラルネットワーク、あるいはAdaBoostといった識別器を利用できる。また、表示位置設定部23に関して説明したように、カメラ4により得られた画像上の位置と、ヘッドマウントディスプレイ3の表示領域上の位置とは1対1に対応する。そこで、リードスルー制御部21は、表示位置設定部23と同様の処理を行って、画像上で検出された指の位置に対応する表示領域上の位置を求め、その表示領域上の位置が、制御パラメータを変更する範囲に含まれていれば、その範囲について設定された量だけ制御パラメータの値を変更すればよい。
この変形例によれば、作業者は、入力機器2を操作しなくても、制御パラメータを変更できるので、作業効率が向上する。
また他の変形例によれば、表示制御部24は、ヘッドマウントディスプレイ3に、指定されたリードスルー動作の形式に関連するロボット11の部分の移動軌跡を表示させてもよい。この場合には、表示制御部24は、ロボット11から通信インターフェース6を介してロボット11の何れかの軸についてのエンコーダ信号に基づいて算出されるその軸の回転量が変化している間、すなわち、ロボット11の姿勢が変化している間において、カメラ4から画像が得られる度に、表示位置設定部23から、表示領域上での、指定されたリードスルー動作の形式に関連するロボット11の部分の位置を取得する。そして表示制御部24は、取得した各位置を時系列順に接続する線を、移動軌跡として、ヘッドマウントディスプレイ3に表示させる。
なお、一連の作業中に作業者が顔の向きを変化させても正確な移動軌跡が表示されるように、ヘッドマウントディスプレイ3に、ジャイロセンサといった、作業者の顔の向きの変化を表す量を測定可能なセンサが取り付けられてもよい。この場合には、ヘッドマウントディスプレイ3は、所定の周期ごとに、作業者の顔の向きの変化を表す量をセンサにより測定し、その量を含む無線信号を制御装置12へ送信する。表示制御部24は、カメラ4から画像が得られる度に、無線通信インターフェース5を介して受信したその無線信号に含まれる、作業者の顔の向きの変化を表す量に基づいて、前回の画像取得時から最新の画像取得時までの顔の向きの変位量を算出する。例えば、作業者の顔の向きの変化を表す量が角加速度であれば、表示制御部24は、その角加速度を2階積分することで、作業者の顔の向きの変位量を算出できる。そして表示制御部24は、最新の画像の取得時を基準として、各画像取得時における、表示領域上での、指定されたリードスルー動作の形式に関連するロボット11の部分の位置を、作業者の顔の向きの変位量に相当する量だけ移動させればよい。
さらに他の変形例によれば、カメラ4は、ロボット11に対する作業者の相対的な位置を検出できるように、例えば、ロボット11が設置される部屋の天井に、下方を向けて取り付けられてもよい。またヘッドマウントディスプレイ3に、ジャイロセンサといった、作業者の顔の向きの変化を表す量を測定可能なセンサが取り付けられてもよい。さらに、メモリ7に、実空間でのロボット11の位置が予め記憶される。この場合には、例えば、作業者は、入力機器2を操作して、ロボット11にリードスルー動作を開始させることを入力すると、初期化のためにロボット11の所定の位置(例えば、ロボット11に取り付けられたツール11d)を一定期間(例えば、3〜5秒間)注視する。一方、プロセッサ8のリードスルー制御部21は、入力機器2からロボット11のリードスルー動作を開始することを表す操作信号を受信すると、ロボット11が予め設定された所定の姿勢となるようにサーボモータを制御する。またプロセッサ8の表示位置設定部23は、入力機器2からロボット11のリードスルー動作を開始することを表す操作信号を受信すると、その一定期間中においてカメラ4が撮影することで得られた画像において作業者を検出する。例えば、表示位置設定部23は、作業者を検出するように予め学習された識別器に画像を入力することで、画像上で作業者が写っている領域の重心を検出する。表示位置設定部23は、そのような識別器として、例えば、ディープニューラルネットワーク、あるいはAdaBoostといった識別器を利用できる。画像上の位置は、カメラ4からの方向と1対1に対応する。また、カメラ4からロボット11及び作業者が位置する床面までの距離も既知であるので、表示位置設定部23は、画像上の作業者が写っている領域の重心の位置に基づいて、実空間での作業者の位置(以下、初期位置と呼ぶ)を特定できる。したがって、表示位置設定部23は、ロボット11と作業者の相対的な位置関係を特定できる。また作業者がロボット11の所定位置を注視している期間における、ロボット11の姿勢も既知であるので、作業者が初期位置にいる場合における、作業者からロボット11の所定位置への視線方向も既知となる。そこで、表示位置設定部23は、その視線方向とヘッドマウントディスプレイの表示領域との交点を基準点として設定する。
初期化後、ヘッドマウントディスプレイ3は、所定の周期ごとに、作業者の顔の向きの変化を表す量をセンサにより測定し、その量を含む無線信号を制御装置12へ送信する。プロセッサ8の表示位置設定部23は、無線通信インターフェース5を介して受信したその無線信号に含まれる、作業者の顔の向きの変化を表す量に基づいて、基準位置を注視しているときからの顔の向きの変位量を算出する。例えば、作業者の顔の向きの変化を表す量が角加速度であれば、表示位置設定部23は、その角加速度を2階積分することで、作業者の顔の向きの変位量を算出できる。また表示位置設定部23は、カメラ4により得られた画像から、上記と同様に作業者の位置を検出することで、作業者の初期位置からの移動方向及び移動量を検出できる。さらに、表示位置設定部23は、ロボット11の所定の姿勢からの変化を、各軸の回転量により求めることができる。したがって、表示位置設定部23は、作業者の初期位置からの移動方向及び移動量と、作業者が初期位置においてロボット11の基準位置を注視しているときの顔の向きからの作業者の顔の向きの変位量と、ロボット11の所定の姿勢からの姿勢の変化量とに基づいて、作業者の顔の正面方向に対する、作業者からロボット11の各動作箇所へ向かう方向の角度を算出できる。そして表示位置設定部23は、その角度に基づいて、ヘッドマウントディスプレイ3の表示領域上の各動作箇所の位置を特定すればよい。
さらに他の変形例によれば、表示用データ選択部22は、作業者がロボット11に加えた外力による、ロボット11の動作状態に応じて、選択した表示用データを変更してもよい。例えば、表示用データ選択部22は、通信インターフェース6を介してロボット11から受信した、ロボット11の各軸11a〜11cのサーボモータの実トルクに応じて、その軸についての表示用データに表される矢印の色または輝度を変化させてもよい。あるいは、表示用データ選択部22は、ロボット11の軸11a〜11cごとに、通信インターフェース6を介してロボット11から受信した、その軸のエンコーダ信号に基づいて算出される、その軸の回転量と、その軸の回転範囲とから、その軸について回転可能な残回転量を算出し、残回転量が少ないほど、表示用データに表される矢印の長さを短くしてもよい。あるいはまた、表示用データ選択部22は、ロボット11の各軸11a〜11cのうち、通信インターフェース6を介してロボット11から受信した、サーボモータの実トルクの絶対値が所定値以上となる軸について、その軸についての表示用データの矢印を点滅させるようにしてもよい。これにより、作業者は、ロボット11の動作状態を把握することがさらに容易となる。
さらに他の変形例によれば、作業者が音声にて制御パラメータの値などを変更できるよう、入力機器2は、マイクロホンといった音声入力部を有していてもよい。そして入力機器2は、音声入力部により得られた作業者の音声を表す音声信号を含む無線信号を制御装置12へ送信する。あるいは、音声入力部は、ヘッドマウントディスプレイ3に取り付けられ、音声入力部により得られた作業者の音声を表す音声信号を含む無線信号は、ヘッドマウントディスプレイ3から制御装置12へ送信されてもよい。制御装置12のプロセッサ8のリードスルー制御部21は、無線通信インターフェース5を介して受信した無線信号に含まれる音声信号に対して、隠れマルコフモデルを利用するワードスポッティング法といった所定の音声認識処理を実行することで、作業者の音声を認識して、その認識結果に応じて、制御パラメータの値を変更したり、指定するリードスルー動作の形式を変更してもよい。これにより、作業者は、入力機器2を操作する手間を軽減できるので、作業効率を向上できる。
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
1 協調動作支援装置
2 入力機器
3 ヘッドマウントディスプレイ
4 カメラ
5 無線通信インターフェース
6 通信インターフェース
7 メモリ
8 プロセッサ
11 ロボット
11a〜11c 軸
11d ツール
12 制御装置
13 通信回線
21 リードスルー制御部
22 表示用データ選択部
23 表示位置設定部
24 表示制御部

Claims (9)

  1. 回転可能に設けられる複数の軸を有するロボットと作業者とが協調動作する際の前記ロボットの動作の形式ごとに、当該形式における前記ロボットの動作を表す表示用データを記憶する記憶部と、
    前記作業者に装着される表示部であって、前記作業者が前記表示部の表示領域を介して前記ロボットを視認可能な表示部と、
    前記ロボットまたは前記作業者を撮影して前記ロボットまたは前記作業者が表された画像を生成する撮像部と、
    前記画像に基づいて、前記作業者が前記表示領域を介して前記ロボットを視認したときの前記表示領域上での、前記ロボットの前記複数の軸のそれぞれの位置を検出する表示位置設定部と、
    入力機器を介して指定された前記ロボットの動作の形式に応じて、前記記憶部に記憶されている前記表示用データの中から、当該指定された形式に対応する表示用データを選択する表示用データ選択部と、
    前記表示領域上での前記ロボットの前記複数の軸のそれぞれについて、当該軸の位置と所定の位置関係となるように前記選択された表示用データを前記表示部の前記表示領域に表示させるとともに、前記複数の軸のうち、前記指定された前記ロボットの動作の形式において回転する軸と固定される軸とで前記表示用データを異ならせる表示制御部と、
    を有する協調動作支援装置。
  2. 記指定された前記ロボットの動作の形式が前記ロボットに加えられた外力に応じて前記複数の軸の何れかが回転する動作形式である場合、前記表示用データは、前記回転する軸の回転を表す記号であり
    記表示制御部は、前記表示領域上で前記複数の軸のうちの回転する軸の周囲に当該軸の回転を表す記号を表示させる、請求項1に記載の協調動作支援装置。
  3. 前記指定された前記ロボットの動作の形式が前記ロボットに加えられた外力に応じて前記ロボットの前記複数の軸の何れかに設定される座標系の位置または向きを変化させる動作形式である場合、前記表示用データは、前記座標系を表す記号であり
    記表示制御部は、前記表示領域上で前記座標系が設定される軸の位置と重なるように前記座標系を表す記号を表示させる、請求項1に記載の協調動作支援装置。
  4. 前記ロボットが有する前記複数の軸はサーボモータにより駆動され、
    前記表示用データ選択部は、前記入力機器により設定される、前記サーボモータを制御するための制御パラメータの値に応じて選択した前記表示用データを変化させる、請求項1に記載の協調動作支援装置。
  5. 前記撮像部は、前記表示部において前記作業者の視野を撮影可能なように取り付けられ、
    前記表示位置設定部は、前記画像上で前記ロボットの前記複数の軸のそれぞれが表された領域を検出し、前記画像上での当該領域の位置と前記表示領域上での対応位置との位置関係に応じて前記表示領域上での前記ロボットの前記複数の軸のそれぞれの位置を検出する、請求項1〜4の何れか一項に記載の協調動作支援装置。
  6. 前記表示用データ選択部は、前記ロボットに加えられた外力による、前記ロボットの動作状態に応じて、選択した前記表示用データを変更する、請求項1〜5の何れか一項に記載の協調動作支援装置。
  7. 前記ロボットが有する前記複数の軸はサーボモータにより駆動され、
    前記撮像部は、前記表示部において前記作業者の視野を撮影可能なように取り付けられ、
    前記画像上で前記作業者の指を検出し、前記画像上での前記作業者の指の位置に対応する前記表示領域上での位置が前記表示領域に表示された前記表示用データと重なる場合に、前記表示用データと関連する前記サーボモータを制御するための制御パラメータの値を変化させる動作制御部をさらに有する、請求項1〜3の何れか一項に記載の協調動作支援装置。
  8. 前記表示制御部は、前記指定された前記ロボットの動作の形式に関連する前記ロボットの部分の移動軌跡を前記表示領域に表示させる、請求項1〜3の何れか一項に記載の協調動作支援装置。
  9. 前記ロボットが有する前記複数の軸はサーボモータにより駆動され、
    前記作業者の音声を表す音声信号を生成する音声入力部と、
    前記音声信号に含まれる前記作業者の音声を認識し、認識された前記作業者の音声に基づいて前記サーボモータを制御するための制御パラメータの値を変化させるか、または、前記ロボットの動作の形式を変更する動作制御部とをさらに有する、請求項1〜3の何れか一項に記載の協調動作支援装置。
JP2018146907A 2018-08-03 2018-08-03 協調動作支援装置 Active JP6823018B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2018146907A JP6823018B2 (ja) 2018-08-03 2018-08-03 協調動作支援装置
US16/513,709 US11458618B2 (en) 2018-08-03 2019-07-17 Collaborative operation support device
DE102019005297.8A DE102019005297B4 (de) 2018-08-03 2019-07-26 Unterstützungsvorrichtung für einen kooperativen Vorgang
CN201910702015.5A CN110788836A (zh) 2018-08-03 2019-07-31 协同动作辅助装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018146907A JP6823018B2 (ja) 2018-08-03 2018-08-03 協調動作支援装置

Publications (2)

Publication Number Publication Date
JP2020019127A JP2020019127A (ja) 2020-02-06
JP6823018B2 true JP6823018B2 (ja) 2021-01-27

Family

ID=69168183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018146907A Active JP6823018B2 (ja) 2018-08-03 2018-08-03 協調動作支援装置

Country Status (4)

Country Link
US (1) US11458618B2 (ja)
JP (1) JP6823018B2 (ja)
CN (1) CN110788836A (ja)
DE (1) DE102019005297B4 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022086230A (ja) * 2020-11-30 2022-06-09 セイコーエプソン株式会社 プログラム作成支援方法、プログラム作成支援装置、プログラム作成支援プログラム及び記憶媒体
JP2022088805A (ja) * 2020-12-03 2022-06-15 株式会社メディカロイド ロボット手術システムおよび表示方法
DE102021104883B3 (de) 2021-03-01 2022-06-15 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum roboterunterstützten Ausführen von Aufgaben, Roboter zum Unterstützen eines Benutzers beim Ausführen von Aufgaben und Computerprogrammprodukt
US20220309753A1 (en) * 2021-03-25 2022-09-29 B/E Aerospace, Inc. Virtual reality to assign operation sequencing on an assembly line

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6328586A (ja) 1986-07-18 1988-02-06 トキコ株式会社 工業用ロボツト
JPH07295625A (ja) * 1994-04-28 1995-11-10 Fanuc Ltd ロボットのジョグ送り情報表示装置
JP2776477B2 (ja) * 1996-02-13 1998-07-16 川崎重工業株式会社 ロボット3次元位置姿勢教示システム
JP4257468B2 (ja) * 1999-03-31 2009-04-22 株式会社安川電機 塗装ロボット
DE10305384A1 (de) 2003-02-11 2004-08-26 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Visualisierung rechnergestützter Informationen
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
JP4452207B2 (ja) * 2005-04-08 2010-04-21 三菱重工業株式会社 ロボット教示装置
JP5704833B2 (ja) * 2010-05-10 2015-04-22 オリンパス株式会社 操作入力装置およびマニピュレータシステム
JP5246672B2 (ja) * 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 ロボットシステム
JP6193554B2 (ja) 2011-11-04 2017-09-06 ファナック アメリカ コーポレイション 3次元表示部を備えたロボット教示装置
EP2875914A1 (en) * 2012-07-20 2015-05-27 Kabushiki Kaisha Yaskawa Denki Robot simulator, robot teaching device and robot teaching method
JP5716769B2 (ja) 2013-02-21 2015-05-13 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
JP6266268B2 (ja) * 2013-08-28 2018-01-24 Dmg森精機株式会社 表示装置
JP6379501B2 (ja) 2014-02-05 2018-08-29 株式会社デンソーウェーブ ロボットの教示装置
JP2016107379A (ja) * 2014-12-08 2016-06-20 ファナック株式会社 拡張現実対応ディスプレイを備えたロボットシステム
US9643314B2 (en) * 2015-03-04 2017-05-09 The Johns Hopkins University Robot control, training and collaboration in an immersive virtual reality environment
KR102521493B1 (ko) * 2015-10-27 2023-04-14 삼성전자주식회사 청소 로봇 및 그 제어방법
JP2018008347A (ja) * 2016-07-13 2018-01-18 東芝機械株式会社 ロボットシステムおよび動作領域表示方法
US10413270B2 (en) * 2016-11-15 2019-09-17 Canon Medical Systems Corporation Medical image diagnostic apparatus
DE102016224774B3 (de) * 2016-12-13 2018-01-25 Audi Ag Verfahren zur Programmierung eines Messroboters und Programmiersystem
US20200055195A1 (en) * 2017-05-03 2020-02-20 Taiga Robotics Corp. Systems and Methods for Remotely Controlling a Robotic Device
CN107577159A (zh) * 2017-10-31 2018-01-12 塔普翊海(上海)智能科技有限公司 扩增实境仿真系统
CN108127669A (zh) * 2018-02-08 2018-06-08 华南理工大学 一种基于动作融合的机器人示教系统及实施方法
DE102018109463C5 (de) * 2018-04-19 2023-10-05 Voraus Robotik Gmbh Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung

Also Published As

Publication number Publication date
US11458618B2 (en) 2022-10-04
DE102019005297A1 (de) 2020-02-06
CN110788836A (zh) 2020-02-14
US20200039066A1 (en) 2020-02-06
JP2020019127A (ja) 2020-02-06
DE102019005297B4 (de) 2022-10-13

Similar Documents

Publication Publication Date Title
JP6823018B2 (ja) 協調動作支援装置
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
CN105666505B (zh) 具备扩展现实对应显示器的机器人系统
US9527214B2 (en) Robot apparatus, method for controlling the same, and computer program
JP5526881B2 (ja) ロボットシステム
US10427298B2 (en) Robot system displaying information for teaching robot
JP6399692B2 (ja) ヘッドマウントディスプレイ、画像表示方法及びプログラム
CN110505947B (zh) 机器人系统及其运行方法
JP2018183845A (ja) ロボットを操作するための操作装置、ロボットシステム、および操作方法
KR20100085297A (ko) 이동 가능한 디스플레이 장치와 이를 구비한 로봇 및 그 디스플레이 방법
CN111487946B (zh) 机器人系统
WO2020157955A1 (ja) 仮想オブジェクト表示装置及び仮想オブジェクト表示方法
JP2019042843A (ja) ロボットシステム及びその運転方法
CN112008692A (zh) 示教方法
JP2006026790A (ja) 教示モデル生成装置
JP7167518B2 (ja) 制御装置、ヘッドマウントディスプレイおよびロボットシステム
JP7053516B2 (ja) ウェアラブルユーザインタフェース制御システム、それを用いた情報処理システム、および、制御プログラム
CN109227531B (zh) 生成动作程序的编程装置以及程序生成方法
JP6885909B2 (ja) ロボット制御装置
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
JP6435940B2 (ja) ロボット操作装置、及びロボット操作プログラム
JP6601201B2 (ja) ロボット操作装置、及びロボット操作プログラム
KR20190091870A (ko) 모션센서와 vr을 활용한 로봇 제어 시스템
US20200372712A1 (en) Electronic device, robotic system, and virtual area setting method
CN115079973A (zh) 显示系统和显示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200114

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200325

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210107

R150 Certificate of patent or registration of utility model

Ref document number: 6823018

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150