JP7324935B2 - ロボット制御システム、ロボット制御方法、およびロボット制御プログラム - Google Patents

ロボット制御システム、ロボット制御方法、およびロボット制御プログラム Download PDF

Info

Publication number
JP7324935B2
JP7324935B2 JP2022510370A JP2022510370A JP7324935B2 JP 7324935 B2 JP7324935 B2 JP 7324935B2 JP 2022510370 A JP2022510370 A JP 2022510370A JP 2022510370 A JP2022510370 A JP 2022510370A JP 7324935 B2 JP7324935 B2 JP 7324935B2
Authority
JP
Japan
Prior art keywords
robot
command
image
frame image
partial area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022510370A
Other languages
English (en)
Other versions
JPWO2021192271A1 (ja
Inventor
慶太 嶌本
光司 曽我部
亮吉 平田
勝 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Publication of JPWO2021192271A1 publication Critical patent/JPWO2021192271A1/ja
Application granted granted Critical
Publication of JP7324935B2 publication Critical patent/JP7324935B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40151Time delay, problems caused by time delay between local and remote
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)

Description

本開示の一側面は、ロボット制御システム、ロボット制御方法、およびロボット制御プログラムに関する。
特許文献1には、スレーブロボットに対して操作指令を送信し、該スレーブロボットが動作中に撮像した実画像を受信する遠隔操作装置が記載されている。
特開2015-47666号公報
ロボットの操作を支援することが望まれている。
本開示の一側面に係るロボット制御システムは、指令に基づいて動作するロボットの動作に応じて撮影位置が変化するフレーム画像を受信する受信部と、指令を生成する指令生成部と、指令に対するロボットの動作の遅延を表すように、フレーム画像から、指令に応じて部分領域を抽出してオペレーション画像を生成するオペレーション画像生成部とを備える。
本開示の一側面に係るロボット制御方法は、少なくとも一つのプロセッサを備えるロボット制御システムによって実行される表示方法であって、指令に基づいて動作するロボットの動作に応じて撮影範囲が変化するフレーム画像を受信するステップと、指令を生成するステップと、指令に対するロボットの動作の遅延を表すように、フレーム画像から、指令に応じて部分領域を抽出してオペレーション画像を生成するステップとを含む。
本開示の一側面に係るロボット制御プログラムは、指令に基づいて動作するロボットの動作に応じて撮影範囲が変化するフレーム画像を受信するステップと、指令を生成するステップと、指令に対するロボットの動作の遅延を表すように、フレーム画像から、指令に応じて部分領域を抽出してオペレーション画像を生成するステップとをコンピュータに実行させる。
本開示の一側面によれば、ロボットの操作を支援することができる。
ロボット制御システムの適用の一例を示す図である。 ロボット制御システムのために用いられるハードウェア構成の一例を示す図である。 操作装置の機能構成の一例を示す図である。 座標系変換の一例を示す図である。 ロボット制御システムの動作の一例を示すフローチャートである。 オペレーション画像を生成する処理の一例を示す図である。 フレーム画像(第1フレーム画像)の変化の一例を示す図である。 図7に対応する、オペレーション画像の変化の一例を示す図である。
以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。
[システムの構成]
実施形態に係るロボット制御システム1は、ユーザによるロボット2の操作を支援するコンピュータシステムである。ロボット2はその操作に基づいて動作して、加工、組立等の様々な作業を実行する。「ロボットの操作を支援する」とは、ロボット2を操作し易い環境をユーザに提供することをいう。ユーザはロボットを操作する人をいい、したがって、操作者ともいうことができる。
図1はロボット制御システム1の適用の一例を示す図である。一例では、ロボット制御システム1は操作装置10を備える。操作装置10は通信ネットワークNを介してロボット用コンピュータ3と接続される。ロボット用コンピュータ3はロボットコントローラ4と接続され、ロボットコントローラ4はロボット2と接続される。
図1では操作装置10およびロボット2を一つずつ示す。しかし、操作装置10およびロボット2の個数はいずれも限定されず、操作装置10およびロボット2の少なくとも一方が複数個存在してもよい。
一例では、操作装置10はユーザが存在する操作環境Euに位置するのに対して、ロボット用コンピュータ3、ロボットコントローラ4、およびロボット2はユーザにとって遠隔に位置する作業環境Ewに位置する。すなわち、操作環境Euから見ると作業環境Ewは遠隔環境である。或る物が「遠隔に位置する」とは、ユーザが自身の目で確認できない位置にその物が存在することをいう。操作環境Euと作業環境Ewとの間の距離、すなわちユーザとロボット2との間の距離は何ら限定されない。例えば、作業環境Ewは操作環境Euからキロメートルのオーダーで離れていてもよい。あるいは、作業環境Ewは操作環境Euから数メートルのオーダーで離れていてもよく、例えば、操作環境Euである部屋の隣の空間が作業環境Ewでもよい。
操作環境Euと作業環境Ewとの間の距離が限定されないことに対応して、通信ネットワークNの構成も限定されない。例えば、通信ネットワークNはインターネットおよびイントラネットの少なくとも一方を含んで構成されてもよい。あるいは、通信ネットワークNは1本の通信ケーブルによって実現される単純な構成であってもよい。
ユーザが作業環境Ewの画像を見ながらロボット2を操作する場合に、ユーザ操作と画像に映るロボット2の動作との間に遅延が発生し得る。すなわち、ユーザ操作に対応するロボット2の動作が、該ユーザ操作よりも少し遅れて画像に映る可能性がある。より具体的には、ユーザ操作によるロボット2への指令と、画像に映るロボット2の動作との間に遅延が発生し得る。本開示において、遅延とは、ロボット2への指令に対して、画像に映る該ロボット2の動作が遅れることをいう。
一例では、遅延は通信ネットワークを介する指令および応答の伝送において生ずる。例えば、ユーザが手元の操作装置10を用いて指令を入力したとしても、その指令がロボット2に伝わるまでには一定の通信時間を要する。さらに、その指令に対するロボット2の応答に関する情報が作業環境Ewから操作装置10に伝わるまでにも一定の通信時間を要する。そのため、ユーザは指令に対する応答をすぐに確認することができない。ロボット制御システム1はこの遅延を吸収または軽減して、ロボットの操作をリアルタイムにユーザに直感的に把握させる。ここで、指令とは、ユーザ操作によって入力される命令をいう。応答とは、その指令に対する出力をいう。応答を示す情報の種類は限定されず、例えば、応答はロボット2の動作(位置または姿勢)を示す情報でもよいし、ロボットコントローラ4からロボット2へと出力される命令により示されてもよい。
一例では、遅延の影響は、指令に関する値の積分値と応答に関する値の積分値との差分として表れる。指令に関する値とは、例えば、ユーザ操作に対応する追加の移動ベクトルに関する値、すなわち、移動量または移動速度と移動方向とを示す値である。応答に関する値とは、例えば、ロボットの追加の動作を示す追加の移動ベクトルに関する値、すなわち、移動量または移動速度と移動方向とを示す値である。本開示では、指令に関する値を単に「指令値」ともいい、応答に関する値を単に「応答値」ともいう。
操作装置10はロボット2を操作するためのコンピュータである。操作装置10は、ロボット2を操作するための入力インタフェースである操作インタフェースと、作業環境Ewを写す画像を表示可能なモニタとを備える。ユーザはモニタに表示された作業環境Ewを確認しながら操作インタフェースでロボット2を操作することができる。操作装置10は操作インタフェースから入力されたユーザ操作(指令)を示す指令値をロボット用コンピュータ3に向けて送信する。
ロボット用コンピュータ3は操作装置10から入力された指令値を解釈して、その指令値に対応する指令信号をロボットコントローラ4に出力するコンピュータである。
ロボットコントローラ4は、ロボット用コンピュータから入力された指令信号に従ってロボット2を制御する装置である。言い換えると、ロボットコントローラ4は、ユーザ操作に応じて操作装置10から送られてくる指令に基づいてロボット2を制御する。一例では、指令信号はロボット2を制御するためのデータを含み、例えば、ロボット2の軌道を示すパスを含む。ロボット2の軌道とは、ロボット2またはその構成要素の動きの経路のことをいう。例えば、ロボット2の軌道は先端部の軌道であり得る。一例では、ロボットコントローラ4は、指令信号で示される目標値に先端部の位置および姿勢を一致させるための関節角度目標値(ロボット2の各関節の角度目標値)を算出し、その角度目標値に従ってロボット2を制御する。
ロボット2は、人に代わって作業する装置または機械である。一例では、ロボット2は多軸のシリアルリンク型の垂直多関節ロボットである。ロボット2は、マニピュレータ2aと、該マニピュレータ2aの先端に取り付けられたツールであるエンドエフェクタ2bとを備える。ロボット2はそのエンドエフェクタ2bを用いて様々な処理を実行することができる。ロボット2は、所定の範囲内においてエンドエフェクタ2bの位置および姿勢を自在に変更し得る。ロボット2は、6軸の垂直多関節ロボットでもよいし、6軸に1軸の冗長軸を追加した7軸の垂直多関節ロボットでもよい。
ロボット2の動作は、該ロボット2に搭載された各種のセンサによってロボット2の応答として記録されて、センサデータとして例えばロボットコントローラ4に出力される。ロボットコントローラ4はロボット2の動作(応答)を示す応答値をそのセンサデータに基づいて算出し、その応答値をロボット用コンピュータ3経由で操作装置10へと送信する。あるいは、ロボットコントローラ4はロボット2への指令信号を応答値として、ロボット用コンピュータ3経由で操作装置10へと送信してもよい。ロボット2のセンサからのセンサデータの少なくとも一部は、ロボットコントローラ4を経由することなくロボット用コンピュータ3に出力されてもよい。この場合には、ロボット用コンピュータ3がそのセンサデータに基づいて応答値を算出してもよい。
一例では、作業環境Ewには手先カメラ(第1カメラ)20および俯瞰カメラ(第2カメラ)30が設けられる。手先カメラ20はロボット2上に(例えばロボット2の先端に)配置される撮像装置である。したがって、手先カメラ20はロボット2の動作に応じて位置および姿勢の少なくとも一方が変化する。手先カメラ20はエンドエフェクタ2bまたはその周辺環境を撮影することができる。一方、俯瞰カメラ30は、ロボット2の動作とは独立した位置および姿勢を取るように設置される撮像装置である。俯瞰カメラ30はロボット2に取り付けられるのではなく、ロボット2の動作の影響を受けない場所(例えば、壁面、天井、カメラスタンドなど)に設定される。俯瞰カメラ30は作業環境Ewを撮影し、例えば、ロボット2の少なくとも一部を撮影する。一例では、手先カメラ20および俯瞰カメラ30のそれぞれは、撮影によって生成したフレーム画像をロボット用コンピュータ3に向けて出力し、ロボット用コンピュータ3はそのフレーム画像を操作装置10に向けて送信する。フレーム画像とは動画像を構成する個々の静止画像をいい、カメラなどの撮像装置によって生成される。本開示では、手先カメラ20によって生成されるフレーム画像を「第1フレーム画像」ともいい、俯瞰カメラによって生成されるフレーム画像を「第2フレーム画像」ともいう。
操作装置10またはロボット用コンピュータ3として機能するコンピュータは限定されない。一例では、これらのコンピュータは、パーソナルコンピュータによって構成されてもよいし、業務用サーバなどの大型のコンピュータによって構成されてもよい。
図2は、操作装置10またはロボット用コンピュータ3のために用いられるコンピュータ100のハードウェア構成の一例を示す図である。この例では、コンピュータ100は本体110、モニタ120、および入力デバイス130を備える。
本体110は少なくとも一つのコンピュータにより構成される。本体110は回路160を有し、回路160は、少なくとも一つのプロセッサ161と、メモリ162と、ストレージ163と、入出力ポート164と、通信ポート165とを有する。ストレージ163は、本体110の各機能モジュールを構成するためのプログラムを記録する。ストレージ163は、ハードディスク、不揮発性の半導体メモリ、磁気ディスク、光ディスク等の、コンピュータ読み取り可能な記録媒体である。メモリ162は、ストレージ163からロードされたプログラム、プロセッサ161の演算結果等を一時的に記憶する。プロセッサ161は、メモリ162と協働してプログラムを実行することで、各機能モジュールを構成する。入出力ポート164は、プロセッサ161からの指令に応じて、モニタ120または入力デバイス130との間で電気信号の入出力を行う。入出力ポート164はロボットコントローラ4などの他の装置との間で電気信号の入出力を行ってもよい。通信ポート165は、プロセッサ161からの指令に従って、通信ネットワークNを介して他の装置との間でデータ通信を行う。
モニタ120は、本体110から出力された情報を表示するための装置である。モニタ120は本開示における表示部の一例である。モニタ120は、グラフィック表示が可能であればいかなるものであってもよく、その具体例としては液晶パネル等が挙げられる。入力デバイス130は、本体110に情報を入力するための装置である。入力デバイス130は、所望の情報を入力可能であればいかなるものであってもよく、その具体例としてはキーパッド、マウス、操作コントローラ等の操作インタフェースが挙げられる。
モニタ120および入力デバイス130はタッチパネルとして一体化されていてもよい。例えばタブレットコンピュータのように、本体110、モニタ120、および入力デバイス130が一体化されていてもよい。
図3は操作装置10の機能構成の一例を示す図である。一例では、操作装置10は機能モジュールとして画像受信部11、指令生成部12、データ取得部13、座標変換部14、および画像生成部15を備える。画像受信部11は作業環境Ewからフレーム画像を受信する機能モジュールである。指令生成部12は操作インタフェースからの入力に従ってロボット2への指令(指令値)を生成する機能モジュールである。データ取得部13は。ロボット2の操作または動作に関連するデータを操作環境Euまたは作業環境Ewから取得する機能モジュールである。例えば、データ取得部13は指令値および応答値を取得する。座標変換部14はロボット制御に必要な座標系変換を実行する機能モジュールである。画像生成部15は、モニタ120に表示するためのオペレーション画像をフレーム画像から生成する機能モジュールである。オペレーション画像とは、ユーザに視認される画像をいう。画像生成部15は第1フレーム画像からオペレーション画像を生成してもよいし、第2フレーム画像からオペレーション画像を生成してもよい。本実施形態では、画像生成部15が第1フレーム画像からオペレーション画像を生成する。
一例では、画像生成部15はオペレーション画像を生成するための機能モジュールとして、方向情報生成部16および遅延情報生成部17を備える。方向情報生成部16は、第1フレーム画像におけるロボット2の動作方向を示す方向情報を生成する機能モジュールである。遅延情報生成部17は、ロボット2への指令に対する該ロボット2の動作の遅延を示す遅延情報を生成する機能モジュールである。
[座標系変換]
図4を参照しながら座標系変換について説明する。図4はロボット制御システム1における座標系変換(座標変換)の一例を示す図である。ロボット制御システム1では、操作インタフェース(入力デバイス130)から入力される方向に対応するコントローラ座標系Cと、ロボット2の姿勢に対応するロボット座標系Cと、エンドエフェクタ2bの姿勢に対応するツール座標系Cと、手先カメラ20の姿勢に対応する第1カメラ座標系Cc1と、俯瞰カメラ30の姿勢に対応する第2カメラ座標系Cc2とが存在し得る。
座標系変換(言い換えると、座標系間での位置および方向の変換)は行列Rによって表すことができる。図4において、行列Ru→c1はコントローラ座標系Cから第1カメラ座標系Cc1への変換を表し行列Rc1→uは第1カメラ座標系Cc1からコントローラ座標系Cへの変換を表す。行列Ru→rはコントローラ座標系Cからロボット座標系Cへの変換を表し行列Rr→uはロボット座標系Cからコントローラ座標系Cへの変換を表す。行列Ru→c2はコントローラ座標系Cから第2カメラ座標系Cc2への変換を表し行列Rc2→uは第2カメラ座標系Cc2からコントローラ座標系Cへの変換を表す。行列Rr→tはロボット座標系Cからツール座標系Cへの変換を表し行列Rt→rはツール座標系Cからロボット座標系Cへの変換を表す。行列Rr→c1はロボット座標系Cから第1カメラ座標系Cc1への変換を表し行列Rc1→rは第1カメラ座標系Cc1からロボット座標系Cへの変換を表す。行列Rr→c2はロボット座標系Cから第2カメラ座標系Cc2への変換を表し行列Rc2→rは第2カメラ座標系Cc2からロボット座標系Cへの変換を表す。
手先カメラ20はロボット2上に配置されるので、第1カメラ座標系Cc1はロボット座標系Cまたはツール座標系Cと同一またはほぼ同一と見做すことができる。この場合には、これらの座標系間での変換が省略されてもよい。
ある行列Rは別の複数の行列Rの組合せによって置き換えることができる。例えば、行列Ru→c1は、行列Ru→c2、行列Rc2→r、および行列Rr→c1の組合せによって置き換えられる。この置き換えは、Ru→c1=Rr→c1c2→ru→c2で表される。
ユーザ操作は任意の座標系に基づいて行われる可能性がある。例えば、ユーザはオペレーション画像で構成される動画像、または俯瞰カメラ30により撮影された動画像を見ながらロボット2を操作してもよい。指令生成部12はその座標系に基づく指令を出力する。この場合には、座標変換部14は第1カメラ座標系Cc1または第2カメラ座標系Cc2からロボット座標系Cへの変換を実行して、ロボット座標系Cでの指令を生成し、この変換された指令をロボット用コンピュータ3に向けて送信する。本実施形態では、操作装置10が座標変換部14を備えるので、遅延の影響を受けることなく座標系変換を実行することができる。
[ロボット制御方法]
本開示に係るロボット制御方法の一例として、図5を参照しながら、ロボット制御システム1により実行される一連の処理手順の一例を説明する。図5はロボット制御システム1の動作の一例を処理フローS1として示すフローチャートである。すなわち、ロボット制御システム1は処理フローS1を実行する。処理フローS1は、手先カメラ20から得られる一つの第1フレーム画像を処理して一つのオペレーション画像を生成する処理を示す。手先カメラ20が時間の経過に伴って次々に第1フレーム画像を生成することに応答して、ロボット制御システム1はそれらの第1フレーム画像を順に処理して一連のオペレーション画像を生成する。したがって、処理フローS1は繰り返し実行される。その繰返し処理によって、一連のオペレーション画像から成る動画像が得られる。
ステップS11では、画像受信部11が第1フレーム画像を受信する。作業環境Ewでは、手先カメラ20が第1フレーム画像をロボット用コンピュータ3に出力し、ロボット用コンピュータ3が通信ネットワークNを介してその第1フレーム画像を操作装置10に向けて送信する。この第1フレーム画像はエンドエフェクタ2bの少なくとも一部を写していてもよい。手先カメラ20はロボット2の動作に応じて位置または姿勢が変化するので、第1フレーム画像の撮影位置もロボット2の動作に応じて変化する。撮影位置とは、第1フレーム画像(手先カメラ20)によって捕捉および記録される領域の位置または範囲をいう。
ステップS12では、データ取得部13が指令値および応答値を取得する。データ取得部13は指令生成部12によって生成された指令値を取得し、ロボット用コンピュータから送られてくる応答値を受信する。上述したように応答値は限定されず、例えば、応答値はロボット2の動作(位置または姿勢)を示す情報でもよいし、ロボットコントローラ4からロボット2へと出力される指令値でもよい。
ステップS13では、画像生成部15が、取得されたこれらのデータに基づいてオペレーション画像を生成する。図6を参照しながらその生成処理の一例を説明する。図6はオペレーション画像を生成する処理の一例を示すフローチャートである。
ステップS131では、座標変換部14がオペレーション画像を生成するための座標系を設定する。一例では、座標変換部14は、第1フレーム画像を生成する手先カメラ20に関連する座標系をオペレーション画像の生成のために設定する。座標変換部14は手先カメラ20に関連する座標系として第1カメラ座標系Cc1を設定してもよい。第1カメラ座標系Cc1がロボット座標系Cまたはツール座標系Cと同一またはほぼ同一と見做すことができる場合には、座標変換部14はロボット座標系Cまたはツール座標系Cを、手先カメラ20に関連する座標系として設定してもよい。
座標変換部14は必要に応じて、その設定のために、他の座標系から手先カメラ20に関連する座標系への変換を実行する。一例として、俯瞰カメラ30からの動画像(すなわち、一連の第2フレーム画像)に基づくユーザ操作が行われた場合には、座標変換部14は、指令生成部12により生成された指令に対応する座標系(例えば、ロボット座標系Cまたは第2カメラ座標系Cc2)を、手先カメラ20に関連する指令に関連する座標系(例えば、第1カメラ座標系Cc1、ロボット座標系C、またはツール座標系C)に変換してもよい。座標変換部14は変換された座標系をオペレーション画像の生成のために設定する。
ステップS132では、方向情報生成部16が方向情報を生成する。方向情報生成部16は、座標変換部14によって設定された座標系に従って、第1フレーム画像におけるロボット2の動作方向を特定し、その動作方向を示す方向情報を生成する。3次元空間におけるロボット2の動作方向を第1フレーム画像上でのロボット2の動作方向に置き換えると、第1フレーム画像上での動作方向は、水平方向、垂直方向、奥行方向、および回転方向のうちの少なくとも一つの方向の組合せによって規定される。例えば、方向情報生成部16は、少なくとも水平方向と垂直方向とのうちの一つを動作方向として表す方向情報を生成する。あるいは、方向情報生成部16は、少なくとも奥行方向を動作方向として表す方向情報を生成する。あるいは、方向情報生成部16は、少なくとも回転方向を動作方向として表す方向情報を生成する。
ステップS133では、遅延情報生成部17が遅延情報を生成する。遅延情報生成部17は指令生成部12によって生成された指令と、ロボット用コンピュータ3から得られるロボット2の応答とに基づいて遅延情報を生成する。より具体的には、遅延情報生成部17は指令生成部12からロボット用コンピュータ3(言い換えると、ロボットコントローラ4)へと出力される指令値と、該指令値に対するロボット2の動作(応答)を示す応答値との差に基づいて遅延情報を生成する。例えば、遅延情報生成部17はその差を示す遅延情報を生成してもよい。一例では、遅延情報生成部17は、指令値の積分値と応答値の積分値との差を、指令値と応答値との差として用いてもよい。
ステップS134では、画像生成部15が、指令生成部12により生成された指令に応じて第1フレーム画像から部分領域を抽出する。部分領域は第1フレーム画像の一部の領域をいう。画像生成部15は座標変換部14により変換された座標系に応じて、指令に対応する部分領域を設定する。より具体的には、画像生成部15は、指令に対するロボットの動作の遅延が部分領域によって表されるように、部分領域の位置および寸法の少なくとも一方を設定する。そして、画像生成部15はその設定に基づいて第1フレーム画像をトリミングして部分領域を抽出する。例えば、画像生成部15は設定された位置および寸法の少なくとも一方に基づいて、第1フレーム画像の全周領域をトリミングして、残りの領域(内側領域)を部分領域として抽出する。全周領域とは、外縁の全体を含む領域をいう。トリミングにより除去される領域の最大幅が予め設定されていてもよい。除去された領域はオペレーション画像には用いられず、したがってユーザに視認されない。
一例では、画像生成部15はエンドエフェクタ2bの少なくとも一部が部分領域内に映るように(言い換えると、エンドエフェクタ2bの少なくとも一部が部分領域に含まれるように)部分領域を抽出する。
ステップS135では、画像生成部15が、遅延を表すマークを部分領域上に重畳してオペレーション画像を生成する。本開示において、マークとは、何らかの情報を人に視認させるための表示をいう。「遅延を表すマーク」とは、遅延をユーザに視認させるための表示をいう。一例では、画像生成部15は基準マークおよび仮想マークを、遅延を表すマークとして部分領域上に重畳する。
基準マークは、フレーム画像(より具体的には第1フレーム画像)に位置が固定され、且つロボット2の基準点を表すマークである。「フレーム画像(第1フレーム画像)に位置が固定される」とは、フレーム画像(第1フレーム画像)における基準マークの位置が予め定められて、且つその位置が変わらないことをいう。「ロボットの基準点」とは、フレーム画像(第1フレーム画像)を通してロボット2を見た場合に、該ロボット2の基準として把握される箇所をいう。すなわち、「ロボットの基準点」とは、フレーム画像(第1フレーム画像)におけるロボットの基準点である。一例では、画像生成部15は第1フレーム画像の中心を基準マークの位置として設定する。
仮想マークは、オペレーション画像に位置が固定され、且つ遅延を表すためのマークである。「オペレーション画像に位置が固定される」とは、オペレーション画像における仮想マークの位置が予め定められて、且つその位置が変わらないことをいう。一例では、画像生成部15は部分領域の中心を仮想マークの位置として設定する。あるいは、画像生成部15はエンドエフェクタ2bの作用点に、または該作用点に関連する位置に、仮想マークを設定してもよい。作用点に関連する位置に仮想マークを表示することで、ロボット操作がより容易になる(操作性の向上)。
マークの具体的な表現方法は限定されず、任意の方針で設計されてよい。例えば、マークは点、十字、矢印、またはバー(bar)によって表されてもよいし、部分領域に映るエンドエフェクタの陰影(シルエット)によって表現されてもよい。表現方法は基準マークと仮想マークとで同じでもよいし異なってもよい。基準マークおよび仮想マークの間で形状および寸法が同じでもよい。2種類のマークの間で形状および寸法を揃えることで、遅延の有無がより明確に表現されるので、操作性の向上に寄与し得る。
部分領域上での基準マークの位置を設定するために、画像生成部15は第1フレーム画像に対する部分領域の位置および寸法の少なくとも一方を設定する。この設定は、第1フレーム画像から抽出した部分領域の位置を元の位置からずらす処理か、または該部分領域の寸法を元の寸法から拡大または縮小する処理か、あるいは、位置および寸法の双方を変更する処理である。画像生成部15は方向情報および遅延情報の少なくとも一つに応じて、第1フレーム画像に対する部分領域の位置および寸法の少なくとも一方を設定する。
方向情報が第1フレーム画像上での水平方向および垂直方向のうちの少なくとも一つを動作方向として示す場合には、画像生成部15は第1フレーム画像に対して部分領域を該方向情報に応じて平行移動させて、部分領域の位置を設定する。方向情報が第1フレーム画像上での奥行方向を動作方向として示す場合には、画像生成部15は第1フレーム画像に対して部分領域を該方向情報に応じてスケーリングさせて、部分領域の寸法を設定する。方向情報が第1フレーム画像上での回転方向を動作方向として示す場合には、画像生成部15は第1フレーム画像に対して部分領域を該方向情報に応じて回転移動させて、部分領域の位置を設定する。
画像生成部15は、第1フレーム画像に対して部分領域の位置をずらす量(ずらし量)と、第1フレーム画像に対して部分領域の寸法を変更する量(スケーリング量)との少なくとも一方について、遅延情報に応じてその量を設定してもよい。すなわち、画像生成部15は第1フレーム画像に対する部分領域の位置および寸法の少なくとも一方を遅延情報に応じて設定してもよい。
一例では、画像生成部15は遅延情報に応じたシフト量に基づいて部分領域の位置または寸法を設定する。具体的には、画像生成部15は遅延情報で示される差(すなわち、指令値と応答値との差)を第1フレーム画像の画素数に変換する。その変換のための係数をゲインというとすると、画像生成部15は差と所与のゲインとの積をシフト量として求める。そして、画像生成部15はそのシフト量に応じて部分領域の位置または寸法を設定する。
あるいは、画像生成部15はずらし量およびスケーリング量との少なくとも一方について固定値を設定してもよい。例えば画像生成部15は、フレーム画像から部分領域を抽出する際に除去される領域の最大幅を、ずらし量およびスケーリング量の少なくとも一方として設定してもよい。画像生成部15は、ずらし量またはスケーリング量がその最大幅よりも大きくなる場合には、ずらし量またはスケーリング量を所与の最大変更量に設定し、そうでない場合には、ずらし量またはスケーリング量をシフト量に応じて設定してもよい。
画像生成部15は、第1フレーム画像に対して位置または寸法が設定された部分領域上に基準マークおよび仮想マークを重畳する。すなわち、画像生成部15はその部分領域上に基準マークおよび仮想マークを描画する。画像生成部15はこの処理によって、遅延を表すようにオペレーション画像を生成する。上述したように基準マークの位置は第1フレーム画像に固定されるので、部分領域上での基準マークの位置は、第1フレーム画像に対する部分領域の位置および寸法の少なくとも一方に応じて変化する。一例では、遅延が大きいほど、第1フレーム画像に対する部分領域のシフト量またはスケーリング量が大きくなる。遅延がない場合には、画像生成部15は仮想マークと基準マークとが重なるようにこれらのマークを部分領域に重畳する。この場合に仮想マークと基準マークとを完全に一致させることは必須ではなく、例えば、シフト量が0の場合でも二つのマークを視認可能にさせるために、画像生成部15はその二つのマークの位置を少しずらしたり、一方のマークの形状または寸法を他方のマークの形状または寸法と異ならせたりしてもよい。ここで、「遅延がない場合」とは、ユーザが遅延の影響を知覚しないかまたは該影響を無視できる程度に、指令値と応答値との差分が小さいことをいう。例えば、「遅延がない場合」とは、その差分が0であるかまたは所定の閾値以下であることをいう。
図5に戻って、ステップS14では、画像生成部15がオペレーション画像をモニタ120上に表示する。ユーザはオペレーション画像上のマーク(例えば基準マークおよび仮想マーク)を視認することでこの時点での遅延の程度を把握することができる。
図7および図8を参照しながらオペレーション画像の生成の一例を説明する。図7は第1フレーム画像の変化の一例を示す図である。図8はオペレーション画像の変化の一例を示す図であり、図7に対応する。
図7は、ユーザがエンドエフェクタ2bをワークWに近づけるために、第1フレーム画像における方向Raに沿ってエンドエフェクタ2bを動かす場面を示す。より具体的には、ユーザは状況210aにおいてエンドエフェクタ2bを方向Raに沿って動かし、状況210bにおいてその操作を止めるものとする。この操作に対応して、画像受信部11はまず、状況210aを写す第1フレーム画像201を受信し、その後に、共に状況210bを写す第1フレーム画像202および第1フレーム画像203をこの順に受信するとする。
図8を参照しながら、第1フレーム画像201の処理について説明する。方向情報生成部16は、座標変換部14によって設定された座標系に従って、第1フレーム画像201におけるロボットの動作方向、すなわち方向Raを示す方向情報を生成する。この例では、方向Raは第1フレーム画像201における水平方向および垂直方向の混合であるとする。遅延情報生成部17はエンドエフェクタ2bを方向Raに沿って動かすための指令と、ロボット2の応答とに基づいて遅延情報を生成する。画像生成部15はその指令に応じて第1フレーム画像201から部分領域301を抽出する。画像生成部15は第1フレーム画像201に対して部分領域301を平行移動させて、第1フレーム画像201に対する部分領域301の位置を設定する。図8ではその平行移動をベクトル221で示す。画像生成部15はその部分領域301上に基準マーク310および仮想マーク320を重畳して、状況210aを写すオペレーション画像401を生成する。図8の例では、画像生成部15は基準マーク310を第1フレーム画像の中心に重畳し、仮想マーク320を部分領域の中心に重畳するとする。遅延は基準マーク310の位置と仮想マーク320の位置との差で表現される。その差は、第1フレーム画像201に対する部分領域301のずれの方向および大きさ(すなわち、ベクトル221)によって表される。
次に、第1フレーム画像202の処理について説明する。第1フレーム画像201の場合と同様に、方向情報生成部16は方向Raを示す方向情報を生成し、遅延情報生成部17は遅延情報を生成する。画像生成部15はその方向情報および遅延情報に応じて、第1フレーム画像202に対する部分領域302の位置を設定する。この場合も、画像生成部15は第1フレーム画像202に対して部分領域302を平行移動させて、第1フレーム画像202に対する部分領域302の位置を設定する。画像生成部15はその部分領域302上に基準マーク310および仮想マーク320を重畳して、状況210bを写すオペレーション画像402を生成する。遅延が小さくなるにつれて基準マーク310の位置と仮想マーク320の位置との差が小さくなる。図8の例では、その差の減少を、部分領域302の平行移動を示すベクトル222により示す。
遅延がなくなると(すなわち、指令値と応答値との差分が0になるかまたは所定の閾値以下になると)、基準マーク310と仮想マーク320とが重なる。図8の例では、画像生成部15は第1フレーム画像203から抽出した部分領域303の位置および寸法を結果的に変更しない。したがって、画像生成部15は基準マーク310と仮想マーク320とが重なるようにこれらのマークを部分領域303上に重畳して、状況210bを写すオペレーション画像403を生成する。
図8に示すように、操作装置10は基準マーク310と仮想マーク320との間の位置差をリアルタイムに表示する。したがって、ユーザは遅延の程度をリアルタイムに把握することができ、その結果、ストレスをあまり感じることなくロボット2を操作することができる。
[プログラム]
操作装置10の各機能モジュールは、プロセッサ161またはメモリ162の上にロボット制御プログラムを読み込ませてプロセッサ161にそのプログラムを実行させることで実現される。ロボット制御プログラムは、操作装置10の各機能モジュールを実現するためのコードを含む。プロセッサ161はロボット制御プログラムに従って入出力ポート164または通信ポート165を動作させ、メモリ162またはストレージ163におけるデータの読み出しおよび書き込みを実行する。このような処理により操作装置10の各機能モジュールが実現される。
ロボット制御プログラムは、CD-ROM、DVD-ROM、半導体メモリなどの非一時的な記録媒体に固定的に記録された上で提供されてもよい。あるいは、ロボット制御プログラムは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。
[効果]
以上説明したように、本開示の一側面に係るロボット制御システムは、指令に基づいて動作するロボットの動作に応じて撮影位置が変化するフレーム画像を受信する受信部と、指令を生成する指令生成部と、指令に対するロボットの動作の遅延を表すように、フレーム画像から、指令に応じて部分領域を抽出してオペレーション画像を生成するオペレーション画像生成部とを備える。
本開示の一側面に係るロボット制御方法は、少なくとも一つのプロセッサを備えるロボット制御システムによって実行される表示方法であって、指令に基づいて動作するロボットの動作に応じて撮影範囲が変化するフレーム画像を受信するステップと、指令を生成するステップと、指令に対するロボットの動作の遅延を表すように、フレーム画像から、指令に応じて部分領域を抽出してオペレーション画像を生成するステップとを含む。
本開示の一側面に係るロボット制御プログラムは、指令に基づいて動作するロボットの動作に応じて撮影範囲が変化するフレーム画像を受信するステップと、指令を生成するステップと、指令に対するロボットの動作の遅延を表すように、フレーム画像から、指令に応じて部分領域を抽出してオペレーション画像を生成するステップとをコンピュータに実行させる。
このような側面においては、フレーム画像の全体ではなくフレーム画像の一部のみをオペレーション画像として用いるので、遅延がフレーム画像に与える影響を吸収または軽減して、ロボットの動きをユーザに直感的に把握させることができる。この仕組みによってロボットの操作を支援することができる。ユーザはそのオペレーション画像を見ながらロボットを正確に操作することができるので、作業効率の向上が期待できる。
他の側面に係るロボット制御システムでは、オペレーション画像生成部は、オペレーション画像に位置が固定され、且つ遅延を表すための仮想マークを、部分領域上に重畳して、オペレーション画像を生成してもよい。この仮想マークによって、ユーザに遅延の程度を直感的に把握させることができるように遅延を表すことができる。
他の側面に係るロボット制御システムでは、オペレーション画像生成部は、フレーム画像に位置が固定され、且つロボットの基準点を表すための基準マークを、部分領域上に重畳して、オペレーション画像を生成してもよい。この基準マークによって、ユーザに遅延の程度を直感的に把握させることができるように遅延を表すことができる。
他の側面に係るロボット制御システムでは、オペレーション画像生成部は、遅延がない場合に仮想マークと基準マークとが重なるように、仮想マーク及び基準マークを部分領域に重畳してもよい。遅延の有無を仮想マークと基準マークとの位置関係によって表すことで、ユーザに遅延の程度を直感的に把握させることができる。
他の側面に係るロボット制御システムでは、指令に基づいて、フレーム画像におけるロボットの動作方向を表す方向情報を生成する方向情報生成部をさらに備え、オペレーション画像生成部は、フレーム画像に対する部分領域の位置および寸法の少なくとも一方を方向情報に応じて設定してもよい。ロボットの動作方向に応じて部分領域を設定することで、遅延とロボットの動作とを関連付けたかたちで遅延が表されるので、ロボットをより容易に操作できる環境をユーザに提供することが可能になる。
他の側面に係るロボット制御システムでは、方向情報生成部は、少なくとも水平方向と垂直方向とのうちの一つを動作方向として表す方向情報を生成し、オペレーション画像生成部は、フレーム画像に対して部分領域を方向情報に応じて平行移動させて、部分領域の位置を設定してもよい。この場合には、水平方向または垂直方向に沿った動きを含むロボットの動作と関連付けて遅延が表されるので、その方向に沿ったロボット操作をより容易にすることが可能になる。
他の側面に係るロボット制御システムでは、方向情報生成部は、少なくとも奥行方向を動作方向として表す方向情報を生成し、オペレーション画像生成部は、フレーム画像に対して部分領域を方向情報に応じてスケーリングさせて、部分領域の寸法を設定してもよい。この場合には、奥行方向に沿った動きを含むロボットの動作と関連付けて遅延が表されるので、その方向に沿ったロボット操作をより容易にすることが可能になる。
他の側面に係るロボット制御システムでは、方向情報生成部は、少なくとも回転方向を動作方向として表す方向情報を生成し、オペレーション画像生成部は、フレーム画像に対して部分領域を方向情報に応じて回転移動させて、部分領域の位置を設定してもよい。この場合には、回転方向に沿った動きを含むロボットの動作と関連付けて遅延が表されるので、その方向に沿ったロボット操作をより容易にすることが可能になる。
他の側面に係るロボット制御システムでは、指令とロボットの応答とに基づいて、遅延に対応する遅延情報を生成する遅延情報生成部を更に備え、オペレーション画像生成部は、フレーム画像に対する部分領域の位置および寸法の少なくとも一方を遅延情報に応じて設定してもよい。指令とロボットの応答とに基づいて部分領域を設定することで、遅延の程度に応じたオペレーション画像が生成される。このオペレーション画像によってロボット操作をより容易にすることができる。
他の側面に係るロボット制御システムでは、遅延情報生成部は、指令およびロボットの応答として、ロボットを制御するロボットコントローラに対して指令生成部が出力した指令値と、該指令値によるロボットの動作を示す応答値との差に基づいて遅延情報を生成し、オペレーション画像生成部は、遅延情報に応じたシフト量に基づいて部分領域の位置または寸法を設定してもよい。そのシフト量に応じて部分領域を設定することで、遅延の程度が反映されたオペレーション画像が生成される。このオペレーション画像によってロボット操作をより容易にすることができる。
他の側面に係るロボット制御システムでは、指令に基づいてロボットを制御するロボットコントローラと、ロボットコントローラと通信ネットワークを介して接続され、受信部、指令生成部、オペレーション画像生成部、および、オペレーション画像を表示する表示部を有する操作装置とを更に備え、指令生成部は、ユーザ操作に応じて指令を生成してもよい。この構成によって、ロボットの遠隔操作で発生する遅延の影響を吸収または軽減して、遠隔に位置するロボットの動きをユーザに直感的に把握させることができる。
他の側面に係るロボット制御システムでは、ロボットの動作に応じて位置および姿勢の少なくとも一方が変化するようにロボットの先端側に配置され、第1フレーム画像を生成する第1カメラと、ロボットの動作とは独立した位置および姿勢において、少なくともロボットの一部を写す第2フレーム画像を生成する第2カメラと、第2フレーム画像に基づくユーザ操作が行われた場合に、指令生成部により生成された指令に対応する座標系を、第1カメラに関連する指令に対応する座標系に変換する座標変換部とを更に備え、オペレーション画像生成部は、座標変換部により変換された座標系に応じて部分領域を設定してもよい。この構成により、ロボットの動作とは独立したカメラからの画像に応じた操作が行われる場合でも、座標系の違いを吸収してオペレーション画像が生成される。したがって、その場合でもロボットの動きをユーザに直感的に把握させることができる。
他の側面に係るロボット制御システムでは、ロボットはエンドエフェクタを備え、フレーム画像はエンドエフェクタを写し、オペレーション画像生成部は、エンドエフェクタが含まれるように部分領域を抽出してもよい。オペレーション画像が常にエンドエフェクタを写すので、ユーザはより容易にロボット操作を操作することができる。
[変形例]
以上、本開示の実施形態に基づいて詳細に説明した。しかし、本開示は上記実施形態に限定されるものではない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
上記実施形態では操作装置10が座標変換部14を備えるが、少なくとも一部の座標系変換が他の装置により実行されてもよい。例えば、ロボット用コンピュータ3またはロボットコントローラ4が少なくとも一部の座標系変換を実行してもよい。
ロボット用コンピュータ3は必須の構成要素ではなく、この場合には、ロボットコントローラ4、手先カメラ20、および俯瞰カメラ30のそれぞれが通信ネットワークNを介して操作装置10とより直接的に接続されてもよい。
システムのハードウェア構成は、プログラムの実行により各機能モジュールを実現する態様に限定されない。例えば、上記実施形態における機能モジュールの少なくとも一部が、その機能に特化した論理回路により構成されていてもよいし、該論理回路を集積したASIC(Application Specific Integrated Circuit)により構成されてもよい。
少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正または削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
コンピュータシステムまたはコンピュータ内で二つの数値の大小関係を比較する際には、「以上」および「よりも大きい」という二つの基準のどちらを用いてもよく、「以下」および「未満」という二つの基準のうちのどちらを用いてもよい。このような基準の選択は、二つの数値の大小関係を比較する処理についての技術的意義を変更するものではない。
1…ロボット制御システム、2…ロボット、2b…エンドエフェクタ、3…ロボット用コンピュータ、4…ロボットコントローラ、10…操作装置、11…画像受信部、12…指令生成部、13…データ取得部、14…座標変換部、15…画像生成部、16…方向情報生成部、17…遅延情報生成部、20…手先カメラ、30…俯瞰カメラ、201~203…第1フレーム画像、301~303…部分領域、310…基準マーク、320…仮想マーク、401~403…オペレーション画像、N…通信ネットワーク。

Claims (13)

  1. 指令に基づいて動作するロボットの動作に応じて撮影位置が変化するフレーム画像を受信する受信部と、
    前記指令を生成する指令生成部と、
    前記指令に対する前記ロボットの動作の遅延を表すように、前記フレーム画像から、前記指令に応じて部分領域を抽出してオペレーション画像を生成するオペレーション画像生成部と、
    を備え
    前記オペレーション画像生成部は、前記オペレーション画像に位置が固定され、且つ前記遅延を表すための仮想マークと、前記フレーム画像に位置が固定され、且つ前記ロボットの基準点を表すための基準マークとを、前記部分領域上に重畳して、前記オペレーション画像を生成する、
    ロボット制御システム。
  2. 前記オペレーション画像生成部は、前記遅延がない場合に前記仮想マークと前記基準マークとが重なるように、前記仮想マーク及び前記基準マークを前記部分領域に重畳する、
    請求項に記載のロボット制御システム。
  3. 前記指令に基づいて、前記フレーム画像における前記ロボットの動作方向を表す方向情報を生成する方向情報生成部をさらに備え、
    前記オペレーション画像生成部は、前記フレーム画像に対する前記部分領域の位置および寸法の少なくとも一方を前記方向情報に応じて設定する、
    請求項1または2に記載のロボット制御システム。
  4. 前記方向情報生成部は、少なくとも水平方向と垂直方向とのうちの一つを前記動作方向として表す前記方向情報を生成し、
    前記オペレーション画像生成部は、前記フレーム画像に対して前記部分領域を前記方向情報に応じて平行移動させて、前記部分領域の位置を設定する、
    請求項に記載のロボット制御システム。
  5. 前記方向情報生成部は、少なくとも奥行方向を前記動作方向として表す前記方向情報を生成し、
    前記オペレーション画像生成部は、前記フレーム画像に対して前記部分領域を前記方向情報に応じてスケーリングさせて、前記部分領域の寸法を設定する、
    請求項3または4に記載のロボット制御システム。
  6. 前記方向情報生成部は、少なくとも回転方向を前記動作方向として表す前記方向情報を生成し、
    前記オペレーション画像生成部は、前記フレーム画像に対して前記部分領域を前記方向情報に応じて回転移動させて、前記部分領域の位置を設定する、
    請求項3~5のいずれか一項に記載のロボット制御システム。
  7. 前記指令と前記ロボットの応答とに基づいて、前記遅延に対応する遅延情報を生成する遅延情報生成部を更に備え、
    前記オペレーション画像生成部は、前記フレーム画像に対する前記部分領域の位置および寸法の少なくとも一方を前記遅延情報に応じて設定する、
    請求項1~のいずれか一項に記載のロボット制御システム。
  8. 前記遅延情報生成部は、前記指令および前記ロボットの応答として、前記ロボットを制御するロボットコントローラに対して前記指令生成部が出力した指令値と、該指令値による前記ロボットの動作を示す応答値との差に基づいて前記遅延情報を生成し、
    前記オペレーション画像生成部は、前記遅延情報に応じたシフト量に基づいて前記部分領域の位置または寸法を設定する、
    請求項に記載のロボット制御システム。
  9. 前記指令に基づいて前記ロボットを制御するロボットコントローラと、
    前記ロボットコントローラと通信ネットワークを介して接続され、前記受信部、前記指令生成部、前記オペレーション画像生成部、および、前記オペレーション画像を表示する表示部を有する操作装置と、
    を更に備え、
    前記指令生成部は、ユーザ操作に応じて前記指令を生成する、
    請求項1~のいずれか一項に記載のロボット制御システム。
  10. 前記ロボットの動作に応じて位置および姿勢の少なくとも一方が変化するように前記ロボットの先端側に配置され、第1フレーム画像を生成する第1カメラと、
    前記ロボットの動作とは独立した位置および姿勢において、少なくとも前記ロボットの一部を写す第2フレーム画像を生成する第2カメラと、
    前記第2フレーム画像に基づくユーザ操作が行われた場合に、前記指令生成部により生成された指令に対応する座標系を、前記第1カメラに関連する指令に対応する座標系に変換する座標変換部と、
    を更に備え、
    前記オペレーション画像生成部は、前記座標変換部により変換された座標系に応じて前記部分領域を設定する、
    請求項1~のいずれか一項に記載のロボット制御システム。
  11. 前記ロボットはエンドエフェクタを備え、
    前記フレーム画像は前記エンドエフェクタを写し、
    前記オペレーション画像生成部は、前記エンドエフェクタが含まれるように前記部分領域を抽出する、
    請求項1~10のいずれか一項に記載のロボット制御システム。
  12. 少なくとも一つのプロセッサを備えるロボット制御システムによって実行される表示方法であって、
    指令に基づいて動作するロボットの動作に応じて撮影範囲が変化するフレーム画像を受信するステップと、
    前記指令を生成するステップと、
    前記指令に対する前記ロボットの動作の遅延を表すように、前記フレーム画像から、前記指令に応じて部分領域を抽出してオペレーション画像を生成するステップと、
    を含み、
    前記オペレーション画像を生成する前記ステップでは、前記オペレーション画像に位置が固定され、且つ前記遅延を表すための仮想マークと、前記フレーム画像に位置が固定され、且つ前記ロボットの基準点を表すための基準マークとを、前記部分領域上に重畳して、前記オペレーション画像を生成する、
    ロボット制御方法。
  13. 指令に基づいて動作するロボットの動作に応じて撮影範囲が変化するフレーム画像を受信するステップと、
    前記指令を生成するステップと、
    前記指令に対する前記ロボットの動作の遅延を表すように、前記フレーム画像から、前記指令に応じて部分領域を抽出してオペレーション画像を生成するステップと、
    をコンピュータに実行させ
    前記オペレーション画像を生成する前記ステップでは、前記オペレーション画像に位置が固定され、且つ前記遅延を表すための仮想マークと、前記フレーム画像に位置が固定され、且つ前記ロボットの基準点を表すための基準マークとを、前記部分領域上に重畳して、前記オペレーション画像を生成する、
    ロボット制御プログラム。
JP2022510370A 2020-03-27 2020-03-27 ロボット制御システム、ロボット制御方法、およびロボット制御プログラム Active JP7324935B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/014223 WO2021192271A1 (ja) 2020-03-27 2020-03-27 ロボット制御システム、ロボット制御方法、およびロボット制御プログラム

Publications (2)

Publication Number Publication Date
JPWO2021192271A1 JPWO2021192271A1 (ja) 2021-09-30
JP7324935B2 true JP7324935B2 (ja) 2023-08-10

Family

ID=77889950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022510370A Active JP7324935B2 (ja) 2020-03-27 2020-03-27 ロボット制御システム、ロボット制御方法、およびロボット制御プログラム

Country Status (3)

Country Link
US (1) US20230010302A1 (ja)
JP (1) JP7324935B2 (ja)
WO (1) WO2021192271A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006000977A (ja) 2004-06-17 2006-01-05 National Univ Corp Shizuoka Univ ロボット環境間力作用状態呈示装置
JP2012033038A (ja) 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム
WO2014013605A1 (ja) 2012-07-20 2014-01-23 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
US20150057801A1 (en) 2012-10-10 2015-02-26 Kenneth Dean Stephens, Jr. Real Time Approximation for Robotic Space Exploration

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3675004B2 (ja) * 1995-10-04 2005-07-27 株式会社安川電機 ロボットの制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006000977A (ja) 2004-06-17 2006-01-05 National Univ Corp Shizuoka Univ ロボット環境間力作用状態呈示装置
JP2012033038A (ja) 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム
WO2014013605A1 (ja) 2012-07-20 2014-01-23 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
US20150057801A1 (en) 2012-10-10 2015-02-26 Kenneth Dean Stephens, Jr. Real Time Approximation for Robotic Space Exploration

Also Published As

Publication number Publication date
JPWO2021192271A1 (ja) 2021-09-30
WO2021192271A1 (ja) 2021-09-30
US20230010302A1 (en) 2023-01-12

Similar Documents

Publication Publication Date Title
EP3342561B1 (en) Remote control robot system
US8009140B2 (en) Master-slave manipulator system
CN105666505B (zh) 具备扩展现实对应显示器的机器人系统
EP1973021B1 (en) Master-slave manipulator system
JP6361213B2 (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
JP5022868B2 (ja) 情報処理装置、情報処理方法
WO2012099686A2 (en) Telematic interface with directional translation
CN111801198A (zh) 一种手眼标定方法、系统及计算机存储介质
JP6816070B2 (ja) 干渉回避装置およびロボットシステム
JP2006000977A (ja) ロボット環境間力作用状態呈示装置
JP2019155556A (ja) ロボットの制御装置、ロボット、ロボットシステム、並びに、カメラの校正方法
JP2018202514A (ja) ロボットの教示のための情報を表示するロボットシステム
JP6948164B2 (ja) 作業用ロボットのアーム姿勢制御システムおよび方法
JP2018144228A (ja) ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
JP3912584B2 (ja) 遠隔操作装置
JP7324935B2 (ja) ロボット制御システム、ロボット制御方法、およびロボット制御プログラム
CN116019562A (zh) 机器人控制系统和方法
WO2022127650A1 (zh) 手术机器人及其控制方法、控制装置
JP2000042960A (ja) マニピュレータの遠隔操作装置
JP3376029B2 (ja) ロボットの遠隔操作装置
JP2005205519A (ja) ロボットハンド装置
CN112643718A (zh) 图像处理设备及其控制方法和存储其控制程序的存储介质
JP7483455B2 (ja) 画像処理装置、画像処理装置の制御方法およびプログラム
CN113612928B (zh) 遥操作系统、遥操作方法及芯片
WO2020028777A1 (en) System and method of displaying images from imaging devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230731

R150 Certificate of patent or registration of utility model

Ref document number: 7324935

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150