JP2024049851A - ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム - Google Patents

ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム Download PDF

Info

Publication number
JP2024049851A
JP2024049851A JP2022156333A JP2022156333A JP2024049851A JP 2024049851 A JP2024049851 A JP 2024049851A JP 2022156333 A JP2022156333 A JP 2022156333A JP 2022156333 A JP2022156333 A JP 2022156333A JP 2024049851 A JP2024049851 A JP 2024049851A
Authority
JP
Japan
Prior art keywords
robot
information
spatial
operator
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022156333A
Other languages
English (en)
Inventor
健 知久
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2022156333A priority Critical patent/JP2024049851A/ja
Publication of JP2024049851A publication Critical patent/JP2024049851A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

Figure 2024049851000001
【課題】操作者の視界を阻害せずに操作に関する情報を提示することができるロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。
【解決手段】ロボット遠隔操作制御装置は、ロボットを操作者が遠隔操作するロボット遠隔操作制御において、ロボットの存在する空間の空間情報を取得する空間情報センサと、ロボットの存在する空間を空間情報から再現した空間再現画像を前記操作者に提示する画像出力部と、ロボットに搭載されたセンサのセンサ情報を取得するセンサ情報取得部と、センサ情報に基づいて、ロボットの姿勢を計算するロボット姿勢計算部と、空間情報と、計算されたロボットの姿勢の情報から、ロボットの身体に紐付けた位置にセンサ情報を描画して空間再現画像とする空間再現画像描画部と、を備える。
【選択図】図1

Description

本発明は、ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラムに関する。
ロボットは、例えば、力覚センサ、接触センサ等を備えている。これらセンサから取得した情報は、ロボットを動作させるために接続されるパソコン等に接続されている表示装置に表示されている(例えば特許文献1参照)。特許文献1に記載の技術では、これらの情報を、操作者が確認できる別画面に数値や図表として提示していた。
特開2021-151696号公報
しかしながら、特許文献1等に記載の従来の技術では、別の画面に数値や図表を表示した場合、ユーザが別画面に表示したセンサ情報に注意を向けないという課題がある。特に、視線に追従をさる描画をする場合は、UI(ユーザインタフェース)の数が多くなるにつれて操作性が低下するという課題がある。
本発明は、上記の問題点に鑑みてなされたものであって、操作者の視界を阻害せずに操作に関する情報を提示することができるロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。
(1)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御装置は、ロボットを操作者が遠隔操作するロボット遠隔操作制御において、前記ロボットの存在する空間の空間情報を取得する空間情報センサと、前記ロボットの存在する空間を前記空間情報から再現した空間再現画像を前記操作者に提示する画像出力部と、前記ロボットに搭載されたセンサのセンサ情報を取得するセンサ情報取得部と、前記センサ情報に基づいて、前記ロボットの姿勢を計算するロボット姿勢計算部と、前記空間情報と、計算された前記ロボットの姿勢の情報から、前記ロボットの身体に紐付けた位置に前記センサ情報を描画して空間再現画像とする空間再現画像描画部と、を備えるロボット遠隔操作制御装置である。
(2)また、本発明の一態様に係るロボット遠隔操作制御装置は、前記ロボットを操作する操作者の状態の操作者状態情報を取得する情報取得部、を更に備え、前記ロボット姿勢計算部は、前記ロボットの三次元モデルと前記空間情報センサと前記操作者状態情報に基づいて前記ロボットの姿勢を計算し、前記空間再現画像描画部は、前記操作者状態情報に含まれる制御指令値情報を、前記ロボットの身体に紐付けた位置に描画する、上記(1)に記載のロボット遠隔操作制御装置である。
(3)また、本発明の一態様に係るロボット遠隔操作制御装置は、前記空間再現画像描画部が、前記空間情報と前記ロボット姿勢計算部が計算した情報から、前記操作者の視点による前記ロボットの見え方を計算して、前記ロボットの身体が前記操作者の視界を遮蔽しない位置に前記センサ情報を描画する、上記(1)または(2)に記載のロボット遠隔操作制御装置である。
(4)また、本発明の一態様に係るロボット遠隔操作制御装置は、前記空間再現画像描画部は、前記センサ情報に基づいて前記ロボットの各関節角の指令値を前記ロボットの身体に紐付けた位置に描画する、上記(1)から(3)のうちのいずれか1つに記載のロボット遠隔操作制御装置である。
(5)また、本発明の一態様に係るロボット遠隔操作制御装置は、空間情報センサは、撮影装置を含み、前記撮影装置は、前記ロボットの手首に取り付けられ、前記空間再現画像描画部は、前記撮影装置が撮影した画像を、前記ロボットの手首に紐付けた位置に描画する、上記(1)から(4)のうちのいずれか1つに記載のロボット遠隔操作制御装置である。
(6)また、本発明の一態様に係るロボット遠隔操作制御装置は、前記操作者状態情報に基づき前記ロボットの操作量を決定する操作量決定部、を更に備える、上記(5)に記載のロボット遠隔操作制御装置である。
(7)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御方法は、ロボットを操作者が遠隔操作するロボット遠隔操作制御装置が、前記ロボットの存在する空間の空間情報を取得し、前記ロボットの存在する空間を前記空間情報から再現した空間再現画像を前記操作者に提示し、前記ロボットに搭載されたセンサのセンサ情報を取得し、前記センサ情報に基づいて前記ロボットの姿勢を計算し、前記空間情報と、計算された前記ロボットの姿勢の情報から、前記ロボットの身体に紐付けた位置に前記センサ情報を描画して空間再現画像とする、ロボット遠隔操作制御方法である。
(8)上記目的を達成するため、本発明の一態様に係るプログラムは、ロボットを操作者が遠隔操作するロボット遠隔操作制御装置のコンピュータに、前記ロボットの存在する空間の空間情報を取得させ、前記ロボットの存在する空間を前記空間情報から再現した空間再現画像を前記操作者に提示させ、前記ロボットに搭載されたセンサのセンサ情報を取得させ、前記センサ情報に基づいて前記ロボットの姿勢を計算させ、前記空間情報と、計算された前記ロボットの姿勢から、前記ロボットの身体に紐付けた位置に前記センサ情報を描画して空間再現画像とさせる、プログラムである。
上述した(1)~(8)によれば、操作者の視界を阻害せずに操作に関する情報を提示することができる。
実施形態に係るロボット遠隔操作制御システムの構成例を示す図である。 実施形態に係るロボットの例とカメラの設置箇所の例を示す図である。 実施形態に係るロボット遠隔操作制御システムが行う処理手順のフローチャートである。 ロボットへの指令値を輪郭に表示する例を示す図である。 手首に取り付けられる撮影部が撮影する画像を手首位置に関連付けて表示する例の図である。 前腕に関連つけて力覚情報をグラフとして描画した例を示す図である。 実施形態に係る操作者に提示する画像の生成方法の一例を説明するための図である。
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。
なお、実施形態を説明するための全図において、同一の機能を有するものは同一符号を用い、繰り返しの説明は省略する。
また、本願でいう「XXに基づいて」とは、「少なくともXXに基づく」ことを意味し、XXに加えて別の要素に基づく場合も含む。また、「XXに基づいて」とは、XXを直接に用いる場合に限定されず、XXに対して演算や加工が行われたものに基づく場合も含む。「XX」は、任意の要素(例えば、任意の情報)である。
[ロボット遠隔操作制御システムの構成]
ロボット遠隔操作制御システムの構成例を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システムの構成例を示す図である。図1に示すように、ロボット遠隔操作制御システム9は、例えば、ロボット1と、第2撮影部2(空間情報センサ)と、HMD3と、操作検出部4と、ロボット遠隔操作制御装置5と、ロボットモデル記憶部6を備える。
ロボット1は、例えば、第1撮影部11(空間情報センサ)と、センサ12(空間情報センサ)と、アーム13と、エンドエフェクタ14と、駆動部15を備える。
ロボット遠隔操作制御装置5は、例えば、取得部51と、操作量決定部52と、ロボット姿勢計算部53と、空間再現画像描画部54と、制御部55と、記憶部56と、画像出力部57を備える。
取得部51は、例えば、画像取得部511と、センサ情報取得部512と、操作者情報取得部513(情報取得部)を備える。
ロボット1は、例えば、片腕アームロボット、双腕アームロボット、および多腕アームロボット、アームロボット等のうちのいずれかである。
第1撮影部11は、例えば、CCD(Charge Coupled Device)撮影装置またはCMOS(Complementary Metal-Oxide-Semiconductor)撮影装置である。第1撮影部11は、例えば、魚眼レンズまたは広角レンズ等を備える。第1撮影部11は、例えば、ロボット1の頭部やエンドエフェクタ14に取り付けられている。第1撮影部11は、例えば、RGB(赤緑青)画像を撮影するRGBカメラと深度画像を撮影する深度カメラを備えている。第1撮影部11が撮影する画像は、ロボットの存在する空間の空間情報である。なお、ロボット1に取り付けられている第1撮影部11の位置は、既知であり、例えばロボットモデル記憶部6に記憶されている。第1撮影部11は、時系列にデータを取得し、タイムスタンプを付与する。
センサ12は、例えば6軸センサである。また、センサ12は、アーム13の各関節や、エンドエフェクタ14の各関節の関節角度を検出する。センサ12は、例えば指先等にも取り付けられている接触センサである。センサ12は、ロボット1の関節に取り付けられている関節トルクセンサである。このように、センサ12は、ロボット1が使用するセンサ情報を検出する。なお、第1撮影部11もセンサ12の1つであってもよい。センサ12は、時系列にデータを取得し、タイムスタンプを付与する。
アーム13は、先端にエンドエフェクタ14が接続されている。
エンドエフェクタ14は、少なくとも2つの指部を備える。エンドエフェクタ14が備える指の数は、3つ以上であってもよい。
第2撮影部2は、例えばロボット1の作業環境に設置されている。第2撮影部2は、例えば、RGB(赤緑青)画像を撮影するRGBカメラと深度画像を撮影する深度カメラを備えている。第2撮影部2が撮影する画像は、ロボットの存在する空間の空間情報である。なお、第2撮影部2の設置位置は、既知であり、例えばロボットモデル記憶部6に記憶されている。第2撮影部2は、時系列にデータを取得し、タイムスタンプを付与する。
HMD3は、操作者が頭部に装着する、例えばヘッドマウントディスプレイである。HMD3は、例えば、操作者に画像を提示する画像表示部31と、操作者の視線を検出する視線検出部32と、ロボット遠隔操作制御装置5と情報の送受信を行う通信部(不図示)等を備える。
操作検出部4は、操作者の操作指示を検出する。操作検出部4は、例えば、データグローブ等である。
ロボットモデル記憶部6は、例えばロボット1の三次元形状モデル(含む寸法等)を記憶する。
ロボット遠隔操作制御装置5は、ロボットの存在する空間の空間情報と、ロボット1を操作する操作者の状態を示す操作者状態情報と、ロボットモデルとを用いて、ロボット1の身体による空間遮蔽を消した画像を空間再現画像として描画する。
画像取得部511は、第1撮影部11が撮影した画像と、第2撮影部2が撮影した画像を取得する。
センサ情報取得部512は、センサ12からセンサ12が検出したエンドエフェクタ14の各関節の関節角度を取得する。なお、センサ情報取得部512が、なお、撮影部(第1撮影部11、第2撮影部2)が撮影した画像をセンサ情報として取得してもよい。あるいは、センサ情報取得部512は、操作検出部4が検出した操作者状態情報をセンサ情報として取得してもよい。
操作者情報取得部513は、例えば、操作検出部4から、ロボット1を操作する操作者の状態の操作者状態情報(含む制御指令値情報(コマンド))を取得する。操作者状態情報によって、ロボット1をどのように動作させたいか、またはどのようにロボット1に動作してほしいかが分かる。なお、操作者情報取得部513は、視線検出部32が検出した視線情報も取得するようにしてもよい。
操作量決定部52は、操作者状態情報に基づいてロボット1の操作量を決定する。
ロボット姿勢計算部53は、ロボット1の三次元モデルと、センサ情報取得部512が取得した情報と、操作者情報取得部513が取得した操作者状態情報を用いてロボットの姿勢を計算する。または、ロボット姿勢計算部53は、ロボット1の三次元モデルと、センサ情報取得部512が取得した情報を用いてロボットの姿勢を計算し、操作者視点のロボットの見え方を計算する。
空間再現画像描画部54は、計算したロボットモデルの姿勢を用いて、操作者視点におけるロボットモデルの見え方を計算する。空間再現画像描画部54は、操作者への提示画像に、センサ情報をロボット1の身体部分委関連付けた画像を生成する。空間再現画像描画部54は、生成した画像をHMD3に提供する。
制御部55は、操作量決定部52が決定した操作量に基づいて、ロボット1の動作を制御する。
記憶部56は、例えば、ロボット1の制御に必要な値、プログラム等を記憶する。記憶部56は、取得された情報を一時的に記憶する。
画像出力部57は、ロボットの存在する空間を空間情報から再現した空間再現画像を操作者に見せるために、HMD3に出力する。
[ロボットの構成例]
まず、ロボットの例と、カメラの設置箇所の例を説明する。
図2は、本実施形態に係るロボットの例とカメラの設置箇所の例を示す図である。
ロボット1は、例えば、ボディ16、頭部17、アーム13(13L、13R)、ハンド(エンドエフェクタ)14(14L、14R)を備える。なお、以下の説明では、エンドエフェクタ14をハンド14とも言う。
ハンド14は、例えば掌の甲側の手首に第1撮影部11a、11bが設置されている。頭部17は、第1撮影部11c、11dを備える。
また、ロボット1の作業空間に、第2撮影部2が設置されている。
なお、ロボット1の頭部の第1撮影部11c、11dが、第2撮影部2であってもよい。
なお、図2に示した例では、ハンド14が指部を5つ備える例を示したが、指部は2つ以上であればよい。また、図2では、両腕のロボットの例を示したが、片腕であってもよい。また、撮影部の数は一例であり、これに限らない。また、撮影部は、掌、指先、手首の全のうち、少なくとも1つであってもよく、ハンド14に複数備えていてもよい。
[操作量決定部が行う処理例]
次に、操作量決定部52が行う処理の例を説明する。
操作量決定部52は、操作者情報取得部513が取得した操作者状態情報に基づいて、ロボット1の操作量を決定する。なお、操作量決定部52は、例えば、画像取得部511が取得した画像を用いて、対象物体、対象物体の位置、対象物体の形状等を推定して、推定した対象物体に関する情報も用いてロボット1の操作量を決定するようにしてもよい。また、操作量決定部52は、操作者情報取得部513が取得した操作者状態情報に基づいて、作業に関するタクソノミー情報(例えば参考文献1参照)を推定し、推定したタクソノミー情報も用いてロボット1の操作量を決定するようにしてもよい。
参考文献1;Thomas Feix, Javier Romero,他,“The GRASP Taxonomy of Human GraspTypes” IEEE Transactions on Human-Machine Systems ( Volume: 46, Issue: 1, Feb.2016),IEEE,p66-77
[ロボット姿勢計算部が行う処理例]
次に、ロボット姿勢計算部53が行う処理の例を説明する。
ロボット姿勢計算部53は、センサ情報取得部512が取得した関節角度情報(含むタイムスタンプ)と、ロボットモデル記憶部6が記憶する三次元形状モデルを用いて、ロボット1の姿勢を例えば所定時間毎に計算する。なお、ロボット姿勢計算部53は、作業に応じてアーム13やエンドエフェクタ14の姿勢を計算し、例えばボディ16や頭部17等の姿勢を計算しなくてもよい。
[処理手順例]
次に、ロボット遠隔操作制御システム9が行う処理手順例を説明する。図3は、本実施形態に係るロボット遠隔操作制御システムが行う処理手順のフローチャートである。
(ステップS1)画像取得部511は、第1撮影部11が撮影した画像と、第2撮影部2が撮影した画像を取得する。
(ステップS2)センサ情報取得部512は、センサ12が検出したセンサ情報(含む関節角度情報)を取得する。
(ステップS3)操作者情報取得部513は、HMD3と操作検出部4から操作者状態情報を取得する。
(ステップS4)ロボット姿勢計算部53は、センサ情報取得部512が取得した情報に基づいて、ロボット1の姿勢を計算する。なお、ロボット姿勢計算部53は、操作者状態情報に基づいて、ロボット1の姿勢を計算するようにしてもよい。または、ロボット姿勢計算部53は、センサ情報取得部512が取得した情報と、操作者状態情報に基づいて、ロボット1の姿勢を計算するようにしてもよい。
(ステップS5)空間再現画像描画部54は、取得した情報、ロボットの三次元形状モデルを用いて、操作者の視点におけるロボットの見え方を計算する。
(ステップS6)空間再現画像描画部54は、センサ情報を、計算した操作者の視点におけるロボットの見え方に関連付けて描画した画像を生成する。
(ステップS7)画像出力部57は、空間再現画像描画部54が生成した画像を、操作者に提供する。
なお、図3に示した操作手順は一例であり、これに限らない。例えば、ステップS1~S3の処理は、この順に限らず、または同時に並行に行ってもよい。
[空間再現画像描画部が行う処理例]
次に、空間再現画像描画部54が行う処理の例を説明する。
空間再現画像描画部54は、空間情報とロボット姿勢情報から、ロボット1の身体による空間遮蔽を消した画像を空間再現画像として描画する。より具体的には、まず、空間再現画像描画部54は、操作者の視点におけるロボットにセンサ情報を付加した場合の見え方を計算する。なお、空間再現画像描画部54は、計算した操作者の視点におけるロボット見え方の画像に、操作者の視界を遮っていない位置にセンサ情報を付加する。
[ロボット遠隔操作制御装置が行う処理例]
次に、ロボット遠隔操作制御装置5が行う処理の例を説明する。
ロボット姿勢計算部53は、操作対象のロボット1の詳細な三次元モデルが既知であるため、操作者からのロボット身体による見え方における遮蔽の計算ができる。
また、ロボット姿勢計算部53は、操作対象のロボット1の各関節の情報を逐次取得可能であるため、ロボットの姿勢情報を計算できる。
空間再現画像描画部54は、操作対象のロボット1の制御指令値情報を操作検出部4から取得可能であるため、ロボット姿勢計算部53が計算した結果を用いて、操作者の見えにおいてロボット1の身体に紐づけてセンサ情報を描画することができる。
次に、ロボット1の身体に紐づけてセンサ情報の描画例を説明する。
図4は、ロボットへの指令値を輪郭に表示する例を示す図である。図4の例では、ロボット1の各関節角の指令値(コマンド値)を描画して提示する例である。図4のように、指令値を値として表示するのではなく、例えば、指示値(コマンド値)の位置を示す輪郭線と、遅延による現在の位置を示す輪郭線、遅延量等を矢印で提示する。また、指示値の位置を示す輪郭線と、遅延による位置を示す輪郭線は、例えば異なる色や線種で表す。なお、輪郭線で表す対象は、例えば、図4のようにアーム、エンドエフェクタ等である。なお、本実施形態においては、このような遅延量もセンサから取得した情報に基づくセンサ情報とする。これにより、操作者は、指示と動作との遅延状況を把握することができる。
図5は、手首に取り付けられる撮影部が撮影する画像を手首位置に関連付けて表示する例の図である。図5の例では、手首に取り付けられている第1撮影部が撮影した画像を、円g11内に合成して提示している。さらに、図5の例では、図4を用いて説明した輪郭へのセンサ情報も合成して提示している例である。なお、撮影された画像を表示させる位置は、操作者の視界を遮らない位置である。
図6は、前腕に関連つけて力覚情報をグラフとして描画した例を示す図である。図6の例では、指先の6軸の動きを示した情報を前腕にオーバーレイ表示している。なお、表示させる位置は、操作者の視界を遮らない位置である。なお、表示は、例えば、把持する際に各指先に加わる力をx軸、y軸、z軸に分解して示したものである。これにより、操作者は、どの程度の力で把持しているのか視覚的に知ることができる。
なお、センサ情報(含む撮影部が撮影した画像)を関連付ける位置は、ロボット1の身体に紐付けた位置である。ロボット1の身体に紐付けた位置とは、例えば、ロボット1の身体の輪郭、ロボット1の身体に接する位置、またはロボット1の身体の近傍等である。このように、付加されるセンサ情報の付加する位置は、必ずしもロボット1に接していなくてもよく、ロボット1の身体に紐付けられた位置であればよい。また、表示は、例えば、手のひら上、アーム上等にタトゥーのように表示させてもよく、手のひらやアームに接して空間に表示させてもよい。なお、付加する位置は、操作者が注視する範囲、すなわち、ロボット1の作業対象の範囲が好ましい。さらに、ロボット1の身体(例えば指先に位置)が変化した場合に、表示されるセンサ情報の位置は、身体の位置が変化した状態に合わせて位置も変追従させるようにしてもよい。
本実施形態では、例えばロボット1の頭部17に取り付けられている第1撮影部11が撮影したRGB画像に図4~図6に示したような指令値を輪郭に描画した画像、撮影された画像、力覚情報を示したグラフ等を合成して提示させる。
なお、図4~図6に示した合成する情報は一例であり、これに限らない。他の操作に関す情報(例えば操作者状態情報に含まれる制御指令値情報)、ロボット1に関する情報を合成して提示するようにしてもよい。また、図4~図6の付加するセンサ情報は、同時に2つ以上提示させても良く、切り替えて提示してもよい。さらに、ロボット遠隔操作制御装置5は、センサ情報を、例えば操作者の操作に応じて表示したり非表示に切り替えるようにしてもよく、自動で表示と非表示を切り替えてもよい。また、ロボット遠隔操作制御装置5は、作業内容に応じて、付加するセンサ情報を切り替えるようにしてもよい。
また、操作に関する情報の描画方法は、上述した手法に限らない。描画手法は、例えば指令値を数値で示してもよく、表やグラフ等で描画してもよい。
これらの表示を提示することで、操作者は、視覚を妨げられずに、操作量、操作量に対する実際の動作、そして遅延量等を知ることができる。
[提示画像の生成方法例]
ここで、操作者に提示する画像の生成方法の一例を説明する。
図7は、本実施形態に係る操作者に提示する画像の生成方法の一例を説明するための図である。図7の例は、図6の画像の生成方法である。
ロボット遠隔操作制御装置5は、第1撮影部11によって撮影された画像g111から、ハンドの部分g112を周知の画像認識処理によって認識して抽出する。
ロボット遠隔操作制御装置5は、ロボットモデル記憶部6が記憶するロボット1の三次元モデルを用いて、例えばセンサ12が検出したセンサ情報に含まれる指先力覚情報を描画する(画像g121)。
ロボット遠隔操作制御装置5は、抽出した画像g112に、描画した画像g121を合成して、空間再現画像とする。この際、ロボット遠隔操作制御装置5は、描画した画像g121を、ロボット1の指先に重ねて表示させる(画像g131)。
以上のように本実施形態では、センサ情報を、操作者の視界を遮らない位置かつロボット1の身体に関連付けて、撮影した画像に合成して提示するようにした。
これにより、本実施形態によれば、操作者の視界を阻害しないインタフェースを提供可能である。
なお、上述した例では、センサ情報を撮影した画像に合成して提示する例を説明したが、これに限らない。ロボット遠隔操作制御装置5は、センサ情報取得部512が取得した情報やロボットモデル記憶部6が記憶するロボット1の三次元モデルを用いて、操作者の視点に画像を生成し、生成した画像にセンサ情報を合成するようにしてもよい。これにより、任意の視点によるセンサ情報付きの画像を提供できる。
なお、本発明におけるロボット遠隔操作制御装置5の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりロボット遠隔操作制御装置5が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
9…ロボット遠隔操作制御システム、1…ロボット、2…第2撮影部、3…HMD、4…操作検出部、5…ロボット遠隔操作制御装置、6…ロボットモデル記憶部、11…第1撮影部、12…センサ、13…アーム、14…エンドエフェクタ、15…駆動部、31…画像表示部、32…視線検出部、51…取得部、52…操作量決定部、53…ロボット姿勢計算部、54…空間再現画像描画部、55…制御部、56…記憶部、57…画像出力部、511…画像取得部、512…センサ情報取得部、513…操作者情報取得部、541…モデル

Claims (8)

  1. ロボットを操作者が遠隔操作するロボット遠隔操作制御において、
    前記ロボットの存在する空間の空間情報を取得する空間情報センサと、
    前記ロボットの存在する空間を前記空間情報から再現した空間再現画像を前記操作者に提示する画像出力部と、
    前記ロボットに搭載されたセンサのセンサ情報を取得するセンサ情報取得部と、
    前記センサ情報に基づいて、前記ロボットの姿勢を計算するロボット姿勢計算部と、
    前記空間情報と、計算された前記ロボットの姿勢の情報から、前記ロボットの身体に紐付けた位置に前記センサ情報を描画して空間再現画像とする空間再現画像描画部と、
    を備えるロボット遠隔操作制御装置。
  2. 前記ロボットを操作する操作者の状態の操作者状態情報を取得する情報取得部、を更に備え、
    前記ロボット姿勢計算部は、前記ロボットの三次元モデルと前記空間情報センサと前記操作者状態情報に基づいて前記ロボットの姿勢を計算し、
    前記空間再現画像描画部は、前記操作者状態情報に含まれる制御指令値情報を、前記ロボットの身体に紐付けた位置に描画する、
    請求項1に記載のロボット遠隔操作制御装置。
  3. 前記空間再現画像描画部は、前記空間情報と前記ロボット姿勢計算部が計算した情報から、前記操作者の視点による前記ロボットの見え方を計算して、前記ロボットの身体が前記操作者の視界を遮蔽しない位置に前記センサ情報を描画する、
    請求項1または請求項2に記載のロボット遠隔操作制御装置。
  4. 前記空間再現画像描画部は、前記センサ情報に基づいて前記ロボットの各関節角の指令値を前記ロボットの身体に紐付けた位置に描画する、
    請求項1または請求項2に記載のロボット遠隔操作制御装置。
  5. 空間情報センサは、撮影装置を含み、
    前記撮影装置は、前記ロボットの手首に取り付けられ、
    前記空間再現画像描画部は、前記撮影装置が撮影した画像を、前記ロボットの手首に紐付けた位置に描画する、
    請求項1または請求項2に記載のロボット遠隔操作制御装置。
  6. 前記操作者状態情報に基づき前記ロボットの操作量を決定する操作量決定部、を更に備える、
    請求項2に記載のロボット遠隔操作制御装置。
  7. ロボットを操作者が遠隔操作するロボット遠隔操作制御装置が、
    前記ロボットの存在する空間の空間情報を取得し、
    前記ロボットの存在する空間を前記空間情報から再現した空間再現画像を前記操作者に提示し、
    前記ロボットに搭載されたセンサのセンサ情報を取得し、
    前記センサ情報に基づいて前記ロボットの姿勢を計算し、
    前記空間情報と、計算された前記ロボットの姿勢の情報から、前記ロボットの身体に紐付けた位置に前記センサ情報を描画して空間再現画像とする、
    ロボット遠隔操作制御方法。
  8. ロボットを操作者が遠隔操作するロボット遠隔操作制御装置のコンピュータに、
    前記ロボットの存在する空間の空間情報を取得させ、
    前記ロボットの存在する空間を前記空間情報から再現した空間再現画像を前記操作者に提示させ、
    前記ロボットに搭載されたセンサのセンサ情報を取得させ、
    前記センサ情報に基づいて前記ロボットの姿勢を計算させ、
    前記空間情報と、計算された前記ロボットの姿勢から、前記ロボットの身体に紐付けた位置に前記センサ情報を描画して空間再現画像とさせる、
    プログラム。
JP2022156333A 2022-09-29 2022-09-29 ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム Pending JP2024049851A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022156333A JP2024049851A (ja) 2022-09-29 2022-09-29 ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022156333A JP2024049851A (ja) 2022-09-29 2022-09-29 ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2024049851A true JP2024049851A (ja) 2024-04-10

Family

ID=90621872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022156333A Pending JP2024049851A (ja) 2022-09-29 2022-09-29 ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2024049851A (ja)

Similar Documents

Publication Publication Date Title
US10410050B2 (en) Method and system of hand segmentation and overlay using depth data
JP6810125B2 (ja) 仮想現実環境においてナビゲートする方法、システム、および装置
JP2019523663A (ja) ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体
US20110282141A1 (en) Method and system of see-through console overlay
WO2021242451A1 (en) Hand gesture-based emojis
JP6601402B2 (ja) 制御装置、制御方法およびプログラム
WO2021092194A1 (en) Surgical virtual reality user interface
JP7000253B2 (ja) 力覚視覚化装置、ロボットおよび力覚視覚化プログラム
JP7059934B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2006000977A (ja) ロボット環境間力作用状態呈示装置
EP3797931A1 (en) Remote control system, information processing method, and program
WO2021029256A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2024049851A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム
US11712315B2 (en) Force-feedback gloves for a surgical robotic system
JP2001062766A (ja) 2足歩行ロボットの遠隔制御用ユーザインターフェイスシステム
US20240173018A1 (en) System and apparatus for remote interaction with an object
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
JP2024049842A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御方法、およびプログラム
JP2022187925A (ja) 操作システム、および、操作方法
JP6897177B2 (ja) リハビリに使用可能な訓練装置及びリハビリに使用可能な訓練装置用のコンピュータープログラム
JP7324935B2 (ja) ロボット制御システム、ロボット制御方法、およびロボット制御プログラム
WO2023209818A1 (ja) 操作装置、情報処理装置、情報処理システム、情報処理方法、および情報処理プログラム
US11508121B2 (en) Method for annotating points on a hand image to create training dataset for machine learning
US12017351B2 (en) Remote control system, information processing method, and non-transitory computer-readable recording medium
JP2023105586A (ja) ロボットハンド、およびロボットハンド制御方法