JP7535968B2 - ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム - Google Patents

ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム Download PDF

Info

Publication number
JP7535968B2
JP7535968B2 JP2021061151A JP2021061151A JP7535968B2 JP 7535968 B2 JP7535968 B2 JP 7535968B2 JP 2021061151 A JP2021061151 A JP 2021061151A JP 2021061151 A JP2021061151 A JP 2021061151A JP 7535968 B2 JP7535968 B2 JP 7535968B2
Authority
JP
Japan
Prior art keywords
robot
operator
unit
manipulator
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021061151A
Other languages
English (en)
Other versions
JP2022157110A (ja
Inventor
了 水谷
屹立 董
智樹 渡部
智大 茶木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2021061151A priority Critical patent/JP7535968B2/ja
Publication of JP2022157110A publication Critical patent/JP2022157110A/ja
Application granted granted Critical
Publication of JP7535968B2 publication Critical patent/JP7535968B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムに関する。
利用者がロボットの操作を補助することができる制御装置が提案されている。このような制御装置として、例えば、ロボットを操作する第1ユーザーの姿勢を示す第1ユーザー姿勢情報を取得する第1情報取得部と、第1ユーザー姿勢情報に基づいてロボットの姿勢を変化させる前のロボットの姿勢である変化前姿勢を示す変化前姿勢情報を取得する第2情報取得部と、変化前姿勢情報と、変化前姿勢情報が示す変化前姿勢をロボットがしている時点で第1情報取得部が取得した第1ユーザー姿勢情報とに基づいて、第1ユーザーの姿勢と異なる標的姿勢をロボットの姿勢に決定する決定部と、を有する制御装置が提案されている(特許文献1参照)。特許文献1に記載のシステムでは、操作者が装着した装置によって検出した姿勢に対応する姿勢にロボットの姿勢を変化させる。
図9は、操作者操作環境g901の座標系とロボット動作環境g902を説明するための図である。このようなシステムでは、図9のように操作者操作環境g901の座標系とロボット動作環境g902の座標系が異なるため、操作者の環境に設置されているセンサや操作者が装着している操作デバイスが検出した検出値を、そのままロボットに入力できない。このため、このようなシステムでは、操作者の初期位置が任意の場合、キャリブレーションを行う必要がある。
特許第6476358号
しかしながら、従来技術では、操作者の座標系とロボットの座標系が異なるため、操作者の初期位置が任意の場合、キャリブレーションを行う必要があるが、操作者とロボットとのサイズが異なる場合、操作者による操作が困難となる。操作者とロボットとのサイズが異なる場合とは、例えば操作者の大きさ1に対してロボットの大きさが10の場合である。
本発明は、上記の問題点に鑑みてなされたものであって、操作者によるロボットの遠隔操作時の操作感を向上させることができるロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラムを提供することを目的とする。
(1)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御装置は、操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、前記操作者が装着しているデバイスの中心を操作の基準位置とし、前記操作者の見ている操作画面方向を操作の基準姿勢とし、前記ロボットのマニピュレータの中心をロボット動作の基準位置姿勢とする位置合わせ部と、前記操作者の基準点から前記デバイスの相対位置姿勢を前記ロボットへの入力とし、前記操作者の基準点から前記操作者の見ている操作画面の相対位置姿勢を前記操作者の視点として、前記ロボットへの制御指令を生成する制御指令生成部と、を備える。
(2)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記位置合わせ部は、前記操作者の少なくとも腕の長さを含む体形を計測し、前記ロボットの体型との比率を算出し、前記制御指令生成部は、前記比率を用いて前記ロボットへの前記制御指令をスケーリングするようにしてもよい。
(3)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記操作者が装着する画像表示装置に表示させる表示画像を生成する画像作成部を更に備え、前記制御指令生成部は、前記制御指令に対する比率と同じ比率を用いて、前記表示画像をスケーリングするようにしてもよい。
(4)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記制御指令生成部は、前記比率を前記操作者の指示に応じて変更するようにしてもよい。
(5)また、本発明の一態様に係るロボット遠隔操作制御装置において、前記制御指令生成部は、前記比率を操作状況に応じて変更するようにしてもよい。
(6)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御システムは、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、(1)から(5)のうちのいずれか1つに記載の前記ロボット遠隔操作制御装置と、物体を把持する把持部と、前記ロボットあるいは前記ロボットの周辺環境に設置され、ロボット環境センサ値を検出する環境センサと、前記操作者の動きを操作者センサ値として検出する操作者センサと、前記操作者の視界にあるロボット環境の画像を表示する画像表示装置と、を備える。
(7)上記目的を達成するため、本発明の一態様に係るロボット遠隔操作制御方法は、操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、位置合わせ部が、前記操作者が装着しているデバイスの中心を操作の基準位置とし、前記操作者の見ている操作画面方向を操作の基準姿勢とし、前記ロボットのマニピュレータの中心をロボット動作の基準位置姿勢とし、制御指令生成部が、前記操作者の基準点から前記デバイスの相対位置姿勢を前記ロボットへの入力とし、前記操作者の基準点から前記操作者の見ている操作画面の相対位置姿勢を前記操作者の視点として、前記ロボットへの制御指令を生成する。
(8)上記目的を達成するため、本発明の一態様に係るプログラムは、操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、コンピュータに、前記操作者が装着しているデバイスの中心を操作の基準位置とさせ、前記操作者の見ている操作画面方向を操作の基準姿勢とさせ、前記ロボットのマニピュレータの中心をロボット動作の基準位置姿勢とさせ、前記操作者の基準点から前記デバイスの相対位置姿勢を前記ロボットへの入力とさせ、前記操作者の基準点から前記操作者の見ている操作画面の相対位置姿勢を前記操作者の視点とさせ、前記ロボットへの制御指令を生成させる。
(1)~(8)によれば、操作者によるロボットの遠隔操作時の操作感を向上させることができる。
(2)~(5)によれば、スケールの異なるロボットに対しても自然な動作で操作を行えるようになる。
(3)~(5)によれば、操作量に対する視覚情報の違和感を改善することができる。
(4)~(5)によれば、慎重な操作が可能となる。
実施形態に係るロボット遠隔操作制御システムの概要と作業の概要を示す図である。 実施形態に係るロボット遠隔操作制御システムの構成例を示すブロック図である。 実施形態に係る操作者操作環境と原点と基準点の例を示す図である。 実施形態に係るロボット動作環境と原点と基準点の例を示す図である。 第1実施形態に係るロボット遠隔操作制御装置のキャリブレーション処理手順のフローチャートである。 操作者に対してロボット2の方が大きい例を示す図である。 第2実施形態に係る計測箇所の例を示す図である。 実施形態に係るロボット遠隔操作制御装置の処理手順のフローチャートである。 実施形態に係るスケール変更例を示すイメージ図である。 操作者操作環境の座標系とロボット動作環境を説明するための図である。
以下、本発明の実施の形態について図面を参照しながら説明する。なお、以下の説明に用いる図面では、各部材を認識可能な大きさとするため、各部材の縮尺を適宜変更している。
[概要]
まず、ロボット遠隔操作制御システムで行う作業と処理の概要を説明する。
図1は、本実施形態に係るロボット遠隔操作制御システム1の概要と作業の概要を示す図である。図1のように、操作者Usは、例えばHMD(ヘッドマウントディスプレイ)(画像表示装置)5とコントローラー6を装着している。作業環境には、環境センサ7(7a、7b)が設置されている。なお、環境センサ7は、ロボット2に取り付けられていてもよい。また、ロボット2は、把持部222(222a、222b)を備える。環境センサ7(7a、7b)は、後述するように例えばRGBカメラと深度センサを備えている。操作者Usは、HMD5に表示された画像を見ながらコントローラー6を装着している手や指を動かすことで、ロボット2を遠隔操作する。本実施形態では、例えばロボットの起動時に操作者操作環境とロボット動作環境のキャリブレーションを行う。また、本実施形態では、例えばロボットの起動時に操作者の体形(例えば腕の長さ)を計測し、ロボットとの比率を求め、ロボットへの入力(操作デバイスの移動量)をスケーリングする。
[ロボット遠隔操作制御システムの構成例]
次に、ロボット遠隔操作制御システム1の構成例を説明する。
図2は、本実施形態に係るロボット遠隔操作制御システム1の構成例を示すブロック図である。図2のように、ロボット遠隔操作制御システム1は、ロボット2、ロボット遠隔操作制御装置3、HMD5(画像表示装置)、コントローラー6、および環境センサ7を備える。
ロボット2は、例えば、制御部21、駆動部22、収音部23、記憶部25、電源26、およびセンサ27を備える。
ロボット遠隔操作制御装置3は、例えば、情報取得部31、位置合わせ部33、意図推定部34、制御指令生成部35、画像作成部36、送信部37、および記憶部38を備える。
位置合わせ部33は、計測部331、比率算出部332、および座標合わせ部333を備える。
HMD5は、例えば、画像表示部51、視線検出部52(操作者センサ)、センサ53、制御部54、および通信部55を備える。なお、HMD5は、例えば操作者の視線の動き等を検出するセンサを備えていてもよい。
コントローラー6は、例えば、センサ61(操作者センサ)、制御部62、通信部63、およびフィードバック手段64を備える。
環境センサ7は、例えば、撮影装置71、センサ72、物体位置検出部73、および通信部74を備える。
また、ロボット遠隔操作制御装置3とHMD5は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とコントローラー6は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3と環境センサ7は、例えば、無線または有線のネットワークを介して接続されている。ロボット遠隔操作制御装置3とロボット2は、例えば、無線または有線のネットワークを介して接続されている。なお、ロボット遠隔操作制御装置3とHMD5は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3とコントローラー6は、ネットワークを介さずに直接接続されてもよい。ロボット遠隔操作制御装置3と環境センサ7は、ネットワークを介さずに直接接続されてもよい。また、ロボット2の大きさは、操作者より大きくても小さくてもよい。ロボット遠隔操作制御装置3とロボット2は、ネットワークを介さずに直接接続されてもよい。
[ロボット遠隔操作制御システムの機能例]
次に、本実施形態におけるロボット遠隔操作制御システムの機能例を、図2~図4を参照しつつ説明する。
HMD5は、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。HMD5は、操作者の視線の動き等を検出し、検出した視線情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。
画像表示部51は、制御部54の制御に応じて、ロボット遠隔操作制御装置3から受信したロボットの状態画像を表示する。
視線検出部52は、操作者の視線を検出し、検出した視線情報(操作者センサ値)を制御部54に出力する。なお、視線情報は視線ベクトルである。
センサ53は、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。センサ53は、操作者の頭部の傾き、頭部の回転を検出し、検出した頭部動作情報(操作者センサ値)を制御部54に出力する。
制御部54は、視線検出部52が検出した視線情報と、センサ53が検出した頭部動作情報を、通信部55を介してロボット遠隔操作制御装置3に送信する。制御部54は、ロボット遠隔操作制御装置3が送信したロボット状態画像を、画像表示部51に表示させる。
通信部55は、ロボット遠隔操作制御装置3が送信したロボット状態画像を受信し、受信したロボット状態画像を制御部54に出力する。通信部55は、制御部54の制御に応じて、視線情報と頭部動作情報をロボット遠隔操作制御装置3に送信する。
コントローラー6は、例えば、触覚データグローブであり、操作者の手に装着される。コントローラー6は、センサ61によって方位や各指の動きや手の動き等の操作者の腕部の姿勢や位置に関する情報である操作者腕部情報(操作者センサ値)を検出し、検出した操作者腕部情報(操作者センサ値)をロボット遠隔操作制御装置3に送信する。なお、操作者腕部情報(操作者センサ値)には、手先位置・姿勢情報、各指の角度情報、肘の位置・姿勢情報、各部の動きをトラッキングした情報等のヒトの腕部全般におよぶ情報が含まれる。
センサ61は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ等である。なお、センサ61は、複数のセンサを備えるセンサ61は、例えば2つのセンサによって各指の動きをトラッキングする。センサ61は、操作者腕部情報を検出し、検出した操作者腕部情報を制御部62に出力する。
制御部62は、センサ61が検出した操作者腕部情報を、通信部63を介してロボット遠隔操作制御装置3に送信する。制御部62は、フィードバック情報に基づいて、フィードバック手段64を制御する。
通信部63は、制御部62の制御に応じて、操作者腕部情報をロボット遠隔操作制御装置3に送信する。通信部63は、ロボット遠隔操作制御装置3が送信したフィードバック情報を取得し、取得したフィードバック情報を制御部62に出力する。
フィードバック手段64は、制御部62の制御に応じて、操作者にフィードバック情報をフィードバックする。フィードバック手段64は、フィードバック情報に応じて、例えば、ロボット2の把持部222に取り付けられている振動を与える手段(不図示)や空気圧を与える手段(不図示)や手の動きを拘束する手段(不図示)や温度を感じさせる手段(不図示)や堅さや柔らかさを感じさせる手段(不図示)等によって操作者に感覚をフィードバックする。
環境センサ7は、例えばロボット2の作業を撮影、検出できる位置に設置されている。なお、環境センサ7は、ロボット2が備えていてもよく、ロボット2に取り付けられていてもよい。または、環境センサ7は、複数であってもよく、図1のように作業環境に設置され、かつロボット2にも取り付けられていてもよい。環境センサ7は、撮影された画像とセンサによって検出された検出結果に基づいて物体の位置情報を検出し、検出した物体位置情報をロボット遠隔操作制御装置3に送信する。
撮影装置71は、例えばRGBカメラである。撮影装置71は、撮影した画像を物体位置検出部73に出力する。なお、環境センサ7において、撮影装置71とセンサ72の位置関係が既知である。
センサ72は、例えば深度センサである。センサ72は、検出結果を物体位置検出部73に出力する。なお、撮影装置71とセンサ72は、距離センサであってもよい。
物体位置検出部73は、撮影された画像とセンサによって検出された検出結果に基づいて、撮影された画像における対象物体の三次元位置と大きさ形状等を周知の手法で検出する。物体位置検出部73は、物体位置検出部73が記憶するパターンマッチングのモデル等を参照して、撮影装置71が撮影した画像に対して画像処理(エッジ検出、二値化処理、特徴量抽出、画像強調処理、画像抽出、パターンマッチング処理等)を行って物体の位置を推定する。なお、物体位置検出部73は、撮影された画像から複数の物体が検出された場合、物体毎に位置を検出する。物体位置検出部73は、検出した物体位置情報を、通信部74を介してロボット遠隔操作制御装置3に送信する。なお、環境センサ7が送信するデータは、例えば位置情報を有する点群であってもよい。
通信部74は、物体位置情報をロボット遠隔操作制御装置3に送信する。
ロボット2は、遠隔操作されていない場合、制御部21の制御に応じて行動が制御される。ロボット2は、遠隔操作されている場合、ロボット遠隔操作制御装置3が生成した把持計画情報に応じて行動が制御される。
制御部21は、ロボット遠隔操作制御装置3が出力する制御指令に基づいて駆動部22を制御する。なお、制御部21は、収音部23が収音した音響信号に対して音声認識処理(発話区間検出、音源分離、音源定位、雑音抑圧、音源同定等)を行うようにしてもよい。制御部21は、音声認識した結果にロボットに対する動作指示が含まれている場合、音声による動作指示に基づいてロボット2の動作を制御するようにしてもよい。制御部21は、フィードバック情報を生成して、生成したフィードバック情報を、ロボット遠隔操作制御装置3を介してコントローラー6に送信する。
駆動部22は、制御部21の制御に応じてロボット2の各部(把持部222、腕、指、足、頭、胴、腰等)を駆動する。駆動部22は、例えば、アクチュエータ、ギア、人工筋等を備える。
収音部23は、例えば複数のマイクロホンを備えるマイクロホンアレイである。収音部23は、収音した音響信号を制御部21に出力する。収音部23は、音声認識処理機能を備えていてもよい。この場合、収音部23は、音声認識結果を制御部21に出力する。
記憶部25は、例えば、制御部21が制御に用いるプログラム、閾値等を記憶し、音声認識結果、画像処理結果、制御指令等を一時的に記憶する。なお、記憶部25は、記憶部38が兼ねていてもよい。または、記憶部38が記憶部25を兼ねていてもよい。
電源26は、ロボット2の各部に電力を供給する。電源26は、例えば充電式のバッテリや充電回路を備えていてもよい。
センサ27は、例えば、加速度センサ、ジャイロスコープセンサ、磁力センサ、各関節エンコーダ等である。なお、センサ27は、ロボット2の各関節、頭部等に取り付けられている。センサ27は、検出した検出結果を、制御部21、位置合わせ部33、意図推定部34、制御指令生成部35、画像作成部36に出力する。
ロボット遠隔操作制御装置3は、例えばロボット2の起動時に操作者操作環境とロボット動作環境のキャリブレーションを行う。ロボット遠隔操作制御装置3は、例えば、環境センサ7が検出した物体位置情報に基づいて操作者が意図する操作対象物体を推定し、ロボット2の制御指令を生成する。
情報取得部31は、HMD5から視線情報と頭部動作情報を取得し、コントローラー6から操作者腕部情報を取得し、環境センサ7から物体位置情報を取得する。情報取得部31は、取得した視線情報と頭部動作情報と操作者腕部情報と物体位置情報を、位置合わせ部33と意図推定部34に出力する。
位置合わせ部33の計測部331は、キャリブレーションの際(例えばロボット2の起動時や操作者が作業開始する際)に、センサ値を用いて、操作者が装着しているHMD5の原点、コントローラー6の原点を検出する。なお、このようなキャリブレーションの際、操作者は、例えば図3のような基準姿勢を取る。計測部331は、キャリブレーションの際に、センサ値を用いて、ロボット2の把持部222の原点と、操作者が装着するHMD5の位置に基づく操作者視線の原点を検出する。計測部331は、例えばロボット2の起動時に操作者の体形(例えば、身長、腕の長さ等)を計測する。
位置合わせ部33の比率算出部332は、計測された操作者の体型と、記憶部38が記憶するロボット2の体型との比率を求める。
位置合わせ部33の座標合わせ部333は、計測部331が計測、検出した結果を用いて、操作者のデバイスの中心をオペレータ操作の基準位置とし、HMD5の方向を操作者操作の基準姿勢とする。また、座標合わせ部333は、計測部331が計測、検出した結果を用いて、ロボットのマニピュレータの中心をロボット動作の基準位置姿勢とする。
意図推定部34は、位置合わせ部33によって位置合わせが行われた座標系において、情報取得部31が取得した操作者腕部情報と物体位置情報に基づいて、操作者が意図する対象物体に関する情報(対象物体名、対象物体の位置、対象物体の大きさ等)を、例えば学習済みの推定モデルに入力するか、確立分布を算出することで推定する。
制御指令生成部35は、意図推定部34が推定した結果と、センサ27が検出した検出結果、環境センサ7が検出した物体位置情報に基づいて、例えば物体を把持するための制御指令を生成する。なお、制御指令生成部35は、画像作成部36は、比率算出部332が算出した比率を用いて、制御指令を変更するようにしてもよい。制御指令生成部35は、生成した制御指令情報を制御部21に出力する。
画像作成部36は、制御指令生成部35が生成した制御指令情報に基づいて、HMD5に表示させるロボット状態画像を作成する。なお、画像作成部36は、比率算出部332が算出した比率を用いて、ロボット状態画像の比率を変更するようにしてもよい。
送信部37は、画像作成部36が作成したロボット状態画像を、HMD5に送信する。送信部37は、ロボット2が出力したフィードバック情報を取得し、取得したフィードバック情報をコントローラー6へ送信する。
記憶部38は、位置合わせ部33が使用する変換式や所定の値を記憶している。記憶部38は、環境センサ7の撮影装置71とセンサ72の位置関係を記憶している。記憶部38は、各座標系の原点を記憶する。記憶部38は、ロボット2の大きさ(例えば身長、腕の長さ、把持部の大きさ等)を記憶する。記憶部38は、ロボット遠隔操作制御装置3の制御に用いられるプログラムを記憶する。なお、プログラムはクラウドやネットワーク上にあってもよい。
<第1実施形態>
本実施形態では、例えばロボット2の起動時に操作者操作環境とロボット動作環境のキャリブレーションを行う例を説明する。
まず、操作者操作環境について説明する。図3は、実施形態に係る操作者操作環境と原点と基準点の例を示す図である。
図3の例では、操作者Usは、左手に第1のコントローラー6aを装着し、右手に第2のコントローラー6bを装着し、頭部にHMD5を装着している。なお、図3に示したHMD5、コントローラー6は一例であり、装着方法や形状等は、これに限らない。
操作者操作環境の座標系は、HMD5の座標系Hc、第1のコントローラー6aの座標系Cca、第2のコントローラー6bの座標系Ccbが存在する。実施形態では、第1のコントローラー6aの座標系Ccaの原点Ccaoと、第2のコントローラー6bの座標系Ccbの原点Ccboとの中点を、操作者操作基準点Usoとする。このように、実施形態では、操作者のデバイス(コントローラー6)の中心を操作者操作の基準位置とする。実施形態では、操作者操作基準点Usoを備える座標系を操作者操作座標系Uscとする。なお、操作者操作座標系Uscのx軸とy軸は、例えば地面と平行とする。なお、各座標系において、例えば、実線がx軸であり、鎖線がy軸であり、一点鎖線がz軸である。
また、実施形態では、HMD5の方向を操作者操作の基準姿勢とする。すなわち、本実施形態では、操作者の見ている操作画面方向を操作者操作の基準姿勢とする。
さらに、実施形態では、操作者操作基準点Usoとは異なる位置に、操作者原点Uoを設定する。また、実施形態では、操作者原点Uoを備える座標系を操作者座標系Ucとする。なお、操作者座標系Ucのx軸とy軸は、例えば地面と平行とする。操作者原点Uoは、例えば地面に設けられている。なお、操作者原点Uoは、任意の位置に設定するようにしてもよい。
次に、ロボット動作環境について説明する。図4は、実施形態に係るロボット動作環境と原点と基準点の例を示す図である。
ロボット動作環境の座標系は、操作者視点の座標系Occ、第1の把持部222aの座標系Mac、第2の把持部222bの座標系Mbcが存在する。実施形態では、第1の把持部222aの座標系Macの原点Macoと、第2の把持部222bの座標系Mbcの原点Mbcoとの中点を、ロボット動作基準点Rmoとする。このように、実施形態では、ロボット2のマニピュレータ(把持部222)の中心をロボット動作の基準位置姿勢とする。実施形態では、ロボット動作基準点Rmoを備える座標系をロボット動作座標系Rmcとする。なお、ロボット動作座標系Rmcのx軸とy軸は、例えば地面と平行とする。なお、各座標系において、図3と同様に、実線がx軸であり、鎖線がy軸であり、一点鎖線がz軸である。
さらに、実施形態では、ロボット動作基準点Rmoとは異なる位置(例えばロボット2の左足首)にロボット原点Moを設定する。また、実施形態では、ロボット動作基準点Rmoを備える座標系をロボット座標系Mcとする。なお、ロボット座標系Mcのx軸とy軸は、例えば地面と平行とする。ロボット動作基準点Rmoは、例えば地面に設けられている。なお、ロボット動作基準点Rmoは、ロボット2の任意の位置に設定するようにしてもよい。
[処理手順]
次に、ロボット遠隔操作制御装置3の処理手順を説明する。
図5は、本実施形態に係るロボット遠隔操作制御装置3のキャリブレーション処理手順のフローチャートである。
(ステップS1)情報取得部31は、HMD5から視線情報(視線ベクトル)と頭部動作情報を取得し、コントローラー6から操作者腕部情報を取得し、環境センサ7から物体位置情報を取得する。
(ステップS2)計測部331は、取得されたセンサ値(例えば操作者腕部情報、頭部動作情報、環境センサ値)を用いて、操作者が装着しているデバイス(例えばコントローラー6a,6b)の中心を検出する。続けて、座標合わせ部333は、検出された操作者が装着しているデバイスの中心を、操作者操作の基準位置に設定する。
(ステップS3)計測部331は、取得されたセンサ値(例えば環境センサ値、頭部動作情報)を用いて、操作者が装着しているHMD5の方向を検出する。続けて、座標合わせ部333は、検出されたHMD5の方向を、操作者操作の基準姿勢に設定する。
(ステップS4)計測部331は、取得されたセンサ値(例えば環境センサ値)とセンサ27の検出結果を用いて、ロボット2の把持部222(222a、222b)の中心を検出する。続けて、座標合わせ部333は、検出されたロボット2の把持部222(222a、222b)の中心を、ロボット動作の基準位置に合わせる。
(ステップS5)座標合わせ部333は、操作者操作の基準位置から把持部の相対位置姿勢をロボットへの入力とする。
(ステップS6)座標合わせ部333は、操作者操作の基準位置からHMDの相対位置姿勢を操作者の視点とする。
なお、図5に示したキャリブレーション処理は一例であり、これに限らない。また、キャリブレーションを行うタイミングは、例えば、ロボット2の起動時、操作者が操作を開始する時、操作者から指示があった時、所定の時刻、所定の期間毎等であってもよい。
以上のように、本実施形態では、ロボット2の例えば起動時に操作者操作環境とロボット動作環境のキャリブレーションを行うようにした。
これにより、本実施形態によれば、操作者は操作環境の任意の位置でロボット2を操作できるようになる。また、本実施形態によれば、ロボット2の操作時に操作者の視点と入力の位置の関係性が、操作者自身の手と目の関係性と一致するため直感的で操作しやすい。
<第2実施形態>
本実施形態では、例えばロボット2の起動時に操作者の体形(例えば腕の長さ)を計測し、ロボットとの比率を求め、ロボット2への入力(操作デバイスの移動量)をスケーリングする例を説明する。
図6は、操作者に対してロボット2の方が大きい例を示す図である。図6のように、操作者Usとロボット2のサイズ(特に腕のリーチング範囲)が異なる場合、操作者は、ロボット2の遠隔操作が困難になる。例えばオペレータの腕の長さIUが80cm(身長がh1)、ロボット2の腕の長さIRが120cm(身長がh2)とすると、作業エリアが40cm狭くなってしまう。
このため、本実施形態では、例えばロボット2の起動時に操作者の体形(少なくとも腕の長さ)を計測し、計測した操作者の体型とロボットの体型との比率を求める。そして、本実施形態では、比率に基づいてロボット2への入力(操作デバイス(コントローラー6)の移動量)をスケーリングする。
図7は、本実施形態に係る計測箇所の例を示す図である。
計測部331は、例えば、ロボット2の起動時に、環境センサ7が計測した位置情報を用いて、操作者の体形(例えば、身長h1、腕の長さIU、手の長さAU等)を計測する。なお、腕の長さIUは、例えば、上腕と前腕の長さの合計である。腕の長さIUは、手の長さAUを含んでいてもよい。
計測部331が計測する箇所は、少なくとも操作者の腕の長さであり、身長h1や手の長さAUも測定するようにしてもよい。計測部331は、他に腕の幅、頭部の大きさ等も計測するようにしてもよい。
なお、情報取得部31は、操作者の体型について実測値を取得するようにしてもよい。この場合、情報取得部31は、実測値を計測部331に出力するようにしてもよい。
[処理手順]
次に、ロボット遠隔操作制御装置3の処理手順を説明する。
図8は、本実施形態に係るロボット遠隔操作制御装置3の処理手順のフローチャートである。
(ステップS101)情報取得部31は、HMD5から視線情報(視線ベクトル)を取得し、コントローラー6から操作者腕部情報を取得し、環境センサ7から物体位置情報を取得する。
(ステップS102)計測部331は、環境センサ7が計測した環境センサ値(位置情報)を用いて、操作者の体形(例えば、身長h1、腕の長さIU、手の長さAU等)を計測する。
(ステップS103)比率算出部332は、計測された操作者の体型と、記憶部38が記憶するロボット2の体型との比率を求める。なお、比率算出部332は、少なくとも計操作者の腕の長さIUと、ロボット2の腕の長さIAとの比率を算出する。
(ステップS104)意図推定部34は、取得した操作者センサ値と、環境センサ7から取得された環境センサ値と、に基づいて、把持対象物体、作業内容を含む操作者の意図を推定する。
(ステップS105)制御指令生成部35は、位置合わせ部33の比率算出部332が算出した比率と、意図推定部34が推定した結果と、センサ27が検出した検出結果と、環境センサ7が検出した物体位置情報に基づいて、例えば物体を把持するための制御指令を生成する。例えば、制御指令生成部35は、操作者のサイズとロボット2のサイズの比率を、ロボットへの操作量にかける。
(ステップS106)画像作成部36は、比率算出部332が算出した比率と、制御指令生成部35が生成した制御指令情報と、意図推定部34が推定した結果とに基づいて、HMD5に表示させるロボット状態画像を作成する。
なお、図8に示した計測等の処理手は一例であり、これに限らない。また、計測等を行うタイミングは、例えば、ロボット2の起動時、操作者が操作を開始する時、操作者から指示があった時、所定の時刻、所定の期間毎等であってもよい。
このように、本実施形態では、算出した比率を用いて、ロボット2への入力(操作デバイスの移動量)をスケーリングするようにした。
なお、ロボット2への入力のみスケーリングを行うと視覚的に操作の違和感を感じる(自分が伸ばした以上にロボットの腕が伸びるので感覚がずれる)。このため、本実施形態では、視覚情報(例えば視線情報)も同様にスケーリングするようにした。すなわち、本実施形態では、制御指令に対する比率と、HMD5に表示させる画像に対する比率を同じにした。
これにより、本実施形態によれば、操作者とスケールの異なるロボット2に対しても自然な動作で操作を行えるようになる。
また、本実施形態によれば、操作量に対する視覚情報の違和感を改善することができる。
なお、図6の例では、操作者よりロボット2が大きい例を説明したが、操作者よりロボット2が小さい場合にも、本実施形態の手法を適用できる。
なお、操作者とロボットのサイズが1:1であったとしても、スケールを変更したい場合がある。例えば、繊細な作業を行いたい場合は、操作量を例えば1/2にスケーリングしたい場合もあり得る。図9は、本実施形態に係るスケール変更例を示すイメージ図である。スケール縮小g101の場合には、1倍のスケール(g102)に対してスケールを、例えば1/2倍に縮小する(g103)。スケール拡大g111の場合には、1倍のスケール(g112)に対してスケールを、例えば2倍に拡大する(g103)。このような場合であっても、本実施形態の手法を適用できる。このように、操作者が任意に入力および視覚のスケール変更を可能とすることで、慎重な操作が可能となる。なお、このような場合、操作者は、例えばHMD5に表示される画像に対して視線入力で、任意にロボット2への入力および視覚のスケール変更するようにしてもよい。すなわち、制御指令に対する比率と、HMD5に表示させる画像に対する比率を異なるようにしてもよい。
なお、ロボット遠隔操作制御装置3は、操作者の指示ではなく、作業状況に応じて、制御指令やHMD5に表示させる表示画像に対する比率を変更するようにしてもよい。例えば、ロボット遠隔操作制御装置3は、作業者のサイズとロボット2のサイズとの比率が第1所定値(例えば2)以上または第2所定値以下(例えば0.5)の場合に、比率を変更し、比率が第1所定値未満~第2所定値より大きい場合に比率を変更しないようにしてもよい。あるいは、ロボット遠隔操作制御装置3は、作業内容、例えば把持する対象の大きさに応じて、比率を変更するようにしてもよい。
また、本実施形態の実施は、第1実施形態で説明した操作者操作環境とロボット動作環境のキャリブレーションと合わせて行うことも勿論可能である。これにより、より操作性を向上することができる。
なお、意図推定部34は、操作者状態情報と、ロボット2の状態情報とに基づいて、操作者が意図する手先の将来軌道を、事前に予測するようにしてもよい。
また、把持の際、ロボット遠隔操作制御装置3は、ロボット2の把持力と、物体と把持部222との摩擦力等に基づいて、把持時の把持位置の誤差を補正して、把持位置を決定するようにしてもよい。
また、上述したロボット2は、例えば、二足歩行ロボットであってもよく、固定型の受付ロボットであってもよく、作業ロボットであってもよい。
また、上述した例では、遠隔操作でロボット2に把持させる例を説明したが、これに限らない。
また、上述した例では、操作者がHMD5を装着する例を説明したが、これに限らない。視線情報の検出や、操作者へのロボット状態画像の提供は、例えば、センサと画像表示装置との組み合わせ等であってもよい。
なお、本発明におけるロボット遠隔操作制御装置3の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりロボット遠隔操作制御装置3が行う全ての処理または一部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ローカルネットワーク上で構築されたシステムやクラウド上で構築されたシステム等も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。
1…ロボット遠隔操作制御システム、2…ロボット、3…ロボット遠隔操作制御装置、5…HMD、6…コントローラー、7…環境センサ、21…制御部、22…駆動部、23…収音部、25…記憶部、26…電源、27…センサ、222,222a,222b…把持部、31…情報取得部、33…位置合わせ部、331…計測部、332…比較算出部、333…座標合わせ部、34…意図推定部、35…制御指令生成部、36…画像作成部、37…送信部、38…記憶部、51…画像表示部、52…視線検出部、53…センサ、54…制御部、55…通信部、61…センサ、62…制御部、63…通信部、64…フィードバック手段、71…撮影装置、72…センサ、73…物体位置検出部、74…通信部

Claims (8)

  1. 操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
    前記操作者が装着しているデバイスの中心を操作の基準位置とし、前記操作者の見ている操作画面方向を操作の基準姿勢とし、前記ロボットのマニピュレータの中心をロボット動作の基準位置とする位置合わせ部と、
    前記操作の基準位置と前記ロボット動作の基準位置とに基づく前記ロボットのマニピュレータの相対位置姿勢を前記ロボットへの入力とし、前記操作の基準位置と前記操作の基準姿勢とに基づく前記デバイスの相対位置姿勢を前記操作者の視点とするキャリブレーション処理後に前記デバイスに取り付けられているセンサが検出する第1センサ値と前記ロボットの作業環境に設置される環境センサが検出する物体位置情報とによって推定される前記操作者の意図と、前記マニピュレータに取り付けられているセンサが検出する第2センサ値と、前記物体位置情報とに基づいて、前記ロボットへの制御指令を生成する制御指令生成部と、を備え
    前記位置合わせ部は、計測部と、座標合わせ部とを備え、
    前記計測部は、前記キャリブレーション処理を行う際に、前記第1センサ値と前記第2センサ値とを用いて、前記操作者が装着しているデバイスに対する座標系の原点と、前記マニピュレータに対する座標系の原点とを検出し、
    前記座標合わせ部は、前記計測部が検出した結果を用いて、前記操作者が装着しているデバイスに対する座標系と前記マニピュレータに対する座標系との位置合わせを行い、前記デバイスの中心を前記操作の基準位置とし、前記操作画面方向を前記操作の基準姿勢とし、前記マニピュレータの中心を前記ロボット動作の基準位置とする、
    ボット遠隔操作制御装置。
  2. 前記位置合わせ部は、前記操作者の少なくとも腕の長さを含む体形を計測し、前記ロボットの体型との比率を算出し、
    前記制御指令生成部は、前記比率を用いて前記ロボットへの前記制御指令をスケーリングする、
    請求項1に記載のロボット遠隔操作制御装置。
  3. 前記操作者が装着する画像表示装置に表示させる表示画像を生成する画像作成部を更に備え、
    前記制御指令生成部は、前記制御指令に対する比率と同じ比率を用いて、前記表示画像をスケーリングする、
    請求項2に記載のロボット遠隔操作制御装置。
  4. 前記制御指令生成部は、前記比率を前記操作者の指示に応じて変更する、
    請求項2に記載のロボット遠隔操作制御装置。
  5. 前記制御指令生成部は、前記比率を操作状況に応じて変更する、
    請求項2に記載のロボット遠隔操作制御装置。
  6. 操作者の動きを認識し、ロボットに前記操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
    請求項1から請求項5のうちのいずれか1つに記載の前記ロボット遠隔操作制御装置と、
    物体を把持する把持部と、
    記操作者の視界にあるロボット環境の画像を表示する画像表示装置と、
    を備えるロボット遠隔操作制御システム。
  7. 操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
    位置合わせ部が、前記操作者が装着しているデバイスの中心を操作の基準位置とし、前記操作者の見ている操作画面方向を操作の基準姿勢とし、前記ロボットのマニピュレータの中心をロボット動作の基準位置とし、
    制御指令生成部が、前記操作の基準位置と前記ロボット動作の基準位置とに基づく前記ロボットのマニピュレータの相対位置姿勢を前記ロボットへの入力とし、前記操作の基準位置と前記操作の基準姿勢とに基づく前記デバイスの相対位置姿勢を前記操作者の視点とするキャリブレーション処理後に前記デバイスに取り付けられているセンサが検出する第1センサ値と前記ロボットの作業環境に設置される環境センサが検出する物体位置情報とによって推定される前記操作者の意図と、前記マニピュレータに取り付けられているセンサが検出する第2センサ値と、前記物体位置情報とに基づいて、前記ロボットへの制御指令を生成し、
    前記位置合わせ部が有する計測部が、前記キャリブレーション処理を行う際に、前記第1センサ値と前記第2センサ値とを用いて、前記操作者が装着しているデバイスに対する座標系の原点と、前記マニピュレータに対する座標系の原点とを検出し、
    前記位置合わせ部が有する座標合わせ部が、前記計測部が検出した結果を用いて、前記操作者が装着しているデバイスに対する座標系と前記マニピュレータに対する座標系との位置合わせを行い、前記デバイスの中心を前記操作の基準位置とし、前記操作画面方向を前記操作の基準姿勢とし、前記マニピュレータの中心を前記ロボット動作の基準位置とする、
    ロボット遠隔操作制御方法。
  8. 操作者の動きを認識し、ロボットに操作者の動きを伝えて前記ロボットを操作するロボット遠隔操作において、
    コンピュータに、
    前記操作者が装着しているデバイスの中心を操作の基準位置とさせ、
    前記操作者の見ている操作画面方向を操作の基準姿勢とさせ、
    前記ロボットのマニピュレータの中心をロボット動作の基準位置とさせ、
    前記操作の基準位置と前記ロボット動作の基準位置とに基づく前記ロボットのマニピュレータの相対位置姿勢を前記ロボットへの入力とさせ、
    前記操作の基準位置と前記操作の基準姿勢とに基づく前記デバイスの相対位置姿勢を前記操作者の視点とするキャリブレーション処理後に前記デバイスに取り付けられているセンサが検出する第1センサ値と前記ロボットの作業環境に設置される環境センサが検出する物体位置情報とによって推定される前記操作者の意図と、前記マニピュレータに取り付けられているセンサが検出する第2センサ値と、前記物体位置情報とに基づいて、前記ロボットへの制御指令を生成させ
    前記キャリブレーション処理を行う際に、前記第1センサ値と前記第2センサ値とを用いて、前記操作者が装着しているデバイスに対する座標系の原点と、前記マニピュレータに対する座標系の原点とを検出させ、
    検出された結果を用いて、前記操作者が装着しているデバイスに対する座標系と前記マニピュレータに対する座標系との位置合わせを行い、前記デバイスの中心を前記操作の基準位置とし、前記操作画面方向を前記操作の基準姿勢とし、前記マニピュレータの中心を前記ロボット動作の基準位置とさせる、
    プログラム。
JP2021061151A 2021-03-31 2021-03-31 ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム Active JP7535968B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021061151A JP7535968B2 (ja) 2021-03-31 2021-03-31 ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021061151A JP7535968B2 (ja) 2021-03-31 2021-03-31 ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2022157110A JP2022157110A (ja) 2022-10-14
JP7535968B2 true JP7535968B2 (ja) 2024-08-19

Family

ID=83558510

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021061151A Active JP7535968B2 (ja) 2021-03-31 2021-03-31 ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP7535968B2 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017196678A (ja) 2016-04-25 2017-11-02 国立大学法人 千葉大学 ロボット動作制御装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017196678A (ja) 2016-04-25 2017-11-02 国立大学法人 千葉大学 ロボット動作制御装置

Also Published As

Publication number Publication date
JP2022157110A (ja) 2022-10-14

Similar Documents

Publication Publication Date Title
US10327849B2 (en) Robotic system and method for backdriving the same
JP6678832B2 (ja) 遠隔制御マニピュレータシステムおよび制御装置
US11344374B2 (en) Detection of unintentional movement of a user interface device
US9052710B1 (en) Manipulation control based upon mimic of human gestures
JP5904635B2 (ja) 制御装置、制御方法及びロボット装置
US11701770B2 (en) Robot system and method of controlling robot system
JP2013510672A (ja) 遠隔操作される低侵襲スレーブ手術器具の手による制御のための方法およびシステム
JP7535968B2 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
EP4316747A1 (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
JP3884249B2 (ja) 人間型ハンドロボット用教示システム
JP2013043250A (ja) ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路
JP2022164028A (ja) 遠隔操作制御システム、遠隔操作制御方法、およびプログラム
JP2022157127A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
JP2003211377A (ja) マニピュレーション動作支援装置及びその支援方法
JP2022155623A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
US20220314449A1 (en) Robot remote operation control device, robot remote operation control system, robot remote operation control method, and non-transitory computer readable medium
JP2022157119A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
Fadhilah et al. Wearable Control Using Feedforward Neural Networks has Been used to Control the Manipulator Arm of Field and Service Robots
US20230286139A1 (en) Remote control system
US20240100692A1 (en) Object gripping method, storage medium, and object gripping control device
JP2022157101A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
JP2022157123A (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
JP3424392B2 (ja) 操縦装置、操縦方法、内視鏡の操縦装置、仮想イメージの操縦装置
WO2020054268A1 (ja) 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240806

R150 Certificate of patent or registration of utility model

Ref document number: 7535968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150