JP2022001388A - ロボット制御装置、ロボット制御方法及びプログラム - Google Patents

ロボット制御装置、ロボット制御方法及びプログラム Download PDF

Info

Publication number
JP2022001388A
JP2022001388A JP2020106347A JP2020106347A JP2022001388A JP 2022001388 A JP2022001388 A JP 2022001388A JP 2020106347 A JP2020106347 A JP 2020106347A JP 2020106347 A JP2020106347 A JP 2020106347A JP 2022001388 A JP2022001388 A JP 2022001388A
Authority
JP
Japan
Prior art keywords
robot
operation information
parts
robot control
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020106347A
Other languages
English (en)
Inventor
佐野元紀
Genki Sano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telexistence Inc
Original Assignee
Telexistence Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telexistence Inc filed Critical Telexistence Inc
Priority to JP2020106347A priority Critical patent/JP2022001388A/ja
Publication of JP2022001388A publication Critical patent/JP2022001388A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】ロボットの部位が他の部位又は他の物体に衝突するか否かの判定精度を向上させる。【解決手段】ロボット制御装置1は、ロボット3を操作する操作者Uの動作に応じてロボット3を操作するための操作情報を生成する操作装置2から操作情報を受信する操作情報受信部141と、操作情報に基づき操作者の動きに対応する動作を行うオブジェクトBを作成するオブジェクト作成部142と、操作情報に基づいてロボット3を制御するロボット制御部143と、を有し、ロボット制御部143は、操作情報受信部141が受信した操作情報に基づいてオブジェクト作成部142が作成したオブジェクトBが所定の状態になると判定した場合に、操作情報に基づくロボット3の制御を停止させる。【選択図】図2

Description

本発明は、ロボットを制御するためのロボット制御装置、ロボット制御方法及びプログラムに関する。
従来、ロボットが物体に衝突することを回避するための技術が知られている。特許文献1には、ロボットの部位の動きベクトルの延長線上に物体があるか否かに基づいて、他の物体に衝突するか否かを判定する技術が開示されている。
特開2019−202354号公報
ロボットの部位が直線的な動きをしている場合には、ロボットの部位の動きベクトルの延長線上に物体があるか否かに基づいて、他の物体に衝突するか否かを適切に判定できる。しかしながら、ロボットの部位が直線的な動きをしていない場合には、ロボットの部位の動きベクトルを用いるだけでは、他の物体に衝突するか否かの判定精度が不十分であるという問題があった。
そこで、本発明はこれらの点に鑑みてなされたものであり、ロボットの部位が他の部位又は他の物体に衝突するか否かの判定精度を向上させることを目的とする。
本発明の第1の態様のロボット制御装置は、ロボットを操作する操作者の動作に応じて前記ロボットを操作するための操作情報を生成する操作装置から、前記操作情報を受信する操作情報受信部と、前記操作情報に基づき前記操作者の動きに対応する動作を行うオブジェクトを作成するオブジェクト作成部と、前記操作情報に基づいて前記ロボットを制御するロボット制御部と、を有し、前記ロボット制御部は、前記操作情報受信部が受信した前記操作情報に基づいて前記オブジェクト作成部が作成した前記オブジェクトが所定の状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させる。
前記オブジェクト作成部は、前記操作情報に基づいて前記オブジェクトの少なくとも一部の部位を動作させることにより前記オブジェクトの状態を変化させてもよい。
前記ロボット制御部は、前記操作情報に基づいて前記オブジェクトが動作できない状態、又は前記オブジェクトが転倒する状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させてもよい。
前記ロボット制御部は、前記操作情報に基づいて前記オブジェクトの状態を変化させた場合に前記オブジェクトの一以上の部位が前記オブジェクトの他の部位又は外部物体と接触する状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させてもよい。
前記ロボット制御部は、前記一以上の部位と前記他の部位又は前記外部物体との距離に基づいて前記接触する状態になるか否かを判定してもよい。
前記ロボット制御部は、前記操作情報に対応する前記一以上の部位の移動方向と、前記一以上の部位と前記他の部位又は前記外部物体との位置関係とに基づいて、前記接触する状態になるか否かを判定してもよい。
前記ロボット制御部は、前記操作情報に対応する前記一以上の部位の移動速度又は移動加速度の少なくともいずれかに基づいて特定した所定の時間後における前記一以上の部位と前記他の部位若しくは前記外部物体との位置関係に基づいて、前記接触する状態になるか否かを判定してもよい。
前記ロボット制御部は、前記一以上の部位が接触する前記他の部位若しくは前記外部物体の位置、又は前記一以上の部位が前記他の部位若しくは前記外部物体に接触する時点での前記一以上の部位の加速度に基づいて、前記接触する状態になるか否かを判定してもよい。
ロボット制御装置は、前記操作者が視認可能な表示部に前記オブジェクトを表示させる表示処理部をさらに有し、前記表示処理部は、前記オブジェクトにおいて前記操作情報に基づいて移動する部位を他の部位と異なる色で示してもよい。
ロボット制御装置は、前記操作者が視認可能な表示部に前記オブジェクトを表示させる表示処理部をさらに有し、前記表示処理部は、前記オブジェクトにおいて前記操作情報に基づいて移動する前記オブジェクトの一以上の部位と他の部位とが所定の距離内になると予測した場合に、前記一以上の部位が前記他の部位から離れる向きを示す情報を前記表示部に表示させてもよい。
前記ロボット制御部は、前記操作情報が示す操作内容の変化に基づいて、前記操作情報に基づく前記ロボットの制御を停止するか再開するかを切り替えてもよい。
本発明の第2の態様のロボット制御方法は、ロボットを操作する操作者の動作に応じて前記ロボットを操作するための操作情報を作成する操作装置から、前記操作情報を受信するステップと、前記操作情報に基づき前記操作者の動きに対応する動作を行うオブジェクトを作成するステップと、受信した前記操作情報に基づいて前記オブジェクトの一以上の部位が所定の状態になるか否かを判定するステップと、前記オブジェクトの一以上の部位が所定の状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させるステップと、を有する。
本発明の第3の態様のプログラムは、コンピュータに、ロボットを操作する操作者の動作に応じて前記ロボットを操作するための操作情報を作成する操作装置から、前記操作情報を受信するステップと、前記操作情報に基づき前記操作者の動きに対応する動作を行うオブジェクトを作成するステップと、受信した前記操作情報に基づいて前記オブジェクトの一以上の部位が所定の状態になるか否かを判定するステップと、前記オブジェクトの一以上の部位が所定の状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させるステップと、を実行させる。
本発明によれば、ロボットの部位が他の部位又は他の物体に衝突するか否かの判定精度を向上させることができるという効果を奏する。
ロボット制御システムの概要を示す図である。 ロボット制御装置の機能構成を示す図である。 ロボット制御システムの動作シーケンスを示す図である。 ロボット制御装置の動作のフローチャートを示す図である。
[ロボット制御システムSの概要]
図1は、ロボット制御システムSの概要を示す図である。ロボット制御システムSは、遠隔地にある物が近くにあるかのようにユーザUに感じさせながら、操作者Uが物に対する操作をリアルタイムに行うことができるテレイグジスタンス環境を提供するシステムである。
ロボット制御システムSは、ロボット制御装置1と、操作装置2と、ロボット3とを有する。ロボット制御装置1は、操作者Uの操作に応じてロボット3を制御するための制御データを出力する装置であり、例えばコンピュータである。ロボット制御装置1は、操作装置2及びロボット3との間で、通信チャネルを介してデータを送受信する。
ロボット制御装置1は、例えばロボット3に設けられているが、ロボット制御装置1はロボット3と異なる場所に設けられていてもよく、操作装置2の近傍に設けられていてもよい。ロボット制御装置1がロボット3に設けられている場合、ロボット制御装置1は、例えばインターネットを介して操作装置2との間でデータを送受信する。ロボット制御装置1が操作装置2の近傍に設けられている場合、ロボット制御装置1は、例えばインターネットを介してロボット3との間でデータを送受信する。
操作装置2は、操作者Uが装着するデバイスであり、表示デバイス21及び操作デバイス22を含む。表示デバイス21は、操作者Uが視認可能なディスプレイを有する表示装置であり、例えばゴーグル型表示装置である。
操作デバイス22は、操作者Uがロボット3を操作するために用いるデバイスである。操作デバイス22は、例えば、操作者Uの身体の部位(例えば手及び腕)の動きを検出するための加速度センサーを有しており、操作者Uの身体の部位の動きを示す操作情報を生成する。
操作情報は、例えば、操作者Uの指、手、腕、頭、若しくは足等の各部の基準位置に対する相対位置を示す位置情報、各部の速度を示す速度情報、又は各部の加速度を示す加速度情報等の動作情報の少なくともいずれかを含む。基準位置は、例えば、操作者Uがロボット3の操作を開始する時点に所定の姿勢(例えば、腕を伸ばして胴体の両側につけた姿勢)をした状態における各部の位置である。操作デバイス22は、ロボット3の状態を操作者Uが感知することができるように、ロボット3の状態に対応する熱、圧力又は振動等を発生するための素子も有する。
ロボット3は、ロボット制御装置1から受信する制御データに基づいて動作する。また、ロボット3は、周辺を撮影可能なカメラを有しており、カメラにより生成した撮像画像データをロボット制御装置1に送信する。さらに、ロボット3は、ロボット3が検知した触覚を示す触覚データ、ロボット3が収集した音を示す音データ、又はロボット3の関節の状態を示す関節状態データの少なくともいずれかのロボット状態データをロボット制御装置1に送信する。
ロボット制御装置1は、ロボット3から受信した撮像画像データに基づく画像を表示デバイス21に表示させる。また、ロボット制御装置1は、ロボット3から受信したロボット状態データに基づいて操作デバイス22を加熱したり振動させたりする。これらの構成により、操作者Uは、ロボット3から離れた場所において、あたかもロボット3に入っているかのような感覚でロボット3の周辺の環境を体感することができる。
また、ロボット制御装置1は、操作デバイス22から送信される操作情報に基づいて、ロボット3を動作させるための制御データを作成し、作成した制御データをロボット3に送信することによりロボット3の動作を制御する。ロボット制御装置1は、制御データをロボット3に送信する前に、操作情報が示す操作者Uの動きに対応する動作を行うオブジェクトBを作成し、作成したオブジェクトBの状態に基づいて、操作情報に基づいてロボット3を動作させるか否かを判定することを特徴としている。オブジェクトBは、例えば、ロボット3と同等の形状を表した三次元コンピュータグラフィックス画像データにより構成されるが、オブジェクトBの態様は、ロボットの形状と同一でなくてもよい。
ロボット制御装置1は、オブジェクトBの動作に基づいて、操作情報に基づいてロボット3を動作させた場合に、ロボット3の一部の部位がロボット3の他の部位又は他の物体に衝突したり、ロボット3がバランスを崩して転倒したり、ロボット3が動作できなくなってしまったりするか否かを判定する。ロボット制御装置1は、ロボット3がこれらの状態になり得ると判定した場合に、操作情報に基づいてロボット3を動作させないロボット3を停止させることで、ロボット3が故障したり、ロボット3が他の物体を破壊したりすることを未然に防ぐことができる。
以下、ロボット制御装置1の構成及び動作を詳細に説明する。
[ロボット制御装置1の構成]
図2は、ロボット制御装置1の機能構成を示す図である。ロボット制御装置1は、第1通信部11と、第2通信部12と、記憶部13と、制御部14とを有する。制御部14は、操作情報受信部141と、オブジェクト作成部142と、ロボット制御部143と、表示処理部144とを有する。
第1通信部11は、操作装置2との間で各種のデータを送受信するための通信コントローラを有する。第1通信部11は、操作装置2が送信した操作情報を受信し、受信した操作情報を操作情報受信部141に入力する。また、第1通信部11は、表示処理部144から入力された表示用データを操作装置2に送信する。
第2通信部12は、ロボット3との間で各種のデータを送受信するための通信コントローラを有する。第2通信部12は、操作情報に基づいてロボット制御部143が生成した制御データをロボット3に送信する。また、第2通信部12は、ロボット3が送信した撮像画像データを受信し、受信した撮像画像データを表示処理部144に入力する。
記憶部13は、ROM(Read Only Memory)、RAM(Random Access Memory)及びハードディスク等の記憶媒体を含む。記憶部13は、制御部14が実行するプログラムを記憶している。また、記憶部13は、制御部14がロボット3を動作させるために必要な各種のデータを記憶している。
制御部14は、例えばCPU(Central Processing Unit)を有する。制御部14は、記憶部13に記憶されたプログラムを実行することにより、操作情報受信部141、オブジェクト作成部142、ロボット制御部143及び表示処理部144として機能する。
操作情報受信部141は、第1通信部11を介して、ロボット3を操作する操作者Uの動作に応じてロボット3を操作するための操作情報を生成する操作装置2から、操作情報を受信する。操作情報受信部141は、受信した操作情報をオブジェクト作成部142及びロボット制御部143に入力する。
オブジェクト作成部142は、操作情報に基づき操作者Uの動きに対応する動作を行うオブジェクトBを作成する。オブジェクト作成部142は、操作情報に基づいてオブジェクトBの少なくとも一部の部位を動作させることによりオブジェクトBの状態を変化させる。
オブジェクト作成部142は、操作情報が示す操作者Uの指、手、腕、頭、又は足等の各部の位置、速度又は加速度に基づいて、オブジェクトBに含まれている指、手、腕、頭、又は足等の各部の位置を変化させる。オブジェクト作成部142は、オブジェクトBの各部を変化させた後の各部の位置を示す情報をロボット制御部143に通知する。具体的には、オブジェクト作成部142は、オブジェクトBの各部の表面の複数の位置の変化後の座標を算出し、算出した座標をロボット制御部143に通知する。オブジェクト作成部142は、ロボット3の周辺に存在する物体の形状及び位置に対応するオブジェクトの位置を示す座標をロボット制御部143に通知してもよい。
オブジェクト作成部142が算出する座標は、仮想的な三次元空間の座標である。当該三次元空間において、初期状態のオブジェクトBの各部の位置関係は、実空間におけるロボット3の初期状態(例えば直立した状態)でのロボット3の各部の位置関係と同等になっている。
以下、オブジェクト作成部142が作成するオブジェクトBの詳細を説明する。オブジェクト作成部142は、操作者Uの指示があるまでは、ロボット3と同じ姿勢のオブジェクトBを作成する。オブジェクト作成部142は、例えばロボット制御装置1の電源が投入された時点でロボット3の姿勢情報を受信して、受信した姿勢情報が示す姿勢のオブジェクトBを作成する。オブジェクト作成部142は、操作情報受信部141が操作者Uの操作に基づく操作情報を受信すると、受信した操作情報に基づいて、操作者Uの動きと同じ動作をするオブジェクトBを作成する。
なお、オブジェクト作成部142は、ロボット3の動き又は姿勢を示す情報を第2通信部12から取得し、取得した情報に基づいて、ロボット3の動き又は姿勢が反映されたオブジェクトBを作成してもよい。この場合、オブジェクトBにロボット3の動き又は姿勢が反映されるまでに遅延が生じ得る。そこで、オブジェクト作成部142は、ロボット3の動き又は姿勢を示す情報を受信できていない間は、対応する部位を他の部位と異なる色で示したり、ロボット3の動きを薄い色でゴースト表示したりするように表示処理部144に指示してもよい。
ロボット制御部143は、操作情報受信部141から入力された操作情報に基づいてロボット3を制御する。具体的には、まず、ロボット制御部143は、操作情報が示す操作者Uの指、手、腕、頭、又は足等の各部の基準位置に対する相対位置に基づいて、ロボット3の各部の基準位置に対する相対位置にロボット3の各部が移動するようにするための制御データを作成する。ロボット制御部143は、第2通信部12を介して、作成した制御データをロボット3に送信することにより、ロボット3を制御する。ロボット制御部143は、操作情報が示す操作者Uの各部の移動速度又は移動加速度に基づいてロボット3の各部を移動させるためのデータを含む制御データを作成してもよい。
ロボット制御部143は、ロボット3の各部を移動させることにより、ロボット3の各部がロボット3の他の部位や他の物体に衝突したり、ロボット3がバランスを崩して転倒したりしないように、オブジェクト作成部142から通知されるオブジェクトBの各部の位置を示す情報に基づいて制御データを作成する。
例えば、ロボット制御部143は、操作情報受信部141が受信した操作情報に基づいてオブジェクト作成部142が作成したオブジェクトBが所定の状態になると判定した場合に、操作情報に基づくロボット3の制御を停止させる。具体的には、ロボット制御部143は、操作情報に基づいてオブジェクトBが動作できない状態になると判定した場合に、操作情報に基づいて制御データを作成せず、操作情報に基づくロボット3の制御を停止させる。
ロボット制御部143は、例えば、操作情報に基づいてオブジェクトBの状態を変化させた場合にオブジェクトBの一以上の部位がオブジェクトBの他の部位と接触する状態になると判定した場合に、操作情報に基づくロボット3の制御を停止させる。ロボット制御部143は、例えば一以上の部位と他の部位との距離に基づいて接触する状態になるか否かを判定する。
図1に示す例の場合、操作者Uが左手を顔に近づけたことにより、オブジェクトBの左手の先と顔との距離が閾値以下になる場合に、ロボット3の左手と顔とが接触する状態になると判定する。閾値は、オブジェクトBの形状とロボット3の形状との差に基づいて定められ、オブジェクトBの形状とロボット3の形状との差が小さければ小さいほど閾値を小さくすることで、ロボット制御部143による判定精度が向上する。
ロボット制御部143は、操作情報に対応する一以上の部位の移動方向と、一以上の部位と他の部位との位置関係とに基づいて、一以上の部位と他の部位とが接触する状態になるか否かを判定してもよい。ロボット制御部143は、例えば、オブジェクトBの第1部位(例えば左手の先)が第2部位(例えば顔)から遠くなる向きに移動している場合、第1部位と第2部位とが接触しないと判定する。
一方、ロボット制御部143は、オブジェクトBの第1部位と第2部位との距離が所定の範囲内であり、かつ第1部位が第2部位に近づく向きに移動している場合、接触すると判定する。ロボット制御部143がこのように動作することで、操作者Uが操作する前に、一以上の部位が他の部位と接触するか否かを判定できるので、ロボット3の一以上の部位が他の部位と接触してしまう確率をさらに下げることができる。
ロボット制御部143は、操作情報に対応する一以上の部位の移動速度又は移動加速度の少なくともいずれかに基づいて特定した所定の時間後における一以上の部位と他の部位若しくは外部物体との位置関係に基づいて、一以上の部位と他の部位若しくは外部物体とが接触する状態になるか否かを判定してもよい。ロボット制御部143は、例えば、ある時点における第1部位の位置及び第2部位の位置と、それらの部位の移動速度又は移動加速度に基づいて、所定の時間後の将来の時点における第1部位の位置及び第2部位の位置を予測する。所定の時間は、ロボット3の動作を停止させるために要する時間に基づいて定められており、例えば1秒である。ロボット制御部143は、予測した第1部位の位置と第2部位の位置との距離が閾値以下である場合に、ロボット3の一以上の部位が他の部位に接触すると判定する。
同様に、ロボット制御部143は、ある時点におけるオブジェクトBの一以上の部位の位置と、当該部位の移動速度又は移動加速度に基づいて、将来の時点における当該部位の位置を特定する。ロボット制御部143は、特定した位置と、外部物体のオブジェクトとの距離が閾値以下である場合に、ロボット3の一以上の部位が外部物体に接触すると判定する。
ロボット制御部143は、一以上の部位が接触する他の部位若しくは外部物体の位置、又は一以上の部位が他の部位若しくは外部物体に接触する時点での一以上の部位の加速度に基づいて、一以上の部位と他の部位とが接触する状態になるか否かを判定してもよい。ロボット制御部143は、ロボット3の一以上の部位が接触する他の部位の位置又は外部物体の位置が、ロボット3の一以上の部位、他の部位又は外部物体の故障につながらない位置(例えば柔らかい位置)である場合に、一以上の部位が他の部位又は外部物体に接触し得るとしても、接触する状態にならないと判定する。
また、ロボット制御部143は、接触する時点での一以上の部位の加速度が所定の値よりも小さく、一以上の部位、他の部位又は外部物体の故障につながらない加速度である場合に、一以上の部位が他の部位又は外部物体に接触し得るとしても、接触する状態にならないと判定する。ロボット制御部143がこのように動作することで、ロボット3が故障するおそれがないにもかかわらず頻繁に動作を停止してしまうことを抑制できる。
ロボット制御部143は、操作情報に基づいてオブジェクトBの各部を移動させたことによりオブジェクトBが転倒する状態になる(すなわち、ロボット3が転倒する状態になる)と判定した場合に、操作情報に基づくロボット3の制御を停止させてもよい。ロボット制御部143は、例えば、操作情報に基づいてオブジェクトBの各部を移動させた場合の重心の位置を計算し、オブジェクトBの足の位置よりも重心の位置が外側にある場合に、オブジェクトBが転倒する状態になると判定する。
ロボット制御部143は、例えば、操作者Uが右足だけで立った状態で頭や手を右側に動かし過ぎたような場合に、オブジェクトBが転倒する状態になると判定する。ロボット制御部143がこのように動作することで、ロボット3が転倒することでロボット3が故障したり、ロボット3の転倒によりロボット3が衝突する外部物体を破損したりすることを予防できる。
ロボット制御部143は、操作情報受信部141が操作情報を受信している間、オブジェクトBを動かして問題ないかどうかを常に判定しており、ロボット3の各部の接触などの問題がない間は、操作情報に基づいてロボット3を制御する。ロボット制御部143は、操作情報に基づいてオブジェクトBを動かすと、オブジェクトBの部位同士が接触すると判定した場合、操作情報に基づくロボット3の動作を停止する。このように操作情報どおりにロボット3が制御されない部位がある場合に、ロボット制御部143は、オブジェクトBにおける当該部位を他の部位と異なる色で示すようにオブジェクト作成部142に指示してもよい。
ロボット制御部143は、操作情報が示す操作内容の変化に基づいて、操作情報に基づくロボット3の制御を停止するか再開するかを切り替えてもよい。ロボット制御部143は、上記のとおり、操作情報に基づいてオブジェクトBを動作させた場合に、オブジェクトBの各部が他の部位又は外部物体と接触する場合にロボット3の制御を停止する。ロボット制御部143は、ロボット3の制御を停止した後に、オブジェクトBの各部が他の部位又は外部物体に接触しない状態に変化した場合に、ロボット3の制御を再開する。ロボット制御部143は、ロボット3の制御を停止した後の、オブジェクトBの各部の位置と、オブジェクトBの各部の移動方向、移動速度又は移動加速度の少なくともいずれかに基づいて、オブジェクトBの各部が他の部位又は外部物体に接触しないと判定できる場合に、ロボット3の制御を再開する。
表示処理部144は、操作者Uが視認できるように各種の情報を表示デバイス21に表示させる。表示処理部144は、例えば、操作者Uが視認可能な表示デバイス21にオブジェクトBを表示させる。この際、表示処理部144は、オブジェクトBにおいて操作情報に基づいて移動する部位を他の部位と異なる色で示してもよい。表示処理部144がこのように動作することで、操作者Uは、自身の動作によって、ロボット3がどのような動きになるかをイメージしながら操作をすることが可能になり、ロボット3の各部が他の部位や外部物体に接触しないように操作をしやすくなる。
表示処理部144は、オブジェクトBにおいて操作情報に基づいて移動する一以上の部位と他の部位とが所定の距離内になると予測した場合に、一以上の部位が他の部位から離れる向きを示す情報を表示デバイス21に表示させてもよい。表示処理部144は、例えば図1に示した例において、オブジェクトBの左手が顔に接触すると予測した場合に、オブジェクトBを表示デバイス21に表示させるとともに左手を顔から離す向きに矢印を表示デバイス21に表示させたり、「左手を顔から離してください」といったテキストを表示デバイス21に表示させたりする。表示処理部144は、操作者Uが表示デバイス21において視認するオブジェクトBに基づいて自身の操作をしやすくするために、ロボット3を後ろ側から視認した状態に対応するオブジェクトBを表示デバイス21に表示させてもよい。
表示処理部144は、ロボット3が有するカメラで撮影された画像に基づいて、ロボット3を中心とする三次元マップを作成し、三次元マップにおいてロボット3の周囲の障害物の状態を表示デバイス21に表示させてもよい。表示処理部144は、作成した三次元マップに基づいて、オブジェクトBの周囲にも三次元マップを作成し、オブジェクトBの周囲にロボット3の周囲と同じ環境の画像を表示させてもよい。表示処理部144がこのような画像を表示デバイス21に表示させることで、操作者Uは、オブジェクトBの動作によって、周囲の物と接触するかを判断することができる。
[ロボット制御システムSの動作シーケンス]
図3は、ロボット制御システムSの動作シーケンスを示す図である。操作者Uが身体の各部を動かすと、操作デバイス22が操作情報を作成して(S1)、ロボット制御装置1に送信する。ロボット制御装置1は、受信した操作情報に基づいてオブジェクトBを作成する(S2)。ロボット制御装置1は、作成したオブジェクトBの各部が他の部位又は外部物体に接触するか否かに基づいて、操作情報に基づいてロボット3を動作させても問題ないか否かを判定する(S3)。ロボット制御装置1は、電源が入っている間、常にステップS3の判定を行う。ロボット制御装置1は、問題ないと判定した場合には、操作情報に基づく通常の制御データをロボット3に送信し、ロボット3は制御データに基づいて動作を実行する(S4)。
一方、ロボット制御装置1は、ステップS3において、オブジェクトBにおける一以上の部位が他の部位又は外部物体に接触するので問題があると判定した場合には、ロボット3の動作を停止させるための制御データをロボット3に送信する。ロボット3は、当該制御データを受信すると、動作を停止する(S5)。
[ロボット制御装置1の動作フローチャート]
図4は、ロボット制御装置1の動作のフローチャートを示す図である。図4に示すフローチャートは、操作者Uがロボット3の操作を開始した時点から開始している。操作者Uが操作を開始すると、操作情報受信部141は、操作デバイス22から操作情報を受信し(S11)、オブジェクト作成部142は操作情報に基づいてオブジェクトBを作成する(S12)。ロボット制御部143は、オブジェクト作成部142が作成したオブジェクトBの各部位の位置を特定し(S13)、オブジェクトBが所定の状態(例えば、部位同士が接触する状態)になるか否かを判定する(S14)。
ロボット制御部143は、オブジェクトBが所定の状態にならないと判定した場合(S14においてNO)、操作情報に基づく制御データをロボット3に送信することにより、操作情報に基づいてロボット3を動作させる(S15)。一方、ロボット制御部143は、オブジェクトBが所定の状態になると判定した場合(S14においてYES)、ロボット3を停止させるための制御データをロボット3に送信することにより、ロボット3の動作を停止させる(S16)。
制御部14は、操作者Uが操作を終了するまでの間(例えば一定時間ごとに操作情報を受信している間)(S17においてNO)、S11からS16までの処理を繰り返す。制御部14は、操作情報を操作デバイス22から受信しなくなると(S17においてYES)、処理を終了する。
[変形例]
以上の説明においては、ロボット制御部143が、例えばオブジェクトBにおける一以上の部位と他の部位又は他の物体との距離が閾値以内になるとと判定した場合に、操作情報に基づくロボット3の制御を停止させる場合を例示した。オブジェクトBは、ロボット3と同等の形状であるとしても、完全に同一の形状ではないため、ロボット制御部143が誤判定する可能性がある。
そこで、オブジェクト作成部142は、操作情報が入力されるとオブジェクトBの各部の位置を出力する機械学習モデルを用いてオブジェクトBを作成することにより、ロボット制御部143による誤判定の確率を低減させてもよい。当該機械学習モデルは、多数の操作情報に基づいて作成されたオブジェクトBに基づいてロボット制御部143がロボット3を制御した結果を教師データとして機械学習して作成されたモデルである。
当該機械学習モデルは、以下の場合における操作情報とオブジェクトBの各部の位置との関係を正の教師データとして使用して学習する。
(1)ロボット制御部143が、オブジェクトBの状態に基づいてロボット3を停止させる必要があると判定したが、停止しないでロボット3を動作させたとした場合にロボット3の一以上の部位が他の部位又は他の物体に接触したと想定される場合。
(2)ロボット制御部143が、オブジェクトBの状態に基づいてロボット3を停止させる必要がないと判定し、実際にロボット3の一以上の部位が他の部位又は他の物体に接触しなかった場合。
また、当該機械学習モデルは、以下の場合における操作情報とオブジェクトBの各部の位置との関係を負の教師データとして使用して学習する。
(1)ロボット制御部143が、オブジェクトBの状態に基づいてロボット3を停止させる必要があると判定したが、停止しないでロボット3を動作させたとした場合にロボット3の一以上の部位が他の部位又は他の物体に接触しなかったと想定される場合。
(2)ロボット制御部143が、オブジェクトBの状態に基づいてロボット3を停止させる必要がないと判定したにもかかわらず、ロボット3の一以上の部位が他の部位又は他の物体に接触してしまった場合。
オブジェクト作成部142は、操作情報を取得した場合に、取得した操作情報を上記の機械学習モデルに入力し、機械学習モデルから出力されるオブジェクトBの各部の位置に基づいてオブジェクトBを作成する。機械学習モデルは、ロボット3の種別ごとに作成されており、オブジェクト作成部142は、ロボット制御部143が制御データを送信するロボット3の種別に対応する機械学習モデルを用いてオブジェクトBを作成する。オブジェクト作成部142がこのようにしてオブジェクトBを作成することにより、ロボット制御部143による誤判定の確率を下げることが可能になる。
[ロボット制御装置1による効果]
以上説明したように、オブジェクト作成部142は、操作デバイス22から受信する操作情報に基づき操作者Uの動きに対応する動作を行うオブジェクトBを作成し、ロボット制御部143は、オブジェクトBが所定の状態になると判定した場合に、操作情報に基づくロボット3の制御を停止させる。オブジェクト作成部142及びロボット制御部143がこのように動作することで、操作情報に基づくロボット3の各部の動きを高い精度で予測することができるので、ロボット3の部位が物体に衝突するか否かの判定精度を向上させることができる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。
1 ロボット制御装置
2 操作装置
3 ロボット
11 第1通信部
12 第2通信部
13 記憶部
14 制御部
21 表示デバイス
22 操作デバイス
141 操作情報受信部
142 オブジェクト作成部
143 ロボット制御部
144 表示処理部

Claims (13)

  1. ロボットを操作する操作者の動作に応じて前記ロボットを操作するための操作情報を生成する操作装置から、前記操作情報を受信する操作情報受信部と、
    前記操作情報に基づき前記操作者の動きに対応する動作を行うオブジェクトを作成するオブジェクト作成部と、
    前記操作情報に基づいて前記ロボットを制御するロボット制御部と、
    を有し、
    前記ロボット制御部は、前記操作情報受信部が受信した前記操作情報に基づいて前記オブジェクト作成部が作成した前記オブジェクトが所定の状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させる、
    ロボット制御装置。
  2. 前記オブジェクト作成部は、前記操作情報に基づいて前記オブジェクトの少なくとも一部の部位を動作させることにより前記オブジェクトの状態を変化させる、
    請求項1に記載のロボット制御装置。
  3. 前記ロボット制御部は、前記操作情報に基づいて前記オブジェクトが動作できない状態、又は前記オブジェクトが転倒する状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させる、
    請求項1又は2に記載のロボット制御装置。
  4. 前記ロボット制御部は、前記操作情報に基づいて前記オブジェクトの状態を変化させた場合に前記オブジェクトの一以上の部位が前記オブジェクトの他の部位又は外部物体と接触する状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させる、
    請求項1から3のいずれか一項に記載のロボット制御装置。
  5. 前記ロボット制御部は、前記一以上の部位と前記他の部位又は前記外部物体との距離に基づいて前記接触する状態になるか否かを判定する、
    請求項4に記載のロボット制御装置。
  6. 前記ロボット制御部は、前記操作情報に対応する前記一以上の部位の移動方向と、前記一以上の部位と前記他の部位又は前記外部物体との位置関係とに基づいて、前記接触する状態になるか否かを判定する、
    請求項4又は5に記載のロボット制御装置。
  7. 前記ロボット制御部は、前記操作情報に対応する前記一以上の部位の移動速度又は移動加速度の少なくともいずれかに基づいて特定した所定の時間後における前記一以上の部位と前記他の部位若しくは前記外部物体との位置関係に基づいて、前記接触する状態になるか否かを判定する、
    請求項4から6のいずれか一項に記載のロボット制御装置。
  8. 前記ロボット制御部は、前記一以上の部位が接触する前記他の部位若しくは前記外部物体の位置、又は前記一以上の部位が前記他の部位若しくは前記外部物体に接触する時点での前記一以上の部位の加速度に基づいて、前記接触する状態になるか否かを判定する、
    請求項4から7のいずれか一項に記載のロボット制御装置。
  9. 前記操作者が視認可能な表示部に前記オブジェクトを表示させる表示処理部をさらに有し、
    前記表示処理部は、前記オブジェクトにおいて前記操作情報に基づいて移動する部位を他の部位と異なる色で示す、
    請求項1から8のいずれか一項に記載のロボット制御装置。
  10. 前記操作者が視認可能な表示部に前記オブジェクトを表示させる表示処理部をさらに有し、
    前記表示処理部は、前記オブジェクトにおいて前記操作情報に基づいて移動する前記オブジェクトの一以上の部位と他の部位とが所定の距離内になると予測した場合に、前記一以上の部位が前記他の部位から離れる向きを示す情報を前記表示部に表示させる、
    請求項1から8のいずれか一項に記載のロボット制御装置。
  11. 前記ロボット制御部は、前記操作情報が示す操作内容の変化に基づいて、前記操作情報に基づく前記ロボットの制御を停止するか再開するかを切り替える、
    請求項1から10のいずれか一項に記載のロボット制御装置。
  12. ロボットを操作する操作者の動作に応じて前記ロボットを操作するための操作情報を作成する操作装置から、前記操作情報を受信するステップと、
    前記操作情報に基づき前記操作者の動きに対応する動作を行うオブジェクトを作成するステップと、
    受信した前記操作情報に基づいて前記オブジェクトの一以上の部位が所定の状態になるか否かを判定するステップと、
    前記オブジェクトの一以上の部位が所定の状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させるステップと、
    を有するロボット制御方法。
  13. コンピュータに、
    ロボットを操作する操作者の動作に応じて前記ロボットを操作するための操作情報を作成する操作装置から、前記操作情報を受信するステップと、
    前記操作情報に基づき前記操作者の動きに対応する動作を行うオブジェクトを作成するステップと、
    受信した前記操作情報に基づいて前記オブジェクトの一以上の部位が所定の状態になるか否かを判定するステップと、
    前記オブジェクトの一以上の部位が所定の状態になると判定した場合に、前記操作情報に基づく前記ロボットの制御を停止させるステップと、
    を実行させるためのプログラム。
JP2020106347A 2020-06-19 2020-06-19 ロボット制御装置、ロボット制御方法及びプログラム Pending JP2022001388A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020106347A JP2022001388A (ja) 2020-06-19 2020-06-19 ロボット制御装置、ロボット制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020106347A JP2022001388A (ja) 2020-06-19 2020-06-19 ロボット制御装置、ロボット制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2022001388A true JP2022001388A (ja) 2022-01-06

Family

ID=79244177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020106347A Pending JP2022001388A (ja) 2020-06-19 2020-06-19 ロボット制御装置、ロボット制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2022001388A (ja)

Similar Documents

Publication Publication Date Title
EP3425481B1 (en) Control device
US20210060422A1 (en) Operating device and control system
JP6934618B2 (ja) ジェスチャ入力システム及びジェスチャ入力方法
KR101982420B1 (ko) 충돌 검출
US20160342208A1 (en) Haptic effects based on predicted contact
US11331805B2 (en) Motion restriction system and method
EP3489804A1 (en) Haptic accessory apparatus
CN106249883B (zh) 一种数据处理方法及电子设备
JP6902369B2 (ja) 提示装置、提示方法およびプログラム、ならびに作業システム
KR20190059726A (ko) 가상현실 환경에서의 사용자와 객체 간 상호 작용 처리 방법
US11029753B2 (en) Human computer interaction system and human computer interaction method
CN112930162B (zh) 康复支援装置、其方法及程序
JP6931585B2 (ja) 作業システム、作業システムの制御方法及びプログラム
CN115777091A (zh) 检测装置及检测方法
JP2022001388A (ja) ロボット制御装置、ロボット制御方法及びプログラム
JP7079435B2 (ja) ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2003067107A (ja) 触覚提示装置
WO2020154971A1 (en) Electronic device and control method therefor
JP2020021365A (ja) 表示システム、表示方法およびプログラム
WO2024042816A1 (en) Information processing apparatus, information processing method, and program
KR20210051340A (ko) 코딩 교육용 로봇 제어 시스템
KR20200091256A (ko) 가상 현실 제어 시스템
WO2024090298A1 (ja) 情報処理装置、情報処理方法、及び、入力デバイス
KR102354559B1 (ko) 콘텐츠 제어용 다종 인터페이스 장치
WO2024090303A1 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220325

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240509