JP5464514B2 - ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット - Google Patents

ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット Download PDF

Info

Publication number
JP5464514B2
JP5464514B2 JP2009192249A JP2009192249A JP5464514B2 JP 5464514 B2 JP5464514 B2 JP 5464514B2 JP 2009192249 A JP2009192249 A JP 2009192249A JP 2009192249 A JP2009192249 A JP 2009192249A JP 5464514 B2 JP5464514 B2 JP 5464514B2
Authority
JP
Japan
Prior art keywords
user
main body
area
safety degree
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009192249A
Other languages
English (en)
Other versions
JP2011042011A (ja
Inventor
寛之 増田
友介 福里
亨 山口
英理 下川原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan University
Original Assignee
Tokyo Metropolitan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan University filed Critical Tokyo Metropolitan University
Priority to JP2009192249A priority Critical patent/JP5464514B2/ja
Publication of JP2011042011A publication Critical patent/JP2011042011A/ja
Application granted granted Critical
Publication of JP5464514B2 publication Critical patent/JP5464514B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボットに関する。
近年、知能ロボットの必要性が高まっており研究も盛んに行われている。知能ロボットにおいては、公共の場などにおいて、人間に物を手渡したり握手をしたりするなど、人間との接触を行うことが期待されている。このような人間との接触において、ロボットは自然に動作し、かつ人間に危害を加えないよう安全に動作しなければならない。
従来、人間と接触する可能性のある環境で作業するロボットの行動を制御するロボット制御装置は、人間とロボットとの相対関係に基づく衝突制御を行っている。すなわち、人間と接触する可能性がある場合にはロボットの動作を停止し、或いは人間との衝突を回避するような行動をさせている(例えば、特許文献1参照。)。
特開2008−302496号公報
しかしながら、上記従来のロボット制御装置は人間との接触を前提としていないため、人間との接触を前提とするロボットに適用した場合、衝突の可能性を常に予測し続けなくてはならなくなって計算効率が悪くなる。また、衝突予定位置に誤差が生じた場合、ロボットの衝突対応動作が遅れて人間に危害を加える可能性がある。
本発明は上記事情に鑑みて成されたものであり、人間との接触を前提とするロボットに対して、安全かつ柔軟に人間とロボットとの接触を実現することができるロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボットを提供することを目的とする。
本発明は、上記課題を解決するため、以下の手段を採用する。
本発明に係るロボット制御装置は、目標物に接近する動作を行う動作本体を有してユーザーと接触するロボットの動きを制御するロボット制御装置であって、前記ユーザーの撮像情報に基づき、前記ユーザーの周囲に複数の領域を生成する安全度生成部と、複数の行動パターン別に前記目標物又は前記ユーザーに対する前記動作本体の位置、姿勢及び移動軌跡を算出するとともに、前記複数の領域における前記動作本体の各動作速度を規定する行動指示部と、該行動指示部の指令に基づき、前記動作本体の動作を制御する動作制御部と、を備えていることを特徴とする。
また、本発明に係るロボット制御方法は、目標物に接近する動作本体を有してユーザーと接触するロボットの動きを制御するロボット制御方法であって、前記ユーザーの撮像情報に基づき、前記ユーザーの周囲に複数の領域を生成する安全度生成ステップと、複数の行動パターン別に前記目標物又は前記ユーザーに対する前記動作本体の位置、姿勢及び移動軌跡を算出するとともに、前記複数の領域における前記動作本体の各動作速度を規定する行動指示ステップと、該行動指示ステップにおける指令に基づき、前記動作本体の動作を制御する動作制御ステップと、を備えていることを特徴とする。
また、本発明に係るロボット制御プログラムは、目標物に接近する動作本体を有してユーザーと接触するロボットの動きを制御するロボット制御プログラムであって、コンピュータを、前記ユーザーの撮像情報に基づき、前記ユーザーの周囲に複数の領域を生成する安全度生成部と、複数の行動パターン別に前記目標物又は前記ユーザーに対する前記動作本体の位置、姿勢及び移動軌跡を算出するとともに、前記複数の領域における前記動作本体の各動作速度を規定する行動指示部と、該行動指示部の指令に基づき、前記動作本体の動作を制御する動作制御部と、として機能させることを特徴とする。
また、本発明に係るロボットは、目標物に接近する動作本体と、前記ユーザーの撮像情報から頭領域及び手先領域を検出するとともに、前記領域の各々の特徴点を三次元座標算出する画像認識部と、特定された前記特徴点を追跡してユーザーのジェスチャを判別するジェスチャ判別部と、を有するジェスチャ動作認識部と、前記目標物の情報を検出する目標物捕捉部と、本発明に係るロボット制御装置と、を備えていることを特徴とする。
本発明によれば、人間との接触を前提とするロボットに対して、安全かつ柔軟に人間とロボットとの接触を実現することができる。
本発明の第1の実施形態に係るロボットを示す概要図である。 本発明の第1の実施形態に係るロボットを示す機能ブロック図である。 本発明の第1の実施形態に係るロボット制御装置が生成する安全度別の領域を示す説明図である。 本発明の第1及び第2の実施形態に係るロボット制御方法を示すフロー図である。 本発明の第1の実施形態に係るロボット制御方法によるロボットアームの動作を示す説明図である。 本発明の第2の実施形態に係る電動車椅子を示す機能ブロック図である。 本発明の第2の実施形態に係る電動車椅子制御方法による態の動作を示す説明図である
(第1の実施形態)
本発明に係る第1の実施形態について、図1から図5を参照して説明する。
本実施形態に係るロボット10は、図1及び図2に示すように、ロボットアーム(動作本体)11と、ジェスチャ動作認識部12と、目標物捕捉部13と、ロボット制御装置15と、を備えている。そして、ユーザーUの指示により、例えば、食器(目標物)OをユーザーUに手渡す操作を行う。
ロボットアーム11は、先端に配されて食器Oを把持する把持部16と、図示しないモータが配された複数の関節部17と、を備えている。
ジェスチャ動作認識部12は、例えば、特願2008−055564号に示すジェスチャ動作認識システムと同様の構成とされ、ユーザーUを撮像する第一カメラ18及び第二カメラ20と、ユーザーUの撮像情報から頭部領域及び手先領域を検出するとともに、各領域の各々の特徴点を三次元座標算出する画像認識部21と、特定された特徴点を追跡してユーザーのジェスチャを判別するジェスチャ判別部22と、を備えている。
目標物捕捉部13は、食器Oの情報を検出するものとされ、ステレオ画像を撮像可能な環境認識用カメラ23と、食器Oの種類、位置、サイズ、重さ、色や、ロボットアーム11による把持方法情報等を管理する空間知サーバー25と、食器Oに貼り付けられたRFID(Radio Frequency IDentification)タグ情報を読み込むRFIDリーダー/ライター26と、を備えている。
空間知サーバー25には、あらかじめ食器Oの情報(種類、サイズ、位置、色、重さ、推奨の持ち方など)が登録されている。そして、空間知サーバー25は、RFIDリーダー/ライター26によって取得した食器Oに配された不図示のRFIDタグのID情報と登録された情報とを関連づけて、現在、例えば、机の上にどのような食器Oが置かれているかを管理する。ここで、環境認識用カメラ23にて撮像した食器Oのサイズや色から、机上の食器Oの位置情報も識別する。
ロボット制御装置15は、ユーザーUと接触するロボット10の動きを制御するロボット制御プログラムMP1及び必要な処理を行うためのデータ等が記憶された不図示のROM(リードオンリーメモリ)、必要なデータを一時的に保存するための不図示のRAM(ランダムアクセスメモリー)、ROM等に記憶されたプログラムに応じた処理を行う不図示のCPU(中央演算処理装置)、を備えている。
ロボット制御プログラムMP1は、機能部(プログラムモジュール)として、ユーザーUの撮像情報に基づき、ユーザーUの周囲に複数の領域を生成する安全度生成部27と、ユーザーUの指示に基づき、複数の行動パターンをロボットアーム11の一連の作業順に並べ替える作業生成部28と、複数の行動パターン別に食器O又はユーザーUに対するロボットアーム11の位置、姿勢及び移動軌跡を算出するとともに、複数の領域におけるロボットアーム11の各動作速度を規定する行動指示部30と、行動指示部30の指令に基づき、ロボットアーム11の動作を制御する動作制御部31と、を備えている。
安全度生成部27は、図3に示すように、ユーザーUの頭部から胴部及び脚部を含む範囲を第一領域AR1とする第一安全度と、ユーザーUの手先から腕部周りを含む範囲を第二領域AR2とする第二安全度と、第一領域AR1及び第二領域AR2以外の範囲を第三領域AR3とする第三安全度と、を生成する。
作業生成部28は、作業手順生成モジュール32と、中断停止変更モジュール33と、を備えている。作業手順生成モジュール32は、目標物捕捉部13からの情報に基づき、ロボットアーム11の一連の作業手順の並べ替えを行う。中断停止変更モジュール33は、ロボット10が作業を始めた後にユーザーUが動作を止めたり、作業の順序を任意に変更したりするときに、ユーザーUの指示(中断・変更・停止)を認識し機能するものとなっている。
行動指示部30は、ユーザーUの指示が食器OをユーザーUに手渡すという場合、行動手順作成モジュール34と、ロボットアーム11の行動パターン別に、目標物捕捉モジュール35と、把持姿勢作成モジュール36と、接近モジュール37と、把持モジュール38と、移動モジュール40と、手渡しモジュール41と、復帰モジュール42と、を備えている。なお、ユーザーUの指示が別の内容の場合には、別の行動パターン別に好適なモジュールを用意する。
行動手順作成モジュール34は、ロボットアーム11の一連の行動手順の並べ替えを行う。目標物捕捉モジュール35は、食器Oを捕捉するためのロボットアーム11の位置や姿勢、移動軌跡を算出する。把持姿勢作成モジュール36では、食器Oを把持する姿勢を作る。接近モジュール37では、把持部16を食器Oに接近させ、把持モジュール38では、把持部16で食器Oを把持させるロボットアーム11の位置や姿勢、移動軌跡を算出する。そして、移動モジュール40では、食器OをユーザーUに手渡すためにユーザーUの方向へ動作させ、手渡しモジュール41では、食器OをユーザーUに手渡すためのロボットアーム11の位置や姿勢、移動軌跡を算出する。復帰モジュール42では、食器OをユーザーUに手渡した後、もとの位置に動作させるためのロボットアーム11の位置や姿勢、移動軌跡を算出する。
この際、各モジュールにおいて、第一領域AR1にロボットアーム11の位置及び移動軌跡が含まれる場合には、その間、第一安全度の動作速度でロボットアーム11を動作させ、第二領域AR2にロボットアーム11の位置及び移動軌跡が含まれる場合には、その間、第二安全度の動作速度でロボットアーム11を動作させ、第三領域にロボットアーム11の位置及び移動軌跡が含まれる場合には、その間、第三安全度の動作速度でロボットアーム11を動作させる。
ここでは、第一安全度の場合には、通常の動作速度を0、すなわち、ロボットアーム11の動作を停止させる。第二安全度の場合には、通常の動作速度の1/2とし、第三安全度の場合には、特に制限しないものとする。
動作制御部31は、行動指示部30からの指令に応じて、例えば、時系列毎の関節部17の関節角度をPID制御によって求めて制御する。
次に、本実施形態に係るロボット10及びロボット制御装置15の作用について、ロボット制御方法及びロボット制御プログラムMP1の処理の流れとともに説明する。
ロボット制御方法及びロボット制御プログラムMP1の処理は、ジェスチャ動作認識部12と、目標物捕捉部13と、ロボット制御装置15と、の間で行われる。
ロボット制御方法は、図4に示すように、ユーザーUの撮像情報を取得する撮像ステップ(S11)と、ユーザーUの撮像情報に基づき、ユーザーUの周囲に領域AR1,AR2,AR3を生成する安全度生成ステップ(S12)と、撮像ステップ(S11)にて解析したユーザーUの指示に基づき、実行すべき作業順に並べ替える作業生成ステップ(S13)と、複数の行動パターンをロボットアーム11の一連の行動順に並べ替え、各行動パターン別に食器O又はユーザーUに対するロボットアーム11の位置、姿勢及び移動軌跡を算出するとともに、複数の領域AR1,AR2,AR3におけるロボットアーム11の各動作速度を規定する行動指示ステップ(S14)と、行動指示ステップ(S14)における指令に基づき、ロボットアーム11の動作を制御する動作制御ステップ(S15)と、を備えている。
撮像ステップ(S11)では、先述した特願2008−055564号に示す画像認識方法及びジェスチャ動作認識方法を行い、ジェスチャ動作認識部12にてユーザーUの顔の位置と指先の位置とを計測する。そして、ユーザーUのジェスチャと音声とを認識することによって、ユーザーUの作業指示を認識する。
安全度生成ステップ(S12)では、撮像ステップ(S11)で得られた情報を用いて、安全度生成部27にて安全度を評価し安全度に応じた範囲を設定する。例えば、図3に示すように、地面からユーザーUの頭部の位置を基準に直方体(標準的な体型の範囲にさらに余裕をもって30cm×60cm×180cm) を設定し、第一安全度の第一領域AR1とする。また、ユーザーUの手先位置を基準として胴部に沿った四角柱を設定し、第二安全度の第二領域AR2とする。そして、その他の第三領域AR3を第三安全度とする。
作業生成ステップ(S13)は、撮像ステップ(S11)で認識したユーザーUの指示に従って、食器Oの手渡し作業手順を生成する作業手順作成ステップ(S131)と、ロボット10が作業を始めた後にユーザーUが動作を止めたり、作業の順序を任意に変更したりするときに、ユーザーUの指示(中断・変更・停止)を認識して作業手順を作成しなおす中断停止変更ステップ(S132)と、を備えている。
作業手順作成ステップ(S131)では、食器Oを手渡すという指示をされた場合、例えば、ロボット10から近い物から順番に手渡すというルールに基づく片付け手順の並べ替えを行う。なお、このルールは、これに限らず、サイズの大きい物から手渡すものであったり、背の高いものから手渡すものであったりしてもよい。これらは、ユーザーUからの指示やロボット10の状態によって選択してもよい。この際、目標物捕捉部13からの情報により、食器Oの机上の位置や種類、持ち方などの情報を取得する。こうして、手順を決定して作業すべき対象物を確定する。
行動指示ステップ(S14)では、行動指示部30の行動手順作成モジュール34にてその他の各モジュールの実施の順番を、目標物捕捉モジュール35、把持姿勢作成モジュール36、接近モジュール37、把持モジュール38、移動モジュール40、手渡しモジュール41、復帰モジュール42の順に並べる。そして、各モジュールの目的に応じてロボットアーム11の位置や姿勢、移動軌跡を算出する。この際、図5に示すように、動作制御ステップ(S15)に移行して、安全度を加味した動作速度でロボットアーム11を駆動する。
すなわち、食器OがユーザーUから適度に離れている場合、目標物捕捉モジュール35、把持姿勢作成モジュール36、接近モジュール37、把持モジュール38の各モジュールでは、ロボットアーム11は第三領域AR3内を移動する。この際、ロボットアーム11の動作速度が最大動作速度となるように制御する。移動モジュール40及び手渡しモジュール41では、ロボットアーム11は第二領域AR2内を移動する。このため、ロボットアーム11の動作速度が最大動作速度の50%となるように制御する。復帰モジュール42では、再び最大動作速度となるように制御する。食器OとユーザーUとの距離によっては、接近モジュール37、把持モジュール38の各モジュールにおいても、ロボットアーム11が第二領域AR2内を移動する。このときには、ロボットアーム11の動作速度が最大動作速度の50%となるように制御する。こうして、各モジュールにおける目標値に達したところで、次のモジュールへ遷移する。
この際、ジェスチャ動作認識部12と目標物捕捉部13との間では共通の座標系に基づき位置情報をやりとりして整合をとっている。ロボット10自身の位置は、例えば、レーザーレンジセンサ等の距離センサを用いてSLAM(Simulation Localization and mapping)等の手法を用いて同定する。
そして、ロボットアーム11の移動軌跡又は位置が第一安全度の第一領域AR1に設定された場合、そのモジュールは動作を中断する。この場合、目標物捕捉部13が組み込まれた機器を介して、動作を中断した理由を提示するとともに、ロボット10から離れるようにユーザーUに注意を促すようにしてもよい。なお、制御対象は動作速度に限らず、ロボットアーム11の種類によっては、最大トルクや最大出力であってもよい。
このロボット10、ロボット制御装置15、及びロボット制御プログラムMP1によれば、安全度生成部27と、行動指示部30と、動作制御部31と、を備えているので、ユーザーUの周囲に設定した領域に応じた動作速度を規定することができる。したがって、ユーザーUとロボットアーム11とが接触する際、安全かつ柔軟に動作させることができる
この際、安全度については、ユーザーUの頭部から胴部を通って脚部を含む範囲を第一領域AR1とする第一安全度と、ユーザーUの手先から腕部周りを含む範囲を第二領域AR2とする第二安全度と、それ以外の範囲を第三領域AR3とする第三安全度を設定でき、安全度に応じて動作速度を変化させることができる。したがって、ユーザーUに対して、ロボット10とのインタラクションを前提とする領域と、前提とはしない領域とに分けて動作速度を制御することができ、インタラクションを行う第二領域AR2では、ロボットアーム11を停止させることなく、安全な速度で動作させることができる。
また、ユーザーUの指示に基づき、作業生成部28にてロボットアーム11の一連の作業手順の並べ替えを行うとともに、行動手順作成モジュール34にて行動指示部30における各行動モジュールの実施の順番を生成するので、ユーザーUからの複数の操作指示に対応することができる。
(第2の実施形態)
次に、第2の実施形態について図6及び図7を参照しながら説明する。
なお、上述した第1の実施形態と同様の構成要素には同一符号を付すとともに説明を省略する。
本実施形態に係る電動車椅子(ロボット)50は、例えば、特願2008−306914号に示す構成とされ、ユーザーUに接近して着座しているユーザーUの起立支援を行う。本発明に関連する構成としては、電動車椅子50は、筐体(動作本体)51と、ジェスチャ動作認識部でもあり目標物捕捉部でもあるカメラ52と、電動車椅子制御装置(ロボット制御装置)53と、を備えている。
筐体51には、ユーザーUが把持するグリップ55と、筐体51を水平動作させる移動部56と、が配されている。
電動車椅子制御装置53は、ユーザーUと接触する電動車椅子50の動きを制御する電動車椅子制御プログラム(ロボット制御プログラム)MP2及び必要な処理を行うためのデータ等が記憶された不図示のROM、必要なデータを一時的に保存するための不図示のRAM、ROM等に記憶されたプログラムに応じた処理を行う不図示のCPU、を備えている。
電動車椅子制御プログラムMP2は、機能部(プログラムモジュール)として、第1の実施形態に係るロボット制御プログラムMP1と同様に、安全度生成部27、作業生成部57、行動指示部58、及び動作制御部60を備えている。また、特願2008−306914号に示す、不図示のジェスチャ認識部、姿勢評価部、把持状態算出部、状況判別部を備えている。
作業生成部57は、第1の実施形態と同様に、作業手順生成モジュール61と、中断停止変更モジュール62と、を備えている。作業手順生成モジュール61は、電動車椅子50のユーザーUへの起立支援及び歩行支援並びに物品運搬支援などその他の支援に係る一連の作業手順の並べ替えを行う。中断停止変更モジュール62は、電動車椅子50が作業を始めた後にユーザーUが動作を止めたり、作業の順序を任意に変更したりするときに、ユーザーUの指示(中断・変更・停止)を認識し機能するものとなっている。
行動指示部58は、特願2008−306914号に示す移動制御部の機能を含み、行動手順生成モジュール63と、指差し捕捉モジュール64と、移動モジュール65と、転回モジュール66と、ユーザー捕捉モジュール67と、接近モジュール68と、起立支援モジュール70と、歩行支援モジュール71と、を備えている。
行動手順生成モジュール63は、ユーザーUへの接近、並びに起立支援及び歩行支援に係る一連の作業手順を作成する。指差し捕捉モジュール64は、ユーザーUの指差しを確認するための筐体51の位置や姿勢、移動軌跡を算出する。移動モジュール65は、ユーザーUの指差し地点まで筐体51を動作させるための位置や姿勢、移動軌跡を算出する。転回モジュール66は、グリップ55側がユーザーUに対向するように筐体51の向きを変えるための位置や姿勢、移動軌跡を算出する。ユーザー捕捉モジュール67は、ユーザーUの姿を確認するための位置や姿勢、移動軌跡を算出する。接近モジュール68は、その姿勢を維持しながらユーザーUに接近するよう位置や姿勢、移動軌跡を算出する。起立支援モジュール70は、ユーザーUの起立を支援するための位置や姿勢、移動軌跡を算出する。歩行支援モジュール71は、起立した後、歩行を支援するための位置や姿勢、移動軌跡を算出する。
動作制御部60は、行動指示部58からの指令に応じて筐体51の動きを制御する。
次に、本実施形態に係る電動車椅子50及び電動車椅子制御装置53の作用について、電動車椅子制御方法及び電動車椅子制御プログラムMP2の処理の流れを中心に説明する。
電動車椅子制御方法及び電動車椅子制御プログラムMP2の処理は、電動車椅子制御装置53にて行われる。
本実施形態に係る電動車椅子制御方法は、第1の実施形態と同様に、カメラ52によるユーザーUの撮像情報を取得する撮像ステップ(S21)と、ユーザーUの撮像情報に基づき、ユーザーUの周囲に複数の領域AR1,AR2,AR3を生成する安全度生成ステップ(S22)と、撮像ステップ(S21)にて解析したユーザーUの指示に基づき、複数の行動パターンを筐体51の一連の行動順に並べ替える作業生成ステップ(S23)と、複数の行動パターン別にユーザーUに対する筐体51の位置、姿勢及び移動軌跡を算出するとともに、複数の領域AR1,AR2,AR3における筐体51の各動作速度を規定する行動指示ステップ(S24)と、行動指示ステップ(S24)における指令に基づき、動作制御部60を介して筐体51の動作を制御する動作制御ステップ(S25)と、を備えている。
撮像ステップ(S21)では、カメラ52によるユーザーUの顔や指先の撮像情報に基づき、先述した特願2008−306914号に示す起立及び移動動作支援方法における、データ取得ステップ、データ解析ステップ、移動量保存ステップ、及び評価ステップを行う。
安全度生成ステップ(S22)では、第1の実施形態と同様に、安全度生成部27にて安全度を評価し安全度に応じた範囲を設定する。作業生成ステップ(S23)では、第1の実施形態と同様に、ユーザーUの指示に従って、ユーザーUへの起立支援及び歩行支援並びに物品運搬支援などその他の支援に係わる一連の作業手順の並べ替えを行う作業手順作成ステップ(S231)と、筐体51が移動を始めた後にユーザーUが移動を止めたり、移動の順序を任意に変更したりするときに、ユーザーUの指示(中断・変更・停止)を認識して手順を作成しなおす中断停止変更ステップ(S232)と、を備えている。
行動指示ステップ(S24)では、特願2008−306914号に示す移動指示ステップや移動ステップを実施する際、第1の実施形態と同様に、各モジュールの目的に応じて電動車椅子50の位置や姿勢、移動軌跡を算出する。この際、図5に示すように、動作制御ステップ(S25)に移行して、安全度を加味した動作速度で筐体51を駆動する。
ここでは、行動指示部58における行動手順生成モジュール63にて、その他の各モジュールの実施の順番を、指差し捕捉モジュール64、移動モジュール65、転回モジュール66、ユーザー捕捉モジュール67、接近モジュール68、起立支援モジュール70、歩行支援モジュール71、の順に並べる。
ここで、筐体51がユーザーUから適度に離れている場合、指差し捕捉モジュール64、移動モジュール65、転回モジュール66の各モジュールでは、筐体51は第三領域AR3内を移動する。この際、筐体51の動作速度が最大動作速度となるように制御する。ユーザー捕捉モジュール67、接近モジュール68、起立支援モジュール70、及び歩行支援モジュール71では、筐体51は第二領域AR2内を移動する。このため、筐体51の動作速度が最大動作速度の50%となるように制御する。筐体51とユーザーUとの距離によっては、移動モジュール65、転回モジュール66の各モジュールにおいても、筐体51が第二領域AR2内を移動する場合がある。このときには、筐体51の動作速度が最大動作速度の50%となるように制御する。こうして、各モジュールにおける目標値に達したところで、次のモジュールへ遷移する。
ここで、筐体51の移動軌跡又は位置が第一安全度の第一領域AR1に設定された場合、そのモジュールは動作を中断する。なお、制御対象は動作速度に限らず、移動部56の最大トルクや最大出力であってもよい。
この電動車椅子50、電動車椅子制御装置53、電動車椅子制御方法及び電動車椅子制御プログラムMP2によれば、特願2008−306914号に記載の効果のみならず、第1の実施形態と同様の効果を奏することができる。
なお、本発明の技術範囲は上記実施の形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
例えば、ユーザーUの手先から腕部周りを含む範囲を第二領域AR2としているが、これに限らず、ロボット10又は電動車椅子50とユーザーUとのインタラクションに応じて好適な位置に第二領域を設定してもよい。また、ユーザーUの体格を計測可能なセンサを用いることによって、ユーザーUに合わせた安全度の範囲を自動的に調整してもよい。さらに、手先位置を基準にガウス分布に基づく範囲を設定し、ユーザーUに接近するほど第二安全度の第二領域の範囲を広く取るようにしてもよい。これにより、ロボットアーム11の把持部16や、電動車椅子50のグリップ55等がユーザーUの目先をかすめるような恐怖感を感じる動作を制限することができる。
また、第二安全度とする第二領域AR2の範囲を多分割し、ユーザーUから近い順にさらに細かく安全度を規定し、例えば、第一領域AR1に最も近い領域では、出力を70%削減し、これに隣接する領域では50%の削減にするといった、ユーザーUとの距離に応じた出力制御を実施してもよい。
10 ロボット
11 ロボットアーム(動作本体)
12 ジェスチャ動作認識部
13 目標物捕捉部
15 ロボット制御装置
21 画像認識部
22 ジェスチャ判別部
27 安全度生成部
28,57 作業生成部
30,58 行動指示部
31,60 動作制御部
50 電動車椅子(ロボット)
51 筐体(動作本体)
52 カメラ(ジェスチャ動作認識部、目標物捕捉部)
53 電動車椅子制御装置(ロボット制御装置)
AR1 第一領域
AR2 第二領域
AR3 第三領域
O 食器(目標物)
U ユーザー

Claims (13)

  1. 目標物に接近する動作を行う動作本体を有してユーザーと接触するロボットの動きを制御するロボット制御装置であって、
    前記ユーザーの撮像情報に基づき、安全度を評価し、該安全度に応じて、前記ユーザーの周囲に前記ユーザーと前記動作本体とのインタラクションを前提とする領域を含む複数の領域を生成する安全度生成部と、
    複数の行動パターン別に前記目標物又は前記ユーザーに対する前記動作本体の位置、姿勢及び移動軌跡を算出するとともに、前記複数の領域における前記動作本体の各動作速度を規定する行動指示部と、
    該行動指示部の指令に基づき、前記動作本体の動作を制御する動作制御部と、
    を備えていることを特徴とするロボット制御装置。
  2. 前記安全度生成部が、
    前記の複数の領域を、
    前記ユーザーの頭部から胴部及び脚部を含む範囲である第一領域と、
    前記ユーザーの手先から腕部周りを含む範囲である第二領域と、
    前記第一領域及び前記第二領域以外の範囲である第三領域として生成し、
    上記第一領域の安全度を第一安全度、上記第二領域の安全度を第二安全度、上記第三領域の安全度を第三安全度とし、
    前記行動指示部は、前記各安全度と、前記領域が前記ユーザーと前記動作本体とのインタラクションを前提とする領域であるか否かとに応じて前記動作速度を規定する
    ことを特徴とする請求項1に記載のロボット制御装置。
  3. 前記行動指示部が、前記第一領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第一安全度の動作速度で前記動作本体を動作させ、
    前記第二領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第二安全度の動作速度で前記動作本体を動作させ、
    前記第三領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第三安全度の動作速度で前記動作本体を動作させることを特徴とする請求項2に記載のロボット制御装置。
  4. 前記複数の行動パターンを前記動作本体の一連の作業順に並べ替える作業生成部を備え、該作業生成部が作業の並べ替えを行った場合に行動指示部による動作速度の規定を行うようになされていることを特徴とする請求項1から3の何れか一つに記載のロボット制御装置。
  5. 目標物に接近する動作本体を有してユーザーと接触するロボットの動きを制御するロボット制御方法であって、
    前記ユーザーの撮像情報に基づき、安全度を評価し、該安全度に応じて、前記ユーザーの周囲に前記ユーザーと前記動作本体とのインタラクションを前提とする領域を含む複数の領域を生成する安全度生成ステップと、
    複数の行動パターン別に前記目標物又は前記ユーザーに対する前記動作本体の位置、姿勢及び移動軌跡を算出するとともに、前記複数の領域における前記動作本体の各動作速度を規定する行動指示ステップと、
    該行動指示ステップにおける指令に基づき、前記動作本体の動作を制御する動作制御ステップと、
    を備えていることを特徴とするロボット制御方法。
  6. 前記安全度生成ステップが、
    前記の複数の領域を、
    前記ユーザーの頭部から胴部及び脚部を含む範囲である第一領域と、
    前記ユーザーの手先から腕部周りを含む範囲である第二領域と、
    前記第一領域及び前記第二領域以外の範囲である第三領域して生成し
    上記第一領域の安全度を第一安全度、上記第二領域の安全度を第二安全度、上記第三領域の安全度を第三安全度とし、
    前記行動指示ステップは、前記各安全度と、前記領域が前記ユーザーと前記動作本体とのインタラクションを前提とする領域であるか否かとに応じて前記動作速度を規定する
    ことを特徴とする請求項5に記載のロボット制御方法。
  7. 前記行動指示ステップが、前記第一領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第一安全度の動作速度で前記動作本体を動作させ、
    前記第二領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第二安全度の動作速度で前記動作本体を動作させ、
    前記第三領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第三安全度の動作速度で前記動作本体を動作させることを特徴とする請求項6に記載のロボット制御方法。
  8. 前記複数の行動パターンを前記動作本体の一連の作業順に並べ替える作業生成ステップを備え、該作業生成ステップが作業の並べ替えを行った場合に行動指示ステップによる動作速度の規定を行うようになされている
    ことを特徴とする請求項5から7の何れか一つに記載のロボット制御方法
  9. 目標物に接近する動作本体を有してユーザーと接触するロボットの動きを制御するロボット制御プログラムであって、
    コンピュータを、
    前記ユーザーの撮像情報に基づき、安全度を評価し、該安全度に応じて、前記ユーザーの周囲に前記ユーザーと前記動作本体とのインタラクションを前提とする領域を含む複数の領域を生成する安全度生成部と、
    複数の行動パターン別に前記目標物又は前記ユーザーに対する前記動作本体の位置、姿勢及び移動軌跡を算出するとともに、前記複数の領域における前記動作本体の各動作速度を規定する行動指示部と、
    該行動指示部の指令に基づき、前記動作本体の動作を制御する動作制御部と、
    として機能させることを特徴とするロボット制御プログラム。
  10. 前記安全度生成部が、
    前記の複数の領域を、
    前記ユーザーの頭部から胴部及び脚部を含む範囲である第一領域と、
    前記ユーザーの手先から腕部周りを含む範囲である第二領域と、
    前記第一領域及び前記第二領域以外の範囲である第三領域として生成し
    上記第一領域の安全度を第一安全度、上記第二領域の安全度を第二安全度、上記第三領域の安全度を第三安全度とし、
    前記行動指示部は、前記各安全度と、前記領域が前記ユーザーと前記動作本体とのインタラクションを前提とする領域であるか否かとに応じて前記動作速度を規定する
    ことを特徴とする請求項9に記載のロボット制御プログラム。
  11. 前記行動指示部が、前記第一領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第一安全度の動作速度で前記動作本体を動作させ、
    前記第二領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第二安全度の動作速度で前記動作本体を動作させ、
    前記第三領域に前記動作本体の位置及び移動軌跡が含まれる場合には、その間、前記第三安全度の動作速度で前記動作本体を動作させることを特徴とする請求項10に記載のロボット制御プログラム。
  12. 前記複数の行動パターンを前記動作本体の一連の作業順に並べ替える作業生成部を備え、該作業生成部が作業の並べ替えを行った場合に行動指示部による動作速度の規定を行うようになされていることを特徴とする請求項9から11の何れか一つに記載のロボット制御プログラム。
  13. 目標物に接近する動作本体と、
    前記ユーザーの撮像情報から頭領域及び手先領域を検出するとともに、前記領域の各々の特徴点を三次元座標算出する画像認識部と、特定された前記特徴点を追跡してユーザーのジェスチャを判別するジェスチャ判別部と、を有するジェスチャ動作認識部と、
    前記目標物の情報を検出する目標物捕捉部と、
    請求項1から4の何れか一つに記載のロボット制御装置と、
    を備えていることを特徴とするロボット。
JP2009192249A 2009-08-21 2009-08-21 ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット Expired - Fee Related JP5464514B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009192249A JP5464514B2 (ja) 2009-08-21 2009-08-21 ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009192249A JP5464514B2 (ja) 2009-08-21 2009-08-21 ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット

Publications (2)

Publication Number Publication Date
JP2011042011A JP2011042011A (ja) 2011-03-03
JP5464514B2 true JP5464514B2 (ja) 2014-04-09

Family

ID=43829833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009192249A Expired - Fee Related JP5464514B2 (ja) 2009-08-21 2009-08-21 ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット

Country Status (1)

Country Link
JP (1) JP5464514B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11938637B2 (en) 2019-01-22 2024-03-26 Samsung Electronics Co., Ltd. Robot and control method thereof

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523386B2 (ja) * 2011-04-15 2014-06-18 三菱電機株式会社 衝突回避装置
JP6221224B2 (ja) * 2012-11-27 2017-11-01 セイコーエプソン株式会社 ロボットシステム、プログラム、生産システム及びロボット
JP5765355B2 (ja) * 2013-03-18 2015-08-19 株式会社安川電機 ロボットピッキングシステム及び被加工物の製造方法
JP6902998B2 (ja) * 2016-12-28 2021-07-14 本田技研工業株式会社 自律移動体の運用方法
JP7016696B2 (ja) * 2016-12-28 2022-02-07 本田技研工業株式会社 自律移動体の運用方法
KR102519064B1 (ko) 2018-04-25 2023-04-06 삼성전자주식회사 사용자에게 서비스를 제공하는 이동형 로봇 장치 및 방법
JP6916157B2 (ja) 2018-10-23 2021-08-11 ファナック株式会社 人と協働作業を行うロボットシステム、及びロボット制御方法
JP2020089944A (ja) * 2018-12-05 2020-06-11 国立大学法人 東京大学 ロボットシステム
JP6997068B2 (ja) 2018-12-19 2022-01-17 ファナック株式会社 ロボット制御装置、ロボット制御システム、及びロボット制御方法
RU2737231C1 (ru) * 2020-03-27 2020-11-26 Федеральное государственное бюджетное учреждение науки "Санкт-Петербургский Федеральный исследовательский центр Российской академии наук" (СПб ФИЦ РАН) Способ многомодального бесконтактного управления мобильным информационным роботом
CN112975963B (zh) * 2021-02-23 2022-08-23 广东优碧胜科技有限公司 机器人动作生成方法和装置以及机器人

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000202790A (ja) * 1999-01-14 2000-07-25 Sharp Corp ロボット装置
JP2004243427A (ja) * 2003-02-12 2004-09-02 Yaskawa Electric Corp ロボット制御装置およびロボット制御方法
JP2004279712A (ja) * 2003-03-14 2004-10-07 Sony Corp ロボット装置及び動作設定方法
JP2007094743A (ja) * 2005-09-28 2007-04-12 Zmp:Kk 自律移動型ロボットとそのシステム
JP4919467B2 (ja) * 2006-03-17 2012-04-18 三菱重工業株式会社 活動支援装置
JP4435212B2 (ja) * 2007-06-19 2010-03-17 本田技研工業株式会社 姿勢認識装置及び自律ロボット

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11938637B2 (en) 2019-01-22 2024-03-26 Samsung Electronics Co., Ltd. Robot and control method thereof

Also Published As

Publication number Publication date
JP2011042011A (ja) 2011-03-03

Similar Documents

Publication Publication Date Title
JP5464514B2 (ja) ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット
Flacco et al. A depth space approach for evaluating distance to objects: with application to human-robot collision avoidance
JP6567563B2 (ja) 衝突回避および軌道復帰能力を有する人型ロボット
De Luca et al. Integrated control for pHRI: Collision avoidance, detection, reaction and collaboration
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
US8855814B2 (en) Robot and control method thereof
Svarny et al. Safe physical HRI: Toward a unified treatment of speed and separation monitoring together with power and force limiting
JP4715787B2 (ja) 移動ロボット及びロボット移動制御方法
Ehlers et al. A human-robot interaction interface for mobile and stationary robots based on real-time 3D human body and hand-finger pose estimation
JP6659629B2 (ja) 多関節ロボットの制御装置
JP2010079853A (ja) 移動装置
JP5063549B2 (ja) 移動装置
JP6075888B2 (ja) 画像処理方法、ロボットの制御方法
Bolder et al. Visually guided whole body interaction
Takamatsu et al. Extracting manipulation skills from observation
Cabrera et al. Cohaptics: Development of human-robot collaborative system with forearm-worn haptic display to increase safety in future factories
JP5275967B2 (ja) 干渉チェック装置
Trigueiros et al. Vision-based hand segmentation techniques for human-robot interaction for real-time applications
Heindl et al. Metric pose estimation for human-machine interaction using monocular vision
JP5539001B2 (ja) 制御装置
Arisumi et al. Systematic touch scheme for a humanoid robot to grasp a door knob
Bdiwi et al. Automated assistance robot system for transferring model-free objects from/to human hand using vision/force control
JP6647143B2 (ja) 機能装置ならびにその制御装置および制御方法
Amat et al. Human robot interaction from visual perception
KR20230004132A (ko) 협동 로봇 제어 장치 및 방법

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120106

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140110

R150 Certificate of patent or registration of utility model

Ref document number: 5464514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees