JP2012051080A - ロボット及びその制御方法 - Google Patents

ロボット及びその制御方法 Download PDF

Info

Publication number
JP2012051080A
JP2012051080A JP2010196413A JP2010196413A JP2012051080A JP 2012051080 A JP2012051080 A JP 2012051080A JP 2010196413 A JP2010196413 A JP 2010196413A JP 2010196413 A JP2010196413 A JP 2010196413A JP 2012051080 A JP2012051080 A JP 2012051080A
Authority
JP
Japan
Prior art keywords
space
recognition
robot
trajectory
recognition space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010196413A
Other languages
English (en)
Other versions
JP5561037B2 (ja
Inventor
Kiyohiro Sogen
清宏 宗玄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2010196413A priority Critical patent/JP5561037B2/ja
Publication of JP2012051080A publication Critical patent/JP2012051080A/ja
Application granted granted Critical
Publication of JP5561037B2 publication Critical patent/JP5561037B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】対象物を認識しながらアーム等を対象物まで近づけることができる新規なロボット及びその制御方法を提供すること。
【解決手段】本発明にかかるロボット1は、頭部11、ロボット本体12、アーム13、カメラ14、物体認識部15、認識空間算出部16、軌道算出部17、可動制御部18を備える。カメラ14は、ロボット本体12の周囲の物体の環境情報を取得する。物体認識部15は、カメラ14が取得した環境情報に基づいて、ロボット本体12の周囲に存在する把持対象物90を認識する。認識空間算出部16は、物体認識部15により把持対象物90を認識するために必要とする空間としての認識空間20を算出する。軌道算出部17は、アーム13が、認識空間20への侵入を回避しつつ、把持対象物90に向かう軌道を算出する。可動制御部18は、アーム13の認識空間20への侵入を回避するように、アーム13の動きを制御する。
【選択図】図1

Description

本発明はロボット及びその制御方法に関し、特にアーム等の可動部を有するロボット及びその制御方法に関する。
ハンドアームを有するロボットが対象物を把持する場合、ロボットはセンサやカメラ等の認識手段により対象物を認識しながらハンドアームを対象物まで近づける。このとき、認識手段と対象物との間にアームが侵入すると、対象物の認識を継続できなくなる。つまり、対象物がハンドアームによって隠れてしまう可能性がある。その結果、対象物の把持がうまくいかないという問題があった。
このような問題を解決するため、特許文献1には、ロボットの頭部カメラとは別に、アームにもカメラが設置されたロボットが開示されている。特許文献1に記載のロボットは、頭部カメラ及びアームカメラの画像を合成して、周囲の環境を認識する。そのため、頭部カメラと対象物との間にアームが侵入した場合であっても、アームカメラにより対象物を撮像できれば、頭部カメラ及びアームカメラの画像を合成して対象物を認識できる。つまり、頭部カメラの視界が自らのアームによって遮られた場合であっても、ロボットは対象物の認識を継続することができる。
なお、特許文献2には、ビジュアルサーボでロボットをワーク位置へ移動制御する場合に、予め禁止領域を設定し、禁止領域を回避するようにロボットを移動制御する技術が開示されている。制御装置は、ロボットがワークを認識することができなくなる位置姿勢及び当該位置姿勢における画像を制限条件として記憶し、禁止領域として設定する。これにより、ロボットはワークを認識しながら目標位置まで移動することができる。
特開2007−216350号公報 特開2003−305675号公報
しかしながら、ハンドアームを備える一般的なロボットの処理と比較して、特許文献1に記載の技術は、頭部カメラの画像とアームカメラの画像とを合成する画像合成処理が別途必要となる。また、特許文献2に記載の技術は、ロボットの移動前に予め禁止領域の位置姿勢及び禁止領域における画像を記憶しておく処理が別途必要となる。つまり、特許文献1及び2に記載の技術は、アームまたはロボットを対象物に近づける処理に関して改善の余地が残されていた。
本発明はこのような問題を解決するためになされたものであり、対象物を認識しながらアーム等を対象物まで近づけることができる新規なロボット及びその制御方法を提供することを目的としている。
本発明にかかるロボットは、ロボット本体と、前記ロボット本体に対して相対的に変位可能に連結された可動部と、前記ロボット本体の周囲の環境情報を取得する環境情報取得手段と、前記環境情報取得手段が取得した前記環境情報に基づいて、前記ロボット本体の周囲に存在する対象物を認識する物体認識手段と、前記物体認識手段により前記対象物を認識するために必要とする空間としての認識空間を算出する認識空間算出手段と、前記可動部が、前記認識空間への侵入を回避しつつ、前記対象物に向かう軌道を算出する軌道算出手段と、前記軌道算出手段が算出した前記軌道に基づいて、前記可動部の動きを制御する可動部制御手段と、を備えるものである。これにより、対象物を認識しながら可動部を対象物まで近づけることができる。
また、前記物体認識手段は、前記環境情報取得手段が取得した前記環境情報に基づいて、前記対象物の位置情報を算出し、前記認識空間算出手段は、前記対象物の前記位置情報と前記環境情報取得手段の位置情報とに基づいて、前記認識空間を算出する。
また、本発明にかかるロボットの一態様は、前記物体認識手段は、前記対象物が移動している場合、当該対象物の移動方向を算出し、前記認識空間算出手段は、前記対象物の前記位置情報と前記環境情報取得手段の前記位置情報に加えて、前記対象物の前記移動方向に基づいて、前記認識空間を算出する。これにより、対象物が移動している場合であっても、対象物の移動を考慮した認識空間を算出することができる。
また、本発明にかかるロボットの一態様は、前記認識空間算出手段は、前記対象物の移動方向に前記認識空間を拡大するように、前記認識空間を算出する。
また、本発明にかかるロボットの一態様は、前記物体認識手段は、前記対象物が移動している場合、当該対象物の移動速度を算出し、前記認識空間算出手段は、前記対象物の前記位置情報と前記環境情報取得手段の前記位置情報と前記対象物の前記移動方向に加えて、前記対象物の前記移動速度に基づいて、前記認識空間を算出する。これにより、対象物の移動速度に応じた適切な認識空間を算出することができる。
また、本発明にかかるロボットの一態様は、前記認識空間算出手段は、前記対象物の前記移動速度に比例して前記認識空間を拡大するように、前記認識空間を算出する。
また、本発明にかかるロボットの一態様は、前記認識空間は、前記環境情報取得手段を頂点とし、前記対象物を底面の中心とする錐体である。
また、本発明にかかるロボットの一態様は、前記認識空間の底面の外縁は、前記環境情報取得手段の位置から認識される前記対象物の外形よりも大きい。これにより、物体の外形が可動部に隠れることがないため、可動部が対象物の認識に影響を与えることがない。
また、前記ロボット本体には、複数の前記環境情報取得手段がそれぞれ異なる位置に設けられ、前記対象物の前記位置情報と複数の前記環境情報取得手段に含まれる第1の環境情報取得手段の位置情報とに基づいて前記認識空間算出手段が算出した第1の認識空間と、前記対象物の前記位置情報と、に基づいて、前記軌道算出手段が前記軌道を算出できない場合、前記軌道算出手段は、前記対象物の前記位置情報と複数の前記環境情報取得手段に含まれる第2の環境情報取得手段の位置情報とに基づいて前記認識空間算出手段が算出した第2の認識空間と、前記対象物の前記位置情報と、に基づいて、前記軌道を算出する。これにより、第1の環境情報取得手段の位置情報に基づいて、軌道が算出できない場合であっても、第2の環境情報取得手段の位置情報に基づいて、軌道を算出することができる。
また、本発明にかかるロボットの一態様は、前記認識空間算手段は、前記認識空間を複数の空間に分割し、分割されたそれぞれの分割空間に対して、前記可動部の侵入を抑制する度合いを示す侵入抑制レベルを設定する。
また、本発明にかかるロボットの一態様は、前記軌道算出手段が前記対象物の前記位置情報と前記認識空間とに基づいて、前記軌道を算出できない場合、前記軌道算出手段は、前記分割空間の前記侵入抑制レベルに応じて、当該分割空間への前記可動部の侵入を許容し、前記軌道を算出する。これにより、軌道算出手段が軌道を算出できない場合であっても、侵入抑制レベルに応じて、認識空間への侵入を許容し、軌道を算出することができる。
また、本発明にかかるロボットの一態様は、前記分割空間の前記侵入抑制レベルは、前記可動部が当該分割空間に侵入した場合に、前記環境情報取得手段による前記対象物の前記環境情報の取得処理に対して前記可動部が与える影響の大きさに基づいて決定される。これにより、軌道算出手段が算出可能な可動部の軌道の選択肢を広げた場合であっても、可動部が対象物の認識を妨げることがない。
また、本発明にかかるロボットの一態様は、前記ロボット本体に連結された頭部をさらに備え、前記環境情報取得手段は、前記頭部に設けられている。
また、本発明にかかるロボットの一態様は、前記可動部は、前記対象物を把持する把持手段を有するアームである。
本発明にかかるロボットの制御方法は、ロボット本体と、前記ロボット本体に対して相対的に変位可能に連結された可動部と、前記ロボット本体の周囲の環境情報を取得する環境情報取得手段と、を備えるロボットの制御方法であって、前記ロボット本体の前記周囲の前記環境情報を取得し、前記環境情報に基づいて、前記ロボット本体の周囲に存在する対象物を認識し、前記対象物を認識するために必要とする空間としての認識空間を算出し、前記可動部が、前記認識空間への侵入を回避しつつ、前記対象物に向かうような前記可動部の軌道を算出し、前記可動部の前記軌道に基づいて、前記可動部の動きを制御するものである。これにより、対象物を認識しながら可動部を対象物まで近づけることができる。
また、本発明にかかるロボットの制御方法一態様は、前記対象物の環境情報を取得し、前記対象物の前記環境情報に基づいて、前記対象物の位置情報を算出し、前記対象物の前記位置情報と前記環境情報取得手段の位置情報とに基づいて、前記認識空間を算出する。
また、本発明にかかるロボットの制御方法一態様は、前記対象物が移動している場合、当該対象物の移動方向を算出し、前記対象物の前記位置情報と前記環境情報取得手段の前記位置情報に加えて、前記対象物の前記移動方向に基づいて、前記認識空間を算出する。これにより、対象物が移動している場合であっても、対象物の移動を考慮した認識空間を算出することができる。
また、本発明にかかるロボットの制御方法一態様は、前記対象物の移動方向に前記認識空間を拡大するように、前記認識空間を算出する。
また、本発明にかかるロボットの制御方法一態様は、前記対象物が移動している場合、当該対象物の移動速度を算出し、前記対象物の前記位置情報と前記環境情報取得手段の前記位置情報と前記対象物の前記移動方向に加えて、前記対象物の前記移動速度に基づいて、前記認識空間を算出する。これにより、対象物の移動速度に応じた適切な認識空間を算出することができる。
また、本発明にかかるロボットの制御方法一態様は、前記対象物の前記移動速度に比例して前記認識空間を拡大するように、前記認識空間を算出する。
また、本発明にかかるロボットの制御方法一態様は、前記認識空間は、前記環境情報取得手段を頂点とし、前記対象物を底面の中心とする錐体である。
また、本発明にかかるロボットの制御方法一態様は、前記認識空間の底面の外縁は、前記環境情報取得手段の位置から認識される前記対象物の外形よりも大きい。これにより、物体の外形が可動部に隠れることがないため、可動部が対象物の認識に影響を与えることがない。
また、本発明にかかるロボットの制御方法一態様は、前記ロボット本体には、複数の前記環境情報取得手段がそれぞれ異なる位置に設けられ、前記対象物の前記位置情報と複数の前記環境情報取得手段に含まれる第1の環境情報取得手段の位置情報とに基づいて算出した第1の認識空間と、前記対象物の前記位置情報と、に基づいて、前記軌道を算出できない場合、前記対象物の前記位置情報と複数の前記環境情報取得手段に含まれる第2の環境情報取得手段の位置情報とに基づいて算出した第2の認識空間と、前記対象物の前記位置情報と、に基づいて、前記軌道を算出する。これにより、第1の環境情報取得手段の位置情報に基づいて、軌道が算出できない場合であっても、第2の環境情報取得手段の位置情報に基づいて、軌道を算出することができる。
また、本発明にかかるロボットの制御方法一態様は、前記認識空間を複数の空間に分割し、分割されたそれぞれの分割空間に対して、前記可動部の侵入を抑制する度合いを示す侵入抑制レベルを設定する。
また、本発明にかかるロボットの制御方法一態様は、前記対象物の前記位置情報と前記認識空間とに基づいて、前記軌道を算出できない場合、前記分割空間の前記侵入抑制レベルに応じて、当該分割空間への前記可動部の侵入を許容し、前記軌道を算出する。これにより、軌道算出手段が軌道を算出できない場合であっても、侵入抑制レベルに応じて、認識空間への侵入を許容し、軌道を算出することができる。
また、本発明にかかるロボットの制御方法一態様は、前記分割空間の前記侵入抑制レベルは、前記可動部が当該分割空間に侵入した場合に、前記環境情報取得手段による前記対象物の前記環境情報の取得処理に対して前記可動部が与える影響の大きさに基づいて決定される。これにより、軌道算出手段が算出可能な可動部の軌道の選択肢を広げた場合であっても、可動部が対象物の認識を妨げることがない。
本発明により、対象物を認識しながらアーム等を対象物まで近づけることができる新規なロボット及びその制御方法を提供することができる。
実施の形態1にかかるロボットの構成例を示す図である。 実施の形態1にかかるロボットのブロック図である。 実施の形態1にかかるロボットの動作を示すフローチャートである。 実施の形態1にかかるロボットの構成例を示す図である。 実施の形態1にかかるロボットの変形例を示す図である。 実施の形態1にかかるロボットの変形例の動作を示すフローチャートである。 実施の形態1にかかる認識空間の変化を説明するための図である。 実施の形態2にかかるロボットの構成例を示す図である。 実施の形態2にかかるロボットの動作を示すフローチャートである。 実施の形態3にかかる認識空間の構成例を示す図である。 実施の形態3にかかるロボットの動作を示すフローチャートである。
実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は本実施の形態にかかるロボット1の斜視図である。ロボット1は、頭部11、ロボット本体12、アーム13、カメラ14を備える。
頭部11は、ロボット本体12と連結されている。頭部11には、カメラ14(環境情報取得手段)が設けられている。カメラ14は、障害物や把持対象物等のロボット1の周囲の物体を撮像する。そして、カメラ14は、ロボット本体12の周囲の物体の画像データ(環境情報)を生成する。
アーム13は、ロボット本体12に対して相対的に変位可能となるように、ロボット本体12と連結されている。例えば、アーム13は、1つ以上の関節を有し、複数の部材が連結されているものである。図1においては、アーム13は2つの関節を有する。当該関節に設けられたモータ(図示省略)の駆動により、アーム13は、ロボット本体12に対して相対的に変位可能となる。アーム13の先端には、ハンド部131(把持手段)が連結されている。ハンド部131は、把持対象物90を把持可能である。
次に、図2に示すブロック図を用いて、ロボット1が備える制御部について詳細に説明する。ロボット1の制御部は、物体認識部15、認識空間算出部16、軌道算出部17、可動制御部18を有する。
物体認識部15は、カメラ14が生成した画像データから、障害物や把持対象物等の外部環境を認識する。より詳細には、物体認識部15は、カメラ14が生成した画像データから、把持対象物90の位置情報を算出する。ここで、位置情報とは、位置の特定に関する情報である。位置とは、ロボット1に対して相対的な位置であってもよいし、絶対的な位置であってもよい。本実施の形態では、カメラ14は、ステレオカメラであって、2つのカメラレンズにより2つの画像データを生成する。物体認識部15は、2つの画像データから特徴点の座標を取得する。そして、物体認識部15は、2つの画像データから取得した特徴点から両眼視差に基づいて、把持対象物90を含む周囲の物体の3次元座標(位置情報)を算出する。
認識空間算出部16は、認識空間20を算出する。より詳細には、認識空間算出部16は、物体認識部15が算出した把持対象物90の位置情報とカメラ14の位置情報とに基づいて、認識空間20を算出する。ここで、認識空間とは、把持対象物90を認識するために必要とする空間をいう。言い換えると、アーム13が侵入することにより、把持対象物の認識の妨げとなる空間を意味する。なお、認識空間の形状は、例えば、円錐や角錐であってもよいし、円柱や角柱であってもよい。
軌道算出部17は、アーム13が認識空間20へ侵入することを回避しつつ、把持対象物に向かうような軌道を算出する。具体的には、軌道算出部17は、認識空間を仮想的な障害物として認識し、アーム13を把持対象物90へと近づける軌道を算出する。なお、アーム13の軌道の算出手法としては、RRT(Rapidly-exploring Random Trees)等の既存の軌道計画手法を用いればよい。可動制御部18は、軌道算出部17が算出したアーム13の軌道に基づいて、アーム13の関節に設けられたモータに対して制御信号を送出し、アーム13の動作を制御する。
続いて、図3に示したフローチャートを用いて、ロボット1の動作例について説明する。図3においては、ロボット1がハンド部131を用いて把持対象物90を把持する動作について説明する。
まず、カメラ14が、ロボット1の周囲環境を撮像し画像データを生成する(ステップS101)。カメラ14は、物体認識部15に対して画像データを送信する。そして、物体認識部15は、画像データから把持対象物90の位置情報を算出する(ステップS102)。物体認識部15は、把持対象物90の位置情報を認識空間算出部16及び軌道算出部17に対して送信する。
認識空間算出部16は、カメラ14の位置情報(頭部11に設けられたカメラ14の位置を特定するための情報)と把持対象物90の位置情報とに基づいて、認識空間20を算出する(ステップS103)。このとき、カメラ14の位置情報は予め認識空間算出部16に記憶されているものとする。図1においては、認識空間20は、カメラ14を頂点とし、把持対象物90の重心を底面の中心とする円錐形の空間である。より詳細には、認識空間20の底面の外縁は、把持対象物90の外形が収まる大きさとする。なお、把持対象物90の重心及び外形とは、カメラ14により撮像された画像における把持対象物90の重心及び外形をいう。認識空間算出部16は、算出した認識空間20の空間位置情報を軌道算出部17に対して送信する。空間位置情報とは、物体認識部15が算出した周囲の物体の位置に対する認識空間20の位置、大きさ、範囲を特定するための情報を意味する。
軌道算出部17は、物体認識部15から送信された把持対象物90の位置情報に基づいて、アーム13のハンド部131を把持対象物90に近づける軌道を算出する(ステップS104)。このとき、軌道算出部17は、認識空間算出部16から受信した認識空間20の空間位置情報から特定される位置に障害物があるとみなして軌道を算出する。つまり、軌道算出部17は、アーム13及びハンド部131が認識空間20を通過しないような軌道を算出する(図1に示す破線矢印)。これにより、カメラ14が把持対象物90を撮像する際に、アーム13及びハンド部131が撮像の妨げとならない。なお、図4に示すように、把持対象物90の周囲に障害物91が存在する場合は、軌道算出部17は、アーム13(ハンド部131)の認識空間20への侵入及びアーム13と障害物91との接触を回避しつつ、ハンド部131が把持対象物90に近づくような軌道を算出する。軌道算出部17は、算出した軌道に関する軌道情報を可動制御部18に対して送信する。
可動制御部18は、軌道算出部17から受信した軌道情報に基づいて、アーム13に設けられた関節のモータに制御信号を送信する(ステップS105)。これにより、ハンド部131は、軌道算出部17が算出した軌道に沿って把持対象物90に接近する。そして、ハンド部131と把持対象物90との距離が所定の距離まで近づくと、可動制御部18は、ハンド部131に設けられたモータに対して制御信号を送信する。ハンド部131は、モータの駆動により把持対象物90を把持する(ステップS106)。このとき、ハンド部131が把持対象物90に所定の距離まで近づいた後は、ハンド部131が認識空間20へ侵入しないと把持対象物90を把持できない。そのため、軌道算出部17が算出した軌道は、把持対象物90の近傍においては例外的に認識空間を通過する軌道となる。
このように、本実施の形態にかかるロボット1の構成によれば、認識空間算出部16が、カメラ14の位置情報と把持対象物90の位置情報とに基づいて、アーム13の侵入を抑制する認識空間20を算出する。そして、軌道算出部17が認識空間20への侵入を回避したアーム軌道を算出し、可動制御部18が当該アーム軌道に基づいて、アーム13を制御する。そのため、カメラ14が把持対象物90を撮像する場合に、アーム13が把持対象物90を隠してしまうことはない。したがって、物体認識部15による把持対象物90の認識を継続したまま、ハンド部131を把持対象物90に近づけることができる。
さらに、特許文献1の構成と比較すると、本実施の形態にかかるロボット1は、ロボットの頭部カメラの撮像画像とアームカメラの撮像画像との合成画像を作成する必要もない。そのため、アームカメラの視線方向を一定方向に保ちつつ、対象物にアームを近づけていくという厳しい拘束条件は必要がない。つまり、アーム制御における拘束条件は認識空間20に侵入しないという条件のみである。したがって、アーム13の可動範囲が著しく低下することを防ぐことができる。
加えて、本発明にかかるロボット1は、アームカメラや画像合成処理部を別途必要としない。そのため、ロボット1の製造コストを抑えることができる。言い換えると、本発明は新たな部品(アームカメラ等)を必要としないため、既存のロボットにも適用可能であり、汎用性を向上させることもできる。
ここで、本実施の形態にかかるロボット1の変形例について説明する。図5は、変形例にかかるロボット1の動作例を示す図である。変形例にかかるロボット1の構成は、上述の実施の形態と同様であるため、説明を省略する。
図6に示すフローチャートを用いて、変形例にかかるロボット1の動作について説明する。まず、カメラ14が、把持対象物90を含む周囲環境を撮像し、画像データを生成する(ステップS201)。把持対象物90が移動している場合、物体認識部15は、カメラ14から受信した画像データから、把持対象物90の位置情報に加えて、把持対象物90の移動ベクトル(移動方向)を算出する(ステップS202)。そして、物体認識部15は、把持対象物90の位置情報及び移動ベクトルを認識空間算出部16及び軌道算出部17に対して送信する。なお、変形例においては、物体認識部15が把持対象物90の移動方向や移動速度を算出するため、カメラ14は、撮像した画像データを定期的に物体認識部15に対して送信する。
認識空間算出部16は、把持対象物90の移動方向に認識空間20を拡大するように、認識空間20を算出する(ステップS203)。具体的には、把持対象物90の移動方向に認識空間20の底面を伸ばすように、認識空間20を拡大する。認識空間20の底面の拡大量は一定値であってもよいし、把持対象物90の移動速度に比例して拡大してもよい。移動速度に比例して認識空間20の底面を拡大させる場合、物体認識部15がカメラ14から送信される画像データから把持対象物90の移動速度を算出する構成とすればよい。これにより、認識空間算出部16は、把持対象物90の移動ベクトル方向へ、把持対象物90の移動速度に比例して、認識空間20の底面を伸ばすことができる(図7参照)。
軌道算出部17は、把持対象物90の位置情報と拡大された認識空間20とに基づいて、アーム13の軌道を算出する(ステップS204)。図5においては、アーム13が移動中の把持対象物90へ最短距離で近づこうとすると、アーム13が認識空間20に侵入してしまう。そのため、軌道算出部17は、アーム13が認識空間20に侵入しないように、迂回した軌道を算出する(図5に示す破線矢印)。そして、可動制御部18は、軌道算出部17が算出した軌道に沿って、ハンド部131を把持対象物90へ近づけるように制御する(ステップS205)。その後、可動制御部18は、ハンド部131が把持対象物90を把持したか否かを判定する(ステップS206)。ハンド部131が、把持対象物90を把持した場合(ステップS206:Yes)、把持動作を完了する。
一方、ハンド部131が把持対象物90を把持していない場合(ステップS206:No)、物体認識部15は、カメラ14から定期的に送信される画像データに基づいて、把持対象物90の移動の有無を判定する(ステップS207)。把持対象物90が移動している場合(ステップS207:Yes)、つまり、把持対象物90の位置情報が変化している場合、物体認識部15は、把持対象物90の位置情報及び移動ベクトルを再度算出し(ステップS202)、認識空間算出部16及び軌道算出部17に対して送信する。そして、認識空間算出部16は、認識空間20を再度算出する(ステップS203)。軌道算出部17は、認識空間20の空間位置情報と把持対象物90の位置情報及び移動ベクトルに基づいて、再度軌道を算出する(ステップS204)。さらに、可動制御部18は、軌道算出部17から受信した軌道情報に基づいて、アーム13の動作を制御する(ステップS205)。
把持対象物90が移動していない場合(ステップS207:No)、可動制御部18は、軌道算出部17により既に算出された軌道情報に基づいて、アーム13を継続して制御する(ステップS205)。なお、ステップS207の移動判定を行わない構成としてもよい。その場合、ハンド部131による把持が完了するまで(ステップS206でNoの場合)、カメラ14が周囲環境を撮像する度に、物体認識部15が把持対象物90の位置情報を算出(ステップS202)する。
このように、変形例にかかるロボット1の構成によれば、物体認識部15が把持対象物90の移動方向及び移動速度を算出する。そして、認識空間算出部16が、把持対象物90の位置情報、移動方向、移動速度及びカメラ14の位置情報に基づいて、認識空間20を算出する。そのため、認識空間算出部16は、移動している把持対象物90の将来の移動量も考慮して認識空間20を拡大することができる。したがって、把持対象物90が動いている場合であっても、カメラ14による把持対象物90の撮像をアーム13が妨げることがない。
実施の形態2
本発明にかかる実施の形態2について説明する。図8は、実施の形態2にかかるロボット2の構成例を示す図である。本実施の形態にかかるロボット2は、周囲環境を撮像して画像データを生成するステレオカメラを頭部11の異なる位置に2台備える(カメラ141、142)。なお、その他の構成についてはロボット1と同様であるので、説明を省略する。
図9に示すフローチャートを用いて、本実施の形態にかかるロボット2の動作例について説明する。まず、カメラ141(第1の環境情報取得手段)は、周囲環境を撮像し、画像データを生成する(ステップS301)。そして、カメラ141は、当該画像データを物体認識部15に対して送信する。
物体認識部15は、カメラ141から受信した画像データに基づいて、把持対象物90の位置情報を算出する(ステップS302)。物体認識部15は、当該位置情報を認識空間算出部16及び軌道算出部17に対して送信する。
認識空間算出部16は、物体認識部15から受信した把持対象物90の位置情報とカメラ141の位置情報とに基づいて、認識空間21を算出する(ステップS303)。そして、認識空間算出部16は、認識空間21の空間位置情報を軌道算出部17に対して送信する。軌道算出部17は、把持対象物90の位置情報及び認識空間21の空間位置情報に基づいて、ハンド部131(アーム13)が認識空間21へ侵入することなく、ハンド部131を把持対象物90に近づける軌道を算出する(ステップS304)。
ここで、軌道算出部17は、認識空間21を回避しながらハンド部131を把持対象物90へ近づける軌道を算出可能か否か判定する(ステップS305)。軌道算出部17が認識空間21を回避しながらハンド部131を把持対象物90へ近づける軌道の計算に失敗した場合(ステップS305:No)、軌道算出部17は、画像データの取得手段をカメラ141からカメラ142(第2の環境情報取得手段)へと切り替える(ステップS306)。なお、軌道算出部17による軌道計算の失敗とは、アーム13の構成(例えば、可動範囲やリンク長等)を超えて動作しなければ、認識空間21への侵入を回避できない場合等である。
そして、カメラ142は、周囲環境を撮像し、画像データを生成する(ステップS301)。物体認識部15は、カメラ142が撮像した画像データに基づいて、把持対象物90の位置情報を算出し(ステップS302)、認識空間算出部16及び軌道算出部17に対して送信する。認識空間算出部16は、把持対象物90の位置情報とカメラ142の位置情報とに基づいて、認識空間22を算出し(ステップS303)、当該認識空間22の空間位置情報を軌道算出部17に対して送信する。
軌道算出部17は、認識空間22を回避しながらアーム13を把持対象物90へ近づける軌道を算出する(ステップS304)。軌道算出部17は計算可能か否か判定する(ステップS305)。そして、軌道計算が成功した場合(ステップS305:Yes)、軌道算出部17は、軌道情報を可動制御部18に対して送信する。可動制御部18は、取得した軌道情報に基づいて、アーム13を制御する(ステップS307)。ハンド部131は、実施の形態1と同様に、把持対象物90を把持する(ステップS308)。
このように、本実施の形態にかかるロボット2は、2つのカメラ141、142を備える。軌道算出部17は、一方のカメラ141が取得した画像データから生成された認識空間21を回避して把持対象物90にアーム13を近づける軌道を算出する。そして、軌道計算に失敗した場合、軌道算出部17は、他方のカメラ142が取得した画像データから生成された認識空間22を回避して把持対象物90にアーム13を近づける軌道を算出する。そのため、認識空間算出部16は、把持対象物90とカメラとの相対的な位置関係に応じて、適宜認識空間を算出することができる。その結果、カメラが1つの場合に比べて、軌道算出部17が算出し得る軌道の選択肢が多くなる。したがって、アーム13が把持対象物90へ近づくことができる可能性を高めることができる。
なお、図8に示したロボット2は、頭部11に2つのカメラ141、142を備える構成となっているが、これに限られるものではない。2つ以上のカメラを備え、第2のカメラに基づく軌道計算に失敗した場合、第3のカメラ(または第4以降のカメラ)に基づいて軌道算出部17が軌道の計算をしてもよい。
実施の形態3
本発明にかかる実施の形態3について説明する。上述の実施の形態2においては、軌道算出部17は、アーム13を認識空間に侵入させないように軌道を算出していた。そして、軌道の計算に失敗した場合、軌道算出部17は、別のカメラに基づいて軌道を再計算していた。本実施の形態においては、軌道の計算に失敗した場合、軌道算出部17は、認識空間を縮小して軌道を再計算する。
図10及び図11を参照して本実施の形態にかかるロボットの動作例を説明する。図10は本実施の形態にかかる認識空間の構成例である。なお、その他の構成については図1に示したロボット1と同様であるので、図示を省略する。加えて、カメラ14による撮像処理から物体認識部15による把持対象物90の位置情報の算出処理までは実施の形態1と同様であるため、図11に示すフローチャートにおいては説明を省略する。
認識空間算出部16は、物体認識部15が算出した把持対象物90の位置情報とカメラ14の位置情報とに基づいて、認識空間23を算出する(ステップS401)。このとき、認識空間23は、複数の空間に分割されており、それぞれの分割空間231、232、233には侵入抑制レベルが設定されている(図10参照)。侵入抑制レベルとは、当該分割空間へのアーム13(ハンド部131)の侵入を抑制する度合いを示すものである。侵入抑制レベルは、アーム13が当該分割空間に侵入した場合に、カメラ14による把持対象物90の画像データ生成処理に対して、アーム13が与える影響の大きさに基づいて決定される。
図10においては、認識空間算出部16は、認識空間23を、認識空間23の最も中心軸側に位置する分割空間231、その外側に位置する分割空間232、分割空間232の外側に位置し、認識空間23の最も中心軸から離れている分割空間233の3つの空間に分割する。このとき、分割空間231までアーム13が侵入すると、把持対象物90の大部分がアーム13によって隠れてしまい、アーム13がカメラ14による把持対象物90の画像データ生成の妨げとなる。そのため、認識空間算出部16は、分割空間231の侵入抑制レベルを高レベル(例えば、絶対にアーム13が侵入しないように)設定する。
一方、分割空間232までアーム13が侵入した場合、カメラ14は把持対象物90の特徴点の大半を取得できる。そのため、認識空間算出部16は、分割空間232の侵入抑制レベルを中レベルに設定する。他方、分割空間233にアーム13が侵入しても、アーム13により把持対象物90はほとんど隠れる部分が無い。つまり、カメラ14は、把持対象物90の特徴点のほとんどを取得できる。そのため、認識空間算出部16は、分割空間233の侵入抑制レベルを低レベルに設定する。つまり、認識空間算出部16は、認識空間23の中心軸からの距離に応じて、侵入抑制レベルを設定する。認識空間算出部16は、認識空間23の位置情報に加えて、分割空間231〜233の位置情報及び各分割空間の侵入抑制レベルを軌道算出部17に対して送信する。
図10においては、把持対象物90が直方体という単純な物体であるが、把持対象物の形状がドーナツ形状等特殊な形状の場合は、認識空間の中心軸部分は隠れても把持対象物の認識に与える影響は少ない。一方、認識空間の周囲が隠れてしまうと、ドーナツ形状の把持対象物の特徴点の取得処理に与える影響が大きい。このような場合は、認識空間算出部16は、アーム13が認識空間に侵入することによって、把持対象物が隠れてしまう面積や特徴点の数に基づいて、侵入抑制レベルを設定してもよい。さらに、カメラ14から近い空間にアーム13が侵入すると、把持対象物90の大部分が隠れてしまうため、カメラ14からの距離に基づいて、侵入抑制レベルを設定してもよい。なお、分割空間の分割方法及び分割空間の形状は、図10に示すものに限られない。
軌道算出部17は、はじめに、最も侵入抑制レベルが低い分割空間233を含む認識空間23を仮想の障害物として、ハンド部131を把持対象物90へ近づける軌道を算出する(ステップS402)。ここで、軌道算出部17は軌道の算出が可能か否か判定する(ステップS403)。軌道算出部17は、アーム軌道の計算が成功した場合(ステップS403:Yes)は、当該アーム軌道情報を可動制御部18に対して送信する。可動制御部18は、受信した軌道情報に基づいて、アーム13を制御する(ステップS405)。そして、ハンド部131は、把持対象物90を把持する(ステップS406)。
これに対して、軌道算出部17は、アーム13の軌道の計算に失敗した場合(ステップS403:No)、分割空間233へのアーム13の侵入を許容して(ステップS404)、再度軌道を計算する(ステップS402)。言い換えると、軌道算出部17は、認識空間23を狭めて、アーム13の軌道を再計算する。これにより、アーム13の可動範囲が広がるため、アーム13の軌道計算が成功する可能性が高まる。
軌道算出部17は、分割空間233へのアーム13の侵入を許容してアーム13の軌道を算出可能か否か再度判定する(ステップS403)。分割空間233へのアーム13の侵入を許容しても、軌道算出部17がアーム13の軌道計算に失敗した場合(ステップS403:No)、軌道算出部17は、侵入抑制レベルが上位の分割空間232へのアーム13の侵入を許容して(ステップS404)、軌道を再計算する(ステップS402)。言い換えると、軌道算出部17は、分割空間231のみを回避するように軌道を算出する。なお、分割空間233へのアーム13の侵入を許容しても、軌道算出部17がアーム13の軌道計算が失敗した場合は、軌道算出部17は認識空間23に対するアーム13の侵入をそれ以上許容しない。つまり、アーム軌道の算出は失敗となる。
このように、本実施の形態にかかるロボットの構成によれば、認識空間算出部16が、認識空間23を分割し、各分割空間に侵入抑制レベルを設定する。そのため、侵入抑制レベルに応じて、認識空間23へのアーム13の侵入がある程度許容される。その結果、認識空間23へのアーム13の侵入を全く許容しない場合に比べて、アーム13の可動範囲が広がる。したがって、軌道算出部17がアーム軌道の計算に成功する可能性が高まる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更及び組み合わせをすることが可能である。例えば、上述の実施の形態においては、可動部としてアームを用いて説明したが、アーム以外の可動部であってもよい。さらに、ロボットの構成は上述した実施の形態に限られるものではない。把持対象物90を含む周囲環境の環境情報を取得する手段としてカメラを用いたが、これに限られるものではない。環境情報取得手段としてレーザレンジセンサや超音波センサを用いることもできる。この場合、環境情報取得手段は、環境情報として、ロボットの周囲の物体までの距離情報を取得する。そして、物体認識部15は、当該距離情報及びセンサのセンシング角度等から周囲の物体の位置情報を算出する
1、2 ロボット
11 頭部
12 ロボット本体
13 アーム
14、141、142 カメラ
15 物体認識部
16 認識空間算出部
17 軌道算出部
18 可動制御部
20〜23、231〜233 認識空間
90 把持対象物
91 障害物
131 ハンド部

Claims (26)

  1. ロボット本体と、
    前記ロボット本体に対して相対的に変位可能に連結された可動部と、
    前記ロボット本体の周囲の環境情報を取得する環境情報取得手段と、
    前記環境情報取得手段が取得した前記環境情報に基づいて、前記ロボット本体の周囲に存在する対象物を認識する物体認識手段と、
    前記物体認識手段により前記対象物を認識するために必要とする空間としての認識空間を算出する認識空間算出手段と、
    前記可動部が、前記認識空間への侵入を回避しつつ、前記対象物に向かう軌道を算出する軌道算出手段と、
    前記軌道算出手段が算出した前記軌道に基づいて、前記可動部の動きを制御する可動部制御手段と、
    を備えるロボット。
  2. 前記物体認識手段は、前記環境情報取得手段が取得した前記環境情報に基づいて、前記対象物の位置情報を算出し、
    前記認識空間算出手段は、前記対象物の前記位置情報と前記環境情報取得手段の位置情報とに基づいて、前記認識空間を算出する請求項1に記載のロボット。
  3. 前記物体認識手段は、前記対象物が移動している場合、当該対象物の移動方向を算出し、
    前記認識空間算出手段は、前記対象物の前記位置情報と前記環境情報取得手段の前記位置情報に加えて、前記対象物の前記移動方向に基づいて、前記認識空間を算出する請求項2に記載のロボット。
  4. 前記認識空間算出手段は、前記対象物の移動方向に前記認識空間を拡大するように、前記認識空間を算出する請求項3に記載のロボット。
  5. 前記物体認識手段は、前記対象物が移動している場合、当該対象物の移動速度を算出し、
    前記認識空間算出手段は、前記対象物の前記位置情報と前記環境情報取得手段の前記位置情報と前記対象物の前記移動方向に加えて、前記対象物の前記移動速度に基づいて、前記認識空間を算出する請求項3または4に記載のロボット。
  6. 前記認識空間算出手段は、前記対象物の前記移動速度に比例して前記認識空間を拡大するように、前記認識空間を算出する請求項5に記載のロボット。
  7. 前記認識空間は、前記環境情報取得手段を頂点とし、前記対象物を底面の中心とする錐体である請求項1〜6のいずれか一項に記載のロボット。
  8. 前記認識空間の底面の外縁は、前記環境情報取得手段の位置から認識される前記対象物の外形よりも大きい請求項7に記載のロボット。
  9. 前記ロボット本体には、複数の前記環境情報取得手段がそれぞれ異なる位置に設けられ、
    前記対象物の前記位置情報と複数の前記環境情報取得手段に含まれる第1の環境情報取得手段の位置情報とに基づいて前記認識空間算出手段が算出した第1の認識空間と、前記対象物の前記位置情報と、に基づいて、前記軌道算出手段が前記軌道を算出できない場合、
    前記軌道算出手段は、前記対象物の前記位置情報と複数の前記環境情報取得手段に含まれる第2の環境情報取得手段の位置情報とに基づいて前記認識空間算出手段が算出した第2の認識空間と、前記対象物の前記位置情報と、に基づいて、前記軌道を算出する請求項2〜8のいずれか一項に記載のロボット。
  10. 前記認識空間算手段は、前記認識空間を複数の空間に分割し、分割されたそれぞれの分割空間に対して、前記可動部の侵入を抑制する度合いを示す侵入抑制レベルを設定する請求項1〜9のいずれか一項に記載のロボット。
  11. 前記軌道算出手段が前記対象物の前記位置情報と前記認識空間とに基づいて、前記軌道を算出できない場合、
    前記軌道算出手段は、前記分割空間の前記侵入抑制レベルに応じて、当該分割空間への前記可動部の侵入を許容し、前記軌道を算出する請求項10に記載のロボット。
  12. 前記分割空間の前記侵入抑制レベルは、前記可動部が当該分割空間に侵入した場合に、前記環境情報取得手段による前記対象物の前記環境情報の取得処理に対して前記可動部が与える影響の大きさに基づいて決定される請求項10または11に記載のロボット。
  13. 前記ロボット本体に連結された頭部をさらに備え、
    前記環境情報取得手段は、前記頭部に設けられている請求項1〜12のいずれか一項に記載のロボット。
  14. 前記可動部は、前記対象物を把持する把持手段を有するアームである請求項1〜13のいずれか一項に記載のロボット。
  15. ロボット本体と、前記ロボット本体に対して相対的に変位可能に連結された可動部と、前記ロボット本体の周囲の環境情報を取得する環境情報取得手段と、を備えるロボットの制御方法であって、
    前記ロボット本体の前記周囲の前記環境情報を取得し、
    前記環境情報に基づいて、前記ロボット本体の周囲に存在する対象物を認識し、
    前記対象物を認識するために必要とする空間としての認識空間を算出し、
    前記可動部が、前記認識空間への侵入を回避しつつ、前記対象物に向かうような前記可動部の軌道を算出し、
    前記可動部の前記軌道に基づいて、前記可動部の動きを制御するロボットの制御方法。
  16. 前記対象物の環境情報を取得し、
    前記対象物の前記環境情報に基づいて、前記対象物の位置情報を算出し、
    前記対象物の前記位置情報と前記環境情報取得手段の位置情報とに基づいて、前記認識空間を算出する請求項15に記載のロボットの制御方法。
  17. 前記対象物が移動している場合、当該対象物の移動方向を算出し、
    前記対象物の前記位置情報と前記環境情報取得手段の前記位置情報に加えて、前記対象物の前記移動方向に基づいて、前記認識空間を算出する請求項16に記載のロボットの制御方法。
  18. 前記対象物の移動方向に前記認識空間を拡大するように、前記認識空間を算出する請求項17に記載のロボットの制御方法。
  19. 前記対象物が移動している場合、当該対象物の移動速度を算出し、
    前記対象物の前記位置情報と前記環境情報取得手段の前記位置情報と前記対象物の前記移動方向に加えて、前記対象物の前記移動速度に基づいて、前記認識空間を算出する請求項17または18に記載のロボットの制御方法。
  20. 前記対象物の前記移動速度に比例して前記認識空間を拡大するように、前記認識空間を算出する請求項19に記載のロボットの制御方法。
  21. 前記認識空間は、前記環境情報取得手段を頂点とし、前記対象物を底面の中心とする錐体である請求項15〜20のいずれか一項に記載のロボットの制御方法。
  22. 前記認識空間の底面の外縁は、前記環境情報取得手段の位置から認識される前記対象物の外形よりも大きい請求項21に記載のロボットの制御方法。
  23. 前記ロボット本体には、複数の前記環境情報取得手段がそれぞれ異なる位置に設けられ、
    前記対象物の前記位置情報と複数の前記環境情報取得手段に含まれる第1の環境情報取得手段の位置情報とに基づいて算出した第1の認識空間と、前記対象物の前記位置情報と、に基づいて、前記軌道を算出できない場合、
    前記対象物の前記位置情報と複数の前記環境情報取得手段に含まれる第2の環境情報取得手段の位置情報とに基づいて算出した第2の認識空間と、前記対象物の前記位置情報と、に基づいて、前記軌道を算出する請求項16〜22のいずれか一項に記載のロボットの制御方法。
  24. 前記認識空間を複数の空間に分割し、分割されたそれぞれの分割空間に対して、前記可動部の侵入を抑制する度合いを示す侵入抑制レベルを設定する請求項15〜23のいずれか一項に記載のロボットの制御方法。
  25. 前記対象物の前記位置情報と前記認識空間とに基づいて、前記軌道を算出できない場合、
    前記分割空間の前記侵入抑制レベルに応じて、当該分割空間への前記可動部の侵入を許容し、前記軌道を算出する請求項24に記載のロボットの制御方法。
  26. 前記分割空間の前記侵入抑制レベルは、前記可動部が当該分割空間に侵入した場合に、前記環境情報取得手段による前記対象物の前記環境情報の取得処理に対して前記可動部が与える影響の大きさに基づいて決定される請求項24または25に記載のロボットの制御方法。
JP2010196413A 2010-09-02 2010-09-02 ロボット及びその制御方法 Expired - Fee Related JP5561037B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010196413A JP5561037B2 (ja) 2010-09-02 2010-09-02 ロボット及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010196413A JP5561037B2 (ja) 2010-09-02 2010-09-02 ロボット及びその制御方法

Publications (2)

Publication Number Publication Date
JP2012051080A true JP2012051080A (ja) 2012-03-15
JP5561037B2 JP5561037B2 (ja) 2014-07-30

Family

ID=45905056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010196413A Expired - Fee Related JP5561037B2 (ja) 2010-09-02 2010-09-02 ロボット及びその制御方法

Country Status (1)

Country Link
JP (1) JP5561037B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014124735A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp ロボット制御方法、ロボット制御装置、プログラム、及びロボット
JP2015047649A (ja) * 2013-08-30 2015-03-16 トヨタ自動車株式会社 ロボット及びその制御方法
WO2019176158A1 (ja) 2018-03-14 2019-09-19 株式会社 東芝 ピッキングシステムおよびロボットアームのエンドエフェクタ
JP7325666B1 (ja) 2022-04-14 2023-08-14 三菱電機株式会社 ロボット制御装置およびピッキングシステム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009039852A (ja) * 2007-03-23 2009-02-26 Honda Research Inst Europe Gmbh 衝突回避機能を有するロボット
JP2010131751A (ja) * 2010-03-15 2010-06-17 Toyota Motor Corp 移動型ロボット

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009039852A (ja) * 2007-03-23 2009-02-26 Honda Research Inst Europe Gmbh 衝突回避機能を有するロボット
JP2010131751A (ja) * 2010-03-15 2010-06-17 Toyota Motor Corp 移動型ロボット

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014124735A (ja) * 2012-12-27 2014-07-07 Seiko Epson Corp ロボット制御方法、ロボット制御装置、プログラム、及びロボット
JP2015047649A (ja) * 2013-08-30 2015-03-16 トヨタ自動車株式会社 ロボット及びその制御方法
US10232519B2 (en) 2013-08-30 2019-03-19 Toyota Jidosha Kabushiki Kaisha Robot and method of controlling the same
WO2019176158A1 (ja) 2018-03-14 2019-09-19 株式会社 東芝 ピッキングシステムおよびロボットアームのエンドエフェクタ
JP7325666B1 (ja) 2022-04-14 2023-08-14 三菱電機株式会社 ロボット制御装置およびピッキングシステム
WO2023199478A1 (ja) * 2022-04-14 2023-10-19 三菱電機株式会社 ロボット制御装置およびピッキングシステム

Also Published As

Publication number Publication date
JP5561037B2 (ja) 2014-07-30

Similar Documents

Publication Publication Date Title
JP6420229B2 (ja) 仮想物体の画像をロボットの映像に重畳表示する映像表示装置を備えるロボットシステム
US8234011B2 (en) Movable robot
US9132548B2 (en) Robot picking system, control device and method of manufacturing a workpiece
JP7410270B2 (ja) ロボット動作計画方法、経路計画方法、把持方法及びその装置
JP6855492B2 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
JP7017025B2 (ja) 自律移動ロボット、自律移動ロボットの制御方法および制御プログラム
JP6816070B2 (ja) 干渉回避装置およびロボットシステム
JP7376268B2 (ja) 三次元データ生成装置及びロボット制御システム
JP4665857B2 (ja) アームを誘導可能な移動体およびアームを誘導する方法
JP5561037B2 (ja) ロボット及びその制御方法
WO2020183026A3 (de) Verfahren zur ansteuerung einer bearbeitunsgmaschine oder eines industrieroboters
US20200254610A1 (en) Industrial robot system and method for controlling an industrial robot
JP5609760B2 (ja) ロボット、ロボットの動作方法、及びプログラム
JP4849178B2 (ja) 移動型ロボット
JP6821987B2 (ja) ロボットシステム、ロボットシステムの制御方法、プログラム
JP2014069251A (ja) 作業部制御装置、作業ロボット、作業部制御方法、および作業部制御プログラム
JP6322949B2 (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP6765156B1 (ja) 移動体制御装置、移動体制御方法、移動体制御プログラムおよび移動体制御システム
JPWO2020161910A1 (ja) 制御装置、制御方法、プログラム
JP7138856B2 (ja) 俯瞰映像提示システム
JP2015174206A (ja) ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム
JP2005205519A (ja) ロボットハンド装置
CN111699077B (zh) 用于机器人的基于视觉的操作
KR101798883B1 (ko) 촬영부가 마련된 위치 인식 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140513

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140526

R151 Written notification of patent or utility model registration

Ref document number: 5561037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees