JP6036647B2 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
JP6036647B2
JP6036647B2 JP2013228526A JP2013228526A JP6036647B2 JP 6036647 B2 JP6036647 B2 JP 6036647B2 JP 2013228526 A JP2013228526 A JP 2013228526A JP 2013228526 A JP2013228526 A JP 2013228526A JP 6036647 B2 JP6036647 B2 JP 6036647B2
Authority
JP
Japan
Prior art keywords
sensor
arm
robot
unobserved
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013228526A
Other languages
English (en)
Other versions
JP2015085488A (ja
Inventor
耕志 寺田
耕志 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2013228526A priority Critical patent/JP6036647B2/ja
Publication of JP2015085488A publication Critical patent/JP2015085488A/ja
Application granted granted Critical
Publication of JP6036647B2 publication Critical patent/JP6036647B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボットに関し、特にアームの軌道を制御する技術に関する。
特許文献1には、対象物を認識しながらアームを対象物まで近づけることができるロボットが開示されている。このロボットは、頭部に設けられたカメラの位置情報と、把持対象物の位置情報とに基づいて、アームの侵入を抑制する認識空間を算出する。ここで、認識空間とは、アームが侵入することにより、把持対象物の認識の妨げとなる空間を意味する。そして、このロボットは、認識空間への侵入を回避したアーム軌道を算出し、アームを制御する。
特開2012−51080号公報
本願出願人は、上述したようにカメラ等のセンサによって周辺の物体を認識してアームで把持する技術において、以下に説明する課題を見出した。以下、その課題について説明する。なお、以下に説明する内容は、本願出願人が新たに検討した内容であって、従来技術を説明するものではない。
特許文献1に開示されるように、頭部にカメラが設けられ、アームを有するロボットでは、環境によってはセンサに対して隠れた領域が、観測できていない未観測領域として残ってしまう場合がある。例えば、図6に示すように、凹状の入れ物を外部から観測する場合には、入れ物の内部のうち、センサに対して周壁によって隠れた領域は未観測領域となる。しかしながら、ロボットは、目的を達成するために、未観測領域であってもアームを侵入させる必要がある場合がある。例えば、図6に示すように、把持対象物体(把持物体)が未観測領域に存在するような場合である。
この場合、未観測領域に観測できてない障害物が存在していると、把持対象物体をアームで把持しようとして未観測領域にアームを侵入させたときに、図7に示すように、アームが障害物とぶつかってしまう可能性がある。このように、アームが障害物にぶつかってしまうと、アーム(特に指のような繊細な部分)が破損してしまう可能性がある。
そこで、本願出願人は、このような環境では手先(アームの先端)に、別途、センサを設けて、頭部のセンサでは未観測領域となる領域を観測することが有効であると考えた。図8に、手先にセンサを設けた場合の様子を示している。ここでは、手先に設けられるセンサの観測範囲は、図8に示すように、一定範囲に限られているものとする。これによれば、手先のセンサによって、頭部のセンサでは未観測領域となる領域の一部を観測領域とすることができ、図7に示す場合には観測できていなかった障害物も観測することができようになる。その結果、ロボットは、手先のセンサの観測結果に基づいて、障害物に接触する前に事前にアームを停止させたり、アームの軌道を障害物を避けるように修正することが可能となる。
しかしながら、アームの手先にセンサを設けた場合であっても、未観測領域へのアームの侵入経路によっては、手先のセンサで未観測領域の観測を十分に行うことができず、アームの衝突を招いてしまうケースがある。
図9に、衝突可能性を低減できるケース(図9の「ケース1」)と、衝突可能性を低減することができないケース(図9の「ケース2」)を示している。図9の矢印は、アームの移動方向を示している。
ケース1では、手先のセンサで観測可能な方向に向かうように、アームを未観測領域に侵入させている。よって、ケース1では、アームを侵入させる方向について、未観測領域を観測することができるため、アームの侵入経路における未観測領域の障害物を事前に観測することができ、障害物と衝突する可能性を低減することができる。
しかしながら、ケース2では、手先のセンサで観測できない方向に向かうように、アームを未観測領域に侵入させている。よって、ケース2では、アームを侵入させる方向について、未観測領域を観測することができないため、アームの侵入経路における未観測領域の障害物を事前に観測することができず、障害物と衝突する可能性が高い。
ここで、対策の1つとして、手先に搭載するセンサを、観測範囲が所定範囲に制限されず、全方位について周辺の物体が観測可能なセンサとすることも考えられる。しかしながら、センサの観測範囲とコストはトレードオフの関係にある。すなわち、全方位について周辺の物体を観測可能とするためには、そのような機能を有する高価なセンサを搭載する、又は、観測範囲が制限されたセンサを全方位を計測可能となるように多数搭載する必要があり、非常に高コストとなってしまうという問題がある。
本発明は、上述した知見に基づいてなされたものであって、低コストで障害物との接触の可能性を低減することができるロボットを提供することを目的とする。
本発明の第1の態様に係るロボットは、ロボット本体と、前記ロボット本体に取り付けられたアームと、前記ロボット本体に取り付けられ、周辺を観測する第1のセンサと、前記アームの先端部に取り付けられ、所定範囲に制限された観測範囲において周辺を観測する第2のセンサと、前記第1のセンサ及び前記第2のセンサの観測結果に基づいて、前記アームの軌道を制御する制御部と、を備え、前記制御部は、前記第1のセンサによる未観測領域に前記アームを侵入させる場合、前記第2のセンサの観測方向のベクトルと前記アームの前記未観測領域への侵入方向のベクトルとの内積が、より小さくなるように、前記アームの前記未観測領域への軌道を決定するものである。
上述した本発明の各態様によれば、低コストで障害物との接触の可能性を低減することができるすることができるロボットを提供することができる。
実施の形態1に係るロボットの外部構成図である。 実施の形態1に係るロボットの内部構成図である。 実施の形態1における領域の分類を示す図である。 侵入観測度の高い場合におけるアームの軌道を示す図である。 侵入観測度の低い場合におけるアームの軌道を示す図である。 ロボットの一例を示す図である。 ロボットの一例を示す図である。 手先にセンサを備えたロボットの一例を示す図である。 衝突可能性が低いケースと衝突可能性が高いケースを示す図である。
以下に図面を参照しながら、本発明の好適な実施の形態について説明する。以下の実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、それに限定されるものではない。また、以下の記載及び図面では、説明の明確化のため、当業者にとって自明な事項等については、適宜、省略及び簡略化がなされている。
<発明の実施の形態>
まず、本実施の形態1に係るロボット1について説明する。図1を参照して、本実施の形態1に係るロボット1の外部構成について説明する。図1は、本実施の形態1に係るロボット1の外部構成図である。
ロボット1は、ロボット本体10、移動台車20、アーム30、及び頭部40を有している。ロボット1は、典型的には、家庭内において人が行う作業を、人に代わり実行するための生活支援ロボットである。ロボット1は、例えば、任意の場所に移動し、物を拾い人に届ける、窓を開ける等の作業を実行する。
移動台車20は、その上方でロボット本体10を支持するように、その上部がロボット本体10の下部に連結されている。移動台車20は、その下部に設けられた車輪(図示せず)を駆動することでロボット1を移動させる。
アーム30は、ロボット本体10の前方に突出するように、ロボット本体10の前部に接続されている。アーム30は、多関節のアームである。アーム30は、その先端部(アーム30の最先端のリンク)に、任意の物体を把持できるハンド(把持部)60が取り付けられている。これにより、ロボット1は、アーム30の各関節の角度を調整することで、ハンド60を所望の位置に移動させ、その位置に存在する物体を把持することができる。
また、アーム30は、ハンド60の前方を観測可能となるように、その先端部にセンサ70が取り付けられている。センサ70は、ロボット1の周辺の環境を観測し、観測した環境を示す環境情報を生成する。センサ70は、観測可能な角度範囲が所定の角度に制限されている。しかしながら、センサ70は、全方位について観測可能なセンサと比較して安価である。
ここで、センサ70がアーム30に取り付けられる態様は、図1に示す態様のみに限定されるものではない。しかしながら、好ましくは、センサ70は、図1に示すように、ハンド60の開閉部分の前方(ハンド60のアーム30への取り付け側とはハンド60を挟んで反対方向)が、その観測範囲に含まれるようにアーム30に取り付けられるようにするとよい。物体を把持する場合には、最終的に、ハンド60を開いて、ハンド60をその前方に進めて物体を把持することになる。そのため、上記のようにセンサ70を取り付けることで、物体を把持する際に障害物を観測する可能性を向上することができる。
頭部40は、ロボット本体10の上方でロボット本体10に支持されるように、ロボット本体10の上部に連結されている。頭部40は、その前方を観測可能となるように、その前部にセンサ50が取り付けられている。センサ50は、ロボット1の周辺の環境を観測し、観測した環境を示す環境情報を生成する。なお、センサ50は、例えばロボット1の2つの目のそれぞれに取り付けることでロボット1に2つ備えるようにしてもよく、3つ以上備えるようにしてもよい。ここでは、説明の簡略化のため、センサ50を1つだけ有する場合について説明する。
センサ50は、測定可能な角度範囲が所定の角度に制限されている。一方で、頭部40とロボット本体10との連結部は、頭部40を動作可能となるように多自由度の関節構造となっている。例えば、関節構造として少なくとも2自由度以上を有するようにすることで、頭部40は、少なくとも上下左右に動作させることが可能とされている。これにより、センサ50の測定可能な角度範囲が限られていても、頭部40を動作させることで広範囲を観測することを可能としている。
センサ50は、ロボット1の周辺の物体を観測可能なセンサであれば、3次元距離センサ及びカメラ等のセンサのうち、任意のセンサを利用するようにしてよい。センサ50として3次元距離センサを用いる場合、センサ50は、ロボット1からロボット1の周辺の物体までの距離を測定して、ロボット1の周辺の物体までの距離を示す距離情報を環境情報として生成する。ここで、3次元距離センサは、光学式、超音波式、及びレーザ光線式等の各種方式のうち、任意の方式のものを使用するようにしてよい。また、センサ50にカメラを用いる場合、センサ50は、ロボット1の周辺を撮像して、ロボット1の周辺の画像を示す画像情報を環境情報として生成する。ここで、カメラは、ステレオカメラ及びRGBDカメラ等のうち、カメラを使用するようにしてよい。すなわち、カメラとして、RGBDカメラのように、画像情報に加えて、物体までの距離(深度)を示す距離情報も環境情報として生成するカメラを使用するようにしてもよい。
操作端末9は、ロボット1と無線又は有線によって通信可能な情報処理端末である。本実施の形態では、操作端末9とロボット1とが無線によって通信する例について説明する。操作端末9は、デスクトップPCのような据え置き型の情報処理端末であってもよいが、好ましくは、ユーザが生活空間において制限なくロボット1を操作可能とするために、携帯型の情報処理端末であるとよい。携帯型の情報処理端末は、スマートフォン、又はタブレット端末等である。
ユーザは、操作端末9によってロボット1に対して、上述したような人が行う作業を指示することができる。ロボット1は、ユーザから指示された作業をユーザに代わり実行する。このようにして、ロボット1によってユーザの生活が支援される。
上述した構成により、ロボット1は、ユーザから指示された作業を実行するにあたり、センサ50によってロボット1の周辺の環境を観測し、観測した環境における障害物を避けて行動する。
続いて、図2を参照して、本実施の形態1に係るロボット1の内部構成について説明する。図2は、本実施の形態1に係るロボット1の内部構成図である。
ロボット1は、制御部11、記憶部12、通信部13、アクチュエータ21a、21b、車輪22a、22b、アクチュエータ31a、31b、角度センサ(ポテンショメータ)32a、32b、及びアクチュエータ41を有する。制御部11、記憶部12、及び通信部13は、ロボット本体10に含まれる。アクチュエータ21a、21b及び車輪22a、22bは、移動台車20に含まれる。アクチュエータ31a、31b及び角度センサ32a、32bは、アーム30に含まれる。アクチュエータ41は、頭部40に含まれる。
制御部11は、ロボット1を統括的に制御する。制御部11は、CPU(Central Processing Unit)を有しており、そのCPUが記憶部12に格納されたプログラムを実行することで、制御部11としての各種処理を実現する。すなわち、このプログラムは、制御部11が有するCPUに制御部11としての各所処理を実行させるためのコードを含んでいる。
記憶部12は、上記プログラムや、その他の制御部11が使用する各種情報が格納される。記憶部12は、上記プログラムや各種情報を格納可能な記憶装置の少なくとも1つを含む。記憶装置として、例えば、メモリ及びハードディスク等の少なくとも1つを任意に使用してよい。
通信部13は、操作端末9に送信するために制御部11から出力された情報を、無線信号に変換し、操作端末9に送信する。通信部13は、操作端末9から受信した無線信号を、制御部11で処理可能な情報となるように電気信号に変換し、制御部11に出力する。
アクチュエータ21a、21bは、ロボット1の車輪22a、22bを駆動する。アクチュエータ21aは、制御部11からの制御によって駆動され、車輪22aを回転させる。アクチュエータ21bは、制御部11からの制御によって駆動され、車輪22bを回転させる。
車輪22a及び車輪22bは、上述した移動台車20の下部に取り付けられた車輪に該当する。すなわち、制御部11は、アクチュエータ21a、21bを制御して、車輪22a、22bを回転させることでロボット1を移動させる。
アクチュエータ31a、31bは、ロボット1のアーム30を駆動する。アクチュエータ31a、31bは、制御部11からの制御によって駆動され、アーム30を動作させる。アクチュエータ31a、31bのそれぞれは、アーム30の関節として設けられている。なお、ここでは、アーム30が、アクチュエータ31aとアクチュエータ31bとの2つの関節を有する例について説明するが、アーム30の関節数は、これに限られない。
角度センサ32a、32bのそれぞれは、アーム30の各関節の角度を検出するセンサである。角度センサ32aは、アクチュエータ31aに取り付けられており、アクチュエータ31aの角度を検出する。角度センサ32aは、検出した角度を示す角度信号を制御部11に出力する。角度センサ32bは、アクチュエータ31aに取り付けられており、アクチュエータ31bの角度を検出する。角度センサ32bは、検出した角度を示す角度信号を制御部11に出力する。これにより、制御部11は、角度センサ32a、32bのそれぞれから出力された角度信号が示す角度に基づいて、アーム30の状態を認識することが可能となる。
アクチュエータ41は、ロボット1の頭部40を駆動する。アクチュエータ41は、制御部11からの制御によって駆動され、頭部40を動作させる。アクチュエータ41は、例えば、多自由度(2自由度以上の所定自由度)のアクチュエータとして、頭部40を上下左右に動作可能としてよい。また、頭部40を駆動するアクチュエータ41を複数有するようにして、頭部40の多自由度での駆動を実現するようにしてもよい。また、アクチュエータ41として1自由度のアクチュエータを1つだけ有するようにして、頭部40が上下又は左右のみに動作するようにされていてもよい。
ハンド60は、制御部11からの制御によって駆動され、物体を把持もしくは解放する。ここで、制御部11は、ハンド60によって把持対象物体を把持しようとする場合、センサ50、70から出力された環境情報に基づいて認識した物体(障害物)と、角度センサ32a、32bのそれぞれから出力された角度信号が示す角度に基づいて認識するアーム30の状態とに基づいて、アーム30が障害物と接触しないように、各アクチュエータ31a、31b、21a、21bを駆動し、ハンド60を把持対象物体まで導く。
続いて、図3を参照して、本実施の形態に係るロボット1の領域分類方法について説明する。図3は、本実施の形態における領域の分類を示す図である。
図3に示すように、ロボット1は、センサ50及びセンサ70によって観測した環境となるロボット1の周辺の空間を、次の3つの領域のうちのいずれかの領域に分類する。
禁止領域 :障害物があることを観測できている領域
未観測領域 :障害物があるか否かが観測できていない領域
自由領域 :障害物がないことを観測できている領域
具体的には、制御部11は、ロボット1の周辺の空間において、センサ50又はセンサ70によって観測されており、かつ、障害物を検出した領域を禁止領域として判定する。例えば、制御部11は、観測したセンサ50又はセンサ70に対して奥行き方向に、障害物を検出した位置から所定の距離の範囲となる領域を禁止領域として判定する。これにより、例えば、図6に示すように、凹状の入れ物を外部から観測した場合には、そのセンサ50又はセンサ70側の周壁が禁止領域として決定される。
また、制御部11は、ロボット1の周辺の空間において、センサ50及びセンサ70によって観測していない領域を未観測領域として判定する。例えば、制御部11は、センサ50及びセンサ70によって観測していない領域や、禁止領域よりもさらにセンサ50及びセンサ70に対して奥行き方向となる領域を未観測領域として判定する。これにより、例えば、図6に示すように、凹状の入れ物を外部から観測した場合には、センサ50及びセンサ70に対して周壁の後方にあたる領域が未観測領域として判定される。なお、過去の観測で、禁止領域か自由領域かが判定されている領域については、その判定結果を維持するようにしてもよい。
また、制御部11は、ロボット1の周辺の空間において、センサ50及びセンサ70によって観測されており、かつ、障害物が検出されなかった領域を自由領域として判定する。例えば、制御部11は、障害物が検出される位置までの空間を自由領域として判定する。これにより、例えば、図6に示すように、凹状の入れ物を外部から観測した場合には、その周壁までの空間が自由領域として判定される。
ここで、制御部11は、ロボット1の周辺の空間を分割した領域のそれぞれが、上記3つの分類のいずれの領域に属するかを示す情報を空間情報として記憶部12に記憶することで、ロボット1の周辺の空間の観測結果を管理する。例えば、単純には、空間情報として三次元配列を記憶部12に用意してもよい。この場合、この三次元配列の各要素は、ロボット1の周辺の空間を格子状に分割した領域のそれぞれに対応する。そして、制御部11は、ロボット1の周辺の空間を分割した複数の領域において、ある領域が上記3つの分類におけるいずれの領域となるかを判定した場合、その領域に対応する三次元配列の要素に、判定結果となる分類を示す値を格納する。この値は、禁止領域、未観測領域、及び自由領域のうちのいずれの領域であるかを一意に特定することができる値であれば、任意の値を予め定めるようにしてよい。
これにより、制御部11は、ロボット1を、ロボット1の周辺の空間を分割した複数の領域のうち、ある領域に侵入しようとする場合、空間情報のその領域に対応する値を参照することで、その領域が、禁止領域、未観測領域、及び自由領域のうちのいずれの領域であるかを認識することができる。
続いて、図4及び図5を参照して、本実施の形態に係るロボット1の動作方法について説明する。図4は、侵入観測度の高い場合におけるアームの軌道を示す図である。図5は、侵入観測度の低い場合におけるアームの軌道を示す図である。
図4及び図5では、頭部40のセンサ50での観測結果として、禁止領域、未観測領域、及び自由領域と、未観測領域中に存在する把持対象物体(目標物体)を示している。すなわち、ここでは、図4及び図5に示すように、未観測領域中に存在する把持対象物体を、ロボット1が把持しに行く場合について説明する。
まず、把持対象物体を把持しに行く場合、制御部11は、複数の侵入経路を候補として算出する。この複数の侵入経路の候補は、一般的に考えられる任意の方法によって算出するようにしてよい。次に、制御部11は、算出した複数の侵入経路について、図4及び図5に示すように侵入時観測度fを評価し、侵入時観測度fの最も高い侵入経路を、アーム30の未観測領域への侵入経路として決定する。侵入時観測度fとは、アーム30をセンサ50の未観測領域に侵入させる場合に、アーム30の侵入経路について未観測領域をセンサ70で観測可能な度合となる。すなわち、侵入時観測度fが高い侵入経路ほど、その侵入経路に障害物が存在する場合に、その障害物を発見できる可能性が高くなる。そして、制御部11は、決定した侵入経路でアーム30を未観測領域に侵入させて、把持対象物体を把持するように、アクチュエータ31a、31b、21a、21bを駆動する。
ここで、侵入時観測度fは、次式(1)で示すように、センサ50の未観測領域にアーム30が侵入するときにおけるセンサ70の観測方向のベクトルviと、センサ50の未観測領域にアーム30が侵入するときにおけるアーム30の侵入方向のベクトルvcとの内積として算出する。
Figure 0006036647
ここで、センサ70の観測方向のベクトルviの大きさは、所定の固定値とすればよい。また、センサ70の観測方向(ベクトルviの方向)は、センサ70で観測可能な角度範囲のうち、任意の方向としてよいが、好ましくは、センサ70で観測可能な角度範囲のうち、中心方向とするとよい。
アーム30の侵入方向のベクトルvcの大きさは、所定の固定値とすればよいが、センサ50の未観測領域にアーム30が侵入するときにおけるアーム30の速度に応じた可変値(例えば速度に比例又は反比例した値)としてもよい。また、アーム30の侵入方向(ベクトルvcの方向)は、アーム30のうち、最初に未観測領域に侵入する部分もしくは任意の部分が未観測領域に侵入する際におけるその部分の侵入方向としてよいが、好ましくは、アーム30のうち、センサ70が取り付けられる先端部(ハンド60を含めてもよい)が未観測領域に侵入する際における先端部の侵入方向とするとよい。
これによれば、図4に示すように、センサ70の観測方向のベクトルviの方向と、アーム30の侵入方向のベクトルvcの方向が近い場合には、侵入時観測度fが大きく算出される。一方、図5に示すように、センサ70の観測方向のベクトルviの方向と、アーム30の侵入方向のベクトルvcの方向が全く異なる場合には、侵入時観測度fが小さく算出される。
よって、例えば、侵入経路の候補として、図4に示す侵入経路と図5に示す侵入経路がある場合には、図4に示す侵入経路が選択されることになる。これによれば、図4に示すように、図5と比較して、アーム30の侵入経路(軌道)について、センサ50の未観測領域をアーム30の先端部のセンサ70によって、より観測することができる侵入経路が選択されることになる。
以上に説明したように、本実施の形態に係るロボット1は、センサ50(第1のセンサ)による未観測領域にアーム30を侵入させる場合、センサ70(第2のセンサ)の観測方向のベクトルとアーム30の未観測領域への侵入方向のベクトルとの内積が、より小さくなるように、アーム30の未観測領域への軌道を決定するようにしている。
これによれば、アーム30の軌道として、センサ50の未観測領域をアーム30の先端部のセンサ70によって、より観測することができる軌跡を決定することができる。
<発明の他の実施の形態>
上記実施の形態の説明では、侵入観測度fを複数の侵入経路から、障害物との接触の可能性を低減することができる侵入経路を選択するために使用する例について説明したが、これに限られない。例えば、アーム30のオンライン軌道計画における指標の一つとして利用するようにしてもよい。
例えば、ポテンシャル法によって、アーム30のオンライン軌道計画を行う場合には、侵入時観測度fが小さくなる方向のポテンシャル場の勾配よりも、侵入時観測度fが大きくなる方向のポテンシャル場の勾配の方が、急勾配となるようにポテンシャル場を算出するようにしてもよい。
なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
1 ロボット
9 操作端末
10 ロボット本体
20 移動台車
30 アーム
40 頭部
50、70 センサ
60 ハンド
11 制御部
12 記憶部
13 通信部
21a、21b アクチュエータ
22a、22b 車輪
23a、23b 角度センサ
31a、31b アクチュエータ
32a、32b 角度センサ
41 アクチュエータ

Claims (1)

  1. ロボット本体と、
    前記ロボット本体に取り付けられたアームと、
    前記ロボット本体に取り付けられ、周辺を観測する第1のセンサと、
    前記アームの先端部に取り付けられ、所定範囲に制限された観測範囲において周辺を観測する第2のセンサと、
    前記第1のセンサ及び前記第2のセンサの観測結果に基づいて、前記アームの軌道を制御する制御部と、を備え、
    前記制御部は、前記第1のセンサによる未観測領域に前記アームを侵入させる場合、前記第2のセンサの観測方向のベクトルと前記アームの前記未観測領域への侵入方向のベクトルとの内積が、より小さくなるように、前記アームの前記未観測領域への軌道を決定する、
    ことを特徴とするロボット。
JP2013228526A 2013-11-01 2013-11-01 ロボット Active JP6036647B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013228526A JP6036647B2 (ja) 2013-11-01 2013-11-01 ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013228526A JP6036647B2 (ja) 2013-11-01 2013-11-01 ロボット

Publications (2)

Publication Number Publication Date
JP2015085488A JP2015085488A (ja) 2015-05-07
JP6036647B2 true JP6036647B2 (ja) 2016-11-30

Family

ID=53048833

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013228526A Active JP6036647B2 (ja) 2013-11-01 2013-11-01 ロボット

Country Status (1)

Country Link
JP (1) JP6036647B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10747704B2 (en) 2018-05-11 2020-08-18 Toyota Jidosha Kabushiki Kaisha Electronic unit having a USB host connected to a USB device
US11318617B2 (en) 2018-05-25 2022-05-03 Toyota Jidosha Kabushiki Kaisha Manipulator and moving robot

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6743526B2 (ja) * 2016-07-01 2020-08-19 日本電気株式会社 情報処理装置、情報処理方法、及び、プログラム
US11926057B2 (en) 2018-06-14 2024-03-12 Yamaha Hatsudoki Kabushiki Kaisha Robot system
JP7421076B2 (ja) 2019-12-26 2024-01-24 株式会社デンソーウェーブ ロボットの制御装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57194895A (en) * 1981-05-21 1982-11-30 Tokyo Shibaura Electric Co Monitoring device for manipulator
JP2005125475A (ja) * 2003-10-24 2005-05-19 Sunao Kitamura 一回の成功試行で最良経路を学習するアーキテクチャ
JP4506685B2 (ja) * 2006-02-17 2010-07-21 トヨタ自動車株式会社 移動型ロボット
JP4984576B2 (ja) * 2006-03-08 2012-07-25 トヨタ自動車株式会社 ロボットハンドによる把持制御方法
JP2007319938A (ja) * 2006-05-30 2007-12-13 Toyota Motor Corp ロボット装置及び物体の三次元形状の取得方法
JP5609760B2 (ja) * 2011-04-27 2014-10-22 トヨタ自動車株式会社 ロボット、ロボットの動作方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10747704B2 (en) 2018-05-11 2020-08-18 Toyota Jidosha Kabushiki Kaisha Electronic unit having a USB host connected to a USB device
US11318617B2 (en) 2018-05-25 2022-05-03 Toyota Jidosha Kabushiki Kaisha Manipulator and moving robot

Also Published As

Publication number Publication date
JP2015085488A (ja) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6036647B2 (ja) ロボット
Duisterhof et al. Sniffy bug: A fully autonomous swarm of gas-seeking nano quadcopters in cluttered environments
US9333650B2 (en) Method and system for contact detection and contact localization along continuum robots
US8352074B2 (en) Path planning apparatus and method of robot
JP2019522301A (ja) 経路を自律走行するようにロボットを訓練するためのシステムおよび方法
JP5764795B2 (ja) 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
US20190321977A1 (en) Architecture and methods for robotic mobile manipluation system
WO2016040862A2 (en) Integration of auxiliary sensors with point cloud-based haptic rendering and virtual fixtures
US10232519B2 (en) Robot and method of controlling the same
CN111319039B (zh) 机器人
JP2012187697A (ja) ロボットの軌道計画システム及び軌道計画方法
Liu et al. A context-aware safety system for human-robot collaboration
Cherubini et al. A redundancy-based approach for obstacle avoidance in mobile robot navigation
Zakhar'eva et al. Distributed control of multiple non-holonomic robots with sector vision and range-only measurements for target capturing with collision avoidance
Lin et al. Robust unmanned surface vehicle navigation with distributional reinforcement learning
KR20220108761A (ko) 로봇 태스크에 힘 벡터를 할당하기 위한 방법 및 시스템
JP6528641B2 (ja) 自己位置推定方法
You et al. A novel obstacle avoidance method for low-cost household mobile robot
Sartoretti et al. Autonomous decentralized shape-based navigation for snake robots in dense environments
Radmard et al. Overcoming occlusions in eye-in-hand visual search
Byrne et al. An intelligent configuration-sampling based local motion planner for robotic manipulators
Teoh et al. Reinforcement learning for mobile robot’s environment exploration
Chaabani et al. Motion planning and controlling algorithm for grasping and manipulating moving objects in the presence of obstacles
WO2023286138A1 (ja) ロボット制御システム、ロボットシステム、ロボット制御方法、およびロボット制御プログラム
Papageorgiou et al. A controller for reaching and unveiling a partially occluded object of interest with an eye-in-hand robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R151 Written notification of patent or utility model registration

Ref document number: 6036647

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151