JP6332128B2 - 物体認識装置、及び物体認識方法 - Google Patents

物体認識装置、及び物体認識方法 Download PDF

Info

Publication number
JP6332128B2
JP6332128B2 JP2015089608A JP2015089608A JP6332128B2 JP 6332128 B2 JP6332128 B2 JP 6332128B2 JP 2015089608 A JP2015089608 A JP 2015089608A JP 2015089608 A JP2015089608 A JP 2015089608A JP 6332128 B2 JP6332128 B2 JP 6332128B2
Authority
JP
Japan
Prior art keywords
information
area
region
category
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015089608A
Other languages
English (en)
Other versions
JP2016206066A (ja
Inventor
達 礒部
達 礒部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015089608A priority Critical patent/JP6332128B2/ja
Publication of JP2016206066A publication Critical patent/JP2016206066A/ja
Application granted granted Critical
Publication of JP6332128B2 publication Critical patent/JP6332128B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、ロボットの作業環境内の物体を認識する物体認識装置、及び物体認識方法に関するものである。
作業環境内に存在する物体の形状情報を取得し、該取得した形状情報と、予め記憶する形状情報などと、を照合することで、物体を認識する物体認識装置が知られている(特許文献1参照)。
特開2010−060451号公報
作業環境内に存在する対象物体を物体候補とし、この物体候補の形状情報を取得し照合を行っている。このため、照合を行う物体候補の数が多くなると物体認識に多くの時間を要することとなる。
本発明は、このような問題点を解決するためになされたものであり、物体認識を高速で行うことができる物体認識装置、及び物体認識方法を提供することを主たる目的とする。
上記目的を達成するための本発明の一態様は、ロボットの作業環境内に複数の領域が予め設定され、該各領域内の物体を認識する物体認識装置であって、前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶する記憶手段と、認識対象の物体の距離情報を取得する距離情報取得手段と、前記物体が存在する領域を特定する領域特定手段と、前記距離情報取得手段により取得された物体の距離情報に基づいて、前記領域内の物体を物体候補として検出する候補検出手段と、前記候補検出手段により検出された物体候補を、前記記憶手段により記憶された情報を用いて、前記領域特定手段により特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する認識手段と、を備える、ことを特徴とする物体認識装置である。
この一態様において、前記認識手段は、前記候補検出手段により検出された物体候補を、前記領域特定手段により特定された領域の物体カテゴリに属する物体の形状情報と比較し、その後、該領域の物体カテゴリに属しない物体の形状情報と比較することにより認識してもよい。
この一態様において、前記記憶手段は、前記設定された領域と、前記距離情報を取得する際のロボットの位置情報と、を対応付けて記憶しており、前記距離情報取得手段が、前記領域に対応する位置で前記認識対象の物体の距離情報を取得してもよい。
この一態様において、前記作業環境内の領域には、該領域の位置を示す目印情報が設定されており、前記領域特定手段は、前記目印情報に基づいて、前記領域を特定してもよい。
上記目的を達成するための本発明の一態様は、ロボットの作業環境内に複数の領域が予め設定され、該各領域内の物体を認識する物体認識方法であって、前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶するステップと、認識対象の物体の距離情報を取得するステップと、
前記物体が存在する領域を特定するステップと、前記取得された物体の距離情報に基づいて、前記領域内の物体を物体候補として検出するステップと、前記検出された物体候補を、前記記憶された情報を用いて、前記特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識するステップと、を含む、ことを特徴とする物体認識方法であってもよい。
本発明によれば、物体認識を高速で行うことができる物体認識装置、及び物体認識方法を提供することができる。
実施形態に係るロボットの概略的な構成を示す斜視図である。 実施形態に係るロボットの概略的なシステム構成を示すブロック図である。 実施形態に係る物体認識装置の概略的なシステム構成を示すブロック図である。 作業環境内に設定された各領域の一例を示す図である。 テーブル情報の一例を示す図である。 作業環境内の各領域に設定された目印情報の一例を示す図である。 実施形態に係る物体認識方法の処理フローの一例を示すフローチャートである。
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の一実施形態に係るロボットの概略的な構成を示す斜視図である。本実施形態に係るロボット1は、例えば、自律的に作業を行う自律型作業ロボットとして構成されている。本実施形態に係る物体認識装置は、上述したような自律型作業ロボットに搭載され、物体を認識する。
図2は、本発明の一実施形態に係るロボットの概略的なシステム構成を示すブロック図である。本実施形態に係るロボット1は、ロボット本体2と、ロボット本体2を移動させる移動装置3と、物体を把持し移動させる把持操作装置4と、移動装置3及び把持操作装置4を制御する制御装置5と、距離センサ6と、物体認識装置7と、を備えている。
移動装置3は、制御装置5からの制御信号に応じて、例えば、モータなどを駆動させることで複数の車輪を回転させ、ロボット本体2を所望の位置に移動させる。
把持操作装置4は、例えば、物体を把持する把持部41と、手首関節、肘関節、肩関節などの関節部42を介して連結される複数のリンク43と、各関節部42を駆動するモータなどの複数のアクチュエータと、からなる多関節型アームとして構成されている。
制御装置5は、操作端末8を介して入力された操作信号に基づいて移動装置3及び把持操作装置4を制御することで、ロボット1に作業を実行させる。操作端末8は、例えば、タブレット端末、PC(PersonalComputer)、スマートフォンなどの携帯端末である。操作端末8にはタッチパネルやメカニカルスイッチが設けられている。ユーザは、これらタッチパネルやメカニカルスイッチなどを操作することで、ロボット1を操作するための操作情報を操作端末8に入力することができる。なお、操作端末8にはマイクが設けられ、マイクを介して操作情報が操作端末8に入力されてもよい。
操作端末8と制御装置5は、無線あるいは有線で通信接続されており、相互にデータの送受信を行う。操作端末8は、ユーザにより入力された作業情報に応じた操作信号を制御装置5に出力する。なお、操作情報は、操作端末8を介さずに、ロボット1に直接的に入力されてもよい。
制御装置5及び物体認識装置7は、例えば、演算処理等を行うCPU(Central Processing Unit)5a、7a、CPU5a、7aによって実行される演算プログラム等が記憶されたROM(Read Only Memory)やRAM(Random Access Memory)からなるメモリ5b、7b、外部と信号の入出力を行うインターフェイス部(I/F)5c、7cなどからなるマイクロコンピュータを中心にして、ハードウェア構成されている。CPU5a、7aメモリ5b、7b及びインターフェイス部5c、7cは、データバスなどを介して相互に接続されている。
距離センサ6は、作業環境内にある物体の距離情報を検出する。距離センサ6は、例えば、ロボット1の頭部などに搭載されているが、これに限られない。距離センサ6は、ロボット1が動作する作業環境内(例えば、壁や天井)に設置されていてもよい。これにより、ロボット1を移動させることなく、広い視野で物体の距離情報を検出することができる。したがって、後述の作業環境内の領域の特定を高速に行うことができる。
距離センサ6は、ロボット1及び動作環境内に複数設けられていてもよい。距離センサ6は、例えば、カメラ(RGB−Dカメラ、ステレオカメラ)、レーザレンジファインダ、超音波センサ、3次元距離センサなどのセンサである。
ところで、ロボットの作業環境内には多種多様の物体が存在し、その位置及び姿勢も多種多様である。従来は、このような多種多様の物体を物体候補とし、この物体候補の形状情報を取得し、予め設定された形状情報と照合を行って、各物体の認識を行っている。このため、照合を行う物体候補の数が多くなると物体認識に多くの時間を要するとう問題が生じることとなる。
これに対して、本実施形態に係る物体認識装置7は、前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶し、物体の距離情報に基づいて、特定された領域内の物体を物体候補として検出し、検出された物体候補を、記憶されたテーブル情報を用いて、特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する。
これにより、特定された各領域内で検出された物体候補は、その領域の物体カテゴリに属することが推定できる。したがって、各領域内に絞り込んで検出された物体候補をその各領域の物体カテゴリの物体情報と照合するだけで、容易に認識できる。すなわち、物体認識を高速で行うことができる。また、誤認識を低減することができるため、各物体の位置、姿勢の推定精度も向上させることができる。
図3は、本実施形態に係る物体認識装置の概略的なシステム構成を示すブロック図である。本実施形態に係る物体認識装置7は、距離情報取得部71と、記憶部72と、領域特定部73と、候補検出部74と、物体認識部75と、を備えている。
距離情報取得部71は、距離情報取得手段の一具体例である。距離情報取得部71は、距離センサ6を用いて、物体の距離情報(画像情報を含む)を取得する。なお、距離情報とは、例えば、距離センサ6の視野(又はスキャン範囲)にある物体のセンサの座標系から見た位置情報(x、y、z)によって取得されるものである。また、距離情報は、単眼カメラなどによって取得されるなどの、公知の手法により取得される。距離情報取得部71は、取得した物体の距離情報を制御装置5、領域特定部73、候補検出部74、及び物体認識部75に出力する。
記憶部72は、記憶手段の一具体例である。記憶部72は、例えば、メモリ7bで構成されている。ロボット1の作業環境内には、複数の領域が予め設定されている。作業環境内には、例えば、図4に示す如く、テーブル上に皿を置くための皿領域と、グラスを置くためのグラス領域と、廃棄物を置くための廃棄物領域と、が設定されている。記憶部72は、例えば、設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報を含み、該物体に対して作業を行うのに必要な物体情報と、を夫々対応付けたテーブル情報を記憶している。
物体情報は、例えば、物体の形状情報(サイズ、重量、形状、特徴など)、物体の位置姿勢、物体の把持方法、物体の把持位置、物体に対する把持力、物体に対する作業内容、などの物体に対して作業を行うのに必要な情報を含む。
記憶部72は、例えば、図5に示す如く、各領域(皿領域、グラス領域、廃棄物領域)の物体カテゴリ(皿カテゴリ、グラスカテゴリ、廃棄物カテゴリ)と、該各物体カテゴリに属する各物体(大皿、小皿、角皿、ジョッキ、グラス小、廃棄物一般)に対する物体情報と、を夫々対応付けたテーブル情報を記憶している。
記憶部72に記憶されたテーブル情報は、例えば、操作端末8などを介して、ユーザが任意に設定、及び変更できるように構成されている。
領域特定部73は、領域特定手段の一具体例である。領域特定部73は、距離情報取得部71により取得された距離情報と、記憶部72に予め記憶された環境地図情報と、に基づいて、物体が位置する各領域を特定する。環境地図情報は、ロボット1が作業を行う作業環境内の地図(障害物や移動路の位置情報)を示す情報である。環境地図情報には、上述した複数の領域が予め設定されている。なお、図4及び図5に示す一例では、テーブル上の各領域及び物体カテゴリについて説明しているが、これに限定されない。例えば、床、デスク、ローテーブルなどの任意の対象物について、各領域及び物体カテゴリが設定されてもよい。
テーブル情報の物体情報は、各領域に対応して、認識対象の物体の距離情報を取得するのに最適なロボット1の位置を含んでいてもよい。ここで、最適なロボット1の位置とは、例えば、物体がテーブル上に置かれている場合、テーブル全体が見渡せて、物体になるべく近くなる位置、や物体の認識精度が安定する位置である。距離情報取得部71が距離情報を取得する際に、制御装置5は、上記テーブル情報の物体情報に基づいて移動装置3を制御し、各領域に対応した最適な位置にロボット1を移動させる。これにより、距離情報取得部71が各領域の物体の距離情報を取得する際の、ロボット1の位置が領域毎に一定となる。このため、物体の照明条件の変化が小さくなり、物体の認識精度が向上する。
なお、記憶部72に記憶された環境地図情報の各領域は、例えば、操作端末8などを介して、ユーザが任意に設定、及び変更できるように構成されている。
領域特定部73は、距離情報取得部71により取得された各領域の画像情報に基づいて、各領域を特定してもよい。この画像情報は、例えば、各領域を区画するラインや塗分けなどの可視化した情報や各領域に設けられたマーカ(識別子)などの各領域の位置を示す目印情報である。(図6)。領域特定部73は、距離情報取得部71により取得された画像情報に基づいて、マーカを認識し、該マーカから所定形状(四角形状、円形状など)範囲を領域として特定することができる。これにより、領域特定部73は、容易に各領域を特定することができ、物体認識の時間をより短縮することができる。
候補検出部74は、候補検出手段の一具体例である。候補検出部74は、距離情報取得部71により取得された物体の距離情報に基づいて、領域特定部73により特定された各領域内の各物体を物体候補として検出する。例えば、候補検出部74は、距離情報取得部71により取得された物体の距離情報に基づいて、テーブルを平面と仮定し、その平面から突出している部分を物体として切り出す。そして、候補検出部74は、切り出した物体の図芯の位置を算出し、該図芯の位置が各領域内にあるか否かを判断することで、物体候補を検出する。候補検出部74は、検出した物体候補を物体認識部75に出力する。
物体認識部75は、認識手段の一具体例である。物体認識部75は、候補検出部74により検出された物体候補を、記憶部72により記憶されたテーブル情報を用いて、領域特定部73により特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する。
例えば、物体認識部75は、距離情報取得部71により取得された物体の距離情報に基づいて、候補検出部74により検出された物体候補の特徴量を算出する。そして、物体認識部75は、算出した物体候補の特徴量と、予め記憶部72に記憶された、領域特定部73により特定された領域の物体カテゴリに属する物体の特徴量のモデル情報(形状情報)と、を照合(パターンパッチング)することで、その物体候補を認識する。
通常、各物体は各領域に仕分けされ、各領域内に各領域の物体カテゴリに属する物体が配置されている。しかし、各領域内に各領域の物体カテゴリに属さない物体が紛れ込むことも想定される。
これに対し、物体認識部75は、候補検出部74により検出された物体候補を、領域特定部73により特定された領域の物体カテゴリに属する物体の形状情報と比較し、その後、該領域の物体カテゴリに属しない物体の形状情報と比較することにより認識する。これにより、各領域の物体カテゴリに属さない物体(各領域に仕分けられていない物体など)についても必要に応じて認識することができる。
図7は本実施形態に係る物体認識方法の処理フローの一例を示すフローチャートである。
ユーザが、操作端末8を介して、記憶部72の環境地図情報に各領域(例えば、テーブル上にに、皿領域、グラス領域、廃棄物領域など)を設定する(ステップS101)。ユーザが、操作端末8を介して、記憶部72のテーブル情報の各領域に対して物体カテゴリ、該物体カテゴリに属する物体、及びその物体情報を設定する(ステップS102)。
ユーザは、操作端末8を介して、制御装置5に対して、ロボット1の作業指示(例えば、作業位置(リビングのテーブル)及び作業内容(片付け作業))を行う(ステップS103)。制御装置5は、操作端末8からの作業指示の操作信号に応じて、距離情報取得部71により取得された距離情報と、記憶部72に予め記憶された環境地図情報と、に基づいて、移動装置3を制御し、ロボット1を作業位置に移動させる。
距離情報取得部71は、作業位置の画像情報を取得し(ステップS104)、領域特定部73、候補検出部74、及び物体認識部75に出力する。
領域特定部73は、距離情報取得部71により取得された画像情報に基づいて、作業位置の各領域を特定する(ステップS105)。
候補検出部74は、距離情報取得部71により取得された物体の距離情報に基づいて、領域特定部73により特定された各領域内の各物体を物体候補として検出する(ステップS106)。
物体認識部75は、距離情報取得部71により取得された物体の距離情報と、記憶部72のテーブル情報と、に基づいて、候補検出部74により検出された各領域内の各物体候補を夫々認識する(ステップS107)。制御装置5は、例えば、物体認識部75により認識された物体と、記憶部72のテーブル情報と、に基づいて、ロボット1の移動装置3及び把持操作装置4を制御し、作業を実行する。この場合、物体認識部75による物体の認識に併せて、制御装置5は、その記憶部72に記憶された物体の物体情報(形状情報など)を用いてロボット1の制約条件を加味し、作業(単腕で把持可能、現状の能力で把持可能)の可否を判断できる。したがって、ロボット1の作業能力を効率的に引き出すことができる。
以上、本実施形態に係る物体認識装置7において、記憶部72に設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報を含み該物体に対して作業を行うのに必要な物体情報と、を夫々対応付けたテーブル情報を記憶する。領域特定部73は、物体が存在する領域を特定する。候補検出部74は、距離情報取得部71により取得された物体の距離情報に基づいて、領域内の物体を物体候補として検出する。物体認識部75は、記憶部72により記憶されたテーブル情報を用いて候補検出部74により検出された物体候補を、領域特定部73により特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する。これにより、特定された各領域内で検出された物体候補は、その領域の物体カテゴリに属することが推定できる。したがって、各領域内に絞り込んで検出された物体候補をその各領域の物体カテゴリの物体情報と照合するだけで、容易に認識できる。すなわち、物体認識を高速で行うことができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
また、本発明は、例えば、図7に示す処理を、CPU7aにコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。
また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
1 ロボット、2 ロボット本体、3 移動装置、4 把持操作装置、5 制御装置、6 距離センサ、7 物体認識装置、8 操作端末

Claims (5)

  1. ロボットの作業環境内に複数の領域が予め設定され、該各領域内の物体を認識する物体認識装置であって、
    前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶する記憶手段と、
    認識対象の物体の距離情報を取得する距離情報取得手段と、
    前記物体が存在する領域を特定する領域特定手段と、
    前記距離情報取得手段により取得された物体の距離情報に基づいて、前記領域内の物体を物体候補として検出する候補検出手段と、
    前記候補検出手段により検出された物体候補を、前記記憶手段により記憶された情報を用いて、前記領域特定手段により特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識する認識手段と、
    を備える、ことを特徴とする物体認識装置。
  2. 請求項1記載の物体認識装置であって、
    前記認識手段は、前記候補検出手段により検出された物体候補を、前記領域特定手段により特定された領域の物体カテゴリに属する物体の形状情報と比較し、その後、該領域の物体カテゴリに属しない物体の形状情報と比較することにより認識する、
    ことを特徴とする物体認識装置。
  3. 請求項1又は2記載の物体認識装置であって、
    前記記憶手段は、前記設定された領域と、前記距離情報を取得する際のロボットの位置情報と、を対応付けて記憶しており、
    前記距離情報取得手段が、前記領域に対応する位置で前記認識対象の物体の距離情報を取得する、
    ことを特徴とする物体認識装置。
  4. 請求項1乃至3のうちのいずれか1項記載の物体認識装置であって、
    前記作業環境内の領域には、該領域の位置を示す目印情報が設定されており、
    前記領域特定手段は、前記目印情報に基づいて、前記領域を特定する、
    ことを特徴とする物体認識装置。
  5. ロボットの作業環境内に複数の領域が予め設定され、該各領域内の物体を認識する物体認識方法であって、
    前記設定された各領域の物体カテゴリと、該物体カテゴリに属する物体の識別情報と、該物体の形状情報と、を夫々対応付けて記憶するステップと、
    認識対象の物体の距離情報を取得するステップと、
    前記物体が存在する領域を特定するステップと、
    前記取得された物体の距離情報に基づいて、前記領域内の物体を物体候補として検出するステップと、
    前記検出された物体候補を、前記記憶された情報を用いて、前記特定された領域の物体カテゴリに属する物体の形状情報と比較することにより認識するステップと、
    を含む、ことを特徴とする物体認識方法。
JP2015089608A 2015-04-24 2015-04-24 物体認識装置、及び物体認識方法 Active JP6332128B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015089608A JP6332128B2 (ja) 2015-04-24 2015-04-24 物体認識装置、及び物体認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015089608A JP6332128B2 (ja) 2015-04-24 2015-04-24 物体認識装置、及び物体認識方法

Publications (2)

Publication Number Publication Date
JP2016206066A JP2016206066A (ja) 2016-12-08
JP6332128B2 true JP6332128B2 (ja) 2018-05-30

Family

ID=57487328

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015089608A Active JP6332128B2 (ja) 2015-04-24 2015-04-24 物体認識装置、及び物体認識方法

Country Status (1)

Country Link
JP (1) JP6332128B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117999A1 (ko) * 2019-12-10 2021-06-17 한국로봇융합연구원 Rgb-d 카메라를 이용한 척수제어 모바일 로봇

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6922254B2 (ja) * 2017-02-28 2021-08-18 日本電気株式会社 検品装置、検品方法、プログラム
JP6731680B2 (ja) * 2018-08-23 2020-07-29 荏原環境プラント株式会社 情報処理装置、情報処理プログラム、および情報処理方法
JP7424348B2 (ja) * 2021-05-31 2024-01-30 セイコーエプソン株式会社 検出方法、及び検出システム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005088143A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology 物体処理システム、物体処理方法及びロボット
US8204278B2 (en) * 2006-11-28 2012-06-19 Fujitsu Limited Image recognition method
JP5297727B2 (ja) * 2008-09-04 2013-09-25 トヨタ自動車株式会社 ロボット装置及び物体の位置姿勢推定方法
JP2013069100A (ja) * 2011-09-22 2013-04-18 Dainippon Screen Mfg Co Ltd 三次元位置・姿勢認識装置、産業用ロボット、三次元位置・姿勢認識方法、プログラム、記録媒体
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
JP6057829B2 (ja) * 2013-04-26 2017-01-11 本田技研工業株式会社 品質判定装置及び品質判定方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021117999A1 (ko) * 2019-12-10 2021-06-17 한국로봇융합연구원 Rgb-d 카메라를 이용한 척수제어 모바일 로봇

Also Published As

Publication number Publication date
JP2016206066A (ja) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6332128B2 (ja) 物体認識装置、及び物体認識方法
CN106808472B (zh) 工件位置姿势计算装置以及搬运系统
CN107756398B (zh) 机器人视觉引导方法、装置及设备
US20190184569A1 (en) Robot based on artificial intelligence, and control method thereof
JP4822926B2 (ja) 無線発信機の三次元位置を推定する方法、プログラムおよびシステム
CN104842358A (zh) 一种可自主移动的多功能机器人
US10377042B2 (en) Vision-based robot control system
JP2014503376A5 (ja)
JP2017504494A (ja) ロボット制御
KR101341204B1 (ko) 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법
JP2015055974A (ja) 三次元物体認識装置、三次元物体認識方法、及び移動体
JP2015215651A (ja) ロボットおよび自己位置推定方法
WO2021033509A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR101415297B1 (ko) 로봇 지도 생성 방법 및 로봇 지도 이용 방법 및 로봇지도를 가지는 로봇
JP2006102881A (ja) 把持ロボット装置
KR20150136399A (ko) 충돌 예측 로봇 원격 제어 시스템 및 그 방법
JP2019198907A (ja) ロボットシステム
US11141866B2 (en) Grasping apparatus, grasping determination method and grasping determination program
JP2019084641A (ja) 自律移動ロボット、並びに、その制御装置及び動作制御プログラム
KR20140034996A (ko) 이동로봇 및 상기 이동로봇에 대한 경로학습방법
CN113126600A (zh) 基于uwb的跟随系统及物品运送车
JP2020097088A (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
CN114061561A (zh) 智能导航系统
JP2022023342A (ja) 制御システム、制御方法及び制御プログラム
KR101798837B1 (ko) 마그네틱 랜드마크를 이용한 이동 로봇 위치 인식 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180416

R151 Written notification of patent or utility model registration

Ref document number: 6332128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151