JP5088278B2 - 物体検出方法と物体検出装置およびロボットシステム - Google Patents

物体検出方法と物体検出装置およびロボットシステム Download PDF

Info

Publication number
JP5088278B2
JP5088278B2 JP2008237999A JP2008237999A JP5088278B2 JP 5088278 B2 JP5088278 B2 JP 5088278B2 JP 2008237999 A JP2008237999 A JP 2008237999A JP 2008237999 A JP2008237999 A JP 2008237999A JP 5088278 B2 JP5088278 B2 JP 5088278B2
Authority
JP
Japan
Prior art keywords
axis
hough
object detection
voting
distance data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008237999A
Other languages
English (en)
Other versions
JP2010071743A (ja
Inventor
一成 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2008237999A priority Critical patent/JP5088278B2/ja
Publication of JP2010071743A publication Critical patent/JP2010071743A/ja
Application granted granted Critical
Publication of JP5088278B2 publication Critical patent/JP5088278B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、対象物の三次元的な位置及び姿勢を判別する物体検出方法、物体検出装置およびこれを用いたロボットシステムに関する。
ロボットを用いて把持作業行なう場合には、対象物の判別と位置及び姿勢を検出する必要がある。従来、物体検出方法としてCCDカメラからの二次元の濃淡画像を利用してパターンマッチングを行うことで対象物を検出する方法がとられていた。
しかし、この方法では対象物が全て同じ姿勢である場合には有効であるが、山積み状態である場合など、対象物がCCDカメラに対しランダムな姿勢の場合には、対象物の位置及び姿勢を検出することが困難であった。
このため、従来は、対象物を検出する前に、パーツフィーダにより対象物を取り出して整列させる工程を別途設ける必要があった。
また、パーツフィーダは一種類の対象物に対して専用のものが必要となるため、対象物が多種類存在する場合にはパーツフィーダの設置に掛かるコスト及び手間が大きくなりロボットの把持作業の自動化の障害となっていた。
これを解決するべく任意の姿勢の対象物を検出するために、レンジセンサ(距離センサ)によって物体の三次元形状を計測してパターンマッチングする手法が提案されている。
例えば、距離データ画像上の特徴点を複数検出し、各々の特徴点の位置関係を予め記憶しておいた対象物の形状モデル上での特徴点間の位置関係とを比較して最も一致する特徴点群を選別することで物体検出を行うことができる(特許文献1参照)。
また、距離データと二次元の濃淡画像の双方を利用する手法も提案されている。濃淡画像から対象物の存在する領域をおおまかに特定し、濃淡画像と同一の視点から計測された距離データ画像から物体の慣性主軸の三次元空間中における位置及び姿勢を求め、この慣性主軸周りに対象物を仮想的に回転させたときの、予め記憶しておいた対象物の形状モデルとの一致度を検出するというものである(特許文献2参照)。
特開2001−143073号公報(6頁、図1) 特開平7−287756号公報(13頁、図1)
しかし、特許文献1に記載の物体検出方法では、特徴点間の位置関係を比較するためには3点以上の特徴点を任意に抽出して対応比較する必要がある。そのためには膨大な計算量が必要であり、その結果高速に認識することができないという問題があった。またバラ積みされた状態(ランダムな姿勢で積み重ねられた状態)では同一となる特徴点が増えることから、誤認識が起こり易くなるという問題もあった。
また、特許文献2に記載の物体検出方法では、対象物が山積みされた状態では濃淡画像からの対象物の検出は困難であり、システムがロバスト性に欠けるという問題がある。
しかも、慣性主軸まわりに対象物を仮想的に回転させたときの一致度を調べる方法では、処理時間が掛かるという問題もある。
本発明はこのような問題点に鑑みてなされたものであり、より少ない計算量で精度良く対象物の位置及び姿勢の検出ができる物体検出方法、物体検出装置およびロボットシステムを提供することを目的とする。
上記問題を解決するため、本発明は、次のようにしたのである。
本願発明(請求項1)は、少なくとも矩形状の側面を一つ有する対象物の三次元空間上の位置及び姿勢を検出する物体検出方法であって、前記対象物上の各位置からの距離を計測して距離データを得る距離データ取得ステップと、前記距離データ上の所定単位毎の法線方向を算出する法線方向算出ステップと、前記法線方向算出ステップにおいて算出された前記各法線方向の方向が所定の角度差以内となるように、前記距離データを複数の領域に分割する領域分割ステップと、前記領域分割ステップにおいて形成された複数の領域から検出対象とする対象領域を選択する対象領域選択ステップと、前記対象領域の他の領域との境界線を求める境界線算出ステップと、前記対象領域の重心を通る軸線を求める軸線算出ステップと、前記軸線により前記境界線を2分割し、前記分割された各境界線をハフ座標に変換するハフ変換ステップと、前記ハフ空間に変換された前記分割された境界線をそれぞれ別々のハフ空間に投票し、最大投票数をそれぞれ加算する投票ステップと、前記最大投票数の加算値が最大となる最大投票角度を求め、前記最大投票角度に基づいて前記対象物の位置及び姿勢を検出する位置検出ステップと、を有していることを特徴としている。
前記対象領域選択ステップでは、前記領域分割ステップにおいて形成された複数の領域の中から最も面積が大きいものを選択することが好ましい(請求項2)。
また、前記対象領域選択ステップ実行後、選択された前記対象領域を前記対象領域が含まれる平面座標系に変換する平面変換ステップを実行し、前記境界線算出ステップでは前記平面座標系においての前記対象領域の他の領域との境界線を求め、前記軸線算出ステップでは、前記平面座標系においての前記対象領域の重心を通る軸線を求めることが好ましい(請求項3)。
また、前記軸線算出ステップでは、前記対象領域の慣性主軸を第1の軸線、前記第1の軸線と直交する軸線を第2の軸線として算出し、前記ハフ変換ステップでは、前記第1の軸線及び前記第2の軸線によってそれぞれ2分割された4つの各境界線をハフ座標に変換し、前記投票ステップは、前記ハフ空間に変換された前記4つの境界線をそれぞれ別々のハフ空間に投票することが好ましい(請求項4)。
本願発明(請求項5)は、少なくとも矩形状の側面を一つ有する対象物の三次元空間上の位置及び姿勢を検出する物体検出装置であって、前記対象物上の各位置からの距離を計測して距離データを取得する距離センサと、前記距離センサの計測値に基づいて演算を行なう演算装置と、を有し前記演算装置は、前記距離データ上の所定単位毎の法線方向を算出する法線方向算出部と、前記法線方向算出部において算出された前記各法線方向の方向が所定の角度差以内となるように、前記距離データを複数の領域に分割し、形成された複数の領域から検出対象とする対象領域を選択する対象領域選択部と、前記対象領域の他の領域との境界線と前記対象領域の重心を通る軸線を求める軸線算出部と、前記軸線により前記境界線を2分割し、前記分割された各境界線をハフ座標に変換するハフ変換部と、前記ハフ空間に変換された前記分割された境界線をそれぞれ別々のハフ空間に投票し、最大投票数をそれぞれ加算する投票部と、前記最大投票数の加算値が最大となる最大投票角度を求め、前記最大投票角度に基づいて前記対象物の位置及び姿勢を検出する位置検出部とを有して構成されていることを特徴としている。
前記対象領域選択部は、前記距離データを複数の領域に分割して形成された前記の複数の領域の中から最も面積が大きいものを前記対象領域として選択することが好ましい(請求項6)。
また、前記軸線算出部は、前記対象領域選択部により選択された前記対象領域を前記対象領域が含まれる平面座標系に変換し、当該平面座標系においての前記対象領域の他の領域との境界線と前記対象領域の重心を通る軸線を求めることが好ましい(請求項7)。
また、前記軸線算出部は、前記対象領域の慣性主軸を第1の軸線、前記第1の軸線と直交する軸線を第2の軸線として算出し、前記ハフ変換部は、前記第1の軸線及び前記第2の軸線によってそれぞれ2分割された4つの各境界線をハフ座標に変換し、前記投票部は、前記ハフ空間に変換された前記4つの境界線をそれぞれ別々のハフ空間に投票することが好ましい(請求項8)。
本願発明(請求項9)は、対象物を把持するロボットシステムであって、前記対象物を把持して搬送する搬送ロボットと、請求項5〜8のいずれか1項に記載の物体検出装置と、前記物体検出装置の出力に基づいて、前記搬送ロボットの前記対象物に対する移動軌跡を制御するロボット制御装置と、を有していることを特徴としている。
ランダムな姿勢の前記対象物を収納するワークストッカを有し、前記物体検出装置の前記距離センサが前記ワークストッカの全領域について前記距離データを取得することが好ましい(請求項10)。
また、ランダムな姿勢の前記対象物を収納するワークストッカを有し、前記物体検出装置の前記距離センサが前記ワークストッカの全領域の内、予め設定された所定の部分領域について前記距離データを取得することも好ましい(請求項11)。
本願発明によれば、矩形状の平面領域を有する対象物に対して矩形の領域に関する部分の距離データのみを用いて対象物の検出処理を行うことに加えて、軸線によって分割した境界線のそれぞれに対してハフ空間に投票を行い最大投票角度を求めるため、少ない計算量で精度良く位置と姿勢を検出することができ、対象物の検出にかかる処理効率を向上させることができる。
また、システムが良好なロバスト性を確保することができ、対象物がランダムな姿勢をとっても安定して対象物を検出することができる。
以下、本発明の方法を実施するための最良の具体的実施例について、図に基づいて説明する。
まず、本発明の一実施形態にかかる物体検出装置を用いたロボットシステムの概略構成について説明する。
図2に示すように、ロボットシステム100は、物体検出用演算装置(演算装置)50,ロボット制御装置70,ワーク搬送ロボット81,把持装置82,距離センサ83及びワークストッカ84によって構成されている。距離センサ83,演算装置50,ロボット制御装置70及びワーク搬送ロボット81はそれぞれ通信可能に接続されている。
ワークストッカ84は、検出対象物(対象物)としてのワークWが入った箱状の容器である。ワークストッカ84には多数のワークWがランダムな姿勢(ワークWがとる三次元の方向)で山積みに収納されている。ワークWは、少なくとも1つの矩形状の側面を有している。本実施形態ではワークWは直方体であり、ワークWの各側面が矩形となっている。
距離センサ83はワークストッカ84の上方に配設されており、ワークストッカ84の全領域において、後述する距離データを検出するように設定されている。
ワーク搬送用ロボット81は、ここでは垂直多関節型のマニプレータにより構成されており、ワーク搬送用ロボット81の先端には、把持装置82が取り付けられている。把持装置82は、例えば、ワークWを掴むグリッパ装置やエアや電磁力による吸着装置等、ワークWを把持(保持)できるものであればどのような装置を適用してもよい。
ロボット制御装置70は、コンピュータにより構成されており、ロボットシステム100の各部機器を制御するように構成されている。
演算装置50は、コンピュータにより構成されており、予めワークWの形状情報が入力されている。ワークWの形状情報は、ワークWの三次元形状と、物体検出装置によって照合する各面の形状との情報を含んでいる。
以下、演算装置50の機能構成について説明する。演算装置50は図1に示す手順に沿ってワークストッカ84内のワークWを検出するようになっている。
先ず、ステップ101では、ワークストッカ84内のワークWに対して、距離センサ83を用いて距離データ(距離画像)を取得する(距離データ取得ステップ)。
なお、本実施形態においての、距離データとは、平面(x軸,y軸)上の位置情報と、各ピクセルに対応するワークWと距離センサ83との距離(z軸)の情報を平面上のピクセル(画素)単位で有するものである。
距離データの取得する距離センサ83は、レーザ光をワークWに走査して三次元形状を得る装置(三次元スキャナ)、あるいは複数のカメラでワークWを撮像した各画像間の対応点を求め、三角測量の原理からワークWの三次元情報を得る装置(複眼ステレオ視)により構成される。なお、検出のワークWの全てのパートの距離を検出できるものであれば、そのような方式の距離センサを用いてもよい。
次に、ステップ102では距離データ上の各点(画素)を一単位の領域とし、この単位領域の近傍を微小な平面と仮定して平面を示す方程式を求め、各点の近傍における距離画像データから法線方向を算出する(法線方向算出ステップ)。
なお、単位領域は必ずしも1つの画素とする必要はなく、予め定められた複数の画素の集合を平均して単位領域としてもよい。このようにすれば、計算量を減らすことができるので、演算装置50の計算負荷を軽減することができる。
なお、平面の方程式は次式(1)で表される。

そして、上式(1)の係数a,b,cは、距離データ上の各点の座標を(x,y,z)i=1,…,nとすると次式(2)で表わされる。

さらに、次式(3)により距離データ上の各点に対応する平面方程式の係数a、b、cが算出される。各点(局所的な平面)の法線ベクトルはn=(a,b,−1)となる。
次にステップ103では、ステップ102で求めた各法線ベクトルの方向が、所定の閾値(所定角度差)M以内である領域毎に距離データを複数の領域に分割する。
ステップ104では、ステップ103で分割された領域から検出対象となる領域(対象領域)が選択される(対象領域選択ステップ)。ステップ104では、領域の面積が大きいものを優先して選択するようになっている。
領域が大きいものを優先して対象領域として選択することにより、ワークストッカ84の中で上側に最も露出したワークWが選択されることとなり、物体検出の精度をより向上させることができる。また、ワーク搬送用ロボット81によって比較的把持しやすいワークWを選択することができ、ワーク搬送用ロボット81の把持精度を向上させることができる。
なお、ステップ104で選択された領域中の各点は、法線ベクトルの方向が同じ(またはほぼ同じ)であるため、選択された領域は同一の平面上に存在すると考えることができる。換言すると、所定の閾値Mの値は、選択された対象領域が平坦な面(平面)であるとみなせるように予め実験等により設定される。
ステップ105では、選択された対象領域を、該対象領域が含まれる平面座標系に投影(変換)する(平面変換ステップ)。
ステップ106では、ステップ105で2次元に変換された領域1に対して、図3に示すように、領域1の重心2の位置と慣性軸(重心2を通る軸線)とを求める(軸心算出ステップ)。
本実施形態では、計算を簡略化するとともに検出精度を向上させるために、ステップ106において慣性主軸(長軸3,第1の軸線)と、長軸3に直交する慣性軸(短軸4,第2の軸線)との2つの慣性軸を求める。重心2及び慣性主軸の算出は公知の方法でなされる。なお、本実施形態では長軸3と短軸4との2つの慣性軸を用いるが、慣性軸については一つだけでもよい。
ステップ107では、当該領域の周囲のエッジ(境界部)を長軸3及び短軸4(長軸と直交する軸)によりそれぞれ分割して、長軸3により2分割されたエッジ5a,5bと短軸4により2分割されたエッジ5c,5dの4種類のエッジ5a〜5dを求め、各エッジ5a〜5dを形成する各単位をハフ座標に変換する(ハフ変換ステップ)。そして、各エッジ5a〜5d毎に別々のハフ空間へ投票する(投票ステップ)。
ハフ空間への投票について、より詳細に説明すると、図3に示すように、投票ステップでは、4つのエッジ5a〜5dに対し、それぞれ別々のハフ空間6a〜6dに投票する。
本実施形態では、ワークWの各面が矩形であることから周囲エッジ5a〜5dは長軸3及び短軸4に対してほぼ平行とみなされるため、投票する際に角度を限定すれば投票に係る計算量を低減して処理時間を短縮させることができる。
次に各ハフ空間6a〜6dに対し角度毎の最大投票数7a〜7dを算出する。各最大投票数7a〜7dを角度毎に加算することで最大投票数の和8を算出し、その中から最大値をとる角度(最大投票角度)θを求める。
求めた角度θ上で最大となる投票数である各単位領域が有する距離の値ρを4つの各ハフ空間6a〜6d上で求めることにより、平面座標系に変換した領域1に接する矩形(境界線)の形状を得ることができる。
そして、求めた矩形の形状と、予め演算装置50に記憶されたワークWの形状に合致しているか否かを判断して対象領域がワークWであることが判別される。
また、矩形の2次元空間上での位置及び姿勢と選択した領域を三次元空間から平面座標系への変換した変換量により対象物の位置姿勢を算出することができる(ステップ108)。
本発明の一実施形態にかかる物体検出装置及びロボットシステムはこのように構成されているので、距離データからワークWの矩形状の側面の位置(距離)と姿勢(三次元的な向き)とを算出を求めることにより、演算装置50による演算量(計算量)を少なくすることができ、演算装置50を構成するコンピュータにかかるコストを抑制しても検出対象物の位置及び姿勢の検出を良好に行なうことができる。
また、ワークWがランダムに積み重ねられていても、対象領域のエッジ部分(境界線)を長軸3及び短軸4でそれぞれ2分割した上で、各々をハフ空間に投票を行った最大投票数求めるため、システムが良好なロバスト性を確保することができ、演算装置50がワークWを検出不能となる状態を抑制することができる。
さらに、距離センサ83により、ワークストッカ84の上面の全領域についての距離データを検出して、得られた距離データに基づいてワークWの位置及び姿勢を検出するのでワークストッカ84に収納されている複数のワークWの中からロボットシステム1により把持するワークW一つ選択してワークWの位置及び姿勢を検出して、ロボットアーム81のエンドエフェクタ82をワークWに対して適切に接近させてワークWを良好に把持することができる。
また、物体検出装置が対象物の位置と姿勢とを高速にかつ正確に求めることができるので、対象物であるワークWを把持して搬送するロボットシステムに適用することで、ロボットシステムがワークWの把持動作を行うに際して、作業効率の良いロボットシステム1とすることができる。
以上、本発明の実施形態について説明したが、本発明は上述の実施形態に限定されるものではなく、主旨を逸脱しない範囲において適宜変形して実施可能である。
例えば、実施形態では、距離センサによりワークストッカの全領域においての距離データを検出していたが、ワークストッカの上面のうちの一部分の部分領域を演算装置に予め設定しておき、ワークストッカの部分領域のみ距離データを検出して得られた距離データに基づいて、対象物の位置及び姿勢を検出するように構成してもよい。
このように構成することにより、ワークストッカの全領域についての距離データを用いる場合よりも少ない計算量で対象物を検出することができる。
本発明の一実施形態にかかる処理手順を示すフローチャートである。 本発明の一実施形態にかかるロボットシステムの概略構成を模式的に示す図である。 演算装置により三次元ハフ空間への投票について説明するための模式図である。
符号の説明
1 平面座標系に変換した領域(対象領域)
2 重心
3 長軸(慣性主軸,第1の軸線)
4 短軸(第2の軸線)
5a〜5d 分割されたエッジ(境界線)
6a〜6d ハフ空間
7a〜7d 角度毎の最大投票数
8 角度毎の最大投票数の和
50 物体検出装置
70 ロボット制御装置
81 ロボットアーム
82 エンドエフェクタ
83 距離センサ
84 ストッカ
100 ロボットシステム

Claims (11)

  1. 少なくとも矩形状の側面を一つ有する対象物の三次元空間上の位置及び姿勢を検出する物体検出方法であって、
    前記対象物上の各位置からの距離を計測して距離データを得る距離データ取得ステップと、
    前記距離データ上の所定単位毎の法線方向を算出する法線方向算出ステップと、
    前記法線方向算出ステップにおいて算出された前記各法線方向の方向が所定の角度差以内となるように、前記距離データを複数の領域に分割する領域分割ステップと、
    前記領域分割ステップにおいて形成された複数の領域から検出対象とする対象領域を選択する対象領域選択ステップと、
    前記対象領域の他の領域との境界線を求める境界線算出ステップと、
    前記対象領域の重心を通る軸線を求める軸線算出ステップと、
    前記軸線により前記境界線を2分割し、前記分割された各境界線をハフ座標に変換するハフ変換ステップと、
    前記ハフ空間に変換された前記分割された境界線をそれぞれ別々のハフ空間に投票し、最大投票数をそれぞれ加算する投票ステップと、
    前記最大投票数の加算値が最大となる最大投票角度を求め、前記最大投票角度に基づいて前記対象物の位置及び姿勢を検出する位置検出ステップと、を有している
    ことを特徴とする物体検出方法。
  2. 前記対象領域選択ステップでは、前記領域分割ステップにおいて形成された複数の領域の中から最も面積が大きいものを選択する
    ことを特徴とする、請求項1記載の物体検出方法。
  3. 前記対象領域選択ステップ実行後、選択された前記対象領域を前記対象領域が含まれる平面座標系に変換する平面変換ステップを実行し、
    前記境界線算出ステップでは前記平面座標系においての前記対象領域の他の領域との境界線を求め、
    前記軸線算出ステップでは、前記平面座標系においての前記対象領域の重心を通る軸線を求める
    ことを特徴とする、請求項1又は2記載の物体検出方法。
  4. 前記軸線算出ステップでは、前記対象領域の慣性主軸を第1の軸線、前記第1の軸線と直交する軸線を第2の軸線として算出し、
    前記ハフ変換ステップでは、前記第1の軸線及び前記第2の軸線によってそれぞれ2分割された4つの各境界線をハフ座標に変換し、
    前記投票ステップは、前記ハフ空間に変換された前記4つの境界線をそれぞれ別々のハフ空間に投票する
    ことを特徴とする、請求項1〜3のいずれか1項に記載の物体検出方法。
  5. 少なくとも矩形状の側面を一つ有する対象物の三次元空間上の位置及び姿勢を検出する物体検出装置であって、
    前記対象物上の各位置からの距離を計測して距離データを取得する距離センサと、
    前記距離センサの計測値に基づいて演算を行なう演算装置と、を有し
    前記演算装置は、
    前記距離データ上の所定単位毎の法線方向を算出する法線方向算出部と、
    前記法線方向算出部において算出された前記各法線方向の方向が所定の角度差以内となるように、前記距離データを複数の領域に分割し、形成された複数の領域から検出対象とする対象領域を選択する対象領域選択部と、
    前記対象領域の他の領域との境界線と前記対象領域の重心を通る軸線を求める軸線算出部と、
    前記軸線により前記境界線を2分割し、前記分割された各境界線をハフ座標に変換するハフ変換部と、
    前記ハフ空間に変換された前記分割された境界線をそれぞれ別々のハフ空間に投票し、最大投票数をそれぞれ加算する投票部と、
    前記最大投票数の加算値が最大となる最大投票角度を求め、前記最大投票角度に基づいて前記対象物の位置及び姿勢を検出する位置検出部とを有して構成されている
    ことを特徴とする物体検出装置。
  6. 前記対象領域選択部は、前記距離データを複数の領域に分割して形成された前記の複数の領域の中から最も面積が大きいものを前記対象領域として選択する
    ことを特徴とする、請求項5記載の物体検出装置。
  7. 前記軸線算出部は、前記対象領域選択部により選択された前記対象領域を前記対象領域が含まれる平面座標系に変換し、当該平面座標系においての前記対象領域の他の領域との境界線と前記対象領域の重心を通る軸線を求める
    ことを特徴とする、請求項5又は6記載の物体検出装置。
  8. 前記軸線算出部は、前記対象領域の慣性主軸を第1の軸線、前記第1の軸線と直交する軸線を第2の軸線として算出し、
    前記ハフ変換部は、前記第1の軸線及び前記第2の軸線によってそれぞれ2分割された4つの各境界線をハフ座標に変換し、
    前記投票部は、前記ハフ空間に変換された前記4つの境界線をそれぞれ別々のハフ空間に投票する
    ことを特徴とする、請求項5〜7のいずれか1項に記載の物体検出装置
  9. 対象物を把持するロボットシステムであって、
    前記対象物を把持して搬送する搬送ロボットと、
    請求項5〜8のいずれか1項に記載の物体検出装置と、
    前記物体検出装置の出力に基づいて、前記搬送ロボットの前記対象物に対する移動軌跡を制御するロボット制御装置と、を有している
    ことを特徴とする、ロボットシステム。
  10. ランダムな姿勢の前記対象物を収納するワークストッカを有し、
    前記物体検出装置の前記距離センサが前記ワークストッカの全領域について前記距離データを取得する
    ことを特徴とする、請求項9記載のロボットシステム。
  11. ランダムな姿勢の前記対象物を収納するワークストッカを有し、
    前記物体検出装置の前記距離センサが前記ワークストッカの全領域の内、予め設定された所定の部分領域について前記距離データを取得する
    ことを特徴とする、請求項9記載のロボットシステム。
JP2008237999A 2008-09-17 2008-09-17 物体検出方法と物体検出装置およびロボットシステム Expired - Fee Related JP5088278B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008237999A JP5088278B2 (ja) 2008-09-17 2008-09-17 物体検出方法と物体検出装置およびロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008237999A JP5088278B2 (ja) 2008-09-17 2008-09-17 物体検出方法と物体検出装置およびロボットシステム

Publications (2)

Publication Number Publication Date
JP2010071743A JP2010071743A (ja) 2010-04-02
JP5088278B2 true JP5088278B2 (ja) 2012-12-05

Family

ID=42203685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008237999A Expired - Fee Related JP5088278B2 (ja) 2008-09-17 2008-09-17 物体検出方法と物体検出装置およびロボットシステム

Country Status (1)

Country Link
JP (1) JP5088278B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2770461A2 (en) 2013-02-20 2014-08-27 Kyushu Institute of Technology Object detecting method and object detecting device
CN109475326A (zh) * 2016-07-08 2019-03-15 株式会社ReTech 姿势评价系统
WO2023209974A1 (ja) * 2022-04-28 2023-11-02 株式会社ニコン 制御装置、制御システム、ロボットシステム、制御方法及びコンピュータプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908913B2 (en) * 2011-12-19 2014-12-09 Mitsubishi Electric Research Laboratories, Inc. Voting-based pose estimation for 3D sensors
JP6167760B2 (ja) * 2013-08-26 2017-07-26 株式会社ダイフク 物品位置認識装置
JP2014097572A (ja) * 2014-02-28 2014-05-29 Seiko Epson Corp 把持ロボットおよび把持方法
CN104626206B (zh) * 2014-12-17 2016-04-20 西南科技大学 一种非结构环境下机器人作业的位姿信息测量方法
JP6815793B2 (ja) * 2016-09-05 2021-01-20 国立大学法人 東京大学 矩形領域検出方法、矩形領域検出装置及びプログラム
JP6835665B2 (ja) * 2017-05-25 2021-02-24 Kddi株式会社 情報処理装置及びプログラム
JP6693981B2 (ja) 2018-02-19 2020-05-13 ファナック株式会社 ロボットの動作をシミュレーションするシミュレーション装置
FR3085022B1 (fr) * 2018-08-16 2020-10-16 Psa Automobiles Sa Procede de determination d’un indice de confiance associe a un objet detecte par un capteur dans l’environnement d’un vehicule automobile.
JP2021050948A (ja) * 2019-09-24 2021-04-01 進 中谷 測定装置
JP2022035960A (ja) * 2020-08-21 2022-03-04 進 中谷 測定装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04195596A (ja) * 1990-11-28 1992-07-15 Nec Corp 画像の傾き算出方法
JP2555824B2 (ja) * 1991-10-30 1996-11-20 日本電装株式会社 山積み部品の高速ピッキング装置
JP3028016B2 (ja) * 1993-02-26 2000-04-04 村田機械株式会社 積荷の三次元画像計測方法
JP3426002B2 (ja) * 1993-09-20 2003-07-14 三菱電機株式会社 物体認識装置
JPH10124677A (ja) * 1996-10-25 1998-05-15 Nippon Telegr & Teleph Corp <Ntt> 物体の姿勢推定方法および物体の姿勢推定装置
DE10080012B4 (de) * 1999-03-19 2005-04-14 Matsushita Electric Works, Ltd., Kadoma Dreidimensionales Verfahren zum Erkennen von Gegenständen und System zum Aufnehmen eines Gegenstandes aus einem Behältnis mit Verwendung des Verfahrens
JP3654042B2 (ja) * 1999-04-21 2005-06-02 松下電工株式会社 物体特定方法及び装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2770461A2 (en) 2013-02-20 2014-08-27 Kyushu Institute of Technology Object detecting method and object detecting device
US9317771B2 (en) 2013-02-20 2016-04-19 Kyushu Institute Of Technology Device and method to detect an object and controlling a device to pick up the detected object
CN109475326A (zh) * 2016-07-08 2019-03-15 株式会社ReTech 姿势评价系统
CN109475326B (zh) * 2016-07-08 2021-08-13 株式会社ReTech 姿势评价系统
WO2023209974A1 (ja) * 2022-04-28 2023-11-02 株式会社ニコン 制御装置、制御システム、ロボットシステム、制御方法及びコンピュータプログラム

Also Published As

Publication number Publication date
JP2010071743A (ja) 2010-04-02

Similar Documents

Publication Publication Date Title
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
CN110116406B (zh) 具有增强的扫描机制的机器人系统
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP6529302B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6180087B2 (ja) 情報処理装置及び情報処理方法
US7280687B2 (en) Device for detecting position/orientation of object
JP5295828B2 (ja) 対象物の把持システム及び同システムにおける干渉検出方法
US20150127162A1 (en) Apparatus and method for picking up article randomly piled using robot
US11654571B2 (en) Three-dimensional data generation device and robot control system
KR20160003776A (ko) 자세 추정 방법 및 로봇
JP2017101946A (ja) 複数の物品の位置姿勢計測装置及び該位置姿勢計測装置を含むロボットシステム
JP2015009314A (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP4766269B2 (ja) 物体検出方法、物体検出装置、及びそれを備えたロボット
CN111483750A (zh) 机器人系统的控制方法以及控制装置
JP6632656B2 (ja) 干渉判定装置、干渉判定方法、コンピュータプログラム
JP2018136896A (ja) 情報処理装置、システム、情報処理方法、および物品の製造方法
CN113284178B (zh) 物体码垛方法、装置、计算设备及计算机存储介质
CN113386122B (zh) 测量参数的优化方法和装置以及计算机可读存储介质
JP5544464B2 (ja) 対象物の3次元位置・姿勢認識装置及びその方法
JP5458807B2 (ja) 対象物把持領域抽出装置および対象物把持領域抽出装置を用いたロボットシステム
JP7454132B2 (ja) ロボットシステムの制御装置、ロボットシステムの制御方法、コンピュータ制御プログラム、及びロボットシステム
JP4793109B2 (ja) 物体検出法およびロボット
CN114310892B (zh) 基于点云数据碰撞检测的物体抓取方法、装置和设备
EP4094904B1 (en) Robot system control device, robot system control method, computer control program, and robot system
JP2011174891A (ja) 位置姿勢計測装置、位置姿勢計測方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110404

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120814

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120827

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150921

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees