JP4793109B2 - 物体検出法およびロボット - Google Patents

物体検出法およびロボット Download PDF

Info

Publication number
JP4793109B2
JP4793109B2 JP2006158159A JP2006158159A JP4793109B2 JP 4793109 B2 JP4793109 B2 JP 4793109B2 JP 2006158159 A JP2006158159 A JP 2006158159A JP 2006158159 A JP2006158159 A JP 2006158159A JP 4793109 B2 JP4793109 B2 JP 4793109B2
Authority
JP
Japan
Prior art keywords
corner
distance image
orientation
coordinates
database
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006158159A
Other languages
English (en)
Other versions
JP2007183908A (ja
Inventor
一成 白石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2006158159A priority Critical patent/JP4793109B2/ja
Publication of JP2007183908A publication Critical patent/JP2007183908A/ja
Application granted granted Critical
Publication of JP4793109B2 publication Critical patent/JP4793109B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、物体検出方法に関し、特に検出対象物が3次元的な任意の姿勢を取りうる場合に好適な、対象物の位置及び姿勢を判別する物体検出方法に関する。
ロボットを用いての把持作業においては、対象物の判別と位置及び姿勢を検出する必要がある。従来、物体検出方法としてCCDカメラからの濃淡画像を利用してパターンマッチングを行うことで対象物を検出する方法が取られていた。しかし、この方法では対象物がCCDカメラに対して同じ姿勢である場合には有効であるが、山積み状態である場合など、対象物がCCDカメラに対し任意の姿勢を取った場合には検出が困難となった。そのため、対象物を検出する前に、パーツフィーダによる対象物を取り出して整列させる工程が必要であり、通常一つの対象物に対して専用のパーツフィーダが必要となり、設置に掛かるコスト、フットプリントがロボットの把持作業の自動化の障害となっていた。
これを解決するべく任意の姿勢の対象物を検出するために、レンジセンサを用いて物体の形状を計測し形状ベースでマッチングする手法も多数提案されている。例えば、距離画像上から特徴点を検出し各々の特徴点間の位置関係をモデル上での特徴点間の位置関係とを比較して最も一致する特徴点群を選別して物体検出を行うものである(特許文献1参照)。
また、レンジデータと濃淡画像の双方を利用する手法も提案されている。濃淡画像から対象物の存在する領域を予め限定し、濃淡画像と同一視点から観測される距離画像から物体の慣性主軸の3次元空間中における位置及び姿勢を求め、この慣性主軸周りに物体を回転させてモデルとの一致度を調べるというものである(特許文献2参照)。
特開2001−143073号公報(6頁、図1) 特開平7−287756号公報(13頁、図1)
しかし、特許文献1に記載の物体検出方法では、特徴点間の位置関係を比較するためには3点以上の特徴点を任意に抽出して対応比較する必要がある。そのためには膨大な計算量が必要であり、その結果高速に認識することができないという問題があった。またモデルにおいても少しでも計算量を少なくするために、任意の特徴点3点間の位置関係をメモリ上に記憶するには1つのモデルに対しても大きな記憶領域が必要であるという問題も生じていた。
また、特許文献2に記載の物体検出方法では、対象物が山積みされた状態では濃淡画像から対象物を切り出す処理が困難でありロバスト性に欠けるという問題があり、しかも慣性主軸まわりに対象物を回転させて一致度を調べる方法では、やはり膨大な処理時間が掛かるという問題もあった。
本発明はこのような問題点に鑑みてなされたものであり、検出対象物の形状や山積みなどの検出対象物の状態に対しロバストであり、しかも少ない計算量と記憶領域で、対象物の判別、位置及び姿勢の検出ができる方法を提供することを目的とする。
上記問題を解決するため、本発明は、次のようにしたのである。
請求項1に記載の発明は、三次元空間で対象物を撮像した距離画像から対象物の位置、姿勢を検出する物体検出方法であって、
予め前記対象物について基準座標を設定し、
(1)教示過程において、
既知の位置、姿勢に配置された対象物について第1の距離画像を取得し、該第1の距離画像から前記対象物の各コーナーを抽出し、前記第1の距離画像において前記各コーナーを形成する前記対象物の各面について前記各コーナーの位置姿勢を算出し、
前記抽出された各コーナーが属する前記対象物の各面について、前記抽出された各コーナーの位置姿勢座標から前記対象物の基準座標への座標変換量Tcを算出してデータベースに記憶しておき、
(2)実作業過程において、
任意の位置、姿勢に配置された前記対象物について第2の距離画像を取得し、該第2の距離画像から複数のコーナーを抽出し、前記第2の距離画像において前記各コーナーを形成する前記対象物の各面について前記各コーナーの位置姿勢を算出し、
前記抽出された複数のコーナーの各々が属する前記対象物の各面について、前記抽出された複数のコーナーの位置姿勢座標と、前記データベースに記憶された座標変換量Tcとから前記対象物の基準座標の候補を複数算出し、
前記複数の基準座標の候補を、前記対象物の位置空間と姿勢空間とへ投票し、
前記位置空間と前記姿勢空間において、前記候補のうち最も得票が多い基準座標の位置、姿勢を前記対象物の位置、姿勢と認識することを特徴とした物体検出方法とするものである。
また、請求項2に記載の発明は、前記複数の基準座標の候補を、前記対象物の位置空間と姿勢空間とへ投票する際、先ず前記位置空間のみへ投票し、該位置空間で最も得票が多い位置へ投票した前記コーナーを特定し、該コーナーの姿勢座標と、前記座標変換量Tcとから前記基準座標を算出し、該基準座標の位置、姿勢を前記対象物の位置、姿勢と認識することを特徴とした請求項1記載の物体検出方法とするものである。
また、請求項3に記載の発明は、前記教示過程において、前記座標変換量Tcに加えて前記対象物の各コーナーの角度を前記データベースに記憶しておき、前記実作業過程において、前記複数の基準座標の候補を、前記対象物の位置空間と姿勢空間とへ投票する際、 前記第2の距離画像から抽出された前記複数のコーナーの角度を算出し、該角度が、前記データベースに記憶された角度と略一致するコーナーに対してのみ、該コーナーの姿勢座標と前記座標変換量Tcとから前記基準座標の候補を算出し、投票することを特徴とした請求項1記載の物体検出方法とするものである。
また、請求項4に記載の発明は、三次元空間で対象物を撮像した距離画像から対象物の位置、姿勢を検出する物体検出方法であって、
予め前記対象物について基準座標を設定し、
(1)教示過程において、
既知の位置、姿勢に配置された対象物の第1の距離画像を取得し、該第1の距離画像から前記対象物の各コーナーを抽出し、前記第1の距離画像において前記各コーナーを形成する前記対象物の各面について前記各コーナーの位置姿勢を算出し、
前記抽出された各コーナーが属する前記対象物の各面について、前記抽出された各コーナーの位置姿勢座標から前記対象物の基準座標への座標変換量Tcを算出してデータベースに記憶しておくとともに、
前記第1の距離画像を、前記各コーナーの位置姿勢座標を基準として座標変換した基準距離画像を生成して前記データベースに記憶しておき、
(2)実作業過程において、
任意の位置、姿勢に配置された前記対象物について第2の距離画像を取得し、該第2の距離画像から複数のコーナーを抽出し、前記第2の距離画像において前記各コーナーを形成する前記対象物の各面について前記各コーナーの位置姿勢を算出し、
前記抽出された複数のコーナーのうち任意のコーナーが属する前記対象物の各面について、前記任意のコーナーの位置姿勢座標を基準として前記第2の距離画像を座標変換した変換距離画像を生成し、
前記データベースに記憶された前記基準距離画像と前記変換距離画像とを比較して前記変換距離画像と一致度の高い基準距離画像を持つコーナーを抽出し、
前記抽出されたコーナーについて前記データベースに記憶されている座標変換量Tcによって前記任意のコーナーの位置姿勢を座標変換して、得られた位置、姿勢を前記対象物の位置、姿勢と認識する物体検出方法とするものである。
また、請求項5に記載の発明は、前記教示過程において、前記座標変換量Tcおよび基準距離画像に加えて前記対象物の各コーナーの角度を前記データベースに記憶しておき、 前記実作業過程において、前記変換距離画像と前記データベースに記憶された前記基準距離画像とを比較する際、検出された前記任意のコーナーの角度を算出し、該角度が前記データベースに記憶された前記各コーナーの角度と略一致するコーナーに対してのみ、前記比較を行う請求項4記載の物体検出方法とするものである。
また、請求項6に記載の発明は、請求項1乃至5項のいずれかに記載の方法により物体の検出を行うロボットとするものである。
請求項1に記載の発明によると、コーナーの検出と姿勢算出という簡単な算出方法を用いることから、少ない計算量で対象物の位置、姿勢を検出できる。また、データベースに記憶する値は対象物の各コーナーの位置姿勢からの座標変換量であり、少ない記憶領域で対象物を記述することができる。さらに位置姿勢空間に投票するという手法をとることで、対象物の一部が隠れている状態においてもロバスト性の高い検出が可能である。
また、請求項2に記載の発明によると、投票空間を位置だけに限定することができるため、投票に係わるメモリ領域を節約することができる。
また、請求項3に記載の発明によると、誤った投票が大幅に削減できることから、投票の正確さが増し、投票に係る処理時間も短縮される。
請求項4に記載の発明によるとコーナーの検出とコーナーを基準とした距離画像へ変換するという簡単な算出方法を用い、しかもデータベースと距離画像の単純な比較によって対象物の判別、位置姿勢が行われることから、高速な物体検出が可能である。またコーナーが存在すれば、穴、平面の有無や個数などの対象物の形状に制限を与えるものが無く、よりロバストな物体検出が可能である。
また、請求項5に記載の発明によるとデータベースとの距離画像を比較する際に明らかに異なるコーナーとの比較を避けることができることから、検出時間がより短縮される。
以下、本発明の方法の具体的実施例について、図に基づいて説明する。
図1は、本発明の方法を実施する物体検出方法のフローを示す。物体検出を行なうためには予め対象物となる物体の情報を装置へ教示する必要があり、その手順を説明する。
先ず、ステップ101では計測対象物の距離画像を取得する。
次にステップ102では距離画像からコーナーを抽出する。コーナーでは、距離画像中では局所的にみて全方向へ大きな距離の変化がある。このような箇所を距離画像から探索することでコーナーの候補点を抽出することができる。図2〜4にコーナー候補点近辺の距離画像を示す。図では高さの違いによって高いものを白で、低いものを黒で、その間をグレースケールで表示している。図2のコーナー候補点P1に対して、円状にサーチしてエッジE11、E12を検出することでコーナーの判別を行うことが出来る。図3のように対象物の面S21とS22が重なってできたコーナー候補点P2では面S21のエッジE21とE22がジャンプエッジであり、双方のエッジに対して面S21が上に存在しているがエッジE21、E22とコーナーP2とが直線上に存在するためコーナーではない。また面S22ではエッジE22がジャンプエッジであり、面S22が下に相当するためコーナーとしては採用されない。また図4のように立体的な対象物のコーナーに対して2つの面が観測される場合、E32はルーフエッジであるため候補点P3は2つの面S31とS32に対して各々のコーナーを持つものとして採用する。
次にステップ103ではコーナーPの位置姿勢を算出する。ステップ102で円状にサーチしてエッジの検出を行なったが、サーチする円の径を替えてコーナーPを形成する直線部分のエッジを複数箇所検出することで、コーナーPの位置とコーナーPの姿勢を精度良く算出することができる。図5にコーナーの姿勢を記述する方法の一例を示す。コーナーPの位置に姿勢の原点を置く。y軸をコーナーを形成する平面上でかつコーナーを形成する2つの直線のなす角度を2等分する方向におく。またz軸はコーナーを形成する平面にたいし垂直線上で且つ対象物から外側に向かう方向におく。x軸はy軸、z軸から右手系により自動的に決定される。
図6で偏平の対象物を例にとって説明する。既知の位置に対象物を置く。ロボットで対象物を把持することを目的とすると、対象物の基準点Rを把持するための作業点におき、把持する方向を考慮して対象物の基準座標系をとると簡単となる。ワールド座標Oからの対象物の基準座標Rまでの座標変換量Tを予め求めておく。ステップ103までの工程により対象物に対し各コーナーP1〜P4を抽出し、ワールド座標からの各コーナーまでの位置姿勢Tが得られる。ステップ104では対象物の各コーナーP1〜P4における位置姿勢の座標から対象物の基準座標Rへの座標変換量Tを求める。このときTは、
=T −1
で表される。対象物の各コーナーP1〜4の位置姿勢座標から対象物の基準座標への座標変換量Tを全て算出し、コーナーの角度θとともにステップ105のデータベースに記憶する。データベースに記憶する値は変換行列を与えても良いが、姿勢情報としてオイラー角やロール・ピッチ・ヨー角のような軸周りの回転角を記憶すると、必要となる記憶領域を削減することが出来る。
次に実作業における手順を説明する。実作業時においては、先ずステップ101から103までの工程により検出される全てのコーナーの位置姿勢Tを算出する。
次にステップ106では対象物の位置姿勢を推定する。コーナーPの位置姿勢T’とデータベースに登録されている各コーナーの座標変換量Tより対象物は
’=T
にあると推定できる。
そのためステップ107では対象物の位置姿勢の候補として位置姿勢空間上にT’の結果を投票する。
この位置姿勢空間上で得票の最も多い箇所を探索することで、対象物の位置と姿勢を算出することができる(ステップ108)。 この方法を用いると対象物が山積み状態であった場合、最も隠れが少ない対象物に対し投票が集中するため、ロボットで把持し易い対象物を検出することができる。投票時において、位置姿勢の自由度は6自由度あるため、6次元の空間に投票すると膨大な計算量とメモリ空間が必要となる。そのため、3次元の位置空間と3次元の姿勢空間に分けて投票を行い、それぞれ最も得票の高い位置と姿勢とを採用すると計算量が少なくなる。
また、位置空間のみに投票して、最も高いと得票を得た位置に投票したTとTのペアに対して、最小2乗法を用いて姿勢を算出すれば、より少ない投票空間で対象物の検出が可能である。
次に、第2の実施例を説明する。
図7は、第2の実施例の物体検出方法のフローを示す。第1実施例同様、物体検出を行うためには予め対象物となる物体の情報を装置に教示する必要があり、その手順を説明する。
先ず、ステップ701では計測対象物の距離画像を取得する。
次に、ステップ702では距離画像からコーナーを抽出する。ステップ702は実施例1のステップ102と同様に行う。
次に、ステップ703ではステップ702で抽出されたコーナーPの位置姿勢を算出する。
図8に具体的な対象物を例にとって説明する。ロボットで対象物を把持することを目的とすると、対象物の基準点Rを把持するための作業点におき、把持する方向を考慮して対象物の基準座標系をとると簡単となる。ワールド座標Oからの対象物の基準座標Rまでの座標変換量TRを予め求めておく。ステップ703までの工程により対象物に対しコーナーPを抽出し、ワールド座標Oからコーナーまでの位置姿勢TPが得られる。TおよびTから、対象物のコーナーPにおける位置姿勢の座標から対象物の基準座標Rへの座標変換量Tを求める。このときTは、 =T −1 で表される。
次に、ステップ704ではコーナー基準距離画像を生成する。ここでは、コーナーPの位置姿勢Tをもとに、ワールド座標系Oにて撮像された対象物の距離画像をコーナー座標系Pに変換した距離画像を生成する。
次に、ステップ705ではデータベースを作成する。コーナーの位置姿勢座標から対象物の基準座標への座標変換量Tと、コーナーの位置姿勢を基準とした座標Pへ変換した距離画像と、コーナーの角度と、を抽出されたコーナー毎にデータベースへ記憶する。
次に実作業における手順を図7および図9を用いて説明する。
実作業時においては、先ずステップ701から702までの工程により距離画像からコーナーを抽出する。複数検出されたコーナーから任意のコーナーP’を選びステップ703、704の処理を行う。選択されたコーナーP’に対しコーナーの位置姿勢を算出し(ステップ703)、ステップ701で撮像された距離画像をコーナーの位置姿勢を基準として座標変換T’を行い、コーナーP’を基準とした距離画像を生成する(ステップ704)。
ステップ706では、生成されたコーナー基準の距離画像とステップ705において記憶された距離画像とを比較し一致度の高い距離画像をもつコーナーをデータベースより探索する。このときコーナーの角度情報θ’とデータベースに記憶されている角度情報θとを比較し、角度の一致するコーナーにおいてのみ距離画像を比較すれば、より探索時間も短縮できる。
またデータベースより一致度の高いコーナーが見つからない場合には、ステップ702より検出されたコーナーから別のコーナーを選びステップ703から706までの処理を行う。ステップ706によりデータベースと一致度の高い距離画像をもつコーナーPが抽出されるなら、そのコーナーPから対象物の基準位置までの座標変換量Tをデータベースから求めることで、
’=T ’T
の式によって対象物の位置姿勢R’を算出することができる(ステップ707)。
本発明の方法の処理手順を示すフローチャート 本発明のコーナー検出手順を示す距離画像 本発明のコーナー検出手順を示す距離画像 本発明のコーナー検出手順を示す距離画像 本発明のコーナーの姿勢を定義する図 本発明のコーナーの姿勢と対象物の姿勢との座標変換量を示す図 本発明の第2の実施例の処理手順を示すフローチャート 本発明の第2の実施例のデータベース作成時の対象物を説明する図 本発明の第2の実施例の実作業時における対象物を説明する図

Claims (6)

  1. 三次元空間で対象物を撮像した距離画像から対象物の位置、姿勢を検出する物体検出方法であって、
    予め前記対象物について基準座標を設定し、
    (1)教示過程において、
    既知の位置、姿勢に配置された対象物について第1の距離画像を取得し、該第1の距離画像から前記対象物の各コーナーを抽出し、前記第1の距離画像において前記各コーナーを形成する前記対象物の各面について前記各コーナーの位置姿勢を算出し、
    前記抽出された各コーナーが属する前記対象物の各面について、前記抽出された各コーナーの位置姿勢座標から前記対象物の基準座標への座標変換量Tcを算出してデータベースに記憶しておき、
    (2)実作業過程において、
    任意の位置、姿勢に配置された前記対象物について第2の距離画像を取得し、該第2の距離画像から複数のコーナーを抽出し、前記第2の距離画像において前記各コーナーを形成する前記対象物の各面について前記各コーナーの位置姿勢を算出し、
    前記抽出された複数のコーナーの各々が属する前記対象物の各面について、前記抽出された複数のコーナーの位置姿勢座標と、前記データベースに記憶された座標変換量Tcとから前記対象物の基準座標の候補を複数算出し、
    前記複数の基準座標の候補を、前記対象物の位置空間と姿勢空間とへ投票し、
    前記位置空間と前記姿勢空間において、前記候補のうち最も得票が多い基準座標の位置、姿勢を前記対象物の位置、姿勢と認識することを特徴とした物体検出方法。
  2. 前記複数の基準座標の候補を、前記対象物の位置空間と姿勢空間とへ投票する際、
    先ず前記位置空間のみへ投票し、
    該位置空間で最も得票が多い位置へ投票した前記コーナーを特定し、
    該コーナーの姿勢座標と、前記座標変換量Tcとから前記基準座標を算出し、
    該基準座標の位置、姿勢を前記対象物の位置、姿勢と認識することを特徴とした請求項1記載の物体検出方法。
  3. 前記教示過程において、前記座標変換量Tcに加えて前記対象物の各コーナーの角度を前記データベースに記憶しておき、
    前記実作業過程において、
    前記複数の基準座標の候補を、前記対象物の位置空間と姿勢空間とへ投票する際、
    前記第2の距離画像から抽出された前記複数のコーナーの角度を算出し、該角度が、前記データベースに記憶された角度と略一致するコーナーに対してのみ、該コーナーの姿勢座標と前記座標変換量Tcとから前記基準座標の候補を算出し、投票することを特徴とした請求項1記載の物体検出方法。
  4. 三次元空間で対象物を撮像した距離画像から対象物の位置、姿勢を検出する物体検出方法であって、
    予め前記対象物について基準座標を設定し、
    (1)教示過程において、
    既知の位置、姿勢に配置された対象物の第1の距離画像を取得し、該第1の距離画像から前記対象物の各コーナーを抽出し、前記第1の距離画像において前記各コーナーを形成する前記対象物の各面について前記各コーナーの位置姿勢を算出し、
    前記抽出された各コーナーが属する前記対象物の各面について、前記抽出された各コーナーの位置姿勢座標から前記対象物の基準座標への座標変換量Tcを算出してデータベースに記憶しておくとともに、
    前記第1の距離画像を、前記各コーナーの位置姿勢座標を基準として座標変換した基準距離画像を生成して前記データベースに記憶しておき、
    (2)実作業過程において、
    任意の位置、姿勢に配置された前記対象物について第2の距離画像を取得し、該第2の距離画像から複数のコーナーを抽出し、前記第2の距離画像において前記各コーナーを形成する前記対象物の各面について前記各コーナーの位置姿勢を算出し、
    前記抽出された複数のコーナーのうち任意のコーナーが属する前記対象物の各面について、前記任意のコーナーの位置姿勢座標を基準として前記第2の距離画像を座標変換した変換距離画像を生成し、
    前記データベースに記憶された前記基準距離画像と前記変換距離画像とを比較して前記変換距離画像と一致度の高い基準距離画像を持つコーナーを抽出し、
    前記抽出されたコーナーについて前記データベースに記憶されている座標変換量Tcによって前記任意のコーナーの位置姿勢を座標変換して、得られた位置、姿勢を前記対象物の位置、姿勢と認識することを特徴とした物体検出方法。
  5. 前記教示過程において、前記座標変換量Tcおよび基準距離画像に加えて前記対象物の各コーナーの角度を前記データベースに記憶しておき、
    前記実作業過程において、
    前記変換距離画像と前記データベースに記憶された前記基準距離画像とを比較する際、
    検出された前記任意のコーナーの角度を算出し、該角度が前記データベースに記憶された前記各コーナーの角度と略一致するコーナーに対してのみ、前記比較を行うことを特徴とした請求項4記載の物体検出方法。
  6. 請求項1乃至5項のいずれか一項に記載の方法により物体の検出を行うことを特徴としたロボット。
JP2006158159A 2005-12-05 2006-06-07 物体検出法およびロボット Expired - Fee Related JP4793109B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006158159A JP4793109B2 (ja) 2005-12-05 2006-06-07 物体検出法およびロボット

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005350277 2005-12-05
JP2005350277 2005-12-05
JP2006158159A JP4793109B2 (ja) 2005-12-05 2006-06-07 物体検出法およびロボット

Publications (2)

Publication Number Publication Date
JP2007183908A JP2007183908A (ja) 2007-07-19
JP4793109B2 true JP4793109B2 (ja) 2011-10-12

Family

ID=38339922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006158159A Expired - Fee Related JP4793109B2 (ja) 2005-12-05 2006-06-07 物体検出法およびロボット

Country Status (1)

Country Link
JP (1) JP4793109B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009028489A1 (ja) * 2007-08-30 2009-03-05 Kabushiki Kaisha Yaskawa Denki 物体検出方法と物体検出装置およびロボットシステム
JP2010146357A (ja) * 2008-12-19 2010-07-01 Panasonic Electric Works Co Ltd 3次元画像処理方法および3次元画像処理装置
KR101659309B1 (ko) * 2011-03-24 2016-09-26 한화테크윈 주식회사 비전 검사 장치 및 방법
KR101754401B1 (ko) * 2016-04-14 2017-07-06 전남대학교산학협력단 민감도를 고려한 다차원 특징의 n차구 기반 앵귤라 보우팅 방법

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0689341A (ja) * 1992-09-07 1994-03-29 Toshiba Corp 部品位置検出方法
JP3426002B2 (ja) * 1993-09-20 2003-07-14 三菱電機株式会社 物体認識装置
JP3290034B2 (ja) * 1994-04-26 2002-06-10 ヤマハ発動機株式会社 チップ部品の認識方法及び同装置
JP2001250122A (ja) * 2000-03-06 2001-09-14 Nippon Telegr & Teleph Corp <Ntt> 物体の位置姿勢決定処理方法およびそのためのプログラム記録媒体
JP3849514B2 (ja) * 2001-12-10 2006-11-22 株式会社ダイフク 物品位置認識装置

Also Published As

Publication number Publication date
JP2007183908A (ja) 2007-07-19

Similar Documents

Publication Publication Date Title
JP5088278B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
JP3242108B2 (ja) ターゲットマークの認識・追跡システム及び方法
JP5458885B2 (ja) 物体検出方法と物体検出装置およびロボットシステム
US7280687B2 (en) Device for detecting position/orientation of object
JP4533659B2 (ja) レーザー計測により地図画像を生成する装置及び方法
JP4766269B2 (ja) 物体検出方法、物体検出装置、及びそれを備えたロボット
US7283661B2 (en) Image processing apparatus
JP6529302B2 (ja) 情報処理装置、情報処理方法、プログラム
JP4940715B2 (ja) ピッキングシステム
JP5069439B2 (ja) 自己位置認識システム
US11654571B2 (en) Three-dimensional data generation device and robot control system
JP4985166B2 (ja) 自己位置推定装置
CN105139416A (zh) 一种基于图像信息和深度信息的物体识别方法
JPH08136220A (ja) 物品の位置検出方法およびその装置
JP5093591B2 (ja) 三次元位置姿勢計測方法および装置
JP4793109B2 (ja) 物体検出法およびロボット
JP2000304509A (ja) 物体特定方法及び装置
JP5104248B2 (ja) 物体認識装置およびロボット装置
JP5083715B2 (ja) 三次元位置姿勢計測方法および装置
JP5462662B2 (ja) 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム
JP2015085434A (ja) ロボット、画像処理方法及びロボットシステム
JP3516668B2 (ja) 3次元形状認識方法、装置およびプログラム
JPH1166321A (ja) ワーク位置検出方法
TWI788253B (zh) 適應性移動操作設備及方法
JP6908908B2 (ja) ロボットアームの経路生成装置および経路生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110314

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110628

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110711

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees