JP2019032830A - 対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法 - Google Patents

対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法 Download PDF

Info

Publication number
JP2019032830A
JP2019032830A JP2018135680A JP2018135680A JP2019032830A JP 2019032830 A JP2019032830 A JP 2019032830A JP 2018135680 A JP2018135680 A JP 2018135680A JP 2018135680 A JP2018135680 A JP 2018135680A JP 2019032830 A JP2019032830 A JP 2019032830A
Authority
JP
Japan
Prior art keywords
object segments
target objects
windows
objects
segments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018135680A
Other languages
English (en)
Inventor
オリヴィア・クンドゥ
Kundu Olyvia
スワガト・クマール
Kumar Swagat
エーテシャム・ハッサン
Hassan Ehtesham
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tata Consultancy Services Ltd
Original Assignee
Tata Consultancy Services Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tata Consultancy Services Ltd filed Critical Tata Consultancy Services Ltd
Publication of JP2019032830A publication Critical patent/JP2019032830A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1669Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

【課題】対象オブジェクトをつかみ取るための把持姿勢を検出するシステムを提供する。【解決手段】本システムは、複数の表面パッチを、面法線方向に基づくデプス空間に領域拡張技術を使用して作成している。カラーとデプス曲率とに基づく混合ガウスモデルを使用して、対象オブジェクトに属する表面を背景からセグメント化しており、これによって対象オブジェクトのバウンディングボックスが大きくなる現象をもたらす小規模なデータセットで訓練された、オブジェクト認識モジュールの不正確さを克服している。対象オブジェクトの形状を、表面属性に対して経験則を使用することによって識別しており、これによって把持可能なアフォーダンスと姿勢とを検出して、近傍のオブジェクトとの衝突を回避し、且つオブジェクトをより良好に把持している。【選択図】図2

Description

本明細書の開示は、概して把持姿勢検出システムに関し、より詳細には、対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法に関する。
本特許出願は、2017年7月20日に出願されたインド特許出願第201721025912号に対する優先権を主張するものである。
周囲の環境を操作できるロボットは、物体の知覚のみが可能なロボットよりも一層有用である。このようなロボットは日々の家事の多くをこなすことができるため、これによって人間がより創造的な追求ができるように、これらの家事から解放してくれる。これを実現するために、ロボットには人間のような処理能力と把持能力とが求められる。ロボットの処理能力は長年にわたり向上してきたが、把持は依然として困難な課題であり続けており、コンピュータビジョン及び画像処理技術の急速な進歩により、この課題は近年大いに注目されている。この把持に関する課題の解決を試みるいくつかの方法が、文献に記載されている。その中には、二次元画像の視覚特性を使用して把持可能領域を特定する例がある一方で、この目的のためにレンジデータを使用する例もあり、後者は低コストのRGBDセンサが利用できるため、より注目を集めている。近年、深層学習ベースの方法は、把持可能領域を検出するためにますます普及しつつある。当分野における既存の方法の大部分を、2つのカテゴリに大きく分類することができる。第1のカテゴリでは、当該方法(複数可)は、実際の複数の使用事例では非実用的となるような、そのオブジェクト(又はCADモデル)に関する正確な幾何学的情報を利用できるかどうかに依存している。第2のカテゴリの方法では、RGBD点群から直接把持姿勢と把持アフォーダンスとを計算することに焦点を当てている。上記のような方法では、局所的な幾何学的特性を利用することで、そのオブジェクトの同一性又はその正確な三次元形状を知らなくても把持可能領域を特定している。それでもなお課題は残っており、部分的オクルージョン、照度不良、変形可能なオブジェクトの形状及びサイズの変化、ラックビンのスケーリング及びこれの視界が制限されていることなどの複数の要因により、困難となっている。
本開示の実施形態は、従来のシステムにおいて本発明者らによって認識されている上記の技術的課題の1又は複数に対するソリューションとして、技術的改善策を提示している。たとえば、一態様では、対象オブジェクトをつかみ取るための把持姿勢を検出するプロセッサ実施方法を提供している。本方法は、1又は複数のプロセッサによって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出する工程であって、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備える、工程と、デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得する工程と、前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める工程とを備える。一実施形態では、領域拡張技術を使用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める前記工程は、シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、(i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを含む。
本方法は、混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する工程をさらに含む。一実施形態では、混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する1又は複数の表面のカラー及び曲率に基づいており、ここで、前記カラーは色相及び彩度を含み、ここで、各セグメントの曲率をTaubinのフィッティング技法を使用して計算している。一実施形態では、混合ガウスモデルを使用して、前記表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、データベースに記憶された訓練データに基づいている。
本方法は、前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求める工程であって、前記1又は複数の最適なフィット形状プリミティブを求める前記工程は、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用する工程を含み、ここで、前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む工程をさらに含む。本方法は、前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する工程をさらに含む。
別の態様では、対象オブジェクトをつかみ取るための把持姿勢を検出するシステムを提供している。本システムは、命令を記憶するメモリと、1又は複数の通信インターフェースと、前記1又は複数の通信インターフェース(106)を介して前記メモリに結合された1又は複数のハードウェアプロセッサとを備え、ここで、前記1又は複数のハードウェアプロセッサは、前記命令により、前記1又は複数のプロセッサによって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出し、ここで、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備えており、デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得し、且つ前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求めるように構成されている。一実施形態では、前記1又は複数の対象オブジェクトの1又は複数の表面を、シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、(i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを実行することによって、前記1又は複数のウィンドウにおいて求めている。
前記1又は複数のハードウェアプロセッサは、混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化し、前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求め、且つ前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出するようにさらに構成されている。
一実施形態では、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方を、前記1又は複数の表面から、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する前記1又は複数の表面のカラー及び曲率に基づいてセグメント化しており、ここで、前記カラーは色相及び彩度を含み、ここで、各セグメントの曲率をTaubinのフィッティング技法を使用して計算しており、ここで、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方を、データベースに記憶された訓練データに基づいてセグメント化している。
一実施形態では、前記1又は複数の対象オブジェクトの前記1又は複数の最適なフィット形状プリミティブを、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用することによって求めており、ここで、前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む。
さらに別の態様では、1又は複数の命令を備える1又は複数の非一時的機械可読情報記憶媒体を提供している。1又は複数のハードウェアプロセッサによって実行されると、対象オブジェクトをつかみ取るための把持姿勢を検出する工程を実行する、1又は複数の命令を提供している。前記命令は、1又は複数のプロセッサによって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出する工程であって、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備える、工程と、デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得する工程と、前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める工程とを含む。一実施形態では、領域拡張技術を使用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める前記工程は、シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、(i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを含む。
前記命令は、混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する工程をさらに含む。一実施形態では、混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する1又は複数の表面のカラー及び曲率に基づいており、ここで、前記カラーは色相及び彩度を含み、ここで、各セグメントの曲率をTaubinのフィッティング技法を使用して計算している。一実施形態では、混合ガウスモデルを使用して、前記表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、データベースに記憶された訓練データに基づいている。
前記命令は、前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求める工程であって、前記1又は複数の最適なフィット形状プリミティブを求める前記工程は、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用する工程を含み、ここで、前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む工程をさらに含む。前記命令は、前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する工程をさらに含む。
前述の概要及び以下の詳細な記載は、双方とも例示的且つ説明的なものに過ぎず、特許請求された本発明を限定するものではないことが理解される。
添付の図面は本開示に組み込まれ、本開示の一部を構成し、例示的な実施形態を示し、且つその記載と共に開示された原理を説明する役割を果たしている。
本開示の一実施形態に係る、対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出するシステムの、例示的なブロック図を示す。 本開示の一実施形態に係る、図1のシステムを使用した対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する方法の、例示的なフロー図を示す。 本開示の一実施形態に係る、つかみ取る予定の検出された対象オブジェクトを包囲するバウンディングボックスを示す。 本開示の一実施形態に係る、図3のバウンディングボックス内で拡張される、検出されたセグメント領域を示す。 本開示の一実施形態に係る、マージング技術を適用した後の最終セグメントを示す。 本開示の一実施形態に係る、検出された対象オブジェクトを包囲する、領域ベースの畳み込みニューラルネットワーク(RCNN)のバウンディングボックスを示す。 本開示の一実施形態に係る、図1のシステムによる、フィーチャとしてカラーのみを考慮した混合ガウスモデル(GMM)の出力を示す。 本開示の一実施形態に係る、図1のシステムによる、形状フィッティングのフィーチャとしてカラー及び曲率を考慮しているセグメントを示す。 本開示の一実施形態に係る、カラー、曲率及び両方の組み合わせに基づく混合ガウスモデルを使用した、(a)円柱及び(b)ボックスの2つのオブジェクトに関する検出精度を図示している、グラフ表示を示す。 本開示の一実施形態に係る、カラー、曲率及び両方の組み合わせに基づく混合ガウスモデルを使用した、(a)円柱及び(b)ボックスの2つのオブジェクトに関する検出精度を図示している、グラフ表示を示す。 本開示の一実施形態に係る、円柱、球、及びボックスのそれぞれのプロトタイプを示す。 本開示の一実施形態に係る、円柱、球、及びボックスのそれぞれのプロトタイプを示す。 本開示の一実施形態に係る、円柱、球、及びボックスのそれぞれのプロトタイプを示す。 本開示の一実施形態に係る、提案している本方法による結果を示す。
例示的な実施形態について添付の図面を参照して説明する。図面において、参照番号の最も左の数字(複数可)は、その参照番号が最初に出現する図を特定している。便宜上、図面全体を通して、同じ参照番号を同じ又は同様の部分を指すために使用している。開示する原理の例及び特徴を本明細書に記載しているが、開示する実施形態の趣旨及び範囲から逸脱することなく、修正、適合並びに他の実施が可能となっている。以下の詳細な説明は例示的なものとしてのみ考慮され、本発明の真の範囲及び趣旨を、以下の特許請求の範囲によって示していることが意図される。
対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法を開示している。本システムは、把持姿勢検出の課題を解決し、小売倉庫内のラックビンなどの閉鎖され、且つ雑然とした空間からオブジェクトをつかみ取るのに適した把握可能なアフォーダンスを見つけ出している。本方法は、領域ベースの畳み込みニューラルネットワーク(RCNN)に基づくオブジェクト認識モジュールから取得されるバウンディングボックス内に複数の表面セグメントを作成する工程を含む。これらの表面パッチを、面法線方向の不連続性に基づくデプス空間に領域拡張技術を使用して作成している。カラー(色相及び彩度)とデプス曲率とに基づく混合ガウスモデルを使用して、対象オブジェクトに属する表面をその背景からセグメント化している。これは、対象オブジェクトのバウンディングボックスが大きくなる現象をもたらす小規模なサンプルデータセットで訓練された、オブジェクト認識モジュールの不正確さを克服するのに役立つ。対象オブジェクトの形状を、面法線方向や表面曲率などの表面属性に対して経験則を使用することによって識別している。最終的に、近傍のオブジェクトとの衝突を回避し、且つボックスタイプのオブジェクトをより良好に把持することを可能にする曲線適合アルゴリズムの改良版を使用することにより、適切な把持可能なアフォーダンスと把持姿勢とを検出している。
ここで図面を、より具体的には図1〜図7を参照すると、図面全体を通して一貫して同様の参照番号が対応する特徴を示している中に、好ましい実施形態が示されており、これらの実施形態を、以下の例示的なシステム及び/又は方法に関連して記載している。
図1は、本開示の一実施形態に係る、対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出するシステム100の、例示的なブロック図を示す。システム100を、以下で把持姿勢検出システムとも呼んでいる。一実施形態では、システム100は1又は複数のプロセッサ104と、通信インターフェースデバイス(複数可)又は入出力(I/O)インターフェース(複数可)106と、1又は複数のプロセッサ104に動作可能に結合された1又は複数のデータ記憶デバイス又はメモリ102とを備える。ハードウェアプロセッサである1又は複数のプロセッサ104を、1又は複数のマイクロプロセッサ、マイクロコンピュータ、マイクロコントローラ、デジタル信号プロセッサ、中央処理装置、状態マシン、論理回路、及び/又は操作命令に基づいて信号を操作する任意のデバイスとして実施することができる。とりわけプロセッサ(複数可)を、メモリに記憶されたコンピュータ可読命令をフェッチして実行するように構成している。一実施形態では、ラップトップコンピュータ、ノートパソコン、ハンドヘルドデバイス、ワークステーション、メインフレームコンピュータ、サーバ、ネットワーククラウドなどの様々なコンピューティングシステムに、システム100を実施することができる。
I/Oインターフェースデバイス(複数可)106は、たとえばウェブインターフェース、グラフィカル・ユーザ・インターフェースなどの様々なソフトウェアインターフェース及びハードウェアインターフェースを備えることができ、たとえばLAN、ケーブルなどの有線ネットワーク、及びWLAN、セルラー、又は衛星などの無線ネットワークを含む各種ネットワークN/W及びプロトコルタイプ内での複数の通信を容易にすることができる。一実施形態では、I/Oインターフェースデバイス(複数可)は、複数のデバイスを互いに、又は別のサーバに接続するための1又は複数のポートを備えることができる。
メモリ102は、たとえばスタティック・ランダム・アクセス・メモリ(SRAM)及びダイナミック・ランダム・アクセス・メモリ(DRAM)などの揮発性メモリ、並びに/又は読み取り専用メモリ(ROM)、消去可能プログラマブルROM、フラッシュメモリ、ハードディスク、光ディスク、及び磁気テープなどの不揮発性メモリを含む、当技術分野で任意且つ既知のコンピュータ可読媒体を備えることができる。
図1に関連して、図2は、本開示の一実施形態に係る、図1のシステム100を使用した対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する方法の、例示的なフロー図を示す。一実施形態では、システム100は、1又は複数のハードウェアプロセッサ104に動作可能に結合された1又は複数のデータ記憶デバイス又はメモリ102を備え、且つ本方法の工程を1又は複数のプロセッサ104によって実行するための命令を記憶するように構成されている。ここで本開示の方法の工程を、図1に示すシステム100の構成要素とフロー図とを参照して説明する。本開示の一実施形態では、システム100を1又は複数のハードウェアプロセッサ104を介して前記命令によって構成している場合、システム100は、本明細書に記載の1又は複数の手順を実行する。本開示の一実施形態では、工程202において、1又は複数のハードウェアプロセッサ104によって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出する。本開示の一実施形態では、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備える。本開示の一実施形態では、システム100はオブジェクト認識モジュール(モジュール108に記憶された)で実施しており、このオブジェクト認識モジュールは、検出された対象オブジェクト302を包囲するバウンディングボックス304を形成し、このサイズは訓練データセット(メモリ102のデータベース110に記憶された)のサイズに依存している。図1〜図2に関連して、図3Aは、本開示の一実施形態に係る、つかみ取る予定の検出された対象オブジェクトを包囲するバウンディングボックスを示す。訓練データセットが大きくなるほどバウンディングボックスは狭くなり、その逆の場合も同様となる。本開示の一実施形態では、工程204において、1又は複数のハードウェアプロセッサ104がKinectセンサから、前記1又は複数のウィンドウ内のデプスデータを取得する。好ましい実施形態では、前記デプスデータを1又は複数のウィンドウに導入してもよい。
本開示の一実施形態では、工程206において、1又は複数のハードウェアプロセッサ104が、前記1又は複数のウィンドウ内の前記デプスデータに対して1又は複数の領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める。本開示の一実施形態では、システム100は、平滑条件に基づく領域拡張技術(複数可)を適用している。図1〜図3Aに関連して、図3Bは、本開示の一実施形態に係る、バウンディングボックス304内で拡張される、検出されたセグメント領域を示す。このバウンディングボックス内で、面法線に基づく領域拡張技術を使用して、種々の表面をデプス点群に作成している。前記1又は複数の表面を、シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、(i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを実行することによって求めている。換言すれば、前記1又は複数の領域拡張技術(複数可)は、まずシード点を考慮し、次いで前記点と近傍点との間で面法線を比較する。これらの間の角度が閾値未満である場合、その点が当該領域に属していると判定される。次いで、すべての近傍点が当該シード点として機能し、従前の点が除去される。すべての点が確認されるまで、全プロセスを繰り返す。
ここでもまた、ボックスの平面に対して、1つのセグメントのみを検出する必要がある。しかし、前記領域拡張技術が複数のセグメントを返す場合がある。このような状況を回避するために、2つの近傍セグメントをほぼ類似の平均面法線の方向にマージしてもよい。2つの隣接するセグメントは、それらの間の内積がある閾値よりも大きい場合にマージされる。この工程により、(図3A〜図3Cに示すように)本開示で提案している方法を使用して、当該領域をより好都合な状態にすることができる。
前記領域拡張技術(複数可)がN個の表面領域を返すと仮定する。

となる各領域

に対して、各セグメントの複数の特性を抽出し、これらをさらに別の処理に利用する。これらの特性は、たとえば面法線方向
、当該セグメントに属する三次元点の平均

、それらの点における面法線の分散

、主成分分析(PCA)からの最初の2つの主方向、及び前記2つの主方向に沿った軸の長さを含んでいてもよい。
オブジェクト姿勢を検出するためにPCAを適用している。各セグメントに対して長軸方向と短軸方向とが計算され、これらはさらに別の処理に使用される。
前記ニューラルネットワークによって返されたウィンドウは、所望のオブジェクトを正確に包囲することができない。これから逸脱してしまう場合がある。結果として、領域拡張技術(複数可)によって検出されるいくつかのセグメントは、特定のオブジェクトに属していない可能性がある。このようなタイプの非帰属セグメントを排除するために、システム100は混合ガウスモデルを実施している。
本開示の一実施形態では、工程208において、1又は複数のハードウェアプロセッサ104が混合ガウスモデル(GMM)を使用して、前記1又は複数の表面から1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントをセグメント化する。本開示の一実施形態では、GMMは、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントに属する前記1又は複数の表面のカラー及び曲率を使用しており、ここで、前記カラーは色相(H)及び彩度(S)を含む。実験データ(表1及び表2、並びに図5A〜図5Bのグラフ表示を参照のこと)によると、カラー情報のみがクラス間で必要な識別を付与していないことが明らかである。このために、本開示で提案している方法では、カラー情報とデプス情報とを組み合わせて、カラー値のみを使用することによっては得られない良好な識別を可能にしている。
システム100は、セグメントの曲率を1つのフィーチャとして考慮している。好ましい実施形態では、システム100は、RGBカラー空間の代わりにHSカラー空間を利用している。Vチャネルを除去して、照明条件を可能な限り排除している。本開示の一実施形態では、各セグメントの曲率をTaubinのフィッティング技法を使用して計算している。面法線の方向に急激な変化が認められるたびに、新たな表面を作成している。対象オブジェクトに属する表面を、カラー(色相及び彩度)とデプス曲率とをフィーチャとして組み込んだ対象オブジェクトの混合ガウスモデル(GMM)を使用して、バウンディングボックス内に存在する他のパッチから分離している。当該オブジェクトの同一性を前述の認識モジュールから確認しているので、この情報は、対象オブジェクトを残りの背景からセグメント化するのに利用することができる。本方法を機能させるために、そのオブジェクトの正確な三次元モデル又は完全な三次元点群を有する必要はない。1又は複数のビューから取得された少数のRGBD画像を、各オブジェクトのテンプレートとして使用することができる。つまり、対象オブジェクトをその背景と、前記バウンディングボックス内の他のクラスとからGMMに基づいてセグメント化することによって、前記認識モジュールの不正確さが補償される。対象オブジェクトの表面が背景からひとたび分離されると、曲率半径、面法線の方向などに基づく経験則のセットを使用して、3つのプリミティブ形状であるボックス、円柱及び球を識別する。形状の識別を、RANSAC(ランダム・サンプル・コンセンサス)などの複雑な反復法を使用せずに、単一の工程で実行している。図1〜図3Bに関連して、図3Cは、本開示の一実施形態に係る、マージング技術を適用した後の最終セグメントを示す。上面に検出された小領域はマージされ、必要に応じて1つの表面が形成される。
三次元(H、S、及び曲率)GMMは、オブジェクトテンプレートから訓練されている。したがって、各オブジェクトに対して2つのGMMモデルが訓練され、ここで、1つは所望のオブジェクト用であり、もう1つは背景と他のクラスとをモデル化するためのものである。セグメントが特定のクラスに属しているかどうかを検出するために、各点を2つのGMMモデルに対してテストしてもよい。その点の帰属確率は、正のクラスのモデルにおけるピクセル尤度と両方のモデルにおける尤度の合計との比によって定義される。その点の帰属確率を次の式で示すことができる。
帰属確率

(1)
ここで、

=当該クラスの尤度、そして

=背景及び他のクラスの尤度となる。
テスト目的のために、当該確率が閾値(たとえば、0.5)より大きい場合、セグメント内の点をオブジェクトセグメントと見なしている。また、セグメント内の点の大部分がそのクラスに属する場合、当該セグメントはそのクラスに属していると見なしてもよい。したがって、ウィンドウ(たとえば、RCNNウィンドウ)内のすべてのセグメントがテストされ、形状プリミティブをフィッティングするべくさらに処理される。図1〜図3Cに関連して、図4A〜4Cは、本開示の一実施形態に係る、図1のシステム100によるカラー及び曲率に基づくGMMを使用した改良例を示す。より詳細には、図4Aは、本開示の一実施形態に係る、検出された対象オブジェクト402を包囲する、領域ベースの畳み込みニューラルネットワーク(RCNN)のバウンディングボックス404を示し、図4Bは、本開示の一実施形態に係る、図1のシステム100による混合ガウスモデル(GMM)の出力を示す。セグメント(たとえば、Kinect(登録商標)センサデバイスなどのデプスセンサによって生成される出力として、赤色で表示される可能性がある白色の陰影付きセグメント)をオブジェクトセグメント406として検出し、検出しなかったセグメントを408(たとえば、Kinect(登録商標)センサデバイスなどのデプスセンサによって生成される出力として、青色で表示される可能性がある濃い陰影付きセグメント)として示している。図4Cは、本開示の一実施形態に係る、図1のシステム100による形状フィッティング用に考慮されたセグメント410を示す。
システム100によって実行されるセグメント化の実現性は、その訓練の質に依存し得る。したがって、正しいクラスタ数を選択することが重要となる。本開示の実施形態では、訓練データセットに対して増分クラスタリング技法を実行することによってクラスタ数を自動的に選択している。GMMクラスタの数を決定するために、クロージャの数、すなわちKのみを使用している。
訓練データ(又はデータセット)に対してシステム100によって実施される増分クラスタリング技法を、以下のような例として示してもよい。
増分クラスタリング技法:
1.

となるデータ

、クラスタセンタ

、サイズ

を入力し、ここで、h=色相、s=彩度、c=曲率となる
2.クラスタ数

に0を代入する
3.

及び

を代入してクラスタ

を追加する
4.

となる

に対して
5.最小距離

でクラスタを計算する
6.

である場合にクラスタに含める
7.

を代入して

を更新する
8.それ以外の場合は、

を代入して新たなクラスタ

を作成する
図1〜図4Cに関連して、図5A〜図5Bは、本開示の一実施形態に係る、カラー、曲率及び両方の組み合わせに基づく混合ガウスモデルを使用した、(a)円柱及び(b)ボックスの2つのオブジェクトに関する検出精度を図示している、グラフ表示を示す。図5A〜図5Bは、カラー情報とデプス曲率情報とを組み合わせることにより、カラー又は曲率のいずれかのみを使用する場合と比較してより良好な識別が可能となることを示している。より詳細には、図5A〜図5Bは、カラーのみ、曲率のみ、且つ両方の組み合わせを使用するGMMを使用した場合に取得される、2つのオブジェクトに関する精度

のグラフ表示を示している。ここから理解できるように、カラーと曲率との組み合わせが、他の2つの場合と比較してより高い精度をもたらしている。円柱プリミティブ及び球プリミティブの場合、3つのチャネル(色相、彩度、及び曲率)がすべて識別可能であるため、全体的な効果がはるかに高くなっている。ボックスの表面が平坦である場合、曲率は他のボックスタイプのオブジェクト及びビンの平坦壁(背景)と一致する。したがって、必要な識別を付与するためには2つのカラーチャネルのみが残る。カラー情報は曲率情報ほど信頼性が高くないので、ボックスタイプのオブジェクトのGMMは他の2つの形状ほど機能していない。
本開示の一実施形態では、工程210において、1又は複数のハードウェアプロセッサ104が1又は複数のオブジェクトセグメントに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求める。本開示の一実施形態では、前記1又は複数の最適なフィット形状プリミティブを、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則(メモリ102に記憶され、且つシステム100によってリアルタイムで実施される)を適用することによって求めており、ここで、前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む。
本開示は、GMMの出力からのセグメントを使用して、三次元形状プリミティブをフィッティングしている。本開示のいくつかの実施形態では、たとえばボックス、円柱、及び球などの3つの基本三次元形状プリミティブをフィッティングする手法を開示している。上述のように、どの形状プリミティブをフィッティングすべきかの判断は、セグメントの曲率及び分散に基づき、システム100によって自動的に行われる。円柱状オブジェクトと球状オブジェクトとは、ボックスオブジェクトと比較してより多くの類似性を共有していることが理解される。したがって、第1の段階では、本開示の実施形態において円柱と球とをボックス形状プリミティブから分離して、円柱と球との間で判断しようと試みた。この判断は、フィッティングすべき表面に関する以下の特性に基づいており、これを実施例として記載している。
曲率推定:
デプスデータはカラー情報と比較してはるかに信頼性が高いため、曲率は本開示の種々の工程において重要な役割を果たしている。システム100は、三次元デカルト座標(x、y、z)の助けを借りて効率的に局所表面を概算する、Taubinのフィッティング技法を適用している。二次方程式をこれらの近傍点に当てはめることができ、そのセグメントの最終曲率はその近傍の平均曲率に基づいて特定される。
分散計算:
曲率のみでは、形状プリミティブフィッティングに関する判断を下すのに十分でない場合がある。面法線の分散は、表面が平坦であるか、或いは曲面であるかを判断する上で重要な要素である。平面については、曲面と比較してそれほど面法線方向がずれることはなく、平面の分散は曲面の分散と比較してはるかに小さくなる。領域



点を有している場合、その標準偏差は次の式で計算することができる。
領域

のσri

ここで、

となる(2)
この判断は、GMMに対して最も高い確率を有するセグメントに基づいて下される。1又は複数のセグメントがほぼ同じ確率を有する場合、それらの中で最大のものについて検討してもよい。
形状プリミティブのフィッティングに関する基準は以下のとおりである。
半径

0.05m−フィット円柱又はフィット球
半径

0.1m−フィットボックス
0.05m 半径 0.1m


円柱プリミティブと球プリミティブ:
三次元プリミティブフィッティングは、オブジェクト形状の完全な情報を使用することによって、把持作業を容易にするために取り入れられている。オブジェクトの表面のほとんどが適切に表示されるので、形状フィッティングの課題ははるかに単純なものになっている。しかし、オクルージョンや視認性の欠如のために、入力データはあまりはっきりとした明確さや情報を含有しないことが多いため、フィッティングの課題をより困難なものにしている。
円柱プリミティブ及び球プリミティブフィッティングに関しては、本開示の実施形態は、当該プリミティブのパラメータを求めるために、曲面を使用することを考慮している。円柱状プリミティブと球状プリミティブとを識別するために、当該特性を使用して、これにより球面の面法線がある点で一致する一方で、円柱面の場合は面法線がある線で一致するようにしている。したがって、任意の球面の面法線が、半径に等しい分だけ面法線方向の反対に延長されると、それらはある点で一致することになる。しかし、実際のデータでは、それらは一点において一致するのではなく、球の中心を包囲する小さな領域内に存在している。延長された点の中間に対して、球の中心点を付与している。一方、円柱面の場合は、面法線に同じ手法を適用すると、これらは円柱の中心を通る線上に並び、その長さは円柱の長さにほぼ等しいものとなる。これは、曲率推定手法から既に得られた半径の値である、円柱の長さ方向と軸方向とを取得するのに役立つ。
ボックスプリミティブ:
表面特性が円柱又は球と一致しない場合、システム100は、ボックス形状フィッティングを自動的に考慮してもよい。ボックスタイプのオブジェクトの一部であるためには、2つの近傍セグメントは以下の特性を有している必要がある。
1.両表面の面法線は垂直である必要がある。
2.両方のセグメントにおける2つの軸(長軸、短軸)のいずれも同じ方向にある必要がある。
3.両方のセグメントにおける一致軸の長さは、ほぼ同じ(又はほぼ同様)である必要がある。
上記の第3の条件を確認するには、その方向が同様である軸の長さを考慮する。これらの比率は可能な限り近いものとなる必要がある。
再度図2の工程を参照すると、本開示の一実施形態では、工程212において、1又は複数のハードウェアプロセッサ104が、前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する。最初に、円柱又は球の中心及び半径として、把持の中心及び半径を設定した。指間の最大距離(ハンド最大開口)よりも大きいどんな半径も、完全に開いている場合であっても破棄される。前記軸を、円柱軸と法線方向との両方に垂直となるように設定した。把持用のハンドルの周りに十分なスペース(ハンドル間隙)が必要となるはずである。前記中心とハンド最大開口に等しい半径とを包囲する小さな球状領域で探査が行われ、その隙間が有効な把持可能領域であるかどうかを確認するためにのみ、ハンドル間隙を組み合わせている。したがって、有効なハンドルであるためには、円柱シェルはその内側に十分な点を含有し、且つその外側では、ハンドル間隙に等しい一定の距離まで点が非常に少ないか、又はほとんどない状態にするべきである。プリミティブフィッティング手法では既に半径が得らたが、表面の不均一な性質(対象オブジェクトに左右される)のために、いくつかの点が半径の外に存在している可能性がある。この種の状況を回避するために、従来技術では、ハンドル間隙に点がほとんどなくなるまで半径の長さを延長してきた。本従来技術は、他のオブジェクトからのいくつかの点が半径内にあり、ハンドル間隙には点がない例をもって出願されている。初期段階でGMMを使用してセグメント化が行われていたため、提案している本方法においても、どのセグメント(点)がそのオブジェクトに属しているのかや、どれが属していないのかについて認識していた。有効なハンドルであるためには、対象オブジェクトに属していない点の数がごく最小限となる必要がある。この条件を含めることで、本開示の実施形態により、提案している本方法でいくつかの誤ったハンドルを除去することが可能となった。円柱プリミティブ用のハンドルに関して、プリミティブの中心からの探査が行われた。中心にハンドルが見つからなかった場合には、提案している本手法では、図6A〜図6Bに示すように、円柱軸に沿って両方向において探査した。球プリミティブは、その中心(三次元点)とその半径によってのみ定義されている。球プリミティブには、円柱プリミティブのような軸が何ら存在しない。したがって、ハンドルの探査は、平均面法線方向に沿って法線を有する平面上で軸を回転することによって行われている。ひとたびハンドルが見つかると、提案している本手法では、システム100(又はロボット)によって使用されるハンドルパラメータを返す。
ボックスプリミティブの把持位置の特定は、図6Cに示すように、側面(面)上でパッチを探査することによって行われている。たとえば、ボックスは、ロボット又はユーザに向かって面法線方向を有する前面を使用して把持されることになる。理想的には、第1の面と垂直な方向に2つの面が存在しなければならない。したがって、上記の基準を有するパッチは各可視面で探査され、見つかった場合に返される。提案している本手法では、単一のビューから点群データが入力されている。前記2つの垂直面は、単一のビューからは見えない場合がある。したがって、本開示の実施形態により、提案している本方法で、少なくとも1つの垂直面で検出することが可能となっている。まず、前記前面の短軸方向をロボットハンドの向きとした上で、引き続き探査を行う。ロボットハンドにフィットする把持用のハンドルの周りに、十分なスペースがなければならない。すべての可視面でハンドルの探査を行い、対応するパラメータをロボットに供給している。
図1〜図5Bに関連して、図6A〜図6Cは、本開示の一実施形態に係る、円柱及び球のプロトタイプを示す。球の面法線はすべて点に収束しているが、円柱の面法線は三次元の線上に向かっている。この特性を、最初の2つの形状プリミティブを識別するために使用してもよい(又は使用している)(図6A〜6Bを参照のこと)。図6Cは、本開示の一実施形態に係る、ボックスプリミティブのプロトタイプである。より詳細には、図6A〜図6Cは、プリミティブにおける把持位置の特定を説明するためのプロトタイプを示す。有効なハンドルであるためには、当該領域の周りに十分な間隙がなければならない。ハンドル間隙において、オブジェクトに属していない点の数がほとんどない状態となる必要がある。ハンドルの半径はプリミティブ(球及び円柱の)の曲率であり、且つボックスタイプのプリミティブの対応する軸長さである。
本開示の実施形態により、提案している本方法で、オブジェクトごとに少なくとも1つのベストハンドルを返すことに集中できるようになっている。オブジェクトに属さない点の数に基づいて、ベストハンドル(又は最適な把持姿勢(複数可))を選択している。提案している本方法では、球及び円柱に対しては把持可能領域を1つのみ検出し、可能であれば、ボックスの可視面ごとに1つの領域を検出している。ボックスの場合は、ハードウェアの制限や障害によりロボットの手が把持ハンドルに届かない場合があるため、複数のハンドルが返されてもよい。このような場合は、手の届く他のハンドルを試してもよい。図1〜図6Cに関連して、図7は、本開示の一実施形態に係る、提案している本方法による結果を示す。3つの形状プリミティブであるボックス702、球704、円柱706それぞれについて示している。ハンドルを702A、704A、及び706Aによってそれぞれ示している。各ハンドルに対して、法線方向を708とロボットハンドの向き710とによって示している。
実験結果:
本開示で提案している方法の実現性を評価するために、家庭用オブジェクトを使用して実験を行った。可能な限り多くの姿勢を考慮して結果を算出している。提案している本形状フィッティング手法では、対象オブジェクトがある程度オクルージョンされた場合であっても対応することができる。本実験では、ジオメトリベースの三次元形状プリミティブフィッティングが実際の処理時間においても有望な結果を示した。先に説明したように、カラー及び曲率をフィーチャとして備えるGMMにより、実現性が著しく向上している。本開示の一実施形態では、オブジェクト当たり150フレームを使用してGMMを訓練した。
形状プリミティブ:
形状プリミティブフィッティングの結果を、家庭用オブジェクトによる例として以下の表1に示している。円柱(半径、長さ、軸、及び中心)、球(半径、中心)、及びボックス(長さ、幅、高さ、及び対応する方向)の物理パラメータを、提案している本手法の対応する値と比較している。表1は、各プリミティブ形状が検出された回数をまとめたものである。
上記の表1から、正確なプリミティブのフィッティング精度はかなり高く、また姿勢も無関係であることが明らかである。
把持:
表2は、最終の形状プリミティブと把持結果とを示す。提案している本手法では、単一オブジェクト及び複数オブジェクトのワークスペースで個別にテストを行った。単一オブジェクトのプリミティブフィッティングの場合、検出工程とセグメント化工程とを省略した。表2は、具体的には形状プリミティブ(P)及び把持(H)の精度(%)を示す。
上記の表2の第1行目から明らかなように、提案しているプリミティブフィッティング及び把握位置の特定の工程は、3つのタイプの形状すべてに対して高精度で実行されている。
本明細書では、当業者が実施形態を作成し、且つ使用することを可能にするために本明細書の主題を記載している。本主題の実施形態の範囲は特許請求の範囲によって定義され、当業者が想到する他の修正を含んでいてもよい。このような他の修正は、特許請求の範囲の文字通りの言葉と異ならない類似の構成要素を有する場合、又はそれらが特許請求の範囲の文字通りの言葉と実質的な差異のない違いを有する等価な構成要素を含む場合には、特許請求の範囲内にあることを意図している。
保護の範囲は、このようなプログラムに、そこにメッセージを有するコンピュータ可読手段に加えて拡張されることが理解される。そのようなコンピュータ可読記憶手段は、前記プログラムがサーバ又はモバイルデバイス若しくは任意の適切なプログラマブルデバイス上で動作するときに、本方法の1又は複数の工程を実行させるためのプログラムコード手段を含む。前記ハードウェアデバイスは、たとえばサーバ又はパソコン、若しくは同様のものなどの任意の種類のコンピュータ、或いはこれらの任意の組み合わせを含む、プログラム可能な任意の種類のデバイスとすることができる。前記デバイスはまた、一例として、たとえば特定用途向け集積回路(ASIC)、フィールドプログラマブル・ゲート・アレイ(FPGA)のようなハードウェア手段、又は、たとえばASIC及びFPGA、若しくは少なくとも1つのマイクロプロセッサ及びその内部にソフトウェアモジュールを有する少なくとも1つのメモリなどの、ハードウェア手段とソフトウェア手段との組み合わせとなり得る手段を備えていてもよい。したがって、前記手段はハードウェア手段とソフトウェア手段との両方を含むことができる。本明細書に記載の方法の実施形態は、ハードウェアとソフトウェアとで実施することができる。前記デバイスはまた、ソフトウェア手段を含んでいてもよい。或いは、たとえば複数のCPUを使用して本実施形態を種々のハードウェアデバイスで実施してもよい。
本明細書の実施形態は、ハードウェア構成要素とソフトウェア構成要素とを備えることができる。ソフトウェアで実施する実施形態は、ファームウェア、常駐ソフトウェア、マイクロコードなどを含むが、これらに限定されない。本明細書に記載の種々のモジュールによって実行される機能を、他のモジュール又は他のモジュールの組み合わせで実施してもよい。本明細書では、コンピュータ使用可能媒体又はコンピュータ可読媒体は、命令実行システム、装置、若しくはデバイスによって、或いはこれらと共に使用されるプログラムを備え、記憶し、送信し、伝達し、或いは転送することが可能な任意の装置とすることができる。
図示した工程は、示している例示的な実施形態を説明するために提示しており、また進行中の技術開発によって、特定の機能の実行方法が変更されることが予期されるべきである。これらの実施例を、本明細書では例示する目的で提示しており、限定するものではない。また、機能的ビルディングブロックの境界は、説明の便宜上、本明細書において任意に定義されている。特定の機能及びその関連事項が適切に実行される限り、代替の境界を定義することができる。本明細書に含まれる開示内容に基づいて、当業者にとっては、代替物(本明細書に記載しているものの均等物、拡張物、変形物、偏差などを含む)の存在は明らかである。そのような代替物は、開示している本実施形態の範囲及び趣旨の範囲内にある。また、「備える」、「有する」、「含有する」、及び「含む」並びに他の類似の単語は意味が等価であり、これらの単語のいずれかに続く項目又は複数の項目が、そのような項目又は複数の項目の網羅的なリストであることを意図したものではなく、またリストされた項目又は複数の項目にのみ限定されることを意図したものではないことから、オープンエンドの単語であることが意図されている。なお、本明細書及び添付の特許請求の範囲で使用する単数形「a」、「an」並びに「the」は、文脈上他に明確に指示しない限り、複数の参照要素も含むものとする。
さらに、本開示の内容と一致する実施形態を実施する際に、1又は複数のコンピュータ可読記憶媒体を利用してもよい。コンピュータ可読記憶媒体は、プロセッサによって読み取り可能な情報又はデータが記憶され得る任意のタイプの物理メモリを指す。したがって、コンピュータ可読記憶媒体は、1又は複数のプロセッサによって実行されるため命令であって、本明細書に記載の実施形態の内容と一致する工程又は段階を前記プロセッサ(複数可)に実行させる命令を含む、複数の命令を記憶していてもよい。「コンピュータ可読媒体」という用語は有形品目を含み、搬送波及び過渡信号を除外する、すなわち非一時的なものであることが理解されるべきである。その例としてはランダム・アクセス・メモリ(RAM)、読み取り専用メモリ(ROM)、揮発性メモリ、不揮発性メモリ、ハードディスクドライブ、CD−ROM、DVD、ブルーレイディスク、フラッシュドライブ、ディスク、及び他の任意且つ既知の物理記憶媒体が挙げられる。
本開示及び実施例は例示的なものとしてのみ考えられ、開示している実施形態の真の範囲及び趣旨を、以下の特許請求の範囲によって示していることが意図される。

Claims (20)

  1. 1又は複数のプロセッサによって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出する工程(202)であって、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備える、工程(202)と、
    デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得する工程(204)と、
    前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める工程(206)と、
    混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する工程(208)と、
    前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求める工程(210)と、
    前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する工程(212)とを含む、
    プロセッサ実施方法(200)。
  2. 前記混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する前記1又は複数の表面のカラー及び曲率に基づいており、ここで、前記カラーは色相及び彩度を含む、請求項1に記載のプロセッサ実施方法。
  3. 各セグメントの前記曲率をTaubinのフィッティング技法を使用して計算している、請求項2に記載のプロセッサ実施方法。
  4. 前記混合ガウスモデルを使用して、前記表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、データベースに記憶された訓練データに基づいている、請求項2に記載のプロセッサ実施方法。
  5. 前記1又は複数の最適なフィット形状プリミティブを求める前記工程は、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用する工程を含む、請求項1に記載のプロセッサ実施方法。
  6. 前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む、請求項5に記載のプロセッサ実施方法。
  7. 前記領域拡張技術を使用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める前記工程は、
    シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、
    (i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを含む、
    請求項1に記載のプロセッサ実施方法。
  8. 命令を記憶するメモリ(102)と、
    1又は複数の通信インターフェース(106)と、
    前記1又は複数の通信インターフェース(106)を介して前記メモリ(102)に結合された1又は複数のハードウェアプロセッサ(104)とを備え、ここで、前記1又は複数のハードウェアプロセッサ(104)は、前記命令により、
    前記1又は複数のプロセッサ(104)によって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出し、ここで、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備えており、
    デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得し、
    前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求め、
    混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化し、
    前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求め、且つ
    前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出するように構成されている、
    システム(100)。
  9. 前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方を、前記1又は複数の表面から、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する前記1又は複数の表面のカラー及び曲率に基づいてセグメント化しており、ここで、前記カラーは色相及び彩度を含む、請求項8に記載のシステム。
  10. 各セグメントの前記曲率をTaubinのフィッティング技法を使用して計算している、請求項9に記載のシステム。
  11. 前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方を、データベースに記憶された訓練データに基づいてセグメント化している、請求項9に記載のシステム。
  12. 前記1又は複数の対象オブジェクトの前記1又は複数の最適なフィット形状プリミティブを、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用することによって求めている、請求項9に記載のシステム。
  13. 前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む、請求項12に記載のシステム。
  14. 前記1又は複数の対象オブジェクトの前記1又は複数の表面を、
    シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、
    (i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを実行することによって、前記1又は複数のウィンドウにおいて求めている、
    請求項8に記載のシステム。
  15. 1又は複数のハードウェアプロセッサによって実行されると、
    1又は複数のプロセッサによって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出する工程であって、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備える、工程と、
    デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得する工程と、
    前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める工程と、
    混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する工程と、
    前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求める工程と、
    前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する工程と
    を実行させる1又は複数の命令を備える、
    1又は複数の非一時的機械可読情報記憶媒体。
  16. 前記混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する前記1又は複数の表面のカラー及び曲率に基づいており、ここで、前記カラーは色相及び彩度を含み、ここで、各セグメントの前記曲率をTaubinのフィッティング技法を使用して計算している、請求項15に記載の1又は複数の非一時的機械可読情報記憶媒体。
  17. 前記混合ガウスモデルを使用して、前記表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、データベースに記憶された訓練データに基づいている、請求項16に記載の1又は複数の非一時的機械可読情報記憶媒体。
  18. 前記1又は複数の最適なフィット形状プリミティブを求める前記工程は、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用する工程を含む、請求項15に記載の1又は複数の非一時的機械可読情報記憶媒体。
  19. 前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む、請求項18に記載の1又は複数の非一時的機械可読情報記憶媒体。
  20. 前記領域拡張技術を使用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める前記工程は、
    シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、
    (i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを含む
    請求項15に記載の1又は複数の非一時的機械可読情報記憶媒体。
JP2018135680A 2017-07-20 2018-07-19 対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法 Pending JP2019032830A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
IN201721025912 2017-07-20
IN201721025912 2017-07-20

Publications (1)

Publication Number Publication Date
JP2019032830A true JP2019032830A (ja) 2019-02-28

Family

ID=63012882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018135680A Pending JP2019032830A (ja) 2017-07-20 2018-07-19 対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法

Country Status (4)

Country Link
US (1) US10646999B2 (ja)
EP (1) EP3432271A1 (ja)
JP (1) JP2019032830A (ja)
AU (1) AU2018206791A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022531639A (ja) * 2019-05-09 2022-07-08 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ビデオへの情報埋め込み方法、コンピュータ機器及びコンピュータプログラム
KR102504405B1 (ko) * 2021-11-26 2023-02-28 한국생산기술연구원 객체 어포던스 시각화를 통한 작업 가이드라인을 생성하는 사용자 인터페이스 제공 방법 및 그 시스템

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10635979B2 (en) * 2018-07-20 2020-04-28 Google Llc Category learning neural networks
US11185978B2 (en) * 2019-01-08 2021-11-30 Honda Motor Co., Ltd. Depth perception modeling for grasping objects
GB2581957B (en) * 2019-02-20 2022-11-09 Imperial College Innovations Ltd Image processing to determine object thickness
CN111666935B (zh) * 2019-03-06 2024-05-24 北京京东乾石科技有限公司 物品中心定位方法、装置以及物流系统和存储介质
US10977480B2 (en) * 2019-03-27 2021-04-13 Mitsubishi Electric Research Laboratories, Inc. Detection, tracking and 3D modeling of objects with sparse RGB-D SLAM and interactive perception
CN109993168B (zh) * 2019-04-09 2021-07-16 成都鹏业软件股份有限公司 智能巡检方法
CN110125930B (zh) * 2019-04-18 2021-05-11 华中科技大学 一种基于机器视觉和深度学习的机械臂抓取控制方法
CN111860533B (zh) * 2019-04-30 2023-12-12 深圳数字生命研究院 图像的识别方法及装置、存储介质和电子装置
CN110335324A (zh) * 2019-05-22 2019-10-15 湖南大学 一种基于rgb三通道多路合成的灰度图像着色方法及系统
CN110188833B (zh) * 2019-06-04 2021-06-18 北京字节跳动网络技术有限公司 用于训练模型的方法和装置
CN110378325B (zh) * 2019-06-20 2022-03-15 西北工业大学 一种机器人抓取过程中的目标位姿识别方法
US11322234B2 (en) 2019-07-25 2022-05-03 International Business Machines Corporation Automated content avoidance based on medical conditions
CN110458113A (zh) * 2019-08-14 2019-11-15 旭辉卓越健康信息科技有限公司 一种人脸非配合场景下的小人脸识别方法
CN114364942A (zh) * 2019-09-06 2022-04-15 罗伯特·博世有限公司 用于工业机器人的三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台
US11423223B2 (en) 2019-12-02 2022-08-23 International Business Machines Corporation Dynamic creation/expansion of cognitive model dictionaries based on analysis of natural language content
US11625422B2 (en) 2019-12-02 2023-04-11 Merative Us L.P. Context based surface form generation for cognitive system dictionaries
CN111178299B (zh) * 2019-12-31 2023-04-07 深圳市商汤科技有限公司 图像处理方法、装置、电子设备和存储介质
CN111203916B (zh) * 2020-01-16 2021-06-08 山西万合智能科技有限公司 一种机器人关节与几何体碰撞的检测方法
CN111319044B (zh) * 2020-03-04 2022-08-09 达闼科技(北京)有限公司 物品抓取方法、装置、可读存储介质及抓取机器人
ES2885077A1 (es) * 2020-06-09 2021-12-13 Consejo Superior Investigacion Metodo para determinar un modelo de agarre de mano
US11270147B1 (en) 2020-10-05 2022-03-08 International Business Machines Corporation Action-object recognition in cluttered video scenes using text
CN112720459B (zh) * 2020-12-02 2022-07-12 达闼机器人股份有限公司 目标物体抓取方法、装置、存储介质及电子设备
CN112847362B (zh) * 2021-01-05 2022-09-20 江汉大学 一种基于图像矩的搬运机器人视觉伺服控制方法
CN112828892B (zh) * 2021-01-22 2022-04-26 熵智科技(深圳)有限公司 一种工件抓取方法、装置、计算机设备及存储介质
DE102021200569A1 (de) 2021-01-22 2022-07-28 Robert Bosch Gesellschaft mit beschränkter Haftung Vorrichtung und Verfahren zum Trainieren eines Gaußprozess-Zustandsraummodells
US11423252B1 (en) 2021-04-29 2022-08-23 International Business Machines Corporation Object dataset creation or modification using labeled action-object videos
CN113954066B (zh) * 2021-10-14 2023-02-21 国电南瑞科技股份有限公司 一种基于数字孪生系统的配网作业机器人控制方法及装置
CN115201778B (zh) * 2022-09-09 2023-02-03 广州小鹏自动驾驶科技有限公司 不规则障碍物检测方法、车辆及计算机可读存储介质
US20240091951A1 (en) * 2022-09-15 2024-03-21 Samsung Electronics Co., Ltd. Synergies between pick and place: task-aware grasp estimation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308628A (ja) * 1999-03-22 2000-11-07 General Electric Co <Ge> 曲率を用いた表面のレジスタリング方法
JP2006130580A (ja) * 2004-11-02 2006-05-25 Toyota Motor Corp ロボットによる任意形状物体の把持方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6009435A (en) * 1997-11-21 1999-12-28 International Business Machines Corporation Progressive compression of clustered multi-resolution polygonal models
JP4546956B2 (ja) * 2003-06-12 2010-09-22 本田技研工業株式会社 奥行き検出を用いた対象の向きの推定
US7765029B2 (en) * 2005-09-13 2010-07-27 Neurosciences Research Foundation, Inc. Hybrid control device
US10872322B2 (en) * 2008-03-21 2020-12-22 Dressbot, Inc. System and method for collaborative shopping, business and entertainment
US8503720B2 (en) * 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US20110304619A1 (en) * 2010-06-10 2011-12-15 Autodesk, Inc. Primitive quadric surface extraction from unorganized point cloud data
US9367770B2 (en) 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US9764468B2 (en) * 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US10113910B2 (en) * 2014-08-26 2018-10-30 Digimarc Corporation Sensor-synchronized spectrally-structured-light imaging
WO2016050290A1 (en) * 2014-10-01 2016-04-07 Metaio Gmbh Method and system for determining at least one property related to at least part of a real environment
US10311302B2 (en) * 2015-08-31 2019-06-04 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
US9904867B2 (en) * 2016-01-29 2018-02-27 Pointivo, Inc. Systems and methods for extracting information about objects from scene information

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000308628A (ja) * 1999-03-22 2000-11-07 General Electric Co <Ge> 曲率を用いた表面のレジスタリング方法
JP2006130580A (ja) * 2004-11-02 2006-05-25 Toyota Motor Corp ロボットによる任意形状物体の把持方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
SWAGAT KUMAR ET AL.: ""Design and Development of an automated Robotic Pick & Stow System for an e-Commerce Warehouse"", ARXIV.ORG, JPN7019004083, 7 March 2017 (2017-03-07), US, pages 1 - 15, ISSN: 0004258927 *
アッタミミ ムハンマド、外2名: ""近赤外線反射強度を用いた材質の認識とその応用"", 情報処理学会研究報告 システムLSI設計技術(SLDM), JPN6019049691, 15 December 2011 (2011-12-15), JP, pages 1 - 6, ISSN: 0004258928 *
北村 和男、外2名: ""特徴抽出に基づいた点群データのレジストレーション"", 画像電子学会誌, vol. 40, no. 4, JPN6019049692, 25 July 2011 (2011-07-25), JP, pages 642 - 649, ISSN: 0004258929 *
長場 景子: ""Amazon主催の物流ピッキング自動化競技会 対象物の画像認識ではディープラーニングが席巻"", NIKKEI ROBOTICS, JPN6019049693, 10 August 2016 (2016-08-10), JP, pages 4 - 13, ISSN: 0004176880 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022531639A (ja) * 2019-05-09 2022-07-08 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド ビデオへの情報埋め込み方法、コンピュータ機器及びコンピュータプログラム
KR102504405B1 (ko) * 2021-11-26 2023-02-28 한국생산기술연구원 객체 어포던스 시각화를 통한 작업 가이드라인을 생성하는 사용자 인터페이스 제공 방법 및 그 시스템

Also Published As

Publication number Publication date
US10646999B2 (en) 2020-05-12
EP3432271A1 (en) 2019-01-23
AU2018206791A1 (en) 2019-02-07
US20190022863A1 (en) 2019-01-24

Similar Documents

Publication Publication Date Title
JP2019032830A (ja) 対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法
JP6681729B2 (ja) オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
JP6430064B2 (ja) データを位置合わせする方法及びシステム
JP2015533434A (ja) 教師あり形状ランク付けに基づく生物学的単位の識別
Ückermann et al. Realtime 3D segmentation for human-robot interaction
WO2021114776A1 (en) Object detection method, object detection device, terminal device, and medium
Cupec et al. Object recognition based on convex hull alignment
US20200226392A1 (en) Computer vision-based thin object detection
Zelener et al. Cnn-based object segmentation in urban lidar with missing points
Blank et al. 6DoF pose-estimation pipeline for texture-less industrial components in bin picking applications
Sun et al. Oriented point sampling for plane detection in unorganized point clouds
Hodan et al. A Summary of the 4th International Workshop on~ Recovering 6D Object Pose
US11816857B2 (en) Methods and apparatus for generating point cloud histograms
US10664976B2 (en) Method for part mobility prediction based on a static snapshot
Zhao et al. Visual odometry-A review of approaches
Radkowski et al. TrackingExpert: a versatile tracking toolbox for augmented reality
Tazir et al. Cluster ICP: Towards sparse to dense registration
Kordelas et al. Viewpoint independent object recognition in cluttered scenes exploiting ray-triangle intersection and SIFT algorithms
Ückermann et al. Real-time hierarchical scene segmentation and classification
Álvarez et al. Junction assisted 3d pose retrieval of untextured 3d models in monocular images
Asif et al. Model-free segmentation and grasp selection of unknown stacked objects
Xi et al. Localizing 3-d anatomical landmarks using deep convolutional neural networks
Chen et al. Fast 6dof pose estimation with synthetic textureless cad model for mobile applications
Liu et al. A Point Cloud Matching Algorithm Based on Multiscale Point Pair Features
US20240054676A1 (en) Methods and apparatus for determining orientations of an object in three-dimensional data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200512