JP2019032830A - 対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法 - Google Patents
対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法 Download PDFInfo
- Publication number
- JP2019032830A JP2019032830A JP2018135680A JP2018135680A JP2019032830A JP 2019032830 A JP2019032830 A JP 2019032830A JP 2018135680 A JP2018135680 A JP 2018135680A JP 2018135680 A JP2018135680 A JP 2018135680A JP 2019032830 A JP2019032830 A JP 2019032830A
- Authority
- JP
- Japan
- Prior art keywords
- object segments
- target objects
- windows
- objects
- segments
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1669—Programme controls characterised by programming, planning systems for manipulators characterised by special application, e.g. multi-arm co-operation, assembly, grasping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Mechanical Engineering (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
Abstract
Description
となる各領域
に対して、各セグメントの複数の特性を抽出し、これらをさらに別の処理に利用する。これらの特性は、たとえば面法線方向
、当該セグメントに属する三次元点の平均
、それらの点における面法線の分散
、主成分分析(PCA)からの最初の2つの主方向、及び前記2つの主方向に沿った軸の長さを含んでいてもよい。
帰属確率
(1)
=当該クラスの尤度、そして
=背景及び他のクラスの尤度となる。
増分クラスタリング技法:
1.
となるデータ
、クラスタセンタ
、サイズ
を入力し、ここで、h=色相、s=彩度、c=曲率となる
2.クラスタ数
に0を代入する
3.
及び
を代入してクラスタ
を追加する
4.
となる
に対して
5.最小距離
でクラスタを計算する
6.
である場合にクラスタに含める
7.
を代入して
を更新する
8.それ以外の場合は、
を代入して新たなクラスタ
を作成する
のグラフ表示を示している。ここから理解できるように、カラーと曲率との組み合わせが、他の2つの場合と比較してより高い精度をもたらしている。円柱プリミティブ及び球プリミティブの場合、3つのチャネル(色相、彩度、及び曲率)がすべて識別可能であるため、全体的な効果がはるかに高くなっている。ボックスの表面が平坦である場合、曲率は他のボックスタイプのオブジェクト及びビンの平坦壁(背景)と一致する。したがって、必要な識別を付与するためには2つのカラーチャネルのみが残る。カラー情報は曲率情報ほど信頼性が高くないので、ボックスタイプのオブジェクトのGMMは他の2つの形状ほど機能していない。
が
点を有している場合、その標準偏差は次の式で計算することができる。
領域
のσri
ここで、
となる(2)
半径
0.05m−フィット円柱又はフィット球
半径
0.1m−フィットボックス
0.05m 半径 0.1m
1.両表面の面法線は垂直である必要がある。
2.両方のセグメントにおける2つの軸(長軸、短軸)のいずれも同じ方向にある必要がある。
3.両方のセグメントにおける一致軸の長さは、ほぼ同じ(又はほぼ同様)である必要がある。
上記の第3の条件を確認するには、その方向が同様である軸の長さを考慮する。これらの比率は可能な限り近いものとなる必要がある。
Claims (20)
- 1又は複数のプロセッサによって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出する工程(202)であって、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備える、工程(202)と、
デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得する工程(204)と、
前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める工程(206)と、
混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する工程(208)と、
前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求める工程(210)と、
前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する工程(212)とを含む、
プロセッサ実施方法(200)。 - 前記混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する前記1又は複数の表面のカラー及び曲率に基づいており、ここで、前記カラーは色相及び彩度を含む、請求項1に記載のプロセッサ実施方法。
- 各セグメントの前記曲率をTaubinのフィッティング技法を使用して計算している、請求項2に記載のプロセッサ実施方法。
- 前記混合ガウスモデルを使用して、前記表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、データベースに記憶された訓練データに基づいている、請求項2に記載のプロセッサ実施方法。
- 前記1又は複数の最適なフィット形状プリミティブを求める前記工程は、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用する工程を含む、請求項1に記載のプロセッサ実施方法。
- 前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む、請求項5に記載のプロセッサ実施方法。
- 前記領域拡張技術を使用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める前記工程は、
シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、
(i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを含む、
請求項1に記載のプロセッサ実施方法。 - 命令を記憶するメモリ(102)と、
1又は複数の通信インターフェース(106)と、
前記1又は複数の通信インターフェース(106)を介して前記メモリ(102)に結合された1又は複数のハードウェアプロセッサ(104)とを備え、ここで、前記1又は複数のハードウェアプロセッサ(104)は、前記命令により、
前記1又は複数のプロセッサ(104)によって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出し、ここで、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備えており、
デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得し、
前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求め、
混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化し、
前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求め、且つ
前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出するように構成されている、
システム(100)。 - 前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方を、前記1又は複数の表面から、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する前記1又は複数の表面のカラー及び曲率に基づいてセグメント化しており、ここで、前記カラーは色相及び彩度を含む、請求項8に記載のシステム。
- 各セグメントの前記曲率をTaubinのフィッティング技法を使用して計算している、請求項9に記載のシステム。
- 前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方を、データベースに記憶された訓練データに基づいてセグメント化している、請求項9に記載のシステム。
- 前記1又は複数の対象オブジェクトの前記1又は複数の最適なフィット形状プリミティブを、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用することによって求めている、請求項9に記載のシステム。
- 前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む、請求項12に記載のシステム。
- 前記1又は複数の対象オブジェクトの前記1又は複数の表面を、
シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、
(i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを実行することによって、前記1又は複数のウィンドウにおいて求めている、
請求項8に記載のシステム。 - 1又は複数のハードウェアプロセッサによって実行されると、
1又は複数のプロセッサによって実施されるニューラルネットワークを使用して、RGB画像から1又は複数の対象オブジェクトを検出する工程であって、前記RGB画像は、前記1又は複数の検出された対象オブジェクトのそれぞれを含む1又は複数のウィンドウを備える、工程と、
デプスセンサから、前記1又は複数のウィンドウ内のデプスデータを取得する工程と、
前記1又は複数のウィンドウ内の前記デプスデータに対して領域拡張技術を適用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める工程と、
混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する工程と、
前記1又は複数のオブジェクトセグメントの少なくとも1つに基づいて、前記1又は複数の対象オブジェクトの1又は複数の最適なフィット形状プリミティブを求める工程と、
前記1又は複数の最適なフィット形状プリミティブを使用して、前記1又は複数の対象オブジェクトをつかみ取るための1又は複数の把持姿勢を検出する工程と
を実行させる1又は複数の命令を備える、
1又は複数の非一時的機械可読情報記憶媒体。 - 前記混合ガウスモデルを使用して、前記1又は複数の表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、前記1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方に属する前記1又は複数の表面のカラー及び曲率に基づいており、ここで、前記カラーは色相及び彩度を含み、ここで、各セグメントの前記曲率をTaubinのフィッティング技法を使用して計算している、請求項15に記載の1又は複数の非一時的機械可読情報記憶媒体。
- 前記混合ガウスモデルを使用して、前記表面から、1又は複数のオブジェクトセグメント及び1又は複数の非オブジェクトセグメントのうちの少なくとも一方をセグメント化する前記工程は、データベースに記憶された訓練データに基づいている、請求項16に記載の1又は複数の非一時的機械可読情報記憶媒体。
- 前記1又は複数の最適なフィット形状プリミティブを求める前記工程は、前記1又は複数のオブジェクトセグメントに属する前記1又は複数の表面の1又は複数の属性に対して、1又は複数の経験則を適用する工程を含む、請求項15に記載の1又は複数の非一時的機械可読情報記憶媒体。
- 前記1又は複数の属性は、1又は複数の面法線方向、1又は複数の表面曲率、並びに前記表面の長軸及び短軸のうちの少なくとも1つを含む、請求項18に記載の1又は複数の非一時的機械可読情報記憶媒体。
- 前記領域拡張技術を使用して、前記1又は複数のウィンドウにおいて、前記1又は複数の対象オブジェクトの1又は複数の表面を求める前記工程は、
シード点と1又は複数の近傍点との間である表面の面法線を比較する工程と、
(i)前記シード点と前記1又は複数の近傍点との間で角度を比較し、且つ(ii)これらと閾値とを比較する工程とを含む
請求項15に記載の1又は複数の非一時的機械可読情報記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IN201721025912 | 2017-07-20 | ||
IN201721025912 | 2017-07-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019032830A true JP2019032830A (ja) | 2019-02-28 |
Family
ID=63012882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018135680A Pending JP2019032830A (ja) | 2017-07-20 | 2018-07-19 | 対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10646999B2 (ja) |
EP (1) | EP3432271A1 (ja) |
JP (1) | JP2019032830A (ja) |
AU (1) | AU2018206791A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022531639A (ja) * | 2019-05-09 | 2022-07-08 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | ビデオへの情報埋め込み方法、コンピュータ機器及びコンピュータプログラム |
KR102504405B1 (ko) * | 2021-11-26 | 2023-02-28 | 한국생산기술연구원 | 객체 어포던스 시각화를 통한 작업 가이드라인을 생성하는 사용자 인터페이스 제공 방법 및 그 시스템 |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10635979B2 (en) * | 2018-07-20 | 2020-04-28 | Google Llc | Category learning neural networks |
US11185978B2 (en) * | 2019-01-08 | 2021-11-30 | Honda Motor Co., Ltd. | Depth perception modeling for grasping objects |
GB2581957B (en) * | 2019-02-20 | 2022-11-09 | Imperial College Innovations Ltd | Image processing to determine object thickness |
CN111666935B (zh) * | 2019-03-06 | 2024-05-24 | 北京京东乾石科技有限公司 | 物品中心定位方法、装置以及物流系统和存储介质 |
US10977480B2 (en) * | 2019-03-27 | 2021-04-13 | Mitsubishi Electric Research Laboratories, Inc. | Detection, tracking and 3D modeling of objects with sparse RGB-D SLAM and interactive perception |
CN109993168B (zh) * | 2019-04-09 | 2021-07-16 | 成都鹏业软件股份有限公司 | 智能巡检方法 |
CN110125930B (zh) * | 2019-04-18 | 2021-05-11 | 华中科技大学 | 一种基于机器视觉和深度学习的机械臂抓取控制方法 |
CN111860533B (zh) * | 2019-04-30 | 2023-12-12 | 深圳数字生命研究院 | 图像的识别方法及装置、存储介质和电子装置 |
CN110335324A (zh) * | 2019-05-22 | 2019-10-15 | 湖南大学 | 一种基于rgb三通道多路合成的灰度图像着色方法及系统 |
CN110188833B (zh) * | 2019-06-04 | 2021-06-18 | 北京字节跳动网络技术有限公司 | 用于训练模型的方法和装置 |
CN110378325B (zh) * | 2019-06-20 | 2022-03-15 | 西北工业大学 | 一种机器人抓取过程中的目标位姿识别方法 |
US11322234B2 (en) | 2019-07-25 | 2022-05-03 | International Business Machines Corporation | Automated content avoidance based on medical conditions |
CN110458113A (zh) * | 2019-08-14 | 2019-11-15 | 旭辉卓越健康信息科技有限公司 | 一种人脸非配合场景下的小人脸识别方法 |
CN114364942A (zh) * | 2019-09-06 | 2022-04-15 | 罗伯特·博世有限公司 | 用于工业机器人的三维环境建模方法及设备、计算机存储介质以及工业机器人操作平台 |
US11423223B2 (en) | 2019-12-02 | 2022-08-23 | International Business Machines Corporation | Dynamic creation/expansion of cognitive model dictionaries based on analysis of natural language content |
US11625422B2 (en) | 2019-12-02 | 2023-04-11 | Merative Us L.P. | Context based surface form generation for cognitive system dictionaries |
CN111178299B (zh) * | 2019-12-31 | 2023-04-07 | 深圳市商汤科技有限公司 | 图像处理方法、装置、电子设备和存储介质 |
CN111203916B (zh) * | 2020-01-16 | 2021-06-08 | 山西万合智能科技有限公司 | 一种机器人关节与几何体碰撞的检测方法 |
CN111319044B (zh) * | 2020-03-04 | 2022-08-09 | 达闼科技(北京)有限公司 | 物品抓取方法、装置、可读存储介质及抓取机器人 |
ES2885077A1 (es) * | 2020-06-09 | 2021-12-13 | Consejo Superior Investigacion | Metodo para determinar un modelo de agarre de mano |
US11270147B1 (en) | 2020-10-05 | 2022-03-08 | International Business Machines Corporation | Action-object recognition in cluttered video scenes using text |
CN112720459B (zh) * | 2020-12-02 | 2022-07-12 | 达闼机器人股份有限公司 | 目标物体抓取方法、装置、存储介质及电子设备 |
CN112847362B (zh) * | 2021-01-05 | 2022-09-20 | 江汉大学 | 一种基于图像矩的搬运机器人视觉伺服控制方法 |
CN112828892B (zh) * | 2021-01-22 | 2022-04-26 | 熵智科技(深圳)有限公司 | 一种工件抓取方法、装置、计算机设备及存储介质 |
DE102021200569A1 (de) | 2021-01-22 | 2022-07-28 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zum Trainieren eines Gaußprozess-Zustandsraummodells |
US11423252B1 (en) | 2021-04-29 | 2022-08-23 | International Business Machines Corporation | Object dataset creation or modification using labeled action-object videos |
CN113954066B (zh) * | 2021-10-14 | 2023-02-21 | 国电南瑞科技股份有限公司 | 一种基于数字孪生系统的配网作业机器人控制方法及装置 |
CN115201778B (zh) * | 2022-09-09 | 2023-02-03 | 广州小鹏自动驾驶科技有限公司 | 不规则障碍物检测方法、车辆及计算机可读存储介质 |
US20240091951A1 (en) * | 2022-09-15 | 2024-03-21 | Samsung Electronics Co., Ltd. | Synergies between pick and place: task-aware grasp estimation |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000308628A (ja) * | 1999-03-22 | 2000-11-07 | General Electric Co <Ge> | 曲率を用いた表面のレジスタリング方法 |
JP2006130580A (ja) * | 2004-11-02 | 2006-05-25 | Toyota Motor Corp | ロボットによる任意形状物体の把持方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6009435A (en) * | 1997-11-21 | 1999-12-28 | International Business Machines Corporation | Progressive compression of clustered multi-resolution polygonal models |
JP4546956B2 (ja) * | 2003-06-12 | 2010-09-22 | 本田技研工業株式会社 | 奥行き検出を用いた対象の向きの推定 |
US7765029B2 (en) * | 2005-09-13 | 2010-07-27 | Neurosciences Research Foundation, Inc. | Hybrid control device |
US10872322B2 (en) * | 2008-03-21 | 2020-12-22 | Dressbot, Inc. | System and method for collaborative shopping, business and entertainment |
US8503720B2 (en) * | 2009-05-01 | 2013-08-06 | Microsoft Corporation | Human body pose estimation |
US20110304619A1 (en) * | 2010-06-10 | 2011-12-15 | Autodesk, Inc. | Primitive quadric surface extraction from unorganized point cloud data |
US9367770B2 (en) | 2011-08-30 | 2016-06-14 | Digimarc Corporation | Methods and arrangements for identifying objects |
US9764468B2 (en) * | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US10113910B2 (en) * | 2014-08-26 | 2018-10-30 | Digimarc Corporation | Sensor-synchronized spectrally-structured-light imaging |
WO2016050290A1 (en) * | 2014-10-01 | 2016-04-07 | Metaio Gmbh | Method and system for determining at least one property related to at least part of a real environment |
US10311302B2 (en) * | 2015-08-31 | 2019-06-04 | Cape Analytics, Inc. | Systems and methods for analyzing remote sensing imagery |
US9904867B2 (en) * | 2016-01-29 | 2018-02-27 | Pointivo, Inc. | Systems and methods for extracting information about objects from scene information |
-
2018
- 2018-07-10 US US16/031,865 patent/US10646999B2/en active Active - Reinstated
- 2018-07-19 AU AU2018206791A patent/AU2018206791A1/en not_active Abandoned
- 2018-07-19 EP EP18184428.3A patent/EP3432271A1/en active Pending
- 2018-07-19 JP JP2018135680A patent/JP2019032830A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000308628A (ja) * | 1999-03-22 | 2000-11-07 | General Electric Co <Ge> | 曲率を用いた表面のレジスタリング方法 |
JP2006130580A (ja) * | 2004-11-02 | 2006-05-25 | Toyota Motor Corp | ロボットによる任意形状物体の把持方法 |
Non-Patent Citations (4)
Title |
---|
SWAGAT KUMAR ET AL.: ""Design and Development of an automated Robotic Pick & Stow System for an e-Commerce Warehouse"", ARXIV.ORG, JPN7019004083, 7 March 2017 (2017-03-07), US, pages 1 - 15, ISSN: 0004258927 * |
アッタミミ ムハンマド、外2名: ""近赤外線反射強度を用いた材質の認識とその応用"", 情報処理学会研究報告 システムLSI設計技術(SLDM), JPN6019049691, 15 December 2011 (2011-12-15), JP, pages 1 - 6, ISSN: 0004258928 * |
北村 和男、外2名: ""特徴抽出に基づいた点群データのレジストレーション"", 画像電子学会誌, vol. 40, no. 4, JPN6019049692, 25 July 2011 (2011-07-25), JP, pages 642 - 649, ISSN: 0004258929 * |
長場 景子: ""Amazon主催の物流ピッキング自動化競技会 対象物の画像認識ではディープラーニングが席巻"", NIKKEI ROBOTICS, JPN6019049693, 10 August 2016 (2016-08-10), JP, pages 4 - 13, ISSN: 0004176880 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022531639A (ja) * | 2019-05-09 | 2022-07-08 | テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド | ビデオへの情報埋め込み方法、コンピュータ機器及びコンピュータプログラム |
KR102504405B1 (ko) * | 2021-11-26 | 2023-02-28 | 한국생산기술연구원 | 객체 어포던스 시각화를 통한 작업 가이드라인을 생성하는 사용자 인터페이스 제공 방법 및 그 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US10646999B2 (en) | 2020-05-12 |
EP3432271A1 (en) | 2019-01-23 |
AU2018206791A1 (en) | 2019-02-07 |
US20190022863A1 (en) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019032830A (ja) | 対象オブジェクトをつかみ取るための把持姿勢を検出するシステム及び方法 | |
JP6681729B2 (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
JP2015533434A (ja) | 教師あり形状ランク付けに基づく生物学的単位の識別 | |
Ückermann et al. | Realtime 3D segmentation for human-robot interaction | |
WO2021114776A1 (en) | Object detection method, object detection device, terminal device, and medium | |
Cupec et al. | Object recognition based on convex hull alignment | |
US20200226392A1 (en) | Computer vision-based thin object detection | |
Zelener et al. | Cnn-based object segmentation in urban lidar with missing points | |
Blank et al. | 6DoF pose-estimation pipeline for texture-less industrial components in bin picking applications | |
Sun et al. | Oriented point sampling for plane detection in unorganized point clouds | |
Hodan et al. | A Summary of the 4th International Workshop on~ Recovering 6D Object Pose | |
US11816857B2 (en) | Methods and apparatus for generating point cloud histograms | |
US10664976B2 (en) | Method for part mobility prediction based on a static snapshot | |
Zhao et al. | Visual odometry-A review of approaches | |
Radkowski et al. | TrackingExpert: a versatile tracking toolbox for augmented reality | |
Tazir et al. | Cluster ICP: Towards sparse to dense registration | |
Kordelas et al. | Viewpoint independent object recognition in cluttered scenes exploiting ray-triangle intersection and SIFT algorithms | |
Ückermann et al. | Real-time hierarchical scene segmentation and classification | |
Álvarez et al. | Junction assisted 3d pose retrieval of untextured 3d models in monocular images | |
Asif et al. | Model-free segmentation and grasp selection of unknown stacked objects | |
Xi et al. | Localizing 3-d anatomical landmarks using deep convolutional neural networks | |
Chen et al. | Fast 6dof pose estimation with synthetic textureless cad model for mobile applications | |
Liu et al. | A Point Cloud Matching Algorithm Based on Multiscale Point Pair Features | |
US20240054676A1 (en) | Methods and apparatus for determining orientations of an object in three-dimensional data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181116 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200406 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200512 |