JP2015090560A - 画像処理装置、画像処理方法 - Google Patents
画像処理装置、画像処理方法 Download PDFInfo
- Publication number
- JP2015090560A JP2015090560A JP2013229808A JP2013229808A JP2015090560A JP 2015090560 A JP2015090560 A JP 2015090560A JP 2013229808 A JP2013229808 A JP 2013229808A JP 2013229808 A JP2013229808 A JP 2013229808A JP 2015090560 A JP2015090560 A JP 2015090560A
- Authority
- JP
- Japan
- Prior art keywords
- target object
- image
- orientation
- correction
- approximate position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/46—Sensing device
- Y10S901/47—Optical
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
【解決手段】 対象物体が含まれる画像を取得し、取得した画像に含まれる対象物体の概略位置姿勢を取得し、取得した画像で前記対象物体の影領域に関する情報を推定し、推定された影領域に関する情報に基づいて、概略位置姿勢を補正し、補正された概略位置姿勢と保持するモデル情報とに基づいて、画像中の対象物体の位置姿勢を導出する。
【選択図】 図2
Description
図1は、第1の実施形態における画像処理装置のシステム構成の模式図である。
画像処理装置104は、撮像装置102およびプロジェクタ103と接続されており、プロジェクタ103及び撮像装置102の動作制御を行うと共に、撮像装置103から得られた撮像画像を用いて、計測対象物体101の位置姿勢を求める。本発明の具体的な処理が記述されたプログラムを内部に保持し、内蔵するCPUがそのプログラムを実行することで、計測対象物体101の位置姿勢計算を実行する装置である。また、画像処理装置104は、キーボード、マウスまたはモニタなどのユーザインターフェースを備える。
また、事前情報保持部202は、計測対象物体101の3次元モデル情報を保持する。3次元モデル情報は、3次元CADソフトで取り扱うことができるCADモデルそのもの、もしくは3次元CADモデルをComputer Graphics分野で使われる複数のポリゴン要素に変換したものである。本実施形態では、計測対象物体101の形状を模した3次元幾何モデルであって、ポリゴン要素で構成される3次元幾何モデルを用いる。しかしながら、モデル情報はこれにかぎられるものではなく、例えば2次元的なモデルであってもかまわない。
まず、ステップS301において、計測情報入力部201が、撮像装置102から計測対象物体101を撮影した輝度画像を取得し、位置姿勢導出部205に送る。輝度画像は、プロジェクタ103を用いて照明を照射した計測対象物体101を、撮像装置102で撮影された画像である。しかしながら、予め外部のメモリやネットワーク上に保持しておいたものを計測情報入力部201が読み込んだものであってもよい。
次に、ステップS302において、概略位置姿勢補正部204が、事前情報保持部202が保持する事前情報に基づいて、計測対象物体101の概略位置姿勢を補正する。概略位置姿勢の補正方向は、計測対象物体101からプロジェクタ103までの方向ベクトルを、撮像装置102の画像面に投影したときの方向ベクトルとする。概略位置姿勢の補正量は、プロジェクタ103からの照明によって生じた計測対象物体101の影の領域の幅とする。
ステップS303において、ステップ302で補正した概略位置姿勢を用いて、以下で説明する処理により計測対象物体101の位置姿勢を算出する。
ステップS501において、位置姿勢導出部205が、初期化を行う。ここでは、ステップS302で補正された概略位置姿勢を計測対象物体101の位置姿勢として設定する。
ステップS502において、位置姿勢導出部205が、エッジの対応付けを行う。まず、設定された計測対象物体101の概略位置姿勢に基づいて、3次元形状モデルの各エッジを画像面に投影する。その後エッジの対応付けを行う。
ステップS503において、線形連立方程式を解くための係数行列と誤差ベクトルの算出を行う。ここで係数行列の各要素は、位置姿勢の推定値の微小変化に対する一次の偏微分係数であり、具体的には画像座標の偏微分係数である。誤差ベクトルは、投影されたエッジと検出されたエッジの画像上での距離である。
(ステップS504)
ステップS504において、位置姿勢導出部205が、(式12)をもとに、行列Jの一般化逆行列(JT・J)−1・JTを用いてΔsを求める。
ステップS505では、位置姿勢導出部205が、ステップS504において算出された位置姿勢の補正値Δsにより、位置姿勢をs+Δsに更新する。
ステップS506では、位置姿勢導出部205が、位置姿勢が収束したか否かの判定を行い、収束したと判定された場合はその時の位置姿勢をフィッティング結果として処理を終了する。収束していないと判定された場合は収束するまでS502〜S505を繰り返し行う。収束判定では、S505の補正量が所定の値以下でほぼ変化がないと判定された場合に収束したと判定する。なお、収束判定の方法はこの方法に限定されるものではなく反復回数が所定回数に達した場合には、収束したものと判定してもよい。
Marcel German、“Automatic Pose Estimation For Range Images on the GPU”、3DMI、 2007
(変形例1−1)
第1の実施形態では、事前情報保持部202が保持する事前情報に基づいて概略位置姿勢を補正したが、計測情報入力部201を介して得られる計測情報に基づいて概略位置姿勢を補正してもよい。
第2の実施形態では、計測対象物体905上で鏡面反射が観測されることが原因で計測対象物体905の位置姿勢計測の安定性が低下するのを防止するための方法について説明する。
ステップS1001では、概略位置姿勢補正部204が、鏡面反射なしの属性を設定した計測対象物体905の形状モデルのCG画像をカメラの位置姿勢に基づいて、所定の光源環境で描画し(レンダリング)、輝度画像を生成する。
ステップS1002では、概略位置姿勢補正部204が、ステップS1001で生成した輝度画像から、輝度値の勾配が予め設定した閾値以上となる部分をエッジとして検出する。
ステップS1003では、概略位置姿勢補正部204が、計測対象物体905の形状モデルに鏡面反射の属性(反射特性)を設定し、撮像装置102の位置姿勢に基づいて所定の光源環境で描画し(レンダリング)、輝度画像を生成する。鏡面反射の属性は、計測対象物体905の材質や表面形状による反射率の変化に基づいて決定する。
ステップS1004では、概略位置姿勢補正部204が、ステップS1003で生成した輝度画像から、輝度値が飽和している領域を鏡面反射領域として抽出する。そして、抽出した鏡面反射領域から領域の重心または輪郭を抽出する。輪郭の抽出は、画像処理の一般的な手法として知られる輪郭追跡を用いて行う。これらを鏡面反射領域の情報とする。
ステップS1105では、概略位置姿勢補正部204が、ステップS1002で検出した構造的エッジから最も近傍(周囲)にある鏡面反射領域を決定する。例えば、構造的エッジと鏡面反射領域の重心までの距離が最小となる鏡面反射領域を最も近傍にあるものとして決定する。そして、鏡面反射領域の重心と、鏡面反射領域の重心から構造的エッジの法線ベクトル方向に伸ばした線分と構造的エッジの交点、との相対位置を求める。これを構造的エッジと鏡面反射領域の境界のエッジとの位置関係の情報とする。
第2の実施形態では、事前情報保持部202が保持する事前情報に基づいて概略位置姿勢を補正したが、計測情報入力部201を介して得られる計測情報に基づいて、概略位置姿勢を補正してもよい。
第3の実施形態では、計測対象物体1101の概略位置姿勢を、計測対象物体1101が配置される確率が高い姿勢に補正する方法について説明する。計測対象物体1101からエッジが密集して検出される場合など、対応付けの誤りが発生しやすい状況では、概略位置姿勢を実際の位置姿勢にできるだけ近いものに設定することで対応付けの誤りが抑制される。
本実施形態に係る画像処理装置の好適な適用事例としては、産業用ロボットアームで対象物体の把持、移動、解放といった動作を行うシステムにおいて対象物体の位置姿勢計測に利用することが挙げられる。以下、図12を用いて、本発明に係る画像処理装置の適用例を説明する。
構成の一例を示す模式図である。1201はカメラ及びプロジェクタである。画像処理装置104とカメラ及びプロジェクタ1201は第1〜3実施形態で説明したシステムと同様のものであり、先に説明した処理手順が記述されたプログラムを格納し、対象物体1204の位置姿勢の計測が可能である。
画像処理装置104を構成する各機能部は何れもハードウェアで構成しても良いが、ソフトウェア(コンピュータプログラム)で構成しても良い。このような場合、このコンピュータプログラムをインストールすると該コンピュータプログラムを実行する装置は、画像処理装置104に適用可能である。画像処理装置104に適用可能な装置のハードウェア構成例について、図14のブロック図を用いて説明する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
第1の実施形態では、概略位置姿勢を補正することで、計測対象物体の影のエッジが検出される場合にも、対応付けの誤りの発生を抑制することで位置姿勢計測の安定性を向上させ、ロバスト性の高い位置姿勢計測が可能となる。
各実施形態における事前情報は、第1の実施形態で説明したように、光源とカメラとの位置関係情報及び計測対象物体の高さとしてもよい。また、第2の実施形態で説明したように、光源と対象物体との位置関係情報、カメラと計測対象物体との位置関係情報、計測対象物体の形状モデル及び表面特性としてもよい。また、第3の実施形態で説明したように、計測対象物体の姿勢の存在確率としてもよい。概略位置姿勢の補正方向及び補正量を算出可能であれば、いずれの情報であっても構わない。
Claims (19)
- 対象物体が含まれる画像を取得する画像取得手段と、
前記対象物体のモデル情報を保持する保持手段と、
前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、
前記取得された画像中で前記対象物体の影領域に関する情報を推定する推定手段と、
前記推定された影領域に関する情報に基づいて、前記概略位置姿勢を補正する補正手段と、
前記補正手段によって補正された概略位置姿勢と前記モデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備えることを特徴とする画像処理装置。 - 前記保持手段は、更に前記対象物体に光を投影する投影手段と前記画像を撮像する撮像手段との位置関係を保持し、
前記推定手段は、前記保持される位置関係と前記概略位置姿勢とに基づいて前記対象物体の位置に対する影の存在する方向を推定することを特徴とする請求項1に記載の画像処理装置。 - 前記推定手段は、前記保持するモデル情報から前記対象物体の高さを取得し、該取得した高さと前記位置関係と前記概略位置姿勢とに基づいて前記計測対象物体の影の幅を推定することを特徴とする請求項2に記載の画像処理装置。
- 前記画像取得手段は、前記計測対象物体を撮影した輝度画像と距離画像のうち、少なくともいずれか一方を取得し、
前記推定手段は、前記輝度画像または距離画像に基づいて影領域に関する情報を推定することを特徴とする請求項1に記載の画像処理装置。 - 前記画像取得手段は、前記輝度画像を取得し、該取得した輝度画像中で輝度値が所定の値よりも小さい領域を影領域とすることを特徴とする請求項4に記載の画像処理装置。
- 前記影領域に関する情報は、前記影領域の大きさを含むことを特徴とする請求項1に記載の画像処理装置。
- 前記補正手段は、前記取得した影が存在する方向と反対の方向を補正方向とし、前記概略位置姿勢を該補正方向に補正することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
- 対象物体が含まれる画像を取得する画像取得手段と、
前記対象物体のモデル情報を保持する保持手段と、
前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、
前記取得された画像中で前記対象物体の反射領域を推定する推定手段と、
前記推定された反射領域に基づいて、前記概略位置姿勢を補正する補正手段と、
前記補正手段によって補正された概略位置姿勢と前記モデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備えることを特徴とする画像処理装置。 - 前記推定手段は、前記モデル情報に前記対象物体の反射特性を設定し、該設定されたモデルを所定の光源環境でレンダリングすることによって、前記対象物体の反射領域を推定することを特徴とする請求項8に記載の画像処理装置。
- 前記保持手段は、前記対象物体の形状に起因するエッジの周囲で、前記反射領域を探索し、該探索された反射領域と前記エッジとの位置関係を保持し、
前記補正手段は、前記反射領域と前記エッジとの位置関係に基づいて、前記概略位置姿勢を補正することを特徴とする請求項8または9に記載の画像処理装置 - 前記補正手段は、前記保持された反射領域と前記エッジとの位置関係から、前記エッジに対して前記反射領域が存在する方向と反対の方向を補正方向とし、前記概略位置姿勢を前記補正方向に補正することを特徴とする請求項8乃至10のいずれか1項に記載の画像処理装置。
- 前記画像取得手段は、前記対象物体を撮影した輝度画像または距離画像のうち、少なくともいずれか一方を取得し、
前記推定手段は、前記輝度画像または距離画像に基づいて反射領域を推定することを特徴とする請求項8に記載の画像処理装置 - 対象物体が含まれる画像を取得する画像取得手段と、
前記対象物体のモデル情報と前記対象物体の取り得る位置姿勢の確率情報と保持する保持手段と、
前記画像に含まれる対象物体の概略位置姿勢を取得する取得手段と、
前記補正手段は、前記保持する確率情報に基づいて、前記概略位置姿勢を補正手段と、
前記補正手段で補正された概略位置姿勢と前記保持手段で保持するモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出手段とを備えることを特徴とする画像処理装置。 - 前記モデル情報は、前記対象物体の形状を表すモデルであることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
- 請求項1乃至14のいずれか1項に記載の画像処理装置と、
前記位置姿勢推定手段によって位置姿勢が推定された対象物体を把持する把持手段とを備えることを特徴とするロボットシステム。 - 対象物体が含まれる画像を取得する画像取得工程と、
前記画像に含まれる対象物体の概略位置姿勢を取得する取得工程と、
前記取得された画像中で前記対象物体の影領域に関する情報を推定する推定工程と、
前記推定された影領域に関する情報に基づいて、前記概略位置姿勢を補正する補正工程と、
前記補正手段によって補正された概略位置姿勢と保持手段で保持する前記対象物体のモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出工程とを有することを特徴とする画像処理方法。 - 対象物体が含まれる画像を取得する画像取得工程と、
前記画像に含まれる対象物体の概略位置姿勢を取得する取得工程と、
前記取得された画像中で前記対象物体の反射領域を推定する推定工程と、
前記推定された反射領域に基づいて、前記概略位置姿勢を補正する補正工程と、
前記補正手段によって補正された概略位置姿勢と保持手段で保持される前記対象物体のモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出工程とを有することを特徴とする画像処理方法。 - 対象物体が含まれる画像を取得する画像取得工程と、
前記画像に含まれる対象物体の概略位置姿勢を取得する取得工程と、
保持手段で保持する前記対象物体の確率情報に基づいて、前記概略位置姿勢を補正する補正工程と、
前記補正工程で補正された概略位置姿勢と前記保持手段で保持する前記対象物体のモデル情報とに基づいて、前記画像中の対象物体の位置姿勢を導出する導出工程とを備えることを特徴とする画像処理方法。 - コンピュータを、請求項1乃至14の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013229808A JP6271953B2 (ja) | 2013-11-05 | 2013-11-05 | 画像処理装置、画像処理方法 |
US14/531,879 US9495750B2 (en) | 2013-11-05 | 2014-11-03 | Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013229808A JP6271953B2 (ja) | 2013-11-05 | 2013-11-05 | 画像処理装置、画像処理方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015090560A true JP2015090560A (ja) | 2015-05-11 |
JP2015090560A5 JP2015090560A5 (ja) | 2016-12-22 |
JP6271953B2 JP6271953B2 (ja) | 2018-01-31 |
Family
ID=53007081
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013229808A Active JP6271953B2 (ja) | 2013-11-05 | 2013-11-05 | 画像処理装置、画像処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9495750B2 (ja) |
JP (1) | JP6271953B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016197287A (ja) * | 2015-04-02 | 2016-11-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2017110975A (ja) * | 2015-12-15 | 2017-06-22 | キヤノン株式会社 | 計測装置、システム、計測方法、決定方法及びプログラム |
US10672142B2 (en) | 2017-12-25 | 2020-06-02 | Fujitsu Limited | Object recognition apparatus, method for recognizing object, and non-transitory computer-readable storage medium for storing program |
JP2021514092A (ja) * | 2018-08-20 | 2021-06-03 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 位置姿勢検出方法及び装置、電子機器並びに記憶媒体 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9129438B2 (en) * | 2011-01-18 | 2015-09-08 | NedSense Loft B.V. | 3D modeling and rendering from 2D images |
JP6126437B2 (ja) | 2013-03-29 | 2017-05-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US10335951B2 (en) * | 2015-07-29 | 2019-07-02 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, robot control apparatus, and robot system |
JP6206560B2 (ja) * | 2015-09-28 | 2017-10-04 | 株式会社リコー | システム |
US10899001B2 (en) * | 2015-12-03 | 2021-01-26 | Abb Schweiz Ag | Method for teaching an industrial robot to pick parts |
JP6605318B2 (ja) * | 2015-12-14 | 2019-11-13 | 東レエンジニアリング株式会社 | 立体形状物の検査装置 |
US11726490B1 (en) | 2016-02-19 | 2023-08-15 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
US10901431B1 (en) * | 2017-01-19 | 2021-01-26 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
US10386847B1 (en) * | 2016-02-19 | 2019-08-20 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
US11195294B2 (en) * | 2016-04-22 | 2021-12-07 | Nikon Corporation | Image measurement method, image measurement program, image measurement device, and object manufacture method |
JP7062923B2 (ja) * | 2017-11-21 | 2022-05-09 | 富士通株式会社 | 可視化方法、可視化装置及び可視化プログラム |
US10293489B1 (en) * | 2017-12-15 | 2019-05-21 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Control method and system, and cleaning robot using the same |
CN108481200A (zh) * | 2018-01-31 | 2018-09-04 | 东莞市高臻机械设备有限公司 | 基于视觉定位技术的旋转吸头自动纠偏方法 |
CN112005624B (zh) * | 2018-05-31 | 2022-04-26 | 雅马哈发动机株式会社 | 识别参数最优化装置、元件安装系统、识别参数最优化方法 |
JP7097799B2 (ja) * | 2018-11-21 | 2022-07-08 | Thk株式会社 | 画像情報処理装置、把持システム、および画像情報処理方法 |
JP7378934B2 (ja) * | 2019-01-29 | 2023-11-14 | キヤノン株式会社 | 情報処理装置、情報処理方法及びシステム |
JP7178954B2 (ja) * | 2019-04-25 | 2022-11-28 | 東急建設株式会社 | 物体選別システム |
JP6784361B1 (ja) * | 2019-06-12 | 2020-11-11 | 株式会社アマダ | ワーク検出装置及びワーク検出方法 |
CN113362392B (zh) * | 2020-03-05 | 2024-04-23 | 杭州海康威视数字技术股份有限公司 | 可视域生成方法、装置、计算设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007245283A (ja) * | 2006-03-15 | 2007-09-27 | Nissan Motor Co Ltd | ワーク姿勢検知装置、ワーク姿勢検知方法、ピッキングシステム、およびピッキング方法 |
JP2012042396A (ja) * | 2010-08-20 | 2012-03-01 | Canon Inc | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7596242B2 (en) * | 1995-06-07 | 2009-09-29 | Automotive Technologies International, Inc. | Image processing for vehicular applications |
US6169553B1 (en) * | 1997-07-02 | 2001-01-02 | Ati Technologies, Inc. | Method and apparatus for rendering a three-dimensional scene having shadowing |
US6532022B1 (en) * | 1997-10-15 | 2003-03-11 | Electric Planet, Inc. | Method and apparatus for model-based compositing |
JP2001283216A (ja) * | 2000-04-03 | 2001-10-12 | Nec Corp | 画像照合装置、画像照合方法、及びそのプログラムを記録した記録媒体 |
US6954544B2 (en) * | 2002-05-23 | 2005-10-11 | Xerox Corporation | Visual motion analysis method for detecting arbitrary numbers of moving objects in image sequences |
US20030137673A1 (en) * | 2002-12-13 | 2003-07-24 | Cox Cary B. | Systems, and methods of use, employing distorted patterns to ascertain the shape of a surface, for road or runway profiling, or as input to control pro-active suspension systems |
EP1667068A4 (en) * | 2003-08-29 | 2011-09-28 | Nec Corp | SYSTEM FOR ESTIMATING / CORRELING OBJECT ATTITUDE BY USING WEIGHT INFORMATION |
JP4349367B2 (ja) * | 2003-10-30 | 2009-10-21 | 日本電気株式会社 | 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム |
CA2455359C (en) * | 2004-01-16 | 2013-01-08 | Geotango International Corp. | System, computer program and method for 3d object measurement, modeling and mapping from single imagery |
US20050212794A1 (en) * | 2004-03-29 | 2005-09-29 | Communications Research Laboratory, Independent Administrative Institution | Method and apparatus for removing of shadows and shadings from texture images |
DE102004023322A1 (de) * | 2004-05-07 | 2005-11-24 | Daimlerchrysler Ag | Lage- und Positionsvermessung von Objekten mittels Bildverarbeitungsverfahren |
US7706603B2 (en) * | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
US7756325B2 (en) * | 2005-06-20 | 2010-07-13 | University Of Basel | Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object |
KR100647807B1 (ko) * | 2005-11-24 | 2006-11-23 | 인하대학교 산학협력단 | 그림자 분석을 통한 3차원 건물정보 추출방법 |
CN101617271B (zh) * | 2007-02-15 | 2015-07-15 | 高通股份有限公司 | 使用闪烁电磁辐射的增强输入 |
JP5538667B2 (ja) * | 2007-04-26 | 2014-07-02 | キヤノン株式会社 | 位置姿勢計測装置及びその制御方法 |
US7983487B2 (en) * | 2007-11-07 | 2011-07-19 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for locating and picking objects using active illumination |
US8170279B2 (en) * | 2008-06-23 | 2012-05-01 | Raytheon Company | Adaptive match metric selection for automatic target recognition |
GB0818561D0 (en) * | 2008-10-09 | 2008-11-19 | Isis Innovation | Visual tracking of objects in images, and segmentation of images |
US8643717B2 (en) * | 2009-03-04 | 2014-02-04 | Hand Held Products, Inc. | System and method for measuring irregular objects with a single camera |
DE102009038364A1 (de) * | 2009-08-23 | 2011-02-24 | Friedrich-Alexander-Universität Erlangen-Nürnberg | Verfahren und System zur automatischen Objekterkennung und anschließenden Objektverfolgung nach Maßgabe der Objektform |
KR20110068469A (ko) * | 2009-12-16 | 2011-06-22 | 인하대학교 산학협력단 | 메타정보 없는 단일 영상에서 3차원 개체정보 추출방법 |
WO2011101945A1 (ja) * | 2010-02-19 | 2011-08-25 | パナソニック株式会社 | 物体位置補正装置、物体位置補正方法、及び物体位置補正プログラム |
JP2011175477A (ja) * | 2010-02-24 | 2011-09-08 | Canon Inc | 3次元計測装置、処理方法及びプログラム |
JP5618569B2 (ja) * | 2010-02-25 | 2014-11-05 | キヤノン株式会社 | 位置姿勢推定装置及びその方法 |
JP5548482B2 (ja) * | 2010-02-26 | 2014-07-16 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体 |
EP2385483B1 (en) * | 2010-05-07 | 2012-11-21 | MVTec Software GmbH | Recognition and pose determination of 3D objects in 3D scenes using geometric point pair descriptors and the generalized Hough Transform |
JP5612916B2 (ja) * | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
JP4940461B2 (ja) | 2010-07-27 | 2012-05-30 | 株式会社三次元メディア | 3次元物体認識装置及び3次元物体認識方法 |
JP5615088B2 (ja) * | 2010-08-18 | 2014-10-29 | キヤノン株式会社 | 画像処理装置及びその方法、プログラム、並びに撮像装置 |
US9129438B2 (en) * | 2011-01-18 | 2015-09-08 | NedSense Loft B.V. | 3D modeling and rendering from 2D images |
JP2013101045A (ja) * | 2011-11-08 | 2013-05-23 | Fanuc Ltd | 物品の3次元位置姿勢の認識装置及び認識方法 |
US8638989B2 (en) * | 2012-01-17 | 2014-01-28 | Leap Motion, Inc. | Systems and methods for capturing motion in three-dimensional space |
US8867844B2 (en) * | 2012-02-01 | 2014-10-21 | Sharp Laboratories Of America, Inc. | Edge based template matching |
JP6004809B2 (ja) * | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
JP6576016B2 (ja) * | 2012-07-04 | 2019-09-18 | キヤノン株式会社 | 原稿読取装置 |
GB2505966A (en) * | 2012-09-18 | 2014-03-19 | Seebyte Ltd | Target recognition in sonar imaging using test objects |
-
2013
- 2013-11-05 JP JP2013229808A patent/JP6271953B2/ja active Active
-
2014
- 2014-11-03 US US14/531,879 patent/US9495750B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007245283A (ja) * | 2006-03-15 | 2007-09-27 | Nissan Motor Co Ltd | ワーク姿勢検知装置、ワーク姿勢検知方法、ピッキングシステム、およびピッキング方法 |
JP2012042396A (ja) * | 2010-08-20 | 2012-03-01 | Canon Inc | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
Non-Patent Citations (1)
Title |
---|
藤本 公三、外2名: ""視線ベクトル領域図による多面体対象物体の代表的投影形状の自動抽出"", 電子情報通信学会論文誌, vol. 75, no. 2, JPN6017035721, 25 February 1992 (1992-02-25), JP, pages 351 - 360, ISSN: 0003696183 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016197287A (ja) * | 2015-04-02 | 2016-11-24 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
JP2017110975A (ja) * | 2015-12-15 | 2017-06-22 | キヤノン株式会社 | 計測装置、システム、計測方法、決定方法及びプログラム |
US10672142B2 (en) | 2017-12-25 | 2020-06-02 | Fujitsu Limited | Object recognition apparatus, method for recognizing object, and non-transitory computer-readable storage medium for storing program |
JP2021514092A (ja) * | 2018-08-20 | 2021-06-03 | ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド | 位置姿勢検出方法及び装置、電子機器並びに記憶媒体 |
US11107239B2 (en) | 2018-08-20 | 2021-08-31 | Beijing Sensetime Technology Development Co., Ltd. | Pose detection method and device, electronic device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
US20150125035A1 (en) | 2015-05-07 |
JP6271953B2 (ja) | 2018-01-31 |
US9495750B2 (en) | 2016-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
JP6370038B2 (ja) | 位置姿勢計測装置及び方法 | |
JP5671281B2 (ja) | 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム | |
JP6092530B2 (ja) | 画像処理装置、画像処理方法 | |
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP5746477B2 (ja) | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム | |
JP5567908B2 (ja) | 3次元計測装置、その計測方法及びプログラム | |
JP5624394B2 (ja) | 位置姿勢計測装置、その計測処理方法及びプログラム | |
JP6324025B2 (ja) | 情報処理装置、情報処理方法 | |
JP2016197287A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2011175477A (ja) | 3次元計測装置、処理方法及びプログラム | |
JP6677522B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP5698815B2 (ja) | 情報処理装置、情報処理装置の制御方法及びプログラム | |
JP6040264B2 (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP6890422B2 (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP6548789B2 (ja) | 位置姿勢計測装置及び方法 | |
JP5938201B2 (ja) | 位置姿勢計測装置、その処理方法及びプログラム | |
JP2023011319A (ja) | 調整支援システムおよび調整支援方法 | |
JP2011174878A (ja) | 位置姿勢計測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161104 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170911 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6271953 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |