JP6415066B2 - 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム - Google Patents
情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム Download PDFInfo
- Publication number
- JP6415066B2 JP6415066B2 JP2014058490A JP2014058490A JP6415066B2 JP 6415066 B2 JP6415066 B2 JP 6415066B2 JP 2014058490 A JP2014058490 A JP 2014058490A JP 2014058490 A JP2014058490 A JP 2014058490A JP 6415066 B2 JP6415066 B2 JP 6415066B2
- Authority
- JP
- Japan
- Prior art keywords
- value
- luminance
- variation amount
- image
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 46
- 238000003672 processing method Methods 0.000 title claims 3
- 238000000034 method Methods 0.000 claims description 108
- 230000008569 process Effects 0.000 claims description 60
- 238000001514 detection method Methods 0.000 claims description 55
- 238000003384 imaging method Methods 0.000 claims description 49
- 238000012545 processing Methods 0.000 claims description 36
- 238000009795 derivation Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 43
- 238000005259 measurement Methods 0.000 description 21
- 238000003708 edge detection Methods 0.000 description 17
- 230000004044 response Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000009499 grossing Methods 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000004069 differentiation Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 239000012636 effector Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
Description
また、特許文献1の方法では、遮光画素からノイズレベルを推定するため、撮像素子ノイズのなかで暗電流ノイズのみを考慮しているため、エッジ検出閾値の設定において、画素の明るさに比例して発生するショットノイズを考慮できないという問題があった。
本発明は、以上の課題を鑑みてなされたものであり、画像に含まれる特徴を検出するための閾値を好適に設定することを目的とする。
本実施形態では、本発明の情報処理装置及びその方法を、画像からのエッジ検出方法に適用した場合について説明する。なお、エッジ検出とは、画像中に映る物体像の形状や材質、照明などが不連続に変化する点を検出するために、画像中の明るさが不連続に変化する点を特定する処理を表す。本実施形態では、画像中の輝度勾配が極値となる点をエッジとして定義する。
まず、ステップS1100において、輝度ノイズ量予測部130は、撮像素子ノイズモデル保持部120が保持する撮像素子ノイズモデルを取得する。撮像素子ノイズモデルは、上述した手順によりあらかじめ測定しておいた撮像装置10の撮像素子に関するノイズモデルである。本実施形態では、ノイズモデルがROM620や不図示のハードディスク等に保持されているとするが、外部記憶装置にノイズモデルを保持しておき、読み込むことによって、ノイズモデルを取得しても良い。本実施形態では、撮像素子ノイズモデルは、光ショットノイズに関するパラメータS1、S2と読み出し回路ノイズに関するパラメータDの、計3パラメータから構成されるノイズモデルを用いる。情報処理装置1の初期化が終了したら、ステップS1100の処理を終了し、ステップS1200に進む。
次に、ステップS1200において、画像取得部110は、撮像装置10から濃淡画像を取得する。撮像装置10から直接取得しなくても、予め撮像した画像を記憶媒体に記憶させておき、その記憶媒体を読み込むことによって、濃淡画像を取得してもかまわない。濃淡画像の取得が終了したら、画像取得部は、輝度ノイズ量予測部130とフィルタ情報保持部140とに取得した濃淡画像を送出する。ステップS1200の処理を終了し、ステップS1300に進む。
次に、ステップS1300では、輝度ノイズ量予測部130は、ステップS1100で取得した撮像素子ノイズモデルとステップS1200において取得した濃淡画像とに基づいて、濃淡画像の所定領域の輝度ノイズ量を予測する。本実施形態では、画像の各画素毎に、撮像素子ノイズモデルに基づく輝度ノイズ量の算出を行う。
次に、ステップS1400では、閾値算出部150は、ステップS1300において求めた各画素の輝度ノイズ量の予測値と、フィルタ情報保持部140が保持するフィルタ情報とに基づいて、特徴の検出のための閾値を算出(閾値導出)する。
次に、ステップS1500では、特徴検出部160は、フィルタ情報保持部140から特徴を検出するための画像フィルタを取得し、ステップS1200において取得した濃淡画像に対し、特徴を検出するための画像フィルタを適用する。本実施形態では、上述した通り、フィルタ情報保持部140から、3×3のSobelフィルタを取得し、該フィルタを用いて画像の輝度勾配値を算出する。具体的には、上記式2〜4を用いて画像の輝度勾配値を算出する。
次に、ステップS1600において、特徴検出部160は、ステップS1500において算出した輝度勾配値と、ステップS1400において算出した閾値に基づいて、エッジとなる画素の判定を行うことで、エッジ特徴を検出する。本実施形態では、上述したように、近傍画素間で輝度勾配値が極値となる画素の中で、ステップS1500において算出した閾値を上回る輝度勾配値を備える画素をエッジとして判定する。以下、近傍画素間での輝度勾配値の極値算出方法および閾値判定の処理について、詳細を説明する。
上述の実施形態では、特徴検出方法として、エッジ検出を行う方法について述べていた。しかし、特徴検出方法は、これに限るものではない。例えば、特徴検出として、以下の文献で示されるようなHarris特徴点などの点特徴を検出しても良い。
C. Harris and M. Stephens, “A combined corner and edge detector,” Proc. 4th Alvey Vision Conf., pp.147−151, Manchester, U.K., Aug. 1988.
この場合、上述の実施形態とは、フィルタ処理と閾値算出処理および特徴検出処理が異なる。まずフィルタ処理では、画像全体に対しガウシアンフィルタと1次微分フィルタをかけ、平滑化後の画像縦方向の微分画像と画像横方向の微分画像を算出する。そして、縦方向と横方向の微分画像に基づいて、着目点近傍の2次微分値を表すヘッセ行列を求め、ヘッセ行列の行列式(determinant)と跡(trace)に基づいて、harrisのコーナー指標を算出する。
D. Lowe, “Distinctive image features from scaleinvariant keypoints”, Proc. of International Journal of Computer Vision (IJCV), 60(2), pp. 91−110, 2004.
以上の処理により、明るさが異なる画像に対しても、撮像素子ノイズからの特徴検出を抑制する閾値を自動的に設定して点特徴またはblob特徴の検出を行うことが可能になる。
上述の実施形態では、画像全体に対して特徴検出を行う方法について述べた。しかし、画像全体から特徴検出せずに、以下の文献で行われているような、着目領域近傍で局所的にエッジ検出を行うような方法を用いても良い。
T Drummond, R Cipolla, “Real−time visual tracking of complex structures, ”Pattern Analysis and Machine Intelligence, IEEE Transactions on 24 (7), 932−946.
この場合、上述の実施形態における画像フィルタ処理と輝度ノイズ量予測処理、閾値算出処理および特徴検出処理において、画像中の全画素に対して処理を行わず、所定の着目領域または画素に関してのみ処理を行う。これにより、画像全体を処理するコストを軽減し、着目領域のみの特徴検出を高速に行うことが可能になる。
本発明による情報処理装置1による特徴検出の好適な適用事例として、以下のような形態も考えられる。すなわち、情報処理装置1により検出された特徴に、被測定物体(対象物体)の形状を表す三次元形状モデルの特徴が当てはまるようにフィッティングを行うことで、被測定物体の位置姿勢の推定を行う利用例が挙げられる。以下、図3を用いて本実施形態の情報処理装置1を、画像中の特徴に基づいた位置姿勢推定における特徴検出に適用した場合について説明する。なお、本実施形態の説明では、第1の実施形態と同じ構成については説明を省き、違う点のみ説明する。また、本実施形態では、情報処理装置1と位置姿勢推定装置2とをそれぞれ別の装置として説明するが、もちろんこれらの装置を一体の装置として構成するようにしてもよい。
R. Y. Tsai, “A versatile camera calibration technique for high−accuracy 3D machine vision metrology using off−the−shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, vol.RA−3, no.4, 1987.
概略位置姿勢取得部210は、被計測物体の置かれているおおよその位置や姿勢を取得する。2次元画像撮像装置20と距離画像撮像装置30からなる撮像装置2030に対する被計測物体の位置及び姿勢の概略値を入力する。本実施形態では、位置姿勢算出装置2は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いる。しかしながら、位置及び姿勢の概略値の入力方法はこれに限るものではない。
ステップS2100において、概略位置姿勢取得部210は、撮像装置10に対する被測定物体の位置及び姿勢の概略値を取得する。本実施形態では、物体の置かれているおおよその位置や姿勢があらかじめわかっているものとして、その値を概略値として用いる。しかしながら、位置及び姿勢の概略値の設定方法はこれに限るものではない。例えば、情報処理装置1は時間軸方向に連続して計測を行うものとして、前回(前時刻)の計測値を概略の位置及び姿勢として用いるものとしてもよい。また、過去の位置及び姿勢の計測をもとに物体の速度や角速度を時系列フィルタにより推定し、過去の位置及び姿勢と推定された速度・加速度から現在の位置及び姿勢を予測したものでもよい。また、その他、6自由度の位置及び姿勢を計測するセンサであればいかなるセンサであってもよい。ステップS2100の処理を終了したら、ステップS2200に進む。
次に、ステップS2200において、情報処理装置1は、被測定物体のエッジ特徴を検出する。本ステップの処理は、第1の実施形態におけるステップS1100からS1600の処理と同一であるのでその詳細な説明を省略する。本ステップにより、画像からエッジ特徴の検出処理が終了すればステップS2200の処理を終了し、ステップS2300に進む。
次に、ステップS2300では、残差算出部230は、ステップS2200において検出されたエッジ特徴(画像特徴)と、三次元形状モデルから抽出された特徴との残差を算出する。具体的には、残差算出部230は、情報処理装置1から検出された特徴を取得する。また、残差算出部230は、概略位置姿勢取得部210から概略位置姿勢を取得し、三次元形状モデル保持部220から三次元形状モデルを取得する。そして、三次元形状モデルを構成する局所線特徴を、取得した概略位置姿勢と校正済みの撮像装置10の内部パラメータとを用いて画像へ投影した位置を算出する。そして、画像上で検出されたエッジと三次元形状モデル中の局所線特徴とを対応付けを行い、画像エッジと局所線特徴間の画像上の距離を残差として算出する。エッジが各局所線特徴に対応して複数検出された場合には、複数検出されたエッジのうち、投影された局所線特徴に対して画像上で最も近いエッジを対応付ける。全ての局所線特徴に関する残差の算出が終了すればばステップS2300の処理を終了し、ステップS2300に進む。
次に、ステップS2400では、位置姿勢算出部240は、ステップS2300において算出した局所線特徴と画像エッジ間の残差に基づいて、三次元形状モデルと被測定物体間の位置及び姿勢を算出する。本ステップでは、局所線特徴と画像エッジ間の残差が最小になるように、線形連立方程式を解くことで、位置姿勢の更新を行う。本処理に関しては本発明の本質に関わる話ではないため、記述は省略する。詳細は以下の文献に記述されている。
T Drummond, R Cipolla, “Real−time visual tracking of complex structures,”Pattern Analysis and Machine Intelligence, IEEE Transactions on 24 (7), 932−946.
位置及び姿勢の更新処理が終了すればステップS2400の処理を終了し、ステップS2500に進む。
次に、ステップS2500では、位置姿勢算出部240は、ステップS2400で更新した位置姿勢が、収束しているか否か、すなわち、さらに反復計算を必要とするか否かの判定を行う。具体的には、補正値がほぼ0である場合や、誤差ベクトルの二乗和の補正前と補正後の差がほぼ0である場合に収束したと判定する。収束していなければ、ステップS2300に戻り、更新した位置姿勢を用いて、再度残差算出処理を行う。収束していると判断した場合は、この処理は終了する。
本発明による情報処理装置1および位置姿勢推定装置2の好適な適用事例としては、以下のような形態も考えられる。すなわち、撮像装置10により得られる濃淡画像を基に被測定物体30の位置姿勢を推定し、推定された位置姿勢に基づいて産業用ロボットアーム50を制御する。そして、ロボットアーム先端のロボットハンドにより被測定物体の把持(対象物体保持)などを行う利用例があげられる。以下、図5を用いて本発明の一実施例である位置姿勢推定装置1の適用例を説明する。図5では、位置姿勢推定装置2とロボット50を用いて被測定物体30を把持するロボットシステムの構成例を示す。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
第1の実施形態では、画像からのエッジ検出において、撮像素子ノイズに起因するエッジの検出を抑制するような閾値を、撮像素子ノイズモデルに基づく輝度ノイズ量の予測値と勾配検出するフィルタの係数とに基づいて算出する方法について述べた。これにより、明るさが異なる画像に対しても、撮像素子ノイズからの特徴検出を抑制する閾値を自動的に設定して特徴検出を行うことが可能になる。特徴検出に用いるフィルタ応答値が撮像素子ノイズによってばらつく量を予測することにより、任意の特徴検出方法に応じた閾値を自動的に算出することが可能になる。
本願明細書における画像取得は、濃淡画像を取得するカメラによる入力に限るものでなく、対象像が得られる限り他の方式でもよい。例えば、濃淡画像であってもよいしカラー画像であってもよい。また、また、カメラにより撮影される画像に限るものではなく、記憶媒体等に保存されたファイルまたは外部ネットワークから読み込んだ画像を入力しても特に問題はない。また、各画素が奥行きの情報を持つ距離画像であってもよい。
120 撮像素子ノイズモデル保持部
130 輝度ノイズ量予測部
140 フィルタ情報保持部
150 閾値算出部
160 特徴検出部
Claims (12)
- 撮像手段によって撮像して得られた撮像画像を取得する画像取得手段と、
前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報を保持する保持手段と、
前記撮像画像の所定領域の輝度値と前記第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するばらつき量導出手段と、
前記撮像画像から特徴を検出するためのフィルタ処理のフィルタ情報を保持するフィルタ情報保持手段と、
前記フィルタ情報に基づいて、前記輝度勾配値を取得し、該取得した輝度勾配値と前記導出した輝度値のばらつき量とに基づいて、該輝度値の勾配値である輝度勾配値のばらつき量を取得する取得手段と、
前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出手段とを備えることを特徴とする情報処理装置。 - 前記取得手段は、前記フィルタ情報に基づいて、前記輝度値の変化と前記輝度勾配値の変化との関係を示す第2の情報を導出し、該第2の情報と、前記導出した輝度値のばらつき量とに基づいて、前記輝度勾配値のばらつきを取得することを特徴とする請求項1に記載の情報処理装置。
- 前記保持手段が保持する第1の情報は、輝度値と該輝度値のばらつき量との関数として表現されることを特徴とする、請求項1または2に記載の情報処理装置。
- 前記閾値導出手段で導出された閾値に基づいて、前記撮像画像から前記特徴を検出する検出手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
- 前記検出手段は、前記撮像画像に対して前記特徴を検出するためのフィルタを適用することにより、前記撮像画像の各画素に関する輝度勾配値を算出し、該輝度勾配値と前記導出された閾値とに基づいて、前記特徴を検出することを特徴とする請求項4に記載の情報処理装置。
- 前記検出手段は、前記撮像画像からエッジ特徴を検出することを特徴とする請求項4または5に記載の情報処理装置。
- 前記検出手段は、点特徴またはblob特徴を検出することを特徴とする、請求項4または5に記載の情報処理装置。
- 請求項4乃至7のいずれか1項に記載の情報処理装置と、
対象物体を含む画像を取得する第2の画像取得手段と、
前記対象物体の三次元形状モデルを保持する三次元形状モデル保持手段と、
前記検出手段により検出された画像特徴と、前記三次元形状モデルの特徴とを対応づける対応付け手段と、
前記対応付け手段の結果に基づいて、前記対象物体の位置姿勢を推定する位置姿勢推定手段を備えることを特徴とする位置姿勢推定装置。 - 請求項8に記載の位置姿勢推定装置と、
前記位置姿勢推定装置による前記対象物体の位置姿勢の推定結果に基づいて、前記対象物体を保持する対象物体保持手段とを備えることを特徴とするロボットシステム。 - 撮像手段によって撮像して得られた撮像画像を取得する画像取得手段と、
前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報を保持する保持手段と、
前記撮像画像の所定領域の輝度値と前記第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するするばらつき量導出手段と、
前記導出した輝度値のばらつき量と、事前に計測した輝度値のばらつき量と輝度勾配値のばらつき量との関係とに基づいて、該輝度値の勾配値である輝度勾配値のばらつき量を取得する取得手段と、
前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出手段とを備えることを特徴とする情報処理装置。 - 撮像手段によって撮像して得られた撮像画像を取得する画像取得工程と、
前記撮像画像の所定領域の輝度値と前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するばらつき量導出工程と、
前記撮像画像から特徴を検出するためのフィルタ処理のフィルタ情報に基づいて、前記輝度勾配値を取得し、該取得した輝度勾配値と前記導出した輝度値のばらつき量とに基づいて、該輝度値の勾配値である輝度勾配値のばらつき量を取得する取得工程と、
前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出工程とを備えることを特徴とする情報処理方法。 - 撮像手段によって撮像して得られた撮像画像を取得する画像取得工程と、
前記撮像画像の所定領域の輝度値と前記撮像手段で撮像される画像の輝度値と該輝度値のばらつき量との関係を示す第1の情報とに基づき、前記撮像画像の前記所定領域における輝度値のばらつき量を導出するするばらつき量導出工程と、
前記導出した輝度値のばらつき量と、事前に計測した輝度値のばらつき量と輝度勾配値のばらつき量との関係とに基づいて、該輝度値の勾配値である輝度勾配値のばらつき量を取得する取得工程と、
前記取得した輝度勾配値のばらつき量に基づいて、前記撮像画像から得られる輝度勾配値との比較に用いる閾値を導出する閾値導出工程とを備えることを特徴とする情報処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058490A JP6415066B2 (ja) | 2014-03-20 | 2014-03-20 | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム |
US14/661,859 US10083512B2 (en) | 2014-03-20 | 2015-03-18 | Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014058490A JP6415066B2 (ja) | 2014-03-20 | 2014-03-20 | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015184767A JP2015184767A (ja) | 2015-10-22 |
JP6415066B2 true JP6415066B2 (ja) | 2018-10-31 |
Family
ID=54142610
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014058490A Active JP6415066B2 (ja) | 2014-03-20 | 2014-03-20 | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10083512B2 (ja) |
JP (1) | JP6415066B2 (ja) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5839929B2 (ja) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP6478713B2 (ja) * | 2015-03-04 | 2019-03-06 | キヤノン株式会社 | 計測装置および計測方法 |
US9754358B1 (en) * | 2015-09-21 | 2017-09-05 | Rockwell Collins, Inc. | Image content enhancement generating and presenting system, device, and method |
EP3742347B1 (en) | 2016-03-03 | 2022-11-02 | Google LLC | Deep machine learning methods and apparatus for robotic grasping |
CN108885715B (zh) * | 2016-03-03 | 2020-06-26 | 谷歌有限责任公司 | 用于机器人抓取的深度机器学习方法和装置 |
JP2018036898A (ja) * | 2016-08-31 | 2018-03-08 | キヤノン株式会社 | 画像処理装置及びその制御方法 |
CN111028188B (zh) * | 2016-09-19 | 2023-05-02 | 杭州海康威视数字技术股份有限公司 | 分光融合的图像采集设备 |
JP6833533B2 (ja) * | 2017-01-31 | 2021-02-24 | キヤノンメディカルシステムズ株式会社 | 超音波診断装置および超音波診断支援プログラム |
US10311554B2 (en) | 2017-03-01 | 2019-06-04 | Fotonation Limited | Method of providing a sharpness measure for an image |
US10268903B2 (en) * | 2017-06-11 | 2019-04-23 | Jungo Connectivity Ltd. | Method and system for automatic calibration of an operator monitor |
DE102017212339A1 (de) * | 2017-07-19 | 2019-01-24 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Bewertung von Bildausschnitten für eine Korrespondenzbildung |
JP6977425B2 (ja) * | 2017-09-14 | 2021-12-08 | セイコーエプソン株式会社 | 画像処理装置、二値画像生産方法および画像処理プログラム |
EP3503528B1 (en) * | 2017-12-21 | 2020-10-07 | Axis AB | Determination of a contrast value for a digital image |
JP7257752B2 (ja) * | 2018-07-31 | 2023-04-14 | 清水建設株式会社 | 位置検出システム |
TWI677233B (zh) * | 2018-08-02 | 2019-11-11 | 瑞昱半導體股份有限公司 | 決定濾波器係數的方法 |
CN111340749B (zh) * | 2018-12-17 | 2023-08-29 | 丰翼科技(深圳)有限公司 | 图像质量的检测方法、装置、设备及存储介质 |
JP7049983B2 (ja) * | 2018-12-26 | 2022-04-07 | 株式会社日立製作所 | 物体認識装置および物体認識方法 |
EP3979637A4 (en) * | 2019-05-28 | 2023-06-28 | Hitachi Astemo, Ltd. | Calibration method |
TWI698124B (zh) * | 2019-06-13 | 2020-07-01 | 瑞昱半導體股份有限公司 | 影像調整方法以及相關的影像處理電路 |
CN112489055B (zh) * | 2020-11-30 | 2023-04-07 | 中南大学 | 融合亮度-时序特征的卫星视频动态车辆目标提取方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60105081A (ja) * | 1983-11-14 | 1985-06-10 | Fujitsu Ltd | 輪郭抽出装置 |
US6335985B1 (en) * | 1998-01-07 | 2002-01-01 | Kabushiki Kaisha Toshiba | Object extraction apparatus |
EP1969562B1 (en) * | 2005-12-30 | 2016-11-09 | Telecom Italia S.p.A. | Edge-guided morphological closing in segmentation of video sequences |
GB2436654A (en) * | 2006-02-03 | 2007-10-03 | Snell & Wilcox Ltd | Detection of a cross-fade in a video sequence |
JP5052301B2 (ja) * | 2007-11-21 | 2012-10-17 | オリンパス株式会社 | 画像処理装置、画像処理方法 |
JP4661934B2 (ja) | 2008-10-09 | 2011-03-30 | 株式会社デンソー | 画像処理装置 |
JP5290864B2 (ja) * | 2009-05-18 | 2013-09-18 | キヤノン株式会社 | 位置姿勢推定装置及び方法 |
JP5657375B2 (ja) * | 2010-12-24 | 2015-01-21 | オリンパス株式会社 | 内視鏡装置及びプログラム |
JP5799516B2 (ja) * | 2011-02-03 | 2015-10-28 | セイコーエプソン株式会社 | ロボット装置、検査装置、検査プログラム、および検査方法 |
JP5769559B2 (ja) * | 2011-09-07 | 2015-08-26 | キヤノン株式会社 | 画像処理装置、画像処理プログラム、ロボット装置及び画像処理方法 |
-
2014
- 2014-03-20 JP JP2014058490A patent/JP6415066B2/ja active Active
-
2015
- 2015-03-18 US US14/661,859 patent/US10083512B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015184767A (ja) | 2015-10-22 |
US10083512B2 (en) | 2018-09-25 |
US20150269735A1 (en) | 2015-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6415066B2 (ja) | 情報処理装置、情報処理方法、位置姿勢推定装置、ロボットシステム | |
JP5612916B2 (ja) | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム | |
US10288418B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US20200096317A1 (en) | Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium | |
KR101776622B1 (ko) | 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법 | |
US9639942B2 (en) | Information processing apparatus, information processing method, and storage medium | |
EP2360638B1 (en) | Method, system and computer program product for obtaining a point spread function using motion information | |
US20130230235A1 (en) | Information processing apparatus and information processing method | |
US9630322B2 (en) | Information processing apparatus, method therefor, measurement apparatus, and working apparatus for estimating a position/orientation of a three-dimensional object based on relative motion | |
JP5480667B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、プログラム | |
JP2012042396A (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP2008506953A5 (ja) | ||
JP2011179907A (ja) | 位置姿勢計測装置、位置姿勢計測方法およびプログラム | |
JP2014013147A5 (ja) | ||
WO2016042779A1 (ja) | 三角測量装置、三角測量方法およびそのプログラムを記録した記録媒体 | |
JP6817742B2 (ja) | 情報処理装置およびその制御方法 | |
JP2016148649A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JPWO2020090897A1 (ja) | 位置検出装置、位置検出システム、遠隔制御装置、遠隔制御システム、位置検出方法、及びプログラム | |
JP7121936B2 (ja) | カメラ校正情報取得装置、画像処理装置、カメラ校正情報取得方法およびプログラム | |
JP5462662B2 (ja) | 位置姿勢計測装置、物体識別装置、位置姿勢計測方法及びプログラム | |
CN115862124A (zh) | 视线估计方法、装置、可读存储介质及电子设备 | |
JP6719925B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
CN111586299B (zh) | 一种图像处理方法和相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180207 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180904 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181002 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6415066 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |