JP2021105862A - Three-dimensional data generation device for interpolating three-dimensional data and robot system - Google Patents
Three-dimensional data generation device for interpolating three-dimensional data and robot system Download PDFInfo
- Publication number
- JP2021105862A JP2021105862A JP2019237077A JP2019237077A JP2021105862A JP 2021105862 A JP2021105862 A JP 2021105862A JP 2019237077 A JP2019237077 A JP 2019237077A JP 2019237077 A JP2019237077 A JP 2019237077A JP 2021105862 A JP2021105862 A JP 2021105862A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional data
- region
- similar
- area
- generation device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 claims description 12
- 230000007547 defect Effects 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 4
- 230000002950 deficient Effects 0.000 abstract description 7
- 238000000034 method Methods 0.000 description 30
- 238000012545 processing Methods 0.000 description 20
- 239000000470 constituent Substances 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000002366 time-of-flight method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、三次元データ生成装置及びロボットシステムに関し、特に三次元データを補間する三次元データ生成装置及びロボットシステムに関する。 The present invention relates to a three-dimensional data generator and a robot system, and more particularly to a three-dimensional data generator and a robot system that interpolate three-dimensional data.
対象空間の三次元データを生成する方法として、ステレオ法、TOF(time of flight)法といった種々の手法が知られている。ステレオ法では、複数台のカメラで取得した画像間でマッチング処理を行い画像間の視差に基づき三次元データを生成するパッシブステレオ法や、スリット光又はパターン光を被写体に投光してスリット光又はパターン光に基づき三次元データを生成するアクティブステレオ法等がある。またTOF法では、参照光を被写体に照射して参照光が戻ってくるまでの時間を直接計測して被写体の三次元データを生成する直接法や、参照光と対象空間からの反射光との間の位相差を検出して被写体の三次元データを生成する間接法等がある。しかしながら、対象空間に強反射領域や暗色領域を含む場合、ステレオ法では、物体の形状や模様、スリット光やパターン光といった特徴を取得できず、また、TOF法では、いわゆるサチュレーション、ハレーション、露光不足等が発生して、三次元データの欠損領域を生じることがある。斯かる三次元データの欠損領域を補間する技術としては、後述の文献が公知である。 Various methods such as a stereo method and a TOF (time of flight) method are known as methods for generating three-dimensional data in the target space. The stereo method is a passive stereo method in which matching processing is performed between images acquired by a plurality of cameras and three-dimensional data is generated based on the parallax between the images, or slit light or pattern light is projected onto the subject to perform slit light or There is an active stereo method that generates three-dimensional data based on pattern light. In the TOF method, the direct method of irradiating the subject with the reference light and directly measuring the time until the reference light returns to generate three-dimensional data of the subject, or the reference light and the reflected light from the target space are used. There is an indirect method that detects the phase difference between the two and generates three-dimensional data of the subject. However, when the target space includes a strong reflection area or a dark color area, the stereo method cannot acquire features such as the shape and pattern of an object, slit light, and pattern light, and the TOF method requires so-called saturation, halation, and underexposure. Etc. may occur, resulting in a missing area of three-dimensional data. As a technique for interpolating the missing region of such three-dimensional data, the documents described later are known.
特許文献1には、距離画像中の距離計測が行われなかった画素の距離データを、画素の近傍に位置する距離計測が行われた画素の距離データを参照して補間する方法であって、距離画像の撮像対象についてカラー画像も取得しておき、補間の対象となる着目画素に対応するカラー画像の画素の色と、参照画素に対応するカラー画像の画素の色とを用いて重み付け係数を算出し、算出された重み付け係数を参照画素の距離データに作用させて距離データを補間する方法が開示されている。 Patent Document 1 is a method of interpolating the distance data of a pixel whose distance measurement has not been performed in a distance image with reference to the distance data of a pixel whose distance measurement has been performed located in the vicinity of the pixel. A color image is also acquired for the image capture target of the distance image, and the weighting coefficient is calculated using the pixel color of the color image corresponding to the pixel of interest to be interpolated and the pixel color of the color image corresponding to the reference pixel. A method of calculating and interpolating the distance data by applying the calculated weighting coefficient to the distance data of the reference pixel is disclosed.
特許文献2には、ステレオ計測処理によってモデル計測点の三次元位置データを計測することで物体上のモデル構成点を生成し、そのモデル構成点の集合として三次元形状データを生成した後、データ欠損点についてその左右方向にモデル構成点があるかどうかを検査し、左右方向の双方にモデル構成点が存在する場合は、データ欠損点を補間対象点とし、補間対象点の高さデータを、先に検出した左右のモデル構成点の高さデータの平均によって求め、この高さデータとモデル計測点の位置から補間対象点の三次元位置を計算してモデル構成点を設定することで、データ欠損部のない三次元形状データを生成し、三次元形状モデルを構成することが開示されている。 In Patent Document 2, model constituent points on an object are generated by measuring three-dimensional position data of model measurement points by stereo measurement processing, and three-dimensional shape data is generated as a set of the model constituent points, and then the data. It is inspected whether there are model constituent points in the left-right direction of the missing points, and if there are model constituent points in both the left-right directions, the data missing points are set as the interpolation target points, and the height data of the interpolation target points is used. Data is obtained by averaging the height data of the left and right model constituent points detected earlier, and by calculating the three-dimensional position of the interpolation target point from this height data and the position of the model measurement point and setting the model constituent points. It is disclosed that three-dimensional shape data without a defect is generated to construct a three-dimensional shape model.
特許文献3には、複数台のカメラを同時に用いて多方向から得られる三次元形状データを実時間で合成することにより、カメラの死角によって生じたデータ欠損部分を相互に補間し、被計測物の全体的な三次元形状データを得る、三次元形状計測装置が開示されている。 In Patent Document 3, three-dimensional shape data obtained from multiple directions are synthesized in real time by using a plurality of cameras at the same time, and data loss portions caused by blind spots of the cameras are interpolated with each other to obtain an object to be measured. A three-dimensional shape measuring device for obtaining the overall three-dimensional shape data of the above is disclosed.
特許文献4には、コンピュータグラフィックスにおける三次元形状の物体について二次元平面に展開したデータとして画素を割り当て、そのデータにおいて画素が割り当てられていない欠損画素であるか否かを判断し、欠損画素の周辺に存在する複数の周辺画素の各々を含む各平面又は各接平面に対する法線方向の基準線に対する角度と、欠損画素を含む平面又は接平面に対する法線方向の基準線に対する角度との角度差に基づき、複数の周辺画像のうちの少なくとも2つの周辺画素を選択し、選択された少なくとも2つの周辺画素に基づき、欠損画素のデータ補間を行うことが開示されている。 In Patent Document 4, pixels are assigned as data developed on a two-dimensional plane for a three-dimensional object in computer graphics, and it is determined whether or not the data is a missing pixel to which a pixel is not assigned, and the missing pixel is determined. The angle between the reference line in the normal direction with respect to each plane or each tangent plane including each of the plurality of peripheral pixels existing around the pixel and the angle with respect to the reference line in the normal direction with respect to the plane including the missing pixels or the tangent plane. It is disclosed that at least two peripheral pixels of a plurality of peripheral images are selected based on the difference, and data interpolation of missing pixels is performed based on the selected at least two peripheral pixels.
三次元データの欠損領域に対する他の解決策として、露光時間、絞り、撮像モード等を調整する方法や、照明の強度又は対象物の姿勢を調整する方法も考えられる。しかしながら、最適化のために試行錯誤を必要とするため、多大な工数が掛かる。また、人間が物体と背景の範囲を教示して背景を除去し、二次元画像から物体の三次元構造を推定する方法もあるが、教師あり学習を用いない場合には、物体と背景の判断や凸面か凹面かの判断が難しく、人間による教示が必要となる。一方で、教師あり学習を用いる場合には、高精度の学習モデルを生成するために大量の訓練データが必要となり、推論の際にも大量の計算リソースが求められる。 As another solution to the missing region of the three-dimensional data, a method of adjusting the exposure time, the aperture, the imaging mode, etc., and a method of adjusting the intensity of illumination or the posture of the object can be considered. However, since trial and error is required for optimization, a large amount of man-hours are required. There is also a method in which a human teaches the range of an object and the background to remove the background and estimates the three-dimensional structure of the object from a two-dimensional image, but when supervised learning is not used, the object and the background are judged. It is difficult to judge whether it is convex or concave, and human teaching is required. On the other hand, when supervised learning is used, a large amount of training data is required to generate a highly accurate learning model, and a large amount of computational resources are also required for inference.
そこで、三次元データの欠損領域を少ない工数で精度良く補間する技術が求められている。 Therefore, there is a demand for a technique for accurately interpolating a missing region of three-dimensional data with a small number of man-hours.
本開示の一態様は、対象物を含む対象空間の三次元データ及び二次元データをセンサから取得する三次元データ生成装置であって、取得した三次元データ及び二次元データの対象物領域を特定する対象物領域特定部と、三次元データの対象物領域内の欠損領域を特定する欠損領域特定部と、二次元データの対象物領域内で1つ又は複数の類似領域を特定する類似領域特定部と、二次元データの類似領域に対応する三次元データの類似対応領域を特定する類似対応領域特定部と、三次元データの類似対応領域に基づいて欠損領域の三次元データを補間する三次元データ補間部と、を備える、三次元データ生成装置を提供する。
本開示の別の態様は、前述の三次元データ生成装置を備えたロボットシステムであって、三次元データ生成装置で補間した三次元データに基づいてロボットの動作指令を補正するロボット制御装置を備える、ロボットシステムを提供する。
One aspect of the present disclosure is a three-dimensional data generator that acquires three-dimensional data and two-dimensional data of an object space including an object from a sensor, and specifies an object area of the acquired three-dimensional data and two-dimensional data. Target area identification part to specify, defect area identification part to specify the missing area in the object area of the three-dimensional data, and similar area identification to specify one or more similar areas in the object area of the two-dimensional data. 3D that interpolates the 3D data of the missing area based on the part, the similarity correspondence area identification part that specifies the similarity correspondence area of the 3D data corresponding to the similarity area of the 2D data, and the similarity correspondence area of the 3D data. Provided is a three-dimensional data generation device including a data interpolation unit.
Another aspect of the present disclosure is a robot system including the above-mentioned three-dimensional data generation device, which includes a robot control device that corrects a robot operation command based on the three-dimensional data interpolated by the three-dimensional data generation device. , Provides robot systems.
本開示の一態様によれば、二次元データの対象物領域を考慮して三次元データの対象物領域内の欠損領域を補間するため、従来と比べて少ない工数で精度良く三次元データを補間できる。 According to one aspect of the present disclosure, since the missing area in the object area of the three-dimensional data is interpolated in consideration of the object area of the two-dimensional data, the three-dimensional data is interpolated accurately with less man-hours as compared with the conventional case. can.
以下、添付図面を参照して本開示の実施形態を詳細に説明する。各図面において、同一又は類似の構成要素には同一又は類似の符号が付与されている。また、以下に記載する実施形態は、特許請求の範囲に記載される発明の技術的範囲及び用語の意義を限定するものではない。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In each drawing, the same or similar components are given the same or similar reference numerals. In addition, the embodiments described below do not limit the technical scope of the invention and the meaning of the terms described in the claims.
図1は、本実施形態における三次元データ生成装置10の概略構成を示している。三次元データ生成装置10は、CPU(central processing unit)等のプロセッサを備えたコンピュータ装置(例えばPC(personal computer))でよいが、FPGA(field-programmable gate array)、ASIC(application specific integrated circuit)等の他のプロセッサを備えたコンピュータ装置でもよい。三次元データ生成装置10は、対象物を含む対象空間の三次元データ及び二次元データをセンサ11から取得し、二次元データの対象物領域を考慮して三次元データの対象物領域内の欠損領域を補間する。対象物は、ロボットの作業対象となるワークでよい。三次元データ生成装置10は、対象物領域特定部12と、欠損領域特定部13と、類似領域特定部14と、類似対応領域特定部15と、三次元データ補間部16と、を備えている。
FIG. 1 shows a schematic configuration of the three-dimensional
図2は、センサ11で検出した三次元データ及び二次元データの一例を示している。センサ11は、例えばステレオカメラ、TOFセンサ等のセンサでよい。センサ11は、三次元データ及び二次元データの双方を検出するが、三次元データのみを検出する三次元センサでもよい。この場合、センサ11とは別にカメラ等の二次元センサを設け、二次元センサから二次元データを検出してもよい。但し、後続の処理を容易にするため、検出された三次元データと検出された二次元データとの間で対象空間の画角が一致するようにするとよい。三次元データは、例えば三次元位置(例えばXYZ座標)を表す点群データでよいが、センサ11からの距離(又は深度)を表す距離画像(深度画像)でもよい。点群データの場合、後続の処理を容易にするため、距離画像に変換するとよい。また、二次元データは、例えば白から黒までの光強度を表すグレースケール画像でよいが、光の三原色(RGB)の光強度を表すカラー画像でもよい。
FIG. 2 shows an example of three-dimensional data and two-dimensional data detected by the
図3は、対象物領域40を特定した三次元データ及び二次元データの一例を示している。対象物領域特定部12は、センサ11から取得した三次元データ及び二次元データの対象物領域40を特定する。例えば、ユーザの教示に応じて対象物領域40と対象物領域40以外の背景領域を特定してもよいが、マッチング処理、ブロブ解析、及びこれらを組み合わせた処理等を行うことによって対象物領域40を自動的に特定するとよい。
FIG. 3 shows an example of three-dimensional data and two-dimensional data in which the
マッチング処理では、例えば対象物のデータ(二次元でも三次元でもよい。)を予め用意しておき、予め用意した対象物のデータの位置姿勢を変化させながら、取得した三次元データ及び取得した二次元データの少なくとも一方との間でマッチング処理を行うことによって対象物領域40を特定するとよい。三次元データの欠損領域が多い場合、予め用意した対象物のデータと取得したデータとの間の類似度が低くなるため、二次元データのみでマッチング処理を行って対象物領域40を特定し、特定した対象物領域40に対応する三次元データの対象物対応領域を特定してもよい。類似度を算出する評価関数としては、例えばSAD(sum of absolute difference)、SDD(sum of squared difference)、NCC(normalized cross-correlation)、ZNCC(zero-means normalized cross-correlation)等を利用できる。
In the matching process, for example, the data of the object (which may be two-dimensional or three-dimensional) is prepared in advance, and the acquired three-dimensional data and the acquired two are changed while changing the position and orientation of the data of the object prepared in advance. The
ブロブ解析では、例えば取得した二次元データについて種々の画像処理フィルタを適用し、エッジ検出、モルフォロジー処理等を行うことによって対象物領域40を特定するとよい。誤って背景領域のエッジが検出されることがあるため、背景領域に特徴が少ない場合にブロブ解析は有効である。以上のように対象物領域40を特定した後は、対象物領域40のみを対象として後続の処理を行うとよい。これにより、誤って背景領域の三次元データに基づき欠損領域を補間するといった二次的エラーを回避できることになる。
In the blob analysis, for example, the
図4は、欠損領域41を特定した三次元データの一例を示している。欠損領域特定部13は、三次元データの対象物領域40内で欠損領域41を特定する。例えば、対象物領域40以外の背景領域(欠損領域を含む。)のデータを除去してもよいし、又は別のデータで置換してもよい。
FIG. 4 shows an example of three-dimensional data in which the missing
図5は、類似領域42を特定した二次元データの一例を示している。類似領域特定部14は、二次元データの対象物領域40内で1つ又は複数の類似領域42を特定する。類似領域42とは、センサ11からの距離(又は深度)が同一又は類似している領域として定義される。例えば、取得した二次元データの光強度に基づいて類似領域42を特定してもよいし、又は取得した二次元データがカラー画像の場合、RGBの各光強度に基づいて類似領域42を特定してもよい。但し、色が同一又は類似でもセンサ11からの距離(又は深度)が異なる場合があるため、取得した二次元データ(光強度)に加えて、取得した三次元データ(距離)を加味して類似領域42を特定するとよい。これにより、誤って特定された類似領域42の三次元データに基づいて欠損領域を補間するといった二次的エラーを回避できることになる。
FIG. 5 shows an example of two-dimensional data in which the
類似領域42を特定する方法としては、例えばクラスタリング、マッチング処理、ブロブ解析、及びこれらの組み合わせ等を使用できる。即ち、対象物領域40をクラスタリングして得られたクラスタ領域を類似領域42として特定してもよいし、又は対象物領域40をマッチング処理して得られたマッチング領域を類似領域42として特定してもよいし、又は対象物領域40をブロブ解析して得られた解析領域を類似領域42として特定してもよい。
As a method for identifying the
クラスタリングでは、類似領域42の数が多くなる程(即ち、クラスタ数が多くなる程)、欠損領域41の補間精度が向上するため、クラスタ数が多くても比較的少ない計算リソースで実行可能な非階層クラスタリングが好ましい。但し、対象物が無地で単純形状(例えば直方体形状)の場合には、対象物の特徴が少なく、クラスタ数が少なくなるため、比較的多くの計算リソースを必要とするものの分類精度の高い階層クラスタリングを利用してもよい。
In clustering, as the number of
非階層クラスタリングの手法としては、例えばk-means法、x-means法等を利用できる。k-means法では、クラスタ数kを予め定めておき、クラスタ領域を構成するデータ(光強度、距離等の多次元データでよい。以下同じ。)の初期平均値をk個用意しておく。取得した各データについて最も近い初期平均値を選択することによって各データが所属するクラスタ領域を決定する。次に、各クラスタ領域を構成するデータに基づいて平均値を更新し、各データについて最も近い平均値を選択することによって各データが所属するクラスタ領域を更新する。平均値が更新されなくなるか又はループの上限回数に達するまで、このような処理を繰返し、最終的なクラスタ領域を決定する。図5では、1つの対象物領域40においてクラスタ数kを7個に設定した例が示されている。また、x-means法を用いてクラスタ数を自動的に推定してもよいし、又はエルボー法、シルエット分析等によってクラスタ数を評価して最終的なクラスタ領域を決定してもよい。
As a non-hierarchical clustering method, for example, a k-means method, an x-means method, or the like can be used. In the k-means method, the number of clusters k is determined in advance, and k initial average values of data constituting the cluster area (multidimensional data such as light intensity and distance; the same applies hereinafter) are prepared. The cluster area to which each data belongs is determined by selecting the closest initial average value for each acquired data. Next, the average value is updated based on the data constituting each cluster area, and the cluster area to which each data belongs is updated by selecting the closest average value for each data. This process is repeated until the average value is not updated or the maximum number of loops is reached to determine the final cluster area. FIG. 5 shows an example in which the number of clusters k is set to 7 in one
マッチング処理では、例えば類似領域42を構成するデータのサンプルデータ(光強度、距離等の多次元データでよい。以下同じ。)を複数個用意しておき、予め用意したサンプルデータと取得した各データとの間でマッチング処理を行うことによってマッチング領域を特定するとよい。類似度を算出する評価関数としては、前述のSAD、SDD、NCC、ZNCC等を利用できる。また、クラスタ領域にマッチング領域を加算することによって最終的な類似領域42を特定してもよい。
In the matching process, for example, a plurality of sample data (multidimensional data such as light intensity and distance may be used; the same applies hereinafter) of data constituting the
ブロブ解析では、例えば取得した二次元データの対象物領域40と、取得した三次元データの対象物領域40との双方について、種々の画像処理フィルタを適用し、エッジ検出、モルフォロジー処理等を行い、双方の処理結果を加算することによって解析領域を特定するとよい。また、クラスタ領域とマッチング領域の少なくとも一方に解析領域を加算することによって最終的な類似領域42を特定してもよい。
In the blob analysis, for example, various image processing filters are applied to both the
図6は、類似対応領域43を特定した三次元データの一例を示している。類似対応領域特定部15は、二次元データの類似領域42に対応する三次元データの類似対応領域43を特定する。そして、三次元データ補間部16は、三次元データの類似対応領域43に基づいて欠損領域41の三次元データを補間する。例えば、欠損領域41の注目画素が所属している類似対応領域43の三次元データで注目画素の三次元データを補間するとよい。このとき、注目画素から最も近くある類似対応領域43の参照画素の三次元データで注目画素の三次元データを補間してもよいし、又は注目画素が所属している類似対応領域43の複数の三次元データを平均化して注目画素の三次元データを補間してもよい。
FIG. 6 shows an example of three-dimensional data in which the
但し、欠損領域41の注目画素が所属する類似対応領域43が存在しない場合があり、この場合、注目画素の三次元データを補間できなくなる。しかし、対象空間に対象物が複数存在する場合、三次元データ補間部16は、対象物領域40に類似する別の対象物領域40内の類似対応領域43の三次元データで注目画素の三次元データを補間してもよい。以上のような処理によれば、対象物領域40内の二次元データ(光強度、距離等)を考慮して対象物領域40内の三次元データの欠損領域41を補間するため、従来と比べて少ない工数で精度良く補間できることになる。
However, there is a case where the similar
図1を再び参照すると、本発明は、三次元データ生成装置10を備えたロボットシステム1にも適用できる。ロボットシステム1は、三次元データ生成装置によって補間された三次元データに基づき、ロボット30及びツール31の少なくとも一方の動作指令を補正するロボット制御装置20を備えているとよい。ロボット制御装置20は、一台ではなく、複数台あってもよく、複数台の場合には、三次元データ生成装置10に対して無線又は有線を介して多対一で接続することになる。即ち、ロボットシステム1は、サーバシステム又はクラウドシステムでもよい。ロボット制御装置20は、例えばCPU(central processing unit)等のプロセッサを備えたコンピュータ装置であり、動作プログラムを記憶する記憶部21と、動作プログラムに従ってロボット30及びツール31の少なくとも一方の動作指令を生成する動作制御部22と、を備えている。動作制御部22は、補間された三次元データに基づき、ロボット30及びツール31の少なくとも一方の動作指令を補正する。ロボット制御装置20は、補正された動作指令に基づいて、ロボット駆動モータ32を駆動するロボット駆動部23と、ツール駆動モータ33を駆動するツール駆動部24と、を備えている。ロボット30及びツール31は、ロボット制御装置20と同様に、一台ではなく、複数台あってもよい。
With reference to FIG. 1 again, the present invention can also be applied to a robot system 1 provided with a three-dimensional
図7は、三次元データ生成装置10を備えたロボットシステム1の動作を示している。ステップS10では、マッチング処理、ブロブ解析、及びこれらを組み合わせた処理等を行うことにより、センサ11から取得した三次元データ及び二次元データの対象物領域40を特定する。ステップS11では、対象物領域40以外の背景領域を除去するか又は別のデータで置換することによって、三次元データの対象物領域40内の欠損領域41を特定する。
FIG. 7 shows the operation of the robot system 1 provided with the three-dimensional
ステップS12では、光強度、距離等の多次元データに基づいて、クラスタリング、マッチング処理、ブロブ解析、及びこれらを組み合わせた処理等を行うことにより、二次元データの対象物領域40内で1つ又は複数の類似領域42を特定する。ステップS13では、二次元データの類似領域42に対応する三次元データの類似対応領域43を特定する。
In step S12, by performing clustering, matching processing, blob analysis, and processing combining these based on multidimensional data such as light intensity and distance, one or one of the two-dimensional data is performed in the
ステップS14では、類似対応領域43に基づいて欠損領域41の三次元データを補間する。このとき、欠損領域41の注目画素から最も近くある類似対応領域43の参照画素の三次元データで注目画素の三次元データを補間してもよいし、又は欠損領域41の注目画素が所属している類似対応領域43の三次元データを平均化して注目画素の三次元データを補間してもよい。また、対象空間に対象物が複数存在する場合には、対象物領域40に類似する別の対象物領域40内の類似対応領域43の三次元データで注目画素の三次元データを補間してもよい。ステップS15では、補間された三次元データに基づいてロボット30及びツール31の少なくとも一方の動作指令を補正する。
In step S14, the three-dimensional data of the missing
図8は、三次元データ生成装置10をロボット制御装置20に組込んだロボットシステム1の一例を示している。本例のロボットシステム1は、三次元データ生成装置10の構成要素のうち少なくとも一つをロボット制御装置20に組込んでいる。即ち、ロボットシステム1は、スタンドアロンシステムでもよい。
FIG. 8 shows an example of a robot system 1 in which the three-dimensional
以上の実施形態によれば、対象物領域40内の二次元データを考慮して対象物領域40内の三次元データの欠損領域41を補間するため、従来と比べて少ない工数で精度良く三次元データを補間できることになる。
According to the above embodiment, since the missing
前述のプロセッサによって実行されるプログラムは、コンピュータ読取り可能な非一時的記録媒体、例えばCD−ROM等に記録して提供してもよいし、或いは有線又は無線を介してWAN(wide area network)又はLAN(local area network)上のサーバ装置から配信して提供してもよい。 The program executed by the processor described above may be recorded and provided on a computer-readable non-temporary recording medium such as a CD-ROM, or may be provided via a wired or wireless LAN (wide area network) or. It may be distributed and provided from a server device on a LAN (local area network).
本明細書において種々の実施形態について説明したが、本発明は、前述の実施形態に限定されるものではなく、以下の特許請求の範囲に記載された範囲内において種々の変更を行えることを認識されたい。 Although various embodiments have been described herein, it is recognized that the present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims below. I want to be.
1 ロボットシステム
10 三次元データ生成装置
11 センサ
12 対象物領域特定部
13 欠損領域特定部
14 類似領域特定部
15 類似対応領域特定部
16 三次元データ補間部
20 ロボット制御装置
21 記憶部
22 動作制御部
23 ロボット駆動部
24 ツール駆動部
30 ロボット
31 ツール
32 ロボット駆動モータ
33 ツール駆動モータ
40 対象物領域
41 欠損領域
42 類似領域
43 類似対応領域
1
Claims (10)
取得した前記三次元データ及び前記二次元データの対象物領域を特定する対象物領域特定部と、
前記三次元データの前記対象物領域内の欠損領域を特定する欠損領域特定部と、
前記二次元データの前記対象物領域内で1つ又は複数の類似領域を特定する類似領域特定部と、
前記二次元データの前記類似領域に対応する前記三次元データの類似対応領域を特定する類似対応領域特定部と、
前記三次元データの前記類似対応領域に基づいて前記欠損領域の前記三次元データを補間する三次元データ補間部と、
を備える、三次元データ生成装置。 A three-dimensional data generator that acquires three-dimensional data and two-dimensional data of the target space including an object from a sensor.
An object area specifying unit that specifies the object area of the acquired three-dimensional data and the two-dimensional data, and
A defect region identification portion that identifies a defect region in the object region of the three-dimensional data, and a defect region identification portion.
A similar area identification unit that specifies one or more similar areas in the object area of the two-dimensional data,
A similarity corresponding area specifying unit that specifies a similar corresponding area of the three-dimensional data corresponding to the similar area of the two-dimensional data, and a similar corresponding area specifying unit.
A three-dimensional data interpolation unit that interpolates the three-dimensional data of the missing region based on the similarity corresponding region of the three-dimensional data, and a three-dimensional data interpolation unit.
A three-dimensional data generator equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237077A JP7405607B2 (en) | 2019-12-26 | 2019-12-26 | 3D data generation device and robot system that interpolates 3D data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237077A JP7405607B2 (en) | 2019-12-26 | 2019-12-26 | 3D data generation device and robot system that interpolates 3D data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021105862A true JP2021105862A (en) | 2021-07-26 |
JP7405607B2 JP7405607B2 (en) | 2023-12-26 |
Family
ID=76919455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019237077A Active JP7405607B2 (en) | 2019-12-26 | 2019-12-26 | 3D data generation device and robot system that interpolates 3D data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7405607B2 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000230809A (en) * | 1998-12-09 | 2000-08-22 | Matsushita Electric Ind Co Ltd | Interpolating method for distance data, and method and device for color image hierarchical constitution |
JP2000339498A (en) * | 1999-05-31 | 2000-12-08 | Minolta Co Ltd | Three-dimensional shape data processor |
JP2011174891A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Device and method for measuring position and attitude, and program |
JP2015147256A (en) * | 2014-02-04 | 2015-08-20 | セイコーエプソン株式会社 | Robot, robot system, control device, and control method |
JP2017084065A (en) * | 2015-10-27 | 2017-05-18 | 株式会社東芝 | Identity theft detection device |
JP2018536236A (en) * | 2015-11-16 | 2018-12-06 | オービタル インサイト インコーポレイテッド | Detection and analysis of moving vehicles using low resolution remote sensing images |
-
2019
- 2019-12-26 JP JP2019237077A patent/JP7405607B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000230809A (en) * | 1998-12-09 | 2000-08-22 | Matsushita Electric Ind Co Ltd | Interpolating method for distance data, and method and device for color image hierarchical constitution |
JP2000339498A (en) * | 1999-05-31 | 2000-12-08 | Minolta Co Ltd | Three-dimensional shape data processor |
JP2011174891A (en) * | 2010-02-25 | 2011-09-08 | Canon Inc | Device and method for measuring position and attitude, and program |
JP2015147256A (en) * | 2014-02-04 | 2015-08-20 | セイコーエプソン株式会社 | Robot, robot system, control device, and control method |
JP2017084065A (en) * | 2015-10-27 | 2017-05-18 | 株式会社東芝 | Identity theft detection device |
JP2018536236A (en) * | 2015-11-16 | 2018-12-06 | オービタル インサイト インコーポレイテッド | Detection and analysis of moving vehicles using low resolution remote sensing images |
Non-Patent Citations (2)
Title |
---|
M. CAMPLANI ET AL.: ""Adaptive spatio-temporal filter for low-cost camera depth maps"", 2012 IEEE INTERNATIO NAL CONFERENCE ON EMERGING SIGNAL PROCESSING APPLICATIONS, JPN6023036035, January 2012 (2012-01-01), pages 33 - 36, ISSN: 0005143858 * |
竹中晴香他: "KinectのためのBilateral Filteringを用いた距離画像とカラー画像の整合法", 情報処理学会研究報告 2012(平成24)年度(5) [CD−ROM], JPN6023036034, 15 February 2013 (2013-02-15), JP, ISSN: 0005143857 * |
Also Published As
Publication number | Publication date |
---|---|
JP7405607B2 (en) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10288418B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US9672630B2 (en) | Contour line measurement apparatus and robot system | |
JP6506731B2 (en) | System and method for scoring clutter used for 3D point cloud matching in vision system | |
CN105818167B (en) | The method that hinged end effector is calibrated using long distance digital camera | |
JP7339316B2 (en) | System and method for simultaneous consideration of edges and normals in image features by a vision system | |
JP6363863B2 (en) | Information processing apparatus and information processing method | |
JP4885584B2 (en) | Rangefinder calibration method and apparatus | |
US8208029B2 (en) | Method and system for calibrating camera with rectification homography of imaged parallelogram | |
JP6352208B2 (en) | 3D model processing apparatus and camera calibration system | |
JP6836561B2 (en) | Image processing device and image processing method | |
US20130127998A1 (en) | Measurement apparatus, information processing apparatus, information processing method, and storage medium | |
JP6503153B2 (en) | System and method for automatically selecting a 3D alignment algorithm in a vision system | |
WO2019177539A1 (en) | Method for visual inspection and apparatus thereof | |
JP6073858B2 (en) | Face position detection | |
JP2008506953A (en) | Method and apparatus for machine vision | |
JP6172432B2 (en) | Subject identification device, subject identification method, and subject identification program | |
US9942442B2 (en) | Image reading apparatus, image reading method, and medium | |
JP2006343859A (en) | Image processing system and image processing method | |
JP4379626B2 (en) | Three-dimensional shape measuring method and apparatus | |
CN111684458A (en) | Target detection method, target detection device and unmanned aerial vehicle | |
Cui et al. | ACLC: Automatic Calibration for non-repetitive scanning LiDAR-Camera system based on point cloud noise optimization | |
JP7298687B2 (en) | Object recognition device and object recognition method | |
WO2019016879A1 (en) | Object detection device and object detection method | |
JPWO2020153264A1 (en) | Calibration method and calibration equipment | |
JP2006227739A (en) | Image processing device and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231026 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7405607 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |