JP4836086B2 - 3D shape detector - Google Patents
3D shape detector Download PDFInfo
- Publication number
- JP4836086B2 JP4836086B2 JP2007234115A JP2007234115A JP4836086B2 JP 4836086 B2 JP4836086 B2 JP 4836086B2 JP 2007234115 A JP2007234115 A JP 2007234115A JP 2007234115 A JP2007234115 A JP 2007234115A JP 4836086 B2 JP4836086 B2 JP 4836086B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- light
- dimensional shape
- feature points
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 97
- 238000012545 processing Methods 0.000 claims description 39
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000012795 verification Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 5
- 230000001678 irradiating effect Effects 0.000 claims description 5
- 238000013459 approach Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000005259 measurement Methods 0.000 claims description 4
- 238000000926 separation method Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 description 14
- 238000011156 evaluation Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 6
- 238000000034 method Methods 0.000 description 6
- 238000005286 illumination Methods 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Input (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
この発明は、検出対象の3次元形状を検出する3次元形状検出装置に関するものである。 The present invention relates to a three-dimensional shape detection apparatus that detects a three-dimensional shape to be detected.
一般に、検出対象を立体的に検出するために、一定の距離だけ離れた2点以上の視点から検出対象の像を撮影し、例えば検出対象のエッジ部分等の共通する特徴点についての距離算出を行うステレオ計測原理が広く用いられている。しかし、検出対象を撮影する視点間が離れている場合には特徴点を関連付けることが難しい。そこで、従来装置では、移動ステレオ手法、すなわち、カメラを所定軌跡に沿って移動させるとともに、連続的に撮影された各画像の特徴点を数珠繋ぎ的に関連づける手法を用いることで、大きく離れた視点間でも容易に特徴点を関連づけることができるようにしている(例えば、非特許文献1及び特許文献1,2)。
In general, in order to detect a detection target three-dimensionally, images of the detection target are taken from two or more viewpoints separated by a certain distance, and distance calculation is performed on common feature points such as edge portions of the detection target, for example. The stereo measurement principle to be performed is widely used. However, it is difficult to associate the feature points when the viewpoints for photographing the detection target are separated. Therefore, the conventional apparatus uses a moving stereo method, that is, a method of moving the camera along a predetermined trajectory and associating the feature points of each continuously captured image in a daisy chain. However, feature points can be easily associated (for example,
また、別の従来装置では、前述の移動ステレオ手法に加えて、2つの静止画像から得られる3次元座標の精度評価を行うことで、3次元座標の精度を高めている。すなわち、連続する静止画像間の縦視差を用いて3次元座標の精度評価を行い、該縦視差が所定値以下となる静止画像の組を選択することで、3次元座標の精度を高めている。また、3次元座標を得るための標定点の消失割合を用いて3次元座標の精度評価を行い、この標定点の消失割合が所定値未満となるように静止画像の組を選択することで、3次元座標の精度を高めている(例えば、特許文献3)。 In another conventional apparatus, in addition to the moving stereo method described above, the accuracy of the three-dimensional coordinates is improved by evaluating the accuracy of the three-dimensional coordinates obtained from two still images. That is, the accuracy of the three-dimensional coordinates is improved by evaluating the accuracy of the three-dimensional coordinates using the vertical parallax between successive still images and selecting a set of still images in which the vertical parallax is a predetermined value or less. . In addition, by evaluating the accuracy of the three-dimensional coordinates using the disappearance ratio of the orientation points for obtaining the three-dimensional coordinates, and selecting a set of still images so that the disappearance ratio of the orientation points is less than a predetermined value, The accuracy of three-dimensional coordinates is increased (for example, Patent Document 3).
ところで、ひも状柔軟物(以下、ケーブルと呼ぶ)の操作を自動化することは、ファクトリーオートメーション(FA)分野における重要な課題である。すなわち、ロボットアームによるケーブルの把持、コネクタへの挿入、ケーブルを避けながら作業するための経路探索、重なったケーブル上下判定作業等を行うためには、ケーブルの3次元形状検出が必要である。しかしながら、上記のような従来の3次元形状検出装置では、例えばエッジ部分等の検出対象自体の特徴点を用いて3次元形状を検出するので、ケーブル等の検出対象自体に特徴点が少ない場合は3次元形状の検出が難しい。 By the way, automating the operation of a string-like flexible object (hereinafter referred to as a cable) is an important issue in the field of factory automation (FA). That is, in order to grasp a cable by a robot arm, insert it into a connector, search a route for working while avoiding the cable, and perform an operation for determining the overlapping cable up and down, it is necessary to detect the three-dimensional shape of the cable. However, since the conventional three-dimensional shape detection apparatus as described above detects a three-dimensional shape using feature points of the detection target itself such as an edge portion, for example, there are few feature points in the detection target itself such as a cable. It is difficult to detect a three-dimensional shape.
この発明は、上記のような課題を解決するためになされたものであり、その目的は、ケーブル等の特徴点が少ない検出対象でもより確実に特徴点を抽出でき、より確実に3次元形状を検出できる3次元形状検出装置を提供することである。 The present invention has been made in order to solve the above-described problems. The object of the present invention is to extract feature points more reliably even in a detection target with few feature points such as cables, and to more reliably form a three-dimensional shape. The object is to provide a three-dimensional shape detection device capable of detection.
この発明に係る3次元形状検出装置は、第1位置から第2位置まで変位されるとともに、第1及び第2位置を含む複数の位置から検出対象を撮影する撮影手段と、検出対象に所定形状のパターン光を照射して検出対象に複数の輝点を付加する照射手段と、撮影手段から複数の画像情報を取得するとともに、該画像情報から複数の輝点を特徴点として抽出し、第1及び第2位置間で撮影された画像情報の特徴点を用いて第1及び第2位置で撮影された画像情報の特徴点を互いに関連付け、この関連付けられた特徴点に基づいて検出対象の3次元形状を検出する処理手段とを備え、照射手段は、検出光を発生する光源と、検出光を複数のスリット光からなるパターン光として検出対象に照射するパターン光生成部とを含み、処理手段は、撮影手段を変位させる複数の軌跡候補を生成する軌跡候補生成部と、スリット光の延在方向を検出するスリット光延在方向検出部と、軌跡候補の延在方向とスリット光の延在方向との交差角を求め、該交差角が直角に近づくように、軌跡候補の延在方向とスリット光の延在方向との組み合わせを決定する検出動作制御部とを含む。
The three-dimensional shape detection apparatus according to the present invention includes an imaging unit that is displaced from a first position to a second position and that images a detection target from a plurality of positions including the first and second positions, and a predetermined shape for the detection target. Irradiating means for irradiating the pattern light and adding a plurality of bright spots to the detection target, and acquiring a plurality of pieces of image information from the photographing means, and extracting a plurality of bright spots as feature points from the image information. And the feature points of the image information photographed at the first and second positions using the feature points of the image information photographed between the second positions and the three-dimensional detection target based on the associated feature points. Processing means for detecting a shape, the irradiating means includes a light source that generates detection light, and a pattern light generation unit that irradiates the detection target as pattern light composed of a plurality of slit lights. , Shooting means A trajectory candidate generating unit that generates a plurality of trajectory candidates to be displaced, a slit light extending direction detecting unit that detects the extending direction of the slit light, and an intersection angle between the extending direction of the trajectory candidate and the extending direction of the slit light. And a detection operation control unit that determines a combination of the extension direction of the trajectory candidate and the extension direction of the slit light so that the intersection angle approaches a right angle.
この発明の3次元形状検出装置によれば、照射手段が検出対象に複数の輝点を付加し、処理手段が前記複数の輝点を特徴点として画像情報から抽出するので、ケーブル等の特徴点が少ない検出対象でもより確実に特徴点を抽出することができ、移動ステレオ手法を用いてより確実に3次元形状を検出できる。 According to the three-dimensional shape detection apparatus of the present invention, the irradiation means adds a plurality of bright spots to the detection target, and the processing means extracts the plurality of bright spots from the image information as feature points. The feature points can be extracted more reliably even with a small number of detection targets, and the three-dimensional shape can be detected more reliably using the moving stereo method.
以下、この発明を実施するための最良の形態について、図面を参照して説明する。
実施の形態1.
図1は、この発明の実施の形態1による3次元形状検出装置を示すブロック図である。図2は、図1のカメラ1とパターン光照射装置4とを示す斜視図である。図において、3次元形状検出装置は、カメラ1と、視点移動機構2と、駆動制御器3と、パターン光照射装置4と、照射制御器5と、処理手段6とを有している。なお、この実施の形態では、撮影手段はカメラ1から構成され、照射手段はパターン光照射装置4及び照射制御器5から構成されている。
The best mode for carrying out the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a three-dimensional shape detection apparatus according to
図1に示されるように、カメラ1は、検出対象であるケーブル10の像を撮影するためのものである。このカメラ1は、例えばロボットアームや電動ステージ等の視点移動機構2に取り付けられている。視点移動機構2は、図2に示すように、所定軌跡に沿ってカメラ1を第1位置2aから第2位置2bまで変位させる。カメラ1は、第1及び第2位置2a,2bを含めた複数の位置からケーブル10を撮影する。図1に戻り、駆動制御器3は、処理手段6からの駆動制御指令62aに基づいて、視点移動機構2の動作を制御する。
As shown in FIG. 1, the
パターン光照射装置4は、図2に示すように、レーザ光発生器40と回折格子41とを有している。回折格子41は、レーザ光発生器40とケーブル10との間に回動可能に配置されており、レーザ光発生器40のレーザ光を互いに平行な直線状の複数のスリット光42からなるパターン光43とする。このパターン光43は、ケーブル10に照射されて、ケーブル10に複数の輝点10aを付加する。図1に戻り、照射制御器5は、処理手段6からの照射制御指令62bに基づいて、パターン光43の照射の開始及び終了を制御する。また、照射制御器5は、照射制御指令62bに基づいて回折格子41を回動させて、スリット光42の延在方向42a(図2参照)を制御する。なお、この実施の形態では、光源はレーザ光発生器40により構成され、パターン光生成部は照射制御器5及び回折格子41により構成される。
As shown in FIG. 2, the pattern light irradiation device 4 includes a
処理手段6は、カメラ1、駆動制御器3、及び照射制御器5に電気的に接続されている。この処理手段6は、視点移動機構2によるカメラ1の変位と、パターン光照射装置4及び照射制御器5によるパターン光43の照射とを制御する。また、処理手段6は、カメラ1により生成された複数の画像情報1aを取得し、該画像情報1aに基づいてケーブル10の3次元形状を検出する。なお、処理手段6は、プログラム等の情報を記憶する記憶部(RAM及びROM)と、記憶手段の情報に基づいて演算処理を行う処理部(CPU)とを含むコンピュータである。
The processing means 6 is electrically connected to the
詳しくは、処理手段6は、軌跡候補生成部60と、スリット光延在方向検出部61と、検出動作制御部62と、画像取得部63と、特徴点抽出部64と、関連付け処理部65と、追跡安定性検証部66と、3次元座標算出部67と、形状特性モデル記憶部68と、3次元形状復元部69とを含んでいる。
Specifically, the processing means 6 includes a trajectory
処理手段6には、例えばカメラ1の周囲環境や物理的干渉等を示す外部からの周囲環境情報60bが外部から入力される。軌跡候補生成部60は、例えば障害物を避けるための軌跡等、カメラ1を変位させる複数の軌跡候補60aを生成する。なお、この軌跡は、例えばロボットアームや電動ステージ等の視点移動機構2の構成に応じて平面的でも立体的でもよい。スリット光延在方向検出部61は、図示しないセンサからの信号に基づいて回折格子41(図2参照)の回動位置を検出することで、スリット光42の延在方向42aを検出する。
For example,
検出動作制御部62は、軌跡候補生成部60からの軌跡候補60aとスリット光延在方向検出部61からの延在方向情報61aとに基づいて、3次元形状検出の信頼性を示す信頼性評価指標を求める。具体的には、スリット光42の延在方向42aと軌跡候補60aの延在方向2c(図2参照)との交差角度に基づいて信頼性評価指標を求める。すなわち信頼性評価指標は、スリット光42のベクトルと軌跡候補60aのベクトルとの内積により表すことができる。また、検出動作制御部62は、求めた信頼性評価指標に基づいて、軌跡候補60aとスリット光42の延在方向2c,42aとの交差角が直角に近づくように、軌跡候補60aと回折格子41との回動位置との組み合わせを決定する。これは、交差角が直角に近いほど、輝点10aの検出感度が高くなるためである。さらにまた、検出動作制御部62は、軌跡候補60aと回折格子41の回動位置との選択結果に基づいて、駆動制御器3及び照射制御器5に駆動制御指令62a及び照射制御指令62bをそれぞれ入力する。
The detection
カメラ1は、所定軌跡に沿って変位されながら、パターン光43が照射された状態のケーブル10を撮影する(図2参照)。画像取得部63は、複数の画像情報1aをカメラ1から取得する。なお、カメラ1としてはデジタルビデオカメラ等が用いられ、画像取得部63としてはNTSC、USB、IEEE1394等のカメラインターフェース種別によりキャプチャや専用ポート等が用いられる。
The
特徴点抽出部64は、画像取得部63により取得された複数の画像情報1aに対して特徴抽出処理を行い、特徴点の抽出を行う。ここで、特徴点抽出部64により抽出される特徴点には、パターン光43により付加された輝点10aに加え、抽出された輝点10a間を補間する補間点と、例えば印字等のケーブル10自体の特徴部分とが含まれる。
The feature
印字等のケーブル10自体の特徴部分は、SUSANオペレータ及びHarrisオペレータ等のコーナ検出フィルタや、Sobel及びCanny等のエッジ検出フィルタを用いることで抽出できる。
Characteristic portions of the
輝点10aは、パターン光43が照射されていない状態のケーブル画像と、パターン光43が照射された状態の現画像との差分画像から抽出できる。なお、比較的単純な背景である場合には、背景とケーブルとの分離は、例えば周波数帯域フィルタ等を利用することで可能となる。この際、高周波成分(細かなノイズ成分)と低周波成分(照明変動によるグラデーション等のゆるやかな明度変化成分)を取り除いた中域成分強度画像が、ケーブル10を取り出した画像である。
The
また、補間点の作成は、ケーブル10自体の特徴部分や輝点10aとして既に抽出された領域以外で、以下に述べる方向符号(OC:Orientation Code)のエントロピーExyが高い点を抽出することで可能となる。まず、方向符号(OC)は、各画素の明度変化の最大勾配方向を整数値で量子化した値であり、コントラスト変動や明度変化、ハイライトや影の影響にロバストである。また、方向符号は、照明条件の変化等の影響を受けて連続フレーム間で画像上の輝度値が変化した場合にも変化しにくい特性を有している。画素(x,y)における方向符号Cxyは次の式1により定義される。
In addition, the interpolation point can be created by extracting a point having a high entropy Exy of the direction code (OC: Orientation Code) described below, other than the characteristic portion of the
ここで、θxyは明度勾配方向、Δθは量子化数、|ΔIx|,|ΔIy|はそれぞれx方向、y方向の微分値を表す。Γは閾値であり、ノイズレベルの影響を抑えるものである。画素(x,y)を中心とする領域(サイズMe×Me)の局所領域内における各方向符号の出現頻度をhxy(C)(C=0,1,・・・,N)とすると、方向符号エントロピーExyは、次の式2により定義される。なお、Pxy(C)(C=0,1,・・・,N)は不良符号数hxy(N)を除外した方向符号に関する相対度数を表している。方向符号エントロピーExyを用いる補間点は、ケーブル上に印字されているような場合に、その印字部分を優先的に特徴点として抽出することになる。
Here, θxy represents the lightness gradient direction, Δθ represents the quantization number, and | ΔIx | and | ΔIy | represent differential values in the x direction and the y direction, respectively. Γ is a threshold value that suppresses the influence of the noise level. When the frequency of appearance of each direction code in the local region of the region (size Me × Me) centered on the pixel (x, y) is hxy (C) (C = 0, 1,..., N), the direction The code entropy Exy is defined by the
この方向符号エントロピーExyは、補間点の作成に加えて、抽出した特徴点の信頼性判定に使用される。すなわち、特徴点抽出部64は、抽出された複数の特徴点の中から、方向符号エントロピーExyが高いものを優先的に有効とし、方向符号エントロピーExyが低い特徴点を無効とする。つまり、特徴点抽出部64は、方向符号エントロピーExyの高さの順位が所定順位よりも高い特徴点を有効とし、順位が低い特徴点を無効とする。この特徴選択は、濃度勾配値の変化や照明変動の影響に対するロバスト性を有しており、一方向のエッジに依存しにくい特徴を有している。
This direction code entropy Exy is used to determine the reliability of the extracted feature points in addition to the creation of interpolation points. That is, the feature
関連付け処理部65は、第1及び第2位置2a,2b間で撮影された画像情報1aの特徴点を用いて特徴点追跡を行い、第1及び第2位置2a,2bで撮影された画像情報1aの特徴点を互いに関連付ける。具体的には、関連付け処理部65は、前述の方向符号値の差を用いる方向符号照合(OCM)により特徴点の関連付けを行う。すなわち、i番目の画像内のj番目の特徴点について、対応探索用のテンプレート(サイズMo×Mo)の方向符号Cj,iと、次の視点画像における方向符号Ci+1を用いて、画素毎に得られる残差絶対値d(Cj,i , Ci+1)の総和を画素数Mo2で割った平均残差絶対値Dが最小となる点を対応点とする。
The
追跡安定性検証部66は、関連付け処理部65による特徴点追跡の安定性、すなわち特徴点の関連付けの安定性を示す安定性指標を求める。ここで、互いに対応する特徴点66a〜66cが、撮影位置により図3に示すように変位したとする。各撮影位置間での対応点間にはエピポーラ拘束が働くことはよく知られている。つまり、特徴点66a〜66cの抽出精度が高ければ特徴点66a〜66cはカメラ1の軌跡に応じたエピポーラ線66d上に並ぶことになる。従って、エピポーラ線66dからの外れ角度θ1,θ2を評価することで特徴点追跡の安定性を評価できる。また、例えば、ケーブル10の撮影位置間の距離D1,D2(図2参照)が等間隔となる場合には、画像面上における特徴点66a〜66c間の距離X1,X2(図3参照)も等間隔となる。すなわち、ケーブル10の撮影位置間の距離関係と特徴点66a〜66c間に想定される距離関係とには相関があるので、ケーブル10の撮影位置間の距離D1,D2と特徴点66a〜66c間の距離X1,X2と関係のずれを評価することで、特徴点追跡の安定性を評価できる。すなわち、追跡安定性検証部66は、エピポーラ線66dからの外れ角度θ1,θ2、及びケーブル10の撮影位置間の距離関係と特徴点66a〜66c間に想定される距離関係とのずれの少なくとも一方を用いて安定性指標を求め、所定値を基準とした判定基準により安定性指標を判定し、該当する特徴点該特徴点66a〜66cを無効とする。
The tracking
図1に戻り、3次元座標算出部67は、ステレオ計測原理に基づいて特徴点の3次元座標を求める。形状特性モデル記憶部68は、ケーブル10の形状特性モデル68aを予め記憶している。なお、形状特性モデル68aは外部から入力された情報であり、ケーブル10のおおよその3次元形状がひも状であることを示している。3次元形状復元部69は、3次元座標算出部67により算出された3次元座標からスプライン補間等によりケーブル10の3次元形状を復元する。ここで、前述したように追跡安定性検証部66等により特徴点の選定が行われるが、位置がずれている特徴点が残ることもある。位置がずれている特徴点を含んだ状態で3次元形状を復元すると、復元された3次元形状がいびつになる。3次元形状復元部69は、復元した3次元形状を形状特性モデル68aに基づいて修正することで、形状特性モデル68aと比べて過剰な変形が生じている部分をエラー部分として排除する。3次元形状復元部69は、修正した後の3次元形状を3次元形状データ69aとして外部に出力する。
Returning to FIG. 1, the three-dimensional coordinate
次に、3次元形状検出装置の動作について説明する。図4は、図1の3次元形状検出装置による3次元形状検出動作を示すフローチャートである。図において、外部から処理手段6に周囲環境情報60bが入力されると、複数の軌跡候補60aが軌跡候補生成部60によって生成されるとともに(ステップS1)、回折格子41の回動位置がスリット光延在方向検出部61により検出され(ステップS2)、検出動作制御部62によりカメラ1の軌跡と回折格子41の回動位置が決定される(ステップS3)。
Next, the operation of the three-dimensional shape detection apparatus will be described. FIG. 4 is a flowchart showing a three-dimensional shape detection operation by the three-dimensional shape detection apparatus of FIG. In the figure, when
その次に、検出動作制御部62から照射制御器5に照射制御指令62bが入力されて、回折格子41が所定角度に回動されるとともに、パターン光43の照射が開始される(ステップS4)。パターン光43の照射が開始されると、検出動作制御部62から駆動制御器3に駆動制御指令62aが入力されて、初期位置すなわち第1位置2aにカメラ1が移動される(ステップS5)。
Next, an irradiation control command 62b is input from the detection
カメラ1が第1位置2aに移動されると、第1位置2aで撮影された画像情報1aが画像取得部63により取得され(ステップS6)、輝点10a、ケーブル10自身の特徴部分、及び補間点が特徴点として特徴点抽出部64により画像情報1aから抽出される(ステップS7)。特徴点が抽出されると、関連付け処理部65による特徴点関連付けが行われるとともに(ステップS8)、追跡安定性検証部66による追跡安定性評価とが行われる(ステップS9)。なお、カメラ1が第1位置2aに位置する時点では、画像情報1aは1つしかないので、特徴点関連付け及び追跡安定性評価は、実質的には行われない。
When the
その次に、カメラ1によるケーブル10の撮影が全撮影位置で行われたか否かが検出動作制御部62により判定される(ステップS10)。このとき、撮影が行われていない位置が有ると判定されると、検出動作制御部62から駆動制御器3に駆動制御指令62aが改めて入力されて、カメラ1が次の撮影位置に移動される(ステップS11)。この後、全撮影位置での撮影が終了したと判定されるまで、画像情報1aの取得、特徴点の抽出、特徴点の関連付け、追跡安定性評価、撮影終了の判定、及びカメラ1の移動(ステップS6〜11)が繰り返し行われる。このとき、方向符号エントロピーExyを用いた特徴点の選定が特徴点抽出部64により行われることで、追跡に適した特徴点が優先的に選び出される。また、方向符号照合による特徴点の関連付けが関連付け処理部65により行われることで、精度よく特徴点の追跡が行われる。さらに、安定性指標に基づく追跡安定性評価が追跡安定性検証部66により行われることで、3次元座標算出に適した特徴点が選び出される。
Next, it is determined by the detection
その次に、全撮影位置での撮影が終了したと判定されると、パターン光43の照射が終了され(ステップS12)、ステレオ計測原理に基づく特徴点の3次元座標算出が3次元座標算出部67により行われるとともに(ステップS13)、算出された3次元座標に基づく3次元形状の復元処理が3次元形状復元部69により行われる(ステップS14)。3次元形状の復元処理が終了すると、形状特性モデル記憶部68が記憶しているケーブル10の形状特性モデル68aが3次元形状復元部69により取得され、この形状特性モデル68aに基づく3次元形状の修正処理が行われる(ステップS15)。
Next, when it is determined that the photographing at all photographing positions is completed, the irradiation of the pattern light 43 is finished (step S12), and the three-dimensional coordinate calculation of the feature point based on the stereo measurement principle is performed. 67 (step S13), a three-dimensional shape restoration process based on the calculated three-dimensional coordinates is performed by the three-dimensional shape restoration unit 69 (step S14). When the three-dimensional shape restoration processing is completed, the shape
このような3次元形状検出装置では、パターン光照射装置4がケーブル10に複数の輝点10aを付加し、処理手段6が複数の輝点10aを特徴点として画像情報1aから抽出するので、独自の特徴点が少ないケーブル10でもより確実に特徴点を抽出することができ、移動ステレオ手法を用いてより確実に3次元形状を検出できる。
In such a three-dimensional shape detection apparatus, the pattern light irradiation device 4 adds a plurality of
また、特徴点抽出部64は、抽出した複数の特徴点の中から方向符号エントロピーが高い前記特徴点を優先的に有効とし、前記方向符号エントロピーが低い特徴点を無効とするので、追跡に適した特徴点を優先的に選び出すことができ、3次元形状の検出精度を向上できる。
In addition, the feature
さらに、関連付け処理部65は、方向符号照合により特徴点の関連付けを行うので、精度よく特徴点の追跡を行うことができ、3次元形状の検出精度を向上できる。
Furthermore, since the
さらにまた、追跡安定性検証部66は、エピポーラ線66dからの外れ角度θ1,θ2、及びケーブル10の撮影位置間の距離関係と特徴点66a〜66c間に想定される距離関係とのずれの、少なくとも一方に基づいて安定性指標を求め、所定値を基準とした判定基準により安定性指標を判定し、該当する特徴点66a〜66cを無効とする。これにより、3次元座標算出に適した特徴点をより確実に選び出すことができ、3次元形状の検出精度を向上できる。
Furthermore, the tracking
また、3次元形状復元部69は、復元された3次元形状を形状特性モデル68aに基づいて修正するので、位置ずれが生じている特徴点が3次元形状復元時に残っていても該特徴点による3次元形の変形を排除でき、3次元形状の検出精度を向上できる。
In addition, since the three-dimensional
さらに、検出動作制御部62は、スリット光42の延在方向と軌跡候補60aの延在方向との交差角を求め、該交差角が直角に近づくように、前記軌跡候補60aと前記回折格子41の回動位置との組み合わせを決定する。これにより、輝点10aの抽出精度を高めることができ、3次元形状の検出精度を向上できる。
Further, the detection
なお、実施の形態1では、検出対象に照射するパターン光43は、互いに平行な直線状の複数のスリット光42からなる縞状の形状を有するように説明したが、例えば複数の同心円や網目等、パターン光の形状は2次元上に広がる任意の形状でよい。 In the first embodiment, the pattern light 43 applied to the detection target has been described as having a striped shape composed of a plurality of linear slit lights 42 parallel to each other. However, for example, a plurality of concentric circles, meshes, etc. The shape of the pattern light may be any shape spreading in two dimensions.
実施の形態2.
図5は、この発明の実施の形態2による3次元形状検出装置を示すブロック図である。図6は、図5のレーザ光発生器200及び照射制御器210により生成されるパターン光43を示す説明図である。実施の形態1では、照射手段は、パターン光照射装置4(レーザ光発生器40及び回折格子41)と照射制御器5とから構成されると説明したが(図2参照)、この実施の形態2の照射手段は、レーザ光発生器200及び照射制御器210により構成されている。なお、この実施の形態では、光源はレーザ光発生器200により構成され、パターン光生成部は照射制御器210により構成されている。
FIG. 5 is a block diagram showing a three-dimensional shape detection apparatus according to
レーザ光発生器200は、図6に示すように直線状に延びるスリット光42を発生する。照射制御器210は、スリット光42の延在方向42aと直交する方向42bにスリット光42を走査させる。また、照射制御器210は、スリット光42を走査させる際にスリット光42をON,OFFさせる。なお、図6においてスリット光42の一端に示された丸はスリット光42のON,OFFを示している。すなわち、この実施の形態2では、ON,OFFされながらスリット光42が走査されることでパターン光43が生成されるように構成されている。換言すると、スリット光42のON,OFFを制御することで、スリット光42の間隔42cを任意に制御できるように構成されている。
The
ここで、スリット光42の間隔42cを狭めるほど輝点10a(図2参照)の数を多くでき、3次元形状の検出精度を高めることができる。しかしながら、カメラ1により生成される画像情報1aの解像度には限界がある。従って、カメラ1とケーブル10とが大きく離れていると、画像情報1a上でスリット光42の間隔42cがつぶれてしまい、輝点10aを抽出できなくなる可能性がある。
Here, the number of
この実施の形態2の処理手段220には、カメラ1とケーブル10との間の離間距離を示す外部からの距離情報221が入力される。検出動作制御部222は、入力された距離情報221に基づいて前記照射制御器210に照射制御指令222bを入力し、スリット光42の間隔42cを制御する。具体的には、カメラ1とケーブル10との間の離間距離が大きければスリット光42の間隔42cを広げ、離間距離が小さければスリット光42の間隔42cを狭める。なお、スリット光61は、レーザ光発生器200の回動位置を検出することで、スリット光42の延在方向42aを検出する。また、検出動作制御部320は、照射制御器210に照射制御指令62bを入力することで、スリット光42の延在方向42aと軌跡候補60aの延在方向とが直交に近づくようにレーザ光発生器200を回動させる。その他の構成は、実施の形態1と同様である。
The
このような3次元形状検出装置によれば、検出動作制御部222は、距離情報221に基づいてスリット光42の間隔42cを制御するので、スリット光42の間隔42cを最適に設定することができ、3次元形状の検出精度をさらに向上できる。
According to such a three-dimensional shape detection apparatus, the detection
実施の形態3.
図7は、この発明の実施の形態3による3次元形状検出装置を示すブロック図である。スリット光42の間隔42c(図6参照)が等間隔の場合、ケーブル10に輝点10a(図2参照)が等間隔に付加されるので、異なる位置で撮影された画像情報1a間の特徴点の関連付け精度が低くなる場合がある。すなわち、輝点10aの間隔や輝点10aの大きさに変化をつけることでパターン光42の中に局所パターンを形成する。この局所パターンを利用することで、画像情報1a間の特徴点の関連付け精度を向上できる。処理手段300の関連付け処理部310は、特徴点の関連付けを行った後に、関連付けの結果を示す対応結果情報310aを検出動作制御部320に入力する。具体的には、対応結果情報310aは、有効とした特徴点の分布状況を示している。
FIG. 7 is a block diagram showing a three-dimensional shape detection apparatus according to
検出動作制御部320は、対応結果情報310aに基づいて照射制御器210に照射制御指令320bを入力することで、スリット光42の間隔42c及び幅の少なくとも一方を制御する。つまり、特徴点の関連付け精度が低い領域に、前述の局所パターンを形成する。なお、図6ではスリット光42をON,OFFする間隔42dを離して示しているが、この間隔42dを隣接させることで、スリット光42の幅を制御できる。その他の構成は実施の形態2と同様である。
The detection
このような3次元形状検出装置では、検出動作制御部320は、対応結果情報310aに基づいて、スリット光42の間隔42c及び幅の少なくとも一方を制御するので、特徴点の関連付け精度が低い領域において局所パターンを形成でき、3次元形状の検出精度をさらに向上できる。
In such a three-dimensional shape detection apparatus, the detection
1 カメラ(撮影手段)、1a 画像情報、2a 第1位置、2b 第2位置、3 駆動制御器、4 パターン光照射装置(照射手段)、5,210 照射制御器(パターン光生成部)、6,220,300 処理手段、10 ケーブル(検出対象)、10a 輝点、40,200 レーザ光発生器(光源)、41 回折格子(パターン光生成部)、42 スリット光、43 パターン光、60 軌跡候補生成部、60a 軌跡候補、61 スリット光延在方向検出部、62,222,320 検出動作制御部、64 特徴点抽出部、65,310 関連付け処理部、66 追跡安定性検証部、67 3次元座標算出部、68 形状特性モデル記憶部、68a 形状特性モデル、69 3次元形状復元部。
DESCRIPTION OF
Claims (7)
前記検出対象に所定形状のパターン光を照射して前記検出対象に複数の輝点を付加する照射手段と、
前記撮影手段から複数の画像情報を取得するとともに、該画像情報から前記複数の輝点を特徴点として抽出し、前記第1及び第2位置間で撮影された前記画像情報の前記特徴点を用いて前記第1及び第2位置で撮影された前記画像情報の特徴点を互いに関連付け、この関連付けられた前記特徴点に基づいて前記検出対象の3次元形状を検出する処理手段と
を備え、
前記照射手段は、
検出光を発生する光源と、
前記検出光を複数のスリット光からなる前記パターン光として前記検出対象に照射するパターン光生成部と
を含み、
前記処理手段は、
前記撮影手段を変位させる複数の軌跡候補を生成する軌跡候補生成部と、
前記スリット光の延在方向を検出するスリット光延在方向検出部と、
前記軌跡候補の延在方向と前記スリット光の延在方向との交差角を求め、該交差角が直角に近づくように、前記軌跡候補の延在方向と前記スリット光の延在方向との組み合わせを決定する検出動作制御部と
を含むことを特徴とする3次元形状検出装置。 An imaging unit that is displaced from the first position to the second position and that images the detection target from a plurality of positions including the first and second positions;
Irradiating means for irradiating a pattern light of a predetermined shape to the detection target to add a plurality of bright spots to the detection target;
A plurality of image information is acquired from the photographing means, the plurality of bright spots are extracted as feature points from the image information, and the feature points of the image information photographed between the first and second positions are used. Processing means for associating feature points of the image information photographed at the first and second positions with each other and detecting a three-dimensional shape of the detection target based on the associated feature points ,
The irradiation means includes
A light source that generates detection light;
A pattern light generation unit that irradiates the detection target with the detection light as the pattern light including a plurality of slit lights;
Including
The processing means includes
A trajectory candidate generator for generating a plurality of trajectory candidates for displacing the photographing means;
A slit light extending direction detector for detecting the extending direction of the slit light;
The intersection angle between the extension direction of the locus candidate and the extension direction of the slit light is obtained, and a combination of the extension direction of the locus candidate and the extension direction of the slit light so that the intersection angle approaches a right angle. Detecting operation control unit to determine
3-dimensional shape detection device which comprises a.
前記画像情報から前記特徴点を抽出するとともに、抽出した複数の前記特徴点の中から方向符号エントロピーが高い前記特徴点を優先的に有効とする特徴点抽出部
を含むことを特徴とする請求項1記載の3次元形状検出装置。 The processing means includes
The feature point extracting unit that extracts the feature point from the image information and preferentially validates the feature point having a high direction code entropy among the plurality of extracted feature points. The three-dimensional shape detection apparatus according to 1.
方向符号照合により前記特徴点の前記関連付けを行う関連付け処理部
を含むことを特徴とする請求項1又は請求項2に記載の3次元形状検出装置。 The processing means includes
The three-dimensional shape detection apparatus according to claim 1, further comprising an association processing unit that performs the association of the feature points by direction code matching.
前記特徴点のエピポーラ線からの外れ角度、及び前記検出対象の撮影位置間の距離関係と対応する特徴点間に想定される距離関係とのずれの、少なくとも一方を用いて、前記特徴点の関連付けの安定性を示す安定性指標を求め、所定値を基準とした判定基準により前記安定性指標を判定し、該当する特徴点を無効とする追跡安定性検証部
を含むことを特徴とする請求項1から請求項3までのいずれか1項に記載の3次元形状検出装置。 The processing means includes
Associating the feature points using at least one of a deviation angle from the epipolar line of the feature points and a deviation between a distance relationship between the imaging positions of the detection target and a corresponding distance relationship between the corresponding feature points A tracking stability verification unit that obtains a stability index indicating the stability of the image, determines the stability index based on a determination criterion based on a predetermined value, and invalidates the corresponding feature point. The three-dimensional shape detection apparatus according to any one of claims 1 to 3.
ステレオ計測原理に基づいて前記特徴点の3次元座標を求める3次元座標算出部と、
前記検出対象の形状特性モデルを予め記憶する形状特性モデル記憶部と、
前記3次元座標に基づいて前記検出対象の3次元形状を復元するとともに、該3次元形状を前記形状特性モデルに基づいて修正する3次元形状復元部と
を含むことを特徴とする請求項1から請求項4までのいずれか1項に記載の3次元形状検出装置。 The processing means includes
A three-dimensional coordinate calculation unit for obtaining three-dimensional coordinates of the feature points based on a stereo measurement principle;
A shape characteristic model storage unit that stores in advance the shape characteristic model of the detection target;
A three-dimensional shape restoring unit that restores the three-dimensional shape of the detection target based on the three-dimensional coordinates and corrects the three-dimensional shape based on the shape characteristic model. The three-dimensional shape detection apparatus according to claim 1.
検出光を発生する光源と、
前記検出光を複数のスリット光からなる前記パターン光として前記検出対象に照射するパターン光生成部と
を含み、
前記処理手段は、
前記撮影手段と前記検出対象との間の離間距離を示す外部からの距離情報に基づいて前記パターン光生成部に照射制御指令を入力し、前記スリット光の間隔を制御する検出動作制御部
を含むことを特徴とする請求項1から請求項5までのいずれか1項に記載の3次元形状検出装置。 The irradiation means includes
A light source that generates detection light;
A pattern light generation unit that irradiates the detection target as the pattern light composed of a plurality of slit lights with the detection light,
The processing means includes
A detection operation control unit configured to input an irradiation control command to the pattern light generation unit based on distance information from the outside indicating a separation distance between the imaging unit and the detection target, and to control an interval of the slit light. The three-dimensional shape detection apparatus according to any one of claims 1 to 5, wherein
検出光を発生する光源と、
前記検出光を複数のスリット光からなる前記パターン光として前記検出対象に照射するパターン光生成部と
を含み、
前記処理手段は、
前記特徴点の関連付けの結果に基づいて前記パターン光生成部に照射制御指令を入力し、前記スリット光の間隔及び幅の少なくとも一方を制御する検出動作制御部
を含むことを特徴とする請求項1から請求項6までのいずれか1項に記載の3次元形状検出装置。 The irradiation means includes
A light source that generates detection light;
A pattern light generation unit that irradiates the detection target as the pattern light composed of a plurality of slit lights with the detection light,
The processing means includes
2. A detection operation control unit configured to input an irradiation control command to the pattern light generation unit based on a result of the association of the feature points, and to control at least one of an interval and a width of the slit light. The three-dimensional shape detection apparatus according to any one of claims 1 to 6 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007234115A JP4836086B2 (en) | 2007-09-10 | 2007-09-10 | 3D shape detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007234115A JP4836086B2 (en) | 2007-09-10 | 2007-09-10 | 3D shape detector |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009069866A JP2009069866A (en) | 2009-04-02 |
JP4836086B2 true JP4836086B2 (en) | 2011-12-14 |
Family
ID=40606092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007234115A Active JP4836086B2 (en) | 2007-09-10 | 2007-09-10 | 3D shape detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4836086B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB0921461D0 (en) * | 2009-12-08 | 2010-01-20 | Qinetiq Ltd | Range based sensing |
JP6357949B2 (en) * | 2014-07-29 | 2018-07-18 | セイコーエプソン株式会社 | Control system, robot system, and control method |
JP6382074B2 (en) * | 2014-11-05 | 2018-08-29 | 古河電気工業株式会社 | Appearance inspection apparatus, appearance inspection system, and appearance inspection method |
JP2016192138A (en) * | 2015-03-31 | 2016-11-10 | 株式会社オートネットワーク技術研究所 | Manufacturing method of wire harness and image processing method |
JP2016192135A (en) * | 2015-03-31 | 2016-11-10 | 株式会社オートネットワーク技術研究所 | Image acquisition system for processing electric wire group |
JP2017045674A (en) * | 2015-08-28 | 2017-03-02 | 株式会社オートネットワーク技術研究所 | Wire harness manufacturing device, wire harness manufacturing method, and process-target wire position specifying method |
JP2017110975A (en) | 2015-12-15 | 2017-06-22 | キヤノン株式会社 | Measuring device, system, measurement method, determination method, and program |
JP6857032B2 (en) * | 2017-01-05 | 2021-04-14 | キヤノン株式会社 | Control device, system, control method of control device |
DE112019007121T5 (en) * | 2019-03-29 | 2021-12-16 | Autonetworks Technologies, Ltd. | Cabling component |
JP7238742B2 (en) * | 2019-11-22 | 2023-03-14 | 株式会社オートネットワーク技術研究所 | Wiring member and wiring member assembly method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002031513A (en) * | 2000-07-14 | 2002-01-31 | Minolta Co Ltd | Three-dimensional measuring device |
JP2002257528A (en) * | 2001-03-02 | 2002-09-11 | Ricoh Co Ltd | Three-dimensional shape measuring device by phase shift method |
JP2006133884A (en) * | 2004-11-02 | 2006-05-25 | Sharp Manufacturing System Corp | Image processing method characterized by verification method, image processing apparatus, image processing program, and recording medium with the program recorded thereon |
JP4480083B2 (en) * | 2005-02-23 | 2010-06-16 | アイシン精機株式会社 | Object recognition device |
-
2007
- 2007-09-10 JP JP2007234115A patent/JP4836086B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009069866A (en) | 2009-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4836086B2 (en) | 3D shape detector | |
Kassir et al. | Reliable automatic camera-laser calibration | |
JP5870273B2 (en) | Object detection apparatus, object detection method, and program | |
JP6836561B2 (en) | Image processing device and image processing method | |
JP4004899B2 (en) | Article position / orientation detection apparatus and article removal apparatus | |
CN103959307B (en) | The method of detection and Expressive Features from gray level image | |
JP5404263B2 (en) | Parallax calculation method and parallax calculation device | |
JP2004117078A (en) | Obstacle detection device and method | |
JP6172432B2 (en) | Subject identification device, subject identification method, and subject identification program | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
JP5156601B2 (en) | Shape measuring apparatus and program | |
WO2014084181A1 (en) | Image measurement device | |
JP5342413B2 (en) | Image processing method | |
JP6621351B2 (en) | Image processing apparatus and image processing method for laser processing | |
JP2007508557A (en) | Device for scanning three-dimensional objects | |
Kruger et al. | In-factory calibration of multiocular camera systems | |
JP7298687B2 (en) | Object recognition device and object recognition method | |
JP6863946B2 (en) | Image processing device | |
JP2021021577A (en) | Image processing device and image processing method | |
JP2015155911A (en) | Dimension measurement method | |
JP4351090B2 (en) | Image processing apparatus and image processing method | |
JP2021071420A (en) | Information processing apparatus, information processing method, program, system, manufacturing method for product, and measuring apparatus and measuring method | |
JP4274038B2 (en) | Image processing apparatus and image processing method | |
KR101934557B1 (en) | Eccentric tracking target for 3d scanning and 3d scanning method using eccentric tracking target | |
JP4975688B2 (en) | Image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20100217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110823 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110920 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141007 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4836086 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |