JP2009069866A - Three-dimensional shape detecting apparatus - Google Patents

Three-dimensional shape detecting apparatus Download PDF

Info

Publication number
JP2009069866A
JP2009069866A JP2007234115A JP2007234115A JP2009069866A JP 2009069866 A JP2009069866 A JP 2009069866A JP 2007234115 A JP2007234115 A JP 2007234115A JP 2007234115 A JP2007234115 A JP 2007234115A JP 2009069866 A JP2009069866 A JP 2009069866A
Authority
JP
Japan
Prior art keywords
dimensional shape
detection
light
feature points
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007234115A
Other languages
Japanese (ja)
Other versions
JP4836086B2 (en
Inventor
Haruhisa Okuda
晴久 奥田
Shunichi Kaneko
俊一 金子
Yukiyasu Domae
幸康 堂前
Manabu Hashimoto
橋本  学
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Mitsubishi Electric Corp
Original Assignee
Hokkaido University NUC
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Mitsubishi Electric Corp filed Critical Hokkaido University NUC
Priority to JP2007234115A priority Critical patent/JP4836086B2/en
Publication of JP2009069866A publication Critical patent/JP2009069866A/en
Application granted granted Critical
Publication of JP4836086B2 publication Critical patent/JP4836086B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional shape detecting apparatus that can more surely detect a three-dimensional shape by more accurately extracting the featured points from image information as object of detection, such as cables in which there are few unique featured points. <P>SOLUTION: A diffraction grating 41 is arranged so as to be rotated between a laser beam generator 40 and a cable 10, and the laser beam of the laser beam generator 40 is used as a pattern beam 43 configured of a plurality of slit beams 42. A processing means extracts a plurality of luminance points 10a added to the cable 10 by the pattern beam 43 as featured points. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

この発明は、検出対象の3次元形状を検出する3次元形状検出装置に関するものである。   The present invention relates to a three-dimensional shape detection apparatus that detects a three-dimensional shape to be detected.

一般に、検出対象を立体的に検出するために、一定の距離だけ離れた2点以上の視点から検出対象の像を撮影し、例えば検出対象のエッジ部分等の共通する特徴点についての距離算出を行うステレオ計測原理が広く用いられている。しかし、検出対象を撮影する視点間が離れている場合には特徴点を関連付けることが難しい。そこで、従来装置では、移動ステレオ手法、すなわち、カメラを所定軌跡に沿って移動させるとともに、連続的に撮影された各画像の特徴点を数珠繋ぎ的に関連づける手法を用いることで、大きく離れた視点間でも容易に特徴点を関連づけることができるようにしている(例えば、非特許文献1及び特許文献1,2)。   In general, in order to detect a detection target three-dimensionally, images of the detection target are taken from two or more viewpoints separated by a certain distance, and distance calculation is performed on common feature points such as edge portions of the detection target, for example. The stereo measurement principle to be performed is widely used. However, it is difficult to associate the feature points when the viewpoints for photographing the detection target are separated. Therefore, the conventional apparatus uses a moving stereo method, that is, a method of moving the camera along a predetermined trajectory and associating the feature points of each continuously captured image in a daisy chain. However, feature points can be easily associated (for example, Non-Patent Document 1 and Patent Documents 1 and 2).

また、別の従来装置では、前述の移動ステレオ手法に加えて、2つの静止画像から得られる3次元座標の精度評価を行うことで、3次元座標の精度を高めている。すなわち、連続する静止画像間の縦視差を用いて3次元座標の精度評価を行い、該縦視差が所定値以下となる静止画像の組を選択することで、3次元座標の精度を高めている。また、3次元座標を得るための標定点の消失割合を用いて3次元座標の精度評価を行い、この標定点の消失割合が所定値未満となるように静止画像の組を選択することで、3次元座標の精度を高めている(例えば、特許文献3)。   In another conventional apparatus, in addition to the moving stereo method described above, the accuracy of the three-dimensional coordinates is improved by evaluating the accuracy of the three-dimensional coordinates obtained from two still images. That is, the accuracy of the three-dimensional coordinates is improved by evaluating the accuracy of the three-dimensional coordinates using the vertical parallax between successive still images and selecting a set of still images in which the vertical parallax is a predetermined value or less. . In addition, by evaluating the accuracy of the three-dimensional coordinates using the disappearance ratio of the orientation points for obtaining the three-dimensional coordinates, and selecting a set of still images so that the disappearance ratio of the orientation points is less than a predetermined value, The accuracy of three-dimensional coordinates is increased (for example, Patent Document 3).

電子情報通信学会論文誌’86/11Vol.J69−D No.11 P1631−P1638IEICE Transactions '86 / 11 Vol. J69-D No. 11 P1631-P1638 特開平7−78252号公報JP 7-78252 A 特開平9−35061号公報JP-A-9-35061 特開2005−332177号公報JP 2005-332177 A

ところで、ひも状柔軟物(以下、ケーブルと呼ぶ)の操作を自動化することは、ファクトリーオートメーション(FA)分野における重要な課題である。すなわち、ロボットアームによるケーブルの把持、コネクタへの挿入、ケーブルを避けながら作業するための経路探索、重なったケーブル上下判定作業等を行うためには、ケーブルの3次元形状検出が必要である。しかしながら、上記のような従来の3次元形状検出装置では、例えばエッジ部分等の検出対象自体の特徴点を用いて3次元形状を検出するので、ケーブル等の検出対象自体に特徴点が少ない場合は3次元形状の検出が難しい。   By the way, automating the operation of a string-like flexible object (hereinafter referred to as a cable) is an important issue in the field of factory automation (FA). That is, in order to grasp a cable by a robot arm, insert it into a connector, search a route for working while avoiding the cable, and perform an operation for determining the overlapping cable up and down, it is necessary to detect the three-dimensional shape of the cable. However, since the conventional three-dimensional shape detection apparatus as described above detects a three-dimensional shape using feature points of the detection target itself such as an edge portion, for example, there are few feature points in the detection target itself such as a cable. It is difficult to detect a three-dimensional shape.

この発明は、上記のような課題を解決するためになされたものであり、その目的は、ケーブル等の特徴点が少ない検出対象でもより確実に特徴点を抽出でき、より確実に3次元形状を検出できる3次元形状検出装置を提供することである。   The present invention has been made in order to solve the above-described problems. The object of the present invention is to extract feature points more reliably even in a detection target with few feature points such as cables, and to more reliably form a three-dimensional shape. The object is to provide a three-dimensional shape detection device capable of detection.

この発明に係る3次元形状検出装置は、第1位置から第2位置まで変位されるとともに、第1及び第2位置を含む複数の位置から検出対象を撮影する撮影手段と、検出対象に所定形状のパターン光を照射して検出対象に複数の輝点を付加する照射手段と、撮影手段から複数の画像情報を取得するとともに、該画像情報から複数の輝点を特徴点として抽出し、第1及び第2位置間で撮影された画像情報の特徴点を用いて第1及び第2位置で撮影された画像情報の特徴点を互いに関連付け、この関連付けられた特徴点に基づいて検出対象の3次元形状を検出する処理手段とを備える。   The three-dimensional shape detection apparatus according to the present invention includes an imaging unit that is displaced from a first position to a second position and that images a detection target from a plurality of positions including the first and second positions, and a predetermined shape for the detection target. Irradiating means for irradiating the pattern light and adding a plurality of bright spots to the detection target, and acquiring a plurality of pieces of image information from the photographing means, and extracting a plurality of bright spots as feature points from the image information. And the feature points of the image information photographed at the first and second positions using the feature points of the image information photographed between the second positions and the three-dimensional detection target based on the associated feature points. And processing means for detecting the shape.

この発明の3次元形状検出装置によれば、照射手段が検出対象に複数の輝点を付加し、処理手段が前記複数の輝点を特徴点として画像情報から抽出するので、ケーブル等の特徴点が少ない検出対象でもより確実に特徴点を抽出することができ、移動ステレオ手法を用いてより確実に3次元形状を検出できる。   According to the three-dimensional shape detection apparatus of the present invention, the irradiation means adds a plurality of bright spots to the detection target, and the processing means extracts the plurality of bright spots from the image information as feature points. The feature points can be extracted more reliably even with a small number of detection targets, and the three-dimensional shape can be detected more reliably using the moving stereo method.

以下、この発明を実施するための最良の形態について、図面を参照して説明する。
実施の形態1.
図1は、この発明の実施の形態1による3次元形状検出装置を示すブロック図である。図2は、図1のカメラ1とパターン光照射装置4とを示す斜視図である。図において、3次元形状検出装置は、カメラ1と、視点移動機構2と、駆動制御器3と、パターン光照射装置4と、照射制御器5と、処理手段6とを有している。なお、この実施の形態では、撮影手段はカメラ1から構成され、照射手段はパターン光照射装置4及び照射制御器5から構成されている。
The best mode for carrying out the present invention will be described below with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a three-dimensional shape detection apparatus according to Embodiment 1 of the present invention. FIG. 2 is a perspective view showing the camera 1 and the pattern light irradiation device 4 of FIG. In the figure, the three-dimensional shape detection apparatus includes a camera 1, a viewpoint moving mechanism 2, a drive controller 3, a pattern light irradiation device 4, an irradiation controller 5, and a processing unit 6. In this embodiment, the photographing means is composed of the camera 1, and the irradiation means is composed of the pattern light irradiation device 4 and the irradiation controller 5.

図1に示されるように、カメラ1は、検出対象であるケーブル10の像を撮影するためのものである。このカメラ1は、例えばロボットアームや電動ステージ等の視点移動機構2に取り付けられている。視点移動機構2は、図2に示すように、所定軌跡に沿ってカメラ1を第1位置2aから第2位置2bまで変位させる。カメラ1は、第1及び第2位置2a,2bを含めた複数の位置からケーブル10を撮影する。図1に戻り、駆動制御器3は、処理手段6からの駆動制御指令62aに基づいて、視点移動機構2の動作を制御する。   As shown in FIG. 1, the camera 1 is for taking an image of a cable 10 that is a detection target. The camera 1 is attached to a viewpoint moving mechanism 2 such as a robot arm or an electric stage. As shown in FIG. 2, the viewpoint moving mechanism 2 displaces the camera 1 from the first position 2a to the second position 2b along a predetermined locus. The camera 1 images the cable 10 from a plurality of positions including the first and second positions 2a and 2b. Returning to FIG. 1, the drive controller 3 controls the operation of the viewpoint movement mechanism 2 based on the drive control command 62 a from the processing means 6.

パターン光照射装置4は、図2に示すように、レーザ光発生器40と回折格子41とを有している。回折格子41は、レーザ光発生器40とケーブル10との間に回動可能に配置されており、レーザ光発生器40のレーザ光を互いに平行な直線状の複数のスリット光42からなるパターン光43とする。このパターン光43は、ケーブル10に照射されて、ケーブル10に複数の輝点10aを付加する。図1に戻り、照射制御器5は、処理手段6からの照射制御指令62bに基づいて、パターン光43の照射の開始及び終了を制御する。また、照射制御器5は、照射制御指令62bに基づいて回折格子41を回動させて、スリット光42の延在方向42a(図2参照)を制御する。なお、この実施の形態では、光源はレーザ光発生器40により構成され、パターン光生成部は照射制御器5及び回折格子41により構成される。   As shown in FIG. 2, the pattern light irradiation device 4 includes a laser light generator 40 and a diffraction grating 41. The diffraction grating 41 is rotatably disposed between the laser light generator 40 and the cable 10, and the pattern light composed of a plurality of linear slit lights 42 parallel to the laser light of the laser light generator 40. 43. The pattern light 43 is applied to the cable 10 to add a plurality of bright spots 10 a to the cable 10. Returning to FIG. 1, the irradiation controller 5 controls the start and end of irradiation of the pattern light 43 based on the irradiation control command 62 b from the processing means 6. Further, the irradiation controller 5 controls the extending direction 42a (see FIG. 2) of the slit light 42 by rotating the diffraction grating 41 based on the irradiation control command 62b. In this embodiment, the light source is constituted by the laser light generator 40, and the pattern light generation unit is constituted by the irradiation controller 5 and the diffraction grating 41.

処理手段6は、カメラ1、駆動制御器3、及び照射制御器5に電気的に接続されている。この処理手段6は、視点移動機構2によるカメラ1の変位と、パターン光照射装置4及び照射制御器5によるパターン光43の照射とを制御する。また、処理手段6は、カメラ1により生成された複数の画像情報1aを取得し、該画像情報1aに基づいてケーブル10の3次元形状を検出する。なお、処理手段6は、プログラム等の情報を記憶する記憶部(RAM及びROM)と、記憶手段の情報に基づいて演算処理を行う処理部(CPU)とを含むコンピュータである。   The processing means 6 is electrically connected to the camera 1, the drive controller 3, and the irradiation controller 5. The processing means 6 controls the displacement of the camera 1 by the viewpoint moving mechanism 2 and the irradiation of the pattern light 43 by the pattern light irradiation device 4 and the irradiation controller 5. The processing unit 6 acquires a plurality of pieces of image information 1a generated by the camera 1, and detects the three-dimensional shape of the cable 10 based on the image information 1a. The processing unit 6 is a computer including a storage unit (RAM and ROM) that stores information such as a program and a processing unit (CPU) that performs arithmetic processing based on the information in the storage unit.

詳しくは、処理手段6は、軌跡候補生成部60と、スリット光延在方向検出部61と、検出動作制御部62と、画像取得部63と、特徴点抽出部64と、関連付け処理部65と、追跡安定性検証部66と、3次元座標算出部67と、形状特性モデル記憶部68と、3次元形状復元部69とを含んでいる。   Specifically, the processing means 6 includes a trajectory candidate generation unit 60, a slit light extending direction detection unit 61, a detection operation control unit 62, an image acquisition unit 63, a feature point extraction unit 64, an association processing unit 65, A tracking stability verification unit 66, a three-dimensional coordinate calculation unit 67, a shape characteristic model storage unit 68, and a three-dimensional shape restoration unit 69 are included.

処理手段6には、例えばカメラ1の周囲環境や物理的干渉等を示す外部からの周囲環境情報60bが外部から入力される。軌跡候補生成部60は、例えば障害物を避けるための軌跡等、カメラ1を変位させる複数の軌跡候補60aを生成する。なお、この軌跡は、例えばロボットアームや電動ステージ等の視点移動機構2の構成に応じて平面的でも立体的でもよい。スリット光延在方向検出部61は、図示しないセンサからの信号に基づいて回折格子41(図2参照)の回動位置を検出することで、スリット光42の延在方向42aを検出する。   For example, external environment information 60b indicating the ambient environment of the camera 1, physical interference, and the like is input to the processing unit 6 from the outside. The trajectory candidate generation unit 60 generates a plurality of trajectory candidates 60a for displacing the camera 1, such as a trajectory for avoiding an obstacle. The trajectory may be two-dimensional or three-dimensional depending on the configuration of the viewpoint moving mechanism 2 such as a robot arm or an electric stage. The slit light extending direction detector 61 detects the extending direction 42a of the slit light 42 by detecting the rotational position of the diffraction grating 41 (see FIG. 2) based on a signal from a sensor (not shown).

検出動作制御部62は、軌跡候補生成部60からの軌跡候補60aとスリット光延在方向検出部61からの延在方向情報61aとに基づいて、3次元形状検出の信頼性を示す信頼性評価指標を求める。具体的には、スリット光42の延在方向42aと軌跡候補60aの延在方向2c(図2参照)との交差角度に基づいて信頼性評価指標を求める。すなわち信頼性評価指標は、スリット光42のベクトルと軌跡候補60aのベクトルとの内積により表すことができる。また、検出動作制御部62は、求めた信頼性評価指標に基づいて、軌跡候補60aとスリット光42の延在方向2c,42aとの交差角が直角に近づくように、軌跡候補60aと回折格子41との回動位置との組み合わせを決定する。これは、交差角が直角に近いほど、輝点10aの検出感度が高くなるためである。さらにまた、検出動作制御部62は、軌跡候補60aと回折格子41の回動位置との選択結果に基づいて、駆動制御器3及び照射制御器5に駆動制御指令62a及び照射制御指令62bをそれぞれ入力する。   The detection operation control unit 62 is based on the trajectory candidate 60a from the trajectory candidate generation unit 60 and the extending direction information 61a from the slit light extending direction detecting unit 61, and a reliability evaluation index indicating the reliability of the three-dimensional shape detection. Ask for. Specifically, a reliability evaluation index is obtained based on the intersection angle between the extending direction 42a of the slit light 42 and the extending direction 2c of the locus candidate 60a (see FIG. 2). That is, the reliability evaluation index can be represented by the inner product of the vector of the slit light 42 and the vector of the locus candidate 60a. Further, the detection operation control unit 62 determines that the trajectory candidate 60a and the diffraction grating are set so that the intersection angle between the trajectory candidate 60a and the extending directions 2c and 42a of the slit light 42 approaches a right angle based on the obtained reliability evaluation index. The combination with the rotational position 41 is determined. This is because the detection sensitivity of the bright spot 10a is higher as the crossing angle is closer to a right angle. Furthermore, the detection operation control unit 62 sends a drive control command 62a and an irradiation control command 62b to the drive controller 3 and the irradiation controller 5 based on the selection result of the locus candidate 60a and the rotation position of the diffraction grating 41, respectively. input.

カメラ1は、所定軌跡に沿って変位されながら、パターン光43が照射された状態のケーブル10を撮影する(図2参照)。画像取得部63は、複数の画像情報1aをカメラ1から取得する。なお、カメラ1としてはデジタルビデオカメラ等が用いられ、画像取得部63としてはNTSC、USB、IEEE1394等のカメラインターフェース種別によりキャプチャや専用ポート等が用いられる。   The camera 1 takes an image of the cable 10 irradiated with the pattern light 43 while being displaced along a predetermined locus (see FIG. 2). The image acquisition unit 63 acquires a plurality of pieces of image information 1 a from the camera 1. Note that a digital video camera or the like is used as the camera 1, and a capture or a dedicated port is used as the image acquisition unit 63 depending on the camera interface type such as NTSC, USB, or IEEE1394.

特徴点抽出部64は、画像取得部63により取得された複数の画像情報1aに対して特徴抽出処理を行い、特徴点の抽出を行う。ここで、特徴点抽出部64により抽出される特徴点には、パターン光43により付加された輝点10aに加え、抽出された輝点10a間を補間する補間点と、例えば印字等のケーブル10自体の特徴部分とが含まれる。   The feature point extraction unit 64 performs feature extraction processing on the plurality of pieces of image information 1a acquired by the image acquisition unit 63, and extracts feature points. Here, the feature points extracted by the feature point extraction unit 64 include, in addition to the bright spots 10a added by the pattern light 43, interpolation points for interpolating between the extracted bright spots 10a, and a cable 10 such as printing. And its own features.

印字等のケーブル10自体の特徴部分は、SUSANオペレータ及びHarrisオペレータ等のコーナ検出フィルタや、Sobel及びCanny等のエッジ検出フィルタを用いることで抽出できる。   Characteristic portions of the cable 10 itself such as printing can be extracted by using a corner detection filter such as a SUSAN operator and a Harris operator, or an edge detection filter such as Sobel and Canny.

輝点10aは、パターン光43が照射されていない状態のケーブル画像と、パターン光43が照射された状態の現画像との差分画像から抽出できる。なお、比較的単純な背景である場合には、背景とケーブルとの分離は、例えば周波数帯域フィルタ等を利用することで可能となる。この際、高周波成分(細かなノイズ成分)と低周波成分(照明変動によるグラデーション等のゆるやかな明度変化成分)を取り除いた中域成分強度画像が、ケーブル10を取り出した画像である。   The bright spot 10a can be extracted from a difference image between a cable image in a state where the pattern light 43 is not irradiated and a current image in a state where the pattern light 43 is irradiated. In the case of a relatively simple background, the background and the cable can be separated by using, for example, a frequency band filter. At this time, the mid-range component intensity image from which the high-frequency component (fine noise component) and the low-frequency component (gradual brightness change component such as gradation due to illumination variation) are removed is an image obtained by removing the cable 10.

また、補間点の作成は、ケーブル10自体の特徴部分や輝点10aとして既に抽出された領域以外で、以下に述べる方向符号(OC:Orientation Code)のエントロピーExyが高い点を抽出することで可能となる。まず、方向符号(OC)は、各画素の明度変化の最大勾配方向を整数値で量子化した値であり、コントラスト変動や明度変化、ハイライトや影の影響にロバストである。また、方向符号は、照明条件の変化等の影響を受けて連続フレーム間で画像上の輝度値が変化した場合にも変化しにくい特性を有している。画素(x,y)における方向符号Cxyは次の式1により定義される。   In addition, the interpolation point can be created by extracting a point having a high entropy Exy of the direction code (OC: Orientation Code) described below, other than the characteristic portion of the cable 10 itself or the region already extracted as the bright point 10a. It becomes. First, the direction code (OC) is a value obtained by quantizing the maximum gradient direction of brightness change of each pixel with an integer value, and is robust to the influence of contrast fluctuation, brightness change, highlight and shadow. Further, the direction code has a characteristic that it is difficult to change even when the luminance value on the image changes between consecutive frames due to the influence of a change in illumination conditions or the like. The direction code Cxy in the pixel (x, y) is defined by the following expression 1.

Figure 2009069866
Figure 2009069866

ここで、θxyは明度勾配方向、Δθは量子化数、|ΔIx|,|ΔIy|はそれぞれx方向、y方向の微分値を表す。Γは閾値であり、ノイズレベルの影響を抑えるものである。画素(x,y)を中心とする領域(サイズMe×Me)の局所領域内における各方向符号の出現頻度をhxy(C)(C=0,1,・・・,N)とすると、方向符号エントロピーExyは、次の式2により定義される。なお、Pxy(C)(C=0,1,・・・,N)は不良符号数hxy(N)を除外した方向符号に関する相対度数を表している。方向符号エントロピーExyを用いる補間点は、ケーブル上に印字されているような場合に、その印字部分を優先的に特徴点として抽出することになる。   Here, θxy represents the lightness gradient direction, Δθ represents the quantization number, and | ΔIx | and | ΔIy | represent differential values in the x direction and the y direction, respectively. Γ is a threshold value that suppresses the influence of the noise level. When the frequency of appearance of each direction code in the local region of the region (size Me × Me) centered on the pixel (x, y) is hxy (C) (C = 0, 1,..., N), the direction The code entropy Exy is defined by the following equation 2. Pxy (C) (C = 0, 1,..., N) represents a relative frequency related to the direction code excluding the defective code number hxy (N). When the interpolation point using the direction code entropy Exy is printed on the cable, the printed portion is preferentially extracted as the feature point.

Figure 2009069866
Figure 2009069866

Figure 2009069866
Figure 2009069866

この方向符号エントロピーExyは、補間点の作成に加えて、抽出した特徴点の信頼性判定に使用される。すなわち、特徴点抽出部64は、抽出された複数の特徴点の中から、方向符号エントロピーExyが高いものを優先的に有効とし、方向符号エントロピーExyが低い特徴点を無効とする。つまり、特徴点抽出部64は、方向符号エントロピーExyの高さの順位が所定順位よりも高い特徴点を有効とし、順位が低い特徴点を無効とする。この特徴選択は、濃度勾配値の変化や照明変動の影響に対するロバスト性を有しており、一方向のエッジに依存しにくい特徴を有している。   This direction code entropy Exy is used to determine the reliability of the extracted feature points in addition to the creation of interpolation points. That is, the feature point extraction unit 64 preferentially validates a feature point having a high direction code entropy Exy from a plurality of extracted feature points, and invalidates a feature point having a low direction code entropy Exy. In other words, the feature point extraction unit 64 validates feature points whose rank of direction code entropy Exy is higher than a predetermined rank, and invalidates feature points having a low rank. This feature selection has robustness against changes in density gradient values and the effects of illumination fluctuations, and has a feature that is less dependent on edges in one direction.

関連付け処理部65は、第1及び第2位置2a,2b間で撮影された画像情報1aの特徴点を用いて特徴点追跡を行い、第1及び第2位置2a,2bで撮影された画像情報1aの特徴点を互いに関連付ける。具体的には、関連付け処理部65は、前述の方向符号値の差を用いる方向符号照合(OCM)により特徴点の関連付けを行う。すなわち、i番目の画像内のj番目の特徴点について、対応探索用のテンプレート(サイズMo×Mo)の方向符号Cj,iと、次の視点画像における方向符号Ci+1を用いて、画素毎に得られる残差絶対値d(Cj,i , Ci+1)の総和を画素数Moで割った平均残差絶対値Dが最小となる点を対応点とする。 The association processing unit 65 performs feature point tracking using the feature points of the image information 1a photographed between the first and second positions 2a and 2b, and image information photographed at the first and second positions 2a and 2b. The feature points 1a are associated with each other. Specifically, the association processing unit 65 associates feature points by directional code matching (OCM) using the above-described difference in directional code values. That is, for the j-th feature point in the i-th image, the direction code Cj, i of the template for correspondence search (size Mo × Mo) and the direction code Ci + 1 in the next viewpoint image are used for each pixel. The point at which the average residual absolute value D obtained by dividing the sum of the residual absolute values d (Cj, i, Ci + 1) obtained by the above is divided by the number of pixels Mo 2 is the corresponding point.

Figure 2009069866
Figure 2009069866

Figure 2009069866
Figure 2009069866

追跡安定性検証部66は、関連付け処理部65による特徴点追跡の安定性、すなわち特徴点の関連付けの安定性を示す安定性指標を求める。ここで、互いに対応する特徴点66a〜66cが、撮影位置により図3に示すように変位したとする。各撮影位置間での対応点間にはエピポーラ拘束が働くことはよく知られている。つまり、特徴点66a〜66cの抽出精度が高ければ特徴点66a〜66cはカメラ1の軌跡に応じたエピポーラ線66d上に並ぶことになる。従って、エピポーラ線66dからの外れ角度θ1,θ2を評価することで特徴点追跡の安定性を評価できる。また、例えば、ケーブル10の撮影位置間の距離D1,D2(図2参照)が等間隔となる場合には、画像面上における特徴点66a〜66c間の距離X1,X2(図3参照)も等間隔となる。すなわち、ケーブル10の撮影位置間の距離関係と特徴点66a〜66c間に想定される距離関係とには相関があるので、ケーブル10の撮影位置間の距離D1,D2と特徴点66a〜66c間の距離X1,X2と関係のずれを評価することで、特徴点追跡の安定性を評価できる。すなわち、追跡安定性検証部66は、エピポーラ線66dからの外れ角度θ1,θ2、及びケーブル10の撮影位置間の距離関係と特徴点66a〜66c間に想定される距離関係とのずれの少なくとも一方を用いて安定性指標を求め、所定値を基準とした判定基準により安定性指標を判定し、該当する特徴点該特徴点66a〜66cを無効とする。   The tracking stability verification unit 66 obtains a stability index indicating the stability of the feature point tracking by the association processing unit 65, that is, the stability of the association of the feature points. Here, it is assumed that the feature points 66a to 66c corresponding to each other are displaced as shown in FIG. It is well known that epipolar restraint works between corresponding points between each photographing position. That is, if the extraction accuracy of the feature points 66 a to 66 c is high, the feature points 66 a to 66 c are arranged on the epipolar line 66 d corresponding to the trajectory of the camera 1. Therefore, the stability of the feature point tracking can be evaluated by evaluating the deviation angles θ1 and θ2 from the epipolar line 66d. Further, for example, when the distances D1 and D2 (see FIG. 2) between the photographing positions of the cable 10 are equally spaced, the distances X1 and X2 (see FIG. 3) between the feature points 66a to 66c on the image plane are also used. Evenly spaced. That is, since there is a correlation between the distance relationship between the shooting positions of the cable 10 and the distance relationship assumed between the feature points 66a to 66c, the distances D1 and D2 between the shooting positions of the cable 10 and the feature points 66a to 66c. The stability of the feature point tracking can be evaluated by evaluating the deviation of the relationship between the distances X1 and X2. In other words, the tracking stability verification unit 66 has at least one of deviation angles θ1 and θ2 from the epipolar line 66d and the deviation between the distance relationship between the photographing positions of the cable 10 and the distance relationship assumed between the feature points 66a to 66c. Is used to determine the stability index, and the stability index is determined based on a criterion based on a predetermined value, and the corresponding feature points 66a to 66c are invalidated.

図1に戻り、3次元座標算出部67は、ステレオ計測原理に基づいて特徴点の3次元座標を求める。形状特性モデル記憶部68は、ケーブル10の形状特性モデル68aを予め記憶している。なお、形状特性モデル68aは外部から入力された情報であり、ケーブル10のおおよその3次元形状がひも状であることを示している。3次元形状復元部69は、3次元座標算出部67により算出された3次元座標からスプライン補間等によりケーブル10の3次元形状を復元する。ここで、前述したように追跡安定性検証部66等により特徴点の選定が行われるが、位置がずれている特徴点が残ることもある。位置がずれている特徴点を含んだ状態で3次元形状を復元すると、復元された3次元形状がいびつになる。3次元形状復元部69は、復元した3次元形状を形状特性モデル68aに基づいて修正することで、形状特性モデル68aと比べて過剰な変形が生じている部分をエラー部分として排除する。3次元形状復元部69は、修正した後の3次元形状を3次元形状データ69aとして外部に出力する。   Returning to FIG. 1, the three-dimensional coordinate calculation unit 67 obtains the three-dimensional coordinates of the feature points based on the stereo measurement principle. The shape characteristic model storage unit 68 stores a shape characteristic model 68a of the cable 10 in advance. The shape characteristic model 68a is information input from the outside, and indicates that the approximate three-dimensional shape of the cable 10 is a string. The three-dimensional shape restoration unit 69 restores the three-dimensional shape of the cable 10 from the three-dimensional coordinates calculated by the three-dimensional coordinate calculation unit 67 by spline interpolation or the like. Here, as described above, the feature point is selected by the tracking stability verification unit 66 or the like, but the feature point whose position is shifted may remain. When the three-dimensional shape is restored in a state that includes feature points whose positions are shifted, the restored three-dimensional shape becomes distorted. The three-dimensional shape restoration unit 69 corrects the restored three-dimensional shape based on the shape characteristic model 68a, and thereby eliminates a portion where excessive deformation occurs as compared with the shape characteristic model 68a as an error portion. The three-dimensional shape restoration unit 69 outputs the corrected three-dimensional shape to the outside as the three-dimensional shape data 69a.

次に、3次元形状検出装置の動作について説明する。図4は、図1の3次元形状検出装置による3次元形状検出動作を示すフローチャートである。図において、外部から処理手段6に周囲環境情報60bが入力されると、複数の軌跡候補60aが軌跡候補生成部60によって生成されるとともに(ステップS1)、回折格子41の回動位置がスリット光延在方向検出部61により検出され(ステップS2)、検出動作制御部62によりカメラ1の軌跡と回折格子41の回動位置が決定される(ステップS3)。   Next, the operation of the three-dimensional shape detection apparatus will be described. FIG. 4 is a flowchart showing a three-dimensional shape detection operation by the three-dimensional shape detection apparatus of FIG. In the figure, when ambient environment information 60b is input to the processing means 6 from the outside, a plurality of trajectory candidates 60a are generated by the trajectory candidate generation unit 60 (step S1), and the rotational position of the diffraction grating 41 is set to the slit light beam. The direction detection unit 61 detects the position (step S2), and the detection operation control unit 62 determines the locus of the camera 1 and the rotational position of the diffraction grating 41 (step S3).

その次に、検出動作制御部62から照射制御器5に照射制御指令62bが入力されて、回折格子41が所定角度に回動されるとともに、パターン光43の照射が開始される(ステップS4)。パターン光43の照射が開始されると、検出動作制御部62から駆動制御器3に駆動制御指令62aが入力されて、初期位置すなわち第1位置2aにカメラ1が移動される(ステップS5)。   Next, an irradiation control command 62b is input from the detection operation control unit 62 to the irradiation controller 5, the diffraction grating 41 is rotated by a predetermined angle, and irradiation of the pattern light 43 is started (step S4). . When the irradiation of the pattern light 43 is started, a drive control command 62a is input from the detection operation control unit 62 to the drive controller 3, and the camera 1 is moved to the initial position, that is, the first position 2a (step S5).

カメラ1が第1位置2aに移動されると、第1位置2aで撮影された画像情報1aが画像取得部63により取得され(ステップS6)、輝点10a、ケーブル10自身の特徴部分、及び補間点が特徴点として特徴点抽出部64により画像情報1aから抽出される(ステップS7)。特徴点が抽出されると、関連付け処理部65による特徴点関連付けが行われるとともに(ステップS8)、追跡安定性検証部66による追跡安定性評価とが行われる(ステップS9)。なお、カメラ1が第1位置2aに位置する時点では、画像情報1aは1つしかないので、特徴点関連付け及び追跡安定性評価は、実質的には行われない。   When the camera 1 is moved to the first position 2a, image information 1a photographed at the first position 2a is acquired by the image acquisition unit 63 (step S6), and the bright spot 10a, the characteristic portion of the cable 10 itself, and interpolation are performed. A point is extracted from the image information 1a by the feature point extraction unit 64 as a feature point (step S7). When feature points are extracted, feature point association is performed by the association processing unit 65 (step S8), and tracking stability evaluation is performed by the tracking stability verification unit 66 (step S9). Note that when the camera 1 is located at the first position 2a, there is only one image information 1a, so that the feature point association and the tracking stability evaluation are not substantially performed.

その次に、カメラ1によるケーブル10の撮影が全撮影位置で行われたか否かが検出動作制御部62により判定される(ステップS10)。このとき、撮影が行われていない位置が有ると判定されると、検出動作制御部62から駆動制御器3に駆動制御指令62aが改めて入力されて、カメラ1が次の撮影位置に移動される(ステップS11)。この後、全撮影位置での撮影が終了したと判定されるまで、画像情報1aの取得、特徴点の抽出、特徴点の関連付け、追跡安定性評価、撮影終了の判定、及びカメラ1の移動(ステップS6〜11)が繰り返し行われる。このとき、方向符号エントロピーExyを用いた特徴点の選定が特徴点抽出部64により行われることで、追跡に適した特徴点が優先的に選び出される。また、方向符号照合による特徴点の関連付けが関連付け処理部65により行われることで、精度よく特徴点の追跡が行われる。さらに、安定性指標に基づく追跡安定性評価が追跡安定性検証部66により行われることで、3次元座標算出に適した特徴点が選び出される。   Next, it is determined by the detection operation control unit 62 whether or not the cable 10 has been photographed by the camera 1 at all photographing positions (step S10). At this time, if it is determined that there is a position at which shooting is not performed, a drive control command 62a is input again from the detection operation control unit 62 to the drive controller 3, and the camera 1 is moved to the next shooting position. (Step S11). Thereafter, until it is determined that shooting at all shooting positions has been completed, acquisition of image information 1a, feature point extraction, feature point association, tracking stability evaluation, shooting end determination, and camera 1 movement ( Steps S6 to 11) are repeated. At this time, the feature point selection using the direction code entropy Exy is performed by the feature point extraction unit 64, so that a feature point suitable for tracking is preferentially selected. Further, the feature point is correlated by the direction code collation by the association processing unit 65, so that the feature point is accurately tracked. Furthermore, the tracking stability evaluation based on the stability index is performed by the tracking stability verification unit 66, so that a feature point suitable for three-dimensional coordinate calculation is selected.

その次に、全撮影位置での撮影が終了したと判定されると、パターン光43の照射が終了され(ステップS12)、ステレオ計測原理に基づく特徴点の3次元座標算出が3次元座標算出部67により行われるとともに(ステップS13)、算出された3次元座標に基づく3次元形状の復元処理が3次元形状復元部69により行われる(ステップS14)。3次元形状の復元処理が終了すると、形状特性モデル記憶部68が記憶しているケーブル10の形状特性モデル68aが3次元形状復元部69により取得され、この形状特性モデル68aに基づく3次元形状の修正処理が行われる(ステップS15)。   Next, when it is determined that the photographing at all photographing positions is completed, the irradiation of the pattern light 43 is finished (step S12), and the three-dimensional coordinate calculation of the feature point based on the stereo measurement principle is performed. 67 (step S13), a three-dimensional shape restoration process based on the calculated three-dimensional coordinates is performed by the three-dimensional shape restoration unit 69 (step S14). When the three-dimensional shape restoration processing is completed, the shape characteristic model 68a of the cable 10 stored in the shape characteristic model storage unit 68 is acquired by the three-dimensional shape restoration unit 69, and the three-dimensional shape based on the shape characteristic model 68a is acquired. Correction processing is performed (step S15).

このような3次元形状検出装置では、パターン光照射装置4がケーブル10に複数の輝点10aを付加し、処理手段6が複数の輝点10aを特徴点として画像情報1aから抽出するので、独自の特徴点が少ないケーブル10でもより確実に特徴点を抽出することができ、移動ステレオ手法を用いてより確実に3次元形状を検出できる。   In such a three-dimensional shape detection apparatus, the pattern light irradiation device 4 adds a plurality of bright spots 10a to the cable 10, and the processing means 6 extracts the plurality of bright spots 10a as feature points from the image information 1a. The feature points can be more reliably extracted even with the cable 10 having a small number of feature points, and the three-dimensional shape can be detected more reliably using the moving stereo method.

また、特徴点抽出部64は、抽出した複数の特徴点の中から方向符号エントロピーが高い前記特徴点を優先的に有効とし、前記方向符号エントロピーが低い特徴点を無効とするので、追跡に適した特徴点を優先的に選び出すことができ、3次元形状の検出精度を向上できる。   In addition, the feature point extraction unit 64 preferentially validates the feature point having a high direction code entropy from among the plurality of extracted feature points, and invalidates the feature point having the low direction code entropy. The selected feature points can be preferentially selected, and the detection accuracy of the three-dimensional shape can be improved.

さらに、関連付け処理部65は、方向符号照合により特徴点の関連付けを行うので、精度よく特徴点の追跡を行うことができ、3次元形状の検出精度を向上できる。   Furthermore, since the association processing unit 65 associates feature points by direction code collation, the feature points can be tracked with high accuracy, and the detection accuracy of the three-dimensional shape can be improved.

さらにまた、追跡安定性検証部66は、エピポーラ線66dからの外れ角度θ1,θ2、及びケーブル10の撮影位置間の距離関係と特徴点66a〜66c間に想定される距離関係とのずれの、少なくとも一方に基づいて安定性指標を求め、所定値を基準とした判定基準により安定性指標を判定し、該当する特徴点66a〜66cを無効とする。これにより、3次元座標算出に適した特徴点をより確実に選び出すことができ、3次元形状の検出精度を向上できる。   Furthermore, the tracking stability verification unit 66 includes deviation angles θ1 and θ2 from the epipolar line 66d and the deviation between the distance relationship between the photographing positions of the cable 10 and the distance relationship assumed between the feature points 66a to 66c. A stability index is obtained based on at least one, the stability index is determined based on a determination criterion based on a predetermined value, and the corresponding feature points 66a to 66c are invalidated. As a result, feature points suitable for three-dimensional coordinate calculation can be selected more reliably, and the detection accuracy of the three-dimensional shape can be improved.

また、3次元形状復元部69は、復元された3次元形状を形状特性モデル68aに基づいて修正するので、位置ずれが生じている特徴点が3次元形状復元時に残っていても該特徴点による3次元形の変形を排除でき、3次元形状の検出精度を向上できる。   In addition, since the three-dimensional shape restoration unit 69 corrects the restored three-dimensional shape based on the shape characteristic model 68a, even if a feature point having a misalignment remains at the time of three-dimensional shape restoration, the feature point The deformation of the three-dimensional shape can be eliminated, and the detection accuracy of the three-dimensional shape can be improved.

さらに、検出動作制御部62は、スリット光42の延在方向と軌跡候補60aの延在方向との交差角を求め、該交差角が直角に近づくように、前記軌跡候補60aと前記回折格子41の回動位置との組み合わせを決定する。これにより、輝点10aの抽出精度を高めることができ、3次元形状の検出精度を向上できる。   Further, the detection operation control unit 62 obtains an intersection angle between the extension direction of the slit light 42 and the extension direction of the locus candidate 60a, and the locus candidate 60a and the diffraction grating 41 so that the intersection angle approaches a right angle. The combination with the rotation position is determined. Thereby, the extraction accuracy of the bright spot 10a can be increased, and the detection accuracy of the three-dimensional shape can be improved.

なお、実施の形態1では、検出対象に照射するパターン光43は、互いに平行な直線状の複数のスリット光42からなる縞状の形状を有するように説明したが、例えば複数の同心円や網目等、パターン光の形状は2次元上に広がる任意の形状でよい。   In the first embodiment, the pattern light 43 applied to the detection target has been described as having a striped shape composed of a plurality of linear slit lights 42 parallel to each other. However, for example, a plurality of concentric circles, meshes, etc. The shape of the pattern light may be any shape spreading in two dimensions.

実施の形態2.
図5は、この発明の実施の形態2による3次元形状検出装置を示すブロック図である。図6は、図5のレーザ光発生器200及び照射制御器210により生成されるパターン光43を示す説明図である。実施の形態1では、照射手段は、パターン光照射装置4(レーザ光発生器40及び回折格子41)と照射制御器5とから構成されると説明したが(図2参照)、この実施の形態2の照射手段は、レーザ光発生器200及び照射制御器210により構成されている。なお、この実施の形態では、光源はレーザ光発生器200により構成され、パターン光生成部は照射制御器210により構成されている。
Embodiment 2. FIG.
FIG. 5 is a block diagram showing a three-dimensional shape detection apparatus according to Embodiment 2 of the present invention. FIG. 6 is an explanatory diagram showing the pattern light 43 generated by the laser light generator 200 and the irradiation controller 210 of FIG. In the first embodiment, it has been described that the irradiation means includes the pattern light irradiation device 4 (laser light generator 40 and diffraction grating 41) and the irradiation controller 5 (see FIG. 2). The second irradiation means includes a laser light generator 200 and an irradiation controller 210. In this embodiment, the light source is configured by the laser light generator 200, and the pattern light generation unit is configured by the irradiation controller 210.

レーザ光発生器200は、図6に示すように直線状に延びるスリット光42を発生する。照射制御器210は、スリット光42の延在方向42aと直交する方向42bにスリット光42を走査させる。また、照射制御器210は、スリット光42を走査させる際にスリット光42をON,OFFさせる。なお、図6においてスリット光42の一端に示された丸はスリット光42のON,OFFを示している。すなわち、この実施の形態2では、ON,OFFされながらスリット光42が走査されることでパターン光43が生成されるように構成されている。換言すると、スリット光42のON,OFFを制御することで、スリット光42の間隔42cを任意に制御できるように構成されている。   The laser light generator 200 generates slit light 42 extending linearly as shown in FIG. The irradiation controller 210 scans the slit light 42 in a direction 42 b orthogonal to the extending direction 42 a of the slit light 42. The irradiation controller 210 turns the slit light 42 on and off when scanning the slit light 42. In FIG. 6, a circle shown at one end of the slit light 42 indicates ON / OFF of the slit light 42. That is, the second embodiment is configured such that the pattern light 43 is generated by scanning the slit light 42 while being turned on and off. In other words, the interval 42c of the slit light 42 can be arbitrarily controlled by controlling ON / OFF of the slit light 42.

ここで、スリット光42の間隔42cを狭めるほど輝点10a(図2参照)の数を多くでき、3次元形状の検出精度を高めることができる。しかしながら、カメラ1により生成される画像情報1aの解像度には限界がある。従って、カメラ1とケーブル10とが大きく離れていると、画像情報1a上でスリット光42の間隔42cがつぶれてしまい、輝点10aを抽出できなくなる可能性がある。   Here, the number of bright spots 10a (see FIG. 2) can be increased as the interval 42c of the slit light 42 is reduced, and the detection accuracy of the three-dimensional shape can be increased. However, the resolution of the image information 1a generated by the camera 1 is limited. Therefore, if the camera 1 and the cable 10 are far apart, the interval 42c of the slit light 42 may be crushed on the image information 1a, and the bright spot 10a may not be extracted.

この実施の形態2の処理手段220には、カメラ1とケーブル10との間の離間距離を示す外部からの距離情報221が入力される。検出動作制御部222は、入力された距離情報221に基づいて前記照射制御器210に照射制御指令222bを入力し、スリット光42の間隔42cを制御する。具体的には、カメラ1とケーブル10との間の離間距離が大きければスリット光42の間隔42cを広げ、離間距離が小さければスリット光42の間隔42cを狭める。なお、スリット光61は、レーザ光発生器200の回動位置を検出することで、スリット光42の延在方向42aを検出する。また、検出動作制御部320は、照射制御器210に照射制御指令62bを入力することで、スリット光42の延在方向42aと軌跡候補60aの延在方向とが直交に近づくようにレーザ光発生器200を回動させる。その他の構成は、実施の形態1と同様である。   The distance information 221 from the outside indicating the separation distance between the camera 1 and the cable 10 is input to the processing means 220 of the second embodiment. The detection operation control unit 222 inputs an irradiation control command 222b to the irradiation controller 210 based on the input distance information 221, and controls the interval 42c of the slit light 42. Specifically, if the distance between the camera 1 and the cable 10 is large, the interval 42c of the slit light 42 is widened, and if the distance is small, the interval 42c of the slit light 42 is narrowed. The slit light 61 detects the extending direction 42 a of the slit light 42 by detecting the rotational position of the laser light generator 200. In addition, the detection operation control unit 320 generates a laser beam so that the extension direction 42a of the slit light 42 and the extension direction of the locus candidate 60a are close to orthogonal by inputting the irradiation control command 62b to the irradiation controller 210. The container 200 is rotated. Other configurations are the same as those in the first embodiment.

このような3次元形状検出装置によれば、検出動作制御部222は、距離情報221に基づいてスリット光42の間隔42cを制御するので、スリット光42の間隔42cを最適に設定することができ、3次元形状の検出精度をさらに向上できる。   According to such a three-dimensional shape detection apparatus, the detection operation control unit 222 controls the interval 42c of the slit light 42 based on the distance information 221, so that the interval 42c of the slit light 42 can be set optimally. The detection accuracy of the three-dimensional shape can be further improved.

実施の形態3.
図7は、この発明の実施の形態3による3次元形状検出装置を示すブロック図である。スリット光42の間隔42c(図6参照)が等間隔の場合、ケーブル10に輝点10a(図2参照)が等間隔に付加されるので、異なる位置で撮影された画像情報1a間の特徴点の関連付け精度が低くなる場合がある。すなわち、輝点10aの間隔や輝点10aの大きさに変化をつけることでパターン光42の中に局所パターンを形成する。この局所パターンを利用することで、画像情報1a間の特徴点の関連付け精度を向上できる。処理手段300の関連付け処理部310は、特徴点の関連付けを行った後に、関連付けの結果を示す対応結果情報310aを検出動作制御部320に入力する。具体的には、対応結果情報310aは、有効とした特徴点の分布状況を示している。
Embodiment 3 FIG.
FIG. 7 is a block diagram showing a three-dimensional shape detection apparatus according to Embodiment 3 of the present invention. When the intervals 42c (see FIG. 6) of the slit light 42 are equal, the bright spots 10a (see FIG. 2) are added to the cable 10 at equal intervals, so that the feature points between the image information 1a taken at different positions In some cases, the accuracy of association is reduced. That is, a local pattern is formed in the pattern light 42 by changing the interval between the bright spots 10a and the size of the bright spots 10a. By using this local pattern, the accuracy of associating feature points between the image information 1a can be improved. After associating feature points, the association processing unit 310 of the processing unit 300 inputs correspondence result information 310 a indicating the association result to the detection operation control unit 320. Specifically, the correspondence result information 310a indicates the distribution state of the effective feature points.

検出動作制御部320は、対応結果情報310aに基づいて照射制御器210に照射制御指令320bを入力することで、スリット光42の間隔42c及び幅の少なくとも一方を制御する。つまり、特徴点の関連付け精度が低い領域に、前述の局所パターンを形成する。なお、図6ではスリット光42をON,OFFする間隔42dを離して示しているが、この間隔42dを隣接させることで、スリット光42の幅を制御できる。その他の構成は実施の形態2と同様である。   The detection operation control unit 320 controls at least one of the interval 42c and the width of the slit light 42 by inputting an irradiation control command 320b to the irradiation controller 210 based on the correspondence result information 310a. That is, the above-mentioned local pattern is formed in a region where the feature point association accuracy is low. In FIG. 6, the interval 42d for turning the slit light 42 ON and OFF is shown apart, but the width of the slit light 42 can be controlled by making this interval 42d adjacent. Other configurations are the same as those of the second embodiment.

このような3次元形状検出装置では、検出動作制御部320は、対応結果情報310aに基づいて、スリット光42の間隔42c及び幅の少なくとも一方を制御するので、特徴点の関連付け精度が低い領域において局所パターンを形成でき、3次元形状の検出精度をさらに向上できる。   In such a three-dimensional shape detection apparatus, the detection operation control unit 320 controls at least one of the interval 42c and the width of the slit light 42 based on the correspondence result information 310a, so that the feature point association accuracy is low. A local pattern can be formed, and the detection accuracy of the three-dimensional shape can be further improved.

この発明の実施の形態1による3次元形状検出装置を示すブロック図である。It is a block diagram which shows the three-dimensional shape detection apparatus by Embodiment 1 of this invention. 図1のカメラとパターン光照射装置とを示す斜視図である。It is a perspective view which shows the camera and pattern light irradiation apparatus of FIG. 図1の特徴点抽出部により抽出された特徴点の変位を示す説明図である。It is explanatory drawing which shows the displacement of the feature point extracted by the feature point extraction part of FIG. 図1の3次元形状検出装置による3次元形状検出動作を示すフローチャートである。It is a flowchart which shows the three-dimensional shape detection operation by the three-dimensional shape detection apparatus of FIG. この発明の実施の形態2による3次元形状検出装置を示すブロック図である。It is a block diagram which shows the three-dimensional shape detection apparatus by Embodiment 2 of this invention. 図5のレーザ光発生器及び照射制御器により生成されるパターン光を示す説明図である。It is explanatory drawing which shows the pattern light produced | generated by the laser beam generator and irradiation controller of FIG. この発明の実施の形態3による3次元形状検出装置を示すブロック図である。It is a block diagram which shows the three-dimensional shape detection apparatus by Embodiment 3 of this invention.

符号の説明Explanation of symbols

1 カメラ(撮影手段)、1a 画像情報、2a 第1位置、2b 第2位置、3 駆動制御器、4 パターン光照射装置(照射手段)、5,210 照射制御器(パターン光生成部)、6,220,300 処理手段、10 ケーブル(検出対象)、10a 輝点、40,200 レーザ光発生器(光源)、41 回折格子(パターン光生成部)、42 スリット光、43 パターン光、60 軌跡候補生成部、60a 軌跡候補、61 スリット光延在方向検出部、62,222,320 検出動作制御部、64 特徴点抽出部、65,310 関連付け処理部、66 追跡安定性検証部、67 3次元座標算出部、68 形状特性モデル記憶部、68a 形状特性モデル、69 3次元形状復元部。   DESCRIPTION OF SYMBOLS 1 Camera (imaging means), 1a Image information, 2a 1st position, 2b 2nd position, 3 Drive controller, 4 Pattern light irradiation apparatus (irradiation means), 5,210 Irradiation controller (pattern light generation part), 6 , 220, 300 Processing means, 10 cable (detection target), 10a bright spot, 40, 200 laser light generator (light source), 41 diffraction grating (pattern light generation unit), 42 slit light, 43 pattern light, 60 locus candidate Generation unit, 60a Trajectory candidate, 61 Slit light extension direction detection unit, 62, 222, 320 Detection operation control unit, 64 Feature point extraction unit, 65, 310 Association processing unit, 66 Tracking stability verification unit, 67 Three-dimensional coordinate calculation Unit, 68 shape characteristic model storage unit, 68a shape characteristic model, 69 three-dimensional shape restoration unit.

Claims (8)

第1位置から第2位置まで変位されるとともに、前記第1及び第2位置を含む複数の位置から検出対象を撮影する撮影手段と、
前記検出対象に所定形状のパターン光を照射して前記検出対象に複数の輝点を付加する照射手段と、
前記撮影手段から複数の画像情報を取得するとともに、該画像情報から前記複数の輝点を特徴点として抽出し、前記第1及び第2位置間で撮影された前記画像情報の前記特徴点を用いて前記第1及び第2位置で撮影された前記画像情報の特徴点を互いに関連付け、この関連付けられた前記特徴点に基づいて前記検出対象の3次元形状を検出する処理手段と
を備えていることを特徴とする3次元形状検出装置。
An imaging unit that is displaced from the first position to the second position and that images the detection target from a plurality of positions including the first and second positions;
Irradiating means for irradiating a pattern light of a predetermined shape to the detection target to add a plurality of bright spots to the detection target;
A plurality of image information is acquired from the photographing means, the plurality of bright spots are extracted as feature points from the image information, and the feature points of the image information photographed between the first and second positions are used. Processing means for associating feature points of the image information photographed at the first and second positions with each other and detecting a three-dimensional shape of the detection target based on the associated feature points. A three-dimensional shape detection apparatus characterized by the above.
前記処理手段は、
前記画像情報から前記特徴点を抽出するとともに、抽出した複数の前記特徴点の中から方向符号エントロピーが高い前記特徴点を優先的に有効とする特徴点抽出部
を含むことを特徴とする請求項1記載の3次元形状検出装置。
The processing means includes
The feature point extracting unit that extracts the feature point from the image information and preferentially validates the feature point having a high direction code entropy among the plurality of extracted feature points. The three-dimensional shape detection apparatus according to 1.
前記処理手段は、
方向符号照合により前記特徴点の前記関連付けを行う関連付け処理部
を含むことを特徴とする請求項1又は請求項2に記載の3次元形状検出装置。
The processing means includes
The three-dimensional shape detection apparatus according to claim 1, further comprising an association processing unit that performs the association of the feature points by direction code matching.
前記処理手段は、
前記特徴点のエピポーラ線からの外れ角度、及び前記検出対象の撮影位置間の距離関係と対応する特徴点間に想定される距離関係とのずれの、少なくとも一方を用いて、前記特徴点の関連付けの安定性を示す安定性指標を求め、所定値を基準とした判定基準により前記安定性指標を判定し、該当する特徴点を無効とする追跡安定性検証部
を含むことを特徴とする請求項1から請求項3までのいずれか1項に記載の3次元形状検出装置。
The processing means includes
Associating the feature points using at least one of a deviation angle from the epipolar line of the feature points and a deviation between a distance relationship between the imaging positions of the detection target and a corresponding distance relationship between the corresponding feature points A tracking stability verification unit that obtains a stability index indicating the stability of the image, determines the stability index based on a determination criterion based on a predetermined value, and invalidates the corresponding feature point. The three-dimensional shape detection apparatus according to any one of claims 1 to 3.
前記処理手段は、
ステレオ計測原理に基づいて前記特徴点の3次元座標を求める3次元座標算出部と、
前記検出対象の形状特性モデルを予め記憶する形状特性モデル記憶部と、
前記3次元座標に基づいて前記検出対象の3次元形状を復元するとともに、該3次元形状を前記形状特性モデルに基づいて修正する3次元形状復元部と
を含むことを特徴とする請求項1から請求項4までのいずれか1項に記載の3次元形状検出装置。
The processing means includes
A three-dimensional coordinate calculation unit for obtaining three-dimensional coordinates of the feature points based on a stereo measurement principle;
A shape characteristic model storage unit that stores in advance the shape characteristic model of the detection target;
A three-dimensional shape restoring unit that restores the three-dimensional shape of the detection target based on the three-dimensional coordinates and corrects the three-dimensional shape based on the shape characteristic model. The three-dimensional shape detection apparatus according to claim 1.
前記照射手段は、
検出光を発生する光源と、
前記検出光を複数のスリット光からなる前記パターン光として前記検出対象に照射するパターン光生成部と
を含み、
前記処理手段は、
前記撮影手段を変位させる複数の軌跡候補を生成する軌跡候補生成部と、
前記スリット光の延在方向を検出するスリット光延在方向検出部と、
前記軌跡候補の延在方向と前記スリット光の延在方向との交差角を求め、該交差角が直角に近づくように、前記軌跡候補の延在方向と前記スリット光の延在方向との組み合わせを決定する検出動作制御部と
を含むことを特徴とする請求項1から請求項5までのいずれか1項に記載の3次元形状検出装置。
The irradiation means includes
A light source that generates detection light;
A pattern light generation unit that irradiates the detection target as the pattern light composed of a plurality of slit lights with the detection light,
The processing means includes
A trajectory candidate generator for generating a plurality of trajectory candidates for displacing the photographing means;
A slit light extending direction detector for detecting the extending direction of the slit light;
The intersection angle between the extension direction of the locus candidate and the extension direction of the slit light is obtained, and the combination of the extension direction of the locus candidate and the extension direction of the slit light so that the intersection angle approaches a right angle. The three-dimensional shape detection apparatus according to claim 1, further comprising: a detection operation control unit that determines
前記照射手段は、
検出光を発生する光源と、
前記検出光を複数のスリット光からなる前記パターン光として前記検出対象に照射するパターン光生成部と
を含み、
前記処理手段は、
前記撮影手段と前記検出対象との間の離間距離を示す外部からの距離情報に基づいて前記パターン光生成部に照射制御指令を入力し、前記スリット光の間隔を制御する検出動作制御部
を含むことを特徴とする請求項1から請求項6までのいずれか1項に記載の3次元形状検出装置。
The irradiation means includes
A light source that generates detection light;
A pattern light generation unit that irradiates the detection target as the pattern light composed of a plurality of slit lights with the detection light,
The processing means includes
A detection operation control unit configured to input an irradiation control command to the pattern light generation unit based on distance information from the outside indicating a separation distance between the imaging unit and the detection target, and to control an interval of the slit light. The three-dimensional shape detection apparatus according to any one of claims 1 to 6, wherein
前記照射手段は、
検出光を発生する光源と、
前記検出光を複数のスリット光からなる前記パターン光として前記検出対象に照射するパターン光生成部と
を含み、
前記処理手段は、
前記特徴点の関連付けの結果に基づいて前記パターン光生成部に照射制御指令を入力し、前記スリット光の間隔及び幅の少なくとも一方を制御する検出動作制御部
を含むことを特徴とする請求項1から請求項7までのいずれか1項に記載の3次元形状検出装置。
The irradiation means includes
A light source that generates detection light;
A pattern light generation unit that irradiates the detection target as the pattern light composed of a plurality of slit lights with the detection light,
The processing means includes
2. A detection operation control unit configured to input an irradiation control command to the pattern light generation unit based on a result of the association of the feature points, and to control at least one of an interval and a width of the slit light. The three-dimensional shape detection apparatus according to any one of claims 1 to 7.
JP2007234115A 2007-09-10 2007-09-10 3D shape detector Active JP4836086B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007234115A JP4836086B2 (en) 2007-09-10 2007-09-10 3D shape detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007234115A JP4836086B2 (en) 2007-09-10 2007-09-10 3D shape detector

Publications (2)

Publication Number Publication Date
JP2009069866A true JP2009069866A (en) 2009-04-02
JP4836086B2 JP4836086B2 (en) 2011-12-14

Family

ID=40606092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007234115A Active JP4836086B2 (en) 2007-09-10 2007-09-10 3D shape detector

Country Status (1)

Country Link
JP (1) JP4836086B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013513179A (en) * 2009-12-08 2013-04-18 キネテイツク・リミテツド Detection based on distance
JP2016031284A (en) * 2014-07-29 2016-03-07 セイコーエプソン株式会社 Control system, robot system, and control method
JP2016090401A (en) * 2014-11-05 2016-05-23 古河電気工業株式会社 Appearance inspection device, appearance inspection system and appearance inspection method
WO2016158282A1 (en) * 2015-03-31 2016-10-06 株式会社オートネットワーク技術研究所 Image acquisition system for wire group processing
WO2016158628A1 (en) * 2015-03-31 2016-10-06 株式会社オートネットワーク技術研究所 Method for manufacturing wire harness and image processing method
WO2017038401A1 (en) * 2015-08-28 2017-03-09 株式会社オートネットワーク技術研究所 Wire harness production device, wire harness production method and in-process wire position specification method
JP2018109904A (en) * 2017-01-05 2018-07-12 キヤノン株式会社 Control device, system, and method for controlling control device
US10068350B2 (en) 2015-12-15 2018-09-04 Canon Kabushiki Kaisha Measurement apparatus, system, measurement method, determination method, and non-transitory computer-readable storage medium
JP6620917B1 (en) * 2019-03-29 2019-12-18 株式会社オートネットワーク技術研究所 Wiring member
JP2020167142A (en) * 2019-11-22 2020-10-08 株式会社オートネットワーク技術研究所 Wiring member, and assembly method of wiring member

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002031513A (en) * 2000-07-14 2002-01-31 Minolta Co Ltd Three-dimensional measuring device
JP2002257528A (en) * 2001-03-02 2002-09-11 Ricoh Co Ltd Three-dimensional shape measuring device by phase shift method
JP2006133884A (en) * 2004-11-02 2006-05-25 Sharp Manufacturing System Corp Image processing method characterized by verification method, image processing apparatus, image processing program, and recording medium with the program recorded thereon
WO2006090735A1 (en) * 2005-02-23 2006-08-31 Aisin Seiki Kabushiki Kaisha Object recognizing apparatus and object recognizing method using epipolar geometry

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002031513A (en) * 2000-07-14 2002-01-31 Minolta Co Ltd Three-dimensional measuring device
JP2002257528A (en) * 2001-03-02 2002-09-11 Ricoh Co Ltd Three-dimensional shape measuring device by phase shift method
JP2006133884A (en) * 2004-11-02 2006-05-25 Sharp Manufacturing System Corp Image processing method characterized by verification method, image processing apparatus, image processing program, and recording medium with the program recorded thereon
WO2006090735A1 (en) * 2005-02-23 2006-08-31 Aisin Seiki Kabushiki Kaisha Object recognizing apparatus and object recognizing method using epipolar geometry

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013513179A (en) * 2009-12-08 2013-04-18 キネテイツク・リミテツド Detection based on distance
JP2016031284A (en) * 2014-07-29 2016-03-07 セイコーエプソン株式会社 Control system, robot system, and control method
JP2016090401A (en) * 2014-11-05 2016-05-23 古河電気工業株式会社 Appearance inspection device, appearance inspection system and appearance inspection method
CN107408429A (en) * 2015-03-31 2017-11-28 株式会社自动网络技术研究所 The image of electric wire group processing obtains system
JP2016192138A (en) * 2015-03-31 2016-11-10 株式会社オートネットワーク技術研究所 Manufacturing method of wire harness and image processing method
JP2016192135A (en) * 2015-03-31 2016-11-10 株式会社オートネットワーク技術研究所 Image acquisition system for processing electric wire group
WO2016158282A1 (en) * 2015-03-31 2016-10-06 株式会社オートネットワーク技術研究所 Image acquisition system for wire group processing
CN107429986A (en) * 2015-03-31 2017-12-01 株式会社自动网络技术研究所 The manufacture method and image processing method of wire harness
WO2016158628A1 (en) * 2015-03-31 2016-10-06 株式会社オートネットワーク技術研究所 Method for manufacturing wire harness and image processing method
WO2017038401A1 (en) * 2015-08-28 2017-03-09 株式会社オートネットワーク技術研究所 Wire harness production device, wire harness production method and in-process wire position specification method
US10068350B2 (en) 2015-12-15 2018-09-04 Canon Kabushiki Kaisha Measurement apparatus, system, measurement method, determination method, and non-transitory computer-readable storage medium
JP2018109904A (en) * 2017-01-05 2018-07-12 キヤノン株式会社 Control device, system, and method for controlling control device
JP6620917B1 (en) * 2019-03-29 2019-12-18 株式会社オートネットワーク技術研究所 Wiring member
WO2020202291A1 (en) * 2019-03-29 2020-10-08 株式会社オートネットワーク技術研究所 Wiring member
CN113632181A (en) * 2019-03-29 2021-11-09 株式会社自动网络技术研究所 Wiring member
CN113632181B (en) * 2019-03-29 2024-03-19 株式会社自动网络技术研究所 Wiring member
JP2020167142A (en) * 2019-11-22 2020-10-08 株式会社オートネットワーク技術研究所 Wiring member, and assembly method of wiring member

Also Published As

Publication number Publication date
JP4836086B2 (en) 2011-12-14

Similar Documents

Publication Publication Date Title
JP4836086B2 (en) 3D shape detector
Kassir et al. Reliable automatic camera-laser calibration
JP5870273B2 (en) Object detection apparatus, object detection method, and program
JP5404263B2 (en) Parallax calculation method and parallax calculation device
US20160335525A1 (en) Marker generating and marker detecting system, method and program
JP6836561B2 (en) Image processing device and image processing method
JP2004117078A (en) Obstacle detection device and method
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
JP5156601B2 (en) Shape measuring apparatus and program
JP5342413B2 (en) Image processing method
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
JP6621351B2 (en) Image processing apparatus and image processing method for laser processing
JP2011237296A (en) Three dimensional shape measuring method, three dimensional shape measuring device, and program
JP6863946B2 (en) Image processing device
WO2020209046A1 (en) Object detection device
JP3800842B2 (en) Method and apparatus for measuring three-dimensional shape, and storage medium storing three-dimensional shape measuring program
JP6846003B2 (en) Modeled object inspection device, modeled object inspection control device and modeled object inspection method
JP2015155911A (en) Dimension measurement method
JP7298687B2 (en) Object recognition device and object recognition method
CN112775961A (en) Control device, control method for control device, and control system
JP4351090B2 (en) Image processing apparatus and image processing method
JP4274038B2 (en) Image processing apparatus and image processing method
JP4975688B2 (en) Image processing device
KR101934557B1 (en) Eccentric tracking target for 3d scanning and 3d scanning method using eccentric tracking target
CN111199533B (en) Image processing apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110725

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110920

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4836086

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250