JP2006004122A - Image processor, robotics device, and vehicle guidance device - Google Patents
Image processor, robotics device, and vehicle guidance device Download PDFInfo
- Publication number
- JP2006004122A JP2006004122A JP2004179068A JP2004179068A JP2006004122A JP 2006004122 A JP2006004122 A JP 2006004122A JP 2004179068 A JP2004179068 A JP 2004179068A JP 2004179068 A JP2004179068 A JP 2004179068A JP 2006004122 A JP2006004122 A JP 2006004122A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- processing apparatus
- data
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、画像から物体あるいは周囲の障害物の三次元的な形状を復元する画像処理装置及びそれを搭載したロボット装置ならびに車両誘導装置に関する。 The present invention relates to an image processing apparatus that restores a three-dimensional shape of an object or a surrounding obstacle from an image, a robot apparatus equipped with the image processing apparatus, and a vehicle guidance apparatus.
従来の撮像画像を画像処理する装置の例が、特許文献1及び特許文献2に記載されている。特許文献1に記載の撮像画像処理装置は、対象物体を撮像して2次元輝度画像データを得、この2次元輝度画像データから3次元形状を復元している。その際、2次元輝度画像データについてエッジを検出し、エッジから対象物体の表面の滑らかさを示すパラメータを算出している。そしてパラメータを用いて3次元形状を正確に復元する陰影情報としての反射地図パラメータを決定し、このパラメータを用いて対象物体の3次元形状を復元している。
Examples of conventional apparatuses for image processing of captured images are described in
一方特許文献2には、画像処理装置において、撮像手段が撮像した所定視点位置からの被写体画像を第1の記憶手段に記憶し、撮像された画像に最も近い視点位置からの対象物画像を標準3次元形状モデルに基づいて生成し、第2の記憶手段に記憶することが記載されている。そして、これら第1、第2の記憶手段に記憶された画像の差から差異を抽出し、この差に基づいて標準3次元形状モデルを修正することが記載されている。
On the other hand, in
上記特許文献1、2に記載の従来の画像処理装置においては、物体がカメラから遠方にあると視野角が非常に小さくなるため、物体の形状を精度よく復元することができない。また、屋外や明るい照明の下にある物体では、明るい反射光によりハレーションを起こしやすく、輝度値の識別が困難である。さらに、遠方にある物体や暗い場所の輝度は一般に低いから、低レベルな輝度の違いを区別するのは難しく、遠方や暗い場所の物体形状を復元しにくい。
In the conventional image processing apparatuses described in
本発明は上記従来技術の不具合に鑑みなされたものであり、その目的は、遠方から至近距離まで広い範囲にある対象物に対して、屋外や強い照明下においても安定して形状復元を可能にすることである。本発明はまた、形状復元に要する時間を低減することも目的とする。 The present invention has been made in view of the above-described problems of the prior art, and the object thereof is to enable stable shape restoration of an object in a wide range from a distant place to a close distance, even outdoors or under strong illumination. It is to be. Another object of the present invention is to reduce the time required for shape restoration.
上記目的は、画像入力手段と、前記画像入力手段より入力した画像上の特徴的な部分の位置関係の変化を抽出する第1の計算手段と、前記位置関係の変化から特徴的な部分の三次元位置を計算する第2の計算手段と、前記特徴的な部分の三次元位置を用いて画像に捉えられている物体の三次元形状データを計算する第3の計算手段を備えた画像処理装置により達成される。 The object is to provide an image input means, a first calculation means for extracting a change in the positional relation of the characteristic part on the image input from the image input means, and a tertiary of the characteristic part from the change in the positional relation. An image processing apparatus comprising: second calculation means for calculating an original position; and third calculation means for calculating three-dimensional shape data of an object captured in an image using a three-dimensional position of the characteristic portion Is achieved.
また、上記目的は、画像入力手段が時系列的に入力した複数の画像をセットとして、その先頭の画像に関して特徴部分を抽出する特徴部分抽出回路と、前記画像のセットの2番目の画像については、1番目の画像の特徴部分の位置を中心とした近傍を探索して対応する部分の位置を求め、前記画像のセットの3番目以後の画像については、その一つ前の画像について求めた部分の位置を中心とした近傍を探索して対応する部分の位置を求める特徴部分追跡回路と、前記画像のセットにおける特徴部分の位置が求まった段階で、特徴部分の三次元位置を計算する座標計算回路と、前記座標計算回路が特徴部分の三次元位置を求めた段階でこれらの特徴部分と記憶手段に記憶されている形状データの部分の対応関係を求め、前記新たに座標計算した特徴部分の三次元座標を変換するデータ統合回路とを備え、これら画像入力手段、特徴部分抽出回路、特徴部分追跡回路、座標計算回路、データ統合回路がパイプライン的に並列に動作するものである画像処理装置により達成される。 Further, the above object is to provide a feature part extraction circuit for extracting a feature part from the first image as a set of a plurality of images input in time series by the image input means, and a second image in the set of images. Find the position of the corresponding part by searching for the neighborhood centering on the position of the characteristic part of the first image, and for the third and subsequent images in the set of images, the part obtained for the previous image A feature part tracking circuit that searches for a neighborhood centered on the position of the image to obtain the position of the corresponding part, and a coordinate calculation that calculates the three-dimensional position of the feature part when the position of the feature part in the set of images is obtained When the circuit and the coordinate calculation circuit obtain the three-dimensional position of the feature portion, the correspondence relationship between the feature portion and the shape data portion stored in the storage means is obtained, and the new coordinate calculation is performed. And a data integration circuit for converting the three-dimensional coordinates of the feature portion, and these image input means, feature portion extraction circuit, feature portion tracking circuit, coordinate calculation circuit, and data integration circuit operate in parallel in a pipeline manner. This is achieved by an image processing apparatus.
本発明による画像処理装置によれば、対象を様々な方向から眺めた画像を得るだけで対象物の3次元形状を復元することができるので、空撮画像のような遠方の対象物に対しても、至近距離にある対象物に対しても3次元形状を復元することが可能である。また、特別な参照光を用いないので、屋外や強い照明下においても安定して形状復元が可能である。また、全ての処理を自動で行うことが可能であるので手間がかからない。また、LSIのようなチップとして構成することも可能であるので、安価でコンパクトな装置とすることができる。 According to the image processing apparatus of the present invention, it is possible to restore the three-dimensional shape of an object simply by obtaining images obtained by viewing the object from various directions. However, it is possible to restore the three-dimensional shape even for an object at a close distance. In addition, since no special reference light is used, the shape can be stably restored even outdoors or under strong illumination. Moreover, since all the processes can be performed automatically, it does not take time. Further, since it can be configured as a chip such as an LSI, an inexpensive and compact device can be obtained.
以下、本発明の実施の形態を図面によって説明する。図1は、本発明による画像処理装置の一実施例である。1は本発明による画像処理装置、2は対象物体の画像を取り込むカメラ、3は画像処理装置が復元した対象物体の形状を利用する処理装置である。処理装置3は、具体的には例えば画像処理装置1が組込まれた機械装置の制御装置などであり、画像処理装置が復元した物体の形状データを元に機械装置の動きを制御するものである。また、1aは画像処理装置1内に設けられた画像入力手段、1bは時系列的に入力される画像上の特徴点の位置関係の変化を抽出する第1の計算手段、1cは特徴点の位置関係の変化から各点の三次元位置と各入力画像を捉えた際の視点の位置と方向(カメラ位置姿勢)を計算する第2の計算手段、1dは入力画像と特徴点の三次元位置とから画像に捉えられている物体の三次元形状データを計算する第3の計算手段、1eは復元した物体の三次元形状データに関する情報を制御装置3とやり取りする入出力手段、1fは第3の計算手段が計算した物体の三次元形状データと入出力手段から入力された三次元形状データを比較することにより、同一の形状の物体の位置・姿勢を求める第4の計算手段である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an embodiment of an image processing apparatus according to the present invention.
図2は、図1の各構成要素を更に詳しく示す図である。図2においては、特徴点・エッジ抽出手段12と特徴点追跡手段13が第1の計算手段1bを構成し、物体認識手段23と空間探索手段24が第4の計算手段を構成する。また、座標計算手段16が第2の計算手段1cに、線/面抽出・登録手段19が第3の計算手段1dに対応する。また、11、14、15、17はデータを一時的に記憶しておく記憶手段であり、それぞれ画像入力手段が入力した画像データ、特徴点追跡手段が生成した観測マトリックス、特徴点・エッジ抽出手段が生成した特徴点・エッジマップ、座標計算手段が計算した特徴点の3次元座標データを記憶する。
FIG. 2 is a diagram showing in more detail each component of FIG. In FIG. 2, the feature point / edge extracting means 12 and the feature point tracking means 13 constitute the first calculation means 1b, and the object recognition means 23 and the space search means 24 constitute the fourth calculation means. The coordinate calculation means 16 corresponds to the second calculation means 1c, and the line / surface extraction / registration means 19 corresponds to the third calculation means 1d.
20はCADデータの記憶手段であり、線/面抽出・登録手段が形状データを生成するたびにCADデータ記憶手段に記憶されている形状データ(以後CADデータと呼ぶ)と統合され、蓄積される。また、18はカメラ位置姿勢の記憶手段であり、座標計算手段が計算したカメラ位置姿勢データを記憶しておく。記憶しておくデータは最新のデータのみであっても、入力画像系列の全てに関するデータを記憶するものであっても良い。
22はCADデータの中から探索すべき物体の形状モデルを記憶しておく記憶手段であり、物体認識手段23は22に記憶された形状データと一致する部分を20に記憶されているCADデータの中から探索する。また、空間探索手段24は20に記憶されているCADデータの中から物体認識手段23が探索すべき範囲を限定する。
各部の詳細について説明する。図3は、画像入力手段10の具体的構成例を示すものである。一般に画像データを得るためには、CCD撮像素子等を用いたカメラなどが用いられる。このカメラは、例えば図3の2として示すように、画像を撮像素子上に結像するためのレンズ2a、CCD素子2b、CCD出力を読み出す読出回路2c、CCD出力を映像信号に変換する信号生成回路2dなどから構成される。
Details of each part will be described. FIG. 3 shows a specific configuration example of the image input means 10. In general, a camera using a CCD image sensor or the like is used to obtain image data. This camera has a
一般にCCD素子は、格子状に配置された受光素子の行の方向に順次読み出すようになっており、信号生成回路2dは順次読み出された画素の明るさを信号の振幅によってアナログ的に表す信号(輝度信号)と画像の各行や1画面の区切りを表す同期信号を合成したいわゆるビデオ信号2eを生成する。
In general, CCD elements are sequentially read in the direction of rows of light receiving elements arranged in a grid, and the
図3に示す画像入力手段の例では、このビデオ信号から同期信号を分離する同期回路10aと、ビデオ信号から輝度信号を分離して画素の明るさをデジタル値に変換するA/D変換器10bと、明るさのデジタル値を同期信号に同期して記憶素子11に書き込む書込回路10cを備えている。
In the example of the image input means shown in FIG. 3, a synchronizing
図4は、画像入力手段10の別な具体的構成例を示すものである。上記のようなビデオ信号を出力するカメラの他に、画像をデジタル信号として出力するタイプのカメラも存在する。この様なカメラでは、例えば図4に示すように画素の輝度値を表す複数ビットのデジタル信号2gと同期信号2fから構成されるデジタル映像信号を出力する。この様なカメラでは、データ転送効率が良くなるため高速に画像データを得ることができる。また、カメラ内部で輝度値がデジタル化されるため、信号の歪やノイズによる画像の劣化が起こらないと言うメリットがある。
FIG. 4 shows another specific configuration example of the image input means 10. In addition to the above-described camera that outputs a video signal, there is a camera that outputs an image as a digital signal. In such a camera, for example, as shown in FIG. 4, a digital video signal composed of a multi-bit
図4に示す画像入力手段の例では、このデジタル映像信号から画素データの書込みアドレスを計算して画素データを記憶素子11に書込む書込回路10cを備えている。画像入力手段10の構成としては、図3に示す構成、あるいは図4に示す構成、あるいはその両方を備えた構成であっても良い。画像入力手段をこのような構成とすることにより、画像処理装置を直接カメラ等に接続することができる。このため、画像処理装置を機械装置等に組込む際に特別な付加回路等を設けなくても済む。
The example of the image input means shown in FIG. 4 includes a
図5は、画像入力手段10の更に別な具体的構成例を示すものである。図5は、画像処理装置1上にCCD素子のような受光素子10fを構成し、そこに画像を結像させるためのレンズ10dを設けたものである。受光素子10fが検出した輝度情報は直接あるいはデジタル値に変換されて記憶素子11に転送される。この様な構成とすることにより、画像データをカメラから画像処理装置に転送する必要がなくなるため、非常に高速に画像データを得ることができる。
FIG. 5 shows still another specific configuration example of the image input means 10. In FIG. 5, a light receiving element 10f such as a CCD element is formed on the
特徴点・エッジ抽出手段12の詳細について図6を用いて説明する。ここで、特徴点とは多角形の頂点、線と線の交点、曲線の折れ点や線の分岐点など空間において位置を一意に特定できる点のことを意味する。3次元の物体を線画の様に描いた画像から上記のような特徴点を抽出すると、これらの点は物体の頂点や物体表面に描かれた図形の頂点である場合が多い。従って、これらの点の3次元位置を求めて、線で結ぶことにより元の物体の形状や物体表面に描かれた図形の形状を再現することが可能となる。 Details of the feature point / edge extraction means 12 will be described with reference to FIG. Here, the feature point means a point whose position can be uniquely specified in a space, such as a vertex of a polygon, an intersection of a line and a line, a break point of a curve, or a branch point of a line. When the above feature points are extracted from an image in which a three-dimensional object is drawn like a line drawing, these points are often the vertices of the object or the figure drawn on the object surface. Therefore, by obtaining the three-dimensional positions of these points and connecting them with lines, it is possible to reproduce the shape of the original object or the shape of the figure drawn on the object surface.
一方、エッジとは3次元物体の形状における稜線や、物体表面に描かれた図形の境界線、あるいは物体の2次元画像における輪郭線などを意味する。即ち、3次元の物体を線画の様に描いた場合に得られる線に対応するものである。上記の特徴点を線で結ぶ際に、この様なエッジに沿って結ぶことにより、物体形状を正しく再現することが可能となる。なお、エッジは画像において空間的に明るさが大きく変化する場所に現れることが多い。 On the other hand, an edge means a ridge line in the shape of a three-dimensional object, a boundary line of a graphic drawn on the object surface, or a contour line in a two-dimensional image of the object. That is, it corresponds to a line obtained when a three-dimensional object is drawn like a line drawing. When connecting the above feature points with a line, it is possible to correctly reproduce the object shape by connecting the feature points along such an edge. Note that an edge often appears in a place where the brightness greatly varies spatially in an image.
図6において、12aは画像の輝度値のU方向(横方向)の空間微分を計算する手段であり、12bは輝度値のV方向(縦方向)の空間微分を計算する手段である。具体的には、座標(u,v)における画像の輝度をI(u,v)とする時に、U方向微分Iu(u,v)とV方向微分Iv(u,v)は、例えば以下の式により計算する。(以後の説明において特に断りのない限り(u,v)は画像上の横方向と縦方向の座標を表すものとする。) In FIG. 6, 12a is a means for calculating the spatial differentiation in the U direction (horizontal direction) of the luminance value of the image, and 12b is a means for calculating the spatial differentiation in the V direction (vertical direction) of the luminance value. Specifically, when the luminance of the image at the coordinates (u, v) is I (u, v), the U-direction differential Iu (u, v) and the V-direction differential Iv (u, v) are, for example, Calculate with the formula. (Unless otherwise specified in the following description, (u, v) represents the horizontal and vertical coordinates on the image.)
これは、画像における空間的な明るさの変化を計算するものであり、具体的計算方法は上記に限定されるものではない。 This is to calculate a change in spatial brightness in the image, and the specific calculation method is not limited to the above.
12cは、特徴点としての指標Efを計算する手段であり、例えば以下の式により計算する。 12c is a means for calculating an index Ef as a feature point, for example, calculated by the following equation.
ここで、Guu、Gvv、Guvは以下に示す様に近傍領域WにおいてU方向微分の二乗、V方向微分の二乗、U方向微分とV方向微分の積を積算したものである。 Here, Guu, Gvv, and Guv are obtained by integrating the square of the U-direction derivative, the square of the V-direction derivative, and the product of the U-direction derivative and the V-direction derivative in the vicinity region W as shown below.
指標Efは近傍領域Wにおいて明るさの変化の方向が変化する程度を表すものであり、具体的計算方法としては上記に限定されるものではない。 The index Ef represents the degree to which the direction of change in brightness changes in the neighborhood region W, and the specific calculation method is not limited to the above.
特徴点・エッジ抽出手段12は、上記の指標Efを用いて、例えばEfがある設定値以上である画素を特徴点として抽出し、その画像上での座標(u,v)のリスト15aを出力する。12dは、エッジとしての指標Eeを計算する手段であり、例えば以下の式により計算する。
The feature point /
指標Eeは画素(u,v)における明るさの空間変化の程度を表すものであり、具体的計算方法としては上記に限定されるものではない。 The index Ee represents the degree of spatial change in brightness at the pixel (u, v), and the specific calculation method is not limited to the above.
特徴点・エッジ抽出手段12は、上記の指標Eeを用いて、例えばEeがある設定値以上である画素に対してはそれがエッジであることを示す値を、そうでない画素に対してはそれがエッジでないことを示す値を設定した画像データ(エッジパターン)15bを生成する。そして、上記特徴点の座標リスト15aとエッジパターン15bとにより特徴点・エッジマップ15を構成する。
The feature point / edge extracting means 12 uses the above-mentioned index Ee, for example, a value indicating that it is an edge for a pixel whose Ee is equal to or greater than a certain set value, and a value indicating that for a pixel that is not. Image data (edge pattern) 15b in which a value indicating that is not an edge is set is generated. The feature point /
特徴点追跡手段13の詳細について、図7を用いて説明する。特徴点追跡手段13は、既に特徴点の位置が既知である第1の画像I1をもとに、特徴点の位置が未知である第2の画像I2における対応する特徴点の位置を求める。この時、対応する特徴点の位置は、既知の特徴点の位置を中心とした近傍領域を第2の画像I2について探索することにより求める。
Details of the feature point tracking means 13 will be described with reference to FIG. The feature
具体的探索手順を図7に示す。既知の特徴点の座標が(u0,v0)であるとして、(u0,v0)を中心とした近傍領域、例えばu,v座標がそれぞれ±wの範囲のI1の画像IW1を得る(s1)。この時、座標(u0,v0)は、必ずしも画像I1の画素を構成する格子点の座標と一致するものではないとし、s1ではI1の格子点の画素値から座標(u0,v0)を中心とした格子点の画素値を補間計算するものとする(サブピクセル処理)。 A specific search procedure is shown in FIG. Assuming that the coordinates of the known feature points are (u0, v0), a neighborhood region centered on (u0, v0), for example, an image IW1 of I1 with u and v coordinates in the range of ± w is obtained (s1). At this time, the coordinates (u0, v0) are not necessarily coincident with the coordinates of the grid points constituting the pixels of the image I1, and in s1, the coordinates (u0, v0) are centered from the pixel values of the grid points of I1. It is assumed that the pixel values of the lattice points thus calculated are interpolated (subpixel processing).
IW1のU方向微分画像とV方向微分画像を求め、これをIu、Ivとする(s2)。この処理は、例えば図6に示したU方向微分計算手段12a、V方向微分計算手段12bを用いて行う。画像I2の対応する特徴点の推定位置(u,v)をまず(u0,v0)と置いて(s3)、繰り返し回数tを0と置く(s4)。I2に対して座標(u,v)を中心とした近傍領域、例えばu,v座標がそれぞれ±wの範囲の画像を得てIW2とする(s5)。この手順では、手順s1と同様にサブピクセル処理を行う。 A U-direction differential image and a V-direction differential image of IW1 are obtained and set as Iu and Iv (s2). This process is performed using, for example, the U-direction differential calculation means 12a and the V-direction differential calculation means 12b shown in FIG. First, the estimated position (u, v) of the corresponding feature point of the image I2 is set as (u0, v0) (s3), and the number of repetitions t is set as 0 (s4). An adjacent region centered on coordinates (u, v) with respect to I2, for example, an image in which u and v coordinates are in the range of ± w is obtained as IW2 (s5). In this procedure, sub-pixel processing is performed in the same manner as in procedure s1.
IW1、IW2、Iu、Ivとから行列Gとベクトルbを計算する(s6)。具体的には以下の式によりGとbを計算する。 A matrix G and a vector b are calculated from IW1, IW2, Iu, and Iv (s6). Specifically, G and b are calculated by the following equations.
ここで、Guu、Gvv,Guvの定義は(数3)と同様であるが、積算する範囲は(u0,v0)を中心とする近傍領域、例えばu,v座標がそれぞれ±wの範囲である。また、bの積算演算はIW1,Iu,Ivについては(u0,v0)を中心とする近傍領域、IW2については(u,v)を中心とする近傍領域について積算することを表している。 Here, the definitions of Guu, Gvv, and Guv are the same as in (Expression 3), but the range to be integrated is a neighborhood region centered at (u0, v0), for example, the range where u and v coordinates are ± w, respectively. . In addition, the integration calculation of b indicates that IW1, Iu, and Iv are integrated in the vicinity region centered on (u0, v0), and IW2 is integrated in the vicinity region centered on (u, v).
行列Gが逆行列を持つなら(s7)なら手順s8に示す式により(u,v)の修正量(du,dv)を計算する。Gが逆行列を持たないなら修正量は0とする(s9)。そして、(u,v)を(du,dv)により修正し(s10)、その修正量が所定の値dmより小さいなら(s11)、処理を終了する。また、修正量がdmより大きい場合には、繰り返し回数tを1増やし(s12)、繰り返し回数が所定の回数tmより小さければ処理を継続し、所定の回数tmとなったら処理を終了する(s13)。 If the matrix G has an inverse matrix (s7), the correction amount (du, dv) of (u, v) is calculated by the equation shown in step s8. If G does not have an inverse matrix, the correction amount is set to 0 (s9). Then, (u, v) is corrected by (du, dv) (s10), and if the correction amount is smaller than the predetermined value dm (s11), the process is terminated. If the correction amount is larger than dm, the number of repetitions t is increased by 1 (s12). If the number of repetitions is smaller than the predetermined number tm, the process is continued. When the number of repetitions reaches the predetermined number tm, the process ends (s13). ).
上記のように、特徴点追跡手段13においては、既知の特徴点の位置を初期値推定値として、その近傍領域から計算される修正量で推定値を修正することを繰り返すことにより対応する特徴点の位置を特定する。この繰り返し処理において、修正量が所定の値以下になった場合、あるいは繰り返し回数が所定の回数となった場合に処理を終了する。
As described above, in the feature
修正量に関するしきい値dmを小さくすると高精度に対応点の位置を特定することができる。しかし、場合によっては繰り返し回数が多くなり、対応点を求める計算に時間がかかることになる。これに対して、繰り返し回数に関するしきい値tmを設けることにより、常に所定の時間以内で計算が終了し、かつ収束の速い特徴点については高精度に対応点の位置を求めることができる。また、繰り返し計算が収束しない場合の無限ループを防ぐこともできる。 If the threshold value dm regarding the correction amount is reduced, the position of the corresponding point can be specified with high accuracy. However, the number of repetitions increases in some cases, and it takes time to calculate the corresponding points. On the other hand, by providing the threshold value tm regarding the number of repetitions, the calculation can always be completed within a predetermined time, and the corresponding point position can be obtained with high accuracy for a feature point having a fast convergence. Further, it is possible to prevent an infinite loop when the repeated calculation does not converge.
画像入力手段10により入力される時系列的な画像に対しては、例えば、1番目の画像に対して特徴点・エッジ抽出手段12により特徴点の位置を求め、I1を1番目の画像、I2を2番目の画像として、上記の手順によりI2の対応する特徴点の位置を求める。次にI1を2番目の画像、I2を3番目の画像として、I1の特徴点の位置は上記で求めた特徴点とすることで、3番目の画像に対して対応する特徴点の位置を求める。以下、同様の手順を繰り返すことにより、時系列的な画像全体に渡って特徴点の位置を追跡することができる。 For the time-series image input by the image input means 10, for example, the position of the feature point is obtained by the feature point / edge extraction means 12 for the first image, and I1 is the first image, I2 As the second image, the position of the corresponding feature point of I2 is obtained by the above procedure. Next, assuming that I1 is the second image, I2 is the third image, and the position of the feature point of I1 is the feature point obtained above, the position of the corresponding feature point is obtained for the third image. . Thereafter, by repeating the same procedure, the position of the feature point can be tracked over the entire time-series image.
以上の手順により、特徴点追跡手段は以下に示す観測行列を生成する。 With the above procedure, the feature point tracking means generates the following observation matrix.
ここで、uij,vijはi番目の画像におけるj番目の特徴点の画像上での位置座標である。 Here, uij and vij are the position coordinates on the image of the j-th feature point in the i-th image.
座標計算手段16の詳細について図8を用いて説明する。(数6)に示した観測行列はm個の異なる視点から対象物を観測して得た画像上でのn個の特徴点の位置座標を列挙したものと考えることができる。このようにm個の異なる視点におけるn個の点の見え方から点の3次元座標と視点の位置姿勢を求める計算方法としては、いくつかの方法が存在する。これらの方法は、点を画像面に投影するモデル、例えば正射影モデルであるか、パースペクティブモデルであるかなどの相異により異なる計算方法を用いる。ここでは、例えば正射影モデルを用いた場合の例について説明する。 Details of the coordinate calculation means 16 will be described with reference to FIG. The observation matrix shown in (Equation 6) can be considered as an enumeration of the position coordinates of n feature points on an image obtained by observing an object from m different viewpoints. As described above, there are several methods for calculating the three-dimensional coordinates of a point and the position and orientation of the viewpoint from the appearance of n points at m different viewpoints. In these methods, different calculation methods are used depending on a model for projecting a point on an image plane, for example, whether it is an orthographic projection model or a perspective model. Here, for example, an example in which an orthographic projection model is used will be described.
まず、観測行列の各行についてその行の平均値を差し引く(s20)。具体的には、以下の式により計算を行う。 First, the average value of each row of the observation matrix is subtracted (s20). Specifically, the calculation is performed according to the following formula.
次に、上記で得られた行列を特異値分解して以下の形として、U行列とV行列を得る(s21)。なお、記号Tは行列の転置を表す。 Next, the matrix obtained above is subjected to singular value decomposition to obtain a U matrix and a V matrix as the following forms (s21). Note that the symbol T represents transposition of a matrix.
ここで、対角行列Sの対角要素は特異値の値の大きい順に並べられているものとする。 Here, the diagonal elements of the diagonal matrix S are arranged in descending order of the singular values.
次に、U行列の左3行列から得た2m行3列の行列U3から回転行列Rを計算する(s22)。具体的には、対角行列Sの左上3×3行列から得た部分行列をS3とする時、例えば以下の式によりRを計算する。 Next, a rotation matrix R is calculated from a 2m × 3 matrix U3 obtained from the left 3 matrix of the U matrix (s22). Specifically, when the submatrix obtained from the upper left 3 × 3 matrix of the diagonal matrix S is S3, R is calculated by the following equation, for example.
同様に、V行列の左3行列から得たn行3列の行列V3から形状行列Pを計算する(s23)。具体的には、前記部分行列S3を用いて例えば以下の式により計算する。 Similarly, the shape matrix P is calculated from the matrix V3 of n rows and 3 columns obtained from the left three matrices of the V matrix (s23). Specifically, for example, the following formula is used for calculation using the partial matrix S3.
次に回転行列Rを正規直交化する変換行列Aを求める(s24)。これは、Rの各行から作ったベクトルをriとする時、以下の連立方程式を満たす解として求めることができる。 Next, a transformation matrix A for orthonormalizing the rotation matrix R is obtained (s24). This can be obtained as a solution satisfying the following simultaneous equations, where ri is a vector created from each row of R.
線/面抽出・登録手段19の詳細について図9を用いて説明する。まず、特徴点群からデローニ三角形を生成する(s30)。ここで、デローニ三角形とは2次元空間上の点群を結んで空間を三角形に分割する時、三角形の最小角ができるだけ大きくなるような分割方法で三角形を構成するものである。数学的には、点群から構成されるボロノイ図の双対として与えられる。ここでは、座標計算に使用した任意の画像における特徴点の2次元位置に対してデローニ三角形を生成するものである。 Details of the line / surface extraction / registration means 19 will be described with reference to FIG. First, a Delaunay triangle is generated from the feature point group (s30). Here, the Delaunay triangle is a triangle formed by a dividing method in which the minimum angle of the triangle is as large as possible when the space is divided into triangles by connecting point groups in a two-dimensional space. Mathematically, it is given as a dual Voronoi diagram composed of point clouds. Here, a Delaunay triangle is generated for a two-dimensional position of a feature point in an arbitrary image used for coordinate calculation.
上記デローニ三角形を生成するのに用いた画像のエッジパターンを用いて、エッジで結ばれた特徴点のペアを求める(s31)。これは、例えばある特徴点から出発して直線状に伸びているエッジを辿って行き、他の特徴点に到達したなら、結ばれていると判定することにより求める。 A pair of feature points connected by edges is obtained using the edge pattern of the image used to generate the Delaunay triangle (s31). This is obtained, for example, by starting from a certain feature point, following an edge extending in a straight line, and determining that the other feature point is connected if another feature point is reached.
上記で求めたペアの間のエッジがデローニ三角形の辺と交差する部分に対して、デローニ三角形の辺がエッジと交差しないように修正する(s32)。例えば、図10(a)において、特徴点群40に対してデローニ三角形が点線41の様な形で生成されたとする。これに対して、特徴点同士を結ぶエッジの線が図10(b)の実線42のように得られたとする。この時、デローニ三角形の辺41aと41bとが、エッジの線42aと交差するので、41aと41bを例えば図10(c)に示す線41cとエッジ42aと重なる線に修正する。
For the portion where the edge between the pair obtained above intersects with the Delaunay triangle side, correction is made so that the Delaunay triangle side does not intersect the edge (s32). For example, in FIG. 10A, it is assumed that a Delaunay triangle is generated in a shape like a dotted
以上の手順によって得られた三角形の面に関して、互いに隣接していて面の方向がほとんど同じもの同士を統合する(s33)。例えば、図10(c)において、三角形43a、43b、43c、43d、43eの面の向きがほとんど同じであるので統合する。他の面についても同様の処理を行うことにより、図10(d)に示すような結果となる。但し、上記の処理において、面が接する辺がエッジの線と重なる場合には、統合しない。
With respect to the triangular surfaces obtained by the above procedure, those that are adjacent to each other and have almost the same surface direction are integrated (s33). For example, in FIG. 10C, since the directions of the faces of the
上記で得た面の色を求める(s34)。これは、画像上において面に対応する領域の画素の色の平均値として求める。物体表面上に描かれた図形などの境界は多くの場合エッジとして抽出され、境界の頂点などは特徴点として抽出される。従って、上記の処理により物体表面に描かれた図形なども形状データとして生成される。 The color of the surface obtained above is obtained (s34). This is obtained as an average value of the colors of the pixels in the region corresponding to the surface on the image. In many cases, a boundary such as a graphic drawn on the object surface is extracted as an edge, and a vertex of the boundary is extracted as a feature point. Therefore, a figure drawn on the object surface by the above processing is also generated as shape data.
以上の手順により、生成した点と線と面により構成された形状データをCADデータに統合する(s35)。この統合処理の詳細手順を図10に示す。新たに生成された形状データの点(特徴点)に対応するCADデータ内の点を抽出する(s40)。これは、例えば特徴点・エッジ抽出手段12が特徴点を抽出した際に、特徴点の座標リスト15aに対して、個々の特徴点を識別する識別番号を付加しておく。そして、CADデータに登録する際に点のデータと合わせて識別番号も記憶しておく。次に、再び特徴点の抽出を行った際に、前回作成した特徴点の座標リスト15aを参照し、座標がほとんど同じ特徴点については、前回と同一の識別番号を付加するようにする。これにより、新たに生成した形状データにおける点の識別番号と同一の識別番号を持つ点をCADデータから探索することにより対応する点の抽出を行うことができる。
Through the above procedure, the shape data constituted by the generated points, lines, and surfaces is integrated into CAD data (s35). The detailed procedure of this integration process is shown in FIG. A point in the CAD data corresponding to the point (feature point) of the newly generated shape data is extracted (s40). For example, when the feature point /
新たに生成された形状データの点とCADデータより抽出した対応点の座標が一致するように変換する座標変換を求める(s41)。これは、点の座標に関する連立方程式を解くことにより求められる。新たに生成された啓上データの全ての点の座標を上記の座標変換により変換した後にCADデータに登録する(s42)。この時、新たな点の中でCADデータ内の点と対応のあるものは登録しない。点データの統合により生じる線や面のデータの修正処理を行う(s43)。これは、例えば新たに生成された形状データの中の線の端点や面の頂点の点がCADデータ内の点と対応のあるものであれば、その点への接続に置き換えるなどの処理を行うものである。 A coordinate conversion is performed for conversion so that the newly generated shape data point matches the coordinates of the corresponding point extracted from the CAD data (s41). This is obtained by solving simultaneous equations concerning the coordinates of the points. The coordinates of all points of the newly generated enlightenment data are converted by the above coordinate conversion and then registered in the CAD data (s42). At this time, new points that correspond to the points in the CAD data are not registered. Correction processing is performed on data of lines and surfaces generated by integration of point data (s43). For example, if the end point of the line or the vertex point of the surface in the newly generated shape data corresponds to a point in the CAD data, processing such as replacement to the point is performed. Is.
形状データの統合処理の例を図12に示す。まず、カメラ位置201における画像に対して特徴点・エッジ抽出手段12により特徴点40a、40b、40c、40dの抽出が行われたとする。これらは、カメラ位置202、203においても視野の中に入っており、特徴点追跡手段13によって追跡され、それぞれ対応する画像上での位置が求められる。これらの位置データから特徴点40a、40b、40c、40dの3次元座標が計算され形状データとしてCADデータに登録されたとする。次に、カメラ位置204における画像に対して特徴点40c、40d、40e、40fが抽出され、続くカメラ位置205、206における画像に対して追跡処理が行われ、これらの特徴点の3次元座標が計算されたとする。この時、両者の間で共通する特徴点40c、40dの座標は必ずしも同一の3次元座標とはならない。これは、画面上での特徴点の位置関係から3次元座標を復元する計算処理において、カメラと特徴点の相対的な位置関係のみが求まるためである。そこで、カメラ位置201、202、203から計算した特徴点40c、40dの座標とカメラ位置204、205、206から計算した40c、40dの座標が重なるような座標変換を求め、これにより特徴点40e、40fの座標を変換して統合することにより、正しい形状データを得ることができる。
An example of shape data integration processing is shown in FIG. First, it is assumed that the
次に、データ入出力手段21の詳細について図13を用いて説明する。データ入出力手段には、例えばアドレスを指定するアドレス信号線21a、データをセットまたは読み出すためのデータ線21b、画像処理装置1へのアクセスを指定するチップセレクト制御線21c、データの入力または読み出しを指定するリードライト制御線21d、データの書込みまたは読み出しのタイミングを指定するストローブ制御線21e、画像処理装置1に接続された制御装置に割り込み処理を要求する割込み制御線21fなどが備えられている。
Next, details of the data input / output means 21 will be described with reference to FIG. The data input / output means includes, for example, an
これらの信号線を用いて、例えば図14に示すような形の形状データの入出力を行う。図14において、44は形状を構成する点の座標データであり、45は線のデータであり、46は面のデータであり、47は物体のデータである。線のデータ45は二つ一組の数値データであり、それぞれ始点と終点の点の番号を表す。面のデータ46は任意個の組からなる数値データであり、それぞれ線の番号を表す。物体のデータ47は任意個の組からなる数値データであり、それぞれ面の番号を表す。例えば図14に示す例は、図15に示すような一つの面P1、四つの線L1、L2、L3、L4、四つの点(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)、(x4,y4,z4)からなる物体の形状データを表すものである。
Using these signal lines, for example, shape data having a shape as shown in FIG. 14 is input / output. In FIG. 14, 44 is the coordinate data of the points constituting the shape, 45 is the line data, 46 is the surface data, and 47 is the object data. The
次に、物体認識手段23と空間探索手段24の詳細について図16を用いて説明する。 Next, details of the object recognition means 23 and the space search means 24 will be described with reference to FIG.
物体認識手段23は、入出力手段21より入力され、記憶手段22に一時的に記憶された形状データと一致する形状部分をCADデータ20の中から探索し、その位置姿勢を求めるものである。この時行われる探索は、CADデータ20の全体に渡るものであっても良いが、例えば現在のカメラ位置姿勢を指定して現在のカメラから見える範囲の中から探索するものであっても良い。後者のように探索範囲を限定することにより、より短い時間で探索処理を行うことができる。例えば図17(a)において、例えば画像処理装置1が組込まれた作業機械に装着されたカメラが52に示す位置姿勢にあり、前記作業機械がこのカメラから見える範囲の物体51a,51b、51cに対して作業を行っている場合、この中のある特定の物体を探す目的においては、CADデータの全空間51を探索する必要はなく、カメラ位置姿勢52から見える範囲の空間52aの中だけを探索すれば良い。これによって、現在の作業には関係のない51dや51eの様な物体を探索する必要がなくなり、探索時間を短縮することができる。
The object recognizing means 23 searches the
図16における手順s50はこのような探索範囲の限定を行うための処理であり、カメラ視点などによって指定される空間に含まれる形状データを抽出するものである。 Step s50 in FIG. 16 is processing for limiting the search range as described above, and extracts shape data included in a space designated by a camera viewpoint or the like.
この抽出処理は、例えば図17(b)に示すような空間探索木を用いることによって高速に行うことができる。図17(b)に示す空間探索木の際下段のノード55は、図17(a)の空間51を分割した部分空間に対応し、それぞれ対応する数字で示した点線で囲まれた部分空間に対応する。2段目のノード54は、前記部分空間の隣接するもの同士を統合した空間に対応するものであり、最上位のノード53は、全空間51に対応する。
This extraction process can be performed at high speed by using, for example, a spatial search tree as shown in FIG. The
この空間探索木を用いて、例えば図17(a)における探索範囲52aに含まれる物体は以下の手順で抽出される。まず、空間探索木の最上位ノードから出発して、探索範囲52aと重なる部分空間に対応したノードのみを残して、順次下位のノードに探索を進めていく。例えば図17の例では、2段目のノードにおいてノード4に対応する空間(図17(a)で11、12、15、16で示す空間)は、52aと重ならないので、ノード4より下につながっているノードに関する探索は行わない。ノード1、2、3についてはその下につながる第1段のノードについて同様に重なる部分があるものだけを残す。これにより、1、2、5、6、3、7、9、10、13のノードが残されることになる。そして最後に、この残されたノードに対応する部分空間に含まれる物体をもって、空間52aに含まれる物体とすることができる。正確には、物体は上記で求めた物体の中に空間52aに含まれない物体も存在し得るが、この数は空間の分割数を適切に設定することにより十分小さくすることができる。
Using this spatial search tree, for example, an object included in the
次に、記憶手段22に記憶されている形状データ(モデル)とs50で抽出された形状データの形状表面に点群を設定する(s51)。これは、例えば図18に示すように、形状データの表面に一様に分布するような点群56を設定するものである。
Next, a point cloud is set on the shape data (model) stored in the storage means 22 and the shape surface of the shape data extracted in s50 (s51). For example, as shown in FIG. 18, a
次に、形状データの点群にモデルの点群を様々な位置姿勢で重ね合せてみて、最も良く重なる位置姿勢を求める(s52)。この重ね合せの探索手順としては種々提案されている手法、例えばA. Johnson and M. Hebert, "Using spin images for efficient object recognition in cluttered 3D scenes," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 21, No. 5, May, 1999, pp. 433 - 449などを用いる。 Next, the model point cloud is superimposed on the shape data point group at various positions and orientations to obtain the best position and orientation (s52). Various methods have been proposed for this superposition search procedure, such as A. Johnson and M. Hebert, "Using spin images for efficient object recognition in cluttered 3D scenes," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 21 , No. 5, May, 1999, pp. 433-449.
次に、上記の結果得られた位置姿勢における形状データとモデルの点群の一致度が所定の値より大きければ(s53)、上記の位置姿勢データを出力し(s54)、そうでなければ物体が見つからなかった旨を出力する(s55)。次に、画像処理装置1の全体的な動作の流れについて図19を用いて説明する。
Next, if the degree of coincidence between the shape data in the position / orientation obtained as a result and the model point cloud is larger than a predetermined value (s53), the position / orientation data is output (s54); The fact that no is found is output (s55). Next, the overall operation flow of the
図19において横方向の流れは、左から右へ時間の経過を表し、縦方向の流れは主にデータの流れを表す。また、図中の四角は主にそれらが並べられた各行の左端に示される処理が行われるタイミングを表す。 In FIG. 19, the horizontal flow represents the passage of time from left to right, and the vertical flow mainly represents the data flow. Also, the squares in the figure mainly represent the timing at which the processing shown at the left end of each row in which they are arranged.
まず、カメラが捉えた画像は画像入力手段10により60で示すタイミングで逐次画像処理装置に取り込まれる。これらの画像データを例えば60aに示すようなセットとした時に、その先頭の画像が取り込まれたタイミングで特徴点・エッジ抽出処理61が実行される。その結果得られた特徴点の画像上での座標データは、観測行列63の先頭行となる。画像のセット60aの2番目以後の画像については、特徴点の追跡処理62が実行され、その結果得られる各画像における特徴点の座標データは、観測行列63の2番目以後の行となる。
First, images captured by the camera are sequentially taken into the image processing apparatus at the timing indicated by 60 by the image input means 10. For example, when these image data are set as shown in 60a, the feature point /
以上の手順で画像のセット60aの全ての画像に関する特徴点追跡の処理が終了した段階で、生成された観測行列から特徴点の3次元座標とカメラの位置姿勢を計算する座標計算処理64が実行される。そして、特徴点の3次元座標が求まった段階で線/面の抽出と登録処理65が実行され、新たな形状データがCADデータ66に登録される。一方、入出力手段21を介して物体の探索指令が入力されると(68)、その時点から物体の認識処理の実行が開始され(67)、認識処理が終了した段階で結果である物体の位置姿勢データが出力される(69)。
When the feature point tracking processing for all the images in the image set 60a is completed by the above procedure, the coordinate calculation processing 64 for calculating the three-dimensional coordinates of the feature points and the position and orientation of the camera from the generated observation matrix is executed. Is done. Then, when the three-dimensional coordinates of the feature points are obtained, line / surface extraction and
一般に特徴点の抽出処理や、特徴点の追跡処理に比べて座標計算処理や線/面抽出登録処理は非常に長い時間を必要とする。このため、画像取込から形状データ登録までの全ての処理が終了してから次の画像の取込を開始すると、最初の画像を取り込んでから次の画像を取り込むまでの間の時間が長くなる。すると、前の画像と後の画像の間での特徴点の対応関係を見つけることが非常に難しくなる。 In general, the coordinate calculation process and the line / surface extraction / registration process require much longer time than the feature point extraction process and the feature point tracking process. For this reason, if the next image acquisition is started after all the processes from image acquisition to shape data registration are completed, the time from the acquisition of the first image to the acquisition of the next image becomes longer. . Then, it becomes very difficult to find the correspondence of feature points between the previous image and the subsequent image.
これに対して、画像をセットとしてまとめて、そのセットの長さを座標計算処理や線/面抽出登録処理の長さより長く取って、図19の様なパイプライン処理とすることにより、入力される画像の時間間隔を短く取ることができ、簡単な追跡処理によって特徴点の対応関係を求めることができる。また、特徴点の3次元座標計算に際しては、多くの画像データに関する情報を使うことができるので計算結果の精度を高めることができる。 On the other hand, images are collected as a set, and the length of the set is made longer than the length of the coordinate calculation process or line / surface extraction registration process, and the pipeline process as shown in FIG. The time interval between images can be shortened, and the correspondence between feature points can be obtained by a simple tracking process. In addition, when calculating the three-dimensional coordinates of feature points, information relating to a large amount of image data can be used, so that the accuracy of calculation results can be increased.
次に、上述した画像処理装置を搭載した各機器について、詳細に説明する。図20に、画像処理装置をマニピュレータ型ロボットに適用したときの、ブロック図を示す。ロボット70は、複数の関節を備えその先端に物体を把持する把持機構を備えている。把持機構の近くにカメラ71を設け、これにより取り込んだ画像を本発明による画像処理装置1に入力する。そして、画像処理装置1により求めた物体の形状データをロボットの制御手段72で利用する。
Next, each device equipped with the above-described image processing apparatus will be described in detail. FIG. 20 shows a block diagram when the image processing apparatus is applied to a manipulator type robot. The
例えば、今ロボットが把持している物体75を物体73に設けられた穴74に挿入する作業を行うとする。まず、ロボットの把持機構を物体73の周りで動かし、カメラ71から物体73を様々な方向から見た画像を得る。これらの画像を画像処理装置1で処理することにより、物体73の3次元形状データが生成される。ここで、制御手段72が物体73の形状モデルを画像処理装置1に入力し、この物体の位置姿勢を求めるように指示する。すると、画像処理装置1は、内蔵する物体認識手段により物体73を探索し、その位置姿勢を求めて制御手段72に出力する。制御手段72は、この位置姿勢データをもとに把持機構の位置姿勢を制御することにより、物体75を穴74に正しく挿入することができる。
For example, it is assumed that an operation of inserting the object 75 currently held by the robot into a
図21に、画像処理装置を移動機構に搭載したときの模式図を示す。。ロボット80は、移動機構83とカメラ81を備え、カメラ81で取り込んだ画像を本発明による画像処理装置1に入力する。そして、画像処理装置1により求めた物体の形状データをロボットの制御手段82で利用する。例えば、今ロボットが移動機構83を用いて家の中を移動しているとする。カメラ81から取り込まれたロボットの周囲の画像を画像処理装置1で処理することにより、ロボットの周囲の障害物の3次元形状データとカメラ81の位置姿勢が計算される。ここで、制御手段82は障害物の形状データとカメラの位置姿勢データを画像処理装置1から取り出し、周囲の障害物に対する現在のロボット自身の位置関係を計算する。これを用いることにより、ロボット80は周囲の障害物にぶつかることなく家の中を自由に移動することが可能となる。
FIG. 21 is a schematic diagram when the image processing apparatus is mounted on the moving mechanism. . The
図22に、画像処理装置を搭載した車両の模式図を示す。車両90は、カメラ91、92と、車両誘導装置93と、表示装置94と、本発明による画像処理装置1を備え、カメラ91または92で取り込んだ画像を本発明による画像処理装置1に入力する。そして、画像処理装置1により求めた物体の形状データを車両誘導装置93で利用する。
FIG. 22 shows a schematic diagram of a vehicle equipped with an image processing device. The
例えば、今車両90が道路を走行中であるとすると、カメラ91は車両90の前方を走行する別な車両の画像を捉え、画像処理装置1に入力する。すると、画像処理装置1は先行する車両の形状とカメラ91の位置姿勢を計算する。車両誘導装置93は、画像処理装置1から上記の形状データとカメラの位置姿勢データを読み出し、前記カメラの位置姿勢データを用いて前記先行車両の形状の自車に対する相対的な位置関係を計算する。そして、図23に示すように、自車94aと先行車両94bの位置関係を表示装置94に表示する。
For example, assuming that the
例えば車両90がバックで車庫に入ろうとしているとすると、カメラ92は車両90の後方の障害物の画像を捉え、画像処理装置1に入力する。すると、画像処理装置1は後方の障害物の形状データとカメラ92に位置姿勢を計算する。車両誘導装置93は、画像処理装置1から上記の形状データとカメラの位置姿勢データを読み出し、前記カメラの位置姿勢データを用いて前記後方障害物の形状の自車に対する相対的な位置関係を計算する。そして、図23に示すように、自車94aと後方障害物94cの位置関係を表示装置94に表示する。図23の様な表示は、車両90の運転者に対して、道路走行中あるいは車庫入れ中の運転の助けとなるものである。
For example, if the
上記各実施例では、画像処理装置1の中の各種演算処理は、一般的なデジタル回路で実行している。しかしながら、デジタル回路として例えばLSIのような半導体チップを用いれば、コンパクトな画像処理装置になる。また、上記各種演算処理は、コンピュータで使用するコンピュータ・プログラムであってもよい。その場合、画像処理装置1は、コンピュータである。また、特徴点は画像における線分や模様などでも良い。
In the above embodiments, various arithmetic processes in the
1…画像処理装置、2…カメラ、3…制御装置、10…画像入力手段、11…画像記憶手段、12…特徴点・エッジ抽出手段、13…特徴点追跡手段、14…観測行列記憶手段、15…特徴点・エッジマップ記憶手段、16…座標計算手段、17…3次元座標データ記憶手段、18…カメラ位置姿勢記憶手段、19…線/面抽出・登録手段、20…CADデータ記憶手段、21…入出力手段、22…物体モデル記憶手段、23…物体認識手段、24…空間探索手段。
DESCRIPTION OF
Claims (27)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004179068A JP2006004122A (en) | 2004-06-17 | 2004-06-17 | Image processor, robotics device, and vehicle guidance device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004179068A JP2006004122A (en) | 2004-06-17 | 2004-06-17 | Image processor, robotics device, and vehicle guidance device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006004122A true JP2006004122A (en) | 2006-01-05 |
Family
ID=35772477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004179068A Pending JP2006004122A (en) | 2004-06-17 | 2004-06-17 | Image processor, robotics device, and vehicle guidance device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006004122A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010223909A (en) * | 2009-03-25 | 2010-10-07 | Fuji Xerox Co Ltd | Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus |
CN102404511A (en) * | 2010-09-15 | 2012-04-04 | 讯程科技(深圳)有限公司 | Video postproduction system and information combination method of same |
JP2013109624A (en) * | 2011-11-22 | 2013-06-06 | Hitachi Plant Technologies Ltd | Image processing device and image processing method |
JP2015062017A (en) * | 2014-09-30 | 2015-04-02 | オムロン株式会社 | Model creation device, model creation program, and image recognition system |
-
2004
- 2004-06-17 JP JP2004179068A patent/JP2006004122A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010223909A (en) * | 2009-03-25 | 2010-10-07 | Fuji Xerox Co Ltd | Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus |
CN102404511A (en) * | 2010-09-15 | 2012-04-04 | 讯程科技(深圳)有限公司 | Video postproduction system and information combination method of same |
JP2013109624A (en) * | 2011-11-22 | 2013-06-06 | Hitachi Plant Technologies Ltd | Image processing device and image processing method |
JP2015062017A (en) * | 2014-09-30 | 2015-04-02 | オムロン株式会社 | Model creation device, model creation program, and image recognition system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
CN108898676B (en) | Method and system for detecting collision and shielding between virtual and real objects | |
JP6011102B2 (en) | Object posture estimation method | |
JP3735344B2 (en) | Calibration apparatus, calibration method, and calibration program | |
JP4677536B1 (en) | 3D object recognition apparatus and 3D object recognition method | |
CN107990899A (en) | A kind of localization method and system based on SLAM | |
Brandou et al. | 3D reconstruction of natural underwater scenes using the stereovision system IRIS | |
US20030012410A1 (en) | Tracking and pose estimation for augmented reality using real features | |
CN111462503B (en) | Vehicle speed measuring method and device and computer readable storage medium | |
CN110926330B (en) | Image processing apparatus, image processing method, and program | |
CN108648194A (en) | Based on the segmentation of CAD model Three-dimensional target recognition and pose measuring method and device | |
Ding et al. | Fusing structure from motion and lidar for dense accurate depth map estimation | |
JP6860620B2 (en) | Information processing equipment, information processing methods, and programs | |
JP2014029664A (en) | Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program | |
CN104700355A (en) | Generation method, device and system for indoor two-dimension plan | |
CN112184793B (en) | Depth data processing method and device and readable storage medium | |
JP2020179441A (en) | Control system, information processing device and control method | |
JP4649559B2 (en) | 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded | |
Gao et al. | Pose refinement with joint optimization of visual points and lines | |
EP3825804A1 (en) | Map construction method, apparatus, storage medium and electronic device | |
CN115471748A (en) | Monocular vision SLAM method oriented to dynamic environment | |
JP2001101419A (en) | Method and device for image feature tracking processing and three-dimensional data preparing method | |
CN111198563B (en) | Terrain identification method and system for dynamic motion of foot type robot | |
JP2005332177A (en) | Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program | |
KR20050063991A (en) | Image matching method and apparatus using image pyramid |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060424 |