JP2006004122A - Image processor, robotics device, and vehicle guidance device - Google Patents

Image processor, robotics device, and vehicle guidance device Download PDF

Info

Publication number
JP2006004122A
JP2006004122A JP2004179068A JP2004179068A JP2006004122A JP 2006004122 A JP2006004122 A JP 2006004122A JP 2004179068 A JP2004179068 A JP 2004179068A JP 2004179068 A JP2004179068 A JP 2004179068A JP 2006004122 A JP2006004122 A JP 2006004122A
Authority
JP
Japan
Prior art keywords
image
image processing
processing apparatus
data
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004179068A
Other languages
Japanese (ja)
Inventor
Tomoyuki Hamada
朋之 浜田
Keiji Tanaka
敬二 田中
Koji Kikuchi
孝司 菊池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004179068A priority Critical patent/JP2006004122A/en
Publication of JP2006004122A publication Critical patent/JP2006004122A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably restore a shape regarding an object existing in a wide range even outdoors or under intensive illumination, in an image processor. <P>SOLUTION: In the image processor, a first calculation means 1b extracts a change in the positional relation of characteristic points on an image that an image input means 1a has inputted in chronological order. A second calculation means 1c calculates the position and the direction of a view point when the image and the three-dimensional positions of the characteristic points are caught from a change in the positional relation. A third calculation means calculates the three-dimensional shape data on an object caught in an image from the inputted image and three-dimensional positions of the characteristic points. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像から物体あるいは周囲の障害物の三次元的な形状を復元する画像処理装置及びそれを搭載したロボット装置ならびに車両誘導装置に関する。   The present invention relates to an image processing apparatus that restores a three-dimensional shape of an object or a surrounding obstacle from an image, a robot apparatus equipped with the image processing apparatus, and a vehicle guidance apparatus.

従来の撮像画像を画像処理する装置の例が、特許文献1及び特許文献2に記載されている。特許文献1に記載の撮像画像処理装置は、対象物体を撮像して2次元輝度画像データを得、この2次元輝度画像データから3次元形状を復元している。その際、2次元輝度画像データについてエッジを検出し、エッジから対象物体の表面の滑らかさを示すパラメータを算出している。そしてパラメータを用いて3次元形状を正確に復元する陰影情報としての反射地図パラメータを決定し、このパラメータを用いて対象物体の3次元形状を復元している。   Examples of conventional apparatuses for image processing of captured images are described in Patent Document 1 and Patent Document 2. The captured image processing apparatus described in Patent Document 1 captures a target object to obtain two-dimensional luminance image data, and restores a three-dimensional shape from the two-dimensional luminance image data. At that time, an edge is detected from the two-dimensional luminance image data, and a parameter indicating the smoothness of the surface of the target object is calculated from the edge. Then, a reflection map parameter as shadow information for accurately restoring the three-dimensional shape is determined using the parameter, and the three-dimensional shape of the target object is restored using this parameter.

一方特許文献2には、画像処理装置において、撮像手段が撮像した所定視点位置からの被写体画像を第1の記憶手段に記憶し、撮像された画像に最も近い視点位置からの対象物画像を標準3次元形状モデルに基づいて生成し、第2の記憶手段に記憶することが記載されている。そして、これら第1、第2の記憶手段に記憶された画像の差から差異を抽出し、この差に基づいて標準3次元形状モデルを修正することが記載されている。   On the other hand, in Patent Document 2, in an image processing apparatus, a subject image from a predetermined viewpoint position captured by an imaging unit is stored in a first storage unit, and an object image from a viewpoint position closest to the captured image is standardized. It is described that it is generated based on a three-dimensional shape model and stored in a second storage means. Then, it is described that a difference is extracted from the difference between the images stored in the first and second storage means, and the standard three-dimensional shape model is corrected based on the difference.

特開平5-181980号公報JP-A-5-181980

特開平8-233556号公報JP-A-8-233556

上記特許文献1、2に記載の従来の画像処理装置においては、物体がカメラから遠方にあると視野角が非常に小さくなるため、物体の形状を精度よく復元することができない。また、屋外や明るい照明の下にある物体では、明るい反射光によりハレーションを起こしやすく、輝度値の識別が困難である。さらに、遠方にある物体や暗い場所の輝度は一般に低いから、低レベルな輝度の違いを区別するのは難しく、遠方や暗い場所の物体形状を復元しにくい。   In the conventional image processing apparatuses described in Patent Documents 1 and 2, since the viewing angle is very small when the object is far from the camera, the shape of the object cannot be accurately restored. In addition, in an object outdoors or under bright illumination, halation is likely to occur due to bright reflected light, and it is difficult to identify the luminance value. Furthermore, since the brightness of an object in a distant place or a dark place is generally low, it is difficult to distinguish a difference in brightness at a low level, and it is difficult to restore an object shape in a distant place or a dark place.

本発明は上記従来技術の不具合に鑑みなされたものであり、その目的は、遠方から至近距離まで広い範囲にある対象物に対して、屋外や強い照明下においても安定して形状復元を可能にすることである。本発明はまた、形状復元に要する時間を低減することも目的とする。   The present invention has been made in view of the above-described problems of the prior art, and the object thereof is to enable stable shape restoration of an object in a wide range from a distant place to a close distance, even outdoors or under strong illumination. It is to be. Another object of the present invention is to reduce the time required for shape restoration.

上記目的は、画像入力手段と、前記画像入力手段より入力した画像上の特徴的な部分の位置関係の変化を抽出する第1の計算手段と、前記位置関係の変化から特徴的な部分の三次元位置を計算する第2の計算手段と、前記特徴的な部分の三次元位置を用いて画像に捉えられている物体の三次元形状データを計算する第3の計算手段を備えた画像処理装置により達成される。   The object is to provide an image input means, a first calculation means for extracting a change in the positional relation of the characteristic part on the image input from the image input means, and a tertiary of the characteristic part from the change in the positional relation. An image processing apparatus comprising: second calculation means for calculating an original position; and third calculation means for calculating three-dimensional shape data of an object captured in an image using a three-dimensional position of the characteristic portion Is achieved.

また、上記目的は、画像入力手段が時系列的に入力した複数の画像をセットとして、その先頭の画像に関して特徴部分を抽出する特徴部分抽出回路と、前記画像のセットの2番目の画像については、1番目の画像の特徴部分の位置を中心とした近傍を探索して対応する部分の位置を求め、前記画像のセットの3番目以後の画像については、その一つ前の画像について求めた部分の位置を中心とした近傍を探索して対応する部分の位置を求める特徴部分追跡回路と、前記画像のセットにおける特徴部分の位置が求まった段階で、特徴部分の三次元位置を計算する座標計算回路と、前記座標計算回路が特徴部分の三次元位置を求めた段階でこれらの特徴部分と記憶手段に記憶されている形状データの部分の対応関係を求め、前記新たに座標計算した特徴部分の三次元座標を変換するデータ統合回路とを備え、これら画像入力手段、特徴部分抽出回路、特徴部分追跡回路、座標計算回路、データ統合回路がパイプライン的に並列に動作するものである画像処理装置により達成される。   Further, the above object is to provide a feature part extraction circuit for extracting a feature part from the first image as a set of a plurality of images input in time series by the image input means, and a second image in the set of images. Find the position of the corresponding part by searching for the neighborhood centering on the position of the characteristic part of the first image, and for the third and subsequent images in the set of images, the part obtained for the previous image A feature part tracking circuit that searches for a neighborhood centered on the position of the image to obtain the position of the corresponding part, and a coordinate calculation that calculates the three-dimensional position of the feature part when the position of the feature part in the set of images is obtained When the circuit and the coordinate calculation circuit obtain the three-dimensional position of the feature portion, the correspondence relationship between the feature portion and the shape data portion stored in the storage means is obtained, and the new coordinate calculation is performed. And a data integration circuit for converting the three-dimensional coordinates of the feature portion, and these image input means, feature portion extraction circuit, feature portion tracking circuit, coordinate calculation circuit, and data integration circuit operate in parallel in a pipeline manner. This is achieved by an image processing apparatus.

本発明による画像処理装置によれば、対象を様々な方向から眺めた画像を得るだけで対象物の3次元形状を復元することができるので、空撮画像のような遠方の対象物に対しても、至近距離にある対象物に対しても3次元形状を復元することが可能である。また、特別な参照光を用いないので、屋外や強い照明下においても安定して形状復元が可能である。また、全ての処理を自動で行うことが可能であるので手間がかからない。また、LSIのようなチップとして構成することも可能であるので、安価でコンパクトな装置とすることができる。   According to the image processing apparatus of the present invention, it is possible to restore the three-dimensional shape of an object simply by obtaining images obtained by viewing the object from various directions. However, it is possible to restore the three-dimensional shape even for an object at a close distance. In addition, since no special reference light is used, the shape can be stably restored even outdoors or under strong illumination. Moreover, since all the processes can be performed automatically, it does not take time. Further, since it can be configured as a chip such as an LSI, an inexpensive and compact device can be obtained.

以下、本発明の実施の形態を図面によって説明する。図1は、本発明による画像処理装置の一実施例である。1は本発明による画像処理装置、2は対象物体の画像を取り込むカメラ、3は画像処理装置が復元した対象物体の形状を利用する処理装置である。処理装置3は、具体的には例えば画像処理装置1が組込まれた機械装置の制御装置などであり、画像処理装置が復元した物体の形状データを元に機械装置の動きを制御するものである。また、1aは画像処理装置1内に設けられた画像入力手段、1bは時系列的に入力される画像上の特徴点の位置関係の変化を抽出する第1の計算手段、1cは特徴点の位置関係の変化から各点の三次元位置と各入力画像を捉えた際の視点の位置と方向(カメラ位置姿勢)を計算する第2の計算手段、1dは入力画像と特徴点の三次元位置とから画像に捉えられている物体の三次元形状データを計算する第3の計算手段、1eは復元した物体の三次元形状データに関する情報を制御装置3とやり取りする入出力手段、1fは第3の計算手段が計算した物体の三次元形状データと入出力手段から入力された三次元形状データを比較することにより、同一の形状の物体の位置・姿勢を求める第4の計算手段である。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows an embodiment of an image processing apparatus according to the present invention. Reference numeral 1 denotes an image processing apparatus according to the present invention, 2 denotes a camera that captures an image of a target object, and 3 denotes a processing apparatus that uses the shape of the target object restored by the image processing apparatus. Specifically, the processing device 3 is, for example, a control device for a mechanical device in which the image processing device 1 is incorporated, and controls the movement of the mechanical device based on object shape data restored by the image processing device. . In addition, 1a is an image input unit provided in the image processing apparatus 1, 1b is a first calculation unit that extracts a change in the positional relationship of feature points on an image input in time series, and 1c is a feature point. Second calculation means for calculating the three-dimensional position of each point and the position and direction of the viewpoint (camera position and orientation) when capturing each input image from the change in positional relationship, 1d is the three-dimensional position of the input image and feature point The third calculation means for calculating the three-dimensional shape data of the object captured in the image from the above, 1e is an input / output means for exchanging information about the restored three-dimensional shape data of the object with the control device 3, 1f is the third The fourth calculation means for obtaining the position / orientation of an object having the same shape by comparing the three-dimensional shape data of the object calculated by the calculation means and the three-dimensional shape data input from the input / output means.

図2は、図1の各構成要素を更に詳しく示す図である。図2においては、特徴点・エッジ抽出手段12と特徴点追跡手段13が第1の計算手段1bを構成し、物体認識手段23と空間探索手段24が第4の計算手段を構成する。また、座標計算手段16が第2の計算手段1cに、線/面抽出・登録手段19が第3の計算手段1dに対応する。また、11、14、15、17はデータを一時的に記憶しておく記憶手段であり、それぞれ画像入力手段が入力した画像データ、特徴点追跡手段が生成した観測マトリックス、特徴点・エッジ抽出手段が生成した特徴点・エッジマップ、座標計算手段が計算した特徴点の3次元座標データを記憶する。   FIG. 2 is a diagram showing in more detail each component of FIG. In FIG. 2, the feature point / edge extracting means 12 and the feature point tracking means 13 constitute the first calculation means 1b, and the object recognition means 23 and the space search means 24 constitute the fourth calculation means. The coordinate calculation means 16 corresponds to the second calculation means 1c, and the line / surface extraction / registration means 19 corresponds to the third calculation means 1d. Reference numerals 11, 14, 15, and 17 denote storage means for temporarily storing data. Image data input by the image input means, observation matrix generated by the feature point tracking means, and feature point / edge extraction means, respectively. The feature point / edge map generated by, and the three-dimensional coordinate data of the feature point calculated by the coordinate calculation means are stored.

20はCADデータの記憶手段であり、線/面抽出・登録手段が形状データを生成するたびにCADデータ記憶手段に記憶されている形状データ(以後CADデータと呼ぶ)と統合され、蓄積される。また、18はカメラ位置姿勢の記憶手段であり、座標計算手段が計算したカメラ位置姿勢データを記憶しておく。記憶しておくデータは最新のデータのみであっても、入力画像系列の全てに関するデータを記憶するものであっても良い。   Reference numeral 20 denotes CAD data storage means which is integrated and accumulated with shape data (hereinafter referred to as CAD data) stored in the CAD data storage means every time the line / surface extraction / registration means generates shape data. . Reference numeral 18 denotes camera position / posture storage means for storing camera position / posture data calculated by the coordinate calculation means. The data to be stored may be only the latest data or data related to all of the input image series.

22はCADデータの中から探索すべき物体の形状モデルを記憶しておく記憶手段であり、物体認識手段23は22に記憶された形状データと一致する部分を20に記憶されているCADデータの中から探索する。また、空間探索手段24は20に記憶されているCADデータの中から物体認識手段23が探索すべき範囲を限定する。   Reference numeral 22 denotes storage means for storing a shape model of an object to be searched from CAD data, and the object recognition means 23 is a part of the CAD data stored in 20 that matches the shape data stored in 22. Search from inside. The space search means 24 limits the range to be searched by the object recognition means 23 from the CAD data stored in 20.

各部の詳細について説明する。図3は、画像入力手段10の具体的構成例を示すものである。一般に画像データを得るためには、CCD撮像素子等を用いたカメラなどが用いられる。このカメラは、例えば図3の2として示すように、画像を撮像素子上に結像するためのレンズ2a、CCD素子2b、CCD出力を読み出す読出回路2c、CCD出力を映像信号に変換する信号生成回路2dなどから構成される。   Details of each part will be described. FIG. 3 shows a specific configuration example of the image input means 10. In general, a camera using a CCD image sensor or the like is used to obtain image data. This camera has a lens 2a for forming an image on an image sensor, a CCD element 2b, a readout circuit 2c for reading out the CCD output, and a signal generation for converting the CCD output into a video signal, for example, as shown as 2 in FIG. The circuit 2d is configured.

一般にCCD素子は、格子状に配置された受光素子の行の方向に順次読み出すようになっており、信号生成回路2dは順次読み出された画素の明るさを信号の振幅によってアナログ的に表す信号(輝度信号)と画像の各行や1画面の区切りを表す同期信号を合成したいわゆるビデオ信号2eを生成する。   In general, CCD elements are sequentially read in the direction of rows of light receiving elements arranged in a grid, and the signal generation circuit 2d is a signal that represents the brightness of the pixels that are sequentially read in an analog manner by the amplitude of the signal. A so-called video signal 2e is generated by synthesizing a (luminance signal) and a synchronization signal representing a line or image segment.

図3に示す画像入力手段の例では、このビデオ信号から同期信号を分離する同期回路10aと、ビデオ信号から輝度信号を分離して画素の明るさをデジタル値に変換するA/D変換器10bと、明るさのデジタル値を同期信号に同期して記憶素子11に書き込む書込回路10cを備えている。   In the example of the image input means shown in FIG. 3, a synchronizing circuit 10a that separates the synchronizing signal from the video signal, and an A / D converter 10b that separates the luminance signal from the video signal and converts the brightness of the pixel into a digital value. And a writing circuit 10c for writing the digital value of brightness into the storage element 11 in synchronization with the synchronization signal.

図4は、画像入力手段10の別な具体的構成例を示すものである。上記のようなビデオ信号を出力するカメラの他に、画像をデジタル信号として出力するタイプのカメラも存在する。この様なカメラでは、例えば図4に示すように画素の輝度値を表す複数ビットのデジタル信号2gと同期信号2fから構成されるデジタル映像信号を出力する。この様なカメラでは、データ転送効率が良くなるため高速に画像データを得ることができる。また、カメラ内部で輝度値がデジタル化されるため、信号の歪やノイズによる画像の劣化が起こらないと言うメリットがある。   FIG. 4 shows another specific configuration example of the image input means 10. In addition to the above-described camera that outputs a video signal, there is a camera that outputs an image as a digital signal. In such a camera, for example, as shown in FIG. 4, a digital video signal composed of a multi-bit digital signal 2g representing a pixel luminance value and a synchronization signal 2f is output. In such a camera, since the data transfer efficiency is improved, image data can be obtained at high speed. In addition, since the luminance value is digitized inside the camera, there is an advantage that image deterioration due to signal distortion or noise does not occur.

図4に示す画像入力手段の例では、このデジタル映像信号から画素データの書込みアドレスを計算して画素データを記憶素子11に書込む書込回路10cを備えている。画像入力手段10の構成としては、図3に示す構成、あるいは図4に示す構成、あるいはその両方を備えた構成であっても良い。画像入力手段をこのような構成とすることにより、画像処理装置を直接カメラ等に接続することができる。このため、画像処理装置を機械装置等に組込む際に特別な付加回路等を設けなくても済む。   The example of the image input means shown in FIG. 4 includes a writing circuit 10 c that calculates a pixel data write address from the digital video signal and writes the pixel data to the storage element 11. The configuration of the image input means 10 may be the configuration shown in FIG. 3 or the configuration shown in FIG. 4 or both. By configuring the image input unit as described above, the image processing apparatus can be directly connected to a camera or the like. For this reason, it is not necessary to provide a special additional circuit or the like when the image processing apparatus is incorporated in a mechanical device or the like.

図5は、画像入力手段10の更に別な具体的構成例を示すものである。図5は、画像処理装置1上にCCD素子のような受光素子10fを構成し、そこに画像を結像させるためのレンズ10dを設けたものである。受光素子10fが検出した輝度情報は直接あるいはデジタル値に変換されて記憶素子11に転送される。この様な構成とすることにより、画像データをカメラから画像処理装置に転送する必要がなくなるため、非常に高速に画像データを得ることができる。   FIG. 5 shows still another specific configuration example of the image input means 10. In FIG. 5, a light receiving element 10f such as a CCD element is formed on the image processing apparatus 1, and a lens 10d for forming an image is provided thereon. The luminance information detected by the light receiving element 10f is directly or converted into a digital value and transferred to the storage element 11. With such a configuration, it is not necessary to transfer the image data from the camera to the image processing apparatus, so that the image data can be obtained at a very high speed.

特徴点・エッジ抽出手段12の詳細について図6を用いて説明する。ここで、特徴点とは多角形の頂点、線と線の交点、曲線の折れ点や線の分岐点など空間において位置を一意に特定できる点のことを意味する。3次元の物体を線画の様に描いた画像から上記のような特徴点を抽出すると、これらの点は物体の頂点や物体表面に描かれた図形の頂点である場合が多い。従って、これらの点の3次元位置を求めて、線で結ぶことにより元の物体の形状や物体表面に描かれた図形の形状を再現することが可能となる。   Details of the feature point / edge extraction means 12 will be described with reference to FIG. Here, the feature point means a point whose position can be uniquely specified in a space, such as a vertex of a polygon, an intersection of a line and a line, a break point of a curve, or a branch point of a line. When the above feature points are extracted from an image in which a three-dimensional object is drawn like a line drawing, these points are often the vertices of the object or the figure drawn on the object surface. Therefore, by obtaining the three-dimensional positions of these points and connecting them with lines, it is possible to reproduce the shape of the original object or the shape of the figure drawn on the object surface.

一方、エッジとは3次元物体の形状における稜線や、物体表面に描かれた図形の境界線、あるいは物体の2次元画像における輪郭線などを意味する。即ち、3次元の物体を線画の様に描いた場合に得られる線に対応するものである。上記の特徴点を線で結ぶ際に、この様なエッジに沿って結ぶことにより、物体形状を正しく再現することが可能となる。なお、エッジは画像において空間的に明るさが大きく変化する場所に現れることが多い。   On the other hand, an edge means a ridge line in the shape of a three-dimensional object, a boundary line of a graphic drawn on the object surface, or a contour line in a two-dimensional image of the object. That is, it corresponds to a line obtained when a three-dimensional object is drawn like a line drawing. When connecting the above feature points with a line, it is possible to correctly reproduce the object shape by connecting the feature points along such an edge. Note that an edge often appears in a place where the brightness greatly varies spatially in an image.

図6において、12aは画像の輝度値のU方向(横方向)の空間微分を計算する手段であり、12bは輝度値のV方向(縦方向)の空間微分を計算する手段である。具体的には、座標(u,v)における画像の輝度をI(u,v)とする時に、U方向微分Iu(u,v)とV方向微分Iv(u,v)は、例えば以下の式により計算する。(以後の説明において特に断りのない限り(u,v)は画像上の横方向と縦方向の座標を表すものとする。)   In FIG. 6, 12a is a means for calculating the spatial differentiation in the U direction (horizontal direction) of the luminance value of the image, and 12b is a means for calculating the spatial differentiation in the V direction (vertical direction) of the luminance value. Specifically, when the luminance of the image at the coordinates (u, v) is I (u, v), the U-direction differential Iu (u, v) and the V-direction differential Iv (u, v) are, for example, Calculate with the formula. (Unless otherwise specified in the following description, (u, v) represents the horizontal and vertical coordinates on the image.)

Figure 2006004122
Figure 2006004122

これは、画像における空間的な明るさの変化を計算するものであり、具体的計算方法は上記に限定されるものではない。 This is to calculate a change in spatial brightness in the image, and the specific calculation method is not limited to the above.

12cは、特徴点としての指標Efを計算する手段であり、例えば以下の式により計算する。   12c is a means for calculating an index Ef as a feature point, for example, calculated by the following equation.

Figure 2006004122
Figure 2006004122

ここで、Guu、Gvv、Guvは以下に示す様に近傍領域WにおいてU方向微分の二乗、V方向微分の二乗、U方向微分とV方向微分の積を積算したものである。 Here, Guu, Gvv, and Guv are obtained by integrating the square of the U-direction derivative, the square of the V-direction derivative, and the product of the U-direction derivative and the V-direction derivative in the vicinity region W as shown below.

Figure 2006004122
Figure 2006004122

指標Efは近傍領域Wにおいて明るさの変化の方向が変化する程度を表すものであり、具体的計算方法としては上記に限定されるものではない。 The index Ef represents the degree to which the direction of change in brightness changes in the neighborhood region W, and the specific calculation method is not limited to the above.

特徴点・エッジ抽出手段12は、上記の指標Efを用いて、例えばEfがある設定値以上である画素を特徴点として抽出し、その画像上での座標(u,v)のリスト15aを出力する。12dは、エッジとしての指標Eeを計算する手段であり、例えば以下の式により計算する。   The feature point / edge extraction unit 12 extracts, for example, pixels having Ef equal to or larger than a certain set value as the feature point using the index Ef, and outputs a list 15a of coordinates (u, v) on the image. To do. 12d is a means for calculating an index Ee as an edge, for example, calculated by the following equation.

Figure 2006004122
Figure 2006004122

指標Eeは画素(u,v)における明るさの空間変化の程度を表すものであり、具体的計算方法としては上記に限定されるものではない。 The index Ee represents the degree of spatial change in brightness at the pixel (u, v), and the specific calculation method is not limited to the above.

特徴点・エッジ抽出手段12は、上記の指標Eeを用いて、例えばEeがある設定値以上である画素に対してはそれがエッジであることを示す値を、そうでない画素に対してはそれがエッジでないことを示す値を設定した画像データ(エッジパターン)15bを生成する。そして、上記特徴点の座標リスト15aとエッジパターン15bとにより特徴点・エッジマップ15を構成する。   The feature point / edge extracting means 12 uses the above-mentioned index Ee, for example, a value indicating that it is an edge for a pixel whose Ee is equal to or greater than a certain set value, and a value indicating that for a pixel that is not. Image data (edge pattern) 15b in which a value indicating that is not an edge is set is generated. The feature point / edge map 15 is composed of the feature point coordinate list 15a and the edge pattern 15b.

特徴点追跡手段13の詳細について、図7を用いて説明する。特徴点追跡手段13は、既に特徴点の位置が既知である第1の画像I1をもとに、特徴点の位置が未知である第2の画像I2における対応する特徴点の位置を求める。この時、対応する特徴点の位置は、既知の特徴点の位置を中心とした近傍領域を第2の画像I2について探索することにより求める。   Details of the feature point tracking means 13 will be described with reference to FIG. The feature point tracking unit 13 obtains the position of the corresponding feature point in the second image I2 whose position of the feature point is unknown based on the first image I1 whose position of the feature point is already known. At this time, the position of the corresponding feature point is obtained by searching the second image I2 for a neighboring region centered on the position of the known feature point.

具体的探索手順を図7に示す。既知の特徴点の座標が(u0,v0)であるとして、(u0,v0)を中心とした近傍領域、例えばu,v座標がそれぞれ±wの範囲のI1の画像IW1を得る(s1)。この時、座標(u0,v0)は、必ずしも画像I1の画素を構成する格子点の座標と一致するものではないとし、s1ではI1の格子点の画素値から座標(u0,v0)を中心とした格子点の画素値を補間計算するものとする(サブピクセル処理)。   A specific search procedure is shown in FIG. Assuming that the coordinates of the known feature points are (u0, v0), a neighborhood region centered on (u0, v0), for example, an image IW1 of I1 with u and v coordinates in the range of ± w is obtained (s1). At this time, the coordinates (u0, v0) are not necessarily coincident with the coordinates of the grid points constituting the pixels of the image I1, and in s1, the coordinates (u0, v0) are centered from the pixel values of the grid points of I1. It is assumed that the pixel values of the lattice points thus calculated are interpolated (subpixel processing).

IW1のU方向微分画像とV方向微分画像を求め、これをIu、Ivとする(s2)。この処理は、例えば図6に示したU方向微分計算手段12a、V方向微分計算手段12bを用いて行う。画像I2の対応する特徴点の推定位置(u,v)をまず(u0,v0)と置いて(s3)、繰り返し回数tを0と置く(s4)。I2に対して座標(u,v)を中心とした近傍領域、例えばu,v座標がそれぞれ±wの範囲の画像を得てIW2とする(s5)。この手順では、手順s1と同様にサブピクセル処理を行う。   A U-direction differential image and a V-direction differential image of IW1 are obtained and set as Iu and Iv (s2). This process is performed using, for example, the U-direction differential calculation means 12a and the V-direction differential calculation means 12b shown in FIG. First, the estimated position (u, v) of the corresponding feature point of the image I2 is set as (u0, v0) (s3), and the number of repetitions t is set as 0 (s4). An adjacent region centered on coordinates (u, v) with respect to I2, for example, an image in which u and v coordinates are in the range of ± w is obtained as IW2 (s5). In this procedure, sub-pixel processing is performed in the same manner as in procedure s1.

IW1、IW2、Iu、Ivとから行列Gとベクトルbを計算する(s6)。具体的には以下の式によりGとbを計算する。   A matrix G and a vector b are calculated from IW1, IW2, Iu, and Iv (s6). Specifically, G and b are calculated by the following equations.

Figure 2006004122
Figure 2006004122

ここで、Guu、Gvv,Guvの定義は(数3)と同様であるが、積算する範囲は(u0,v0)を中心とする近傍領域、例えばu,v座標がそれぞれ±wの範囲である。また、bの積算演算はIW1,Iu,Ivについては(u0,v0)を中心とする近傍領域、IW2については(u,v)を中心とする近傍領域について積算することを表している。 Here, the definitions of Guu, Gvv, and Guv are the same as in (Expression 3), but the range to be integrated is a neighborhood region centered at (u0, v0), for example, the range where u and v coordinates are ± w, respectively. . In addition, the integration calculation of b indicates that IW1, Iu, and Iv are integrated in the vicinity region centered on (u0, v0), and IW2 is integrated in the vicinity region centered on (u, v).

行列Gが逆行列を持つなら(s7)なら手順s8に示す式により(u,v)の修正量(du,dv)を計算する。Gが逆行列を持たないなら修正量は0とする(s9)。そして、(u,v)を(du,dv)により修正し(s10)、その修正量が所定の値dmより小さいなら(s11)、処理を終了する。また、修正量がdmより大きい場合には、繰り返し回数tを1増やし(s12)、繰り返し回数が所定の回数tmより小さければ処理を継続し、所定の回数tmとなったら処理を終了する(s13)。   If the matrix G has an inverse matrix (s7), the correction amount (du, dv) of (u, v) is calculated by the equation shown in step s8. If G does not have an inverse matrix, the correction amount is set to 0 (s9). Then, (u, v) is corrected by (du, dv) (s10), and if the correction amount is smaller than the predetermined value dm (s11), the process is terminated. If the correction amount is larger than dm, the number of repetitions t is increased by 1 (s12). If the number of repetitions is smaller than the predetermined number tm, the process is continued. When the number of repetitions reaches the predetermined number tm, the process ends (s13). ).

上記のように、特徴点追跡手段13においては、既知の特徴点の位置を初期値推定値として、その近傍領域から計算される修正量で推定値を修正することを繰り返すことにより対応する特徴点の位置を特定する。この繰り返し処理において、修正量が所定の値以下になった場合、あるいは繰り返し回数が所定の回数となった場合に処理を終了する。   As described above, in the feature point tracking unit 13, the position of a known feature point is used as an initial value estimated value, and the feature value corresponding by repeating the correction of the estimated value with the correction amount calculated from the neighboring area is repeated. Specify the position of. In this iterative process, the process ends when the correction amount becomes a predetermined value or less, or when the number of repetitions reaches a predetermined number.

修正量に関するしきい値dmを小さくすると高精度に対応点の位置を特定することができる。しかし、場合によっては繰り返し回数が多くなり、対応点を求める計算に時間がかかることになる。これに対して、繰り返し回数に関するしきい値tmを設けることにより、常に所定の時間以内で計算が終了し、かつ収束の速い特徴点については高精度に対応点の位置を求めることができる。また、繰り返し計算が収束しない場合の無限ループを防ぐこともできる。   If the threshold value dm regarding the correction amount is reduced, the position of the corresponding point can be specified with high accuracy. However, the number of repetitions increases in some cases, and it takes time to calculate the corresponding points. On the other hand, by providing the threshold value tm regarding the number of repetitions, the calculation can always be completed within a predetermined time, and the corresponding point position can be obtained with high accuracy for a feature point having a fast convergence. Further, it is possible to prevent an infinite loop when the repeated calculation does not converge.

画像入力手段10により入力される時系列的な画像に対しては、例えば、1番目の画像に対して特徴点・エッジ抽出手段12により特徴点の位置を求め、I1を1番目の画像、I2を2番目の画像として、上記の手順によりI2の対応する特徴点の位置を求める。次にI1を2番目の画像、I2を3番目の画像として、I1の特徴点の位置は上記で求めた特徴点とすることで、3番目の画像に対して対応する特徴点の位置を求める。以下、同様の手順を繰り返すことにより、時系列的な画像全体に渡って特徴点の位置を追跡することができる。   For the time-series image input by the image input means 10, for example, the position of the feature point is obtained by the feature point / edge extraction means 12 for the first image, and I1 is the first image, I2 As the second image, the position of the corresponding feature point of I2 is obtained by the above procedure. Next, assuming that I1 is the second image, I2 is the third image, and the position of the feature point of I1 is the feature point obtained above, the position of the corresponding feature point is obtained for the third image. . Thereafter, by repeating the same procedure, the position of the feature point can be tracked over the entire time-series image.

以上の手順により、特徴点追跡手段は以下に示す観測行列を生成する。   With the above procedure, the feature point tracking means generates the following observation matrix.

Figure 2006004122
Figure 2006004122

ここで、uij,vijはi番目の画像におけるj番目の特徴点の画像上での位置座標である。 Here, uij and vij are the position coordinates on the image of the j-th feature point in the i-th image.

座標計算手段16の詳細について図8を用いて説明する。(数6)に示した観測行列はm個の異なる視点から対象物を観測して得た画像上でのn個の特徴点の位置座標を列挙したものと考えることができる。このようにm個の異なる視点におけるn個の点の見え方から点の3次元座標と視点の位置姿勢を求める計算方法としては、いくつかの方法が存在する。これらの方法は、点を画像面に投影するモデル、例えば正射影モデルであるか、パースペクティブモデルであるかなどの相異により異なる計算方法を用いる。ここでは、例えば正射影モデルを用いた場合の例について説明する。   Details of the coordinate calculation means 16 will be described with reference to FIG. The observation matrix shown in (Equation 6) can be considered as an enumeration of the position coordinates of n feature points on an image obtained by observing an object from m different viewpoints. As described above, there are several methods for calculating the three-dimensional coordinates of a point and the position and orientation of the viewpoint from the appearance of n points at m different viewpoints. In these methods, different calculation methods are used depending on a model for projecting a point on an image plane, for example, whether it is an orthographic projection model or a perspective model. Here, for example, an example in which an orthographic projection model is used will be described.

まず、観測行列の各行についてその行の平均値を差し引く(s20)。具体的には、以下の式により計算を行う。   First, the average value of each row of the observation matrix is subtracted (s20). Specifically, the calculation is performed according to the following formula.

Figure 2006004122
Figure 2006004122

次に、上記で得られた行列を特異値分解して以下の形として、U行列とV行列を得る(s21)。なお、記号Tは行列の転置を表す。   Next, the matrix obtained above is subjected to singular value decomposition to obtain a U matrix and a V matrix as the following forms (s21). Note that the symbol T represents transposition of a matrix.

Figure 2006004122
Figure 2006004122

ここで、対角行列Sの対角要素は特異値の値の大きい順に並べられているものとする。 Here, the diagonal elements of the diagonal matrix S are arranged in descending order of the singular values.

次に、U行列の左3行列から得た2m行3列の行列U3から回転行列Rを計算する(s22)。具体的には、対角行列Sの左上3×3行列から得た部分行列をS3とする時、例えば以下の式によりRを計算する。   Next, a rotation matrix R is calculated from a 2m × 3 matrix U3 obtained from the left 3 matrix of the U matrix (s22). Specifically, when the submatrix obtained from the upper left 3 × 3 matrix of the diagonal matrix S is S3, R is calculated by the following equation, for example.

Figure 2006004122
Figure 2006004122

同様に、V行列の左3行列から得たn行3列の行列V3から形状行列Pを計算する(s23)。具体的には、前記部分行列S3を用いて例えば以下の式により計算する。   Similarly, the shape matrix P is calculated from the matrix V3 of n rows and 3 columns obtained from the left three matrices of the V matrix (s23). Specifically, for example, the following formula is used for calculation using the partial matrix S3.

Figure 2006004122
Figure 2006004122

次に回転行列Rを正規直交化する変換行列Aを求める(s24)。これは、Rの各行から作ったベクトルをriとする時、以下の連立方程式を満たす解として求めることができる。   Next, a transformation matrix A for orthonormalizing the rotation matrix R is obtained (s24). This can be obtained as a solution satisfying the following simultaneous equations, where ri is a vector created from each row of R.

Figure 2006004122
上記変換行列Aを右から掛けたものを回転行列、Aの逆行列をPの左から掛けたものを形状行列とすることにより(s25)、Rのi行とi+m行が第i番目の画像における視点の方向を規定する二つのベクトル座標となり、Pのj列がj番目の特徴点の3次元座標となる。また、視点の平行移動成分は、観測行列Mの各行の平均値として与えられる。
Figure 2006004122
By multiplying the transformation matrix A from the right by the rotation matrix and multiplying the inverse matrix of A by the left of P by the shape matrix (s25), the i-th and i + m rows of R are the i-th image. Are the two vector coordinates that define the direction of the viewpoint, and the j column of P is the three-dimensional coordinate of the j-th feature point. Further, the translation component of the viewpoint is given as an average value of each row of the observation matrix M.

線/面抽出・登録手段19の詳細について図9を用いて説明する。まず、特徴点群からデローニ三角形を生成する(s30)。ここで、デローニ三角形とは2次元空間上の点群を結んで空間を三角形に分割する時、三角形の最小角ができるだけ大きくなるような分割方法で三角形を構成するものである。数学的には、点群から構成されるボロノイ図の双対として与えられる。ここでは、座標計算に使用した任意の画像における特徴点の2次元位置に対してデローニ三角形を生成するものである。   Details of the line / surface extraction / registration means 19 will be described with reference to FIG. First, a Delaunay triangle is generated from the feature point group (s30). Here, the Delaunay triangle is a triangle formed by a dividing method in which the minimum angle of the triangle is as large as possible when the space is divided into triangles by connecting point groups in a two-dimensional space. Mathematically, it is given as a dual Voronoi diagram composed of point clouds. Here, a Delaunay triangle is generated for a two-dimensional position of a feature point in an arbitrary image used for coordinate calculation.

上記デローニ三角形を生成するのに用いた画像のエッジパターンを用いて、エッジで結ばれた特徴点のペアを求める(s31)。これは、例えばある特徴点から出発して直線状に伸びているエッジを辿って行き、他の特徴点に到達したなら、結ばれていると判定することにより求める。   A pair of feature points connected by edges is obtained using the edge pattern of the image used to generate the Delaunay triangle (s31). This is obtained, for example, by starting from a certain feature point, following an edge extending in a straight line, and determining that the other feature point is connected if another feature point is reached.

上記で求めたペアの間のエッジがデローニ三角形の辺と交差する部分に対して、デローニ三角形の辺がエッジと交差しないように修正する(s32)。例えば、図10(a)において、特徴点群40に対してデローニ三角形が点線41の様な形で生成されたとする。これに対して、特徴点同士を結ぶエッジの線が図10(b)の実線42のように得られたとする。この時、デローニ三角形の辺41aと41bとが、エッジの線42aと交差するので、41aと41bを例えば図10(c)に示す線41cとエッジ42aと重なる線に修正する。   For the portion where the edge between the pair obtained above intersects with the Delaunay triangle side, correction is made so that the Delaunay triangle side does not intersect the edge (s32). For example, in FIG. 10A, it is assumed that a Delaunay triangle is generated in a shape like a dotted line 41 for the feature point group 40. On the other hand, it is assumed that an edge line connecting feature points is obtained as shown by a solid line 42 in FIG. At this time, since the Delauna triangle sides 41a and 41b intersect the edge line 42a, 41a and 41b are corrected to, for example, a line overlapping the line 41c and the edge 42a shown in FIG.

以上の手順によって得られた三角形の面に関して、互いに隣接していて面の方向がほとんど同じもの同士を統合する(s33)。例えば、図10(c)において、三角形43a、43b、43c、43d、43eの面の向きがほとんど同じであるので統合する。他の面についても同様の処理を行うことにより、図10(d)に示すような結果となる。但し、上記の処理において、面が接する辺がエッジの線と重なる場合には、統合しない。   With respect to the triangular surfaces obtained by the above procedure, those that are adjacent to each other and have almost the same surface direction are integrated (s33). For example, in FIG. 10C, since the directions of the faces of the triangles 43a, 43b, 43c, 43d, and 43e are almost the same, they are integrated. By performing the same processing for the other surfaces, the result shown in FIG. 10D is obtained. However, in the above processing, when the side where the surface is in contact with the edge line overlaps, the integration is not performed.

上記で得た面の色を求める(s34)。これは、画像上において面に対応する領域の画素の色の平均値として求める。物体表面上に描かれた図形などの境界は多くの場合エッジとして抽出され、境界の頂点などは特徴点として抽出される。従って、上記の処理により物体表面に描かれた図形なども形状データとして生成される。   The color of the surface obtained above is obtained (s34). This is obtained as an average value of the colors of the pixels in the region corresponding to the surface on the image. In many cases, a boundary such as a graphic drawn on the object surface is extracted as an edge, and a vertex of the boundary is extracted as a feature point. Therefore, a figure drawn on the object surface by the above processing is also generated as shape data.

以上の手順により、生成した点と線と面により構成された形状データをCADデータに統合する(s35)。この統合処理の詳細手順を図10に示す。新たに生成された形状データの点(特徴点)に対応するCADデータ内の点を抽出する(s40)。これは、例えば特徴点・エッジ抽出手段12が特徴点を抽出した際に、特徴点の座標リスト15aに対して、個々の特徴点を識別する識別番号を付加しておく。そして、CADデータに登録する際に点のデータと合わせて識別番号も記憶しておく。次に、再び特徴点の抽出を行った際に、前回作成した特徴点の座標リスト15aを参照し、座標がほとんど同じ特徴点については、前回と同一の識別番号を付加するようにする。これにより、新たに生成した形状データにおける点の識別番号と同一の識別番号を持つ点をCADデータから探索することにより対応する点の抽出を行うことができる。   Through the above procedure, the shape data constituted by the generated points, lines, and surfaces is integrated into CAD data (s35). The detailed procedure of this integration process is shown in FIG. A point in the CAD data corresponding to the point (feature point) of the newly generated shape data is extracted (s40). For example, when the feature point / edge extracting unit 12 extracts a feature point, an identification number for identifying each feature point is added to the coordinate list 15a of the feature point. Then, when registering in the CAD data, the identification number is stored together with the point data. Next, when feature points are extracted again, the feature point coordinate list 15a created last time is referred to, and feature points having almost the same coordinates are assigned the same identification numbers as the previous time. As a result, the corresponding point can be extracted by searching the CAD data for a point having the same identification number as the point identification number in the newly generated shape data.

新たに生成された形状データの点とCADデータより抽出した対応点の座標が一致するように変換する座標変換を求める(s41)。これは、点の座標に関する連立方程式を解くことにより求められる。新たに生成された啓上データの全ての点の座標を上記の座標変換により変換した後にCADデータに登録する(s42)。この時、新たな点の中でCADデータ内の点と対応のあるものは登録しない。点データの統合により生じる線や面のデータの修正処理を行う(s43)。これは、例えば新たに生成された形状データの中の線の端点や面の頂点の点がCADデータ内の点と対応のあるものであれば、その点への接続に置き換えるなどの処理を行うものである。   A coordinate conversion is performed for conversion so that the newly generated shape data point matches the coordinates of the corresponding point extracted from the CAD data (s41). This is obtained by solving simultaneous equations concerning the coordinates of the points. The coordinates of all points of the newly generated enlightenment data are converted by the above coordinate conversion and then registered in the CAD data (s42). At this time, new points that correspond to the points in the CAD data are not registered. Correction processing is performed on data of lines and surfaces generated by integration of point data (s43). For example, if the end point of the line or the vertex point of the surface in the newly generated shape data corresponds to a point in the CAD data, processing such as replacement to the point is performed. Is.

形状データの統合処理の例を図12に示す。まず、カメラ位置201における画像に対して特徴点・エッジ抽出手段12により特徴点40a、40b、40c、40dの抽出が行われたとする。これらは、カメラ位置202、203においても視野の中に入っており、特徴点追跡手段13によって追跡され、それぞれ対応する画像上での位置が求められる。これらの位置データから特徴点40a、40b、40c、40dの3次元座標が計算され形状データとしてCADデータに登録されたとする。次に、カメラ位置204における画像に対して特徴点40c、40d、40e、40fが抽出され、続くカメラ位置205、206における画像に対して追跡処理が行われ、これらの特徴点の3次元座標が計算されたとする。この時、両者の間で共通する特徴点40c、40dの座標は必ずしも同一の3次元座標とはならない。これは、画面上での特徴点の位置関係から3次元座標を復元する計算処理において、カメラと特徴点の相対的な位置関係のみが求まるためである。そこで、カメラ位置201、202、203から計算した特徴点40c、40dの座標とカメラ位置204、205、206から計算した40c、40dの座標が重なるような座標変換を求め、これにより特徴点40e、40fの座標を変換して統合することにより、正しい形状データを得ることができる。   An example of shape data integration processing is shown in FIG. First, it is assumed that the feature points 40a, 40b, 40c, and 40d are extracted from the image at the camera position 201 by the feature point / edge extraction unit 12. These are also in the field of view at the camera positions 202 and 203, and are tracked by the feature point tracking means 13, and the positions on the corresponding images are obtained. Assume that the three-dimensional coordinates of the feature points 40a, 40b, 40c, and 40d are calculated from these position data and registered in the CAD data as shape data. Next, feature points 40c, 40d, 40e, and 40f are extracted from the image at the camera position 204, tracking processing is performed on the subsequent images at the camera positions 205 and 206, and the three-dimensional coordinates of these feature points are obtained. Suppose that it is calculated. At this time, the coordinates of the feature points 40c and 40d that are common between the two are not necessarily the same three-dimensional coordinates. This is because only the relative positional relationship between the camera and the feature point is obtained in the calculation process for restoring the three-dimensional coordinates from the positional relationship between the feature points on the screen. Therefore, coordinate conversion is performed so that the coordinates of the feature points 40c and 40d calculated from the camera positions 201, 202, and 203 overlap with the coordinates of the feature points 40c and 40d calculated from the camera positions 204, 205, and 206, thereby obtaining the feature points 40e, Correct shape data can be obtained by converting and integrating the coordinates of 40f.

次に、データ入出力手段21の詳細について図13を用いて説明する。データ入出力手段には、例えばアドレスを指定するアドレス信号線21a、データをセットまたは読み出すためのデータ線21b、画像処理装置1へのアクセスを指定するチップセレクト制御線21c、データの入力または読み出しを指定するリードライト制御線21d、データの書込みまたは読み出しのタイミングを指定するストローブ制御線21e、画像処理装置1に接続された制御装置に割り込み処理を要求する割込み制御線21fなどが備えられている。   Next, details of the data input / output means 21 will be described with reference to FIG. The data input / output means includes, for example, an address signal line 21a for designating an address, a data line 21b for setting or reading data, a chip select control line 21c for designating access to the image processing apparatus 1, and input or reading of data. A read / write control line 21d to be designated, a strobe control line 21e to designate the timing of data writing or reading, an interrupt control line 21f to request interrupt processing from the control device connected to the image processing apparatus 1, and the like are provided.

これらの信号線を用いて、例えば図14に示すような形の形状データの入出力を行う。図14において、44は形状を構成する点の座標データであり、45は線のデータであり、46は面のデータであり、47は物体のデータである。線のデータ45は二つ一組の数値データであり、それぞれ始点と終点の点の番号を表す。面のデータ46は任意個の組からなる数値データであり、それぞれ線の番号を表す。物体のデータ47は任意個の組からなる数値データであり、それぞれ面の番号を表す。例えば図14に示す例は、図15に示すような一つの面P1、四つの線L1、L2、L3、L4、四つの点(x1,y1,z1)、(x2,y2,z2)、(x3,y3,z3)、(x4,y4,z4)からなる物体の形状データを表すものである。   Using these signal lines, for example, shape data having a shape as shown in FIG. 14 is input / output. In FIG. 14, 44 is the coordinate data of the points constituting the shape, 45 is the line data, 46 is the surface data, and 47 is the object data. The line data 45 is a set of numerical data, each representing the number of the start point and the end point. The surface data 46 is numerical data composed of an arbitrary number of sets, each representing a line number. The object data 47 is numerical data composed of an arbitrary number of sets, each representing a surface number. For example, the example shown in FIG. 14 has one plane P1, four lines L1, L2, L3, L4, four points (x1, y1, z1), (x2, y2, z2), ( x3, y3, z3) and (x4, y4, z4) represent the shape data of the object.

次に、物体認識手段23と空間探索手段24の詳細について図16を用いて説明する。   Next, details of the object recognition means 23 and the space search means 24 will be described with reference to FIG.

物体認識手段23は、入出力手段21より入力され、記憶手段22に一時的に記憶された形状データと一致する形状部分をCADデータ20の中から探索し、その位置姿勢を求めるものである。この時行われる探索は、CADデータ20の全体に渡るものであっても良いが、例えば現在のカメラ位置姿勢を指定して現在のカメラから見える範囲の中から探索するものであっても良い。後者のように探索範囲を限定することにより、より短い時間で探索処理を行うことができる。例えば図17(a)において、例えば画像処理装置1が組込まれた作業機械に装着されたカメラが52に示す位置姿勢にあり、前記作業機械がこのカメラから見える範囲の物体51a,51b、51cに対して作業を行っている場合、この中のある特定の物体を探す目的においては、CADデータの全空間51を探索する必要はなく、カメラ位置姿勢52から見える範囲の空間52aの中だけを探索すれば良い。これによって、現在の作業には関係のない51dや51eの様な物体を探索する必要がなくなり、探索時間を短縮することができる。   The object recognizing means 23 searches the CAD data 20 for a shape portion that matches the shape data input from the input / output means 21 and temporarily stored in the storage means 22, and obtains its position and orientation. The search performed at this time may be performed over the entire CAD data 20, but for example, the current camera position and orientation may be specified and the search may be performed from a range visible from the current camera. By limiting the search range as in the latter case, the search process can be performed in a shorter time. For example, in FIG. 17A, for example, the camera mounted on the work machine in which the image processing apparatus 1 is incorporated is in the position and orientation shown by 52, and the work machine is placed on the objects 51a, 51b, 51c in the range visible from this camera. When working on the object, it is not necessary to search the entire CAD data space 51 for the purpose of searching for a specific object, but only the space 52a within the range visible from the camera position and orientation 52 is searched. Just do it. As a result, there is no need to search for an object such as 51d or 51e that is not related to the current work, and the search time can be shortened.

図16における手順s50はこのような探索範囲の限定を行うための処理であり、カメラ視点などによって指定される空間に含まれる形状データを抽出するものである。   Step s50 in FIG. 16 is processing for limiting the search range as described above, and extracts shape data included in a space designated by a camera viewpoint or the like.

この抽出処理は、例えば図17(b)に示すような空間探索木を用いることによって高速に行うことができる。図17(b)に示す空間探索木の際下段のノード55は、図17(a)の空間51を分割した部分空間に対応し、それぞれ対応する数字で示した点線で囲まれた部分空間に対応する。2段目のノード54は、前記部分空間の隣接するもの同士を統合した空間に対応するものであり、最上位のノード53は、全空間51に対応する。   This extraction process can be performed at high speed by using, for example, a spatial search tree as shown in FIG. The lower node 55 at the time of the space search tree shown in FIG. 17B corresponds to a partial space obtained by dividing the space 51 in FIG. 17A, and is in a partial space surrounded by a dotted line indicated by a corresponding number. Correspond. The node 54 in the second stage corresponds to a space obtained by integrating adjacent ones of the partial spaces, and the uppermost node 53 corresponds to the entire space 51.

この空間探索木を用いて、例えば図17(a)における探索範囲52aに含まれる物体は以下の手順で抽出される。まず、空間探索木の最上位ノードから出発して、探索範囲52aと重なる部分空間に対応したノードのみを残して、順次下位のノードに探索を進めていく。例えば図17の例では、2段目のノードにおいてノード4に対応する空間(図17(a)で11、12、15、16で示す空間)は、52aと重ならないので、ノード4より下につながっているノードに関する探索は行わない。ノード1、2、3についてはその下につながる第1段のノードについて同様に重なる部分があるものだけを残す。これにより、1、2、5、6、3、7、9、10、13のノードが残されることになる。そして最後に、この残されたノードに対応する部分空間に含まれる物体をもって、空間52aに含まれる物体とすることができる。正確には、物体は上記で求めた物体の中に空間52aに含まれない物体も存在し得るが、この数は空間の分割数を適切に設定することにより十分小さくすることができる。   Using this spatial search tree, for example, an object included in the search range 52a in FIG. 17A is extracted by the following procedure. First, starting from the highest node in the space search tree, the search is sequentially advanced to lower nodes, leaving only the nodes corresponding to the partial space overlapping the search range 52a. For example, in the example of FIG. 17, the space corresponding to the node 4 (spaces indicated by 11, 12, 15 and 16 in FIG. 17A) in the second stage node does not overlap with 52 a, so It does not search for connected nodes. As for the nodes 1, 2, and 3, only the first level nodes connected therebelow leave only those having overlapping portions. As a result, 1, 2, 5, 6, 3, 7, 9, 10, and 13 nodes are left. Finally, an object included in the partial space corresponding to the remaining node can be used as an object included in the space 52a. Precisely, there may be objects that are not included in the space 52a among the objects obtained above, but this number can be made sufficiently small by appropriately setting the division number of the space.

次に、記憶手段22に記憶されている形状データ(モデル)とs50で抽出された形状データの形状表面に点群を設定する(s51)。これは、例えば図18に示すように、形状データの表面に一様に分布するような点群56を設定するものである。   Next, a point cloud is set on the shape data (model) stored in the storage means 22 and the shape surface of the shape data extracted in s50 (s51). For example, as shown in FIG. 18, a point group 56 that is uniformly distributed on the surface of the shape data is set.

次に、形状データの点群にモデルの点群を様々な位置姿勢で重ね合せてみて、最も良く重なる位置姿勢を求める(s52)。この重ね合せの探索手順としては種々提案されている手法、例えばA. Johnson and M. Hebert, "Using spin images for efficient object recognition in cluttered 3D scenes," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 21, No. 5, May, 1999, pp. 433 - 449などを用いる。   Next, the model point cloud is superimposed on the shape data point group at various positions and orientations to obtain the best position and orientation (s52). Various methods have been proposed for this superposition search procedure, such as A. Johnson and M. Hebert, "Using spin images for efficient object recognition in cluttered 3D scenes," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 21 , No. 5, May, 1999, pp. 433-449.

次に、上記の結果得られた位置姿勢における形状データとモデルの点群の一致度が所定の値より大きければ(s53)、上記の位置姿勢データを出力し(s54)、そうでなければ物体が見つからなかった旨を出力する(s55)。次に、画像処理装置1の全体的な動作の流れについて図19を用いて説明する。   Next, if the degree of coincidence between the shape data in the position / orientation obtained as a result and the model point cloud is larger than a predetermined value (s53), the position / orientation data is output (s54); The fact that no is found is output (s55). Next, the overall operation flow of the image processing apparatus 1 will be described with reference to FIG.

図19において横方向の流れは、左から右へ時間の経過を表し、縦方向の流れは主にデータの流れを表す。また、図中の四角は主にそれらが並べられた各行の左端に示される処理が行われるタイミングを表す。   In FIG. 19, the horizontal flow represents the passage of time from left to right, and the vertical flow mainly represents the data flow. Also, the squares in the figure mainly represent the timing at which the processing shown at the left end of each row in which they are arranged.

まず、カメラが捉えた画像は画像入力手段10により60で示すタイミングで逐次画像処理装置に取り込まれる。これらの画像データを例えば60aに示すようなセットとした時に、その先頭の画像が取り込まれたタイミングで特徴点・エッジ抽出処理61が実行される。その結果得られた特徴点の画像上での座標データは、観測行列63の先頭行となる。画像のセット60aの2番目以後の画像については、特徴点の追跡処理62が実行され、その結果得られる各画像における特徴点の座標データは、観測行列63の2番目以後の行となる。   First, images captured by the camera are sequentially taken into the image processing apparatus at the timing indicated by 60 by the image input means 10. For example, when these image data are set as shown in 60a, the feature point / edge extraction processing 61 is executed at the timing when the head image is captured. The coordinate data on the image of the feature points obtained as a result is the first row of the observation matrix 63. The feature point tracking process 62 is executed for the second and subsequent images in the image set 60 a, and the coordinate data of the feature points in each image obtained as a result is the second and subsequent rows of the observation matrix 63.

以上の手順で画像のセット60aの全ての画像に関する特徴点追跡の処理が終了した段階で、生成された観測行列から特徴点の3次元座標とカメラの位置姿勢を計算する座標計算処理64が実行される。そして、特徴点の3次元座標が求まった段階で線/面の抽出と登録処理65が実行され、新たな形状データがCADデータ66に登録される。一方、入出力手段21を介して物体の探索指令が入力されると(68)、その時点から物体の認識処理の実行が開始され(67)、認識処理が終了した段階で結果である物体の位置姿勢データが出力される(69)。   When the feature point tracking processing for all the images in the image set 60a is completed by the above procedure, the coordinate calculation processing 64 for calculating the three-dimensional coordinates of the feature points and the position and orientation of the camera from the generated observation matrix is executed. Is done. Then, when the three-dimensional coordinates of the feature points are obtained, line / surface extraction and registration processing 65 is executed, and new shape data is registered in the CAD data 66. On the other hand, when an object search command is input via the input / output means 21 (68), execution of the object recognition process is started from that point (67), and when the recognition process is completed, Position and orientation data is output (69).

一般に特徴点の抽出処理や、特徴点の追跡処理に比べて座標計算処理や線/面抽出登録処理は非常に長い時間を必要とする。このため、画像取込から形状データ登録までの全ての処理が終了してから次の画像の取込を開始すると、最初の画像を取り込んでから次の画像を取り込むまでの間の時間が長くなる。すると、前の画像と後の画像の間での特徴点の対応関係を見つけることが非常に難しくなる。   In general, the coordinate calculation process and the line / surface extraction / registration process require much longer time than the feature point extraction process and the feature point tracking process. For this reason, if the next image acquisition is started after all the processes from image acquisition to shape data registration are completed, the time from the acquisition of the first image to the acquisition of the next image becomes longer. . Then, it becomes very difficult to find the correspondence of feature points between the previous image and the subsequent image.

これに対して、画像をセットとしてまとめて、そのセットの長さを座標計算処理や線/面抽出登録処理の長さより長く取って、図19の様なパイプライン処理とすることにより、入力される画像の時間間隔を短く取ることができ、簡単な追跡処理によって特徴点の対応関係を求めることができる。また、特徴点の3次元座標計算に際しては、多くの画像データに関する情報を使うことができるので計算結果の精度を高めることができる。   On the other hand, images are collected as a set, and the length of the set is made longer than the length of the coordinate calculation process or line / surface extraction registration process, and the pipeline process as shown in FIG. The time interval between images can be shortened, and the correspondence between feature points can be obtained by a simple tracking process. In addition, when calculating the three-dimensional coordinates of feature points, information relating to a large amount of image data can be used, so that the accuracy of calculation results can be increased.

次に、上述した画像処理装置を搭載した各機器について、詳細に説明する。図20に、画像処理装置をマニピュレータ型ロボットに適用したときの、ブロック図を示す。ロボット70は、複数の関節を備えその先端に物体を把持する把持機構を備えている。把持機構の近くにカメラ71を設け、これにより取り込んだ画像を本発明による画像処理装置1に入力する。そして、画像処理装置1により求めた物体の形状データをロボットの制御手段72で利用する。   Next, each device equipped with the above-described image processing apparatus will be described in detail. FIG. 20 shows a block diagram when the image processing apparatus is applied to a manipulator type robot. The robot 70 includes a plurality of joints and a gripping mechanism that grips an object at the tip. A camera 71 is provided near the gripping mechanism, and an image captured thereby is input to the image processing apparatus 1 according to the present invention. Then, the shape data of the object obtained by the image processing apparatus 1 is used by the control means 72 of the robot.

例えば、今ロボットが把持している物体75を物体73に設けられた穴74に挿入する作業を行うとする。まず、ロボットの把持機構を物体73の周りで動かし、カメラ71から物体73を様々な方向から見た画像を得る。これらの画像を画像処理装置1で処理することにより、物体73の3次元形状データが生成される。ここで、制御手段72が物体73の形状モデルを画像処理装置1に入力し、この物体の位置姿勢を求めるように指示する。すると、画像処理装置1は、内蔵する物体認識手段により物体73を探索し、その位置姿勢を求めて制御手段72に出力する。制御手段72は、この位置姿勢データをもとに把持機構の位置姿勢を制御することにより、物体75を穴74に正しく挿入することができる。   For example, it is assumed that an operation of inserting the object 75 currently held by the robot into a hole 74 provided in the object 73 is performed. First, the robot's gripping mechanism is moved around the object 73, and images obtained by viewing the object 73 from various directions are obtained from the camera 71. By processing these images with the image processing apparatus 1, three-dimensional shape data of the object 73 is generated. Here, the control means 72 inputs the shape model of the object 73 to the image processing apparatus 1 and instructs to obtain the position and orientation of the object. Then, the image processing apparatus 1 searches for the object 73 by the built-in object recognition unit, obtains its position and orientation, and outputs it to the control unit 72. The control means 72 can correctly insert the object 75 into the hole 74 by controlling the position and orientation of the gripping mechanism based on the position and orientation data.

図21に、画像処理装置を移動機構に搭載したときの模式図を示す。。ロボット80は、移動機構83とカメラ81を備え、カメラ81で取り込んだ画像を本発明による画像処理装置1に入力する。そして、画像処理装置1により求めた物体の形状データをロボットの制御手段82で利用する。例えば、今ロボットが移動機構83を用いて家の中を移動しているとする。カメラ81から取り込まれたロボットの周囲の画像を画像処理装置1で処理することにより、ロボットの周囲の障害物の3次元形状データとカメラ81の位置姿勢が計算される。ここで、制御手段82は障害物の形状データとカメラの位置姿勢データを画像処理装置1から取り出し、周囲の障害物に対する現在のロボット自身の位置関係を計算する。これを用いることにより、ロボット80は周囲の障害物にぶつかることなく家の中を自由に移動することが可能となる。   FIG. 21 is a schematic diagram when the image processing apparatus is mounted on the moving mechanism. . The robot 80 includes a moving mechanism 83 and a camera 81, and inputs an image captured by the camera 81 to the image processing apparatus 1 according to the present invention. Then, the object shape data obtained by the image processing apparatus 1 is used by the robot control means 82. For example, it is assumed that the robot is currently moving in the house using the moving mechanism 83. By processing the image around the robot captured from the camera 81 by the image processing apparatus 1, the three-dimensional shape data of the obstacle around the robot and the position and orientation of the camera 81 are calculated. Here, the control means 82 takes out the obstacle shape data and the camera position / orientation data from the image processing apparatus 1, and calculates the current positional relationship of the robot itself with respect to surrounding obstacles. By using this, the robot 80 can move freely in the house without hitting surrounding obstacles.

図22に、画像処理装置を搭載した車両の模式図を示す。車両90は、カメラ91、92と、車両誘導装置93と、表示装置94と、本発明による画像処理装置1を備え、カメラ91または92で取り込んだ画像を本発明による画像処理装置1に入力する。そして、画像処理装置1により求めた物体の形状データを車両誘導装置93で利用する。   FIG. 22 shows a schematic diagram of a vehicle equipped with an image processing device. The vehicle 90 includes cameras 91 and 92, a vehicle guidance device 93, a display device 94, and the image processing device 1 according to the present invention, and inputs an image captured by the camera 91 or 92 to the image processing device 1 according to the present invention. . Then, the vehicle guidance device 93 uses the object shape data obtained by the image processing device 1.

例えば、今車両90が道路を走行中であるとすると、カメラ91は車両90の前方を走行する別な車両の画像を捉え、画像処理装置1に入力する。すると、画像処理装置1は先行する車両の形状とカメラ91の位置姿勢を計算する。車両誘導装置93は、画像処理装置1から上記の形状データとカメラの位置姿勢データを読み出し、前記カメラの位置姿勢データを用いて前記先行車両の形状の自車に対する相対的な位置関係を計算する。そして、図23に示すように、自車94aと先行車両94bの位置関係を表示装置94に表示する。   For example, assuming that the vehicle 90 is currently traveling on a road, the camera 91 captures an image of another vehicle traveling in front of the vehicle 90 and inputs the image to the image processing apparatus 1. Then, the image processing device 1 calculates the shape of the preceding vehicle and the position and orientation of the camera 91. The vehicle guidance device 93 reads the shape data and the camera position / orientation data from the image processing device 1 and calculates the relative positional relationship of the shape of the preceding vehicle with respect to the own vehicle using the camera position / orientation data. . Then, as shown in FIG. 23, the positional relationship between the host vehicle 94a and the preceding vehicle 94b is displayed on the display device 94.

例えば車両90がバックで車庫に入ろうとしているとすると、カメラ92は車両90の後方の障害物の画像を捉え、画像処理装置1に入力する。すると、画像処理装置1は後方の障害物の形状データとカメラ92に位置姿勢を計算する。車両誘導装置93は、画像処理装置1から上記の形状データとカメラの位置姿勢データを読み出し、前記カメラの位置姿勢データを用いて前記後方障害物の形状の自車に対する相対的な位置関係を計算する。そして、図23に示すように、自車94aと後方障害物94cの位置関係を表示装置94に表示する。図23の様な表示は、車両90の運転者に対して、道路走行中あるいは車庫入れ中の運転の助けとなるものである。   For example, if the vehicle 90 is about to enter the garage in the back, the camera 92 captures an image of an obstacle behind the vehicle 90 and inputs it to the image processing apparatus 1. Then, the image processing apparatus 1 calculates the position and orientation of the rear obstacle shape data and the camera 92. The vehicle guidance device 93 reads the shape data and the camera position / orientation data from the image processing device 1 and calculates the relative positional relationship of the shape of the rear obstacle with respect to the vehicle using the camera position / orientation data. To do. Then, as shown in FIG. 23, the positional relationship between the host vehicle 94a and the rear obstacle 94c is displayed on the display device 94. The display as shown in FIG. 23 helps the driver of the vehicle 90 during driving on the road or in the garage.

上記各実施例では、画像処理装置1の中の各種演算処理は、一般的なデジタル回路で実行している。しかしながら、デジタル回路として例えばLSIのような半導体チップを用いれば、コンパクトな画像処理装置になる。また、上記各種演算処理は、コンピュータで使用するコンピュータ・プログラムであってもよい。その場合、画像処理装置1は、コンピュータである。また、特徴点は画像における線分や模様などでも良い。   In the above embodiments, various arithmetic processes in the image processing apparatus 1 are executed by a general digital circuit. However, if a semiconductor chip such as an LSI is used as the digital circuit, a compact image processing apparatus is obtained. The various arithmetic processes may be a computer program used by a computer. In that case, the image processing apparatus 1 is a computer. The feature points may be line segments or patterns in the image.

本発明に係る画像処理装置の一実施例のブロック図である。1 is a block diagram of an embodiment of an image processing apparatus according to the present invention. 図1に示した画像処理装置の詳細ブロック図である。It is a detailed block diagram of the image processing apparatus shown in FIG. 図2に示した画像入力手段の模式図である。It is a schematic diagram of the image input means shown in FIG. 図2に示した画像入力手段の他の実施例の模式図である。It is a schematic diagram of the other Example of the image input means shown in FIG. 図2に示した画像入力手段のさらに他の実施例の模式図である。It is a schematic diagram of the further another Example of the image input means shown in FIG. 図2に示した特徴点およびエッジ抽出手段の模式図である。FIG. 3 is a schematic diagram of feature points and edge extraction means shown in FIG. 2. 図2に示した特徴点追跡手段の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the feature point tracking means shown in FIG. 図2に示した座標計算手段の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the coordinate calculation means shown in FIG. 図2に示した線または面を抽出および登録する手段の動作を説明するフローチャートであるIt is a flowchart explaining operation | movement of the means to extract and register the line or surface shown in FIG. 線または面の抽出方法を説明する図である。It is a figure explaining the extraction method of a line or a surface. 形状データをCADデータに登録する方法を説明するフローチャートである。It is a flowchart explaining the method of registering shape data into CAD data. 形状データをCADデータに登録する方法を説明する図である。It is a figure explaining the method of registering shape data to CAD data. 第1ないし第4の計算手段が備える入出力手段の一実施例のブロック図である。It is a block diagram of one Example of the input / output means with which the 1st thru | or 4th calculation means is provided. 図13に示した入出力手段から入出力される形状データを説明する図である。It is a figure explaining the shape data input / output from the input / output means shown in FIG. 形状データの内容を説明する図である。It is a figure explaining the content of shape data. 物体探索および物体認識手段の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of an object search and an object recognition means. 物体および空間探索を説明する図である。It is a figure explaining an object and space search. 形状表面の点群を説明する図である。It is a figure explaining the point group of a shape surface. 画像処理装置の動作を説明するタイムチャートである。It is a time chart explaining operation | movement of an image processing apparatus. 本発明に係るマニピュレータ型のロボットの一実施例のブロック図である。It is a block diagram of one Example of the manipulator type robot which concerns on this invention. 本発明に係る移動機構の一実施例の模式図である。It is a schematic diagram of one Example of the moving mechanism which concerns on this invention. 本発明に係る車両誘導装置の一実施例の模式図である。It is a mimetic diagram of one example of a vehicle guidance device concerning the present invention. 図22に示した車両誘導装置に用いる表示装置の表示画面例を示す図である。It is a figure which shows the example of a display screen of the display apparatus used for the vehicle guidance apparatus shown in FIG.

符号の説明Explanation of symbols

1…画像処理装置、2…カメラ、3…制御装置、10…画像入力手段、11…画像記憶手段、12…特徴点・エッジ抽出手段、13…特徴点追跡手段、14…観測行列記憶手段、15…特徴点・エッジマップ記憶手段、16…座標計算手段、17…3次元座標データ記憶手段、18…カメラ位置姿勢記憶手段、19…線/面抽出・登録手段、20…CADデータ記憶手段、21…入出力手段、22…物体モデル記憶手段、23…物体認識手段、24…空間探索手段。
DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 2 ... Camera, 3 ... Control apparatus, 10 ... Image input means, 11 ... Image storage means, 12 ... Feature point / edge extraction means, 13 ... Feature point tracking means, 14 ... Observation matrix storage means, DESCRIPTION OF SYMBOLS 15 ... Feature point / edge map storage means, 16 ... Coordinate calculation means, 17 ... Three-dimensional coordinate data storage means, 18 ... Camera position / posture storage means, 19 ... Line / surface extraction / registration means, 20 ... CAD data storage means, 21: I / O means, 22: Object model storage means, 23 ... Object recognition means, 24 ... Space search means.

Claims (27)

画像入力手段と、この画像入力手段から入力した画像についてその特徴的な部分の位置関係の変化を抽出する第1の計算手段と、入力画像の位置関係の変化から特徴的な部分の三次元位置を計算する第2の計算手段と、この第2の計算手段が計算した特徴的な部分の三次元位置を用いて画像内に表示される物体の三次元形状データを計算する第3の計算手段とを備えたことを特徴とする画像処理装置。   An image input means; a first calculation means for extracting a change in the positional relationship of the characteristic part of the image input from the image input means; and a three-dimensional position of the characteristic part from the change in the positional relationship of the input image And a third calculation means for calculating the three-dimensional shape data of the object displayed in the image using the three-dimensional position of the characteristic part calculated by the second calculation means. An image processing apparatus comprising: 三次元形状を記憶する記憶手段と、前記第3の計算手段が計算した物体の三次元形状データと予め前記記憶手段に記憶された三次元形状データとを比較して、記憶された三次元形状データに類似する形状を有する物体の位置と姿勢を求める第4の計算手段を備えたことを特徴とする請求項1に記載の画像処理装置。   A storage means for storing a three-dimensional shape, a three-dimensional shape stored by comparing the three-dimensional shape data of the object calculated by the third calculation means with the three-dimensional shape data stored in the storage means in advance. The image processing apparatus according to claim 1, further comprising a fourth calculation unit that obtains the position and orientation of an object having a shape similar to data. 前記画像入力手段は、アナログ入力信号またはデジタル入力信号をデジタル画像データに変換する変換手段を有することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image input unit includes a conversion unit that converts an analog input signal or a digital input signal into digital image data. 前記画像入力手段は受光素子を有し、この受光素子が取り込んだ信号を画像データに変換する手段を備えたことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image input unit includes a light receiving element, and includes a unit that converts a signal captured by the light receiving element into image data. 前記第3の計算手段は、物体を表す点の座標値と、線分を構成する始点および終点の番号と、面を構成する線の番号とを用いて三次元形状データを計算することを特徴とする請求項1に記載の画像処理装置。   The third calculation means calculates the three-dimensional shape data using the coordinate values of the points representing the object, the numbers of the start and end points constituting the line segment, and the numbers of the lines constituting the surface. The image processing apparatus according to claim 1. 入力された画像に対して予め基準座標系を設定し、この基準座標系における物体または視点の位置を3個のパラメータで、物体の姿勢または視点を3個のパラメータでそれぞれ表示し、前記第1ないし第3の計算手段はこれらのパラメータを用いて物体の三次元形状データを計算することを特徴とする請求項1に記載の画像処理装置。   A reference coordinate system is set in advance for the input image, the position of the object or viewpoint in the reference coordinate system is displayed with three parameters, and the posture or viewpoint of the object is displayed with three parameters. The image processing apparatus according to claim 1, wherein the third calculation means calculates three-dimensional shape data of the object using these parameters. 前記画像入力手段はアドレス信号とデータ信号と制御信号とを入力し、前記第1ないし第3の計算手段の少なくともいずれかは、前記画像入力手段から入力された画像のデータあるいはレジスタの内容を読み出すときは、前記アドレス信号に該当するアドレスを与えた状態で制御信号を出力することを特徴とする請求項1に記載の画像処理装置。   The image input means inputs an address signal, a data signal, and a control signal, and at least one of the first to third calculation means reads image data input from the image input means or register contents. The image processing apparatus according to claim 1, wherein a control signal is output in a state where an address corresponding to the address signal is given. 前記第1の計算手段は、画像入力手段が入力した画像から画像の特徴的な部分を抽出する特徴部分抽出手段と、特徴的な部分の位置の変化を追跡する特徴部分追跡手段とを備えることを特徴とする請求項1に記載の画像処理装置。   The first calculation unit includes a feature part extraction unit that extracts a characteristic part of an image from an image input by the image input unit, and a feature part tracking unit that tracks a change in the position of the characteristic part. The image processing apparatus according to claim 1. 前記第3の計算手段は、前記第2の計算手段が計算した点から複数の線分を演算し、この複数の線分が構成する面を計算することを特徴とする請求項1に記載の画像処理装置。   The said 3rd calculation means calculates a some line segment from the point which the said 2nd calculation means calculated, and calculates the surface which this some line segment comprises. Image processing device. 前記第3の計算手段は、入力画像に表示される物体について求められた輪郭を構成する複数の線分を、その端点で接続して輪郭線を形成することを特徴とする請求項1に記載の画像処理装置。   The said 3rd calculation means connects the some line segment which comprises the outline calculated | required about the object displayed on an input image by the end point, and forms an outline. Image processing apparatus. 前記第3の計算手段は、前記第2の計算手段が計算した特徴的部分における隣接する点同士を結んで線分を形成するとともにこの線分が構成する面を計算し、線分と入力画像に表示される物体の輪郭線とが交差する場合には線分と輪郭線が交差しないように線分と計算した面を修正することを特徴とする請求項1に記載の画像処理装置。   The third calculation unit connects adjacent points in the characteristic portion calculated by the second calculation unit to form a line segment and calculates a surface formed by the line segment. The image processing apparatus according to claim 1, wherein when the contour line of the object displayed on the screen intersects, the line segment and the calculated surface are corrected so that the line segment and the contour line do not intersect. 前記記憶手段に既に計算した形状データを記憶し、前記第2の計算手段が新たに座標計算した特徴部分と前記記憶手段に記憶されている形状データの部分の対応関係を用いて新たに座標計算した特徴部分を既に計算した形状データに統合する統合手段を設けたことを特徴とする請求項2に記載の画像処理手段。   The shape data already calculated is stored in the storage means, and a new coordinate calculation is performed using the correspondence between the feature portion newly calculated by the second calculation means and the shape data portion stored in the storage means. The image processing means according to claim 2, further comprising an integration means for integrating the obtained characteristic portion with the already calculated shape data. 前記第4の計算手段は、記憶された三次元形状データに類似する形状を有する物体の位置と姿勢を求めるときに記憶された三次元形状データの一部を用いて類似する形状を有する物体の位置と姿勢とを求めるよう限定する手段を有することを特徴とする請求項2に記載の画像処理装置。   The fourth calculating means uses a part of the stored 3D shape data to determine the position and orientation of the object having a shape similar to the stored 3D shape data. 3. The image processing apparatus according to claim 2, further comprising means for limiting the position and orientation to be obtained. 前記記憶手段に記憶された三次元形状データと物体の形状とをともに点群で表示し、前記第4の計算手段は、記憶された三次元形状データと物体の形状における点群の一致度を比較する比較手段を有することを特徴とする請求項2に記載の画像処理装置。   The three-dimensional shape data stored in the storage means and the shape of the object are both displayed as a point group, and the fourth calculation means indicates the degree of coincidence of the point group in the stored three-dimensional shape data and the shape of the object. The image processing apparatus according to claim 2, further comprising comparison means for comparing. 前記比較手段は、点群の一致度が所定の値より小さい場合には、前記記憶手段に記憶された三次元形状データに類似する形状が見つからないと判定することを特徴とする請求項14に記載の画像処理装置。   15. The comparison unit according to claim 14, wherein when the degree of coincidence of the point group is smaller than a predetermined value, it is determined that a shape similar to the three-dimensional shape data stored in the storage unit is not found. The image processing apparatus described. 前記第4の計算手段は、前記記憶手段に記憶された三次元形状に類似する物体を求めたときには、前記記憶手段に記憶された三次元形状を求めた物体形状で置換することを特徴とする請求項2に記載の画像処理装置。   When the fourth calculation means obtains an object similar to the three-dimensional shape stored in the storage means, the fourth calculation means replaces the three-dimensional shape stored in the storage means with the obtained object shape. The image processing apparatus according to claim 2. 前記第4の計算手段は、前記記憶手段に記憶された三次元形状に類似する物体を求めたときには、類似する物体の識別情報と位置情報とを前記記憶手段に記憶させることを特徴とする請求項2に記載の画像処理装置。   The fourth calculation unit, when obtaining an object similar to the three-dimensional shape stored in the storage unit, stores identification information and position information of the similar object in the storage unit. Item 3. The image processing apparatus according to Item 2. 前記画像入力手段が入力した複数の画像の初めの画像から特徴部分を抽出する特徴部分抽出回路と、複数の画像の2番目の画像においては初めの画像から抽出された特徴部分に対応する部分を求めて特徴部分とし、複数の画像の3番目以後の画像においては直前の画像の特徴部分に対応する部分を求めて特徴部分とする特徴部分追跡回路とを、前記第3の計算手段に設けたことを特徴とする請求項1に記載の画像処理装置。   A feature portion extraction circuit for extracting a feature portion from a first image of the plurality of images input by the image input means; and a second image of the plurality of images, a portion corresponding to the feature portion extracted from the first image; A feature portion tracking circuit for obtaining a feature portion and obtaining a feature portion corresponding to the feature portion of the immediately preceding image in the third and subsequent images of the plurality of images is provided in the third calculation means. The image processing apparatus according to claim 1. 前記第2の計算手段は、前記複数の画像のそれぞれにおける特徴部分の位置を求めて特徴部分の三次元位置を計算する座標計算回路を備えることを特徴とする請求項18に記載の画像処理装置。   The image processing apparatus according to claim 18, wherein the second calculation unit includes a coordinate calculation circuit that calculates a three-dimensional position of the feature portion by obtaining a position of the feature portion in each of the plurality of images. . 前記座標計算回路が求めた特徴部分の三次元位置と前記記憶手段に記憶された三次元形状データを用いて、前記座標計算回路が求めた特徴部分の三次元位置を三次元形状データに適合するように変換するデータ統合回路を設けたことを特徴とする請求項19に記載の画像処理装置。   Using the three-dimensional position of the feature portion obtained by the coordinate calculation circuit and the three-dimensional shape data stored in the storage means, the three-dimensional position of the feature portion obtained by the coordinate calculation circuit is adapted to the three-dimensional shape data. The image processing apparatus according to claim 19, further comprising a data integration circuit for converting the data as described above. 前記画像入力手段および前記特徴部分抽出回路、特徴部分追跡回路、座標計算回路、データ統合回路がパイプライン的に並列に動作するようにそれぞれを配置したことを特徴とする請求項20に記載の画像処理装置。   21. The image according to claim 20, wherein the image input means, the feature portion extraction circuit, the feature portion tracking circuit, the coordinate calculation circuit, and the data integration circuit are arranged so as to operate in parallel in a pipeline manner. Processing equipment. 画像入力手段と、この画像入力手段から入力した画像についてその特徴的な部分の位置関係の変化を抽出する第1の計算手段と、入力画像の位置関係の変化から特徴的な部分の三次元位置を計算する第2の計算手段と、この第2の計算手段が計算した特徴的な部分の三次元位置を用いて画像内に表示される物体の三次元形状データを計算する第3の計算手段とを有する画像処理装置と、この画像処理装置との間でデータを伝達する制御装置と、アームと手先とを有するマニピュレータとを備え、前記画像取込手段をこのマニピュレータのアームあるいは手先に設けたことを特徴とするロボット装置。   An image input means; a first calculation means for extracting a change in the positional relationship of the characteristic part of the image input from the image input means; and a three-dimensional position of the characteristic part from the change in the positional relationship of the input image And a third calculation means for calculating the three-dimensional shape data of the object displayed in the image using the three-dimensional position of the characteristic part calculated by the second calculation means. An image processing apparatus including: a control device that transmits data to and from the image processing apparatus; and a manipulator having an arm and a hand. The image capturing unit is provided on the arm or the hand of the manipulator. A robot apparatus characterized by that. 画像入力手段と、この画像入力手段から入力した画像についてその特徴的な部分の位置関係の変化を抽出する第1の計算手段と、入力画像の位置関係の変化から特徴的な部分の三次元位置を計算する第2の計算手段と、この第2の計算手段が計算した特徴的な部分の三次元位置を用いて画像内に表示される物体の三次元形状データを計算する第3の計算手段とを有する画像処理装置と、この画像処理装置の出力を表示する表示装置とを備える車両の誘導装置であって、前記表示装置は前記画像処理装置が求めた物体の形状データに基づいて画像処理装置が搭載された車両の周囲の障害物の位置を表示することを特徴とする車両誘導装置。   An image input means; a first calculation means for extracting a change in the positional relationship of the characteristic part of the image input from the image input means; and a three-dimensional position of the characteristic part from the change in the positional relationship of the input image And a third calculation means for calculating the three-dimensional shape data of the object displayed in the image using the three-dimensional position of the characteristic part calculated by the second calculation means. And a display device for displaying the output of the image processing device, wherein the display device performs image processing based on object shape data obtained by the image processing device. A vehicle guidance device for displaying a position of an obstacle around a vehicle on which the device is mounted. 前記表示装置は、車両の周囲の障害物を上面図として表示することを特徴とする請求項23に記載の車両誘導装置。   24. The vehicle guidance device according to claim 23, wherein the display device displays obstacles around the vehicle as a top view. 前記表示装置は、前記画像処理装置が搭載された車両の前方を走行する車両の位置を表示することを特徴とする請求項23に記載の車両誘導装置。   24. The vehicle guidance device according to claim 23, wherein the display device displays a position of a vehicle traveling in front of a vehicle on which the image processing device is mounted. 前記表示装置は、前記画像処理装置が搭載された車両の駐車スペースにある物体の位置を表示することを特徴とする請求項23に記載の車両誘導装置。   The vehicle guidance device according to claim 23, wherein the display device displays a position of an object in a parking space of a vehicle on which the image processing device is mounted. 前記表示装置は、前記画像処理装置が搭載された車両の周囲の建物の位置関係に基づいて、地図上に車両の位置を補正して表示することを特徴とする請求項23に記載の車両誘導装置。   The vehicle guidance according to claim 23, wherein the display device corrects and displays the position of the vehicle on a map based on a positional relationship between buildings around the vehicle on which the image processing device is mounted. apparatus.
JP2004179068A 2004-06-17 2004-06-17 Image processor, robotics device, and vehicle guidance device Pending JP2006004122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004179068A JP2006004122A (en) 2004-06-17 2004-06-17 Image processor, robotics device, and vehicle guidance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004179068A JP2006004122A (en) 2004-06-17 2004-06-17 Image processor, robotics device, and vehicle guidance device

Publications (1)

Publication Number Publication Date
JP2006004122A true JP2006004122A (en) 2006-01-05

Family

ID=35772477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004179068A Pending JP2006004122A (en) 2004-06-17 2004-06-17 Image processor, robotics device, and vehicle guidance device

Country Status (1)

Country Link
JP (1) JP2006004122A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010223909A (en) * 2009-03-25 2010-10-07 Fuji Xerox Co Ltd Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus
CN102404511A (en) * 2010-09-15 2012-04-04 讯程科技(深圳)有限公司 Video postproduction system and information combination method of same
JP2013109624A (en) * 2011-11-22 2013-06-06 Hitachi Plant Technologies Ltd Image processing device and image processing method
JP2015062017A (en) * 2014-09-30 2015-04-02 オムロン株式会社 Model creation device, model creation program, and image recognition system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010223909A (en) * 2009-03-25 2010-10-07 Fuji Xerox Co Ltd Position/attitude recognizing method, part holding method, part arranging method, part assembling method, position/attitude recognizing apparatus, part holding apparatus, part arranging apparatus and part assembling apparatus
CN102404511A (en) * 2010-09-15 2012-04-04 讯程科技(深圳)有限公司 Video postproduction system and information combination method of same
JP2013109624A (en) * 2011-11-22 2013-06-06 Hitachi Plant Technologies Ltd Image processing device and image processing method
JP2015062017A (en) * 2014-09-30 2015-04-02 オムロン株式会社 Model creation device, model creation program, and image recognition system

Similar Documents

Publication Publication Date Title
CN110568447B (en) Visual positioning method, device and computer readable medium
CN108898676B (en) Method and system for detecting collision and shielding between virtual and real objects
JP6011102B2 (en) Object posture estimation method
JP3735344B2 (en) Calibration apparatus, calibration method, and calibration program
JP4677536B1 (en) 3D object recognition apparatus and 3D object recognition method
CN107990899A (en) A kind of localization method and system based on SLAM
Brandou et al. 3D reconstruction of natural underwater scenes using the stereovision system IRIS
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
CN111462503B (en) Vehicle speed measuring method and device and computer readable storage medium
CN110926330B (en) Image processing apparatus, image processing method, and program
CN108648194A (en) Based on the segmentation of CAD model Three-dimensional target recognition and pose measuring method and device
Ding et al. Fusing structure from motion and lidar for dense accurate depth map estimation
JP6860620B2 (en) Information processing equipment, information processing methods, and programs
JP2014029664A (en) Image comparison range generation method, positional orientation detection method, image comparison range generation device, positional orientation detection device, robot, robot system, image comparison range generation program and positional orientation detection program
CN104700355A (en) Generation method, device and system for indoor two-dimension plan
CN112184793B (en) Depth data processing method and device and readable storage medium
JP2020179441A (en) Control system, information processing device and control method
JP4649559B2 (en) 3D object recognition apparatus, 3D object recognition program, and computer-readable recording medium on which the same is recorded
Gao et al. Pose refinement with joint optimization of visual points and lines
EP3825804A1 (en) Map construction method, apparatus, storage medium and electronic device
CN115471748A (en) Monocular vision SLAM method oriented to dynamic environment
JP2001101419A (en) Method and device for image feature tracking processing and three-dimensional data preparing method
CN111198563B (en) Terrain identification method and system for dynamic motion of foot type robot
JP2005332177A (en) Three-dimensional information processor, three-dimensional information processing method, and three-dimensional information processing program
KR20050063991A (en) Image matching method and apparatus using image pyramid

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424