JPH0991436A - Image processing method and device therefor - Google Patents

Image processing method and device therefor

Info

Publication number
JPH0991436A
JPH0991436A JP7269322A JP26932295A JPH0991436A JP H0991436 A JPH0991436 A JP H0991436A JP 7269322 A JP7269322 A JP 7269322A JP 26932295 A JP26932295 A JP 26932295A JP H0991436 A JPH0991436 A JP H0991436A
Authority
JP
Japan
Prior art keywords
image
frame shape
shape
reference image
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7269322A
Other languages
Japanese (ja)
Inventor
Takashi Naito
貴志 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP7269322A priority Critical patent/JPH0991436A/en
Publication of JPH0991436A publication Critical patent/JPH0991436A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To recognize the accurate 3-dimensional shape of an object by restoring a 1st frame shape and a 2nd frame shape corresponding to an edge segment of a reference image thereby integrating the 1st and 2nd frame shapes. SOLUTION: A corresponding point is executed between a reference image and a 1st image, and depth information of each segment extracted from the reference image is calculated (S206). Then a 3-dimensional shape (1st frame shape) of a segment is restored based on the distance information resulting from the 2-dimensional shape of the segment of the reference image. Then the image input (S300), edge extraction (S302), segmentation and extraction of 2-dimensional shape (S304), retrieval of corresponding point with the reference image (S306), and restoration of 3-dimensional shape of segment (S308) are executed, restoration processing to the 3-dimensional shape (2nd frame shape) is executed for the segment and part of the 2-dimensional shape of the reference image is restored.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物体を複数の位置
から撮像し、得られる各画像を処理することで物体の形
状を把握するようにした画像処理方法及びその装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for capturing an object from a plurality of positions and processing each of the obtained images to grasp the shape of the object.

【0002】[0002]

【従来の技術】従来、3次元空間中の物体の形状、位置
を得る方法として、例えば、2つの撮像装置により物体
を右方向と左方向とから撮像し、得られた左濃淡画像と
右濃淡画像(以下、この2つの画像を併せて、「左右画
像」と言う)間における明るさの類似性、又は、エッジ
などの形状特徴情報から、左右画像間の対応付けを行
い、三角測量の原理により各点、又は、各領域の奥行き
距離を得る方法、いわゆるステレオ立体視法が知られて
いる。
2. Description of the Related Art Conventionally, as a method of obtaining the shape and position of an object in a three-dimensional space, for example, two image pickup devices are used to image the object from the right and left directions, and the obtained left gray image and right gray image are obtained. The principle of triangulation is performed by correlating the left and right images based on the similarity in brightness between the images (hereinafter, these two images are collectively referred to as “left and right images”) or shape feature information such as edges. There is known a method for obtaining the depth distance of each point or each area, that is, a so-called stereoscopic stereoscopic method.

【0003】ここで、左右画像間の対応付け、いわゆる
対応点探索では、一般に撮像装置、例えば、CCDカメ
ラの幾何学的配置から得られるエピポーラライン(射影
直線)拘束を用いて対応候補点を決定することで、探索
効率を向上させている。さらには、相関のウインドサイ
ズを変化させる、エッジの連結性を考慮し対応度を計算
する、又は、3台以上の撮像装置から得られるエピポー
ラ拘束を用いて対応点の曖昧さをより解消しようとす
る、等の方法が試みられている。
Here, in the correspondence between right and left images, so-called corresponding point search, correspondence candidate points are generally determined by using an epipolar line (projective straight line) constraint obtained from the geometrical arrangement of an image pickup device, for example, a CCD camera. By doing so, the search efficiency is improved. Furthermore, it is attempted to change the window size of the correlation, calculate the degree of correspondence in consideration of edge connectivity, or use the epipolar constraint obtained from three or more imaging devices to further eliminate the ambiguity of corresponding points. The method of doing, etc. is being tried.

【0004】特に、対象物体の各領域、又は、エッジ点
の距離情報のみならず、3次元の形状情報を得ようとす
る場合には、エッジなどの特徴から線分、2次曲線など
のセグメントを抽出し、左右のセグメント同志の対応を
求め、三角測量により各セグメントの3次元位置を求め
る方法が広く知られている。
In particular, when it is desired to obtain not only distance information of each area of a target object or edge points but also three-dimensional shape information, a segment such as a line segment, a quadratic curve or the like is extracted from features such as edges. A method is widely known in which the three-dimensional position of each segment is obtained by triangulation, by extracting the correspondence between the left and right segments.

【0005】しかしながら、一組の左右画像からでは、
オクリュージョン、ノイズ、セグメントの途切れなどに
より左右セグメント間で対応が得られなかったり、エピ
ポーラに対して水平な形状のため3次元形状として復元
されなかったりする場合が頻繁に生じる。このため、複
数の視点から得られた画像間で立体視を行い、各視点で
得られた3次元形状を統合することにより、より完全な
3次元形状を復元しようとする方法が提案されている。
ここで、各視点から得られた3次元形状の統合は、各セ
グメント、特に各線分が構成する閉塞領域から平面を推
定し、その面情報を判定することで実現している(例え
ば、特開昭63−244174号、特開平3−2680
69号公報)。
However, from a set of left and right images,
Frequently, correspondence cannot be obtained between the left and right segments due to occlusion, noise, segment breaks, and the like, and the shape is horizontal with respect to the epipolar so that it cannot be restored as a three-dimensional shape. Therefore, a method has been proposed in which stereoscopic vision is performed between images obtained from a plurality of viewpoints and the three-dimensional shapes obtained at each viewpoint are integrated to restore a more complete three-dimensional shape. .
Here, the integration of the three-dimensional shapes obtained from the respective viewpoints is realized by estimating a plane from an occlusion area formed by each segment, particularly each line segment, and determining the plane information (for example, Japanese Laid-Open Patent Publication 63-244174, JP-A-3-2680
No. 69 publication).

【0006】[0006]

【発明が解決しようとする課題】以上に述べた対象物体
を撮像し、その画像情報から物体の3次元形状、位置を
得る従来の方法には、以下の問題点がある。
The conventional method for picking up an image of the target object described above and obtaining the three-dimensional shape and position of the object from the image information has the following problems.

【0007】1.積木のような単純の形状とは異なり、よ
り複雑な形状をした一般的な物体(例えば工業部品)に
対しては、左右画像間でエッジの見え方、セグメントの
連結状態、セグメントの形状などが一致しないことが多
く、セグメント間で対応を求める方法では、正しい対応
情報を得ることは困難である。
1. Unlike a simple shape such as a building block, for a general object having a more complicated shape (for example, an industrial part), the appearance of edges between the left and right images, the connection state of segments, In many cases, the shapes of the segments do not match, and it is difficult to obtain correct correspondence information by the method of finding correspondence between the segments.

【0008】2.また従来の方法では各線分が構成する閉
塞領域から平面を推定し、その面情報を用いて各視点か
ら得られるセグメントの統合を行っているが、一般には
各セグメントが閉塞領域を構成するとは限らず、むしろ
閉塞領域が得られない場合が多いため、このような手法
では推定に多くの曖昧さを含むことになり、結果的に上
記手法によるセグメントの統合は困難である。
2. In the conventional method, a plane is estimated from an occlusion area formed by each line segment, and segments obtained from each viewpoint are integrated using the surface information. Generally, each segment is an occlusion area. Is not always configured, and rather, an occlusion region is often not obtained, and thus such a method includes many ambiguities in estimation, and as a result, segment integration by the above method is difficult.

【0009】3.さらに、各視点から得られるセグメント
も、実際には同一対象から得られたセグメントにもかか
わらず、1.に述べた理由及びカメラキャリブレーション
の誤差などにより、長さ、形状種類、位置などが一致し
ないのが一般的であり、各視点から得られたセグメント
の同一性を判断し統合することは難しい。
3. Further, even though the segments obtained from the respective viewpoints are actually the segments obtained from the same object, due to the reasons described in 1. and the error of the camera calibration, the length, shape type, etc. , It is general that the positions do not match, and it is difficult to judge and integrate the identities of the segments obtained from each viewpoint.

【0010】本発明は上記の課題を解決するために成さ
れたものであり、その目的は、画像処理装置において、
物体の正確な3次元形状を認識することである。特に、
左右の画像間で、特徴(例えば、セグメントの位置、形
状、長さなど)が一致していなくとも、正しい対応を求
め、その対応情報と特徴の情報から対象の形状、例え
ば、3次元形状あるいは2次元形状を得ることができる
ようにすることである。又、対象物体からより完全な形
状を復元するために、異なる視点から撮像を行い、それ
ら視点からの特徴を統合する過程において、平面の推定
によるような曖昧さを伴う判定を行わずに正確な物体の
形状を認識することである。さらに、各視点から得られ
る特徴(例えば、セグメントの長さ、形状、位置など)
の同一性が損なわれていても、又、それらの特徴が閉塞
領域又は平面を構成していなくても、信頼性良く特徴の
統合及び形状の復元を可能とすることである。
The present invention has been made to solve the above problems, and an object thereof is to provide an image processing apparatus,
To recognize the exact three-dimensional shape of an object. Especially,
Even if features (for example, segment position, shape, length, etc.) do not match between the left and right images, correct correspondence is obtained, and the target shape, for example, three-dimensional shape or It is to be able to obtain a two-dimensional shape. In addition, in order to restore a more complete shape from the target object, images are taken from different viewpoints, and in the process of integrating the features from those viewpoints, accurate determination is performed without making ambiguity such as by plane estimation. To recognize the shape of an object. In addition, features obtained from each viewpoint (eg, segment length, shape, position, etc.)
Is to enable reliable integration of features and reconstruction of shapes, even if their identity is compromised or if they do not form an occlusion area or plane.

【0011】[0011]

【課題を解決するための手段】本方法発明は、少なくと
も3つの異なる位置から物体を撮像して得られる基準画
像、第1画像、第2画像とを用いて物体の形状を認識す
る画像処理方法において、次の処理を行うことを特徴と
する。第1に、基準画像と第1画像とから抽出されたエ
ッジセグメントの対応関係を用いて、基準画像中のエッ
ジセグメントより物体のフレーム形状を第1フレーム形
状として算出する。第2に、基準画像と第2画像とから
抽出されたエッジセグメントの対応関係を用いて、前記
基準画像中のエッジセグメントより物体のフレーム形状
を第2フレーム形状として算出する。第3に、基準画像
のエッジセグメントに対応して第1フレーム形状を復元
した後、第1フレーム形状で復元されなかった基準画像
のエッジセグメント部分に対応する前記第2フレーム形
状を復元することにより、第1フレーム形状と第2フレ
ーム形状とを統合する。
The present invention is an image processing method for recognizing the shape of an object using a reference image, a first image and a second image obtained by imaging the object from at least three different positions. In, the following processing is performed. First, using the correspondence between the reference image and the edge segment extracted from the first image, the frame shape of the object is calculated as the first frame shape from the edge segment in the reference image. Secondly, the frame shape of the object is calculated as the second frame shape from the edge segment in the reference image by using the correspondence between the reference image and the edge segment extracted from the second image. Third, by restoring the first frame shape corresponding to the edge segment of the reference image, and then restoring the second frame shape corresponding to the edge segment portion of the reference image that was not restored in the first frame shape. , The first frame shape and the second frame shape are integrated.

【0012】又、他の方法発明は、第2フレーム形状を
算出する場合に、第1フレーム形状として得られていな
い基準画像のエッジセグメントから第2フレーム形状が
算出され、そのように演算された第1フレーム形状と第
2フレーム形状との単純な加算から物体全体のフレーム
形状を求めるものである。
In another method invention, when the second frame shape is calculated, the second frame shape is calculated from the edge segment of the reference image which is not obtained as the first frame shape, and the calculation is performed as such. The frame shape of the entire object is obtained by a simple addition of the first frame shape and the second frame shape.

【0013】又、装置発明は、基準画像及び第1画像の
各エッジセグメント間で対応するエッジセグメント及び
点を求め、この対応情報に基づき基準画像中のエッジセ
グメントより物体のフレーム形状を第1フレーム形状と
して算出する第1形状演算手段と、基準画像及び第2画
像の各エッジセグメント間で対応するエッジセグメント
及び点を求め、この対応情報に基づき、基準画像中のエ
ッジセグメントより物体のフレーム形状を第2フレーム
形状として算出する第2形状演算手段と、基準画像のエ
ッジセグメントに対応して第1フレーム形状を復元した
後、第1フレーム形状で復元されなかった基準画像のエ
ッジセグメント部分に対応する第2フレーム形状を復元
することにより、第1フレーム形状と第2フレーム形状
とを統合する統合手段とを設けたことを特徴とする。
In the apparatus invention, the edge segment and the point corresponding to each edge segment of the reference image and the first image are obtained, and the frame shape of the object is determined from the edge segment in the reference image to the first frame based on the correspondence information. The first shape calculation means for calculating the shape and the corresponding edge segment and point between each edge segment of the reference image and the second image are obtained, and the frame shape of the object is calculated from the edge segment in the reference image based on this correspondence information. Second shape calculation means for calculating as the second frame shape, and corresponding to the edge segment portion of the reference image which is not restored by the first frame shape after restoring the first frame shape corresponding to the edge segment of the reference image Integration that integrates the first frame shape and the second frame shape by restoring the second frame shape Characterized by providing a stage.

【0014】又、他の装置発明は、第2形状演算手段
が、第1フレーム形状として得られていない基準画像の
エッジセグメントから第2フレーム形状を算出するもの
であり、統合手段が第1フレーム形状と第2フレーム形
状との単純な加算から物体全体のフレーム形状を求める
ものである。
In another apparatus invention, the second shape calculation means calculates the second frame shape from the edge segment of the reference image which is not obtained as the first frame shape, and the integrating means calculates the first frame. The frame shape of the entire object is obtained by simply adding the shape and the second frame shape.

【0015】又、上記の装置に、基準画像を得てエッジ
セグメントを抽出する基準画像入力手段と、第1画像を
得てエッジセグメントを抽出する第1画像入力手段と、
第2画像を得てエッジセグメントを抽出する第2画像入
力手段とを付加しても良い。又、本装置は、オフライン
で得られた画像を処理する装置であっても、物体の撮像
と物体の形状の認識処理とを一連の処理として実行する
装置であっても良い。尚、本発明の画像処理方法及びそ
の装置は、少なくとも異なる3つの位置から物体を撮像
しておれば良く、4つ以上の異なる位置から物体を撮像
するものであっても良い。
In the above apparatus, reference image input means for obtaining a reference image to extract edge segments, and first image input means for obtaining a first image and extracting edge segments,
Second image input means for obtaining the second image and extracting the edge segment may be added. Further, the present apparatus may be an apparatus that processes an image obtained off-line, or an apparatus that executes the imaging of an object and the recognition processing of the shape of the object as a series of processes. The image processing method and the apparatus thereof according to the present invention need only image the object from at least three different positions, and may image the object from four or more different positions.

【0016】[0016]

【発明の作用及び効果】3次元空間中の物体の形状、位
置を、物体を撮像した画像から得る画像処理方法におい
て、物体のより完全な形状を求めるために、複数の視点
から撮像した画像を用いて処理を行う。その際、図1、
図4に示すように、基準画像、例えば、両眼立体視にお
ける左画像を設定し、その視点は固定し、一方それと組
になる画像、例えば、右画像については、視点を移動さ
せながら、より多くの形状が復元されるよう、複数視点
からの画像を得る。
In the image processing method for obtaining the shape and position of an object in a three-dimensional space from the imaged image of the object, in order to obtain a more complete shape of the object, images taken from a plurality of viewpoints are used. Process. At that time,
As shown in FIG. 4, a reference image, for example, a left image in binocular stereoscopic vision is set and its viewpoint is fixed, while an image paired with the reference image, for example, the right image is moved while moving the viewpoint. Obtain images from multiple viewpoints so that many shapes can be restored.

【0017】このように、視点を固定した一つの基準画
像を設定して、それと組になる他方の画像の視点を移動
させ、常に基準画像をベースとして対応点探索、形状復
元を行うことで、複雑な処理による統合判定をすること
なく、できるだけ完全な対象物体の形状、例えば、3次
元形状又は2次元形状を画像から求める。
Thus, by setting one reference image with a fixed viewpoint, moving the viewpoint of the other image paired with the reference image, and always performing corresponding point search and shape restoration based on the reference image, The shape of the target object that is as complete as possible, for example, a three-dimensional shape or a two-dimensional shape, is obtained from an image without making an integrated determination by complicated processing.

【0018】例えば、エッジをベースとして両眼立体視
を行った場合、左右の画像からエッジを抽出する。次
に、エッジから線分及び2次曲線のセグメントを得て、
左画像のエッジと右画像のエッジとの間の対応付けを行
う。このときセグメントの情報も利用して信頼性良く対
応点を求めて、その対応点情報とセグメント情報から物
体の3次元のフレーム形状を求める。
For example, when binocular stereoscopic vision is performed based on edges, the edges are extracted from the left and right images. Then get the line segment and the quadratic segment from the edge,
The edge of the left image and the edge of the right image are associated with each other. At this time, the corresponding points are obtained with high reliability by using the segment information, and the three-dimensional frame shape of the object is obtained from the corresponding point information and the segment information.

【0019】このとき図1に示すように、まず基準画像
と第1画像との間でセグメントの対応関係と対応点とを
求め、その情報を用いて基準画像中のセグメントから3
次元の第1フレーム形状を求める。同様に、基準画像と
第2画像との間においてセグメントの対応関係と対応点
とを求め、その情報を用いて基準画像中のセグメントか
ら3次元の第2フレーム形状を求める。他の画像につい
ても同様に、第3フレーム形状、第4フレーム形状等が
求められる。
At this time, as shown in FIG. 1, first, the correspondence between the segments and the corresponding points between the reference image and the first image are obtained, and the information is used to extract 3 segments from the segments in the reference image.
Find the first frame shape of the dimension. Similarly, the correspondence relationship and corresponding point of the segment between the reference image and the second image are obtained, and the three-dimensional second frame shape is obtained from the segment in the reference image using the information. Similarly, for other images, the third frame shape, the fourth frame shape, and the like are obtained.

【0020】次に、上記のようにして求められた複数の
フレーム形状の統合が行われる。即ち、基本画像のエッ
ジセグメントに対応して第1フレーム形状をそのまま採
用することで、物体の3次元形状を復元する。次に、基
本画像のエッジセグメントにおいて、未だ、3次元形状
に復元されていないエッジセグメントだけ、第2フレー
ム形状から抽出して、物体の3次元形状を復元し、さら
に、基本画像のエッジセグメントにおいて、未だ、3次
元形状に復元されていないエッジセグメントだけ、第3
フレーム形状から抽出して、物体の3次元形状を復元す
るという操作を繰り返し実行する。このような統合操作
により、最終的な物体の3次元形状が復元される。
Next, the plurality of frame shapes obtained as described above are integrated. That is, the three-dimensional shape of the object is restored by directly adopting the first frame shape corresponding to the edge segment of the basic image. Next, in the edge segment of the basic image, only the edge segment that has not been restored to the three-dimensional shape is extracted from the second frame shape to restore the three-dimensional shape of the object. , Only the edge segment that has not been restored to the 3D shape,
The operation of extracting from the frame shape and restoring the three-dimensional shape of the object is repeatedly executed. By such an integrating operation, the final three-dimensional shape of the object is restored.

【0021】又、図4に示すように、順次、第1〜第4
の各フレーム形状を求める時に、既に、フレーム形状が
求められている基本画像のエッジセグメントについて
は、フレーム形状として求めないようにすることもでき
る。この場合には、各フレーム形状を統合して物体の最
終的な3次元形状を求めるとき、統合操作は、各フレー
ム形状の単純な加算で良い。
Further, as shown in FIG.
When determining each frame shape, the edge segment of the basic image for which the frame shape has already been calculated may not be calculated as the frame shape. In this case, when the frame shapes are integrated to obtain the final three-dimensional shape of the object, the integration operation may be a simple addition of the frame shapes.

【0022】以上の方法によれば、基準画像のセグメン
トを基準として、3次元形状への復元処理が行われ、既
に、3次元形状に復元されているセグメントに対して
は、それ以上の形状復元の処理は行われない。即ち、基
準画像と、ある視点から撮像された画像との関係におい
て、基準画像中の対応するセグメントが3次元形状に復
元されるが、この後の処理、即ち、基準画像と他の視点
から撮像された画像との間でセグメントの対応関係を求
めるとき、既に3次元形状として採用されているセグメ
ントは除外される。よって、不必要な対応関係を演算す
ることもなく、さらに、3次元形状の1つの要素に対応
するセグメントの候補が複数することもないため、これ
らのセグメントの候補を統合するための判定処理を行う
必要もない。従って、実際には3次元形状の異なる要素
に対応するセグメントであるにもかかわらず、それらの
セグメントを対応関係があると判定したり、逆に、対応
関係があるにも係わらず、対応関係がないと判定する等
の従来の画像処理方法では良く発生した問題を解決する
ことができる。又、上記の無駄な演算を行うことがない
ため、処理が単純化し、処理速度も向上する。
According to the above method, the restoration process to the three-dimensional shape is performed with the segment of the reference image as a reference, and the segment that has already been restored to the three-dimensional shape is further restored in shape. Is not processed. That is, in the relationship between the reference image and the image captured from a certain viewpoint, the corresponding segment in the reference image is restored to a three-dimensional shape. The subsequent processing, that is, the reference image and the image captured from another viewpoint. When obtaining the correspondence of the segment with the generated image, the segment already adopted as the three-dimensional shape is excluded. Therefore, there is no need to calculate an unnecessary correspondence relationship, and there is no plurality of segment candidates corresponding to one element of the three-dimensional shape. Therefore, a determination process for integrating these segment candidates is performed. You don't even have to do it. Therefore, even though the segments actually correspond to elements having different three-dimensional shapes, it is determined that those segments have a correspondence relationship, or conversely, even though there is a correspondence relationship, the correspondence relationship is It is possible to solve a problem that often occurs in the conventional image processing method such as determining that there is no. Moreover, since the above-mentioned useless calculation is not performed, the processing is simplified and the processing speed is improved.

【0023】又、本発明では、基本的にエッジベースの
対応点探索であるため、セグメントの閉塞性や左右の一
致性が保たれていなくても信頼性良く3次元形状が求め
られる。さらには、複数の視点を利用することで、結果
的に3眼視的効果を利用することができ、例えば、基準
画像と第i画像との対応点を求める際に、他の視点の画
像(第j画像)を対応候補選定の検証に用いたり、また
既に基準画像との対応が得られた第j画像との対応点情
報を用いて第i画像の探索領域を設定したりするなどし
て、効率良く、且つ、信頼性良く対応点を求め、形状を
復元することが出来る。ここでは、エッジをベースとし
て線分、楕円からなる3次元形状を復元する例を示した
が、本手法によれば、その他の形状(点や平面など)
や、領域などの3次元復元にも応用できる。さらに、こ
こては3次元形状の復元を示したが、2次元形状の復元
にも適用は容易である。
Further, according to the present invention, basically, since the corresponding points are searched on the edge basis, the three-dimensional shape can be reliably obtained even if the occlusion property of the segments and the left-right matching are not maintained. Furthermore, by using a plurality of viewpoints, the trinocular effect can be used as a result. For example, when obtaining a corresponding point between the reference image and the i-th image, images from other viewpoints ( (J-th image) is used for verification of correspondence candidate selection, or the search area of the i-th image is set using the corresponding point information with the j-th image that has already been obtained with the reference image. It is possible to efficiently and reliably find corresponding points and restore the shape. Here, an example of restoring a three-dimensional shape consisting of line segments and ellipses based on edges is shown, but according to this method, other shapes (points, planes, etc.)
It can also be applied to three-dimensional reconstruction of areas. Furthermore, although the restoration of the three-dimensional shape is shown here, the application to the restoration of the two-dimensional shape is easy.

【0024】[0024]

【発明の実施の形態】以下、本発明を具体的な実施例に
基づいて説明する。図2は、実施例に係る画像処理装置
の構成を示したブロック図である。図示しない物体を異
なるn点から撮像するためにn台のカメラC1〜Cnが
設けられている。各カメラC1〜Cnは、それらのカメ
ラC1〜Cnから出力される各画像信号を、それぞれ、
記憶する画像メモリ(フレームグラバ)F1〜Fnに接
続されている。各画像メモリF1〜Fnに記憶されてい
る画像データはデータバス3を介してコンピュータ5に
より読み取り可能である。コンピュータ5は入力した画
像データを処理して、物体の3次元形状の認識を行う。
又、各カメラC1〜Cnで撮像した画像は、モニタM1
〜Mnに、それぞれ、表示することができる。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described below based on specific embodiments. FIG. 2 is a block diagram showing the configuration of the image processing apparatus according to the embodiment. N cameras C1 to Cn are provided to image an object (not shown) from different n points. The cameras C1 to Cn respectively output the image signals output from the cameras C1 to Cn,
It is connected to image memories (frame grabbers) F1 to Fn for storing. The image data stored in each of the image memories F1 to Fn can be read by the computer 5 via the data bus 3. The computer 5 processes the input image data and recognizes the three-dimensional shape of the object.
The images captured by the cameras C1 to Cn are the monitor M1.
Each can be displayed in ~ Mn.

【0025】図1は、本実施例装置の実行する物体の3
次元形状の復元処理を示した説明図である。基準となる
位置に配置されたカメラを基準カメラ、基準カメラによ
り撮像された画像を基準画像といい、基準カメラと異な
る視点に配置されたi番目のカメラを第iカメラとい
い、それからの画像を第i画像という。又、基準画像と
第i画像とを用いて復元された3次元形状を第iフレー
ム形状という。さらに、全ての(n−1個)フレーム形
状を統合した3次元形状を最終3次元形状という。尚、
図1では、基準カメラと第1カメラから第4カメラまで
の5台(n=5)のカメラが使用されており、得られる
画像とフレーム形状は、第1画像から第4画像、第1フ
レーム形状から第4フレーム形状までの4個(n−1)
の画像、形状が得られる。
FIG. 1 shows three objects to be executed by the apparatus of this embodiment.
It is an explanatory view showing restoration processing of a three-dimensional shape. The camera arranged at the reference position is referred to as a reference camera, the image captured by the reference camera is referred to as a reference image, the i-th camera arranged at a viewpoint different from that of the reference camera is referred to as an i-th camera, and an image from the i-th camera is called. It is called the i-th image. The three-dimensional shape restored using the reference image and the i-th image is called the i-th frame shape. Furthermore, a three-dimensional shape obtained by integrating all (n-1) frame shapes is called a final three-dimensional shape. still,
In FIG. 1, five cameras (n = 5) from the reference camera and the first camera to the fourth camera are used, and the obtained images and frame shapes are the first image to the fourth image and the first frame. 4 from the shape to the 4th frame shape (n-1)
The image and shape of

【0026】図3は、コンピュータ5の処理手順を示し
たフローチャートである。以下、図3に基づき、図2に
示した最終3次元形状を求めるための処理手順について
説明する。ステップ100では、基準カメラに撮像の指
令して、基準画像が画像メモリF1に入力される。次
に、ステップ102で、その基準画像に適当なエッジ抽
出オペレータを作用させて、画像のエッジが抽出され
る。次に、ステップ104でそのエッジがセグメント化
され、各セグメントに対して2次元の形状抽出が行われ
る。例えば、あるセグメントに対して、直線及び2次曲
線近似計算を行うことで、線分、楕円弧、円弧等が抽出
される。
FIG. 3 is a flow chart showing the processing procedure of the computer 5. Hereinafter, the processing procedure for obtaining the final three-dimensional shape shown in FIG. 2 will be described with reference to FIG. In step 100, the reference camera is instructed to capture an image and the reference image is input to the image memory F1. Next, in step 102, the edges of the image are extracted by applying an appropriate edge extraction operator to the reference image. Then, in step 104, the edge is segmented and a two-dimensional shape extraction is performed on each segment. For example, a straight line and a quadratic curve are approximated to a certain segment to extract a line segment, an elliptic arc, an arc, and the like.

【0027】一方、第1カメラに対しても同様に撮像指
令が与えられ、基準画像と同様な処理が実行される。即
ち、画像入力(ステップ200)、エッジ抽出(ステッ
プ202)、セグメント化及びセグメントの2次元形状
の抽出(ステップ204)の各処理が行われる。
On the other hand, an image pickup command is similarly given to the first camera, and the same processing as the reference image is executed. That is, each processing of image input (step 200), edge extraction (step 202), segmentation and extraction of a two-dimensional shape of the segment (step 204) is performed.

【0028】そして、ステップ206において、基準画
像と第1画像との間で対応点探索が実行され、基準画像
から抽出された各セグメントの奥行き距離情報が演算さ
れる。次に、ステップ208において、その距離情報と
ステップ104で得られた基準画像におけるセグメント
の2次元形状とから、そのセグメントの3次元形状が復
元され、即ち、第1フレーム形状が求められ、メモリの
3次元形状テーブルに登録される。
Then, in step 206, a corresponding point search is executed between the reference image and the first image, and the depth distance information of each segment extracted from the reference image is calculated. Next, in step 208, the three-dimensional shape of the segment is restored from the distance information and the two-dimensional shape of the segment in the reference image obtained in step 104, that is, the first frame shape is obtained and stored in the memory. It is registered in the three-dimensional shape table.

【0029】この時、実際の画像においては、ノイズや
オクリュージョンの影響によって基準画像中の一部の2
次元形状しか3次元形状に復元されないことが多い。こ
のため、基準画像からより完全に3次元形状を復元する
ために、次に第1画像とは異なる視点から得られる第2
画像と基準画像とを用いて3次元形状の復元処理が実行
される。
At this time, in the actual image, a part of the reference image is affected by noise or occlusion.
In many cases, only the three-dimensional shape is restored to the three-dimensional shape. Therefore, in order to more completely reconstruct the three-dimensional shape from the reference image, the second image obtained from a different viewpoint from the first image is next obtained.
A three-dimensional shape restoration process is executed using the image and the reference image.

【0030】第1画像の処理と同様に、画像入力(ステ
ップ300)、エッジ抽出(ステップ302)、セグメ
ント化及び2次元形状抽出(ステップ304)が行わ
れ、基準画像との間で対応点探索(ステップ306)、
セグメントの3次元形状の復元(ステップ308)が実
行される。この3次元形状の復元処理においては、基準
画像において、未だ、3次元形状への復元が行われいな
いセグメントについてのみ実行される。即ち、第2画像
の処理においては、ステップ208の第1画像での復元
処理で復元できないセグメントについて実行される。そ
して、3次元形状の復元処理が実行されたセグメント
は、第2フレーム形状として、3次元形状テーブルに追
加登録される。これにより、基準画像と第1画像との間
では復元されなかった基準画像の2次元形状の一部が復
元される。
Similar to the processing of the first image, image input (step 300), edge extraction (step 302), segmentation and two-dimensional shape extraction (step 304) are performed, and corresponding point search with the reference image is performed. (Step 306),
The three-dimensional shape of the segment is restored (step 308). This three-dimensional shape restoration processing is executed only for the segments in the reference image that have not yet been restored to the three-dimensional shape. That is, in the processing of the second image, the segment that cannot be restored by the restoration processing of the first image in step 208 is executed. Then, the segment for which the three-dimensional shape restoration process has been executed is additionally registered in the three-dimensional shape table as the second frame shape. As a result, a part of the two-dimensional shape of the reference image that has not been restored between the reference image and the first image is restored.

【0031】上記と同様な処理が、第3、第4カメラに
よって得られた第3画像、第4画像に関して実行され、
第3フレーム形状、第4フレーム形状が求められる。こ
の時も、同様に、基準画像において、未だ、3次元形状
に復元されていないセグメントに関してのみ実行され
る。尚、さらに多くのn個のカメラを用いても、同様な
処理が繰り返し実行されるだけで、より正確に物体の3
次元形状が復元される。
The same processing as described above is executed for the third and fourth images obtained by the third and fourth cameras,
The third frame shape and the fourth frame shape are required. At this time, similarly, it is executed only for the segment which has not been restored to the three-dimensional shape in the reference image. It should be noted that even if more n cameras are used, the same processing is repeatedly executed, and the object
The dimensional shape is restored.

【0032】以上のように、画像からより完全な形状を
復元するために、異なる視点から得られた3次元形状を
統合する過程において、常に、基準画像の2次元形状セ
グメントを参照することで、統合判定における曖昧性を
除去することができ、さらに、判定処理を必要としない
ため処理の高速化が可能である。さらには、複数の視点
を利用することで、例えば、3眼視により精度良く効率
的に対応点を求めることができる。例えば、基準画像と
第i画像との対応点を求める際に、他の視点の画像(第
j画像)を対応候補選定の検証に用いたり、又、既に、
基準画像との対応が得られた第j画像との対応点情報を
用いて第i画像の探索領域を設定したりするなどして、
探索領域の限定による処理の高速化、誤対応の除去によ
る信頼度の向上が実現できる。
As described above, in the process of integrating three-dimensional shapes obtained from different viewpoints in order to restore a more complete shape from an image, the two-dimensional shape segment of the reference image is always referred to, The ambiguity in the integrated judgment can be removed, and further, since the judgment processing is not required, the processing speed can be increased. Furthermore, by using a plurality of viewpoints, corresponding points can be accurately and efficiently obtained by, for example, three-eye view. For example, when obtaining the corresponding point between the reference image and the i-th image, an image from another viewpoint (j-th image) is used for verification of the correspondence candidate selection, or
For example, by setting the search area of the i-th image using the corresponding point information with the j-th image that has been obtained with the reference image,
It is possible to speed up the processing by limiting the search area and improve the reliability by removing the incorrect correspondence.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による画像処理の方法を示した説明図。FIG. 1 is an explanatory diagram showing an image processing method according to the present invention.

【図2】本発明の具体的な実施例の画像処理装置を示し
たブロック図。
FIG. 2 is a block diagram showing an image processing apparatus according to a specific embodiment of the present invention.

【図3】同実施例装置の処理手順を示したフローチャー
ト。
FIG. 3 is a flowchart showing a processing procedure of the apparatus of the embodiment.

【図4】本発明による画像処理の他の方法を示した説明
図。
FIG. 4 is an explanatory view showing another method of image processing according to the present invention.

【符号の説明】[Explanation of symbols]

5…コンピュータ C1〜Cn…カメラ F1〜Fn…画像メモリ M1〜Mn…モニタ 5 ... Computer C1-Cn ... Camera F1-Fn ... Image memory M1-Mn ... Monitor

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】少なくとも3つの異なる位置から物体を撮
像して得られる基準画像、第1画像、第2画像とを用い
て前記物体の形状を認識する画像処理方法において、 前記基準画像と第1画像とから抽出されたエッジセグメ
ントの対応関係を用いて、前記基準画像中のエッジセグ
メントより物体のフレーム形状を第1フレーム形状とし
て算出し、 前記基準画像と第2画像とから抽出されたエッジセグメ
ントの対応関係を用いて、前記基準画像中のエッジセグ
メントより物体のフレーム形状を第2フレーム形状とし
て算出し、 前記基準画像のエッジセグメントに対応して前記第1フ
レーム形状を復元した後、第1フレーム形状で復元され
なかった基準画像のエッジセグメント部分に対応する前
記第2フレーム形状を復元することにより、第1フレー
ム形状と第2フレーム形状とを統合することを特徴とす
る画像処理方法。
1. An image processing method for recognizing the shape of an object using a reference image, a first image, and a second image obtained by imaging an object from at least three different positions, the reference image and the first image The frame shape of the object is calculated as the first frame shape from the edge segment in the reference image using the correspondence between the edge segments extracted from the image and the edge segment extracted from the reference image and the second image. The frame shape of the object is calculated as a second frame shape from the edge segment in the reference image by using the correspondence relationship of 1), and the first frame shape is restored corresponding to the edge segment of the reference image, and then the first frame shape is restored. By restoring the second frame shape corresponding to the edge segment portion of the reference image which has not been restored in the frame shape, the first frame is restored. An image processing method characterized by integrating the over arm shape and a second frame shape.
【請求項2】少なくとも3つの異なる位置から物体を撮
像して得られる基準画像、第1画像、第2画像とを用い
て前記物体の形状を認識する画像処理方法において、 前記基準画像と第1画像とから抽出されたエッジセグメ
ントの対応関係を用いて、前記基準画像中のエッジセグ
メントより物体のフレーム形状を第1フレーム形状とし
て算出し、 前記基準画像と第2画像とから抽出されたエッジセグメ
ントの対応関係を用いて、前記基準画像中のエッジセグ
メントのうち前記第1フレーム形状に対応しないエッジ
セグメントより物体のフレーム形状を第2フレーム形状
として算出し、 前記第1フレーム形状と前記第2フレーム形状とを統合
して物体のフレーム形状とすることを特徴とする画像処
理方法。
2. An image processing method for recognizing the shape of an object using a reference image, a first image and a second image obtained by picking up an object from at least three different positions. The frame shape of the object is calculated as the first frame shape from the edge segment in the reference image using the correspondence between the edge segments extracted from the image and the edge segment extracted from the reference image and the second image. The frame shape of the object is calculated as the second frame shape from the edge segment that does not correspond to the first frame shape among the edge segments in the reference image, using the correspondence relationship between the first frame shape and the second frame shape. An image processing method characterized by integrating a shape and a frame shape of an object.
【請求項3】 物体を複数の位置から撮像して得られる
画像から物体の形状を認識する画像処理装置において、 基準位置より前記物体を撮像して得られる基準画像及び
前記基準位置と異なる第1の位置より前記物体を撮像し
て得られる第1画像より抽出されたエッジセグメントに
おいて、それぞれの画像のエッジセグメント間で対応す
るエッジセグメント及び点を求め、該対応情報に基づき
基準画像中のエッジセグメントより物体のフレーム形状
を第1フレーム形状として算出する第1形状演算手段
と、 基準位置より前記物体を撮像して得られる基準画像、及
び、前記基準位置及び前記第1の位置と異なる第2の位
置より前記物体を撮像して得られる第2画像より抽出さ
れたエッジセグメントにおいて、それぞれの画像のエッ
ジセグメント間で対応するエッジセグメント及び点を求
め、該対応情報に基づき基準画像中のエッジセグメント
より物体のフレーム形状を第2フレーム形状として算出
する第2形状演算手段と、 前記基準画像のエッジセグメントに対応して前記第1フ
レーム形状を復元した後、第1フレーム形状で復元され
なかった基準画像のエッジセグメント部分に対応する前
記第2フレーム形状を復元することにより、第1フレー
ム形状と第2フレーム形状とを統合する統合手段とを有
することを特徴とする画像処理装置。
3. An image processing apparatus for recognizing a shape of an object from images obtained by picking up an image of an object from a plurality of positions, a first image different from the reference image obtained by picking up the object from a reference position, and the reference position. In the edge segment extracted from the first image obtained by imaging the object from the position, the corresponding edge segment and point between the edge segments of each image are obtained, and the edge segment in the reference image based on the correspondence information. A first shape calculation means for calculating the frame shape of the object as a first frame shape; a reference image obtained by imaging the object from a reference position; and a second image different from the reference position and the first position. In the edge segment extracted from the second image obtained by imaging the object from the position, between the edge segments of each image Second shape calculation means for obtaining the corresponding edge segment and point and calculating the frame shape of the object as the second frame shape from the edge segment in the reference image based on the correspondence information, and corresponding to the edge segment of the reference image. After restoring the first frame shape, the first frame shape and the second frame shape are restored by restoring the second frame shape corresponding to the edge segment portion of the reference image that was not restored in the first frame shape. An image processing apparatus comprising: an integration unit for integrating.
【請求項4】 物体を複数の位置から撮像して得られる
画像から物体の形状を認識する画像処理装置において、 基準位置より前記物体を撮像して得られる基準画像及び
前記基準位置と異なる第1の位置より前記物体を撮像し
て得られる第1画像より抽出されたエッジセグメントに
おいて、それぞれの画像のエッジセグメント間で対応す
るエッジセグメント及び点を求め、該対応情報に基づき
基準画像中のエッジセグメントより物体のフレーム形状
を第1フレーム形状として算出する第1形状演算手段
と、 基準位置より前記物体を撮像して得られる基準画像、及
び、前記基準位置及び前記第1の位置と異なる第2の位
置より前記物体を撮像して得られる第2画像より抽出さ
れたエッジセグメントのうち前記第1フレーム形状に対
応しないエッジセグメントより物体のフレーム形状を第
2フレーム形状として算出する第2形状演算手段と、 前記第1フレーム形状と前記第2フレーム形状とを統合
して物体のフレーム形状とする統合手段とを有すること
を特徴とする画像処理装置。
4. An image processing apparatus for recognizing a shape of an object from images obtained by picking up an image of an object from a plurality of positions, a first image different from the reference image obtained by picking up the object from a reference position, and the reference position. In the edge segment extracted from the first image obtained by imaging the object from the position, the corresponding edge segment and point between the edge segments of each image are obtained, and the edge segment in the reference image based on the correspondence information. A first shape calculation means for calculating the frame shape of the object as a first frame shape; a reference image obtained by imaging the object from a reference position; and a second image different from the reference position and the first position. Of the edge segments extracted from the second image obtained by imaging the object from the position, edges that do not correspond to the first frame shape A second shape calculating means for calculating the frame shape of the object as a second frame shape from the segment, and an integrating means for integrating the first frame shape and the second frame shape into the frame shape of the object. A characteristic image processing device.
【請求項5】 画像処理装置は、基準位置より前記物体
を撮像して得られる基準画像よりエッジセグメントを抽
出する基準画像入力手段と、 前記基準位置と異なる第1の位置より前記物体を撮像し
て得られる第1画像よりエッジセグメントを抽出する第
1画像入力手段と、 前記基準位置及び前記第1の位置と異なる第2の位置よ
り前記物体を撮像して得られる第2画像よりエッジセグ
メントを抽出する第2画像入力手段とを有することを特
徴とする請求項3又は4に記載の画像処理装置。
5. The image processing apparatus includes a reference image input means for extracting an edge segment from a reference image obtained by capturing the object from a reference position, and capturing the object from a first position different from the reference position. First image input means for extracting an edge segment from a first image obtained by the above, and an edge segment from a second image obtained by imaging the object from a second position different from the reference position and the first position. The image processing apparatus according to claim 3 or 4, further comprising a second image input unit for extracting.
JP7269322A 1995-09-21 1995-09-21 Image processing method and device therefor Pending JPH0991436A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7269322A JPH0991436A (en) 1995-09-21 1995-09-21 Image processing method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7269322A JPH0991436A (en) 1995-09-21 1995-09-21 Image processing method and device therefor

Publications (1)

Publication Number Publication Date
JPH0991436A true JPH0991436A (en) 1997-04-04

Family

ID=17470746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7269322A Pending JPH0991436A (en) 1995-09-21 1995-09-21 Image processing method and device therefor

Country Status (1)

Country Link
JP (1) JPH0991436A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331160A (en) * 1999-05-24 2000-11-30 Nec Corp Device and method for matching and recording medium stored with matching program
JP2000353244A (en) * 1999-06-10 2000-12-19 Atr Ningen Joho Tsushin Kenkyusho:Kk Method for obtaining basic matrix, method for restoring euclidean three-dimensional information and device therefor
JP2008186456A (en) * 2007-01-26 2008-08-14 Conversion Works Inc Methodology for 3d scene reconstruction from 2d image sequences
US7545973B2 (en) 2002-07-10 2009-06-09 Nec Corporation Image matching system using 3-dimensional object model, image matching method, and image matching program
US7706601B2 (en) 2003-08-29 2010-04-27 Nec Corporation Object posture estimation/correlation system using weight information
JP2010108328A (en) * 2008-10-31 2010-05-13 National Institute Of Information & Communication Technology Method and device for registering 3d-range data
JP2010112729A (en) * 2008-11-04 2010-05-20 Omron Corp Method of creating three-dimensional model, and object recognition device
US7986813B2 (en) 2004-03-03 2011-07-26 Nec Corporation Object pose estimation and comparison system using image sharpness differences, object pose estimation and comparison method using image sharpness differences, and program therefor
EP2479726A1 (en) 2003-10-21 2012-07-25 Nec Corporation Image comparison system and image comparison method
KR101327791B1 (en) * 2007-09-11 2013-11-20 삼성전자주식회사 Apparatus and method for matching color image and depth image each other
CN103913114A (en) * 2012-12-31 2014-07-09 深圳先进技术研究院 Method for position association between binocular vision systems
US8860712B2 (en) 2004-09-23 2014-10-14 Intellectual Discovery Co., Ltd. System and method for processing video images
US8878835B2 (en) 2007-03-12 2014-11-04 Intellectual Discovery Co., Ltd. System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331160A (en) * 1999-05-24 2000-11-30 Nec Corp Device and method for matching and recording medium stored with matching program
JP2000353244A (en) * 1999-06-10 2000-12-19 Atr Ningen Joho Tsushin Kenkyusho:Kk Method for obtaining basic matrix, method for restoring euclidean three-dimensional information and device therefor
US7873208B2 (en) 2002-07-10 2011-01-18 Nec Corporation Image matching system using three-dimensional object model, image matching method, and image matching program
US7545973B2 (en) 2002-07-10 2009-06-09 Nec Corporation Image matching system using 3-dimensional object model, image matching method, and image matching program
US7706601B2 (en) 2003-08-29 2010-04-27 Nec Corporation Object posture estimation/correlation system using weight information
EP2479726A1 (en) 2003-10-21 2012-07-25 Nec Corporation Image comparison system and image comparison method
US7986813B2 (en) 2004-03-03 2011-07-26 Nec Corporation Object pose estimation and comparison system using image sharpness differences, object pose estimation and comparison method using image sharpness differences, and program therefor
US8860712B2 (en) 2004-09-23 2014-10-14 Intellectual Discovery Co., Ltd. System and method for processing video images
JP2008186456A (en) * 2007-01-26 2008-08-14 Conversion Works Inc Methodology for 3d scene reconstruction from 2d image sequences
US8878835B2 (en) 2007-03-12 2014-11-04 Intellectual Discovery Co., Ltd. System and method for using feature tracking techniques for the generation of masks in the conversion of two-dimensional images to three-dimensional images
US9082224B2 (en) 2007-03-12 2015-07-14 Intellectual Discovery Co., Ltd. Systems and methods 2-D to 3-D conversion using depth access segiments to define an object
KR101327791B1 (en) * 2007-09-11 2013-11-20 삼성전자주식회사 Apparatus and method for matching color image and depth image each other
JP2010108328A (en) * 2008-10-31 2010-05-13 National Institute Of Information & Communication Technology Method and device for registering 3d-range data
JP2010112729A (en) * 2008-11-04 2010-05-20 Omron Corp Method of creating three-dimensional model, and object recognition device
CN103913114A (en) * 2012-12-31 2014-07-09 深圳先进技术研究院 Method for position association between binocular vision systems

Similar Documents

Publication Publication Date Title
JP3242529B2 (en) Stereo image matching method and stereo image parallax measurement method
Nistér Reconstruction from uncalibrated sequences with a hierarchy of trifocal tensors
EP1072014B1 (en) Face recognition from video images
US7680323B1 (en) Method and apparatus for three-dimensional object segmentation
JP2940317B2 (en) Image processing device
JP4963964B2 (en) Object detection device
KR20180087947A (en) Modeling method and modeling apparatus using 3d point cloud
JPH0991436A (en) Image processing method and device therefor
JP4110501B2 (en) Random pattern generation apparatus and method, distance image generation apparatus and method, and program providing medium
JP3988574B2 (en) Image processing device
KR100792172B1 (en) Apparatus and method for estimating fundamental matrix using robust correspondence point
JP4337203B2 (en) Distance image generating apparatus, distance image generating method, and program providing medium
EP1580684B1 (en) Face recognition from video images
JPH08329110A (en) Method for processing picture
JPH05122602A (en) Range moving image input processing method
JP2000331160A (en) Device and method for matching and recording medium stored with matching program
JP2007257489A (en) Image processor and image processing method
Jeon et al. A robust stereo-matching algorithm using multiple-baseline cameras
Subramanian et al. Segmentation and range sensing using a moving-aperture lens
JP2002257543A (en) High precision stereo vision using continuous frame image
JP3365443B2 (en) 3D position measurement method
Lin et al. 3D shape recovery with registration assisted stereo matching
Ghamsari Featuremetric Refined Structure From Motion with a Hand-held Camera and Point Cloud Registration in Urban Scenarios
JPH05225335A (en) Object area segmenting device
JP2000125196A (en) Input image processing method, input image processor, and recording medium recording input image processing program