JP3852704B2 - Method and apparatus for recognizing three-dimensional shape of object - Google Patents

Method and apparatus for recognizing three-dimensional shape of object Download PDF

Info

Publication number
JP3852704B2
JP3852704B2 JP2004072465A JP2004072465A JP3852704B2 JP 3852704 B2 JP3852704 B2 JP 3852704B2 JP 2004072465 A JP2004072465 A JP 2004072465A JP 2004072465 A JP2004072465 A JP 2004072465A JP 3852704 B2 JP3852704 B2 JP 3852704B2
Authority
JP
Japan
Prior art keywords
signal
camera
image
continuous image
recognizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004072465A
Other languages
Japanese (ja)
Other versions
JP2005257608A (en
Inventor
孝一郎 槇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Metal Mining Co Ltd
Original Assignee
Sumitomo Metal Mining Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Metal Mining Co Ltd filed Critical Sumitomo Metal Mining Co Ltd
Priority to JP2004072465A priority Critical patent/JP3852704B2/en
Publication of JP2005257608A publication Critical patent/JP2005257608A/en
Application granted granted Critical
Publication of JP3852704B2 publication Critical patent/JP3852704B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、2次元形状パターン抽出による従来の画像処理手法を用いることなく物体の3次元形状を認識する方法とその装置に係り、製品検査用、車両に搭載する周辺物体情報取得装置としてあるいは防犯および交通の監視用カメラとして適用できると共に、認識した物体の3次元形状を推定しその近未来の変化をシミュレーションすることを可能とする物体の3次元形状を認識する方法とその装置に関するものである。   The present invention relates to a method and apparatus for recognizing a three-dimensional shape of an object without using a conventional image processing technique based on two-dimensional shape extraction, and is used for product inspection, as a peripheral object information acquisition device mounted on a vehicle, or for crime prevention. The present invention relates to a method and apparatus for recognizing a three-dimensional shape of an object that can be applied as a camera for monitoring traffic and that can estimate a three-dimensional shape of a recognized object and simulate changes in the near future. .

カメラの撮影による3次元形状認識は、通常、二つのカメラからの画像を基にパターン認識の手法を用いて抽出した物体形状パターンの距離を推定する方法が用いられる。   For the three-dimensional shape recognition by photographing with a camera, a method of estimating the distance of an object shape pattern extracted using a pattern recognition method based on images from two cameras is usually used.

この方法では、まずカメラからの複数画像を準備し、次いでCPUとメモリーから構成される画像処理専用装置を用い上記画像のドットイメージをベースとした画像処理を行って共通パターンを抽出し、その視線交差の関係から推定される距離を抽出したパターンに属性として付与するものである。ここで用いられるパターンは輝度変化やカラーパターン変化から抽出される2次元幾何学模様であり、当該幾何学模様に対してその面内のカメラからの平均距離を付与するものである。三つ以上のカメラを用いた場合も、基本的な処理方法は同じで、いずれも各撮影画像から2次元幾何学模様の物体形状をパターン抽出する画像処理装置を必要としている。   In this method, first, a plurality of images from a camera are prepared, and then a common pattern is extracted by performing image processing based on the dot image of the above image using a dedicated image processing device composed of a CPU and a memory, and its line of sight The distance estimated from the crossing relationship is given as an attribute to the extracted pattern. The pattern used here is a two-dimensional geometric pattern extracted from a luminance change or a color pattern change, and gives an average distance from the camera in the plane to the geometric pattern. Even when three or more cameras are used, the basic processing method is the same, and all of them require an image processing apparatus that extracts a two-dimensional geometric pattern object shape from each captured image.

ところで、このパターン処理速度や物体までの距離の計測はCPUの速度に依存し、画素数が多い高分解能カメラを用いた3次元形状認識では、当然ながら画素数の自乗に比例した時間を要するものであった。更に、距離の異なる物体が大小複数存在するような画像では、認識の対象となるパターンが複数個になるためより一層の時間を要するものであった。ましてや、遠いところにある小さい物体が一つのカメラの画像中に撮影されていて、もう一方のカメラでは近い大きな物体の影に隠れて画像中にパターンとして存在しないかあるいはパターンが切断されているような場合には、そのパターン認識は不可能であり、当然のことながら距離の推定もできなかった。   By the way, the measurement of the pattern processing speed and the distance to the object depends on the speed of the CPU. Of course, in the three-dimensional shape recognition using a high resolution camera with a large number of pixels, it takes time proportional to the square of the number of pixels. Met. Furthermore, in an image in which a plurality of objects having different distances exist, a larger amount of time is required because there are a plurality of patterns to be recognized. In addition, a small object that is far away is captured in the image of one camera, and the other camera is hidden in the shadow of a nearby large object and does not exist as a pattern in the image, or the pattern is cut off. In such a case, the pattern cannot be recognized, and naturally the distance cannot be estimated.

他方、カメラを用いない方法では、ミリ波レーダおよびレーザレーダを用いたものが知られている。これらの方法では、悪条件下で高い信頼性を有し、車載のオートクルーズコントロールシステムにおいて実用化されている。しかしながら、タイヤおよび木製の箱のような非金属の小さな障害物を検出する能力が低い欠点があった。   On the other hand, as a method not using a camera, a method using a millimeter wave radar and a laser radar is known. These methods have high reliability under adverse conditions and have been put into practical use in an in-vehicle auto cruise control system. However, it has the disadvantage of having a low ability to detect small non-metallic obstacles such as tires and wooden boxes.

また、カメラを一台だけ用いたシステムとして、車が走行することを前提とした、車に搭載されたカメラで走行中に取得される連続画像によるオプティカルフローを用いる方法が提案されている。平坦な路面の画像から得られるオプティカルフローベクトルはある特定の式に従うことから、この規則に当てはまらないポイントがあれば路面と異なる高さの物体と認識する方法である。更に、この連続画像を車の移動に合わせて画像処理する方法も提案されている(特許文献1参照)。   In addition, as a system using only one camera, a method using an optical flow based on continuous images acquired during traveling with a camera mounted on the vehicle on the assumption that the vehicle travels has been proposed. Since an optical flow vector obtained from an image of a flat road surface follows a specific formula, if there is a point that does not apply to this rule, it is a method of recognizing an object having a height different from that of the road surface. Furthermore, a method has been proposed in which this continuous image is subjected to image processing in accordance with the movement of the car (see Patent Document 1).

しかし、この方法もCPUを備えた画像処理装置を必要とするため、画像処理する対象となる物体数が多かったり、高分解能での撮影画像である場合には多くの処理時間を要する欠点があった。また、車が低速の場合にはオプティカルフローベクトルが小さくなり、3次元認識ができなくなったり、別途背景の3次元情報を保持する装置が必要となる等の問題があった。
特開2001−266160号公報
However, since this method also requires an image processing device equipped with a CPU, there are disadvantages that a large amount of processing time is required when there are a large number of objects to be image-processed or high-resolution captured images. It was. In addition, when the vehicle is slow, the optical flow vector becomes small, making it impossible to recognize three-dimensionally, or requiring a separate device for holding background three-dimensional information.
JP 2001-266160 A

本発明はこのような問題点に着目してなされたもので、その課題とするところは、画素数が増えたり認識対象の物体が増えたりすることで処理時間が長くなる2次元形状パターン抽出による従来の画像処理手法を用いずに3次元形状の認識が可能となる物体の3次元形状を認識する方法とその装置を提供することにある。   The present invention has been made paying attention to such problems, and the problem is that the two-dimensional shape pattern extraction that increases the processing time due to an increase in the number of pixels and an increase in objects to be recognized. An object of the present invention is to provide a method and apparatus for recognizing a three-dimensional shape of an object that can recognize a three-dimensional shape without using a conventional image processing method.

すなわち、請求項1に係る発明は、
カメラから撮影対象である物体への方向をZ方向としカメラで撮影された連続画像に基づき物体の3次元形状を認識する方法を前提とし、
上記Z方向に垂直若しくは略垂直な面内でカメラを一方向若しくは複数方向へ直接若しくは間接的に移動させながら上記物体を連続的に撮影して連続画像を取得し、かつ、各画像の掃引信号で構成される連続画像信号を取得する工程と、
得られた連続画像信号の中で、特徴的な信号強度の位置の変位量(ΔP)およびカメラの移動距離(ΔD)に対する下記数式(1)の比例係数(α/L)をその特徴的な信号強度の初期位置と関連付けることで上記連続画像信号からZ方向の距離に関連したZ値を有する物体における3次元空間の面分布データを求める工程と、
得られた3次元空間の面分布データから部分一致検索により物体特定を行う工程、の各工程を具備することを特徴とする。
That is, the invention according to claim 1
Assuming a method of recognizing the three-dimensional shape of an object based on continuous images taken by the camera with the direction from the camera to the object being photographed as the Z direction,
A continuous image is obtained by continuously photographing the object while moving the camera in one direction or a plurality of directions directly or indirectly in a plane perpendicular or substantially perpendicular to the Z direction, and a sweep signal of each image Obtaining a continuous image signal comprising:
Among the obtained continuous image signals, the proportional coefficient (α / L) of the following formula (1) with respect to the displacement (ΔP) of the position of the characteristic signal strength and the movement distance (ΔD) of the camera is characteristic. Obtaining surface distribution data in a three-dimensional space in an object having a Z value related to a distance in the Z direction from the continuous image signal in association with an initial position of signal intensity;
Each step of specifying an object by partial matching search from the obtained surface distribution data of the three-dimensional space is provided.

ΔP=(α/L)・ΔD=α・(1/L)ΔD (1)
但し、Lはカメラから撮影対象である物体までの距離、また、αは受像システムで決まる上記数式(1)における(1/L)ΔDの係数である。
ΔP = (α / L) · ΔD = α · (1 / L) ΔD (1)
However, L is the distance from the camera to the object to be photographed, and α is a coefficient of (1 / L) ΔD in the above formula (1) determined by the image receiving system.

また、請求項2に係る発明は、
請求項1記載の発明に係る物体の3次元形状を認識する方法を前提とし、
上記連続画像信号が、各画像における掃引信号の差分で得られる連続画像差分信号であることを特徴とし、
請求項3に係る発明は、
請求項1または2記載の発明に係る物体の3次元形状を認識する方法を前提とし、
各画像における水平同期の掃引信号を用いて上記連続画像信号または連続画像差分信号を求めることを特徴とし、
請求項4に係る発明は、
請求項1または2記載の発明に係る物体の3次元形状を認識する方法を前提とし、
Z方向に垂直若しくは略垂直な面内でカメラを一方向若しくは複数方向へ周期的に直接若しくは間接的に移動させることを特徴とし、
請求項5に係る発明は、
請求項1、2または4記載の発明に係る物体の3次元形状を認識する方法を前提とし、
Z方向に垂直若しくは略垂直な面内でカメラを円方向若しくは楕円方向へ直接若しくは間接的に移動させることを特徴とするものである。
The invention according to claim 2
Based on the method for recognizing the three-dimensional shape of an object according to the invention of claim 1,
The continuous image signal is a continuous image difference signal obtained by a difference between sweep signals in each image,
The invention according to claim 3
Based on the method for recognizing the three-dimensional shape of an object according to the invention of claim 1 or 2,
Obtaining the continuous image signal or the continuous image difference signal using a horizontal synchronous sweep signal in each image,
The invention according to claim 4
Based on the method for recognizing the three-dimensional shape of an object according to the invention of claim 1 or 2,
The camera is periodically or directly moved in one or more directions within a plane perpendicular or substantially perpendicular to the Z direction,
The invention according to claim 5
Based on the method for recognizing the three-dimensional shape of the object according to the invention of claim 1, 2 or 4,
The camera is moved directly or indirectly in a circular direction or an elliptical direction within a plane perpendicular or substantially perpendicular to the Z direction.

次に、請求項6に係る発明は、
カメラから撮影対象である物体への方向をZ方向としカメラで撮影された連続画像に基づき物体の3次元形状を認識する装置を前提とし、
上記Z方向に垂直若しくは略垂直な面内でカメラを一方向若しくは複数方向へ直接若しくは間接的に移動させながら上記物体を連続的に撮影して連続画像を取得し、かつ、各画像の掃引信号で構成される連続画像信号を取得する手段と、
得られた連続画像信号の中で、特徴的な信号強度の位置の変位量(ΔP)およびカメラの移動距離(ΔD)に対する下記数式(1)の比例係数(α/L)をその特徴的な信号強度の初期位置と関連付けることで上記連続画像信号からZ方向の距離に関連したZ値を有する物体における3次元空間の面分布データを求める手段と、
得られた3次元空間の面分布データから部分一致検索により物体特定を行う手段とでその主要部が構成されることを特徴とし、
ΔP=(α/L)・ΔD=α・(1/L)ΔD (1)
但し、Lはカメラから撮影対象である物体までの距離、また、αは受像システムで決まる上記数式(1)における(1/L)ΔDの係数である。
Next, the invention according to claim 6 is:
Assuming a device that recognizes the three-dimensional shape of an object based on continuous images taken by the camera, with the direction from the camera to the object being imaged as the Z direction,
A continuous image is obtained by continuously photographing the object while moving the camera in one direction or a plurality of directions directly or indirectly in a plane perpendicular or substantially perpendicular to the Z direction, and a sweep signal of each image Means for obtaining a continuous image signal comprising:
Among the obtained continuous image signals, the proportional coefficient (α / L) of the following formula (1) with respect to the displacement (ΔP) of the position of the characteristic signal strength and the movement distance (ΔD) of the camera is characteristic. Means for obtaining surface distribution data of a three-dimensional space in an object having a Z value related to a distance in the Z direction from the continuous image signal by associating with an initial position of signal intensity;
The main part is constituted by means for specifying an object by partial matching search from the obtained surface distribution data of the three-dimensional space,
ΔP = (α / L) · ΔD = α · (1 / L) ΔD (1)
However, L is the distance from the camera to the object to be photographed, and α is a coefficient of (1 / L) ΔD in the above formula (1) determined by the image receiving system.

請求項7に係る発明は、
請求項6記載の発明に係る物体の3次元形状を認識する装置を前提とし、
上記連続画像信号が、各画像における掃引信号の差分で得られる連続画像差分信号であることを特徴とする。
The invention according to claim 7 provides:
Assuming an apparatus for recognizing the three-dimensional shape of an object according to the invention of claim 6,
The continuous image signal is a continuous image difference signal obtained by a difference between sweep signals in each image.

本発明に係る物体の3次元形状を認識する方法とその装置によれば、
Z方向に垂直若しくは略垂直な面内でカメラを一方向若しくは複数方向へ直接若しくは間接的に移動させながら上記物体を連続的に撮影して連続画像を取得し、かつ、各画像の掃引信号で構成される連続画像信号を取得する工程または手段と、
得られた連続画像信号の中で、特徴的な信号強度の位置の変位量(ΔP)およびカメラの移動距離(ΔD)に対する下記数式(1)の比例係数(α/L)をその特徴的な信号強度の初期位置と関連付けることで上記連続画像信号からZ方向の距離に関連したZ値を有する物体における3次元空間の面分布データを求める工程または手段と、
ΔP=(α/L)・ΔD=α・(1/L)ΔD (1)
得られた3次元空間の面分布データから部分一致検索により物体特定を行う工程または手段の各工程または手段を具備するため、
画素数が増えたり認識対象の物体が増えたりすることで処理時間が長くなる2次元形状パターン抽出による従来の画像処理手法を用いることなく3次元形状の認識が可能となる。
According to the method and apparatus for recognizing the three-dimensional shape of an object according to the present invention,
The above object is continuously photographed while moving the camera directly or indirectly in one or more directions in a plane perpendicular or substantially perpendicular to the Z direction, and continuous images are acquired. Obtaining a continuous image signal comprising, or means;
Among the obtained continuous image signals, the proportional coefficient (α / L) of the following formula (1) with respect to the displacement (ΔP) of the position of the characteristic signal strength and the movement distance (ΔD) of the camera is characteristic. Obtaining surface distribution data of a three-dimensional space in an object having a Z value related to a distance in the Z direction from the continuous image signal by associating with an initial position of signal intensity;
ΔP = (α / L) · ΔD = α · (1 / L) ΔD (1)
In order to provide each step or means of performing the object identification by partial match search from the obtained surface distribution data of the three-dimensional space,
It is possible to recognize a three-dimensional shape without using a conventional image processing technique based on two-dimensional shape pattern extraction that increases the processing time by increasing the number of pixels or the number of objects to be recognized.

従って、本発明に係る方法または装置を、例えば電子機器のコネクター等大量に製造される小型製品部品を検査する分野に応用した場合、小型製品部品のひとつひとつの向きを認識できるようになるため、部品を組み立てる際のロボット作業負荷を著しく減少させることが可能となる。   Accordingly, when the method or apparatus according to the present invention is applied to the field of inspecting small product parts manufactured in large quantities such as connectors of electronic equipment, for example, it becomes possible to recognize the direction of each small product part. It is possible to significantly reduce the robot workload when assembling the robot.

また、本発明に係る装置を、例えば走行中の車に搭載した場合、停車中の他の車の方向を識別することで画像に映っていない影の部分も含めて形状を認識できるため、車のドアのすべての位置を特定することが可能となる。また、車のガラスを通してその先の物体を認識することによりはじめに一致した形状(車)以外の物体を切り出し、かつ、切り出した部分について部分形状一致による認識が可能となるため、車の背後に存在する歩行者を認識することができるようになる。従って、ドアが開く危険性や歩行者飛び出しの可能性を予知・推察する機能への橋渡しが可能となる効果がある。   In addition, when the apparatus according to the present invention is mounted on, for example, a traveling car, the shape can be recognized including the shadowed part that is not shown in the image by identifying the direction of the other stopped car. It becomes possible to specify all positions of the door. In addition, by recognizing the object ahead through the car glass, it is possible to cut out an object other than the matched shape (car) first, and to recognize the cut out part by matching the partial shape. Pedestrians can be recognized. Therefore, there is an effect that it is possible to bridge to a function for predicting / inferring the danger of the door opening and the possibility of the pedestrian jumping out.

以下、本発明について図面を用いて詳細に説明する。   Hereinafter, the present invention will be described in detail with reference to the drawings.

本発明に係る3次元形状を認識する装置は、水平に移動可能なカメラとその駆動機構および信号変換部から成り物体の連続画像信号を取得する手段と、得られた連続画像信号からZ方向の距離に関連したZ値を有する物体における3次元空間の面分布データを求める手段と、得られた3次元空間の面分布データから部分一致検索により物体特定を行う手段とでその主要部が構成されている。   An apparatus for recognizing a three-dimensional shape according to the present invention comprises a horizontally movable camera, its driving mechanism and a signal conversion unit, means for acquiring a continuous image signal of an object, and a Z direction direction from the obtained continuous image signal. The main part is composed of means for obtaining surface distribution data in a three-dimensional space for an object having a Z value related to distance, and means for specifying an object by partial match search from the obtained surface distribution data in the three-dimensional space. ing.

まず、上記連続画像信号を取得する手段と3次元空間の面分布データを求める手段について説明する。   First, the means for obtaining the continuous image signal and the means for obtaining surface distribution data in a three-dimensional space will be described.

撮影カメラにはアナログ方式とデジタル方式があるが、いずれの場合も、2次元に配列された画素マトリックスからの信号を送出する。いずれの場合もアナログ信号の水平掃引信号と垂直同期信号の組み合わせとする。送信される信号の中で特徴的な信号として輝度を例として取り上げる。   There are analog and digital imaging cameras, but in either case, signals are sent from a two-dimensionally arranged pixel matrix. In any case, the analog signal is a combination of a horizontal sweep signal and a vertical synchronization signal. The luminance is taken as an example as a characteristic signal among the transmitted signals.

ある直方体の物体(図1B参照。尚、図1Bは物体を少し斜めから観た状態で表示している)を撮影した画像(但し、この画像は物体を正面から撮影したもので物体の側面の領域は見えない状態である)の一本の水平掃引信号は、背景が黒掛かっている色でかつ物体が白っぽい色であれば、物体位置に対応した画素位置での色信号は、図1(A)に示すように台形状に表れる。いまこの台形状に立ち上がる信号位置をPとして、カメラがΔD移動した時点で再度信号を取得したとき、この信号位置P0はカメラから物体までの距離をLとして以下の数式(1)のΔPだけずれる。 An image of a certain cuboid object (see FIG. 1B. FIG. 1B shows the object viewed from a slight angle) (however, this image is an image of the object taken from the front, If the horizontal sweep signal has a black background and the object is whitish, the color signal at the pixel position corresponding to the object position is shown in FIG. It appears in a trapezoidal shape as shown in A). If the signal position rising in this trapezoidal shape is now P and the signal is acquired again when the camera moves by ΔD, this signal position P 0 is the distance from the camera to the object as L, and ΔP in the following equation (1). Shift.

ΔP=α・(1/L)ΔD (1)
尚、数式(1)は、図2に示す三角形の比より(L:ΔD=α:ΔP)の関係から求まる関係式である。また、数式(1)の係数αはカメラのレンズ系や受像機構等受像システムによって決定される撮影に特徴される定数で、同時に撮影される物体に対しては一定である。
ΔP = α · (1 / L) ΔD (1)
In addition, Formula (1) is a relational expression obtained from the relation of (L: ΔD = α: ΔP) from the ratio of triangles shown in FIG. In addition, the coefficient α in the formula (1) is a constant characteristic of photographing determined by an image receiving system such as a camera lens system and an image receiving mechanism, and is constant for an object photographed at the same time.

従って、信号位置Pのカメラ移動量に対する変化係数dP/dD=α(1/L)は距離の近さに関係付けられる。   Therefore, the change coefficient dP / dD = α (1 / L) with respect to the camera movement amount of the signal position P is related to the proximity of the distance.

被撮影体からの光信号が時間変化しないものとすれば、あるいは、被撮影体からの光信号の時間変化よりカメラの水平変位の変化による寄与が十分大きい場合には、明らかに背景からの信号の模様の動きと距離Lにある物体表面からの信号の模様の動きとはΔPだけ集団的に異なるために、その境界信号(ここでは台形上の立ち上がり信号等)を追跡することにより、変位ΔPを計測でき距離(L/α)が逆算される。距離(L/α)はαを単位長さとした距離である。   If the optical signal from the subject does not change over time, or if the contribution due to the change in the horizontal displacement of the camera is sufficiently greater than the temporal change of the optical signal from the subject, the signal from the background is clearly Since the movement of the pattern of the signal and the movement of the pattern of the signal from the object surface at the distance L are collectively different by ΔP, the displacement ΔP is obtained by tracking the boundary signal (here, the rising signal on the trapezoid). Can be measured and the distance (L / α) is calculated backward. The distance (L / α) is a distance in which α is a unit length.

そして、画像面内でのカメラの移動方向に対応する水平方向をXとすれば、上記水平信号はあるY値についてのものであり、信号位置Pは画像面内でのX値を示す。これより、画像面内のポイント(X,Y)に対して距離(L/α)をZ値として(X、Y、Z)の3次元における成分セットを算出することができる。更に、カメラ変位ΔDが連続的変化することによりΔPがより正確に求められ、Z値を有する物体における3次元空間の面分布データを得ることができる。   If the horizontal direction corresponding to the moving direction of the camera in the image plane is X, the horizontal signal is for a certain Y value, and the signal position P indicates the X value in the image plane. Thus, a three-dimensional component set of (X, Y, Z) can be calculated with the distance (L / α) as the Z value for the point (X, Y) in the image plane. Furthermore, since the camera displacement ΔD continuously changes, ΔP can be obtained more accurately, and plane distribution data in a three-dimensional space for an object having a Z value can be obtained.

以下、画像面内のポイント(X,Y)に対して距離(L/α)をZ値として(X、Y、Z)の3次元における成分セットを算出する手法について具体的に説明する。   Hereinafter, a method of calculating a three-dimensional component set of (X, Y, Z) with a distance (L / α) as a Z value with respect to a point (X, Y) in the image plane will be specifically described.

まず、直方体形状の物体が1つある場合について説明する。   First, a case where there is one rectangular parallelepiped object will be described.

図3(A)〜(C)に示すように3枚の画像から水平同期の掃引信号(連続画像信号)を求める。尚、連続画像信号におけるhは直方体側面輝度、iは直方体正面輝度、jは背景輝度、kはエッジ線輝度をそれぞれ示している。   As shown in FIGS. 3A to 3C, a horizontal synchronous sweep signal (continuous image signal) is obtained from three images. In the continuous image signal, h is a rectangular parallelepiped side luminance, i is a rectangular parallelepiped front luminance, j is a background luminance, and k is an edge line luminance.

そして、得られたこれ等連続画像信号の中で、特徴的な信号強度の位置(例えば、図3A〜Cのh、i、j等の位置)の変位量(ΔP)およびカメラの移動距離(ΔD)に対する数式(1)の比例係数(α/L)をその特徴的な信号強度の初期位置と関連付けることで上記連続画像信号からZ方向の距離に関連したZ値を有する物体における3次元空間の面分布データを求めることができる。   Among these obtained continuous image signals, the displacement (ΔP) of the position of the characteristic signal intensity (for example, the position of h, i, j, etc. in FIGS. 3A to 3C) and the moving distance of the camera ( By associating the proportionality coefficient (α / L) of equation (1) with respect to ΔD) with the initial position of the characteristic signal intensity, a three-dimensional space in an object having a Z value related to the distance in the Z direction from the continuous image signal Can be obtained.

また、図4に示すように小さい直方体がそばにあり、撮影の途中で物体(大きな直方体)の陰に隠れる場合について説明する。   Further, a case will be described in which a small rectangular parallelepiped is nearby and hidden behind an object (large rectangular parallelepiped) during shooting as shown in FIG.

図4に示すようにカメラを図面左から右へ移動する状況を8段階で表示した場合、得られた8枚の各画像から水平同期の掃引信号(連続画像信号)を求めると、各画像に対応した図5(A)〜(H)に示すような形状の画像信号が得られ、かつ、図5(H)に示す時点で小さい直方体は大きな直方体の陰に隠れる。   As shown in FIG. 4, when the situation of moving the camera from the left to the right in the drawing is displayed in eight stages, when a horizontal synchronous sweep signal (continuous image signal) is obtained from each of the obtained eight images, Corresponding image signals having the shapes shown in FIGS. 5A to 5H are obtained, and the small rectangular parallelepiped is hidden behind the large rectangular parallelepiped at the time shown in FIG.

そして、図5(E)と図5(F)の連続画像信号からZ方向の距離に関連したZ値を求める方法の一例を以下説明する。   An example of a method for obtaining the Z value related to the distance in the Z direction from the continuous image signals in FIGS. 5E and 5F will be described below.

まず、図6(A)(図5Eに対応する)の画像信号(掃引信号)では特徴的な信号線は4本観測される。この信号を図6(B)(図5Fに対応する)まで追跡すると、信号1と4は変化が遅く、信号2と3は変化が速いかまたは大きい。   First, four characteristic signal lines are observed in the image signal (sweep signal) in FIG. 6A (corresponding to FIG. 5E). When this signal is traced to FIG. 6B (corresponding to FIG. 5F), signals 1 and 4 change slowly and signals 2 and 3 change fast or large.

従って、各信号線の変化量をΔP1、ΔP2、ΔP3、ΔP4とすると、
ΔP1〜ΔP4<ΔP2〜ΔP3 (2)
という不等式(2)で示される関係になる。尚、「〜」は略同等であることを示している。
Accordingly, if the amount of change of each signal line is ΔP 1 , ΔP 2 , ΔP 3 , ΔP 4 ,
ΔP 1 to ΔP 4 <ΔP 2 to ΔP 3 (2)
It becomes the relationship shown by the inequality (2). “˜” indicates that they are substantially equivalent.

そして、上述した数式(1)に基づきZ値すなわち物体表面までの距離を求めると、
1〜Z4>Z2〜Z3 (3)
という不等式(3)が得られる。尚、「〜」も略同等であることを示している。
And when obtaining the Z value, that is, the distance to the object surface, based on the above-described formula (1),
Z 1 to Z 4 > Z 2 to Z 3 (3)
The inequality (3) is obtained. It should be noted that “˜” also indicates that they are substantially equivalent.

背景のZ値を求めるような特徴線が無いので背景のZ値を無限大とすれば、これ等のZ値を図6(A)の水平掃引線H上に図示すると図7のようになり、Z値が求まる。尚、各Z値間は内挿をとるとする。   Since there is no feature line for obtaining the background Z value, if the background Z value is infinite, these Z values are illustrated on the horizontal sweep line H in FIG. 6A as shown in FIG. , The Z value is obtained. It is assumed that interpolation is performed between the Z values.

ここで、図7において破線は、一本の水平掃引で処理することで得られるもうひとつの可能性(解)であり、実際、正面や側面が均一な色で塗られていると、汚れやしみ等による特徴的な信号がなければ区別がつかない。   Here, the broken line in FIG. 7 is another possibility (solution) obtained by processing with one horizontal sweep. In fact, if the front and side surfaces are painted in a uniform color, If there is no characteristic signal due to a stain or the like, it cannot be distinguished.

しかし、水平線全部を用いて画像全体を処理することにより立方体表面や側面等のその閉じた領域のZ値を推定することが出来、どちらの解であるかを判断することはできる。   However, by processing the entire image using the entire horizontal line, the Z value of the closed region such as the cube surface or side surface can be estimated, and which solution can be determined.

そして、実際の画像の多くは多様な線と点の集合であり、それらはそれぞれ特徴信号として処理できるため、それぞれがZ値を持ち面内のZ値内挿は容易なものになる。   Many of the actual images are a set of various lines and points, and each of them can be processed as a feature signal, so that each has a Z value, and the Z value interpolation within the surface becomes easy.

ここで、上記数式(1)におけるαは、上述したように受像システムに特徴づけられる係数で、ΔPと(1/L)ΔDとを結びつける比例定数である。   Here, α in Equation (1) is a coefficient characterized in the image receiving system as described above, and is a proportionality constant that links ΔP and (1 / L) ΔD.

そして、受像システムが単純にレンズ(カメラのレンズで図示せず)を通して結像したフィルムや撮像管等、単純な受像システムの場合には、上記αは、図2に示すようにレンズから投影面(フィルムや撮像管等)までの距離に等しい。   When the image receiving system is a simple image receiving system such as a film or an imaging tube that is simply imaged through a lens (not shown by a camera lens), α is projected from the lens as shown in FIG. It is equal to the distance to (film, imaging tube, etc.).

また、大型スクリーンに投影して得られた像を連続画像として利用する場合には、単純な受像システムの場合における上記距離に単純な受像システムの場合における上記投影面に投影された像の倍率を乗じたものがαとなる。   In addition, when using an image obtained by projecting on a large screen as a continuous image, the magnification of the image projected on the projection plane in the case of a simple image receiving system is set to the distance in the case of a simple image receiving system. The product is α.

また、アナログの信号に変換された像を連続画像として利用する場合には、ΔPは水平信号として利用されるため、その単位は電圧(ボルト)であり、更にその単位を変換するための係数を乗じたものがαとなる。デジタル信号の場合には、信号はドット単位の数(整数で無次元であるが個の単位とする)になるため、1ドット(個)当りに相当する長さを乗じたものがαとなる。   In addition, when an image converted into an analog signal is used as a continuous image, ΔP is used as a horizontal signal. Therefore, the unit is voltage (volt), and a coefficient for converting the unit is used. The product is α. In the case of a digital signal, the signal is the number of dot units (integer and dimensionless but in units), so α multiplied by the length corresponding to each dot (piece) is α. .

いずれにしても上記αは、撮影対象である物体(被写体)の大きさや位置(L)には依存しない受像システムで決まる係数である。この係数は、予め標準の被写体を用いて校正することにより、使用前に決定しておくことができる。   In any case, α is a coefficient determined by the image receiving system that does not depend on the size or position (L) of the object (subject) to be imaged. This coefficient can be determined before use by calibrating in advance using a standard subject.

ところで、以上の説明は単純な輝度信号によるZ値の認識であったが、より一般的な映像を考慮し最もこれまでの技術で困難であった背景と物体の模様が重なる場合を考える。例えば、背景壁面に明暗の縞模様があり、物体である直方体表面にも同様に明暗の縞模様があり、これらの模様が偶然撮影した際に全く重なる縞の間隔と輝度であった場合である。これは、2次元形状パターン抽出による従来の画像処理手法では、模様が重なっているために識別することが不可能な状態である。背景壁面が直方体の位置(距離L)に比べ十分遠方にあれば、カメラがΔDだけ変位した際に信号位置がΔPずれるのは直方体だけであるから、図8(A)〜(B)に示すように上述した方法により各画素に(X,Y,Z)値を割り振ることで3次元のXYZ空間上で直方体は背景壁面と分離される。また、直方体範囲が移動することにより消失する直方体近傍で観察された背景壁部分があることで、直方体部分と背景部分とが連続していないことが判断でき、それぞれが独立したオブジェクトであると認識することも可能となる。   By the way, although the above explanation was the recognition of the Z value by a simple luminance signal, a case where a background and an object pattern overlap most difficult with conventional techniques is considered in consideration of a more general image. For example, there are bright and dark striped patterns on the background wall, and there are also bright and dark striped patterns on the surface of the rectangular parallelepiped that is the object. . This is a state in which the conventional image processing method using two-dimensional shape pattern extraction cannot be identified because the patterns overlap. If the background wall surface is sufficiently far away from the position of the rectangular parallelepiped (distance L), the signal position is shifted by ΔP only when the camera is displaced by ΔD, and therefore, as shown in FIGS. As described above, the rectangular parallelepiped is separated from the background wall surface in the three-dimensional XYZ space by assigning (X, Y, Z) values to each pixel by the method described above. In addition, since there is a background wall portion observed in the vicinity of the cuboid that disappears due to the movement of the cuboid range, it can be determined that the cuboid portion and the background portion are not continuous, and each is recognized as an independent object. It is also possible to do.

このような水平信号の処理により各水平信号と対を成して距離信号(Z)を送出することが出来る。デジタル処理では、2次元分布する(X、Y)の画素の輝度またはカラー信号(RGB)に加えて距離信号(Z)を新規データとして保存メモリー領域に追加することが出来る。   Such a horizontal signal processing makes it possible to send a distance signal (Z) in pairs with each horizontal signal. In the digital processing, the distance signal (Z) can be added to the storage memory area as new data in addition to the luminance or color signal (RGB) of the two-dimensionally distributed (X, Y) pixels.

これらの処理は、上述したように複数の物体が異なる距離に存在していても同様に適用でき、各画素(X、Y)に対してZ値が求まることから、あたかも各物体にカメラから照明を投げ反射された部分だけを取り出した処理のような結果を得ることが出来る。   These processes can be applied in the same manner even when a plurality of objects exist at different distances as described above, and a Z value is obtained for each pixel (X, Y), so that each object is illuminated from the camera. It is possible to obtain a result like a process in which only the reflected part is taken out by throwing.

ところで、本発明に係る説明ではカメラを移動した例を取り上げているが、カメラを固定してミラーを使って画像を変位させた場合も同様の効果を得られることは明らかである。また、カメラ移動面がカメラの焦点方向に垂直である例を用いて説明したが、カメラの移動を方向と大きさを持つベクトルと考えてそのベクトルの垂直面(カメラの焦点方向)への投影成分があれば同様の効果を得られることも明らかである。すなわち、厳密に垂直面上でカメラを移動させる必要はなく、カメラにおける駆動機構の誤差範囲や焦点方向の精度により仮に数十度のずれがあっても同様の効果がある。これは、カメラに映し出される物体に対してはカメラの中心にその物体が無くてもよいことと同等である。   In the description of the present invention, an example in which the camera is moved is taken up, but it is obvious that the same effect can be obtained when the camera is fixed and the image is displaced using a mirror. In addition, although the explanation has been given using an example in which the camera movement plane is perpendicular to the camera focal direction, the camera movement is considered as a vector having a direction and a magnitude, and the vector is projected onto the vertical plane (camera focal direction). It is clear that the same effect can be obtained with the components. That is, it is not necessary to move the camera strictly on the vertical plane, and the same effect can be obtained even if there is a deviation of several tens of degrees due to the error range of the drive mechanism in the camera and the accuracy of the focal direction. This is equivalent to the fact that an object projected on the camera may not have the object at the center of the camera.

また、カメラの移動方向は一方向に限らず複数方向であってもよい。カメラの移動方向が複数の場合、例えば、カメラのレンズが自転することなくカメラが円の軌道を公転する等この軌道の線分方向に画素信号を追跡することにより、同様の結果を得る事が出来る。そして複数の方向を用いるため3次元の面分布データはより正確なものとなる。   Further, the moving direction of the camera is not limited to one direction and may be a plurality of directions. When there are multiple camera movement directions, the same result can be obtained by tracking the pixel signal in the direction of the line segment of this orbit, for example, the camera revolves around the circle without rotating the camera lens. I can do it. Since a plurality of directions are used, the three-dimensional surface distribution data becomes more accurate.

次に、信号変換して得られた3次元の値をもつ画素データ(3次元画素データ)について、物体特定を行う手段すなわち認識処理装置へ転送する。認識処理装置はCPUとメモリーを有する通常のコンピュータと何ら異なるところはない。従ってこれからの処理はすべてプログラムを構成するアルゴリズムに関する説明となる。   Next, pixel data having a three-dimensional value (three-dimensional pixel data) obtained by signal conversion is transferred to a means for specifying an object, that is, a recognition processing device. The recognition processing apparatus is not different from a normal computer having a CPU and a memory. Therefore, all the processing from now on will be described with respect to the algorithm constituting the program.

上述したように3次元の値をもつ画素データ(3次元画素データ)は独立したオブジェクトとして分離できるから、着目するオブジェクトが物体ならば、このようにして得られる物体の3次元画素データは物体の面データとなり、実際の3次元物体が有する面データの一部をなすものである。但し、3次元画素データ(X,Y,Z)で用いるX値とY値は、Z値(L)に応じて撮影中心の方向軸から受像システムで得られたその値を(L/α)だけ引き伸ばしたものを用いる。   As described above, since pixel data having a three-dimensional value (three-dimensional pixel data) can be separated as an independent object, if the object of interest is an object, the three-dimensional pixel data of the object thus obtained is It becomes surface data and forms part of the surface data of an actual three-dimensional object. However, the X value and Y value used in the three-dimensional pixel data (X, Y, Z) are the values obtained by the image receiving system from the direction axis of the photographing center according to the Z value (L) (L / α). Use only stretched ones.

この段階で、カメラからの視線方向(焦点方向)で確認できる物体の投影断面形状はおろかその3次元的な形状と配置までも3次元の値をもつ画素データ(3次元画素データ)として取得できる。ここでいうところの投影断面形状とは、2次元形状パターン抽出による従来の画像処理手法で得られる物体形状(2次元画像)の結果物と同じものである。   At this stage, not only the projected cross-sectional shape of the object that can be confirmed in the direction of the line of sight from the camera (focal direction), but also its three-dimensional shape and arrangement can be acquired as pixel data having three-dimensional values (three-dimensional pixel data). . Here, the projected cross-sectional shape is the same as the result of the object shape (two-dimensional image) obtained by the conventional image processing technique based on the two-dimensional shape pattern extraction.

本発明は、ここまでの処理について2次元形状パターン抽出による従来の画像処理手法を用いることなく高速で実現し、更に物体形状の3次元的広がりを3次元画素データとして持つことを可能とした方法並びに装置である。   The present invention realizes the above processing at high speed without using a conventional image processing method based on two-dimensional shape pattern extraction, and further enables to have a three-dimensional extent of an object shape as three-dimensional pixel data. As well as a device.

そして、上記3次元画素データを用いることにより、実在する物体の一部を3次元的な部分として取り出したものであるから、3次元の空間広がりとして実在する物体と一致していなければならない。これは単に2次元的に投影したパターン形状でないために実現する機能である。   Since a part of an actual object is extracted as a three-dimensional part by using the three-dimensional pixel data, it must match the actual object as a three-dimensional spatial spread. This is a function realized because the pattern shape is not simply a two-dimensional projection.

従って、従来のように物体形状を投影パターン形状として認識するだけでなく、実在する物体として新たに認識する手法が可能となる。そして、本発明に係る上記3次元画素データは実在する物体の対応する部分と一致しなければならないから、当該物体の3次元CADモデルデータを準備することにより、その表面データの中から部分形状一致で検索することが可能になる。ここで、部分形状が一致したとは、実在する物体のどの部分と一致したかを認識できることを意味するから、3次元画素データの存在する(X、Y、Z)空間において、3次元CADモデルデータをその空間に配置して、その物体に属する画素データ部分に3次元CADモデルデータの形状が一致する部分を接続するように配置調整することが可能となる。これにより、この空間ではカメラから見える範囲の3次元画素データだけでなく、3次元CADモデルデータを通してその裏側の形状や手前にある物体の影で消失した物体の一部までも当該空間上に再現させることが可能となる。   Therefore, it is possible not only to recognize the object shape as a projection pattern shape as in the prior art, but also to newly recognize a real object. Since the 3D pixel data according to the present invention must match a corresponding part of an actual object, by preparing 3D CAD model data of the object, a partial shape match can be obtained from the surface data. It becomes possible to search with. Here, when the partial shapes match, it means that it can be recognized which part of the actual object matches, so in the (X, Y, Z) space where the three-dimensional pixel data exists, the three-dimensional CAD model. By arranging data in the space, it is possible to adjust the arrangement so that a portion where the shape of the three-dimensional CAD model data matches the pixel data portion belonging to the object is connected. As a result, in this space, not only the 3D pixel data in the range visible from the camera, but also the 3D CAD model data reproduces the part of the object disappeared due to the shape of the back side and the shadow of the object in the foreground. It becomes possible to make it.

上記部分形状一致はいろいろな方法で実現できる。一つは理想的な表面の関数となる3次元CADモデルデータと観測(撮影)から得られた3次元画素データ(測定値)とを用いて、各対応する距離の自乗和を評価関数とする最小自乗法を3次元空間で実施する方法である。また、もう一つは、3次元画素データとして構成されているため色々な方向から対象とする面の投影パターンを容易に作成できるから、新たにここでパターン処理を採用することも可能である。但し、ここで採用するパターン処理は、従来の2次元撮影画像を用いたパターン処理からは到達しない処理の工程である。   The partial shape matching can be realized by various methods. One is using the three-dimensional CAD model data that is an ideal surface function and the three-dimensional pixel data (measured value) obtained from observation (imaging), and using the square sum of each corresponding distance as an evaluation function. In this method, the least square method is implemented in a three-dimensional space. In addition, since the projection pattern of the target surface can be easily created from various directions because it is configured as three-dimensional pixel data, it is also possible to newly adopt pattern processing here. However, the pattern processing employed here is a process step that does not reach the conventional pattern processing using a two-dimensional captured image.

更に、これらの3次元画素データの時間変化を追跡すれば、物体の移動を観測することができ、認識された物体であれば、該物体の運動を抽出することが出来る。すなわち、認識が可能となった物体の3次元画素データの空間領域に3次元CADデータを埋め込むことで、認識されなかった他の3次元画素データが作る背景表面データ上を移動する物体であることを示すことができ、コンピュータモニター上に背景画素データと物体の3次元CADデータを描画することも可能となる。これにより、この手法は、実際の撮影画像からコンピュータ内の仮想空間上への3次元投影を実現するアルゴリズムであることが容易に理解できる。   Furthermore, if the time change of these three-dimensional pixel data is tracked, the movement of the object can be observed, and if it is a recognized object, the movement of the object can be extracted. That is, the object moves on the background surface data created by other unrecognized 3D pixel data by embedding 3D CAD data in the spatial area of the 3D pixel data of the object that can be recognized. It is also possible to draw background pixel data and object three-dimensional CAD data on a computer monitor. Thereby, it can be easily understood that this method is an algorithm for realizing a three-dimensional projection from an actual captured image onto a virtual space in a computer.

尚、デジタル画像信号を用いた場合には、水平掃引信号を用いなくとも任意のカメラの画像方向に対して処理をすることができる。具体的には、画像の平面が作るXY平面において「y=ax」の関係で示される直線の方向にカメラが変位したとすると、二つの方法で実現できる。   When a digital image signal is used, processing can be performed with respect to an arbitrary camera image direction without using a horizontal sweep signal. Specifically, if the camera is displaced in the direction of a straight line indicated by the relationship “y = ax” on the XY plane formed by the plane of the image, it can be realized by two methods.

その一つは、図9(A)に示すように斜め方向の画素データ取得を繰り返すことでアナログでの水平掃引信号処理と同じ処理が実現できる。但し、斜め処理によって領域から外れた掃引部分には剰余処理[すなわち、画像データ領域の水平方向xの最大値xmaxを越えた部分に対してはxをxmaxで割った余り値x'を用いて(x'、y')の座標の画像データを取得する処理をいう。但し、水平方向のxの最小値xmin=0とした。]を行い、エリア内の非掃引部分のデータを供給[すなわち、図9Bに示すように左上の空白の三角形部分のデータを右側のxmaxを越えた位置に移動する。]し、かつ、その周期的な境界部分(xmax上の線)においては、その境界を挟んで隣り合うデータ間で例え同じZ値を持っていたとしても、同じ物体として扱わない。 For example, as shown in FIG. 9A, the same processing as the analog horizontal sweep signal processing can be realized by repeating pixel data acquisition in an oblique direction. However, the swept portion deviated from the region by the oblique processing is subjected to the remainder processing [that is, the remainder x ′ obtained by dividing x by x max for the portion exceeding the maximum value x max in the horizontal direction x of the image data region. This is a process for acquiring image data of coordinates (x ′, y ′). However, the minimum value x min in the horizontal direction x min = 0. , And supply data of the non-swept portion in the area [ie, move the data of the upper left blank triangular portion to a position beyond x max on the right side as shown in FIG. 9B. In addition, the periodic boundary portion (line on x max ) is not treated as the same object even if it has the same Z value between adjacent data across the boundary.

もう一つは、カメラ画像を「y=ax」の直線が水平になるまで回転し、図10に示すようにそこで得られる回転座標系(x'、y')の水平方向の最小値から最大値まで、垂直方向も最小値から最大値の範囲で掃引する方法である。この場合、同一のZ値を持つ隣接画素を同一物体と看做さない等、上述の境界線上の処理は必要でなくなり、画像エリア(あるいは境界線)から外れた領域での掃引における処理は無視するだけでよい。   The other is that the camera image is rotated until the straight line “y = ax” becomes horizontal, and as shown in FIG. 10, the rotation coordinate system (x ′, y ′) obtained from the horizontal minimum value to the maximum value is obtained. In this method, the vertical direction is also swept from the minimum value to the maximum value. In this case, the above-described processing on the boundary line is not necessary, for example, adjacent pixels having the same Z value are not regarded as the same object, and the processing in the sweep in the region outside the image area (or boundary line) is ignored. Just do it.

すなわち、デジタル信号において「y=ax」で示される関係の点を順次進むこととは、「y=ax」方向への掃引と同じであり、それに対する画像信号もその位置(x、y)の周辺の画素ポイントから画素が持つデータ(輝度など)の内挿(たとえば、重み付き平均)で対応させることが出来る。これにより、前述のアナログの説明で用いた水平掃引信号と同じ扱いができる連続信号が得られる。ここで言う連続とは、隣接する位置データが連なっていることを意味し、アナログ的かデジタル的かは、本発明の処理に必要な程度に稠密な画素の集合であれば特に問題にならない。   That is, sequentially proceeding with the relationship point indicated by “y = ax” in the digital signal is the same as the sweep in the “y = ax” direction, and the image signal corresponding thereto is also at the position (x, y). Correspondence can be achieved by interpolation (for example, weighted average) of data (luminance, etc.) held by pixels from surrounding pixel points. As a result, a continuous signal that can be handled in the same manner as the horizontal sweep signal used in the analog description is obtained. The term “continuous” as used herein means that adjacent position data are connected, and whether analog or digital is a particularly dense set of pixels necessary for the processing of the present invention is not a problem.

ところで、本発明に係るこれまでの説明では各画像の掃引信号で構成される連続画像信号を用いて物体における3次元空間の面分布データを求めているが、この連続画像信号として、各画像における掃引信号の差分で得られる以下の連続画像差分信号を用いて求めてもよい。以下、図1(A)の信号に変えて差分信号を用いた方法について説明する。   By the way, in the description so far according to the present invention, the surface distribution data of the three-dimensional space in the object is obtained using the continuous image signal composed of the sweep signal of each image. You may obtain | require using the following continuous image difference signals obtained by the difference of a sweep signal. Hereinafter, a method using a differential signal instead of the signal of FIG.

ここで差分とは、デジタル信号の場合には隣り合う画素の信号強度の差であり、また、アナログ信号の場合にはいわゆるアナログ微分回路を通した結果得られる信号若しくはAD(Analog to Digital)コンバーターを通してデジタル化したデータの隣り合う値の差分をとった信号である。従って、信号強度を相対的に取り扱う限りにおいて差分信号は微分信号と表現してもよい。   Here, the difference is the difference in signal intensity between adjacent pixels in the case of a digital signal, and in the case of an analog signal, a signal obtained as a result of passing through a so-called analog differentiation circuit or an AD (Analog to Digital) converter. It is the signal which took the difference of the adjacent value of the data digitized through. Therefore, the differential signal may be expressed as a differential signal as long as the signal intensity is relatively handled.

そして、各画像の掃引信号で構成される連続画像信号の図1(A)に示された信号形状は、連続画像差分信号を用いた場合、図11(A)のグラフ図に示す信号形状となる。境界部分が正と負の方向に境界線の幅の範囲でひげ状の信号となり、これを特徴的な信号とすることで上述した方法と同様にΔPを求めることができる。尚、差分の場合には、隣り合う画素の信号強度の差であるので、背景と立方体表面との段差が差分のピークとして表れ、境界を過ぎるとまた差分値はゼロになりパルス状(ひげ状)の信号となる。   The signal shape shown in FIG. 1A of the continuous image signal composed of the sweep signal of each image is the same as the signal shape shown in the graph of FIG. 11A when the continuous image difference signal is used. Become. The boundary portion becomes a whisker-like signal in the range of the width of the boundary line in the positive and negative directions. By using this signal as a characteristic signal, ΔP can be obtained in the same manner as described above. In the case of a difference, since it is a difference in signal intensity between adjacent pixels, a step between the background and the cube surface appears as a difference peak, and after passing the boundary, the difference value becomes zero and becomes pulse-like (whisker-like) ) Signal.

また、アナログでの微分回路を経由した場合には図11(B)に示す信号形状になる。尚、これを実現する回路としては、良く知られている回路で、例えば、コンデンサーCと抵抗Rとからなる最も簡単な微分回路(図11C)がある。   When the signal passes through an analog differentiation circuit, the signal shape is as shown in FIG. As a circuit for realizing this, there is a well-known circuit, for example, the simplest differentiation circuit (FIG. 11C) including a capacitor C and a resistor R.

このようにして連続画像信号若しくは連続画像差分信号に基づいた物体における3次元空間の面分布データを求める工程と物体特定を行う工程を経て、実在する物体の位置と向きを知ることができる。   In this way, the position and orientation of the actual object can be known through the step of obtaining the surface distribution data of the three-dimensional space of the object based on the continuous image signal or the continuous image difference signal and the step of specifying the object.

従って、本発明に係る上述した方法または装置を、例えば電子機器のコネクター等大量に製造される小型製品部品を検査する分野に応用した場合、小型製品部品のひとつひとつの向きを認識できるようになるため、部品を組み立てる際のロボット作業負荷を著しく減少させることが可能となる。   Accordingly, when the above-described method or apparatus according to the present invention is applied to the field of inspecting small-sized product parts manufactured in large quantities such as connectors of electronic devices, for example, it becomes possible to recognize the direction of each small-product part. The robot work load when assembling the parts can be significantly reduced.

また、例えば走行中の車に搭載した場合、停車中の他の車の方向を識別することで画像に映っていない影の部分も含めて形状を認識できるため、車のドアのすべての位置を特定することが可能となる。また、車のガラスを通してその先の物体を認識することによりはじめに一致した形状(車)以外の物体を切り出し、かつ、切り出した部分について部分形状一致による認識が可能となるため、車の背後に存在する歩行者を認識することができるようになる。従って、ドアが開く危険性や歩行者飛び出しの可能性を予知・推察する機能への橋渡しが可能となる。   For example, when mounted on a running car, the shape of the car can be recognized by identifying the direction of other cars that are stopped, including shadows that are not reflected in the image. It becomes possible to specify. In addition, by recognizing the object ahead through the car glass, it is possible to cut out an object other than the matched shape (car) first, and to recognize the cut out part by matching the partial shape. Pedestrians can be recognized. Therefore, it is possible to bridge to the function of predicting / inferring the danger of opening the door and the possibility of pedestrian jumping.

図1(A)は連続画像信号を構成する水平掃引信号と信号強度との関係を示すグラフ図、図1(B)は直方体の物体を撮影した画像の説明図。FIG. 1A is a graph showing a relationship between a horizontal sweep signal constituting a continuous image signal and signal intensity, and FIG. 1B is an explanatory diagram of an image obtained by photographing a rectangular parallelepiped object. 被撮影対象である物体とカメラとの関係を示す説明図。Explanatory drawing which shows the relationship between the object and to-be-photographed object. 図3(A)〜(C)は直方体形状の物体を撮影した3枚の画像の説明図と、各画像に対応した水平掃引信号と輝度との関係を示すグラフ図。3A to 3C are explanatory diagrams of three images obtained by photographing a rectangular parallelepiped object, and a graph showing a relationship between a horizontal sweep signal and luminance corresponding to each image. 被撮影対象である大小2つの物体を撮像する状態を示す説明図。Explanatory drawing which shows the state which images two large and small objects which are to-be-photographed objects. 図5(A)〜(H)は大小2つの物体を撮影した8枚の画像の説明図と、各画像に対応した水平掃引信号と輝度との関係を示すグラフ図。5A to 5H are explanatory diagrams of eight images obtained by photographing two large and small objects, and graphs showing the relationship between the horizontal sweep signal corresponding to each image and the luminance. 図6(A)〜(B)は大小2つの物体を撮影した2枚の画像の説明図と、各画像に対応した水平掃引信号と輝度との関係を示すグラフ図。FIGS. 6A to 6B are explanatory diagrams of two images obtained by photographing two large and small objects, and a graph showing a relationship between a horizontal sweep signal corresponding to each image and luminance. 図6(A)〜(B)に示された連続画像信号に基づき求められるZ値と水平掃引信号との関係を示すグラフ図。FIG. 7 is a graph showing a relationship between a Z value obtained based on the continuous image signal shown in FIGS. 6A to 6B and a horizontal sweep signal. 図8(A)〜(B)は被撮影対象である物体の模様と背景の模様が重なる場合における画像の水平掃引信号と輝度との関係を示すグラフ図。FIGS. 8A to 8B are graphs showing the relationship between the horizontal sweep signal of the image and the luminance when the pattern of the object to be imaged and the background pattern overlap. 図9(A)〜(B)はデジタル画像信号に対し水平掃引信号を用いない掃引方法を示す説明図。FIGS. 9A to 9B are explanatory diagrams showing a sweep method that does not use a horizontal sweep signal for a digital image signal. デジタル画像信号に対し水平掃引信号を用いない掃引方法を示す説明図。Explanatory drawing which shows the sweep method which does not use a horizontal sweep signal with respect to a digital image signal. 図11(A)は連続画像差分信号を構成する水平掃引信号と差分信号強度との関係を示すグラフ図、図11(B)はアナログでの連続画像差分信号を用いた場合の入力信号と微分信号の説明図、図11(C)はアナログでの連続画像差分信号を用いる場合の微分回路の構成説明図。FIG. 11A is a graph showing the relationship between the horizontal sweep signal constituting the continuous image difference signal and the difference signal intensity, and FIG. 11B is the input signal and the differential when the analog continuous image difference signal is used. FIG. 11C is an explanatory diagram of a signal, and FIG. 11C is a configuration explanatory diagram of a differentiating circuit when an analog continuous image difference signal is used.

Claims (7)

カメラから撮影対象である物体への方向をZ方向としカメラで撮影された連続画像に基づき物体の3次元形状を認識する方法において、
上記Z方向に垂直若しくは略垂直な面内でカメラを一方向若しくは複数方向へ直接若しくは間接的に移動させながら上記物体を連続的に撮影して連続画像を取得し、かつ、各画像の掃引信号で構成される連続画像信号を取得する工程と、
得られた連続画像信号の中で、特徴的な信号強度の位置の変位量(ΔP)およびカメラの移動距離(ΔD)に対する下記数式(1)の比例係数(α/L)をその特徴的な信号強度の初期位置と関連付けることで上記連続画像信号からZ方向の距離に関連したZ値を有する物体における3次元空間の面分布データを求める工程と、
得られた3次元空間の面分布データから部分一致検索により物体特定を行う工程、の各工程を具備することを特徴とする物体の3次元形状を認識する方法。
ΔP=(α/L)・ΔD=α・(1/L)ΔD (1)
但し、Lはカメラから撮影対象である物体までの距離、また、αは受像システムで決まる上記数式(1)における(1/L)ΔDの係数である。
In the method of recognizing the three-dimensional shape of an object based on continuous images taken by the camera with the direction from the camera to the object being imaged as the Z direction,
A continuous image is obtained by continuously photographing the object while moving the camera in one direction or a plurality of directions directly or indirectly in a plane perpendicular or substantially perpendicular to the Z direction, and a sweep signal of each image Obtaining a continuous image signal comprising:
Among the obtained continuous image signals, the proportional coefficient (α / L) of the following formula (1) with respect to the displacement (ΔP) of the position of the characteristic signal strength and the movement distance (ΔD) of the camera is characteristic. Obtaining surface distribution data in a three-dimensional space in an object having a Z value related to a distance in the Z direction from the continuous image signal in association with an initial position of signal intensity;
A method for recognizing a three-dimensional shape of an object, comprising the steps of specifying an object by partial match search from the obtained surface distribution data of the three-dimensional space.
ΔP = (α / L) · ΔD = α · (1 / L) ΔD (1)
However, L is the distance from the camera to the object to be photographed, and α is a coefficient of (1 / L) ΔD in the above formula (1) determined by the image receiving system.
上記連続画像信号が、各画像における掃引信号の差分で得られる連続画像差分信号であることを特徴とする請求項1記載の物体の3次元形状を認識する方法。   2. The method for recognizing a three-dimensional shape of an object according to claim 1, wherein the continuous image signal is a continuous image difference signal obtained by a difference between sweep signals in each image. 各画像における水平同期の掃引信号を用いて上記連続画像信号または連続画像差分信号を求めることを特徴とする請求項1または2記載の物体の3次元形状を認識する方法。   3. The method for recognizing a three-dimensional shape of an object according to claim 1, wherein the continuous image signal or the continuous image difference signal is obtained using a horizontal synchronous sweep signal in each image. Z方向に垂直若しくは略垂直な面内でカメラを一方向若しくは複数方向へ周期的に直接若しくは間接的に移動させることを特徴とする請求項1または2記載の物体の3次元形状を認識する方法。   3. A method for recognizing a three-dimensional shape of an object according to claim 1 or 2, wherein the camera is periodically or directly moved in one or a plurality of directions in a plane perpendicular or substantially perpendicular to the Z direction. . Z方向に垂直若しくは略垂直な面内でカメラを円方向若しくは楕円方向へ直接若しくは間接的に移動させることを特徴とする請求項1、2または4記載の物体の3次元形状を認識する方法。   5. The method for recognizing a three-dimensional shape of an object according to claim 1, wherein the camera is moved directly or indirectly in a circular direction or an elliptical direction within a plane perpendicular or substantially perpendicular to the Z direction. カメラから撮影対象である物体への方向をZ方向としカメラで撮影された連続画像に基づき物体の3次元形状を認識する装置において、
上記Z方向に垂直若しくは略垂直な面内でカメラを一方向若しくは複数方向へ直接若しくは間接的に移動させながら上記物体を連続的に撮影して連続画像を取得し、かつ、各画像の掃引信号で構成される連続画像信号を取得する手段と、
得られた連続画像信号の中で、特徴的な信号強度の位置の変位量(ΔP)およびカメラの移動距離(ΔD)に対する下記数式(1)の比例係数(α/L)をその特徴的な信号強度の初期位置と関連付けることで上記連続画像信号からZ方向の距離に関連したZ値を有する物体における3次元空間の面分布データを求める手段と、
得られた3次元空間の面分布データから部分一致検索により物体特定を行う手段とでその主要部が構成されることを特徴とする物体の3次元形状を認識する装置。
ΔP=(α/L)・ΔD=α・(1/L)ΔD (1)
但し、Lはカメラから撮影対象である物体までの距離、また、αは受像システムで決まる上記数式(1)における(1/L)ΔDの係数である。
In an apparatus for recognizing the three-dimensional shape of an object based on continuous images taken by the camera with the direction from the camera to the object to be photographed as the Z direction,
A continuous image is obtained by continuously photographing the object while moving the camera in one direction or a plurality of directions directly or indirectly in a plane perpendicular or substantially perpendicular to the Z direction, and a sweep signal of each image Means for obtaining a continuous image signal comprising:
Among the obtained continuous image signals, the proportional coefficient (α / L) of the following formula (1) with respect to the displacement (ΔP) of the position of the characteristic signal strength and the movement distance (ΔD) of the camera is characteristic. Means for obtaining surface distribution data of a three-dimensional space in an object having a Z value related to a distance in the Z direction from the continuous image signal by associating with an initial position of signal intensity;
An apparatus for recognizing a three-dimensional shape of an object, characterized in that a main part is constituted by means for specifying the object by partial matching search from the obtained surface distribution data of the three-dimensional space.
ΔP = (α / L) · ΔD = α · (1 / L) ΔD (1)
However, L is the distance from the camera to the object to be photographed, and α is a coefficient of (1 / L) ΔD in the above formula (1) determined by the image receiving system.
上記連続画像信号が、各画像における掃引信号の差分で得られる連続画像差分信号であることを特徴とする請求項6記載の物体の3次元形状を認識する装置。
The apparatus for recognizing a three-dimensional shape of an object according to claim 6, wherein the continuous image signal is a continuous image difference signal obtained by a difference between sweep signals in each image.
JP2004072465A 2004-03-15 2004-03-15 Method and apparatus for recognizing three-dimensional shape of object Expired - Fee Related JP3852704B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004072465A JP3852704B2 (en) 2004-03-15 2004-03-15 Method and apparatus for recognizing three-dimensional shape of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004072465A JP3852704B2 (en) 2004-03-15 2004-03-15 Method and apparatus for recognizing three-dimensional shape of object

Publications (2)

Publication Number Publication Date
JP2005257608A JP2005257608A (en) 2005-09-22
JP3852704B2 true JP3852704B2 (en) 2006-12-06

Family

ID=35083455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004072465A Expired - Fee Related JP3852704B2 (en) 2004-03-15 2004-03-15 Method and apparatus for recognizing three-dimensional shape of object

Country Status (1)

Country Link
JP (1) JP3852704B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111076674A (en) * 2019-12-12 2020-04-28 天目爱视(北京)科技有限公司 Closely target object 3D collection equipment

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111076674A (en) * 2019-12-12 2020-04-28 天目爱视(北京)科技有限公司 Closely target object 3D collection equipment

Also Published As

Publication number Publication date
JP2005257608A (en) 2005-09-22

Similar Documents

Publication Publication Date Title
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
WO2021093240A1 (en) Method and system for camera-lidar calibration
US10501059B2 (en) Stereo camera device
RU2609434C2 (en) Detection of objects arrangement and location
CN109559355B (en) Multi-camera global calibration device and method without public view field based on camera set
JP2004334819A (en) Stereo calibration device and stereo image monitoring device using same
JP2004086779A (en) Obstacle detection device and its method
JP2012075060A (en) Image processing device, and imaging device using the same
JP2006105661A (en) Method for estimating plane by stereo image
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
Xu et al. An omnidirectional 3D sensor with line laser scanning
Nagy et al. Online targetless end-to-end camera-LiDAR self-calibration
US11803982B2 (en) Image processing device and three-dimensional measuring system
CN106767526A (en) A kind of colored multi-thread 3-d laser measurement method based on the projection of laser MEMS galvanometers
US20220092345A1 (en) Detecting displacements and/or defects in a point cloud using cluster-based cloud-to-cloud comparison
US10753736B2 (en) Three-dimensional computer vision based on projected pattern of laser dots and geometric pattern matching
WO2011039977A1 (en) Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device
Rosero et al. Calibration and multi-sensor fusion for on-road obstacle detection
US20210183092A1 (en) Measuring apparatus, measuring method and microscope system
KR102065337B1 (en) Apparatus and method for measuring movement information of an object using a cross-ratio
KR101163453B1 (en) Measuring method of distance from object using laser sensor and vision sensor
JP3852704B2 (en) Method and apparatus for recognizing three-dimensional shape of object
US20220230459A1 (en) Object recognition device and object recognition method
Tehrani et al. A new approach to 3D modeling using structured light pattern
RU2650857C1 (en) System for determining geometric parameters of three-dimensional objects

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060830

R150 Certificate of patent or registration of utility model

Ref document number: 3852704

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130915

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees