JP3581889B2 - Stereoscopic recognition method and apparatus - Google Patents

Stereoscopic recognition method and apparatus Download PDF

Info

Publication number
JP3581889B2
JP3581889B2 JP29065393A JP29065393A JP3581889B2 JP 3581889 B2 JP3581889 B2 JP 3581889B2 JP 29065393 A JP29065393 A JP 29065393A JP 29065393 A JP29065393 A JP 29065393A JP 3581889 B2 JP3581889 B2 JP 3581889B2
Authority
JP
Japan
Prior art keywords
image
distance information
differential
subject
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29065393A
Other languages
Japanese (ja)
Other versions
JPH07139912A (en
Inventor
博司 筒井
義尚 武富
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP29065393A priority Critical patent/JP3581889B2/en
Publication of JPH07139912A publication Critical patent/JPH07139912A/en
Application granted granted Critical
Publication of JP3581889B2 publication Critical patent/JP3581889B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、立体画像の立体認識方法および立体認識装置に関するものである。
【0002】
【従来の技術】
従来、立体計測は、点光源または線光源を被写体に照射し、被写体からの反射光の結像位置から被写体までの距離を測定する方法、レンズを小刻みに振動させ、受像素子の一部面積内の変調度が最小になるようにして距離を測定する方法、または2つのカメラを用いて被写体を撮影し、被写体と2つのカメラのなす角度差を計測することにより、被写体までの距離を算出する方法などがある。
【0003】
【発明が解決しようとする課題】
上記の方法では、被写体までの距離を計測するには簡便な方法であるが、背景を含めた画面全体の距離を計測するには下記のような課題がある。
【0004】
図1は本発明および従来の立体画像の立体認識方法を示す図である。図1(1)は従来方法を示し、撮影された矩形の画像強度の一例を示す。ここで、画像1は各画素の大きさより被写体の大きさが十分に大きい場合の画像であり、画像1
(a)は焦点の合ったときの画像を示し、画像1(b)は焦点のずれたときの画像を示す。強度1は画像1をA−Bに沿った断面の強度分布を示す。焦点が合ったときは(a)のようにエッジ部分が急峻であるが、焦点がずれたときは(b)のようにエッジ部分にぼけを生じる。各画素の大きさより被写体の大きさが十分に大きい場合はエッジ部分にぼけを生じるが、画像中央部分の画像強度は変化しない。
【0005】
画像2は各画素の大きさが画像2の大きさと同程度の場合を示す。画像が小さくなると、焦点がずれたときは強度1に示すように画像の中央部の強度が減衰し、焦点が合ったときの強度とは異なってくる。すなわち、画像1においては焦点がずれるとエッジ部分はぼけるが、中央部の強度は変化しない。しかし、画像2においては焦点がずれると、(b)のように中央部強度もずれてくる。このように、強度分布だけでは画像の大きさにより強度分布と距離が比例しない場合がある。
【0006】
本発明はこのような従来の強度分布による立体認識の不正確さを改善し、簡便にして背景を含めた画面全体の距離を正確に計測することを目的とする。
【0008】
【課題を解決するための手段】
前記目的を達成するため、本発明に係る立体認識方法の第1の手段は、レンズ焦点位置を変えて撮影したそれぞれの画像に画像焦点が合うときの被写体位置の距離を、画像メモリに記録した微分画像の番号に対応させ、前記微分画像の番号に非線形の重みをかけて値付けし、得られた画像を距離情報として画像表示することを特徴とする。
【0010】
の手段は、レンズ焦点位置を変えて同一被写体を撮影した複数の画像の微分画像にしきい値処理をし、このしきい値処理を行った画像に連続的に加重の異なる重み付け処理を行い、その後、重み付けを行った全画像を加算した画像を得、画像表示することを特徴とする。
【0011】
また立体認識装置は、被写体の撮影用レンズの焦点位置を変化させるアクチュエータと、前記被写体の立体画像を撮影する撮像部と、前記撮像部により撮影された画像を後記演算処理部により微分処理された微分画像を蓄積する画像メモリと、前記微分画像に順次番号を付与して前記画像メモリに蓄積し、この蓄積された微分画像の特定画素の値を順次比較し、値が最大となる微分画像の番号をその特定画素の値とすることを全画素に対して繰り返し行い、距離情報を得る演算処理部と、前記演算処理部で算出処理された距離情報を画像表示する画像表示部とを有する立体認識装置において、前記撮像部を、インコヒーレント,コヒーレント変換デバイスと、光学的輪郭抽出装置と、CCD撮像素子から構成したことを特徴とする。
【0012】
【作用】
本発明によれば、図1(2)の微分1に示すように画像1,画像2を横方向に微分処理したときに、画像1の場合、変化のない部分は値がゼロとなるために、図示のような強度分布となるが、エッジ部分は焦点のずれに対応した強度分布となる。そこで、エッジ部分の強度が最大もしくは最小となるときのレンズ位置を調べることにより、画像の大きさによらず、画像までの距離を計算することができる。
【0013】
図1(3)の微分2は微分1の負成分を反転した場合の値である。この場合は画像の両エッジが等しい値で表示される。
【0014】
以上のようにして焦点を変化させて複数回、被写体の画像を撮影し、各画像の微分を行い、微分したエッジの値が最も大きくなったときの焦点位置から、被写体までの距離を求めることができる。
【0015】
すなわち、レンズで被写体を結像させた場合、焦点の合った部分が最もシャープな画像が得られる。結像した画像を微分処理すると、被写体の陰影は除去され、被写体の輪郭画像となる。この被写体の輪郭に注目し、輪郭の一番強調されるときのレンズ位置を調べることにより、被写体の輪郭部分までの距離を得ることができる。
【0016】
【実施例】
図2は本発明の立体認識方法を実施する装置の一実施例のブロック図を示し、21は被写体27の撮影用レンズ、22は被写体27の立体画像を撮影する撮像部、23はレンズ21を駆動するアクチュエータ、24は、微分画像に順次番号を付与して画像メモリ25に蓄積し、この蓄積された微分画像の特定画素の値を順次比較し、値が最大となる微分画像の番号をその特定画素の値とすることを全画素に対して繰り返し行い、距離情報を得る演算処理部、25は前記演算処理部24より微分処理された微分画像を蓄積する画像メモリ、26は前記演算処理部24で算出処理された距離情報を画像表示する画像表示部である。
【0017】
次に動作を説明すると、レンズ21をアクチュエータ23により駆動して焦点位置を変化させながら撮像部22により被写体27の画像を複数枚撮影する。撮影された画像は画像メモリ25に読み込まれるとともに、演算処理部24により微分処理が行われた後、画像メモリ25に格納される。また、撮像部22に微分処理機能を付加すれば、画像メモリ25に微分画像を直接格納することができる。さらに演算処理部24により、距離情報に変換し、画像表示部26により距離画像として表示する。
【0018】
図において、被写体27−レンズ21間距離をa、レンズ21−撮像部22の撮像面間距離をb、レンズ焦点距離をfとすると、被写体27までの距離は下記の計算式により求まる。
【0019】
【数1】
1/a+1/b=1/f
【0020】
【数2】
a=bf/(b−f)
微分したエッジの値が最も大きくなったときの焦点位置の求め方は、以下のようにして行う。画像の特定の画素(1画素もしくは複数の画素の集合)に注目し、各画像の特定の画素の値が最大となる画像を選択し、その画像の撮影条件からその画素に対する距離を算出する。それぞれの画素または画素の集合体に対して距離を算出することにより、被写体に関する距離の画像を得ることができる。
【0021】
さらに、微分したエッジに取り囲まれた部分を、エッジの値が最大となったときの画像を用いて補完することにより、画像をより被写体に忠実に再現することができる。
【0022】
次に、演算処理部24により行う距離情報を求める方法について述べる。図3は画像メモリ25に格納されたn枚の微分画像を並べた図である。n枚の微分画像の共通する特定画素(i,j)について、n個の特定画素中、最も値が大きくなるときの微分画像の番号を新たな画像データとして構成することにより、被写体のエッジの距離に対応した画像を得ることができる。
【0023】
また、レンズ焦点位置を変えて撮影したそれぞれの画像に画像焦点が合うときの被写体位置の距離を、画像メモリに記録した微分画像の番号に対応させ、前記微分画像の番号に非線形の重みをかけて値付けし、得られた画像を距離情報として画像表示することや、レンズ焦点位置を変えて同一被写体を撮影した複数の画像の微分画像にしきい値処理をし、このしきい値処理を行った画像に連続的に加重の異なる重み付け処理を行い、その後、重み付けを行った全画像を加算した画像を得、画像表示するようにしてもよい。
【0024】
また、微分画像の番号をレンズの焦点位置の変化から計算した被写体までの距離に換算した値を用いれば、被写体のエッジの距離を表した画像情報を得ることができる。被写体中、エッジの存在しない均一な部分は微分画像ではゼロとなっているので、閉じたエッジ内はその囲まれた部分をエッジ部分が示す距離の値により補完することにより、実際により近い画像を得ることができる。
【0025】
次に距離情報の表示方法について述べる。上述のようにして得られた距離情報を画像表示部上に表示するときに、距離に応じて明るさを変えることにより、遠近感を認識しやすくなる。一例として、画像表示部上で最近距離を最も明るく、最遠距離を最も暗く表示することにより、暗中に照明光を照射したように被写体を浮き上がらせて表示することができる。これをカラー化するには、画像表示部上で最近距離を暖色で明るく、最遠距離を寒色で暗く表示することにより、より効果的に照明光を照射したように被写体を浮き上がらせて表示することができる。
【0026】
さらに光学的な処理を用いた撮像部22に関して述べる。画像がコヒーレント光であれば、コヒーレント性に基づく光の干渉を利用して、画像の微分処理を行うことができる。通常のカメラのようなインコヒーレントな光の画像をコヒーレントな光の画像に変換する手法として、オプティカルニューロンデバイスと呼ばれるデバイスがある(参考文献:K.Aiyama,JJAP,Vol.30,No.12B,p.3887−3892,1991)。このようなデバイスを用いれば、インコヒーレントな画像を、まず
a−Si:H層により電気信号に変換し、その電気信号の強度差を強誘電液晶層に与えて透過率を変化させ、強誘電液晶層の反対側からコヒーレント光を照射し、その反射光の強度を変調することにより、コヒーレント光からなる画像に変換することができる。このデバイスと、光学的輪郭抽出装置の技術を組み合わせることにより、通常のレンズ集光した画像の微分画像を光学的な手法により得ることができる。この光学的な微分画像をCCD撮像素子で結像すればよい。
【0027】
この方法による光学的微分処理装置のブロック図を図4に示す。レンズ41により画像をオプティカルニューロンデバイス42に結像させる。オプティカルニューロンデバイス42により液晶の透過率変化に変換される。レーザー光源43により画像はコヒーレントな画像に変換される。コヒーレントな画像は、光学的輪郭抽出装置44により微分処理が行われて、CCD撮像素子45により電気信号に変換される。このようにして、光学的に微分処理がなされる。
【0028】
【発明の効果】
以上説明したように本発明は、単一の撮像系を使用して、レンズと撮像素子を相対的に動かして複数枚画像を撮影し、各画像の微分を行い、各画素の値が最高になるときの画像を距離情報とすることにより、単一の撮像系により距離画像を得ることができる。その結果、シンプルな撮像系により、図面全体にわたる距離の画像を得、さらに表示することができる。
【図面の簡単な説明】
【図1】本発明および従来の立体画像の立体認識方法を示す図である。
【図2】本発明の立体認識方法を実施する装置の一実施例のブロック図である。
【図3】図2の画像メモリに格納されたn枚の微分画像を並べた図である。
【図4】光学的微分処理装置のブロック図である。
【符号の説明】
1,2…画像、 21,41…レンズ、 22…撮像部、 23…アクチュエータ、 24…演算処理部、 25…画像メモリ、 26…画像表示部、 27…被写体、 42…オプティカルニューロンデバイス、 43…レーザー光源、 44…光学的輪郭抽出装置、 45…CCD撮像素子。
[0001]
[Industrial applications]
The present invention relates to a method and apparatus for recognizing a three-dimensional image.
[0002]
[Prior art]
Conventionally, three-dimensional measurement is a method of irradiating a point light source or a line light source to an object, measuring a distance from an image forming position of reflected light from the object to the object, vibrating the lens little by little, and partially arranging the image receiving element The distance to the subject is calculated by measuring the distance by minimizing the degree of modulation in the camera, or by photographing the subject using two cameras and measuring the angle difference between the subject and the two cameras There are ways to do that.
[0003]
[Problems to be solved by the invention]
Although the above method is a simple method for measuring the distance to the subject, measuring the distance of the entire screen including the background has the following problems.
[0004]
FIG. 1 is a diagram illustrating a stereoscopic image recognition method of the present invention and a conventional stereoscopic image. FIG. 1A shows an example of a conventional method, and shows an example of the intensity of a captured rectangular image. Here, the image 1 is an image when the size of the subject is sufficiently larger than the size of each pixel.
(A) shows an image when the focus is achieved, and image 1 (b) shows an image when the focus is deviated. Intensity 1 indicates an intensity distribution of a cross section of image 1 along AB. When the image is in focus, the edge portion is sharp as shown in FIG. 7A, but when the image is out of focus, the edge portion is blurred as shown in FIG. If the size of the subject is sufficiently larger than the size of each pixel, blurring occurs at the edge portion, but the image intensity at the central portion of the image does not change.
[0005]
Image 2 shows a case where the size of each pixel is approximately the same as the size of image 2. As the image becomes smaller, the intensity at the center of the image is attenuated when the focus is deviated as shown by intensity 1 and becomes different from the intensity when the image is in focus. That is, in the image 1, when the focus is shifted, the edge portion is blurred, but the intensity of the central portion does not change. However, when the focus shifts in the image 2, the central intensity also shifts as shown in FIG. As described above, there is a case where the intensity distribution is not proportional to the distance depending on the size of the image only with the intensity distribution.
[0006]
An object of the present invention is to improve the inaccuracy of three-dimensional recognition based on the conventional intensity distribution, and to simply measure the distance of the entire screen including the background accurately.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, the first means of the stereoscopic recognition method according to the present invention records, in an image memory, a distance of a subject position when an image is focused on each image photographed by changing a lens focal position. The number of the differentiated image is assigned a value by applying a nonlinear weight to the number of the differentiated image, and the obtained image is displayed as distance information.
[0010]
The second means performs threshold processing on differential images of a plurality of images obtained by photographing the same subject while changing the focal point of the lens, and continuously performs weighting processing with different weights on the images on which the threshold processing has been performed. Thereafter, an image obtained by adding all the weighted images is obtained and displayed.
[0011]
Further, the three-dimensional recognition device is an actuator that changes the focal position of a photographic lens of a subject, an imaging unit that captures a three-dimensional image of the subject, and an image that is captured by the imaging unit is subjected to differentiation processing by an arithmetic processing unit described later. An image memory for accumulating a differential image, sequentially assigning a number to the differential image and accumulating the differential image in the image memory, sequentially comparing values of specific pixels of the accumulated differential image, and calculating a differential image having a maximum value A three-dimensional object having an arithmetic processing unit for obtaining the distance information by repeatedly setting the number to the value of the specific pixel for all pixels, and an image display unit for displaying the distance information calculated by the arithmetic processing unit as an image In the recognition device, the imaging unit is configured by an incoherent / coherent conversion device, an optical contour extraction device, and a CCD imaging device .
[0012]
[Action]
According to the present invention, when the image 1 and the image 2 are differentiated in the horizontal direction as indicated by the differential 1 in FIG. , The intensity distribution as shown in the figure, but the edge portion has an intensity distribution corresponding to the defocus. Therefore, the distance to the image can be calculated irrespective of the size of the image by examining the lens position when the intensity of the edge portion is maximum or minimum.
[0013]
The differential 2 in FIG. 1 (3) is a value when the negative component of the differential 1 is inverted. In this case, both edges of the image are displayed with the same value.
[0014]
As described above, the image of the subject is photographed a plurality of times while changing the focus, and each image is differentiated, and the distance to the subject is obtained from the focal position when the value of the differentiated edge becomes the largest. Can be.
[0015]
That is, when an image of a subject is formed by a lens, an image in which a focused portion is sharpest can be obtained. When the formed image is differentiated, the shadow of the subject is removed and the image becomes a contour image of the subject. By paying attention to the contour of the subject and examining the lens position when the contour is most emphasized, the distance to the contour of the subject can be obtained.
[0016]
【Example】
FIG. 2 is a block diagram of an embodiment of an apparatus for performing the stereoscopic recognition method of the present invention. Reference numeral 21 denotes a photographing lens of a subject 27, reference numeral 22 denotes an imaging unit that captures a stereoscopic image of the subject 27, and reference numeral 23 denotes a lens 21. The actuator 24 to be driven sequentially assigns numbers to the differential images and accumulates them in the image memory 25, sequentially compares the values of the specific pixels of the accumulated differential images, and assigns the number of the differential image having the maximum value to that number. An arithmetic processing unit for repeatedly obtaining the value of the specific pixel for all the pixels to obtain distance information; 25, an image memory for storing a differential image differentiated by the arithmetic processing unit 24; The image display unit displays an image of the distance information calculated in 24.
[0017]
Next, the operation will be described. A plurality of images of the subject 27 are captured by the imaging unit 22 while the focal position is changed by driving the lens 21 by the actuator 23. The photographed image is read into the image memory 25, is subjected to a differentiation process by the arithmetic processing unit 24, and is stored in the image memory 25. Further, if a differential processing function is added to the imaging unit 22, the differential image can be directly stored in the image memory 25. Further, it is converted into distance information by the arithmetic processing unit 24 and displayed as a distance image by the image display unit 26.
[0018]
In the figure, assuming that the distance between the subject 27 and the lens 21 is a, the distance between the lens 21 and the imaging surface of the imaging unit 22 is b, and the focal length of the lens is f, the distance to the subject 27 is obtained by the following formula.
[0019]
(Equation 1)
1 / a + 1 / b = 1 / f
[0020]
(Equation 2)
a = bf / (b−f)
The method of obtaining the focal position when the value of the differentiated edge becomes the largest is performed as follows. Attention is paid to a specific pixel (a set of one pixel or a plurality of pixels) of an image, an image having the maximum value of the specific pixel of each image is selected, and a distance to the pixel is calculated from the imaging conditions of the image. By calculating the distance for each pixel or group of pixels, an image of the distance of the subject can be obtained.
[0021]
Furthermore, by complementing the portion surrounded by the differentiated edge using the image when the edge value is maximized, the image can be reproduced more faithfully to the subject.
[0022]
Next, a method of calculating distance information performed by the arithmetic processing unit 24 will be described. FIG. 3 is a diagram in which n differential images stored in the image memory 25 are arranged. By configuring the number of the differential image having the largest value among the n specific pixels for the specific pixel (i, j) common to the n differential images as new image data, the edge of the subject is obtained. An image corresponding to the distance can be obtained.
[0023]
Further, the distance of the subject position when the image is focused on each image taken by changing the lens focal position is made to correspond to the number of the differential image recorded in the image memory, and the number of the differential image is weighted nonlinearly. The obtained image is displayed as distance information, and threshold processing is performed on differential images of a plurality of images obtained by photographing the same subject by changing the lens focal position. The weighted images may be successively subjected to different weighting processes, and thereafter, an image obtained by adding all the weighted images may be obtained and displayed.
[0024]
If a value obtained by converting the number of the differential image into the distance to the subject calculated from the change in the focal position of the lens is used, image information representing the distance of the edge of the subject can be obtained. In the object, the uniform portion where there is no edge is zero in the differential image, so in the closed edge, the enclosed portion is complemented by the distance value indicated by the edge portion, so that an image closer to the actual Obtainable.
[0025]
Next, a method of displaying distance information will be described. When displaying the distance information obtained as described above on the image display unit, by changing the brightness in accordance with the distance, it is easy to recognize the perspective. As an example, by displaying the closest distance as the brightest and the farthest distance as the darkest on the image display unit, the subject can be displayed as if it were irradiated with illumination light in the dark. In order to colorize this, the most recent distance is displayed warmer and brighter on the image display unit, and the farthest distance is displayed cooler and darker, so that the subject emerges as if it were illuminated more effectively. be able to.
[0026]
Further, the imaging unit 22 using optical processing will be described. If the image is coherent light, differential processing of the image can be performed using light interference based on coherence. As a method for converting an incoherent light image into a coherent light image like a normal camera, there is a device called an optical neuron device (Reference: K. Aiyama, JJAP, Vol. 30, No. 12B, 3887-3892, 1991). When such a device is used, an incoherent image is first converted into an electric signal by the a-Si: H layer, and a difference in the intensity of the electric signal is given to the ferroelectric liquid crystal layer to change the transmittance. By irradiating coherent light from the opposite side of the liquid crystal layer and modulating the intensity of the reflected light, the image can be converted into an image composed of coherent light. By combining this device with the technology of an optical contour extraction device, it is possible to obtain a differential image of a normal lens-focused image by an optical method. What is necessary is just to form this optical differential image with a CCD image sensor.
[0027]
FIG. 4 shows a block diagram of an optical differentiation processing device according to this method. An image is formed on the optical neuron device 42 by the lens 41. The light is converted into a change in the transmittance of the liquid crystal by the optical neuron device 42. The image is converted into a coherent image by the laser light source 43. The coherent image is subjected to a differentiation process by the optical contour extraction device 44, and is converted into an electric signal by the CCD image pickup device 45. In this way, an optical differentiation process is performed.
[0028]
【The invention's effect】
As described above, the present invention uses a single imaging system to move a lens and an imaging element relatively to capture a plurality of images, differentiate each image, and maximize the value of each pixel. By using the resulting image as distance information, a distance image can be obtained by a single imaging system. As a result, with a simple imaging system, an image at a distance over the entire drawing can be obtained and further displayed.
[Brief description of the drawings]
FIG. 1 is a diagram showing a stereoscopic image stereoscopic recognition method of the present invention and a conventional stereoscopic image.
FIG. 2 is a block diagram of an embodiment of an apparatus for performing the stereoscopic recognition method of the present invention.
FIG. 3 is a diagram in which n differential images stored in an image memory of FIG. 2 are arranged.
FIG. 4 is a block diagram of an optical differentiation processing device.
[Explanation of symbols]
1, 2, ... image, 21, 41 ... lens, 22: imaging unit, 23: actuator, 24: arithmetic processing unit, 25: image memory, 26: image display unit, 27: subject, 42: optical neuron device, 43 ... Laser light source 44 Optical contour extraction device 45 CCD image pickup device

Claims (7)

レンズ焦点位置を変えて撮影したそれぞれの画像に画像焦点が合うときの被写体位置の距離を、画像メモリに記録した微分画像の番号に対応させ、前記微分画像の番号に非線形の重みをかけて値付けし、得られた画像を距離情報として画像表示することを特徴とする立体認識方法。 The distance of the subject position when the image is focused on each image taken by changing the lens focal position is made to correspond to the number of the differential image recorded in the image memory, and the number of the differential image is multiplied by a nonlinear weight. A stereoscopic recognition method , wherein the obtained image is displayed as distance information . レンズ焦点位置を変えて同一被写体を撮影した複数の画像の微分画像にしきい値処理をし、このしきい値処理を行った画像に連続的に加重の異なる重み付け処理を行い、その後、重み付けを行った全画像を加算した画像を得、画像表示することを特徴とする立体認識方法。 Threshold processing is performed on differential images of a plurality of images obtained by photographing the same subject while changing the lens focal position , and weighting processing is performed on the images on which the threshold processing has been performed with different weights, and then weighting is performed. A three-dimensional recognition method characterized by obtaining an image obtained by adding all the images obtained and displaying the obtained image. 前記距離情報を明るさの情報として表示することを特徴とする請求項1または2記載の立体認識方法。 The method according to claim 1, wherein the distance information is displayed as brightness information . 前記距離情報として最近距離情報を最も明るく、最遠距離情報を最も暗くして表示することを特徴とする請求項1,2または3記載の立体認識方法。 4. The stereoscopic recognition method according to claim 1 , wherein the closest distance information is displayed as the brightest and the farthest distance information is displayed as the darkest as the distance information . 前記距離情報として最近距離情報を暖色で最も明るく、最遠距離情報を寒色で最も暗くしてカラー表示することを特徴とする請求項1,2または記載の立体認識方法。 Said distance brightest recent distance information in warm as the information, according to claim 1, 2 or 3 steric recognition method, wherein that the darkest to color display the longest distance information cooler. 被写体の撮影用レンズの焦点位置を変化させるアクチュエータと、前記被写体の立体画像を撮影する撮像部と、前記撮像部により撮影された画像を後記演算処理部により微分処理された微分画像を蓄積する画像メモリと、前記微分画像に順次番号を付与して前記画像メモリに蓄積し、この蓄積された微分画像の特定画素の値を順次比較し、値が最大となる微分画像の番号をその特定画素の値とすることを全画素に対して繰り返し行い、距離情報を得る演算処理部と、前記演算処理部で算出処理された距離情報を画像表示する画像表示部とを有する立体認識装置において、前記撮像部を、インコヒーレント,コヒーレント変換デバイスと、光学的輪郭抽出装置と、CCD撮像素子から構成したことを特徴とする立体認識装置 An actuator for changing a focal position of a photographic lens of a subject, an imaging unit for capturing a three-dimensional image of the subject, and an image for storing a differential image obtained by differentiating an image captured by the imaging unit by an arithmetic processing unit described later A memory, sequentially assigning a number to the differential image and storing it in the image memory, sequentially comparing the values of the specific pixels of the stored differential image, and assigning the number of the differential image having the maximum value to the specific pixel. In a three-dimensional recognition device having an arithmetic processing unit that obtains distance information by repeatedly performing the setting of a value for all pixels, and an image display unit that displays an image of the distance information calculated by the arithmetic processing unit, A three-dimensional recognition device , characterized in that the part comprises an incoherent / coherent conversion device, an optical contour extraction device, and a CCD image pickup device . 前記インコヒーレント,コヒーレント変換デバイスにより入力画像をコヒーレント画像に変換し、回折光学素子と一次元格子とにより輪郭強調し、CCD撮像素子により微分画像を撮影することを特徴とする請求項記載の立体認識装置7. The stereoscopic device according to claim 6 , wherein the input image is converted into a coherent image by the incoherent / coherent conversion device, the contour is emphasized by a diffractive optical element and a one-dimensional grating, and a differential image is photographed by a CCD image sensor. Recognition device .
JP29065393A 1993-11-19 1993-11-19 Stereoscopic recognition method and apparatus Expired - Fee Related JP3581889B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29065393A JP3581889B2 (en) 1993-11-19 1993-11-19 Stereoscopic recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29065393A JP3581889B2 (en) 1993-11-19 1993-11-19 Stereoscopic recognition method and apparatus

Publications (2)

Publication Number Publication Date
JPH07139912A JPH07139912A (en) 1995-06-02
JP3581889B2 true JP3581889B2 (en) 2004-10-27

Family

ID=17758760

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29065393A Expired - Fee Related JP3581889B2 (en) 1993-11-19 1993-11-19 Stereoscopic recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP3581889B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003207320A (en) * 2002-01-10 2003-07-25 Heiwa Kinzoku Kogyo Kk Three-dimensional recognition method and device
JP5230456B2 (en) * 2009-01-09 2013-07-10 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JPH07139912A (en) 1995-06-02

Similar Documents

Publication Publication Date Title
JP3191928B2 (en) Image input / output device
Zomet et al. Lensless imaging with a controllable aperture
DE3905619C2 (en) Image input / output device
US7830561B2 (en) Lensless imaging with controllable apertures
CN103067660B (en) Image-capturing apparatus and method
US5619596A (en) Method and apparatus for optical pattern recognition
DE60131759T2 (en) PICTURE-GENERATING DEVICE AND METHOD
US8927916B2 (en) Focus assist system and method
CN103686134B (en) Image pick-up device, system and control method and image processing apparatus
EP0580354A2 (en) Stereoscopic display apparatus and method
EP0580353A2 (en) Stereoscopic display apparatus and method
JPH0868967A (en) Image processing method and image processor
WO1994017493A1 (en) Methods and apparatus for image processing
EP0621524A1 (en) Optical image processor and correlator comprising at least one such processor
US5450128A (en) Image pickup system for reproducing image data using sensitivity function
CN100477739C (en) Multi-eye imaging apparatus
JP3581889B2 (en) Stereoscopic recognition method and apparatus
CN109900249A (en) Distance-measuring device and distance measurement method
JP2911894B2 (en) Endoscope image capturing method and endoscope apparatus
JPWO2019171691A1 (en) Image processing device, imaging device, and image processing method
JP3451264B2 (en) Spatial integrated slide image correlator
JP2883648B2 (en) Image input / output device
JP2001005046A (en) Multiband camera
JP2900209B2 (en) Optical pattern recognition method and optical pattern recognition device
CA2050242C (en) Logarithmic polar coordinate transforming method, vision recognizing method, and optical information processing apparatus

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040706

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040707

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070806

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080806

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090806

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100806

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110806

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120806

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees