JP2974500B2 - Compound eye imaging device - Google Patents

Compound eye imaging device

Info

Publication number
JP2974500B2
JP2974500B2 JP4152214A JP15221492A JP2974500B2 JP 2974500 B2 JP2974500 B2 JP 2974500B2 JP 4152214 A JP4152214 A JP 4152214A JP 15221492 A JP15221492 A JP 15221492A JP 2974500 B2 JP2974500 B2 JP 2974500B2
Authority
JP
Japan
Prior art keywords
image
imaging
subject
memories
imaging optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP4152214A
Other languages
Japanese (ja)
Other versions
JPH05344422A (en
Inventor
達嗣 片山
繁幸 須田
雄吉 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP4152214A priority Critical patent/JP2974500B2/en
Priority to DE69313694T priority patent/DE69313694T2/en
Priority to AT93104677T priority patent/ATE158129T1/en
Priority to EP93104677A priority patent/EP0563737B1/en
Priority to US08/036,079 priority patent/US5668595A/en
Publication of JPH05344422A publication Critical patent/JPH05344422A/en
Application granted granted Critical
Publication of JP2974500B2 publication Critical patent/JP2974500B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Input (AREA)
  • Studio Circuits (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は撮像装置に関し、少なく
とも2組の撮像光学系を用いて得られた少なくとも2つ
の画像を電気的に補正及び合成処理することにより高精
細な1つの画像を提供する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image pickup apparatus, and provides one high-definition image by electrically correcting and synthesizing at least two images obtained by using at least two sets of image pickup optical systems. To a device that

【0002】[0002]

【従来の技術】従来より2組の撮像光学系を用いて得ら
れた2つの画像を合成することにより1つの高精細な画
像を得る原理方式として、例えば画像電子学会予稿90
−03−04(p23〜28)等に開示される様な方式
が知られている。
2. Description of the Related Art Conventionally, as a principle method of obtaining one high-definition image by combining two images obtained by using two sets of imaging optical systems, for example,
-03-04 (pp. 23-28) and the like are known.

【0003】これは2組の撮像光学系に用いたイメージ
センサのサンプリング点を仮想的に共通の被写体に対し
て投影した際に、空間的に位相が異なることを利用し
て、各々の画像信号を合成処理することにより1つの高
精細な画像を得ようとするものである。図9にこの原理
の概念図を示す。図9に於て811及び821は撮像光
学系であり、812及び822は各々の撮像光学系によ
り出力された画像である。801に於て各々の画像信号
を合成処理し、高精細な画像802を得るものである。
[0003] When the sampling points of the image sensors used in the two sets of image pickup optical systems are projected onto a virtually common subject, the phase difference is spatially different, and each image signal is used. Are combined to obtain one high-definition image. FIG. 9 shows a conceptual diagram of this principle. In FIG. 9, 811 and 821 are imaging optical systems, and 812 and 822 are images output by the respective imaging optical systems. In step 801, each image signal is synthesized to obtain a high-definition image 802.

【0004】しかしながら、従来例では原理的に輻輳角
を有する光学配置の為、撮像光学系より得られる画像に
於てレジストレーションずれが発生することが考えられ
る。図10(A)は複眼撮像系に於けるレジストレーシ
ョンずれの概要を示したもので910及び920は撮像
光学系(レンズ)であり、911及び921はイメージ
センサである。また各々の撮像光学系910、920の
光軸を912及び922とする。ここで、中心軸O−
O′に対して各々の光軸912及び922をxz平面内
でθ傾斜させて被写体を撮像するとき、被写体面上の任
意の物点をPとする。このときPに対する各々のイメー
ジセンサ911及び921に於ける像点を各々R′及び
L′とすると、R′≠L′であるためにレジストレーシ
ョンずれが発生し、図10(B)に示す様に単純加算し
た合成画像930では物点Pに対する像が二重となり、
その結果高精度な画像が提供できなくなることになっ
た。
However, in the conventional example, since the optical arrangement has a convergence angle in principle, it is conceivable that a registration shift occurs in an image obtained from the imaging optical system. FIG. 10A shows an outline of the registration deviation in the compound-eye imaging system, in which 910 and 920 are imaging optical systems (lenses), and 911 and 921 are image sensors. The optical axes of the imaging optical systems 910 and 920 are 912 and 922, respectively. Here, the central axis O-
When an image of a subject is taken with each of the optical axes 912 and 922 inclined by θ in the xz plane with respect to O ′, an arbitrary object point on the subject plane is set to P. At this time, assuming that the image points on the image sensors 911 and 921 with respect to P are R 'and L', respectively, registration deviation occurs because of R '≠ L', as shown in FIG. In the composite image 930 obtained by simply adding to the above, the image for the object point P is doubled,
As a result, a high-precision image cannot be provided.

【0005】[0005]

【発明が解決しようとする課題】本発明は複数の元画像
から合成処理した画像を高精細化することを課題とす
る。
SUMMARY OF THE INVENTION It is an object of the present invention to improve the definition of an image synthesized from a plurality of original images.

【0006】[0006]

【課題を解決するための手段】本発明は上述した問題点
を解決することを目的としてなされたもので、その請求
項1に記載の発明によれば、輻輳角を可変に配された複
数の撮像系を用いて共通の被写体を撮像する装置におい
て、前記各撮像系よりそれぞれ出力された画像信号を記
憶する第1及び第2のメモリと、前記撮像系の撮像条件
を検出する手段と、前記各撮像系から出力され前記第1
及び第2のメモリにそれぞれ記憶された画像信号間にお
いて相関演算を行うことにより、被写体の位置座標情報
を検出する手段と、前記第1及び第2のメモリにそれぞ
れ記憶された画像を、前記撮像条件と前記位置座標情報
に基づき、それぞれ画素単位で被写体像の対応する位置
座標に変換して第3の画像メモリに書き込むことによっ
て合成することにより、高精細な画像の生成と、合成時
における前記画像間におけるレジストレーションずれの
補正を行う手段とを備えた複眼撮像装置を特徴とする。
また本願の請求項2に記載の発明によれば、請求項1に
記載の発明において、前記合成する手段が所定の視点位
置を基準にして合成画像を形成することを特徴とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and according to the first aspect of the present invention, a plurality of convergence angles variably arranged. In an apparatus for imaging a common subject using an imaging system, first and second memories for storing image signals output from the respective imaging systems, a unit for detecting imaging conditions of the imaging system, The first output from each imaging system
Means for detecting the position coordinate information of the subject by performing a correlation operation between the image signals stored in the first and second memories, and capturing the images stored in the first and second memories, respectively. Based on the conditions and the position coordinate information, each is converted into the corresponding position coordinates of the subject image in pixel units, and then written into the third image memory to be synthesized, thereby generating a high-definition image, and A compound-eye imaging device comprising: means for correcting registration deviation between images.
According to a second aspect of the present invention, in the first aspect, the combining means forms a combined image based on a predetermined viewpoint position.

【0007】[0007]

【実施例】図1に本発明に係る複眼撮影系の基本配置を
示す。図中1は共通の被写体平面、102及び202は
等価な仕様を有する第1及び第2の撮像光学系であり、
一般的には後述の様にズームレンズが用いられる。10
3及び203は同様に等価な仕様を有するイメージセン
サであり、サチコン等の撮像管またはCCD等の固体撮
像素子が用いられる。ここでは簡単のために単板式(ま
たは単管式)を模式的に示したが、色分解光学系を介し
た2板式(2管式)あるいは3板式(3管式)であって
も一般性を失わない。
1 shows a basic arrangement of a compound-eye photographing system according to the present invention. In the figure, 1 is a common object plane, 102 and 202 are first and second imaging optical systems having equivalent specifications,
Generally, a zoom lens is used as described later. 10
Similarly, reference numerals 3 and 203 denote image sensors having equivalent specifications, and use an image pickup tube such as a saticon or a solid-state image pickup device such as a CCD. Here, for the sake of simplicity, a single-plate type (or single-tube type) is schematically shown, but a two-plate type (two-tube type) or a three-plate type (three-tube type) via a color separation optical system is also general. Do not lose.

【0008】これらの光軸101及び201が被写体面
1上の点Oで交差し、点Oを通り、被写体面1の法線O
−O′に対して対称にθ傾斜した状態に配置する。尚2
θを輻輳角と定義し、被写体距離Sの変化に応じてこの
輻輳角を変えて撮像する。
The optical axes 101 and 201 intersect at a point O on the object plane 1, pass through the point O, and pass through a normal line O of the object plane 1.
It is arranged to be symmetrically inclined with respect to −O ′ by θ. 2
θ is defined as a convergence angle, and an image is taken by changing the convergence angle according to a change in the subject distance S.

【0009】図2は撮像光学系102、202の具体的
な構成を示すもので、図3は撮像光学系を構成する各部
材の機能をブロック図として示している。102a、1
02b、102c、102d及び、202a、202
b、202c、202dは第1及び第2の撮像光学系1
02及び202を構成するレンズ群を示し、特に102
b、202bは変倍群、102d、202dは合焦群を
示す。また106及び206は、変倍群102b及び2
02bを駆動するための駆動系(ズームモータ)、同時
に107及び207は合焦群102d及び202dを駆
動するための駆動系(フォーカスモータ)を示す。更に
102及び103、202及び203は一体として、光
軸101及び201を含む平面内で回転する不図示の機
構系と、駆動系(輻輳角モータ)104及び204を設
ける。
FIG. 2 shows a specific configuration of the image pickup optical systems 102 and 202, and FIG. 3 is a block diagram showing the function of each member constituting the image pickup optical system. 102a, 1
02b, 102c, 102d and 202a, 202
b, 202c and 202d are the first and second imaging optical systems 1
2 shows a lens group constituting the lens group 02 and 202,
b and 202b denote a zooming group, and 102d and 202d denote focusing groups. Reference numerals 106 and 206 denote the zooming groups 102b and 2
A drive system (zoom motor) for driving 02b, and 107 and 207 indicate drive systems (focus motors) for driving the focusing groups 102d and 202d. Further, 102 and 103, 202 and 203 are integrally provided with a mechanical system (not shown) that rotates in a plane including the optical axes 101 and 201, and drive systems (convergence angle motors) 104 and 204.

【0010】また105と205は角度エンコーダで、
撮像光学系102、202の回転角を測定する。108
と208はズームエンコーダで、変倍群102b、20
2bの移動を計測して変倍比を求める。109と209
はフォーカスエンコーダで、合焦群の位置を計測する。
また110と210は映像信号でイメージセンサ103
と203から出力され、画像メモリ111と211に記
憶される。
Reference numerals 105 and 205 denote angle encoders.
The rotation angles of the imaging optical systems 102 and 202 are measured. 108
And 208 are zoom encoders, and the zoom groups 102b and 20
The zoom ratio is determined by measuring the movement of 2b. 109 and 209
Is a focus encoder that measures the position of the focusing group.
Reference numerals 110 and 210 are video signals, and are image sensors 103.
And 203, and stored in the image memories 111 and 211.

【0011】演算制御部12、相関演算部13、補正演
算部14の作用は追って説明する。
The operations of the operation control unit 12, the correlation operation unit 13, and the correction operation unit 14 will be described later.

【0012】次に図4に示す配置で撮像しているとき被
写体の位置情報の検出について示す。
Next, detection of position information of a subject when taking an image with the arrangement shown in FIG. 4 will be described.

【0013】図4に示すように被写体面上の前述の点O
を原点として、x軸、y軸、及びz軸を定義する。
As shown in FIG. 4, the point O
, The x-axis, the y-axis, and the z-axis are defined.

【0014】撮像光学系102及び202と各々の撮像
光学系の光軸101、201との交点を各々QR、QL
し、撮像光学系(レンズ)102及び202の前側主点
から前述の点Oまでの距離をS0、また後側主点から各
々のイメージセンサ103及び203までの距離を
0′とする。ここで、図5に示すxz平面内に於ける
被写体面1上の座標P2(x0,z0)の導出について簡
単に示す。
[0014] Each Q R the intersection of the optical axis 101 and 201 of the imaging optical system 102 and 202 with each of the imaging optical system, and Q L, a point from the front side principal point of the imaging optical system (lens) 102 and 202 described above The distance to O is S 0 , and the distance from the rear principal point to each of the image sensors 103 and 203 is S 0 ′. Here, the derivation of the coordinates P 2 (x 0 , z 0 ) on the object plane 1 in the xz plane shown in FIG. 5 will be briefly described.

【0015】撮像光学系102及び202と各々の撮像
光学系の光軸101、201との交点を各々QR(x1
−z1)、QL(−x1,−z1)とすると、その座標
1、z1については撮影条件S0と輻輳角θを用いて幾
何学的に x1=S0sinθ − (1−a) z1=S0cosθ − (1−b) と表せられる。
[0015] Each Q R (x 1 the intersection of the optical axis 101 and 201 of the imaging optical system 102 and 202 with each of the imaging optical system,
-Z 1), Q L (-x 1, when the -z 1), the coordinates x 1, for z 1 by using the convergence angle θ and the photographing condition S 0 geometrically x 1 = S 0 sinθ - (1-a) z 1 = S 0 cos θ− (1-b)

【0016】また、各々のイメージセンサ103及び2
03と光軸101及び201との交点OR′(x2,−z
2)、OL′(−x2,−z2)についても同様に x2=(S0+S0′)sinθ − (2−
a) z2=(S0+S0′)cosθ − (2−b) と表せられる。
Each of the image sensors 103 and 2
03 and the intersection between the optical axis 101 and 201 O R '(x 2, -z
2), O L '(-x 2, likewise x 2 = true for -z 2) (S 0 + S 0') sinθ - (2-
a) It can be expressed as z 2 = (S 0 + S 0 ′) cos θ − (2-b).

【0017】ここで、図5に示すように被写体上の物点
2(x0,z0)に対する各々のイメージセンサ10
3、203に於ける像点をPR′(xR,−zR)及び
L′(−xL,−zL)、またイメージセンサ103及
び203に於ける各々の像高をxR′、xL′とすると、
幾何学的に xR=(S0+S0′)sinθ−xR′cosθ − (3−a) zR=(S0+S0′)cosθ+xR′sinθ − (3−b) xL=(S0+S0′)sinθ+xL′cosθ − (3−c) zL=(S0+S0′)cosθ−xL′sinθ − (3−d) と表すことができる。
Here, as shown in FIG. 5, each image sensor 10 with respect to an object point P 2 (x 0 , z 0 ) on the subject.
3,203 to at image point P R '(x R, -z R) and P L' (-x L, -z L), also the in each image height on the image sensor 103 and 203 x R ′, X L ′,
Geometrically x R = (S 0 + S 0 ') sinθ-x R' cosθ - (3-a) z R = (S 0 + S 0 ') cosθ + x R' sinθ - (3-b) x L = ( S 0 + S 0 ') sinθ + x L' cosθ - (3-c) z L = (S 0 + S 0 ') cosθ-x L' sinθ - ( can be expressed 3-d) and.

【0018】このとき点PR′と点QRを通る直線をfR
(S0,S0′,θ,xR′)とし、点PL′と点QLを通
る直線をfL(S0,S0′,θ,xL′)と表すと、被写
体面上の点P2(x0,z0)は定義によりこの2直線の
交点の座標となる。
[0018] a straight line passing through this time point P R 'and the point Q R f R
(S 0, S 0 ', θ, x R') and 'a straight line passing through the point Q L f L (S 0, S 0' point P L, θ, x L ' ) is expressed as, the object plane The upper point P 2 (x 0 , z 0 ) is, by definition, the coordinates of the intersection of these two straight lines.

【0019】また図4に示すようにy0についても撮像
光学系102に関して y0=yR′SR′/SR − (4) として求めることができる。ここで、SRは図5に於け
る物点P2(x0,z0)から撮像光学系102の前側主
点までの距離であり、SR′は撮像光学系102の後側
主点からイメージセンサ103に於ける像点PR′まで
の距離を表す。
As shown in FIG. 4, y 0 can also be obtained for the image pickup optical system 102 as y 0 = y R 'S R ' / S R- (4). Here, S R is the distance from the at object point P 2 in FIG. 5 (x 0, z 0) to a front principal point of the imaging optical system 102, S R 'are side principal point of the imaging optical system 102 From the image point P R ′ in the image sensor 103.

【0020】このとき図4の点P(x0,y0,z0
は、 P=f(S0,S0′,θ,xR′,xL′,yR(L)′) (5) により表すことができ、撮影条件(S0,S0′,θ,)
と各々のイメージセンサの出力画像(xR′,xL′,y
R(L))の関数となり、各パラメータを検出することによ
り被写体面の位置情報を求めることができる。
At this time, the point P (x 0 , y 0 , z 0 ) in FIG.
Can be expressed by P = f (S 0 , S 0 ′, θ, x R ′, x L ′, y R (L) ′) (5), and the imaging conditions (S 0 , S 0 ′, θ) ,)
And the output image of each image sensor (x R ′, x L ′, y
R (L) ), and the position information of the object plane can be obtained by detecting each parameter.

【0021】以上の過程の求め方を図2,図3を使って
説明する。まず輻輳角2θを回転型エンコーダの様な回
転角情報検出手段105及び205により検出する。撮
像光学系の変倍群102b及び202bに設けた各々の
レンズ群の光軸方向の位置情報を得るためのエンコーダ
(ズームエンコーダ)108、208を使用し、この信
号により撮像光学系102及び202の焦点距離fを求
める。同様に109、209は撮像光学系の合焦群10
2d及び202bdに設けた各々のレンズ群の光軸方向
の位置情報を得るためのエンコーダ(フォーカスエンコ
ーダ)であるがこれらは例えばポテンショメータのよう
な外付けの部材でも良いし、例えばパルスモータのよう
な駆動系自身で駆動方法によりレンズの光軸方向の位置
情報を知る系でも良い。そして演算制御部12にてフォ
ーカスエンコーダ109、及び209からの信号により
撮像光学系102及び202に対する被写体距離S0
求められ、更に上述の撮像光学系102及び202の焦
点距離fと合わせて、撮像光学系102及び202のレ
ンズバックS0′が求まる。尚、エンコーダ108、1
09、208、209からの信号により駆動系106、
107、206、207を別途制御することによって、
2組の撮像光学系102及び202の焦点距離fとレン
ズバックS0′は、常に一致させるようにしているもの
とする。
A method of obtaining the above process will be described with reference to FIGS. First, the convergence angle 2θ is detected by rotation angle information detecting means 105 and 205 such as a rotary encoder. Encoders (zoom encoders) 108 and 208 for obtaining position information in the optical axis direction of the respective lens groups provided in the zooming groups 102b and 202b of the imaging optical system are used. Find the focal length f. Similarly, reference numerals 109 and 209 denote focusing groups 10 of the imaging optical system.
Encoders (focus encoders) for obtaining position information in the optical axis direction of each lens group provided in the 2d and 202bd may be external members such as a potentiometer, or may be, for example, a pulse motor. The drive system itself may be a system that knows the position information of the lens in the optical axis direction by the drive method. Then, the arithmetic control unit 12 obtains a subject distance S 0 with respect to the imaging optical systems 102 and 202 based on signals from the focus encoders 109 and 209, and further combines the focal length f of the imaging optical systems 102 and 202 with the imaging distance. The lens back S 0 ′ of the optical systems 102 and 202 is obtained. The encoders 108, 1
09, 208, and 209, the driving system 106,
By separately controlling 107, 206, and 207,
It is assumed that the focal length f of the two sets of imaging optical systems 102 and 202 always coincides with the lens back S 0 ′.

【0022】以上のように各機構系に設けたエンコーダ
105、108、109、205、208、209の信
号をもとに演算制御部12に於てS0(撮像光学系(レ
ンズ)の前側主点から各々の光軸の交点までの距離)、
0′(撮像光学系(レンズ)の後側主点から像面まで
の距離)及びθ(輻輳角)を求める。一方111及び2
11は画像メモリであり、映像信号110及び210を
一時保存する。
As described above, based on the signals of the encoders 105, 108, 109, 205, 208, and 209 provided in each mechanism system, the arithmetic control unit 12 sets S 0 (the front main unit of the imaging optical system (lens)). Distance from the point to the intersection of each optical axis),
S 0 ′ (distance from the rear principal point of the imaging optical system (lens) to the image plane) and θ (convergence angle) are obtained. 111 and 2 on the other hand
An image memory 11 temporarily stores video signals 110 and 210.

【0023】13は相関演算処理部であり画像メモリ1
11及び211の画像データについて相関演算を行うが
図6(A)(B)に相関演算処理についての概念図を示
す。処理に際しては、図6(B)に示すようにまず画像
メモリ111に於ける点(xiR′,yjR′)の画素デー
タRijを中心とした画素データ群112を1つのブロッ
クとし、これと画像メモリ211に於ける画像との間で
相関演算を行なう。図7は水平方向及び垂直方向につい
て相関演算に於ける相関値とx′(y′)軸座標の関係
を模式的に表したものである。ここで、この相関ピーク
近傍の関係を関数近似すること等により相関値が最大と
なるxL′(yL′)をイメージセンサのサンプリングピ
ッチ以下の精度で求める。画像メモリ111の各画素デ
ータRijについてブロック112を設け、同様の演算処
理を行ない各画素データに対応するxL′及びyL′を求
める。
Reference numeral 13 denotes a correlation operation processing unit which is an image memory 1
Correlation calculations are performed on the image data 11 and 211. FIGS. 6A and 6B are conceptual diagrams of the correlation calculation processing. At the time of processing, as shown in FIG. 6B, first, a pixel data group 112 centered on the pixel data R ij at the point (x iR ′, y jR ′) in the image memory 111 is formed as one block. And a correlation operation between the image and the image in the image memory 211. FIG. 7 schematically shows the relationship between the correlation value and the x '(y') axis coordinate in the correlation operation in the horizontal and vertical directions. Here, x L ′ (y L ′) at which the correlation value becomes maximum is obtained by approximating the relationship in the vicinity of the correlation peak by a function or the like with an accuracy equal to or less than the sampling pitch of the image sensor. A block 112 is provided for each pixel data R ij in the image memory 111, and the same arithmetic processing is performed to obtain x L ′ and y L ′ corresponding to each pixel data.

【0024】この一連の処理により求めた画像情報(x
iR′、xL′、yjR′)と前記撮影条件(S0、S0′、
θ)を用いて、前述の(5)式に示した関係よりイメー
ジセンサ103の各画素データRijに対応する被写体面
の座標PR(x0,y0,z0)を求めることができる。
The image information (x
iR ', x L', y jR ') and the imaging conditions (S 0, S 0',
Using θ), the coordinates P R (x 0 , y 0 , z 0 ) of the subject surface corresponding to each pixel data R ij of the image sensor 103 can be obtained from the relationship shown in the above equation (5). .

【0025】イメージセンサ203の各画素データLij
(xiL′,yjL′)についても同様の演算処理を施し、
各画素に対応するxR′及びyR′を求め、イメージセン
サ203の各画素データLijに対応する被写体面の座標
L(x0,y0,z0)を求める。尚、被写体面の座標P
RとPLは必ずしも一致しない。
Each pixel data L ij of the image sensor 203
(X iL ′, y jL ′) is subjected to the same arithmetic processing.
X R ′ and y R ′ corresponding to each pixel are obtained, and coordinates P L (x 0 , y 0 , z 0 ) of the object plane corresponding to each pixel data L ij of the image sensor 203 are obtained. The coordinates P of the object plane
R and P L do not always match.

【0026】以上の処理により求めた座標PR及びPL
基に補正処理部14に於て処理を行なう。補正処理部1
4に於ては、まず所望の視点位置を入力する。このとき
視点位置を例えば図8に示すように入力すると、前述の
撮影条件S0、S0′と被写体面の座標PR(L)(x,
0,z0)を用い、各座標値に対する像点(x′、
y′)を以下のように求めることができる x′=x00′/(S0+z0) − (6−a) y′=y00′/(S0+z0) − (6−b) 前記(6−a、b)式を基に演算処理により各々の画像
メモリの各座標(xiR(L)′,yjR(L)′)を座標変換し
画像メモリ15に書き込む。画像メモリ15に於ける画
像はレジストレーションずれが補正されており、また画
像データは各々のイメージセンサ103及び203より
出力される画像データに対して理想的には2倍となり、
その結果、出力画像は高精細化されたものとなるわけで
ある。
The correction processing section 14 performs processing based on the coordinates P R and P L obtained by the above processing. Correction processing unit 1
In step 4, first, a desired viewpoint position is input. Entering this time viewpoint position as shown in FIG. 8, the coordinates P R (L) (x photographing condition S 0, S 0 'and the object plane of the aforementioned,
y 0 , z 0 ) and the image point (x ′,
x ′ = x 0 S 0 ′ / (S 0 + z 0 ) − (6-a) y ′ = y 0 S 0 ′ / (S 0 + z 0 ) − ( 6-b) Each coordinate (x iR (L) ′, y jR (L) ′) of each image memory is subjected to coordinate conversion by arithmetic processing based on the above equation (6-a, b) and written to the image memory 15. . The registration in the image in the image memory 15 is corrected, and the image data is ideally doubled with respect to the image data output from the respective image sensors 103 and 203.
As a result, the output image has a high definition.

【0027】[0027]

【発明の効果】以上、述べた様に本発明によれば高精細
な画像を得ることができるから、これから益々求められ
る高精細情報を提供することができる効果がある。
As described above, according to the present invention, since a high-definition image can be obtained, there is an effect that high-definition information which is increasingly required from now on can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明実施例の基本配置を示す図。FIG. 1 is a diagram showing a basic arrangement of an embodiment of the present invention.

【図2】実施例の具体的構成を示す斜視図。FIG. 2 is a perspective view showing a specific configuration of the embodiment.

【図3】実施例の機能の関連を示すブロック図。FIG. 3 is a block diagram showing a relation between functions of the embodiment.

【図4】被写体の3次元位置情報導出に関する説明図。FIG. 4 is an explanatory diagram related to deriving three-dimensional position information of a subject.

【図5】被写体の2次元位置情報導出に関する説明図。FIG. 5 is an explanatory diagram relating to derivation of two-dimensional position information of a subject.

【図6】相関演算処理の模式図。FIG. 6 is a schematic diagram of a correlation operation process.

【図7】相関値を示す特性図。FIG. 7 is a characteristic diagram showing a correlation value.

【図8】画像補正処理の説明図。FIG. 8 is an explanatory diagram of an image correction process.

【図9】高精細化の原理を説明するための模式図。FIG. 9 is a schematic diagram for explaining the principle of high definition.

【図10】従来例で発生するレジストレーションずれの
説明図。
FIG. 10 is an explanatory diagram of a registration shift occurring in a conventional example.

【符号の説明】[Explanation of symbols]

1 被写体面 102、202 撮像光学系 102a、102b、102c、102d 撮像光学系
102のレンズ群 202a、202b、202c、202d 撮像光学系
202のレンズ群 101、201 撮像光学系102、201の光軸 103、203 イメージセンサ 104、204 輻輳角モータ 105、205 角度エンコーダ 106、206 ズームモータ 107、207 フォーカスモータ 108、208 ズームエンコーダ 109、209 フォーカスエンコーダ 110、210 画像信号 111、211、15 画像メモリ 12、13、14 演算制御部
1 Object plane 102, 202 Imaging optical system 102a, 102b, 102c, 102d Lens group 202a, 202b, 202c, 202d of imaging optical system 102 Lens group 101, 201 of imaging optical system 202 Optical axis 103 of imaging optical system 102, 201 , 203 Image sensor 104, 204 Convergence angle motor 105, 205 Angle encoder 106, 206 Zoom motor 107, 207 Focus motor 108, 208 Zoom encoder 109, 209 Focus encoder 110, 210 Image signal 111, 211, 15 Image memory 12, 13 , 14 Operation control unit

フロントページの続き (56)参考文献 特開 平3−175886(JP,A) 特開 平3−29472(JP,A) 特開 昭60−18067(JP,A) 特開 昭57−93788(JP,A) 特開 昭55−60381(JP,A) 実開 昭50−74815(JP,U) (58)調査した分野(Int.Cl.6,DB名) H04N 5/262 - 5/28 H04N 5/222 - 5/232 Continuation of the front page (56) References JP-A-3-175886 (JP, A) JP-A-3-29472 (JP, A) JP-A-60-18067 (JP, A) JP-A-57-93788 (JP) JP-A-55-60381 (JP, A) JP-A-50-74815 (JP, U) (58) Fields investigated (Int. Cl. 6 , DB name) H04N 5/262-5/28 H04N 5/222-5/232

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 輻輳角を可変に配された複数の撮像系を
用いて共通の被写体を撮像する装置において、 前記各撮像系よりそれぞれ出力された画像信号を記憶す
る第1及び第2のメモリと、 前記撮像系の撮像条件を検出する手段と、 前記各撮像系から出力され前記第1及び第2のメモリに
それぞれ記憶された画像信号間において相関演算を行う
ことにより、被写体の位置座標情報を検出する手段と、 前記第1及び第2のメモリにそれぞれ記憶された画像
を、前記撮像条件と前記位置座標情報に基づき、それぞ
れ画素単位で被写体像の対応する位置座標に変換して第
3の画像メモリに書き込むことによって合成することに
より、高精細な画像の生成と、合成時における前記画像
間におけるレジストレーションずれの補正を行う手段
と、 を備えたことを特徴とする複眼撮像装置。
1. An apparatus for imaging a common subject using a plurality of imaging systems variably arranged with a convergence angle, wherein first and second memories for storing image signals respectively output from the respective imaging systems. Means for detecting an imaging condition of the imaging system; and performing a correlation operation between the image signals output from each of the imaging systems and stored in the first and second memories, thereby obtaining position coordinate information of the subject. And converting the images respectively stored in the first and second memories into corresponding position coordinates of the subject image on a pixel-by-pixel basis based on the imaging conditions and the position coordinate information. Means for generating a high-definition image by compiling by writing to an image memory of the image memory and correcting registration deviation between the images at the time of composition. Compound-eye imaging apparatus according to claim and.
【請求項2】 前記合成する手段は所定の視点位置を基
準にして合成画像を形成することを特徴とする請求項1
の複眼撮像装置。
2. The apparatus according to claim 1, wherein said combining means forms a combined image based on a predetermined viewpoint position.
Compound eye imaging device.
JP4152214A 1992-03-23 1992-06-11 Compound eye imaging device Expired - Fee Related JP2974500B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP4152214A JP2974500B2 (en) 1992-06-11 1992-06-11 Compound eye imaging device
DE69313694T DE69313694T2 (en) 1992-03-23 1993-03-22 Multi-lens imaging device and correction of misregistration
AT93104677T ATE158129T1 (en) 1992-03-23 1993-03-22 MULTIPLE LENS IMAGE RECORDING DEVICE AND MISREGISTRATION CORRECTION
EP93104677A EP0563737B1 (en) 1992-03-23 1993-03-22 Multilens imaging apparatus with correction of misregistration
US08/036,079 US5668595A (en) 1992-03-23 1993-03-23 Multi-lens imaging apparatus having a mechanism for combining a plurality of images without displacement of registration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4152214A JP2974500B2 (en) 1992-06-11 1992-06-11 Compound eye imaging device

Publications (2)

Publication Number Publication Date
JPH05344422A JPH05344422A (en) 1993-12-24
JP2974500B2 true JP2974500B2 (en) 1999-11-10

Family

ID=15535570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4152214A Expired - Fee Related JP2974500B2 (en) 1992-03-23 1992-06-11 Compound eye imaging device

Country Status (1)

Country Link
JP (1) JP2974500B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004094944A1 (en) * 2003-04-23 2004-11-04 Seijiro Tomita Method and apparatus for measuring distance
US7764309B2 (en) 2005-12-14 2010-07-27 Sony Corporation Image taking apparatus, image processing method, and image processing program for connecting into a single image a plurality of images taken by a plurality of imaging units disposed such that viewpoints coincide with each other

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3542397B2 (en) * 1995-03-20 2004-07-14 キヤノン株式会社 Imaging device
JP4199238B2 (en) 2006-01-11 2008-12-17 パナソニック株式会社 Shooting system
JP4871315B2 (en) * 2008-03-26 2012-02-08 富士フイルム株式会社 Compound eye photographing apparatus, control method therefor, and program
JP5137219B2 (en) * 2011-11-18 2013-02-06 富士フイルム株式会社 Compound eye photographing apparatus, control method therefor, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004094944A1 (en) * 2003-04-23 2004-11-04 Seijiro Tomita Method and apparatus for measuring distance
US7764309B2 (en) 2005-12-14 2010-07-27 Sony Corporation Image taking apparatus, image processing method, and image processing program for connecting into a single image a plurality of images taken by a plurality of imaging units disposed such that viewpoints coincide with each other

Also Published As

Publication number Publication date
JPH05344422A (en) 1993-12-24

Similar Documents

Publication Publication Date Title
US5682198A (en) Double eye image pickup apparatus
US5668595A (en) Multi-lens imaging apparatus having a mechanism for combining a plurality of images without displacement of registration
US5646679A (en) Image combining method and apparatus
US10863164B2 (en) Stereo camera and method of controlling stereo camera
JP2883265B2 (en) Image processing device
US6304284B1 (en) Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera
US5798791A (en) Multieye imaging apparatus
US6236748B1 (en) Compound eye image pickup device utilizing plural image sensors and plural lenses
JP2017112602A (en) Image calibrating, stitching and depth rebuilding method of panoramic fish-eye camera and system thereof
US6839081B1 (en) Virtual image sensing and generating method and apparatus
CN112330794B (en) Single-camera image acquisition system based on rotary bipartite prism and three-dimensional reconstruction method
CN111854636B (en) Multi-camera array three-dimensional detection system and method
JP2002071309A (en) Three-dimensional image-detecting device
JP2974500B2 (en) Compound eye imaging device
JPH0787385A (en) Image pickup device
JPH11257953A (en) Tunnel wall surface observing apparatus
JP2018134712A (en) Robot system and control method for robot system
JPH10170227A (en) Display device
JP2883264B2 (en) Compound eye imaging device
JP3093447B2 (en) Compound eye imaging device
JP3412945B2 (en) Image synthesis device and photographing device
JPH06195447A (en) Compound eye image pickup device
JPH06273172A (en) Image processing device using stereo camera
JP2908669B2 (en) Compound eye imaging device
JP3639620B2 (en) Image composition apparatus and image processing method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110903

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees