JP2001148866A - Image input device - Google Patents

Image input device

Info

Publication number
JP2001148866A
JP2001148866A JP32913099A JP32913099A JP2001148866A JP 2001148866 A JP2001148866 A JP 2001148866A JP 32913099 A JP32913099 A JP 32913099A JP 32913099 A JP32913099 A JP 32913099A JP 2001148866 A JP2001148866 A JP 2001148866A
Authority
JP
Japan
Prior art keywords
image
distance
control
imaging
image input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32913099A
Other languages
Japanese (ja)
Inventor
Satoru Hirose
悟 広瀬
Takuto Joko
琢人 上古
Takayuki Hamaguchi
敬行 浜口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP32913099A priority Critical patent/JP2001148866A/en
Publication of JP2001148866A publication Critical patent/JP2001148866A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To enhance the accuracy of a three-dimensional image in its reconfiguration or to decrease the sense of incongruity in a panorama image by using a single distance obtained through measurements so as to control the respective foci of a plurality of image pickup sections. SOLUTION: The image input device 1 picks up an object by using a plurality of image pickup sections 11, 21 each including a light receiving lens and a photoelectric conversion element so that the picked up images have at least partly overlapping parts, and receives the resulting image. The device is provided with a distance detection section 31 that measures the distance up to the object and control means 12, 22 that use a single distance based on the measurements by the distance detection section 31 so as to control the respective foci of a plurality of the image pickup sections 11, 21.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、対象物についての
3次元データまたはパノラマ画像などを得るために、受
光レンズおよび光電変換素子を含む複数の撮像部を用い
て対象物を撮像する画像入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input apparatus for picking up an object using a plurality of image pickup units including a light receiving lens and a photoelectric conversion element in order to obtain three-dimensional data or a panoramic image of the object. About.

【0002】[0002]

【従来の技術】従来より、複数の撮像部によって対象物
(被写体)についての複数の画像を入力する画像入力装
置が用いられている。このような装置は、仮想的に同一
点とみなせる隣接視点から撮像を行ってパノラマ画像を
得る用途、多視点から同一の対象物を鑑賞する用途、ま
たは多視点から得られた画像に基づいて3次元画像(3
次元データまたは立体画像)を表示しまたは再構成する
用途など、種々の用途に用いられる。
2. Description of the Related Art Conventionally, an image input device for inputting a plurality of images of a target (subject) by a plurality of image pickup units has been used. Such a device is used for obtaining a panoramic image by capturing images from adjacent viewpoints that can be regarded as virtually the same point, for viewing the same target object from multiple viewpoints, or based on an image obtained from multiple viewpoints. Dimensional image (3
It is used for various purposes such as displaying or reconstructing (dimensional data or stereoscopic image).

【0003】パノラマ画像を得る用途においては、対象
物についてより広い範囲の画像を得るために、各画像の
重なる部分は少ない方がよい。これに対して、3次元画
像を得る用途においては、画像の重なった部分によって
3次元画像を再構成するので、各画像の重なる部分は多
い方がよい。
In an application for obtaining a panoramic image, in order to obtain a wider range of images of an object, it is preferable that the overlapping portion of each image is small. On the other hand, in an application for obtaining a three-dimensional image, since the three-dimensional image is reconstructed by the overlapping part of the images, it is preferable that the overlapping part of each image is large.

【0004】さて、従来において、そのような用途に使
用可能な装置として、特開平9−305796号に開示
された装置がある。この従来の装置では、2つの撮像レ
ンズ(受光レンズ)が用いられており、対象物までの距
離X1と背景までの距離X2とに基づいて焦点の制御距
離Xを決定すること、制御距離Xにおいて距離X1と距
離X2とが深度内に入るように絞り値を決定すること、
および、画像のオーバーラップ量が最大となる焦点距離
を決定することが、それぞれの撮像レンズについて実行
される。
Conventionally, as an apparatus which can be used for such a purpose, there is an apparatus disclosed in Japanese Patent Application Laid-Open No. 9-305796. In this conventional apparatus, two imaging lenses (light receiving lenses) are used, and a control distance X of a focus is determined based on a distance X1 to an object and a distance X2 to a background. Determining the aperture value so that the distance X1 and the distance X2 fall within the depth;
Determining the focal length at which the amount of overlap of the image is maximum is executed for each imaging lens.

【0005】また、特開平8−116553号には、2
つのセンサで得られる対象物の像間距離と現在の輻輳角
に基づいて、所望の輻輳角およびピントの設定を行うよ
うに構成したシステムが開示されている。
Japanese Patent Application Laid-Open No. 8-116553 discloses that
There is disclosed a system configured to set a desired convergence angle and a focus based on a distance between images of an object obtained by two sensors and a current convergence angle.

【0006】[0006]

【発明が解決しようとする課題】ところが、複数の受光
レンズを介して画像を入力する場合に、それぞれの受光
レンズが対象物上の何処かで合焦していたとしても、同
一点で合焦しているとは限らない。
However, when an image is input through a plurality of light-receiving lenses, even if each of the light-receiving lenses is in focus at some point on the object, it is focused at the same point. Not necessarily.

【0007】したがって、従来において複数のカメラに
より撮像されたそれぞれの画像は、対象物上の同一点で
あっても、像の大きさが互いに異なったり、ぼけ状態が
互いに異なったりすることがある。
[0007] Therefore, in the related art, even if the images picked up by a plurality of cameras are at the same point on the object, the sizes of the images may be different from each other or the blur states may be different from each other.

【0008】これら、複数の画像間における倍率または
ぼけ状態の相違は、3次元画像の再構成において画像間
の対応点を探索する際に誤差の要因となる。したがっ
て、対象物上の同一点については、それぞれの画像にお
いて互いに同じ倍率で且つ同じぼけ状態の画像データと
して得られることが、生成される3次元画像の精度の点
から望ましい。
[0008] These differences in magnification or blur state among a plurality of images cause errors when searching for corresponding points between images in the reconstruction of a three-dimensional image. Therefore, it is desirable from the viewpoint of the accuracy of the generated three-dimensional image that the same point on the object be obtained as image data at the same magnification and in the same blur state in each image.

【0009】また、複数の画像をつなげてパノラマ画像
を得る場合において、複数の画像間の倍率またはぼけ状
態の相違は、得られた画像に違和感を生じさせる要因と
なる。
In addition, when a plurality of images are connected to obtain a panoramic image, a difference in magnification or blur between the plurality of images causes discomfort in the obtained images.

【0010】本発明は、上述の問題に鑑みてなされたも
ので、計測により得られた1つの距離を用いて複数の撮
像部のそれぞれのピントを制御することにより、3次元
画像の再構成における精度を向上させまたはパノラマ画
像における違和感を減少させることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problem, and controls the focus of each of a plurality of image pickup units using one distance obtained by measurement, thereby achieving three-dimensional image reconstruction. An object of the present invention is to improve accuracy or reduce discomfort in a panoramic image.

【0011】[0011]

【課題を解決するための手段】請求項1の発明に係る装
置は、受光レンズおよび光電変換素子を含む複数の撮像
部によって、画像の少なくとも一部に互いに重なる部分
を有するように対象物を撮像して画像を入力する画像入
力装置であって、前記対象物までの距離を計測するため
の距離計測手段と、前記距離計測手段による計測に基づ
く1つの距離を用いて前記複数の撮像部のそれぞれのピ
ントを制御する制御手段と、を有してなる。
According to a first aspect of the present invention, an object is imaged by a plurality of imaging units including a light receiving lens and a photoelectric conversion element so that at least a part of the image has a portion overlapping each other. An image input device for inputting an image by using a distance measuring unit for measuring a distance to the object, and each of the plurality of imaging units using one distance based on the measurement by the distance measuring unit. And control means for controlling the focus.

【0012】請求項2の発明に係る装置では、前記制御
手段は、前記複数の撮像部のそれぞれについて独立して
制御可能である。請求項3の発明に係る装置では、前記
制御手段の制御によるピント位置が前記撮像部によって
異なる場合に、撮像される画像の倍率を補正する。
In the apparatus according to the second aspect of the present invention, the control means can independently control each of the plurality of imaging units. In the apparatus according to the third aspect of the present invention, when the focus position under the control of the control unit differs depending on the imaging unit, the magnification of the captured image is corrected.

【0013】請求項4の発明に係る装置では、前記制御
手段は、前記1つの距離を用いて、前記複数の撮像部の
それぞれの姿勢を制御する。請求項5の発明に係る装置
では、前記制御手段は、前記1つの距離を用いて、前記
複数の撮像部のそれぞれの絞りを制御する。
According to a fourth aspect of the present invention, the control means controls the attitude of each of the plurality of imaging units using the one distance. In the apparatus according to a fifth aspect of the present invention, the control unit controls the apertures of the plurality of imaging units using the one distance.

【0014】請求項6の発明に係る装置では、前記距離
計測手段による計測結果に基づいて絞り値Aaを求める
手段と、測光による露光量に基づいて絞り値Arを求め
る手段と、それら絞り値Aaおよび絞り値Arに基づい
て制御のための絞り値Aを選択する手段と、を備える。
In the apparatus according to a sixth aspect of the present invention, a means for obtaining an aperture value Aa based on the measurement result by the distance measuring means, a means for obtaining an aperture value Ar based on an exposure amount by photometry, and a method for obtaining the aperture value Aa Means for selecting an aperture value A for control based on the aperture value Ar.

【0015】[0015]

【発明の実施の形態】図1は本発明に係る第1の実施形
態の画像入力装置1を示すブロック図、図2は画像入力
装置1による撮像の様子を示す図、図3および図4は撮
像における深度を説明するための図である。
FIG. 1 is a block diagram showing an image input apparatus 1 according to a first embodiment of the present invention, FIG. 2 is a view showing an image pickup state by the image input apparatus 1, and FIGS. It is a figure for explaining depth in imaging.

【0016】図1において、画像入力装置1は、撮像部
11,21、ピント制御部12,22、ズーム制御部1
3,23、絞り制御部14,24、姿勢制御部15,2
5、CPU30、距離検出部31、メモリ32、倍率補
正値算出部33、および倍率補正部34などから構成さ
れる。
In FIG. 1, an image input apparatus 1 includes image pickup units 11 and 21, focus control units 12 and 22, and a zoom control unit 1.
3, 23, aperture control units 14, 24, attitude control units 15, 2
5, a CPU 30, a distance detection unit 31, a memory 32, a magnification correction value calculation unit 33, a magnification correction unit 34, and the like.

【0017】撮像部11、ピント制御部12、ズーム制
御部13、絞り制御部14、および姿勢制御部15は第
1のカメラ10を構成し、撮像部21、ピント制御部2
2、ズーム制御部23、絞り制御部24、および姿勢制
御部25は第2のカメラ20を構成する。これら第1お
よび第2のカメラ10,20は、基本的な構成および機
能が互いに同じであるので、その一方についてのみ説明
する。
The image pickup section 11, focus control section 12, zoom control section 13, aperture control section 14, and attitude control section 15 constitute a first camera 10, and include an image pickup section 21, a focus control section 2
2. The zoom control unit 23, the aperture control unit 24, and the attitude control unit 25 constitute the second camera 20. Since the first and second cameras 10 and 20 have the same basic configuration and function, only one of them will be described.

【0018】なお、第1および第2のカメラ10,20
のそれぞれの構成要素について、第1の撮像部11、第
2の撮像部21などと記載することがある。図2に示す
ように、第1および第2の撮像部11,21は、距離検
出部31の光軸に対して上下に対称に配置されている。
第1および第2の撮像部11,21、および距離検出部
31の光軸は、互いに同一の平面上にあり、第1および
第2の撮像部11,21は、それらの光軸がその平面内
にあるように移動可能である。距離検出部31の光軸と
第1および第2の撮像部11,21の光軸とのなす角度
が輻輳角α1,α2である。
The first and second cameras 10, 20
May be described as a first imaging unit 11, a second imaging unit 21, and the like. As shown in FIG. 2, the first and second imaging units 11 and 21 are vertically symmetrically arranged with respect to the optical axis of the distance detection unit 31.
The optical axes of the first and second imaging units 11 and 21 and the distance detection unit 31 are on the same plane, and the first and second imaging units 11 and 21 are arranged such that their optical axes are on the same plane. Movable to be within. Angles formed between the optical axis of the distance detection unit 31 and the optical axes of the first and second imaging units 11 and 21 are convergence angles α1 and α2.

【0019】また、第1の撮像部11と第2の撮像部2
1とは、それらの間の距離である基線長LAが既知とな
るように配置されている。図1に戻って、撮像部11に
は、受光レンズ101および光電変換素子102が設け
られる。受光レンズ101は、複数枚のレンズが組み合
わされてなるズームレンズである。光電変換素子102
は、例えばCCDなどからなり、受光レンズ101によ
り結像した像に対応した画像データD1,D2を出力す
る。
The first imaging unit 11 and the second imaging unit 2
1 is arranged so that the base line length LA, which is the distance between them, is known. Returning to FIG. 1, the imaging unit 11 includes a light receiving lens 101 and a photoelectric conversion element 102. The light receiving lens 101 is a zoom lens formed by combining a plurality of lenses. Photoelectric conversion element 102
Is composed of, for example, a CCD and outputs image data D1 and D2 corresponding to an image formed by the light receiving lens 101.

【0020】ピント制御部12は、受光レンズ101を
駆動し、撮像部11のピントを制御する。つまり、距離
検出部31により計測された距離LBに基づいて、撮像
部11のピントが合うように受光レンズ101が移動さ
れる。通常は、撮像部11の光軸と対象物Qの表面との
交点にピントが合うように制御される。
The focus control section 12 drives the light receiving lens 101 to control the focus of the image pickup section 11. That is, the light receiving lens 101 is moved based on the distance LB measured by the distance detection unit 31 so that the imaging unit 11 is in focus. Normally, control is performed so that the intersection between the optical axis of the imaging unit 11 and the surface of the object Q is focused.

【0021】そのために、メモリ32には、受光レンズ
101の制御のための制御データが予め記憶されてい
る。制御データは、例えば、受光レンズ101の合焦の
ための制御目標となる焦点距離LB1,LB2の他、撮
像部11,21の姿勢の制御目標となる輻輳角α1,α
2、またはそれら制御目標に位置決めするための駆動制
御値などである。
Therefore, control data for controlling the light receiving lens 101 is stored in the memory 32 in advance. The control data includes, for example, focal lengths LB1 and LB2 which are control targets for focusing of the light receiving lens 101, and convergence angles α1 and α which are control targets of the attitudes of the imaging units 11 and 21.
2, or a drive control value for positioning to the control target.

【0022】このような制御データは、距離検出部31
により計測される距離LB0に対して、基線長LAおよ
び撮像部11,21の姿勢の制御方法などに応じて予め
算出され、例えばテーブルの形式でメモリ32に記憶さ
れる。
Such control data is transmitted to the distance detecting section 31.
Is calculated in advance in accordance with the base line length LA and the method of controlling the attitude of the imaging units 11 and 21, and is stored in the memory 32 in, for example, a table format.

【0023】例えば、図2に示すように、距離検出部3
1の光軸に対して第1および第2の撮像部11,21の
光軸が対称であり、それらの光軸が距離検出部31の光
軸と対象物Qの表面との交点に向かうように姿勢が制御
される場合には、第1および第2の撮像部11,21の
各受光レンズ101の制御目標となる焦点距離LB1,
LB2は互いに等しく、距離LB0および基線長LAか
ら算出される。また、同様に輻輳角α1,α2も算出さ
れる。
For example, as shown in FIG.
The optical axes of the first and second imaging units 11 and 21 are symmetric with respect to one optical axis, and the optical axes of the first and second imaging units 11 and 21 are directed to the intersection between the optical axis of the distance detection unit 31 and the surface of the target object Q. When the attitude is controlled in the following manner, the focal length LB1, which is the control target of each light receiving lens 101 of the first and second imaging units 11 and 21, is controlled.
LB2 is equal to each other and is calculated from the distance LB0 and the base line length LA. Similarly, the convergence angles α1 and α2 are calculated.

【0024】画像入力装置1による画像の入力に際して
は、距離検出部31の出力に基づいてメモリ32から制
御データが読み出され、それに基づいて各受光レンズ1
01の制御が行われる。
When an image is input by the image input device 1, control data is read from the memory 32 based on the output of the distance detecting unit 31, and based on the control data, each light receiving lens 1 is read.
01 is performed.

【0025】なお、各受光レンズ101には個体差があ
るので、それらの個体差を加味した上で、上の制御デー
タが決定されている。したがって、メモリ32から読み
出した制御データに基づいて制御することによって、各
受光レンズ101の個体差も補正されることになる。
Since each light receiving lens 101 has an individual difference, the above control data is determined in consideration of the individual difference. Therefore, by controlling based on the control data read from the memory 32, the individual difference of each light receiving lens 101 is also corrected.

【0026】次に、ズーム制御部13は、受光レンズ1
01を駆動し、撮像部11の光学倍率を制御する。一般
に、複数の受光レンズで同一の対象物を撮像する場合
に、各受光レンズから対象物までの距離が同一ではない
ことにより、撮像倍率に誤差が生じる。また、各受光レ
ンズから対象物までの距離が同じである場合でも、ピン
トの状態によって実質的な焦点距離に差が生じることな
どにより、僅かではあるが撮像倍率に誤差が生じる。
Next, the zoom controller 13 controls the light receiving lens 1
01 is driven to control the optical magnification of the imaging unit 11. Generally, when the same object is imaged by a plurality of light receiving lenses, an error occurs in the imaging magnification because the distance from each light receiving lens to the object is not the same. Even when the distance from each light receiving lens to the object is the same, a slight error occurs in the imaging magnification due to a substantial difference in focal length depending on the focus state.

【0027】第1および第2のズーム制御部13,23
により光学倍率を制御することにより、これらの誤差が
軽減される。また、対象物Qが各光電変換素子102の
撮像面内にできるだけ大きく撮像されるように、ズーム
制御部13,23による画角の制御が行われる。なお、
撮像倍率の誤差の補正は、主として後述する倍率補正部
34によって行われる。
First and second zoom controllers 13 and 23
These errors are reduced by controlling the optical magnification. Further, the angle of view is controlled by the zoom control units 13 and 23 so that the target object Q is imaged as large as possible in the imaging plane of each photoelectric conversion element 102. In addition,
The correction of the imaging magnification error is mainly performed by a magnification correction unit 34 described later.

【0028】絞り制御部14は、撮像部11の絞りを制
御する。絞りを制御することによって、第1および第2
の撮像部11,21におけるぼけの量が最小となり、し
かもぼけ状態が互いに同等とみなせるようになる。
The aperture control unit 14 controls the aperture of the imaging unit 11. By controlling the aperture, the first and second
The amount of blur in the imaging units 11 and 21 is minimized, and the blur states can be regarded as equivalent to each other.

【0029】すなわち、撮像部11には、可変または固
定の絞り機構が設けられている。その絞り値は、被写界
深度が次の条件を満たすように算出される。つまり、奥
行き方向の最大範囲(最大深度)は、第1および第2の
撮像部11,21の共通の視野に収まる範囲AEの奥行
き長さ(図3に示す長さLC)として設定され、最小範
囲(最小深度)は、第1および第2の撮像部11,21
で同一のぼけ状態とみなせる範囲として設定される。同
一のぼけ状態とみなせる範囲とは、通常、ぼけが光電変
換素子102の1画素以下である範囲をいう。
That is, the imaging unit 11 is provided with a variable or fixed aperture mechanism. The aperture value is calculated so that the depth of field satisfies the following condition. That is, the maximum range (maximum depth) in the depth direction is set as the depth length (length LC shown in FIG. 3) of the range AE that fits in the common visual field of the first and second imaging units 11 and 21. The range (minimum depth) is determined by the first and second imaging units 11 and 21.
Are set as ranges that can be regarded as the same blur state. The range that can be regarded as the same blur state generally refers to a range where the blur is one pixel or less of the photoelectric conversion element 102.

【0030】すなわち、図4において、最小深度dal
が示されている。まず、対象物Q上の一点P1に着目す
る。撮像部11,21がともに距離LD1に合焦してい
る場合に、撮像部11では、点P1が距離LD1の位置
にあるので合焦している。しかし、撮像部21では、点
P1までの距離の光軸方向成分である垂直距離はLD2
は、 LD2=LD1−dal となる。
That is, in FIG. 4, the minimum depth dal
It is shown. First, focus on one point P1 on the object Q. When both the imaging units 11 and 21 are focused on the distance LD1, the imaging unit 11 is in focus because the point P1 is located at the distance LD1. However, in the imaging unit 21, the vertical distance which is the optical axis direction component of the distance to the point P1 is LD2.
Is LD2 = LD1-dal.

【0031】したがって、撮像部21の被写界深度は最
短でも距離dalの分が必要であり、この条件が満たさ
れた場合に、少なくとも点P1では両方の撮像部11,
21で合焦しているとみなせることとなる。
Therefore, the depth of field of the imaging unit 21 needs to be at least as long as the distance dal. When this condition is satisfied, at least the point P1 indicates that both the imaging units 11 and
At 21 it can be considered that the subject is in focus.

【0032】被写界深度は、点が点とみなせる奥行き方
向の距離のことであり、点とみなせる面積を決める必要
がある。ここでは、光電変換素子102の最小単位面積
に対して決める値で、例えばサンプリング定理から最小
単位面積の半分とする。
The depth of field refers to the distance in the depth direction where a point can be regarded as a point, and it is necessary to determine the area which can be regarded as a point. Here, a value determined with respect to the minimum unit area of the photoelectric conversion element 102 is, for example, half of the minimum unit area from the sampling theorem.

【0033】上のように構成することによって、2つの
撮像部11,21から得られる画像は、対象物Q上の同
一点が同一の大きさであり且つ同等のぼけ状態となる。
なお、ここで算出される絞り値は、露光量の測定から得
られる絞り値の範囲と比較することによって、実際に採
用する値が決定される。詳しくは後述のフローチャート
で説明する。
With the above configuration, in the images obtained from the two imaging units 11 and 21, the same point on the object Q has the same size and the same blur state.
The value actually used is determined by comparing the calculated aperture value with the range of the aperture value obtained from the exposure amount measurement. Details will be described in a flowchart described later.

【0034】姿勢制御部15は、撮像部11の姿勢を制
御し、輻輳角αを可変する。つまり、距離検出部31に
より計測された距離LBに基づいて、撮像部11の輻輳
角αが所定の値となるように、撮像部11の姿勢が制御
される。通常は、第1および第2の撮像部11,21の
光軸が、距離検出部31の光軸と対象物Qの表面との交
点に向かうように制御される。
The attitude control section 15 controls the attitude of the image pickup section 11 and varies the convergence angle α. That is, the attitude of the imaging unit 11 is controlled based on the distance LB measured by the distance detection unit 31 so that the convergence angle α of the imaging unit 11 becomes a predetermined value. Normally, control is performed so that the optical axes of the first and second imaging units 11 and 21 are directed to the intersection between the optical axis of the distance detection unit 31 and the surface of the target object Q.

【0035】そのために、メモリ32には、撮像部1
1,21の姿勢制御のための制御データが予め記憶され
ている。制御データは、上に述べたように、距離検出部
31により計測される距離LBに対応する輻輳角α、ま
たは輻輳角αを制御目標とする駆動制御値などである。
For this purpose, the memory 32 includes an image pickup unit 1
Control data for the attitude control of 1, 21 is stored in advance. The control data is, as described above, the convergence angle α corresponding to the distance LB measured by the distance detection unit 31 or a drive control value that sets the convergence angle α as a control target.

【0036】撮像による画像の入力に際しては、距離検
出部31の出力に基づいてメモリ32から制御データが
読み出され、それに基づいて各撮像部11,21の制御
が行われる。本実施形態においては、輻輳角α1,α2
が互いに等しくなるように制御が行われる。
When an image is input by imaging, control data is read from the memory 32 based on the output of the distance detecting unit 31, and the respective imaging units 11 and 21 are controlled based on the control data. In the present embodiment, the convergence angles α1, α2
Are controlled to be equal to each other.

【0037】また、輻輳角αを制御することによって、
撮像部11,21で得られる2つの画像の重なり部分
を、用途に応じて適当な大きさとすることができる。例
えば、3次元画像を得るための撮像を行う場合には、対
象物Qの画像がそれぞれの撮像領域の中央にできるだけ
大きく入るように、輻輳角αおよび画角を制御する。こ
れによって、3次元画像の再構成において画像間の対応
点を正確に探索することができ、精度の高い3次元画像
を得ることができる。
Further, by controlling the convergence angle α,
The overlapping portion of the two images obtained by the imaging units 11 and 21 can be set to an appropriate size depending on the application. For example, when imaging for obtaining a three-dimensional image is performed, the convergence angle α and the angle of view are controlled so that the image of the object Q enters the center of each imaging region as much as possible. This makes it possible to accurately search for a corresponding point between the images in the reconstruction of the three-dimensional image, and to obtain a highly accurate three-dimensional image.

【0038】また、パノラマ画像を得るための撮像を行
う場合には、重なる部分が必要最小限となるように調整
することができる。上に述べた制御は、CPU30から
の指令に基づいて行われる。なお、第1のカメラ10と
第2のカメラ20とは、互いに独立して制御することが
可能である。
In the case of performing imaging for obtaining a panoramic image, it is possible to make an adjustment so that the overlapping portion is minimized. The control described above is performed based on a command from the CPU 30. Note that the first camera 10 and the second camera 20 can be controlled independently of each other.

【0039】図1において、倍率補正値算出部33は、
上にも述べたように、撮像される画像の倍率を補正する
ための倍率補正値を算出する。倍率補正部34は、算出
された倍率補正値に基づいて、撮像部11または撮像部
21から出力される画像データD1,D2のいずれか一
方、または両方に対して、拡大処理または縮小処理を行
う。
In FIG. 1, the magnification correction value calculation unit 33
As described above, a magnification correction value for correcting the magnification of a captured image is calculated. The magnification correction unit 34 performs enlargement processing or reduction processing on one or both of the image data D1 and D2 output from the imaging unit 11 or the imaging unit 21 based on the calculated magnification correction value. .

【0040】すなわち、図1に示すような状態でピント
が制御された場合であっても、各受光レンズ101の個
体差によってピント位置が異なり、僅かであるが倍率が
異なる。この場合に、距離検出部31により得られる距
離LB0と、予め算出されてメモリ32に記憶されてい
る焦点距離LB1,LB2とから倍率の比を求め、これ
を倍率補正値とする。
That is, even when the focus is controlled in the state shown in FIG. 1, the focus position is different due to individual differences of the respective light receiving lenses 101, and the magnification is slightly different. In this case, a magnification ratio is determined from the distance LB0 obtained by the distance detection unit 31 and the focal lengths LB1 and LB2 calculated in advance and stored in the memory 32, and this is set as a magnification correction value.

【0041】倍率補正部34による倍率補正が行われる
ので、3次元画像の再構成の際の対応点探索の正確さが
向上する。また、パノラマ画像においては違和感のない
隣接画像が得られる。
Since the magnification correction is performed by the magnification correction unit 34, the accuracy of searching for a corresponding point when reconstructing a three-dimensional image is improved. In addition, in the panoramic image, an adjacent image without a sense of discomfort can be obtained.

【0042】なお、画像の倍率が同じになるのは、倍率
補正値の算出に使われた距離の計測点の近傍のみであ
る。つまり、画像の端の方では、撮像部11,21によ
って合焦距離にずれが生じる。このずれによって倍率は
若干異なることになるが、3次元画像入力において、対
象物Qは、通常、撮像領域の中央付近に配置されるの
で、本実施形態の倍率補正によって充分な効果を得るこ
とができる。
The magnification of the image is the same only in the vicinity of the distance measurement point used for calculating the magnification correction value. In other words, in the end of the image, the focus distance is shifted by the imaging units 11 and 21. Although the magnification will be slightly different due to this displacement, the target object Q is usually arranged near the center of the imaging area in the three-dimensional image input, so that a sufficient effect can be obtained by the magnification correction of the present embodiment. it can.

【0043】CPU30は、上の各制御部を制御すると
ともに、画像入力装置1の全体を制御する。画像入力装
置1から出力される画像データD10,D20に基づい
て、3次元再構成部3において3次元画像(3次元デー
タ)D3が生成される。
The CPU 30 controls the above control units and controls the entire image input apparatus 1. The three-dimensional reconstruction unit 3 generates a three-dimensional image (three-dimensional data) D3 based on the image data D10 and D20 output from the image input device 1.

【0044】次に、図6に示すフローチャートに基づい
て、絞り制御のための処理の流れを説明する。図6にお
いて、まず、距離検出部31によって対象物Qまでの距
離LB0が計測される(#11)。計測された距離LB
0に対応する絞り値Aaが、メモリ32から読み出され
る(#12)。この絞り値Aaは、距離LB0に対し
て、深度を確保することのできる値であり、予め求めら
れてメモリ32に記憶されている。
Next, the flow of processing for controlling the aperture will be described with reference to the flowchart shown in FIG. In FIG. 6, first, the distance LB0 to the target object Q is measured by the distance detecting unit 31 (# 11). Measured distance LB
The aperture value Aa corresponding to 0 is read from the memory 32 (# 12). The aperture value Aa is a value that can secure the depth with respect to the distance LB0, and is obtained in advance and stored in the memory 32.

【0045】すなわち、図5において、絞り値テーブル
STには、各距離LB0と、各画角とに対応して、深度
を確保することのできる絞り値Aaが記憶されている。
絞り値Aaが大きい程、受光レンズ101はよく絞ら
れ、したがって深度は深くなり、撮像可能な奥行き長さ
が長くなる。ここでの画角は、受光レンズ101の焦点
距離によって決定される。なお、画角が一定である場合
には、その画角に対応するデータのみを記憶しておけば
よい。
That is, in FIG. 5, the aperture value table ST stores an aperture value Aa capable of securing a depth corresponding to each distance LB0 and each angle of view.
The larger the aperture value Aa, the better the aperture of the light receiving lens 101, and therefore the greater the depth, and the longer the depth that can be imaged. The angle of view here is determined by the focal length of the light receiving lens 101. If the angle of view is constant, only data corresponding to the angle of view need be stored.

【0046】図6に戻って、読み出した絞り値Aaに基
づいて絞り制御部14による制御を行い、その状態で図
示しない測光器によって露光量EAaを測定する(#1
3)。
Returning to FIG. 6, control by the aperture control unit 14 is performed based on the read aperture value Aa, and in this state, the exposure EAa is measured by a photometer (not shown) (# 1).
3).

【0047】測定した露光量EAaに基づいて、必要な
露出量を得るためのシャッター速度(露光時間)と絞り
値Arとの組み合わせから、絞り値Aの最小値Armi
nおよび最大値Armaxを求める(#14)。つま
り、ステップ#13およびステップ#14では、露光量
EAaから、適正な絞り値Aの範囲に制限が加えられ
る。
On the basis of the measured exposure amount EAa, the minimum value of the aperture value A Armi is determined from the combination of the shutter speed (exposure time) and the aperture value Ar for obtaining the required exposure amount.
n and the maximum value Armax are determined (# 14). That is, in steps # 13 and # 14, the range of the appropriate aperture value A is limited based on the exposure amount EAa.

【0048】絞り値Aaが最小値Arminより小さい
場合は(#15でイエス)、最小値Arminを絞り値
Aとして採用する(#16)。これによって、露光量E
Aaに対する適正露出が確保されるとともに、絞り値A
aよりもより絞られた最小値Arminが採用されるの
であるから、深度も確保される。
If the aperture value Aa is smaller than the minimum value Armin (Yes in # 15), the minimum value Armin is adopted as the aperture value A (# 16). Thus, the exposure amount E
A proper exposure to Aa is secured, and the aperture value A
Since the minimum value Armin narrower than a is adopted, the depth is also secured.

【0049】絞り値Aaが最小値Arminより大きく
(#15でノー)、且つ最大値Armaxよりも小さい
場合には(#17でイエス)、絞り値Aaが露光量EA
aを確保するための適正露出範囲内にあるので、絞り値
Aaをそのまま絞り値Aとして採用する(#18)。
When the aperture value Aa is larger than the minimum value Armin (No in # 15) and smaller than the maximum value Armax (Yes in # 17), the aperture value Aa is set to the exposure amount EA.
Since it is within the proper exposure range for securing a, the aperture value Aa is directly used as the aperture value A (# 18).

【0050】絞り値Aaが最大値Armaxよりも大き
い場合には(#17でノー)、深度を確保するために絞
り値Aaを絞り値Aとして採用し(#19)、且つ、そ
の絞り値Aでは絞り過ぎて露光量EAaを確保できない
ので、露光量EAaを確保するために補助光を発光させ
る(#20)。
If the aperture value Aa is larger than the maximum value Armax (No in # 17), the aperture value Aa is adopted as the aperture value A to secure the depth (# 19), and the aperture value A In this case, since the exposure amount EAa cannot be secured due to the excessive aperture, the auxiliary light is emitted to secure the exposure amount EAa (# 20).

【0051】上に述べた第1の実施形態の画像入力装置
1において、距離検出部31を1つのみ設けたが、複数
の距離検出部31を設け、それぞれにより計測して得ら
れる複数の距離に基づいて1つの距離LB0を決定して
もよい。その場合に、計測して得られた複数の距離の中
から最適な1つの距離LB0を選択してもよいし、また
は複数の距離に基づいて最適な1つの距離LB0を演算
によって求めてもよい。なお、複数の距離検出部31
は、それぞれの撮像部11,21に対応して設けてもよ
いし、撮像部11,21と独立して設けてもよい。
In the image input device 1 of the first embodiment described above, only one distance detecting section 31 is provided. However, a plurality of distance detecting sections 31 are provided, and a plurality of distance detecting sections 31 are obtained by measuring them. May be determined based on the distance. In this case, one optimal distance LB0 may be selected from a plurality of distances obtained by measurement, or one optimal distance LB0 may be obtained by calculation based on the plurality of distances. . Note that a plurality of distance detection units 31
May be provided corresponding to the respective imaging units 11 and 21, or may be provided independently of the imaging units 11 and 21.

【0052】次に、本発明の第2の実施形態を説明す
る。図7は本発明に係る第2の実施形態の画像入力装置
1Bによる撮像の様子を示す図である。なお、図7は、
第1の実施形態の図2に対応する図である。
Next, a second embodiment of the present invention will be described. FIG. 7 is a diagram illustrating a state of imaging by the image input device 1B according to the second embodiment of the present invention. In addition, FIG.
FIG. 3 is a diagram corresponding to FIG. 2 of the first embodiment.

【0053】第2の実施形態の画像入力装置1Bでは、
基本的な構成は第1の実施形態の画像入力装置1と同様
である。以下では相違点についてのみ説明する。図7に
おいて、一方の撮像部11Bには、ハーフミラー103
が設けられている。距離検出部31Bの光軸は、そのハ
ーフミラー103を経由して前方に延びており、撮像部
11Bの光軸とごく接近するかまたは一致するように構
成されている。
In the image input device 1B of the second embodiment,
The basic configuration is the same as that of the image input device 1 of the first embodiment. Hereinafter, only the differences will be described. In FIG. 7, a half mirror 103 is provided on one imaging unit 11B.
Is provided. The optical axis of the distance detection unit 31B extends forward via the half mirror 103, and is configured to be very close to or coincide with the optical axis of the imaging unit 11B.

【0054】距離検出部31Bと撮像部11Bとは、そ
れらの位置関係が一定しており、それぞれ移動しないよ
う固定されている。つまり、第1の実施形態において
は、両方の撮像部11.21の姿勢がそれぞれ制御可能
であったが、第2の実施形態においては、一方の撮像部
11Bは姿勢が固定であり、他方の撮像部21のみが姿
勢制御される。
The positional relationship between the distance detecting section 31B and the image pickup section 11B is fixed, and they are fixed so as not to move. That is, in the first embodiment, the postures of both the imaging units 11.21 are controllable, but in the second embodiment, the posture of one imaging unit 11B is fixed, and the posture of the other imaging unit 11B is fixed. Only the imaging unit 21 is attitude-controlled.

【0055】すなわち、距離検出部31Bによって計測
された距離LB0に基づいて、撮像部21の姿勢が制御
され、その光軸が撮像部11Bの光軸と対象物Qの表面
との交点を通るように輻輳角α2が制御される。撮像部
21の制御目標となる焦点距離LB2は、距離LB0に
対応して求まる。なお、撮像部11Bの焦点距離LB1
は距離LB0と等しい。
That is, based on the distance LB0 measured by the distance detection unit 31B, the attitude of the imaging unit 21 is controlled, and the optical axis of the imaging unit 21 passes through the intersection of the optical axis of the imaging unit 11B and the surface of the object Q. Is controlled. The focal length LB2, which is the control target of the imaging unit 21, is determined corresponding to the distance LB0. Note that the focal length LB1 of the imaging unit 11B
Is equal to the distance LB0.

【0056】焦点距離LB1と焦点距離LB2とは互い
に異なるので、つまりピント位置が互いに異なるので、
撮像部11Bから得られる画像データD1と撮像部21
から得られる画像データD2とは、その画像の倍率が異
なる。そのため、倍率補正値算出部33によって倍率補
正値が算出され、これに基づいて、倍率補正部34によ
って画像データD1,D2の大きさが補正される。
Since the focal lengths LB1 and LB2 are different from each other, that is, the focus positions are different from each other,
Image data D1 obtained from the imaging unit 11B and the imaging unit 21
Is different from the image data D2 obtained from. Therefore, the magnification correction value is calculated by the magnification correction value calculation unit 33, and based on this, the magnification of the image data D1 and D2 is corrected by the magnification correction unit.

【0057】第2の実施形態の画像入力装置1Bでは、
一方の撮像部21のみを姿勢制御すればよい。したがっ
て、制御のための構成が簡素化される。なお、図8に示
すように、測定深度を有効に利用するために、距離検出
部31で計測される距離LB0をZkとした場合に、輻
輳角αおよびピントなどの制御を、次式に示す距離Zs
の位置で行ってもよい。
In the image input device 1B of the second embodiment,
It is sufficient to control the attitude of only one of the imaging units 21. Therefore, the configuration for control is simplified. As shown in FIG. 8, when the distance LB0 measured by the distance detection unit 31 is set to Zk in order to effectively use the measured depth, the control of the convergence angle α and the focus is represented by the following equation. Distance Zs
May be performed at the position.

【0058】Zs=Zk+Zt ここで、Ztはユーザによって設定可能な値であり、正
負いずれの値もとり得る。
Zs = Zk + Zt Here, Zt is a value that can be set by the user, and can be either positive or negative.

【0059】図8においては、Ztが正の値に設定され
ており、対象物Qの表面よりも距離Ztだけ奥に入った
位置に焦点が合うように制御される。また、複数の画像
を並べてパノラマ画像を得る場合には、例えば第1の実
施形態の画像入力装置1を用い、撮像部11,21を図
9に示すような姿勢となるように制御すればよい。
In FIG. 8, Zt is set to a positive value, and the control is performed so that the focal point is located at a position that is deeper than the surface of the object Q by the distance Zt. When obtaining a panoramic image by arranging a plurality of images, for example, the image input device 1 according to the first embodiment may be used to control the imaging units 11 and 21 so as to be in the posture shown in FIG. .

【0060】すなわち、距離検出部31によって計測さ
れた距離LB0の位置において受光範囲が並ぶように、
且つ撮像部11,21の互いの撮像範囲の一部が重なる
ように、撮像部11,21の姿勢が制御される。
That is, the light receiving ranges are aligned at the position of the distance LB0 measured by the distance detecting unit 31.
In addition, the postures of the imaging units 11 and 21 are controlled such that a part of the imaging ranges of the imaging units 11 and 21 overlap with each other.

【0061】図10は3つの撮像部11,21,21C
を用いた画像入力装置1Cの例を示す図である。図10
において、画像入力装置1Cは光軸の方向から見た図が
示されている。
FIG. 10 shows three imaging units 11, 21, 21C.
FIG. 3 is a diagram showing an example of an image input device 1C using the image input device 1C. FIG.
1 shows a view of the image input apparatus 1C as viewed from the direction of the optical axis.

【0062】図10において、撮像部11は固定されて
おり、撮像部21は図の矢符M1方向に輻輳角αが変化
するように姿勢制御が可能であり、撮像部21Eは図の
矢符M2方向に輻輳角αが変化するように姿勢制御が可
能である。
In FIG. 10, the image pickup unit 11 is fixed, the image pickup unit 21 can perform attitude control so that the convergence angle α changes in the direction of the arrow M1 in the figure, and the image pickup unit 21E is the arrow in the figure. Posture control is possible so that the convergence angle α changes in the M2 direction.

【0063】例えば、撮像部11と撮像部21とから得
られる画像データに基づいて3次元データを生成する。
また、撮像部11と撮像部21Eとから得られる画像デ
ータに基づいて別個に3次元データを生成する。それら
の3次元データを互いに比較することにより、生成され
た3次元データが正しいか否かをチェックすることがで
きる。もし、不足の3次元データがある場合には、他方
の3次元データによって補足して完全な3次元データと
することも可能である。
For example, three-dimensional data is generated based on the image data obtained from the imaging unit 11 and the imaging unit 21.
Further, three-dimensional data is separately generated based on the image data obtained from the imaging unit 11 and the imaging unit 21E. By comparing the three-dimensional data with each other, it is possible to check whether or not the generated three-dimensional data is correct. If there is insufficient three-dimensional data, the other three-dimensional data can be supplemented to complete three-dimensional data.

【0064】したがって、3つ以上の撮像部を設けるこ
とによって、3次元画像の再構成における精度および信
頼性を一層向上させ、パノラマ画像における違和感をさ
らに減少させることができる。
Therefore, by providing three or more imaging units, the accuracy and reliability in reconstructing a three-dimensional image can be further improved, and the sense of discomfort in a panoramic image can be further reduced.

【0065】上に述べた実施形態において、画像入力装
置1,1B,1Cの各部または全体の構成、配置、制御
方法、データ処理の内容などは、本発明の趣旨に沿って
適宜変更することができる。
In the embodiment described above, the configuration, arrangement, control method, data processing content, etc. of each part or the whole of the image input devices 1, 1B, 1C can be appropriately changed in accordance with the gist of the present invention. it can.

【0066】[0066]

【発明の効果】本発明によると、計測により得られた1
つの距離を用いて複数の撮像部のそれぞれのピントを制
御することにより、3次元画像の再構成における精度を
向上させまたはパノラマ画像における違和感を減少させ
ることができる。
According to the present invention, 1 obtained by measurement is obtained.
By controlling the focus of each of the plurality of imaging units using one distance, it is possible to improve the accuracy in reconstructing the three-dimensional image or reduce the sense of discomfort in the panoramic image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る第1の実施形態の画像入力装置を
示すブロック図である。
FIG. 1 is a block diagram illustrating an image input device according to a first embodiment of the present invention.

【図2】画像入力装置による撮像の様子を示す図であ
る。
FIG. 2 is a diagram illustrating a state of imaging by an image input device.

【図3】撮像における深度を説明するための図である。FIG. 3 is a diagram for describing depth in imaging.

【図4】撮像における深度を説明するための図である。FIG. 4 is a diagram for describing depth in imaging.

【図5】絞り値テーブルの例を示す図である。FIG. 5 is a diagram illustrating an example of an aperture value table.

【図6】絞り制御の処理の流れを示すフローチャートで
ある。
FIG. 6 is a flowchart illustrating the flow of aperture control processing.

【図7】本発明に係る第2の実施形態の画像入力装置に
よる撮像の様子を示す図である。
FIG. 7 is a diagram illustrating a state of imaging by an image input device according to a second embodiment of the present invention.

【図8】輻輳角およびピントの制御の他の例を示す図で
ある。
FIG. 8 is a diagram showing another example of control of the convergence angle and the focus.

【図9】パノラマ画像を得る場合の姿勢制御の例を示す
図である。
FIG. 9 is a diagram illustrating an example of attitude control when obtaining a panoramic image.

【図10】3つの撮像部を用いた画像入力装置の例を示
す図である。
FIG. 10 is a diagram illustrating an example of an image input device using three imaging units.

【符号の説明】[Explanation of symbols]

1 画像入力装置 11,21 撮像部 12,22 ピント制御部(制御部) 13,23 ズーム制御部(制御部) 14,24 絞り制御部(制御部) 15,25 姿勢制御部(制御部) 30 CPU 31 距離検出部(距離計測手段) 32 メモリ 33 倍率補正値算出部 34 倍率補正部 101 受光レンズ 102 光電変換素子 Q 対象物 DESCRIPTION OF SYMBOLS 1 Image input device 11, 21 Imaging part 12, 22 Focus control part (control part) 13, 23 Zoom control part (control part) 14, 24 Aperture control part (control part) 15, 25 Attitude control part (control part) 30 CPU 31 Distance detection unit (distance measurement means) 32 Memory 33 Magnification correction value calculation unit 34 Magnification correction unit 101 Light receiving lens 102 Photoelectric conversion element Q Object

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/232 H04N 5/238 Z G02B 7/11 A 5/238 G03B 3/00 A (72)発明者 浜口 敬行 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2H011 AA06 BA01 CA21 DA01 2H051 AA00 BB01 EB04 FA47 GB12 2H059 AA08 AA12 BA11 5C022 AA01 AB12 AB21 AB61 AB66 AC42 AC78 5C061 AA29 AB02 AB04 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/232 H04N 5/238 Z G02B 7/11 A 5/238 G03B 3/00 A (72) Inventor Takayuki Hamaguchi 2-3-1, Azuchicho, Chuo-ku, Osaka City, Osaka Prefecture F-term in Osaka International Building Minolta Co., Ltd. 2H011 AA06 BA01 CA21 DA01 2H051 AA00 BB01 EB04 FA47 GB12 2H059 AA08 AA12 BA11 5C022 AA01 AB12 AB21 AB61 AB66 AC42 AC78 5C061 AA29 AB02 AB04

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】受光レンズおよび光電変換素子を含む複数
の撮像部によって、画像の少なくとも一部に互いに重な
る部分を有するように対象物を撮像して画像を入力する
画像入力装置であって、 前記対象物までの距離を計測するための距離計測手段
と、 前記距離計測手段による計測に基づく1つの距離を用い
て前記複数の撮像部のそれぞれのピントを制御する制御
手段と、 を有してなることを特徴とする画像入力装置。
1. An image input apparatus for inputting an image by capturing an object by using a plurality of image pickup units including a light receiving lens and a photoelectric conversion element so that at least a part of the image has a portion overlapping each other. Distance measuring means for measuring the distance to the object, and control means for controlling the focus of each of the plurality of imaging units using one distance based on the measurement by the distance measuring means. An image input device, characterized in that:
【請求項2】前記制御手段は、前記複数の撮像部のそれ
ぞれについて独立して制御可能である、 請求項1記載の画像入力装置。
2. The image input device according to claim 1, wherein said control means is capable of independently controlling each of said plurality of imaging units.
【請求項3】前記制御手段の制御によるピント位置が前
記撮像部によって異なる場合に、撮像される画像の倍率
を補正する、 請求項1または請求項2記載の画像入力装置。
3. The image input device according to claim 1, wherein a magnification of an image to be picked up is corrected when a focus position controlled by said control means differs between said image pickup units.
【請求項4】前記制御手段は、前記1つの距離を用い
て、前記複数の撮像部のそれぞれの姿勢を制御する、 請求項1または請求項2記載の画像入力装置。
4. The image input device according to claim 1, wherein the control means controls the attitude of each of the plurality of imaging units using the one distance.
【請求項5】前記制御手段は、前記1つの距離を用い
て、前記複数の撮像部のそれぞれの絞りを制御する、 請求項1または請求項2記載の画像入力装置。
5. The image input device according to claim 1, wherein the control unit controls the aperture of each of the plurality of imaging units using the one distance.
【請求項6】前記距離計測手段による計測結果に基づい
て絞り値Aaを求める手段と、 測光による露光量に基づいて絞り値Arを求める手段
と、 それら絞り値Aaおよび絞り値Arに基づいて制御のた
めの絞り値Aを選択する手段と、 を備える請求項5記載の画像入力装置。
6. A means for obtaining an aperture value Aa based on a measurement result by the distance measuring means, a means for obtaining an aperture value Ar based on an exposure amount by photometry, and a control based on the aperture value Aa and the aperture value Ar. The image input apparatus according to claim 5, further comprising: means for selecting an aperture value A for the following.
JP32913099A 1999-11-19 1999-11-19 Image input device Pending JP2001148866A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32913099A JP2001148866A (en) 1999-11-19 1999-11-19 Image input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32913099A JP2001148866A (en) 1999-11-19 1999-11-19 Image input device

Publications (1)

Publication Number Publication Date
JP2001148866A true JP2001148866A (en) 2001-05-29

Family

ID=18217969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32913099A Pending JP2001148866A (en) 1999-11-19 1999-11-19 Image input device

Country Status (1)

Country Link
JP (1) JP2001148866A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004107762A1 (en) * 2003-05-30 2004-12-09 Seijiro Tomita Photographing method and photographing device
US20190297267A1 (en) * 2018-03-22 2019-09-26 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, control method, and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004107762A1 (en) * 2003-05-30 2004-12-09 Seijiro Tomita Photographing method and photographing device
US20190297267A1 (en) * 2018-03-22 2019-09-26 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, control method, and storage medium
US10999491B2 (en) * 2018-03-22 2021-05-04 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, control method, and storage medium

Similar Documents

Publication Publication Date Title
US10863164B2 (en) Stereo camera and method of controlling stereo camera
JP4115801B2 (en) 3D imaging device
US6496218B2 (en) Stereoscopic image display apparatus for detecting viewpoint and forming stereoscopic image while following up viewpoint position
JP2009300268A (en) Three-dimensional information detection device
JP2015194706A5 (en)
JP2010128820A (en) Apparatus, method and program for processing three-dimensional image, and three-dimensional imaging apparatus
JP2003125424A (en) Stereo imaging device and automatic convergence adjusting device
JP2006214735A (en) Compound stereo vision device
KR101737085B1 (en) 3D camera
CN108260360B (en) Scene depth calculation method and device and terminal
JP7195801B2 (en) Image processing device and its control method, distance detection device, imaging device, program
KR102068048B1 (en) System and method for providing three dimensional image
JP6659100B2 (en) Imaging device
JPH07303207A (en) Image pickup device
JP5925109B2 (en) Image processing apparatus, control method thereof, and control program
JP2001148866A (en) Image input device
JP2020057967A (en) Image processing device, imaging device, control method of image processing device, and program
TWI794571B (en) Device comprising a multi-aperture imaging device for accumulating image information
WO2018235256A1 (en) Stereo measurement device and system
JPH11281332A (en) Image pickup device
JP2007333525A (en) Distance measurement device
WO2014073590A1 (en) Three-dimensional measuring device and three-dimensional measuring method
CN113366821A (en) Apparatus having a multi-aperture imaging device for generating a depth map
JP3537218B2 (en) 3D image capturing device
JP4020911B2 (en) 3D imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704