JPH0767022A - Compound eye type image pickup device - Google Patents

Compound eye type image pickup device

Info

Publication number
JPH0767022A
JPH0767022A JP5211777A JP21177793A JPH0767022A JP H0767022 A JPH0767022 A JP H0767022A JP 5211777 A JP5211777 A JP 5211777A JP 21177793 A JP21177793 A JP 21177793A JP H0767022 A JPH0767022 A JP H0767022A
Authority
JP
Japan
Prior art keywords
video camera
cameras
subject
optical axis
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5211777A
Other languages
Japanese (ja)
Inventor
Shigeki Okauchi
茂樹 岡内
Sunao Kurahashi
直 倉橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP5211777A priority Critical patent/JPH0767022A/en
Publication of JPH0767022A publication Critical patent/JPH0767022A/en
Priority to US08/692,316 priority patent/US5864360A/en
Pending legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE:To immediately make photographing possible when a power source is turned on by setting the optical axis of two video camera parts at a prescribed optical angle axis with an optical axis angle control means when power for enabling photographing is supplied to the compound eye type image pickup device. CONSTITUTION:When power is supplied to a camera and a standby state is provided, a control part 15 confirms the operating mode of the device by detecting the states of an initial state select switch SW 32 and a stereoscope/ panorama changeover switch SW 35. When an initializing mode and a stereoscopic photographing mode are confirmed, the zoom optical systems of two cameras are set to an initial value, a camera interval to drive an adjusting motor 22 is initialized later and further, right and left camera angles are initialized. When the initializing mode and a panoramic photographing mode are selected, the control part 15 drives the two cameras so as to make them parallel similarly to the preceding case. Then, a distance to the part, where two image angles are overlapped, is measured and based on that value, two cameras are focused to perform photographing.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、2台のビデオカメラを
用いた複眼撮像装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a compound eye image pickup device using two video cameras.

【0002】[0002]

【従来の技術】従来、この種の複眼撮像装置として特公
平5−3199号公報に開示された立体撮像ビデオカメ
ラ等がある、このカメラは2台のビデオカメラをほぼ同
方向に向けてカメラ本体に正対する被写体を異なる角度
から撮影してそこから得られた映像により立体映像を得
るものである。
2. Description of the Related Art Conventionally, as a compound-eye image pickup apparatus of this type, there is a stereoscopic image pickup video camera disclosed in Japanese Patent Publication No. 5-3199. This camera body has two video cameras oriented substantially in the same direction. A stereoscopic image is obtained from the images obtained by shooting the subject directly facing the camera from different angles.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記従来例で
は電源が供給された時点でのカメラの状態は不定である
ため、実際に撮影を開始するまでに時間がかかるという
問題点がある。
However, in the above-mentioned conventional example, since the state of the camera at the time when power is supplied is indefinite, there is a problem that it takes time to actually start photographing.

【0004】本発明は上述したような従来の技術が有す
る問題点に鑑みてなされたものであって、電源投入され
ると、ただちに撮影を行うことのできる複眼撮像装置を
実現することを目的とする。
The present invention has been made in view of the above-mentioned problems of the prior art, and an object of the present invention is to realize a compound-eye image pickup apparatus capable of taking an image immediately when the power is turned on. To do.

【0005】[0005]

【課題を解決するための手段】本発明の複眼撮像装置
は、それぞれの絞り、フォーカス、ズームの撮像条件を
設定する機構が少なくともひとつのカメラ制御手段によ
り制御される第1のビデオカメラ部および第2のビデオ
カメラ部と、前記第1のビデオカメラ部と第2のビデオ
カメラ部を合体する合体手段と、前記第1のビデオカメ
ラ部と第2のビデオカメラ部の各光軸で求められる平面
に対して略水平となる面内において、前記第1と第2の
ビデオカメラ部の光軸方向を可変とする光軸方向可変手
段と、前記第1のビデオカメラ部と第2のビデオカメラ
部の光軸角を制御する光軸角制御手段とを有する複眼撮
像装置において、前記複眼撮像装置に、撮像可能とする
ための電源が供給されると、前記光軸角制御手段は前記
第1のビデオカメラ部と第2のビデオカメラ部の光軸を
所定の光軸角度に設定することを特徴とする。
In the compound-eye image pickup apparatus of the present invention, the first video camera section and the first video camera section in which the mechanism for setting the image pickup condition of each aperture, focus and zoom is controlled by at least one camera control means. A second video camera unit, a unit for combining the first video camera unit and the second video camera unit, and a plane obtained by each optical axis of the first video camera unit and the second video camera unit. Optical axis direction changing means for changing the optical axis directions of the first and second video camera sections, and the first video camera section and the second video camera section in a plane substantially horizontal with respect to In the compound eye imaging device having an optical axis angle control means for controlling the optical axis angle of the optical axis angle control means, when the compound eye imaging device is supplied with power for enabling imaging, Video camera When and sets the optical axis of the second video camera unit to a predetermined optical axis angle.

【0006】[0006]

【作用】複眼撮像装置に、撮像可能とするための電源が
供給されると、前記回動角制御手段は前記第1のビデオ
カメラ部と第2のビデオカメラ部を所定の回動角度に設
定されるので、電源投入がなされると、ただちに撮影可
能となる。
When the compound eye image pickup device is supplied with power for enabling image pickup, the rotation angle control means sets the first video camera unit and the second video camera unit to a predetermined rotation angle. Therefore, when the power is turned on, the image can be taken immediately.

【0007】設定される回動角度について具体的にいえ
ば、電源が投入されると、立体撮像モードに設定されて
いる場合には、2つのカメラの回動中心を結ぶ垂直二等
分線上の被写体に2つのカメラを向け、その被写体に対
して合焦させる。また、パノラマ撮像モードに設定され
ている場合には、2つのカメラの光軸が交わらない所定
の角度に2つのカメラを向けて被写体に対して合焦させ
る。また、記憶モードに設定されている場合には、記憶
部から読み込んだ角度に2つのカメラを設定して合焦さ
せる。
[0007] Specifically, regarding the set rotation angle, when the power is turned on, when the stereoscopic image pickup mode is set, on the vertical bisector connecting the rotation centers of the two cameras. Aim two cameras at the subject and focus on the subject. Further, when the panoramic image capturing mode is set, the two cameras are aimed at a predetermined angle at which the optical axes of the two cameras do not intersect and the subject is focused. Further, when the memory mode is set, the two cameras are set to the angle read from the memory unit and focused.

【0008】[0008]

【実施例】次に、本発明の実施例について図面を参照し
て説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0009】図1は、本発明による複眼撮像装置の一実
施例の構成を示すブロック図、図2は、本発明の一実施
例の外観斜視図を示している。
FIG. 1 is a block diagram showing the configuration of an embodiment of a compound eye image pickup apparatus according to the present invention, and FIG. 2 is an external perspective view of an embodiment of the present invention.

【0010】第1のビデオカメラ部Aと第2のビデオカ
メラ部Bはほぼ同一方向にほぼ並列に配置され、合体手
段Cにより一体化されている。第1および第2のビデオ
カメラ部A、Bは本体部、光学部、本体内部の電気回路
部などで構成され、撮像素子としてはCCDを用いた半
導体素子が使用されている。また本体にはそれぞれのビ
デオカメラに対応した撮像出力を各々対応するVTR等
の記憶装置に送り、また、外部からの電源供給を受け、
さらにはリモートコントロール信号を供給するためのコ
ネクタ部50、51が設けられている。またこの複眼撮
像装置には片方のビデオカメラの撮像出力を映し出すビ
ューファインダ24が合体手段Cに設けられている。
The first video camera section A and the second video camera section B are arranged substantially in parallel in substantially the same direction, and are integrated by a uniting means C. The first and second video camera sections A and B are composed of a main body section, an optical section, an electric circuit section inside the main body, etc., and a semiconductor element using a CCD is used as an image pickup element. In addition, the main body sends the image pickup output corresponding to each video camera to the corresponding storage device such as a VTR, and receives the power supply from the outside,
Furthermore, connector parts 50 and 51 for supplying a remote control signal are provided. Further, in this compound eye image pickup device, a viewfinder 24 for displaying the image pickup output of one of the video cameras is provided in the uniting means C.

【0011】ところで、第1、第2のビデオカメラ部
A、Bで撮像した画像を立体視するには、両方からの画
像をスクリーンあるいはブラウン管のスクリーンに重ね
あわせる必要がある。そして、重ねあわせたときに立体
効果を得る必要がある。そのためには、第1、第2のビ
デオカメラ部A、Bの光学軸を被写体側で交差させて撮
像する必要がある。ここで、両カメラの光学軸の交差位
置と被写体の位置との関係は立体効果に大きく影響す
る。たとえば交差位置と被写体が同一であると、立体画
像が表現される位置はスクリーン面とほぼ同じである。
しかし、交差位置が被写体の手前にあると立体の表現位
置はスクリーンの奥にある。逆に、交差位置が被写体の
奥にあると立体の表現位置はスクリーンの手前にあり、
スクリーンから飛び出した位置になる。
By the way, in order to stereoscopically view the images captured by the first and second video camera units A and B, it is necessary to superimpose the images from both on the screen or the screen of the cathode ray tube. And it is necessary to obtain a three-dimensional effect when they are superposed. For that purpose, it is necessary to cross the optical axes of the first and second video camera units A and B on the object side to capture an image. Here, the relationship between the intersecting position of the optical axes of both cameras and the position of the subject has a great influence on the stereoscopic effect. For example, if the intersecting position and the subject are the same, the position where the stereoscopic image is expressed is almost the same as the screen surface.
However, if the intersecting position is in front of the subject, the three-dimensional representation position is behind the screen. On the contrary, if the intersection position is behind the subject, the three-dimensional expression position is in front of the screen,
It will be in a position protruding from the screen.

【0012】このような立体効果を適切に得るために
は、被写体とカメラ間の距離に応じて、第1、第2のビ
デオカメラ部A、Bの光軸の交差位置を調整しなければ
ならない。本発明による複眼撮像装置においてもこの点
には留意した構成となっている。また、本発明による複
眼撮像装置においては、後述のようにSWを切り替える
ことにより、立体撮影だけでなくパノラマ撮影も可能と
なっている。次に、本発明による複眼撮像カメラの構成
を図2を元に具体的に説明する。
In order to properly obtain such a stereoscopic effect, the intersection position of the optical axes of the first and second video camera units A and B must be adjusted according to the distance between the subject and the camera. . The compound-eye imaging device according to the present invention is also configured with this point in mind. Further, in the compound-eye imaging device according to the present invention, not only stereoscopic shooting but also panoramic shooting is possible by switching the SW as described later. Next, the configuration of the compound-eye imaging camera according to the present invention will be specifically described with reference to FIG.

【0013】図2において、右眼用の光は、レンズ群1
を通して右ビデオカメラ部Aの内部の撮像素子2により
撮像され、右眼映像信号として出力される。一方、左眼
用の光は、レンズ群4を通して左ビデオカメラ部Bの内
部の撮像素子5により撮像され、左眼映像信号として出
力される。右眼映像信号および左眼映像信号のそれぞれ
は、後述の処理を経て出力端子50、51に出力され
る。
In FIG. 2, the light for the right eye is the lens group 1
The image is picked up by the image pickup element 2 inside the right video camera section A through and output as a right-eye video signal. On the other hand, the light for the left eye is captured by the image sensor 5 inside the left video camera unit B through the lens group 4 and output as a left eye video signal. Each of the right-eye video signal and the left-eye video signal is output to output terminals 50 and 51 through the processing described below.

【0014】各レンズ群1、4を駆動するモータは、ズ
ーム用と合焦用が左右のカメラにそれぞれ設けられ、右
ズームモータ7、右合焦モータ8、及び、左ズームモー
タ9、左合焦モータ10が設けられている。また、各レ
ンズ群1、4には、撮像素子への受光量を調整する絞り
3、6がそれぞれ設けられている。さらに、ズームモー
タ、合焦モータに駆動されるレンズ位置を検出する位置
検出器11、12、13、及び14が設けられ、その出
力は制御部15へ入力されている。第1および第2のビ
デオカメラ部A、Bには、たとえば発光素子と受光素子
で構成され、被写体までの距離を測定して制御部15に
入力する距離検出器33、34が設けられている。この
距離検出器33、34のうちの少なくとも一方は、水平
方向に対して回転可能に構成されていて、制御部15の
命令により指定された方向の被写体の距離を測定するこ
とが可能となっている。16は撮像素子の感度のばらつ
きや左右のレンズ群の固体差、さらには、後述の2つの
カメラの角度や間隔の初期値を製造時に記憶させるEE
PROMである。
Motors for driving the respective lens groups 1 and 4 are provided for the left and right cameras respectively for zooming and focusing, and a right zoom motor 7, a right focusing motor 8, a left zoom motor 9 and a left focusing motor are provided. A focus motor 10 is provided. Further, each of the lens groups 1 and 4 is provided with diaphragms 3 and 6 for adjusting the amount of light received by the image sensor. Further, position detectors 11, 12, 13, and 14 for detecting the lens positions driven by the zoom motor and the focus motor are provided, and the outputs thereof are input to the control unit 15. The first and second video camera units A and B are provided with distance detectors 33 and 34, which are composed of, for example, a light emitting element and a light receiving element, and measure the distance to the subject and input it to the control unit 15. . At least one of the distance detectors 33 and 34 is configured to be rotatable in the horizontal direction, and it is possible to measure the distance of the subject in the direction designated by the command of the control unit 15. There is. Reference numeral 16 denotes an EE that stores the variation in the sensitivity of the image sensor, the individual difference between the left and right lens groups, and the initial values of the angles and intervals of the two cameras described later at the time of manufacturing.
It is a PROM.

【0015】さらに、撮像素子2、5の受光面を略回動
中心として、カメラを水平方向で回動させる右輻輳角モ
ータ17、左輻輳角モータ18が設けられ、また左右の
カメラには回転角検出器19、20がそれぞれ設けら
れ、その出力は制御部15に入力されている。
Further, a right convergence angle motor 17 and a left convergence angle motor 18 for rotating the camera in the horizontal direction are provided with the light receiving surfaces of the image pickup devices 2 and 5 as substantially rotation centers, and the left and right cameras rotate. Angle detectors 19 and 20 are provided, and the outputs thereof are input to the control unit 15.

【0016】輻輳角駆動機構は具体的には輻輳角駆動モ
ータであるステッピングモータの駆動軸にウォームと、
カメラと一体的に動作するホイールとが噛み合う構成と
されており、ステッピングモータの回転をカメラの回転
へと変換している。また、位置検出器19、20は、カ
メラ角度の基準位置(初期値)でリセットされる基準位
置検出器を含み、右ビデオカメラ部Aが反時計回りに回
転するとカウントアップされるアップダウンカウンタ、
左ビデオカメラ部Bが時計回りに回転するとカウントア
ップされるアップダウンカウンタで構成されている。
Specifically, the convergence angle drive mechanism includes a worm on a drive shaft of a stepping motor which is a convergence angle drive motor,
The camera and a wheel that operates integrally are engaged with each other, and the rotation of the stepping motor is converted into the rotation of the camera. The position detectors 19 and 20 include a reference position detector that is reset at the reference position (initial value) of the camera angle, and an up / down counter that counts up when the right video camera unit A rotates counterclockwise,
It is composed of an up-down counter that counts up when the left video camera unit B rotates clockwise.

【0017】そして、右ビデオカメラ部Aには、左右の
カメラの間隔を調整する調整部21と、該調整部21を
駆動する調整モータ22と、左右のカメラの間隔を検出
する間隔検出器23とが設けられ、その出力は制御部1
5に入力されている。
In the right video camera section A, an adjusting section 21 for adjusting the distance between the left and right cameras, an adjusting motor 22 for driving the adjusting section 21, and an interval detector 23 for detecting the interval between the left and right cameras. Are provided, and the output thereof is the control unit 1.
It is entered in 5.

【0018】撮像素子2、5は、同期信号発生器36に
より同期して駆動され、素子より出力されるアナログ映
像信号は、不図示のアンプを経てデジタル映像信号に変
換するA/D変換器40、41にそれぞれ入力される。
A/D変換器40、41から出力されるデジタル映像信
号は、前記同期信号発生器36で読み込み及び読みだし
を制御される画像メモリ41、44にそれぞれ記憶さ
れ、画像相関処理部46により各画像メモリ41、44
に記憶されたデジタル映像信号から画像の相関演算を行
う。画像相関処理部46での演算結果は制御部15に入
力され、該演算結果によりメモリから読みだすアドレス
を変えたり、時間軸を変えたりする。47はパノラマ撮
影時に前記画像相関処理部44で得られた演算結果より
合成される画像合成処理部、42、45は、画像メモリ
41、44あるいは画像合成処理部47から出力される
デジタル信号をアナログ映像信号に変換するD/A変換
器で、D/A変換器45に出力される信号は立体−パノ
ラマ切替SW35により、入力を画像メモリ44あるい
は画像合成処理部47のいずれかに切り替えられる。
The image pickup devices 2 and 5 are driven in synchronization by a synchronizing signal generator 36, and an analog video signal output from the device is converted into a digital video signal through an amplifier (not shown) and an A / D converter 40. , 41, respectively.
The digital video signals output from the A / D converters 40 and 41 are stored in the image memories 41 and 44 whose reading and reading are controlled by the synchronizing signal generator 36, respectively, and each image is processed by the image correlation processing unit 46. Memory 41, 44
The image correlation calculation is performed from the digital video signal stored in. The calculation result of the image correlation processing unit 46 is input to the control unit 15, and the address read from the memory or the time axis is changed according to the calculation result. Reference numeral 47 is an image composition processing unit that is composed from the calculation results obtained by the image correlation processing unit 44 at the time of panoramic photography, and 42 and 45 are analog signals obtained from the image memories 41 and 44 or the image composition processing unit 47. The signal output to the D / A converter 45, which is a D / A converter for converting into a video signal, has its input switched to either the image memory 44 or the image composition processing unit 47 by the stereoscopic / panorama switching SW 35.

【0019】24はビューファインダでD/A変換器4
2、45を経て得られるアナログ映像信号を見ることが
できるようになっている。またビューファインダ24
は、合体手段Cに回動可能に取りつけられ、この回動に
より右眼だけでなく、180゜回転させることでビュー
ファインダ24の接眼部をカメラ本体の反対側に移動さ
せることにより左眼でも見れるようになっている。ま
た、180゜回転させることでビューファインダ24は
上下逆さまになってしまうが、不図示の機構により回転
可能に構成されており、なんら不具合は発生しないよう
になっている。
A viewfinder 24 is a D / A converter 4
An analog video signal obtained through 2, 45 can be viewed. Also the viewfinder 24
Is rotatably attached to the uniting means C, and this rotation causes not only the right eye but also the left eye by rotating the eyepiece part of the viewfinder 24 by rotating 180 ° to the side opposite to the camera body. You can see it. Further, although the viewfinder 24 is turned upside down by rotating it by 180 °, the viewfinder 24 is configured to be rotatable by a mechanism (not shown) so that no trouble occurs.

【0020】さらに、立体撮影時は、主カメラ選択SW
25によりビューファインダ24へ出力される信号を右
ビデオカメラ部Aからの信号と左ビデオカメラ部Bから
の信号とのどちらかを選択できるようになっている。つ
まり撮影者が右眼でビューファインダ24を覗いている
場合には、主となるカメラを右カメラに、また、左眼で
覗いている場合には主となるカメラを左カメラにするこ
とができる。そして、パノラマ撮影時は、本実施例では
左カメラに切り替えることによって左右のカメラで撮像
された信号から合成されたパノラマ画像をビューファイ
ンダ24で観察できるようになっている。また、ビュー
ファインダ24には視線検出器26が設けられ、視線の
位置を検出できるようになっている。
Furthermore, during stereoscopic photography, the main camera selection switch
25, the signal output to the viewfinder 24 can be selected from either the signal from the right video camera unit A or the signal from the left video camera unit B. That is, when the photographer is looking through the viewfinder 24 with the right eye, the main camera can be the right camera, and when looking through the left eye, the main camera can be the left camera. . During panoramic photography, in this embodiment, by switching to the left camera, the panoramic image synthesized from the signals captured by the left and right cameras can be observed by the viewfinder 24. A line-of-sight detector 26 is provided in the viewfinder 24 so that the position of the line of sight can be detected.

【0021】また、カメラ本体には操作ボタンあるいは
SWとして、カメラスタンバイボタン27、ズーム操作
ボタン28、被写体選択ボタン29、被写体追尾ボタン
30、ステータス記憶ボタン31、立体−パノラマ切り
替えSW35、そして、初期状態選択SW32があり、
初期状態選択SW32はカメラスタンバイ時のカメラの
状態を初期化状態とするか、あるいは、ステータス記憶
ボタン31が押されたときのカメラの状態を記憶してお
いて、スタンバイ時に自動的にその状態へ復帰するもの
である。
In addition, as the operation buttons or SW on the camera body, a camera standby button 27, a zoom operation button 28, a subject selection button 29, a subject tracking button 30, a status storage button 31, a stereoscopic / panorama switching SW 35, and an initial state. There is a selection SW32,
The initial state selection SW 32 sets the state of the camera in the camera standby state to the initialization state, or stores the state of the camera when the status storage button 31 is pressed, and automatically switches to that state in the standby state. It is something that will be restored.

【0022】次に、本実施例におけるズーム合焦系の説
明を行う。
Next, the zoom focusing system in this embodiment will be described.

【0023】本実施例では、リアフォーカシングタイプ
のレンズシステムを採用しており、フォーカシングレン
ズ1−aに対して焦点距離の変化に伴う焦点面の移動を
補正する補正レンズの機能とフォーカシングレンズとし
ての機能の両方の機能を持たせている。すなわち、この
タイプのレンズシステムでは、補正レンズがフォーカシ
ングレンズを兼ね備えているので、ズーム中は被写体距
離によって補正レンズの移動軌跡が異なる。そこで上記
複数のフォーカシングレンズ移動軌跡を制御部15に記
憶させ、被写体距離によって軌跡を選択させてフォーカ
シングレンズ1−aを移動させている。
In this embodiment, a rear focusing type lens system is adopted, and the function of the correcting lens for correcting the movement of the focal plane due to the change of the focal length with respect to the focusing lens 1-a and the function of the focusing lens are as follows. It has both functions. That is, in this type of lens system, since the correction lens also serves as the focusing lens, the movement locus of the correction lens varies depending on the subject distance during zooming. Therefore, the plurality of focusing lens movement loci are stored in the control unit 15, and the loci are selected according to the subject distance to move the focusing lens 1-a.

【0024】また、左右のレンズ群のばらつき等により
画角の違いやズーム時の光軸のずれ、さらには、フォー
カシングのタイミングのずれが複眼撮像系の弱点ともな
るため、製造時にEEPROM16の画角と同一とする
ための左右のズームレンズ位置の対応データと、被写体
までの距離とその時の左右のフォーカシングレンズ位置
の対応データが書き込まれている。
Further, the difference in the angle of view due to the variation of the left and right lens groups, the shift of the optical axis during zooming, and the shift of the focusing timing are weak points of the compound-eye image pickup system. The correspondence data of the left and right zoom lens positions and the correspondence data of the distance to the subject and the left and right focusing lens positions at that time are written.

【0025】続いて、本実施例における視線検出系の説
明を行う。
Next, the visual axis detection system in this embodiment will be described.

【0026】本実施例において、ビューファインダ24
には視線検出器が設けられている。視線検出の方法とし
ては、たとえば特開昭61−172552号公報におい
ては、光源からの平行光束を観察者の眼球の前眼部へ投
射し、角膜からの反射光による角膜反射像と瞳孔の結像
位置を利用して視軸を求めている。
In the present embodiment, the viewfinder 24
Is equipped with a line-of-sight detector. As a method of detecting the line of sight, for example, in Japanese Patent Application Laid-Open No. 61-172552, a parallel light flux from a light source is projected onto the anterior segment of the eyeball of an observer, and a corneal reflection image and a pupil are combined by reflected light from the cornea. The visual axis is obtained using the image position.

【0027】図3は、視線検出の原理説明図で、(a)
は視線検出光学系の概略図、(b)は光電素子列66の
出力強度図である。
FIG. 3 is a diagram for explaining the principle of line-of-sight detection.
Is a schematic view of the line-of-sight detection optical system, and (b) is an output intensity diagram of the photoelectric element array 66.

【0028】同図において、65は観察者に対して不感
の赤外光を放射する発光ダイオード等の光源であり、投
光レンズ63の焦点面に配置されている。光源65より
放射された赤外光は投光レンズ63により平行光とさ
れ、ハーフミラー62で反射し、眼球の角膜67を照明
する。このとき角膜67の表面で反射した赤外光の一部
による角膜反射像(虚像)dは、ハーフミラー62を透
過し、受光レンズ64により集光されて光電素子列66
上の位置Zd′に投影される。また虹彩69の端部a、
bからの光束は、受光レンズ64を介して光電素子列6
6上のa′、b′に該端部a′、b′の像を結像する。
受光レンズ64の光軸(光軸ア)に対する眼球の光軸イ
の回転角θが小さい場合、虹彩69の端部a、bのZ座
標をZa、Zbとすると瞳孔の中心位置cの座標Zc
は、 Zc≒(Za+Zb)/2 と表される。
In the figure, reference numeral 65 denotes a light source such as a light emitting diode which emits infrared light insensitive to the observer, and is arranged on the focal plane of the light projecting lens 63. The infrared light emitted from the light source 65 is collimated by the light projecting lens 63, reflected by the half mirror 62, and illuminates the cornea 67 of the eyeball. At this time, a corneal reflection image (virtual image) d due to a part of the infrared light reflected on the surface of the cornea 67 passes through the half mirror 62, is condensed by the light receiving lens 64, and is photoelectrical device array 66.
The image is projected at the upper position Zd '. Also, the edge a of the iris 69,
The light flux from b passes through the light receiving lens 64 and the photoelectric element array 6
Images of the end portions a'and b'are formed on a'and b'on 6, respectively.
When the rotation angle θ of the optical axis a of the eyeball with respect to the optical axis (optical axis a) of the light receiving lens 64 is small, assuming that the Z coordinates of the ends a and b of the iris 69 are Za and Zb, the coordinate Zc of the central position c of the pupil is represented.
Is expressed as Zc≈ (Za + Zb) / 2.

【0029】また、角膜反射像dのZ座標と角膜67の
曲率中心OのZ座標とは一致するため、角膜反射像の発
生位置dのZ座標をZd、角膜67の曲率中心Oと瞳孔
の中心Cまでの距離をOcとすると眼球の光軸イ回転角
θは、 Oc×SINθ≒Zc−Zd・・・・・・(1) の関係式を満足する。このため演算処理装置60におい
て、図3(b)のごとく光電素子列66上に投影された
各特徴点(角膜反射像d及び虹彩の瑞部a、b)の位置
を検出することにより、眼球の光軸イの回転角θを求め
ることができる。この時、(1)式は、 γ×Oc×SINθ≒(Za′+Zb′)/2−Zd′・・・・・・(2) と書き換えられる。ただし、γは受光レンズ64に対す
る眼球の位置により決まる倍率である。
Further, since the Z coordinate of the corneal reflection image d and the Z coordinate of the curvature center O of the cornea 67 coincide with each other, the Z coordinate of the generation position d of the corneal reflection image is Zd, the curvature center O of the cornea 67 and the pupil. Assuming that the distance to the center C is Oc, the rotation angle θ of the optical axis of the eyeball satisfies the relational expression of Oc × SINθ≈Zc−Zd (1). Therefore, the arithmetic processing unit 60 detects the positions of the respective feature points (corneal reflection image d and the iris ridges a and b) projected on the photoelectric element array 66 as shown in FIG. The rotation angle θ of the optical axis a can be obtained. At this time, the equation (1) can be rewritten as γ × Oc × SINθ≈ (Za ′ + Zb ′) / 2−Zd ′ ... (2). However, γ is a magnification determined by the position of the eyeball with respect to the light receiving lens 64.

【0030】さらに、観察者の眼球光軸の回転角θが算
出されると、眼球の光軸と視軸の補正をすることにより
観察者の視線が求められる。
Furthermore, when the rotation angle θ of the optical axis of the eyeball of the observer is calculated, the line of sight of the observer can be obtained by correcting the optical axis of the eyeball and the visual axis.

【0031】また図3においては、観察者の眼球がZ−
X平面(たとえば水平面)内で回転する例を示している
が、観察者の眼球がX−Y平面(たとえば垂直面)内で
回転する場合においても同様に検出可能である。
In FIG. 3, the observer's eyeball is Z-.
Although the example of rotating in the X plane (for example, horizontal plane) is shown, it can be similarly detected when the eyeball of the observer rotates in the XY plane (for example, vertical plane).

【0032】次に、本実施例による複眼撮像装置の動作
を説明する。
Next, the operation of the compound-eye image pickup apparatus according to this embodiment will be described.

【0033】図4は、本実施例の制御部15による制御
動作を示すフローチャートである。図4に基づいて本実
施例の装置の初期化動作の説明を行う。
FIG. 4 is a flow chart showing the control operation by the control unit 15 of this embodiment. The initialization operation of the apparatus of this embodiment will be described with reference to FIG.

【0034】制御部15は、カメラに電源が供給されて
スタンバイ状態となると(ステップS401)、初期状
態選択SW32、立体−パノラマ切替SW35の状態を
検出して、装置の動作モードが初期化モードか記憶モー
ドかを確認する(ステップS402)。初期化モードが
選択されている場合には、制御部15は立体撮影モード
かパノラマ撮影モードかをさらに確認する(ステップS
403)。
When power is supplied to the camera and the camera enters a standby state (step S401), the control section 15 detects the states of the initial state selection SW 32 and the stereoscopic / panoramic switching SW 35 to determine whether the operation mode of the apparatus is the initialization mode. It is confirmed whether it is the storage mode (step S402). When the initialization mode is selected, the control unit 15 further confirms whether the stereoscopic shooting mode or the panoramic shooting mode (step S).
403).

【0035】初期化モードと立体撮影モードが選択され
ている場合には、まず、2つのカメラのズーム光学系を
初期値に設定した後(ステップS409)、2つのカメ
ラの間隔を所定の初期値になるように調整モータ22を
駆動するカメラ間隔の初期化を行い(ステップS41
0)、さらに、2つのカメラがそれぞれの回転中心を結
ぶ線に垂直で、かつ、2つのカメラが平行になるように
駆動する左右のカメラ角度の初期化を行う(ステップS
411)。これらの状態設定は、製造時に角度検出器2
9、20の基準値から上記状態とするために測定され、
EEPROM16に書き込まれている角度オフセット値
に基づいて行われる。
When the initialization mode and the stereoscopic photographing mode are selected, first, the zoom optical systems of the two cameras are set to the initial values (step S409), and the distance between the two cameras is set to a predetermined initial value. The camera interval for driving the adjustment motor 22 is initialized so that (step S41
0) Further, the left and right camera angles for driving the two cameras so as to be perpendicular to the line connecting the rotation centers of the two cameras and parallel to each other are initialized (step S).
411). These state settings are set by the angle detector 2 at the time of manufacture.
Measured from the reference value of 9 and 20 to the above state,
This is performed based on the angle offset value written in the EEPROM 16.

【0036】次に、主カメラ選択SW25により選択さ
れたカメラ、たとえば、右用の第1のビデオカメラ部A
の距離検出器31より右ビデオカメラ部Aの正面の被写
体までの距離およびカメラ角度θ0を測距して(ステッ
プS412,S413)撮影する(ステップS41
4)。
Next, the camera selected by the main camera selection SW 25, for example, the right first video camera unit A
The distance to the object in front of the right video camera section A and the camera angle θ0 are measured from the distance detector 31 of (4), (steps S412, S413), and an image is taken (step S41).
4).

【0037】図4に示すように測距結果をl0、カメラ
間隔をe0とすると、カメラ角度θ0は、 θ0=ATAN(2×l0/e0) (以下、ATANはTANの逆関数を表すものとする) と求められ、制御部15によりそれぞれのカメラが被写
体に向けられ、そこでフォーカシングが行われる。すな
わち2つのカメラの回動中心を結ぶ線の垂直二等分線上
の被写体に自動的に向けられ合焦するのである。
As shown in FIG. 4, assuming that the distance measurement result is 10 and the camera interval is e0, the camera angle θ0 is θ0 = ATAN (2 × 10 / e0) (hereinafter, ATAN represents an inverse function of TAN). Then, the control unit 15 directs each camera to the subject, and focusing is performed there. That is, the object is automatically aimed and focused on the vertical bisector of the line connecting the rotation centers of the two cameras.

【0038】なお、本実施例ではカメラ間隔として、た
かだか10cm程度のものを想定しているため、前記垂
直二等分線上の被写体として右ビデオカメラ部Aに正対
する被写体を使用してもなんら問題はない。また、もっ
と大掛かりなシステムを想定した場合、たとえば、2つ
のカメラの間隔が数十センチあるいは数メートル離れた
場合でも、前記垂直二等分線上に向けた距離センサを別
に設けてもいいし、右ビデオカメラ部Aの発光素子の出
力を左ビデオカメラ部Bの受光素子で受光するような検
出モードを設定すれば、ほぼ同様な条件で測距できる。
さらに、精度が必要な場合には、2つのカメラの距離検
出器を前記垂直二等分線に対して対称に配置することに
よって実現できる。
In the present embodiment, the camera interval is assumed to be about 10 cm at most, so there is no problem even if a subject facing the right video camera unit A is used as the subject on the vertical bisector. There is no. Also, assuming a larger system, for example, even when the distance between the two cameras is several tens of centimeters or several meters, a separate distance sensor may be provided on the vertical bisector. If the detection mode is set such that the light emitting element of the video camera unit A outputs the light from the light receiving element of the left video camera unit B, distance measurement can be performed under substantially the same conditions.
Further, if accuracy is required, it can be realized by arranging the distance detectors of the two cameras symmetrically with respect to the vertical bisector.

【0039】次に、初期化モードとパノラマ撮影モード
が選択されている場合について説明する。
Next, the case where the initialization mode and the panoramic photography mode are selected will be described.

【0040】制御部15は、初期化モードと立体撮影モ
ードが選択されている場合と同様に、2つのカメラがそ
れぞれの回転中心を結ぶ線に垂直でかつ2つのカメラが
平行になるように駆動する(ステップS404〜S40
6)。そして、2つのカメラの画角が重なる部分(ここ
でも右カメラに正対する被写体を代用してさしつかえな
い)までの距離を測距し(ステップS407)、その値
に基づいて2つのカメラを合焦させて(ステップS40
8)撮影する(ステップS414)。
As in the case where the initialization mode and the stereoscopic photographing mode are selected, the control unit 15 drives the two cameras so that the two cameras are perpendicular to the line connecting the respective rotation centers and are parallel to each other. Yes (steps S404 to S40)
6). Then, the distance to a portion where the angles of view of the two cameras overlap (again, the subject facing the right camera can be used instead) can be measured (step S407), and the two cameras can be focused based on the value. Let (Step S40
8) Take an image (step S414).

【0041】次に、記憶モードが選択されている場合に
は、ステータス記憶ボタン31が押された時点でのステ
ータスがEEPROM16に記憶されているかの確認を
行い(ステップS415)、ステータス記憶ボタン31
が押された時点での立体−パノラマ切替SWの状態、左
右のカメラの角度、間隔、ズーム位置を読み込み制御部
15により自動的に記憶された状態へ復帰して(ステッ
プS416)撮影する(ステップS414)。
Next, when the storage mode is selected, it is confirmed whether the status at the time of pressing the status storage button 31 is stored in the EEPROM 16 (step S415), and the status storage button 31
When the button is pressed, the state of the stereoscopic / panorama switching SW, the angles, intervals, and zoom positions of the left and right cameras are automatically restored by the reading control unit 15 (step S416) and an image is taken (step S416). S414).

【0042】また、ステップS415にてEEPROM
16にステータスが記憶されていないことが確認された
場合には、ステップS403に移行し、自動的に初期化
モードに設定されるようになっている。
Further, in step S415, the EEPROM is
If it is confirmed that the status is not stored in 16, the process proceeds to step S403, and the initialization mode is automatically set.

【0043】次に、本実施例の撮影時の動作について説
明する。
Next, the operation at the time of photographing in this embodiment will be described.

【0044】本実施例では、立体撮影モードにおいて、
上記視線検出を利用して以下の2つの視線検出モードを
有している。すなわち、被写体選択モードと被写体追尾
モードである。
In this embodiment, in the stereoscopic photographing mode,
It has the following two line-of-sight detection modes using the above line-of-sight detection. That is, the subject selection mode and the subject tracking mode.

【0045】まず、被写体選択モードについて図6
(a)〜(d)を用いて説明する。以下の説明において
は、主カメラを右ビデオカメラ部Aと選択したものとし
て説明する。
First, the subject selection mode is shown in FIG.
A description will be given using (a) to (d). In the following description, it is assumed that the main camera is the right video camera section A.

【0046】図6(a)はビューファインダ24内の撮
像中の映像である。図6(b)は、右ビデオカメラ部A
と左ビデオカメラ部Bと被写体の関係を模式的に表した
もので、被写体70、71と右ビデオカメラ部Aを結ん
だ線を72、73、被写体70を通り線72に垂直な線
を74する。また、被写体70、71と左ビデオカメラ
部Bを結んだ線を75、76、被写体70を通り、線7
5に垂直な線を77とする。
FIG. 6A shows a video image being taken in the viewfinder 24. FIG. 6B shows the right video camera unit A.
And the left video camera unit B and the subject are schematically shown. The lines connecting the subjects 70 and 71 and the right video camera unit A are 72 and 73, and the line passing through the subject 70 and perpendicular to the line 72 is 74. To do. In addition, lines 75, 76 connecting the subjects 70, 71 and the left video camera unit B pass through the subject 70, and a line 7
The line perpendicular to 5 is 77.

【0047】被写体70は左右のカメラの光軸の交差す
る位置にあるが、被写体71はそれ以外のところにある
ため、被写体71は右ビデオカメラ部Aで見た場合、画
面上で線73と74の交点78にある様に見える。一
方、左ビデオカメラ部Bで見た場合には、画面上で線7
6と77の交点79にある様に見える。すなわち、これ
らを重ねあわせてみると被写体71は、図6(a)の破
線で示される様に2重となっている。
The subject 70 is located at a position where the optical axes of the left and right cameras intersect with each other, but the subject 71 is located at a position other than that. Therefore, when the subject 71 is viewed by the right video camera unit A, a line 73 appears on the screen. Appears to be at intersection 78 of 74. On the other hand, when viewed from the left video camera section B, the line 7
Appears to be at intersection 79 of 6 and 77. That is, when these are overlapped, the subject 71 is doubled as shown by the broken line in FIG.

【0048】この時に得られる立体視像はスクリーン上
に被写体70があり、スクリーンの奥側に被写体71が
あるように観察される。そこで、被写体71を注視した
状態で被写体選択ボタン29を押すと、被写体71の像
が左右のカメラで重なる様に左ビデオカメラ部Bの角度
が自動的に変更される。したがって、この時左右のカメ
ラで撮像されたものを重ねあわせると、今度は被写体7
0が2重となっている。
The stereoscopic image obtained at this time is observed such that the subject 70 is on the screen and the subject 71 is on the back side of the screen. Therefore, if the subject selection button 29 is pressed while gazing at the subject 71, the angle of the left video camera unit B is automatically changed so that the images of the subject 71 are overlapped by the left and right cameras. Therefore, if the images captured by the left and right cameras are overlaid at this time, the subject 7
0 is doubled.

【0049】この動作を図6(c)を参照して説明す
る。図6(c)において図6(b)と重複するところは
同番号とし、説明は省略する。
This operation will be described with reference to FIG. In FIG. 6C, the same parts as those in FIG.

【0050】右ビデオカメラ部Aと左ビデオカメラ部B
の回転中心を結ぶ線を80とし、中心間の距離をe1、
右ビデオカメラ部Aと左ビデオカメラ部Bと被写体70
までの距離をl1(被写体70が線80の垂直二等分線
上にあるとした)、右ビデオカメラ部Aと被写体71と
の距離をl2、左ビデオカメラ部Bと被写体71との距
離をl3、線80と線72、75のなす角をθ1、線7
3と線72のなす角をθ2、線76と線80のなす角を
θ3とし、被写体71を通り線74に平行な線を81、
また、被写体71を通り線77に平行な線を82とする
と、ビデオカメラ部Aで観察した場合の画面上での被写
体71の画面中心83からの水平方向の距離l4は、 l4=l2×SINθ2 と表すことができる(被写体70が画面の中心あること
から)。一方、ビデオカメラ部Bで観察した場合の画面
上での被写体71の画面中心84からの水平方向の距離
l5は、 l5=l3×SIN(θ1−θ3) と表すことができる。そこで、右ビデオカメラ部Aの被
写体71の像に左ビデオカメラ部Bの被写体71の像を
重ねあわせるためには、左ビデオカメラ部Bの画面を左
側にずらせば良い。そのずらし量l6は、 l6=l4−l5 となる。これを実際に行うには、左ビデオカメラ部Bを
図において、反時計回りにθ4だけ回転させれば良い。
その回転角θ4は、 θ4=ATAN(l6/(l3×SIN(θ1−θ3)) と得ることができ、この角度だけ左ビデオカメラ部Bを
左輻輳角モータ18により回転させることにより、被写
体71に注視している状態になる。
Right video camera section A and left video camera section B
The line connecting the rotation centers of is 80, and the distance between the centers is e1,
Right video camera section A, left video camera section B, and subject 70
Up to l1 (assuming that the subject 70 is on the vertical bisector of the line 80), the distance between the right video camera unit A and the subject 71 is l2, and the distance between the left video camera unit B and the subject 71 is l3. , The angle between line 80 and lines 72 and 75 is θ1, line 7
The angle between the line 3 and the line 72 is θ2, the angle between the line 76 and the line 80 is θ3, and the line passing through the subject 71 and parallel to the line 74 is 81,
If the line passing through the subject 71 and parallel to the line 77 is 82, the horizontal distance l4 from the screen center 83 of the subject 71 on the screen when observed by the video camera unit A is: l4 = l2 × SINθ2 Can be expressed (because the subject 70 is at the center of the screen). On the other hand, the horizontal distance l5 from the screen center 84 of the subject 71 on the screen when observed by the video camera unit B can be expressed as l5 = l3 × SIN (θ1−θ3). Therefore, in order to superimpose the image of the subject 71 of the left video camera unit B on the image of the subject 71 of the right video camera unit A, the screen of the left video camera unit B may be shifted to the left. The shift amount 16 is 16 = 14-15. To actually perform this, the left video camera unit B may be rotated counterclockwise by θ4 in the figure.
The rotation angle θ4 can be obtained as θ4 = ATAN (16 / (13 × SIN (θ1-θ3)), and by rotating the left video camera unit B by the left convergence angle motor 18 by this angle, the subject 71 It will be in the state of gazing at.

【0051】ここで、e1は調整部21の間隔検出器の
データ、l1は距離検出器33、あるいは、距離検出器
34から得られ、またθ1は、角度検出器19あるい
は、角度検出器20から得られる。そしてθ2は視線検
出器26から、l2は距離検出器をθ2だけ回転させて
測距させることにより得られ、θ3はl2、θ1、θ2
及びe1より、 θ3=ATAN(l2×SIN(θ1+θ2/(e1+l2×COS(θ1+ θ2))・・・・・・(3) そして、l3はl2、θ1、θ2、θ3より、 l3=l2×SIN(θ1+θ2)/SINθ3・・・・・・(4) と求められるから、上記モードは容易に実施できる。
Here, e1 is obtained from the distance detector of the adjusting section 21, l1 is obtained from the distance detector 33 or the distance detector 34, and θ1 is obtained from the angle detector 19 or the angle detector 20. can get. Further, θ2 is obtained from the line-of-sight detector 26, l2 is obtained by rotating the distance detector by θ2 to measure the distance, and θ3 is obtained from l2, θ1 and θ2.
And e1, θ3 = ATAN (l2 × SIN (θ1 + θ2 / (e1 + l2 × COS (θ1 + θ2)) ... (3) and l3 = l2, θ1, θ2, θ3 Since (θ1 + θ2) / SINθ3 (4) is obtained, the above mode can be easily implemented.

【0052】このモードの実際の動作としては、ビュー
ファインダを覗いた状態で選択したい被写体を注視して
被写体選択ボタンを押すと、右ビデオカメラ部Aの距離
検出器33が視線検出器26から得られたθ2だけ回転
し、右ビデオカメラ部Aと被写体71との距離をl2を
測定し、それから、各検出器から得られるデータすなわ
ちe1、l1、l2、θ1、θ2より、θ3、l3、θ
4を求めてl2、l3に相当するフォーカシングデータ
をEEPROMl6から読みだして左右のカメラをとも
に合焦させたあと、得られたθ4に基づいて左ビデオカ
メラ部Bを回転させる。
In the actual operation of this mode, the distance detector 33 of the right video camera unit A is obtained from the line-of-sight detector 26 by gazing at the subject to be selected while looking through the viewfinder and pressing the subject selection button. It rotates by θ2, and the distance l2 between the right video camera unit A and the subject 71 is measured. Then, from the data obtained from each detector, that is, e1, l1, l2, θ1, θ2, θ3, l3, θ
4, the focusing data corresponding to 12 and 13 are read from the EEPROM 16 to focus the left and right cameras together, and then the left video camera unit B is rotated based on the obtained θ4.

【0053】しかし、左右の画像の縦ずれをすべての撮
像条件にわたって機械的になくすのは不可能であるた
め、このように撮影された立体映像は、縦方向のずれを
含んでいる。そしてこの縦ずれが立体視を妨げる要因の
ひとつになっている。そこで、2つのカメラで撮像され
た信号はいったん画像メモリ41、44に記憶され、画
像相関処理部46により2つの画像の相関が演算され
る。相関演算の対象になる領域はたとえば画面を3×1
0の領域に分割し、その中で視線の検知された領域にお
いてのみ行えば良い。
However, since it is impossible to mechanically eliminate the vertical shift of the left and right images under all the image pickup conditions, the stereoscopic image photographed in this way includes the vertical shift. And this vertical displacement is one of the factors that hinder stereoscopic viewing. Therefore, the signals captured by the two cameras are once stored in the image memories 41 and 44, and the image correlation processing unit 46 calculates the correlation between the two images. The area to be subjected to correlation calculation is, for example, 3 × 1 on the screen.
It is sufficient to divide into 0 regions and to perform only in the region where the line of sight is detected.

【0054】相関演算の手法としては様々あるが、本実
施例ではマッチング法を採用しており、左右のカメラで
撮像された信号のうちの同じ領域での画像信号を2値化
し、主カメラとして選択された右ビデオカメラ部Aで撮
像された信号から得られた2値画像を一定量s(たとえ
ば1画素分)を水平方向及び垂直方向に移動させて他方
の2値画像との差分δを求める。そしてその演算を順次
シフトさせて行い、差分δが最小となるシフト量X、Y
を求め、このY値を用いて縦ずれをなくすのである。
Although there are various correlation calculation methods, the matching method is adopted in the present embodiment, and the image signals in the same region of the signals picked up by the left and right cameras are binarized and used as the main camera. The binary image obtained from the signal imaged by the selected right video camera unit A is moved by a fixed amount s (for example, one pixel) in the horizontal direction and the vertical direction, and the difference δ from the other binary image is calculated. Ask. Then, the calculation is sequentially shifted to perform the shift amounts X and Y that minimize the difference δ.
Then, the Y value is used to eliminate the vertical shift.

【0055】上記のように2つの画像がX、Yだけずれ
ていると、両画像の共通部分は撮像された領域より狭
い。すなわち、図7に示すように画像として有効な領域
pは非共通部分qと画角を変えないために削除する部分
rを除いた部分となる。この有効領域pを撮像されたす
べての領域に拡大する為には、水平方向ではメモリのデ
ータを同期信号発生器36により読み出す周期を遅く
し、垂直方向は補間をして読みだせば、選択された被写
体の左右の画像における縦ずれがなくなり、選択された
被写体の立体像がスクリーンの奥側からスクリーン上に
移動する様に見える。
When the two images are displaced by X and Y as described above, the common part of both images is narrower than the imaged area. That is, as shown in FIG. 7, the area p that is effective as an image is a portion excluding the non-common portion q and the portion r to be deleted in order not to change the angle of view. In order to expand this effective area p to all the imaged areas, the cycle of reading the data of the memory by the synchronizing signal generator 36 in the horizontal direction is delayed, and in the vertical direction, it is selected by interpolation and reading. Vertical displacement in the left and right images of the subject disappears, and the stereoscopic image of the selected subject appears to move from the back side of the screen to the screen.

【0056】上記実施例では1画素ずつシフトして演算
するとして説明したが、たとえばこれを5画素ずつシフ
トして演算を行い、差分δの最小値が得られる位置の近
傍で補間を行ってX、Yを求める様にすれば演算時間を
短縮することができる。
In the above embodiment, the calculation is performed by shifting by 1 pixel, but for example, by shifting by 5 pixels for calculation, interpolation is performed near the position where the minimum value of the difference δ is obtained, and X is calculated. , Y, the calculation time can be shortened.

【0057】次に被写体追尾モードを図6(d)を参照
して説明する。図6(d)において、図6(b)と重複
するところは同番号として説明は省略する。
Next, the subject tracking mode will be described with reference to FIG. In FIG. 6D, the same parts as those in FIG.

【0058】被写体71を通り、右ビデオカメラ部Aと
被写体71とを結ぶ線73と直交する線を85、また被
写体71を通り左ビデオカメラ部Bと被写体71とを結
ぶ線76と直交する線を86、右ビデオカメラ部Aと被
写体70とを結ぶ線72と線85との交点を87、左ビ
デオカメラ部Bと被写体70とを結ぶ線75と線86と
の交点を88とする。
A line 85 passing through the subject 71 and orthogonal to a line 73 connecting the right video camera unit A and the subject 71 is orthogonal to a line 73 passing through the subject 71 and a line 76 connecting the left video camera unit B and the subject 71. 86, an intersection of a line 72 and a line 85 connecting the right video camera unit A and the subject 70 is 87, and an intersection of a line 75 and a line 86 connecting the left video camera unit B and the subject 70 is 88.

【0059】図6(b)の状態から被写体71を注視し
た状態で被写体追尾ボタン30を押すと、距離検出器3
3は、視線検出器26で得られた角度θ2だけ時計回り
に回転し、被写体71までの距離l2を得る。そこで左
ビデオカメラ部Bと右ビデオカメラ部Aの光軸が被写体
71で交差するための角度θ3を、(3)式から求め、
そして(4)式から得られるl3及びl2に相当するフ
オーカシングレンズの位置をEEPROMl6から読み
だし、両カメラとも被写体71に合焦させたあと、右ビ
デオカメラ部Aと左ビデオカメラ部Bを角度θ2、θ3
に基づいて時計回りに回転させる。これにより被写体7
1は自動的に画面中央に移動するのである。この時も前
述の様に縦ずれをなくす処理を行って映像を出力する。
When the subject tracking button 30 is pressed in the state of gazing at the subject 71 from the state of FIG. 6B, the distance detector 3
3 rotates clockwise by the angle θ2 obtained by the line-of-sight detector 26 to obtain the distance l2 to the subject 71. Therefore, the angle θ3 for the optical axes of the left video camera unit B and the right video camera unit A to intersect with each other at the subject 71 is calculated from the equation (3),
Then, the positions of the focusing lenses corresponding to l3 and l2 obtained from the equation (4) are read from the EEPROM l6, and both cameras are focused on the subject 71, and then the right video camera unit A and the left video camera unit B are set. Angle θ2, θ3
Rotate clockwise based on. This makes the subject 7
1 automatically moves to the center of the screen. At this time as well, the processing for eliminating the vertical shift is performed as described above and the image is output.

【0060】本実施例では、カメラの測距手段として発
光素子と受光素子を用いたタイプの測距方式として説明
したが、この方式では被写体選択時にセンサを回転させ
る必要があるのでその回転機構がやや複雑になってい
る。測距手段の他の方式としては、位相差タイプとTV
信号検出タイプがあり、位相差タイプは異なる光路を通
って結像する複数の被写体像のずれ量から被写体の合焦
を行うものであるが、センサを回転させる機構は必要な
いが、視線を細かく検出しようとするとその数だけ検出
ユニットが必要になってしまうという問題もある。ま
た、TV信号検出タイプは、具体的には、視線を検出し
それに対応する領域でのビデオ信号の特定の高周波成分
(たとえば、1Mhz)を帯域通過フイルタによって取
り出し、この高周波成分の振幅が最大になるようにフオ
ーカシングレンズの位置を調整して焦点位置を合わせる
もので、検出系の信号処理回路が追加となるのと、合焦
検出までの時間が他の2方法に比ベて時間がかかるとい
う問題もある。
In this embodiment, the distance measuring method of the type using the light emitting element and the light receiving element as the distance measuring means of the camera has been described. However, in this method, the sensor needs to be rotated when the subject is selected, and therefore the rotation mechanism is used. It's a little complicated. Other methods of distance measuring means include phase difference type and TV
There is a signal detection type, and the phase difference type is for focusing the subject based on the amount of displacement of a plurality of subject images formed through different optical paths, but a mechanism for rotating the sensor is not required There is also a problem in that the number of detection units is required for detection. In the TV signal detection type, specifically, a line-of-sight is detected, and a specific high-frequency component (for example, 1 Mhz) of a video signal in a region corresponding to the line-of-sight is extracted by a bandpass filter, and the amplitude of this high-frequency component is maximized. The focus lens is adjusted by adjusting the position of the focusing lens so that the signal processing circuit of the detection system is added and the time until the focus detection is longer than the other two methods. There is also the problem of this.

【0061】以上3方式には、長所短所がそれぞれある
がどの方法を採用するかは任意である。
Each of the above three methods has advantages and disadvantages, but which method is adopted is arbitrary.

【0062】次に、パノラマ撮影モードについて説明を
行う。
Next, the panoramic shooting mode will be described.

【0063】パノラマ撮影時2つののカメラは2つのカ
メラの回転中心を結んだ線の垂直二等分線に対して回動
する様に設定され、アスペクト比変更ボタン37により
複数種のアスペクト比を選択できる様に構成されてお
り、その選択されたアスペクト比により両カメラで撮像
された映像の重なる度合いが決まるのである。
During panoramic photography, the two cameras are set to rotate with respect to the vertical bisector of the line connecting the rotation centers of the two cameras. It is configured to be selectable, and the degree of overlap between the images captured by both cameras is determined by the selected aspect ratio.

【0064】図8は、右ビデオカメラ部Aにおける重な
る領域を示したもので、ここでは4段階に変更できる様
に構成されている。ところで被写体までの距離がカメラ
間隔に対して十分大きければ、両カメラの画角のうちで
重なる領域の画角に対する比率κは、カメラのパノラマ
撮影モードの初期状態からのカメラ角度をα、ズーム倍
率から決まる水平画角の半分の角度をβとすると、 κ=1/(1+TANα×TAN(α+β))/(2×((1/(1十TAN α×TAN(α−β))−(COSα)^2))・・・・・・(5) と表され、被写体距離には関係なくズーム倍率とカメラ
角度で決まることが分かる。逆に比率κが選択され、そ
の時のズーム倍率が分かればカメラ角度は式(5)より
算出できるから、たとえばtypeIIが選択されるとその重
なる領域に対応するカメラ角度が算出され、2つのカメ
ラが回動させられてその重なる領域において合焦動作が
行われる。そして、撮像されたデジタル映像信号は画像
メモリ41、44にそれぞれ記憶され、画像相関処理部
46により各画像メモリ41、44に記憶されたデジタ
ル映像信号から画像の相関演算を行う。ここでは上記立
体撮影モード時と同様にマッチング法によりパノラマ撮
影時に重なる領域となる領域の画面に対する位置を測定
し、そこが重なる様に画像合成処理部47に記憶させ
る。
FIG. 8 shows an overlapping area in the right video camera section A, and here it is constructed so that it can be changed in four steps. By the way, if the distance to the subject is sufficiently large with respect to the camera distance, the ratio κ to the angle of view of the overlapping area of the angle of view of both cameras is α, which is the camera angle from the initial state of the panoramic shooting mode of the camera, and zoom ratio. Let β be a half angle of the horizontal angle of view determined by κ = 1 / (1 + TANα × TAN (α + β)) / (2 × ((1 / (1 ten TAN α × TAN (α-β))-(COSα ) ^ 2)) ······· (5), which means that it is determined by the zoom magnification and the camera angle regardless of the subject distance.Conversely, if the ratio κ is selected and the zoom magnification at that time is known. Since the camera angle can be calculated by the equation (5), for example, when typeII is selected, the camera angle corresponding to the overlapping area is calculated, and the two cameras are rotated to perform the focusing operation in the overlapping area. And The picked-up digital video signals are stored in the image memories 41 and 44, respectively, and the image correlation processing unit 46 performs image correlation calculation from the digital video signals stored in the image memories 41 and 44. Here, the stereoscopic shooting mode is used. Similar to the time, the position of the area to be overlapped at the time of panoramic photography with respect to the screen is measured by the matching method, and the position is stored in the image synthesizing processing unit 47 so as to be overlapped.

【0065】画像合成処理部47に記憶された画像情報
は通常の1画面分の情報より多く、水平方向ではメモリ
のデータが通常より多いため、これを通常のモニタで見
ようとすれば、同期信号発生器36により読み出す周期
を速くする、また、水平、垂直の倍率を同じにするため
には、垂直方向は画面の上下をトリミングし、かつ、圧
縮あるいは間引きなどをして読みだせば良い。
The image information stored in the image synthesizing processor 47 is larger than the information for one normal screen, and the data in the memory is more than normal in the horizontal direction. In order to speed up the cycle of reading by the generator 36 and to make the horizontal and vertical magnifications the same, it is sufficient to trim the top and bottom of the screen in the vertical direction and read by compressing or thinning.

【0066】画像合成処理部47からの出力は、立体−
パノラマ切替SW35により切り替えられ、D/A変換
器45を経て、出力端子51に出力される。D/A変換
器45の出力はアナログ映像信号であるから、この信号
はビューファインダ24でも観察するkとおができるの
で、ビューファインダ24を観察しながらアスペクト比
を変更することも可能である。このときアスペクト比変
更ボタンを押すと、カメラ角度が設定され、合焦動作が
完了するまで画面は、画像合成処理部47に記憶された
画像が出力される様に構成されており、カメラの動作中
の乱れた映像は出力されない。
The output from the image synthesis processing unit 47 is a stereoscopic image.
It is switched by the panorama switching SW 35, and is output to the output terminal 51 via the D / A converter 45. Since the output of the D / A converter 45 is an analog video signal, this signal can be regarded as k which is also observed by the viewfinder 24. Therefore, the aspect ratio can be changed while observing the viewfinder 24. At this time, when the aspect ratio change button is pressed, the camera angle is set, and the screen is configured to output the image stored in the image combining processing unit 47 until the focusing operation is completed. The disordered image inside is not output.

【0067】上記実施例において、輻輳角の角度検出器
を基準位置検出器とアップダウンカウンタとして説明し
たが、角度検出器としてはこれに限定されるものではな
い。たとえば、カメラに一体となったホイールにアブソ
リュート型のエンコーダを取り付けることにより電源を
切ってもその角度情報は消滅しないので、基準位置検出
器を廃止できる。このような構成とした場合には、、ス
タンバイ時に基準位置を捜しに行く必要も無くなるの
で、スタンバイ時間を短縮することができる効果があ
る。また、モータとしてステッピングモータの変わりに
DCモータを使用することができるので、コストダウン
に適したものとなる。
Although the angle detector of the angle of convergence is described as the reference position detector and the up / down counter in the above embodiment, the angle detector is not limited to this. For example, by attaching an absolute encoder to a wheel integrated with the camera, the angle information is not lost even when the power is turned off, so the reference position detector can be eliminated. With such a configuration, it is not necessary to search for the reference position during standby, so that the standby time can be shortened. Further, since a DC motor can be used as the motor instead of the stepping motor, the cost can be reduced.

【0068】また、上記実施例では、立体撮影モード時
は2つのカメラの回動中心を結ぶ線の垂直二等分線上の
被写体に2つのカメラを向けることとして説明したが、
他の形態をとるように構成してもよい。たとえば、スタ
ンバイボタンが押されてカメラが前記垂直二等分線に平
行になった状態で、測距手段を回動させながら測距させ
てカメラに一番近い被写体を捜し、その一番近い被写体
にカメラを向けるように構成してもよい。
Further, in the above-mentioned embodiment, in the stereoscopic photographing mode, it was explained that the two cameras are aimed at the subject on the vertical bisector of the line connecting the rotation centers of the two cameras.
It may be configured to take other forms. For example, in the state where the standby button is pressed and the camera is parallel to the vertical bisector, the distance measuring means is rotated to perform distance measurement to search for the object closest to the camera, and the closest object The camera may be directed to.

【0069】また、上記実施例において、パノラマ撮影
モードの初期時に左右のカメラを平行にするとして説明
したが、図8において選択されるアスペクト比のうちの
1つ、たとえばtypeIに自動的に設定されるように構成
してもよい。
In the above embodiment, the left and right cameras are set to be parallel in the initial stage of the panoramic shooting mode, but one of the aspect ratios selected in FIG. 8, for example, type I is automatically set. It may be configured to.

【0070】また、上記実施例において、カメラを回動
させることにより光軸を被写体に向けることができると
説明したが、光学素子、たとえば可変頂角プリズム(以
下、VAPと称す)を用いることによりカメラを回動さ
せる機構を設けることなく光軸を被写体に向けることが
可能となる。
Although it has been described in the above embodiment that the optical axis can be directed to the object by rotating the camera, it is possible to use an optical element such as a variable apex angle prism (hereinafter referred to as VAP). It is possible to direct the optical axis to the subject without providing a mechanism for rotating the camera.

【0071】VAPはベローズで連結された2枚のガラ
スの間に、たとえばシリコン系のオイルを封入し、その
2枚のガラスの相対的な角度を変えることにより頂角が
可変なプリズムが構成されている。そして、この2枚の
ガラスの角度を変えることにより、VAPを通過する光
束の屈折角を制御することが可能となっている。
In VAP, a prism having a variable apex angle is constructed by enclosing, for example, silicon-based oil between two glasses connected by bellows, and changing the relative angle between the two glasses. ing. The angle of refraction of the light flux passing through the VAP can be controlled by changing the angle between the two glasses.

【0072】また、本提案では、2つのカメラの光軸を
水平面内で回動させればよいので、2枚のガラスのうち
1枚は固定され、1枚のガラスを光軸中心を享垂直方向
を回動軸として回動可能に支持し、光軸中心を通る水平
方向のガラスの端部にボイスコイルモータと角度検出器
を設け、所望の光軸角となる様にボイスコイルモータに
電流が供給されるのである。そしてこのVAPは撮像光
学系の一番被写体側に設けられている。このようにカメ
ラの回動機構を廃止することで2台のカメラを隙間なく
併設できるので、装置をさらに小型化できるのである。
Further, in the present proposal, since the optical axes of the two cameras may be rotated in the horizontal plane, one of the two glasses is fixed, and one glass is set vertically to the optical axis center. It is rotatably supported about the direction of the rotation axis, and a voice coil motor and an angle detector are installed at the edge of the glass in the horizontal direction passing through the center of the optical axis. Is supplied. This VAP is provided on the most object side of the image pickup optical system. By thus eliminating the camera rotation mechanism, the two cameras can be installed side by side without a gap, and the device can be further downsized.

【0073】[0073]

【発明の効果】以上説明したように本発明によれば、複
眼撮像装置に電源が供給されると、立体撮像モードに設
定している場合には、2つのカメラの回動中心を結ぶ線
の垂直二等分線上の被写体に2つのカメラがむけられて
合焦される。また、パノラマ撮影モードに設定されてい
る場合には、2つのカメラの光軸が交わらない所定の角
度に2つのカメラが向けられて被写体に対する合焦がな
される。
As described above, according to the present invention, when power is supplied to the compound-eye image pickup device, when the stereoscopic image pickup mode is set, the line connecting the rotation centers of the two cameras is changed. Two cameras are aimed at and focused on the subject on the vertical bisector. Further, when the panoramic shooting mode is set, the two cameras are aimed at a predetermined angle at which the optical axes of the two cameras do not intersect to focus on the subject.

【0074】また、記憶モードに設定されている場合に
は、記憶部から読み込んだ角度に2つのカメラを設定し
て合焦させるようにしたので、この複眼撮像装置に電源
をいれるとただちに撮影することができる効果がある。
Further, when the memory mode is set, two cameras are set to the angle read from the memory unit so as to focus, so that the compound eye image pickup device immediately takes an image. There is an effect that can be.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明による複眼撮像装置の外観斜視図であ
る。
FIG. 1 is an external perspective view of a compound eye imaging device according to the present invention.

【図2】本発明による複眼撮像装置の構成を示すブロツ
ク図である。
FIG. 2 is a block diagram showing the configuration of a compound eye image pickup apparatus according to the present invention.

【図3】視線検出の原理図である。FIG. 3 is a principle diagram of line-of-sight detection.

【図4】本発明による複眼撮像装置に電源を投入したと
きの装置の初期化を示すフローチャートである。
FIG. 4 is a flow chart showing initialization of the compound eye imaging apparatus according to the present invention when the apparatus is powered on.

【図5】立体撮影モードにおける初期のカメラ角度を設
定する為の摸式図である。
FIG. 5 is a schematic diagram for setting an initial camera angle in a stereoscopic shooting mode.

【図6】本発明による複眼撮像装置に視線検出を採用し
た場合に実現できる2つの撮影モード説明する為の摸式
図である。
FIG. 6 is a schematic diagram for explaining two shooting modes that can be realized when the visual axis detection is adopted in the compound eye imaging apparatus according to the present invention.

【図7】相関処理後の画像の切りだし位置を説明する図
である。
FIG. 7 is a diagram illustrating a cutout position of an image after a correlation process.

【図8】パノラマ撮影モードにおけるアスベクト比の選
択を説明する図である。
FIG. 8 is a diagram illustrating selection of an assect ratio in a panoramic shooting mode.

【符号の説明】[Explanation of symbols]

A 第1のビデオカメラ部 B 第2のビデオカメラ部 C 合体手段、 1,4 レンズ群 2,5 撮像素子 15 制御部 16 EEPROM l7,18 輻輳角モータ 19,20 角度検出器 24 ビューファインダ 26 視線検出器 33,34 距離検出器 35 立体ーパノラマ切り替えSW 36 同期信号発生器 41,44 画像メモリ 46 画像相関処理部 47 画像合成処理部 A first video camera section B second video camera section C combination means, 1,4 lens group 2,5 image sensor 15 control section 16 EEPROM 17, 18 convergence angle motor 19, 20 angle detector 24 viewfinder 26 line of sight Detector 33, 34 Distance detector 35 Stereoscopic / panorama switching SW 36 Synchronization signal generator 41, 44 Image memory 46 Image correlation processing unit 47 Image combining processing unit

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 それぞれの絞り、フォーカス、ズームの
撮像条件を設定する機構が少なくともひとつのカメラ制
御手段により制御される第1のビデオカメラ部および第
2のビデオカメラ部と、 前記第1のビデオカメラ部と第2のビデオカメラ部を合
体する合体手段と、 前記第1のビデオカメラ部と第2のビデオカメラ部の各
光軸で求められる平面に対して略水平となる面内におい
て、前記第1と第2のビデオカメラ部の光軸方向を可変
とする光軸方向可変手段と、 前記第1のビデオカメラ部と第2のビデオカメラ部の光
軸角を制御する光軸角制御手段とを有する複眼撮像装置
において、 前記複眼撮層装置に、撮像可能とするための電源が供給
されると、前記光軸角制御手段は前記第1のビデオカメ
ラ部と第2のビデオカメラ部の光軸を所定の光軸角度に
設定することを特徴とする複眼撮像装置。
1. A first video camera unit and a second video camera unit in which a mechanism for setting an imaging condition of each aperture, focus, and zoom is controlled by at least one camera control unit, and the first video. A unit for joining the camera unit and the second video camera unit, and in a plane that is substantially horizontal to a plane required by each optical axis of the first video camera unit and the second video camera unit, Optical axis direction changing means for changing the optical axis directions of the first and second video camera sections, and optical axis angle control means for controlling the optical axis angles of the first video camera section and the second video camera section. In the compound-eye image pickup apparatus having :, when power is supplied to the compound-eye image pickup layer apparatus to enable image pickup, the optical axis angle control means controls the optical axis angle control unit of the first video camera section and the second video camera section. Set the optical axis Compound-eye imaging apparatus characterized by setting the optical axis angle.
JP5211777A 1993-08-26 1993-08-26 Compound eye type image pickup device Pending JPH0767022A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP5211777A JPH0767022A (en) 1993-08-26 1993-08-26 Compound eye type image pickup device
US08/692,316 US5864360A (en) 1993-08-26 1996-08-05 Multi-eye image pick-up apparatus with immediate image pick-up

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5211777A JPH0767022A (en) 1993-08-26 1993-08-26 Compound eye type image pickup device

Publications (1)

Publication Number Publication Date
JPH0767022A true JPH0767022A (en) 1995-03-10

Family

ID=16611428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5211777A Pending JPH0767022A (en) 1993-08-26 1993-08-26 Compound eye type image pickup device

Country Status (1)

Country Link
JP (1) JPH0767022A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100452869C (en) * 2004-07-20 2009-01-14 奥林巴斯株式会社 Image generation device
JP2010050842A (en) * 2008-08-22 2010-03-04 Sony Taiwan Ltd High dynamic stitching method for multi-lens camera system
US9621873B2 (en) 2012-05-31 2017-04-11 Casio Computer Co., Ltd. Apparatus including function to generate stereoscopic image, and method and storage medium for the same
JP2020127214A (en) * 2012-06-01 2020-08-20 ウルトラデント プロダクツ インク. Stereoscopic video imaging

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100452869C (en) * 2004-07-20 2009-01-14 奥林巴斯株式会社 Image generation device
JP2010050842A (en) * 2008-08-22 2010-03-04 Sony Taiwan Ltd High dynamic stitching method for multi-lens camera system
US9621873B2 (en) 2012-05-31 2017-04-11 Casio Computer Co., Ltd. Apparatus including function to generate stereoscopic image, and method and storage medium for the same
JP2020127214A (en) * 2012-06-01 2020-08-20 ウルトラデント プロダクツ インク. Stereoscopic video imaging

Similar Documents

Publication Publication Date Title
US5864360A (en) Multi-eye image pick-up apparatus with immediate image pick-up
JP6641470B2 (en) Stereo camera and stereo camera control method
US5699108A (en) Multi-eye image pickup apparatus with multi-function finder screen and display
JP3905736B2 (en) Stereo image pickup device and automatic congestion adjustment device
JP4428761B2 (en) Stereo camera
US20020140835A1 (en) Single sensor chip digital stereo camera
JP2001218228A (en) Optical system for stereoscopic image photographing, and stereoscopic image photographing device using the same
JPH10155104A (en) Compound eye image pickup method and device and storage medium
JPH0767024A (en) Compound eye type image pickup device
US20130169761A1 (en) Image capturing device
JPH06339155A (en) Three-dimensional image pickup system
JPH0767023A (en) Compound eye type image pickup device
JPH0767022A (en) Compound eye type image pickup device
JP2001257928A (en) Object tracking device
JP2018134712A (en) Robot system and control method for robot system
JPH1066106A (en) Double-eye camera system
JPH10145649A (en) Dual eye image pickup device
JP4289712B2 (en) Focus detection device and ranging device
JPH08205200A (en) Three-dimensional image pickup device
JPH06105339A (en) Stereoscopic camera device
JPH0715749A (en) Compound-eye image pickup device
JP2001016620A (en) Image pickup device, its convergence distance decision method, storage medium and optical device
JP2000152282A (en) Stereoscopic picture photographing device
JP2001016619A (en) Image pickup device, its convergence distance decision method, storage medium and optical device
JPH0888868A (en) Compound eye image pickup device