JPH0832863A - Electronic image pickup device - Google Patents

Electronic image pickup device

Info

Publication number
JPH0832863A
JPH0832863A JP6167967A JP16796794A JPH0832863A JP H0832863 A JPH0832863 A JP H0832863A JP 6167967 A JP6167967 A JP 6167967A JP 16796794 A JP16796794 A JP 16796794A JP H0832863 A JPH0832863 A JP H0832863A
Authority
JP
Japan
Prior art keywords
image pickup
image
partial
electronic
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6167967A
Other languages
Japanese (ja)
Other versions
JP3619541B2 (en
Inventor
Hitoshi Hashimoto
仁史 橋本
Takashi Shoji
隆 庄司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP16796794A priority Critical patent/JP3619541B2/en
Publication of JPH0832863A publication Critical patent/JPH0832863A/en
Application granted granted Critical
Publication of JP3619541B2 publication Critical patent/JP3619541B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide an image pickup device in which acquisition of information relating to optimum focusing is realized in the electronic image pickup device where image information to plural partial areas is combined and processed to obtain one object image. CONSTITUTION:The image pickup device is an OA camera where sets of information representing a partial image depending on outputs of an image pickup element CCD 3 corresponding to plural image pickup fields relating to the scanning of a rotary mirror 24 rotated in the image pickup field of the CCD 3 respectively are combined to obtain information representing one total image and provided with a focus calculation circuit 16 which obtains information relating to the focusing based on the information representing each partial image corresponding to the valid field being a definite field obtained by excluding an undesired field from the field corresponding to the entire image.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、電子的撮像装置、詳し
くは、特に被写体領域を複数領域に分割して撮影し、各
分割領域の撮像信号を合成して高精細な画像を得る電子
的撮像装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic image pickup apparatus, and more particularly to an electronic image pickup apparatus which divides a subject region into a plurality of regions for photographing and combines the image pickup signals of the respective divided regions to obtain a high-definition image. The present invention relates to an imaging device.

【0002】[0002]

【従来の技術】2次元に広がる被写体を撮像する撮像手
段が、フライングスポットスキャナ,ファクシミリ,コ
ピー機等の装置に広く用いられている。これらの撮像手
段は、被写体領域を純電子的に走査するのではなく、純
機械的に走査したり、あるいは、ラインセンサを用いて
1次元を電子的に走査し、他の1次元を機械的に走査す
るものである。
2. Description of the Related Art Image pickup means for picking up an image of a subject that spreads in two dimensions is widely used in devices such as flying spot scanners, facsimiles, and copying machines. These image pickup means do not scan the subject area purely electronically but purely mechanically, or electronically scan one dimension using a line sensor and mechanically scan the other one dimension. To scan.

【0003】ところで、近年、会議や講演会等におい
て、ホワイトボードや黒板に書かれた文字や図形等の情
報を撮像素子を組み込んだカメラで一括撮影し、極めて
簡単に情報収集を可能としたものであって、単一撮像素
子を組み込み、1被写体に対して上記撮像素子による1
撮像画面を得るような通常のカメラの撮像形式をもつ
「OAカメラ」や「黒板カメラ」等と称される携帯型の
カメラが開発されている。
By the way, in recent years, at conferences and lectures, information such as characters and figures written on a whiteboard or a blackboard is collectively photographed by a camera incorporating an image pickup element, and information can be collected very easily. Incorporating a single image pickup device, one image pickup device is used for one subject.
Portable cameras called "OA cameras" and "blackboard cameras" that have an ordinary camera image pickup format for obtaining an image pickup screen have been developed.

【0004】一般に、文字等の画像情報は細かく、従来
の2次元撮像素子を用いて純電子的走査により撮影しよ
うとすると、文字情報の判読が可能な程度の解像度を得
るには、必要とする素子の画素数が極めて多くなり、製
造が困難となり、コスト高となる。
Generally, image information such as characters is fine, and it is necessary to obtain a resolution such that the character information can be read when a conventional two-dimensional image pickup device is used to capture an image by pure electronic scanning. The number of pixels of the element becomes extremely large, manufacturing becomes difficult, and cost becomes high.

【0005】また、前記のような純機械的走査やライン
センサと機械的走査の組み合わせ方式では、装置が複雑
化し、大型化するだけでなく、画像取り込み時間が長く
なってしまうという不具合もあった。
Further, the above-mentioned pure mechanical scanning or the combination of the line sensor and the mechanical scanning has a problem that not only the apparatus becomes complicated and large but also the image taking time becomes long. .

【0006】そこで、上記1被写体に対して1撮像画面
を得るOAカメラ等に対して、より高精細な画像を得る
ものとして、製造が容易で比較的安価な実用的な画素数
を持つCCDなどの単一撮像素子により撮像系を構成す
るものであって、更に、撮像光学系中に走査用の可動ミ
ラー手段を配設する画面分割撮影式OAカメラが考えら
れる。この画面分割撮影式OAカメラは、該可動ミラー
が各走査回動位置にあるときに、該回動位置に対応する
分割された被写体部分の画像を撮像素子で撮像し、その
複数の撮像画面を貼り合わせることによって1枚の撮影
画像情報を得るものである。
Therefore, in order to obtain a higher-definition image for an OA camera or the like which obtains one image-pickup screen for one subject, a CCD having a practical number of pixels which is easy to manufacture and relatively inexpensive, etc. An image-capturing OA camera in which an image-capturing system is configured by a single image-capturing device, and further, movable mirror means for scanning is arranged in the image-capturing optical system is considered. When the movable mirror is at each scanning rotation position, this split-screen OA camera captures an image of a divided subject portion corresponding to the rotation position by an image sensor, and displays the plurality of imaging screens. One piece of photographed image information is obtained by pasting.

【0007】このようなカメラにおいては、被写体領域
を複数領域、例えば、2乃至10数領域に分割した状態
で、上記可動ミラー手段で被写体領域を走査することに
より、被写体領域を複数領域、例えば、2乃至10数領
域に分割した状態で順次撮影する。撮影後、得られた複
数の部分領域に対する画像情報を貼り合わせ処理して1
枚の被写体画像を得る。この結果、携帯可能な大きさの
装置であって、比較的短時間に広い領域についての高精
細な画像の取り込みが可能となる。このようなカメラと
して、本出願人が先に出願した特願平5―246390
号のカメラがある。
In such a camera, the subject area is divided into a plurality of areas, for example, two to ten or more areas, and the subject area is scanned by the movable mirror means, so that the subject area is divided into a plurality of areas. The images are sequentially taken in a state of being divided into 2 to 10 or more areas. After shooting, the image information for the obtained plurality of partial areas is combined to perform 1
Acquire one subject image. As a result, it is possible to capture a high-definition image in a wide area in a relatively short time with a portable device. As such a camera, Japanese Patent Application No. 5-246390 filed by the applicant earlier
I have a camera.

【0008】また同じく、上記複数の部分領域に対する
画像情報を貼り合わせ、即ち、組み合わせ処理をして1
枚の被写体画像を得る画面分割撮影式OAカメラは、撮
像光学系中に光路を複数に分割するハーフミラーを配設
し、それを複数の比較的安価な実用的画素数をもつ撮像
素子で撮像する構成も考えられる。
Similarly, the image information for the plurality of partial areas is pasted, that is, the combination processing is performed, and
A split-screen OA camera that obtains a single image of a subject is provided with a half mirror that divides an optical path into a plurality of parts in an image pickup optical system, and an image pickup device having a plurality of relatively inexpensive practical pixels is used to pick up the image. It is also conceivable to configure.

【0009】[0009]

【発明が解決しようとする課題】上述の画面分割方式O
Aカメラでは、被写体の全体画像がばらばらに分割され
た状態で取り込まれる。従って、取り込まれる部分画像
のどの範囲を合焦すべきエリアとしてのAF(自動合焦
制御)エリアにすれば、全体画像として最適なAFエリ
アが実現されるかが明らかになっていない。また、一般
の銀塩カメラやビデオカメラ等では、中央重点のAFエ
リアが公知となっているが、上記OAカメラでも、白板
の外側(背景)に合焦してしまうのを防ぐために、中央
重点のAFエリア、もしくは、背景をカットしたAFエ
リアを採用したものとしたい。しかし、上記従来の画面
分割撮影式OAカメラではこういったAFエリアの規定
に関する提案がされていない。
The above-mentioned screen division method O
In the A camera, the entire image of the subject is captured in a state of being divided into pieces. Therefore, it has not been clarified which range of the partial image to be captured is set as an AF (automatic focusing control) area as an area to be focused and an optimal AF area is realized as the entire image. In general silver-salt cameras, video cameras, etc., the center-focused AF area is known, but even in the above OA camera, the center-focused AF area is prevented in order to prevent focusing on the outside (background) of the white plate. I would like to adopt the AF area or the AF area with the background cut. However, in the above-mentioned conventional split-screen OA camera, no proposal has been made regarding the definition of such an AF area.

【0010】本発明は、上述の不具合を解決するために
なされたものであり、上記複数の部分領域に対する画像
情報を組み合わせ処理をして1枚の被写体画像を得る電
子的撮像装置において、最適な合焦度合いに係る情報を
得ることができる撮像装置を提供することを目的とす
る。
The present invention has been made in order to solve the above-mentioned inconvenience, and is most suitable for an electronic image pickup apparatus which obtains one subject image by performing a combination process of image information for the plurality of partial areas. An object of the present invention is to provide an imaging device capable of obtaining information on the degree of focus.

【0011】[0011]

【課題を解決するための手段】本発明の電子的撮像装置
は、撮像手段の撮像視野を切換えて走査し該走査に係る
複数の撮像視野に夫々対応する上記撮像手段の出力に依
拠した各個の部分画像を表す情報を組み合わせて一つの
全体画像を表す情報を得るようになされた電子的撮像装
置であって、上記全体画像の対応する視野から所定の不
要視野を除外した限定視野の各該当部分たる有効部分視
野にそれぞれ対応する上記各個の部分画像を表す情報に
基づいて合焦度合いに係る情報を得る手段を備えたこと
を特徴とする。
In the electronic image pickup apparatus of the present invention, each image pickup field of the image pickup section is switched to perform scanning, and each of the plurality of image pickup fields corresponding to a plurality of image pickup fields of the scanning is relied upon. An electronic imaging device adapted to obtain information representing one whole image by combining information representing partial images, each corresponding part of a limited visual field excluding a predetermined unnecessary visual field from the corresponding visual field of the whole image It is characterized by further comprising means for obtaining information relating to the degree of focusing based on the information representing each of the partial images corresponding to the respective effective partial visual fields.

【0012】上記電子的撮像装置においては、上記全体
画像のうち、有効部分視野に夫々対応する上記各個の部
分画像を表す情報に基づいて合焦度合いに係る情報を得
て、その合焦度合いに係る情報により合焦が行われる。
In the electronic image pickup apparatus, information on the degree of focusing is obtained based on the information representing each of the partial images corresponding to the effective partial field of view in the entire image, and the degree of focusing is obtained. Focusing is performed based on the information.

【0013】[0013]

【実施例】以下、本発明の実施例の詳細な説明に先立っ
て、その概要から説明する。本発明の実施例の電子的撮
像装置であるOAカメラは、図1、図3、または、図4
の撮影画面を示す図のように、全被写体の全撮影視野に
対応する全体画面G0 、G1 、G2 を複数の撮像視野の
領域R01、R02,R03,R04、または、R11,R12,R
13,R14、または、R21,R22,R23,R24に分割し
て、各分割領域の画像を、全体画像よりも低い精細度の
個々の部分画像を得るための撮像素子で撮影し、各分割
領域の撮像信号を合成して1つの全体画像としての高精
細な画像を得る電子的撮像装置である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Prior to the detailed description of the embodiments of the present invention, the outline thereof will be described below. The OA camera, which is the electronic image pickup apparatus according to the embodiment of the present invention, is provided in FIG. 1, FIG. 3, or FIG.
As shown in the figure, the entire screen G0, G1, and G2 corresponding to the entire field of view of all the subjects is displayed in a plurality of fields R01, R02, R03, R04 of the field of view, or R11, R12, R.
13, R14, or R21, R22, R23, R24, and the image of each divided area is photographed by an image pickup device for obtaining an individual partial image having a lower definition than the whole image, and each divided area is photographed. The electronic image pickup apparatus obtains a high-definition image as one whole image by synthesizing the image pickup signals of.

【0014】特に本発明の実施例のカメラは、各分割領
域の撮影のための合焦度合いに係る合焦情報の取り込み
方法に特徴を有する。即ち、該合焦情報を取り込む場
合、上記全撮影画面の対応する視野から各分割領域画面
のうち背景を、不要視野部分であるとしてカットして、
その有効エリアを有効視野部分として、適切な上記合焦
情報を検出するエリアであるAF(自動合焦制御)エリ
アを規定する。なお、上記背景としてカットされた部分
は、その部分における画像情報が合焦情報、輝度情報を
抽出する際に対象として扱われない部分となる。
In particular, the camera of the embodiment of the present invention is characterized by a method of fetching focus information relating to the degree of focus for photographing each divided area. That is, when capturing the focus information, the background of each divided area screen is cut as an unnecessary field of view from the fields of view corresponding to all the shooting screens,
An AF (automatic focusing control) area, which is an area for detecting appropriate focusing information, is defined by using the effective area as an effective visual field portion. The portion cut as the background is a portion where the image information in the portion is not treated as a target when the focus information and the luminance information are extracted.

【0015】そこで、上記実施例に適用可能ないくつか
のAFエリアの形態について説明すると、図1の撮影画
面に示すAFエリアの形態規定例は、全撮影画面である
全体画面G0 について、周辺部(斜線で示す)の背景部
分をカットしてAFエリアA0 を規定したパターン例で
ある。そして、本全体画面G0 の撮像情報は、分割画面
の領域R01を1番目、領域R02を2番目、領域R03を3
番目、領域R04を4番目という具合に4つの部分領域に
分割して取り込まれるものとする。
Now, some forms of AF areas applicable to the above-mentioned embodiment will be described. In the example of defining the form of the AF area shown in the photographing screen of FIG. This is a pattern example in which the AF area A0 is defined by cutting the background portion (shown by diagonal lines). Then, the image pickup information of the main entire screen G0 is such that the region R01 of the divided screen is first, the region R02 is second, and the region R03 is third.
It is assumed that the fourth region R04 is acquired by dividing the fourth region R04 into the fourth region.

【0016】そして、上述のように純粋に上下、左右の
背景部分をカットしたいので、図2に示すようにAFエ
リアの形態タイプとしては、分割画像の上下と左辺部を
背景B1 としてカットした領域A1 をAFエリアとする
タイプT1 (図2の(A))と、分割画像の上下辺部を
背景B2 としてカットした領域A2 をAFエリアとする
タイプT2 (図2の(B))と、分割画像の上下と右辺
部を背景B3 としてカットした領域A3 をAFエリアと
するタイプT3 (図2の(C))の3タイプに分けられ
る。
Since it is desired to cut the upper, lower, left and right background portions purely as described above, the morphology type of the AF area as shown in FIG. 2 is a region in which the upper and lower portions of the divided image and the left side portion are cut as the background B1. Type T1 (A in FIG. 2) where A1 is the AF area, and type T2 (A in FIG. 2B) where AF2 is the area A2 that is cut with the upper and lower sides of the divided image as the background B2. There are three types of type T3 ((C) in FIG. 2) in which an area A3 obtained by cutting the upper and lower sides and the right side of the image as the background B3 is the AF area.

【0017】上述のように上記図1に示すAFエリア規
定例では、全画面の背景として上下左右をカットするの
で、上述のように取り込む部分画像によって異なる形態
のAFエリアのタイプになる。また、この例ではAFエ
リア全体が複数、この場合では4枚であるが、4枚の部
分画像に跨ったAFエリアになっている。
As described above, in the example of defining the AF area shown in FIG. 1 above, the background of the entire screen is cut vertically and horizontally, so that the type of AF area differs depending on the partial image to be captured as described above. Further, in this example, there are a plurality of AF areas as a whole, and in this case, there are four AF areas, but the AF areas extend over four partial images.

【0018】図3に示す撮影画面のAFエリアの形態規
定例は、1つの全体画像の撮影画面である全体画面G1
について、分割画面のそれぞれについて周辺の上下、左
右辺部(斜線で示す)を背景部分としてカットして、A
Fエリアを規定した形態例である。本全体画面G1 の撮
像情報も、分割画面の領域R11を1番目、領域R12を2
番目、領域R13を3番目、領域R14を4番目という具合
に4つの部分領域に分割して取り込まれるものとする。
The form definition example of the AF area of the photographing screen shown in FIG. 3 is the whole screen G1 which is a photographing screen of one whole image.
For each of the split screens, cut the top, bottom, left and right sides (indicated by diagonal lines) around the background as background parts, and
It is an example of a form that defines the F area. Regarding the imaging information of the entire screen G1, the area R11 of the divided screen is the first area and the area R12 is 2 areas.
The region R13 is divided into four partial regions such that the region R13 is the third region and the region R14 is the fourth region.

【0019】そして、各分割領域において、上下辺領域
B11、B12、B13、B14がカットされた領域A11、A1
2、A13、A14がAFエリアとなるが、これらのAFエ
リアは各領域の同じ部分をカットする同一形態のエリア
となる。上記図3の適用例は簡易的な背景カット処理に
なるが、4回取り込む分割画像毎のAFエリアが全て同
一形態になり、処理がやり易いというメリットがある。
また、この場合もAFエリアが4枚の部分画像に跨った
AFエリアになる。
Then, in each divided area, areas A11, A1 obtained by cutting the upper and lower side areas B11, B12, B13, B14
Although AF areas A2 and A13 are AF areas, these AF areas are areas of the same shape in which the same portion of each area is cut. The application example of FIG. 3 described above is a simple background cutting process, but there is an advantage that the AF area for each of the divided images captured four times has the same form and the process is easy.
Also in this case, the AF area is also an AF area extending over four partial images.

【0020】図4の撮影画面のAFエリアの規定例は、
1つの全体画像の撮影画面である全体画面G2 につい
て、上下辺部(斜線で示す)を背景部分としてカットし
て、AFエリアを規定したパターン例である。本全体画
面G2 の撮像情報も、分割画面の領域R21を1番目、領
域R22を2番目、領域R23を3番目、領域R24を4番目
という具合に4つの部分領域に分割して取り込まれるも
のとする。そして、各分割領域において、周辺領域B2
1、B22、B23、B24が削除された領域A21、A22、A2
3、A24をAFエリアとする。この例でも、4回取り込
む分割画像毎のAFエリアの形態が全て同じ形になると
いうメリットがある。また、この場合は、全体画像の上
下左右辺部を背景としてカットすることができる。
An example of defining the AF area on the photographing screen of FIG.
This is a pattern example in which an AF area is defined by cutting the entire upper and lower sides (shown by diagonal lines) of the entire screen G2, which is a shooting screen of one entire image, as the background portion. The image pickup information of the entire screen G2 is also captured by dividing the area R21 of the divided screen into the first area, the area R22 into the second area, the area R23 into the third area, and the area R24 into the fourth area. To do. Then, in each divided area, the peripheral area B2
Areas A21, A22, A2 in which 1, B22, B23, B24 are deleted
3, A24 is the AF area. Also in this example, there is an advantage that the shapes of the AF areas for each of the divided images captured four times are the same. In this case, the upper, lower, left and right sides of the entire image can be cut as the background.

【0021】以下、本発明の各実施例の詳細について図
に基づいて説明する。図5は、本発明の第1実施例の電
子的撮像装置としてのOAカメラのブロック構成図であ
る。本実施例のカメラは、撮像素子への入射光路に介挿
された光学要素であるミラー24(図5参照)の回動変
位によって全撮影画像に対応する視野を複数の分割領
域、即ち、前記図1〜4に示すような1/4分割領域の
画像を取り込む。その部分画像情報を貼り合わせて、1
つの全体画像の撮影画面情報を得るカメラである。
The details of each embodiment of the present invention will be described below with reference to the drawings. FIG. 5 is a block diagram of an OA camera as an electronic image pickup apparatus according to the first embodiment of the present invention. In the camera of this embodiment, the field of view corresponding to the entire photographed image is divided into a plurality of divided regions by the rotational displacement of the mirror 24 (see FIG. 5) which is an optical element inserted in the incident optical path to the image sensor, Images of ¼ divided areas as shown in FIGS. 1 to 4 are captured. The partial image information is pasted together and 1
It is a camera that obtains the shooting screen information of two whole images.

【0022】まず、本実施例のOAカメラの構成につい
て説明する。本カメラにおいて、撮影光は、上記ミラー
24で反射し、絞り1、撮影レンズ2を通り、撮像手段
としての撮像素子CCD3に入射する。CCD3の出力
信号を撮像処理回路4で映像信号に変換し、BPF(バ
ンドパスフィルタ)5でAF用高周波コントラスト信
号、即ち、AF信号となる高周波成分を、また、LPF
(ローパスフィルタ)6でAE(自動露出制御)用輝度
信号、即ち、AE信号となる低周波成分をそれぞれ抽出
する。
First, the structure of the OA camera of this embodiment will be described. In the present camera, the photographing light is reflected by the mirror 24, passes through the diaphragm 1 and the photographing lens 2, and is incident on the image pickup device CCD 3 as an image pickup means. The image pickup processing circuit 4 converts the output signal of the CCD 3 into a video signal, and a BPF (bandpass filter) 5 converts an AF high-frequency contrast signal, that is, a high-frequency component to be an AF signal, into an LPF.
A (low-pass filter) 6 extracts a luminance signal for AE (automatic exposure control), that is, a low-frequency component that becomes an AE signal.

【0023】切り換えスイッチ(以下、スイッチはSW
と記載する)7で上記AF信号/AE信号を切り換え、
合焦情報・輝度情報加算手段としてのエリア積算回路9
でエリア形態有効部分視野規定手段を内蔵するCPU1
0からのエリア形態指示信号により指示されたエリア内
のデータの積算を行う。
Changeover switch (hereinafter, the switch is SW
The above AF signal / AE signal is switched with 7.
Area integration circuit 9 as means for adding focus information / luminance information
CPU with built-in area shape effective partial visual field defining means
The data in the area designated by the area form designation signal from 0 is integrated.

【0024】上記エリア積算回路9は、ミラー24の後
述する各ミラー回動位置M1、M2,M3,M4毎に切
り換えSW7を切り換えることにより、AF信号、AE
信号のエリア積算を行いメモリ15にその結果を書き込
む。なお、上記エリア積算回路9には1/4分割画面分
のAF信号、AE信号エリア積算結果のメモリが内蔵さ
れ、一方、メモリ15は全画面分のAF信号、AE信号
エリア積算結果を記憶するメモリである。
The area integrating circuit 9 switches the switching SW7 for each mirror rotation position M1, M2, M3, M4 of the mirror 24, which will be described later.
Area integration of signals is performed and the result is written in the memory 15. The area integration circuit 9 has a built-in memory for the AF signals and AE signal area integration results for the 1/4 split screen, while the memory 15 stores the AF signals and AE signal area integration results for the entire screen. It is a memory.

【0025】合焦演算回路16は、合焦度合いに係る情
報を得る手段であって、対応する視野内の画像情報の加
算、および、重み付け手段、更に、輝度分布を検出する
輝度分布検出手段を内蔵しており、メモリ15に書き込
まれたAF、AE信号エリア積算結果に基づき、1/4
分割画面の4枚分のAF信号の単純加算、重み付け加算
等を行い、合焦値、即ち、AF処理のためのコントラス
トデータを求める。なお、この合焦値算出は、CPU1
0内で演算してもよい。
The focus calculation circuit 16 is means for obtaining information relating to the degree of focus, and includes means for adding and weighting image information in the corresponding field of view, and brightness distribution detecting means for detecting brightness distribution. Built-in, 1/4 based on the AF and AE signal area integration results written in the memory 15.
By performing simple addition, weighted addition, etc., of the AF signals for the four divided screens, the focus value, that is, the contrast data for the AF processing is obtained. Note that this focusing value calculation is performed by the CPU 1
It may be calculated within 0.

【0026】上記CPU10は、全体のシーケンスコン
トロール及びAF、AEの演算等を行う。そして、入力
端子P5に入力されたAF信号をもとに合焦位置を示す
コントラストデータのピーク点を演算する山登りAF演
算処理を行う。そして、出力端子P6より出力されるモ
ータ駆動信号によりAFモータ駆動回路17を介してA
Fモータ18を駆動し、撮影レンズ2を上記合焦位置に
移動させて、ピントを合わせる。同様にAE信号を基づ
いて出力端子P7より出力される絞りモータ駆動信号に
より絞りモータ駆動回路19を介して絞りモータ20で
絞り1を駆動し、適正露出状態に設定する。
The CPU 10 performs overall sequence control and AF / AE calculation. Then, based on the AF signal input to the input terminal P5, a hill-climbing AF calculation process for calculating the peak point of the contrast data indicating the in-focus position is performed. Then, the motor drive signal output from the output terminal P6 is used to output A through the AF motor drive circuit 17.
The F motor 18 is driven to move the taking lens 2 to the in-focus position, and the focus is adjusted. Similarly, based on the AE signal, the diaphragm motor drive signal output from the output terminal P7 drives the diaphragm 1 by the diaphragm motor 20 via the diaphragm motor drive circuit 19 to set the proper exposure state.

【0027】更に、出力端子P8より出力されるミラー
駆動信号によりミラーモータ駆動回路21を介して光学
要素駆動手段であるミラーモータ22により光学要素で
あるミラー24を回転駆動させる。その回動位置は、全
撮影画面の視野を4分割したときの分割領域、例えば、
図1の各領域R01、R02、R03、R04に対応する画像を
CCD3に取り込むことができる順次の回動位置M1、
M2、M3、M4の4位置とする。
Further, a mirror drive signal output from the output terminal P8 causes a mirror motor drive circuit 21 to rotate a mirror 24 which is an optical element by a mirror motor 22 which is an optical element drive means. The rotation position is a divided area when the field of view of the entire shooting screen is divided into four, for example,
Sequential rotation positions M1 at which images corresponding to the respective regions R01, R02, R03, and R04 in FIG.
There are four positions of M2, M3, and M4.

【0028】ROM12は、有効部分視野を規定する情
報の記憶手段であって、単数または複数のエリア形態が
記憶されており、上記CPU10で選択してエリア積算
回路9にエリア形態を指示する形態指示信号を出力す
る。
The ROM 12 is a storage means for storing information that defines the effective partial field of view, and stores one or a plurality of area forms. The form instruction is made by the CPU 10 to instruct the area integration circuit 9 of the area form. Output a signal.

【0029】形態設定SW11は、撮影者が被写体の形
態を設定するスイッチである。このスイッチの出力に基
づいて、CPU10内の形態認識手段によって被写体の
形態を認識する。更に、CPU10内の有効部分視野に
対応するAFエリアを規定する。上記形態設定SW11
は、例えば、通常モード/白板モードの切り換えを行う
スイッチで構成される。この場合、通常モードでは、A
Fエリアとして前記図1のように周辺部の背景をカット
をして有効部分視野に対応するAFエリアを規定し、白
板モードの場合は、白板形状は横長の場合が多いため、
前記図2のように上下辺のみをカットしたAFエリアを
規定する。
The form setting SW 11 is a switch for the photographer to set the form of the subject. Based on the output of this switch, the form recognition means in the CPU 10 recognizes the form of the subject. Further, the AF area corresponding to the effective partial visual field in the CPU 10 is defined. The form setting SW11
Is composed of, for example, a switch for switching between the normal mode and the white plate mode. In this case, in normal mode, A
As shown in FIG. 1, the peripheral background is cut as the F area to define the AF area corresponding to the effective partial field of view. In the white plate mode, the white plate shape is often horizontally long,
An AF area is defined by cutting only the upper and lower sides as shown in FIG.

【0030】また、変形例として文字等の原稿を被写体
とするものであって、上記形態設定SW11として横原
稿/縦原稿モードSWを適用し、原稿の方向によりエリ
ア形態を設定するものも考えられる。なお、図5に示す
本実施例のものでは、被写体形態の設定は、形態設定S
W11を手動で切り換えて設定するようになっている
が、CPUに取り込まれたAF情報、AE情報を基づい
て、上記のような被写体の形態を判断し、CPUで自動
判別させることも可能である。
As a modified example, a document such as characters may be used as a subject, and a horizontal document / vertical document mode SW may be applied as the form setting SW 11 to set the area form according to the direction of the document. . In the present embodiment shown in FIG. 5, the setting of the subject form is performed by the form setting S.
Although W11 is manually set and set, it is also possible to determine the above-mentioned subject shape based on the AF information and AE information fetched by the CPU, and automatically determine by the CPU. .

【0031】さて、合焦処理完了後に、前記撮像処理回
路4の出力は、メモリ23に接続され、そして、もう一
度ミラー24をM1、M2、M3、M4へ回動駆動させ
ることにより、合焦後の分割領域毎の全画像情報をメモ
リ23に取り込む。
After the focusing processing is completed, the output of the image pickup processing circuit 4 is connected to the memory 23, and the mirror 24 is driven to rotate again to M1, M2, M3, and M4, so that the focusing is performed. All the image information for each of the divided areas is loaded into the memory 23.

【0032】貼り合わせ回路13では、各1/4の分割
画面の画像のつなぎ目を一致させる組み合わせ処理とし
ての貼り合わせ処理を施す。この貼り合わせ処理は、ミ
ラー24の回動の機械的誤差や、撮影中の手ブレ等によ
り画像のつなぎ目がずれる可能性があるため、隣同志の
画像の相関を取って貼り合わせための位置合わせ処理を
行う。この位置合わせ処理の手法は、特願平5−246
390号公報において、被写体領域を分割して撮影し、
分割領域撮像信号を合成するカメラの画像処理法とし
て、その詳細が記載されている。上記貼り合わせ処理が
行われ、1つの全体画像として組み合わされた画像情報
は、記録回路14を介して、メモリカード、ハードディ
スク等の記録媒体に記録される。
The laminating circuit 13 performs a laminating process as a combination process for matching the joints of the images of the 1/4 split screens. In this bonding process, since there is a possibility that the joints of the images may be displaced due to a mechanical error of the rotation of the mirror 24, camera shake during shooting, etc., the positioning for the bonding by taking the correlation between the images of the adjacent comrades. Perform processing. This alignment processing method is described in Japanese Patent Application No. 5-246.
In Japanese Patent No. 390, the subject area is divided and photographed,
The details are described as an image processing method of a camera that synthesizes divided area imaging signals. The image information combined as one whole image by the above-mentioned bonding process is recorded on a recording medium such as a memory card or a hard disk via the recording circuit 14.

【0033】以上のように構成された図5の第1実施例
のカメラにおけるミラースキャンを行う場合の全体の撮
影シーケンスについて、図6のフローチャートにより説
明する。まず、ステップS1100でミラー24を中央
回動位置まで駆動する。この中央回動位置とは、4回画
像を取り込む全回動範囲の中央の位置、即ち、回動位置
M2とM3の間の位置でもよく、また、回動位置M2と
M3の何れかの位置でもよい。
The entire photographing sequence in the case of performing the mirror scan in the camera of the first embodiment of FIG. 5 configured as described above will be described with reference to the flowchart of FIG. First, in step S1100, the mirror 24 is driven to the central rotation position. The center rotation position may be a center position of the entire rotation range for capturing an image four times, that is, a position between the rotation positions M2 and M3, or any one of the rotation positions M2 and M3. But it's okay.

【0034】そして、上述のようにミラー24を中央回
動位置、もしくは、前記回動位置M2、または、M3に
駆動させ、その回動状態で輝度データを取り込み(ステ
ップS1101)、その輝度データを基にAEの露出条
件を固定する(ステップS1102)。
Then, as described above, the mirror 24 is driven to the central rotation position or the rotation position M2 or M3, and the brightness data is fetched in that rotation state (step S1101). The exposure conditions of the AE are fixed based on this (step S1102).

【0035】次に、S1103でAF処理、即ち、合焦
処理を行うが、そのAF処理を行う前にAEの露出条件
を決めて置く必要がある。即ち、4領域の画像を4回の
撮影で取り込むのだが、その分割画像を取り込む度にA
Eの露出条件を変えていたのでは、4回分の画像情報に
基づいて様々なAF処理を行う際に基準となる条件が得
られず比較ができなくなってしまう。従って、AF処理
を行う前の上記ステップS1102にてAEの露出条件
を固定する必要がある。
Next, in step S1103, AF processing, that is, focusing processing is performed. Before performing the AF processing, it is necessary to determine and set exposure conditions for the AE. In other words, the images in the four areas are captured by four shots.
If the exposure condition of E is changed, the condition as the reference cannot be obtained when various AF processes are performed based on the image information for four times, and comparison cannot be performed. Therefore, it is necessary to fix the AE exposure condition in step S1102 before performing the AF process.

【0036】上記AF処理を行って、合焦した後にステ
ップS1104で記録処理を行う。この記録処理は、ミ
ラー24を回動して各分割領域の画像情報をメモリ23
に取り込み、CPU10の指示に基づき画像貼り合わせ
回路13において前記貼り合わせ処理を行い、1つの全
体画像としての画像情報を生成し、該画像情報を記録回
路14を介して記録媒体に記録する。そして、本撮影の
シーケンスを終了する。
After the AF process is performed and focusing is performed, a recording process is performed in step S1104. In this recording process, the mirror 24 is rotated to display the image information of each divided area in the memory 23.
, The image combining circuit 13 performs the combining process based on an instruction from the CPU 10, generates image information as one whole image, and records the image information on a recording medium via the recording circuit 14. Then, the sequence of the main photographing is ended.

【0037】図7のフローチャートにより、ミラー24
のスキャン位置、即ち、回動位置によってAFエリアの
形態が異なる場合のAF処理について説明する。この処
理において、CPU10において、前記形態設定SW1
1で設定された被写体の状態を認識し、AFエリアの形
態を規定するが、上記形態設定SW11が前述した通常
モードを指定した状態にあるときの処理として説明す
る。
According to the flow chart of FIG. 7, the mirror 24
The AF processing when the form of the AF area differs depending on the scan position, that is, the rotation position will be described. In this processing, in the CPU 10, the form setting SW1
Although the state of the subject set in 1 is recognized and the form of the AF area is defined, the process will be described when the form setting SW 11 is in the state in which the normal mode is specified.

【0038】まず、ステップS100でミラーを回動位
置M1に駆動し、ステップS101でエリア形態認識を
行う。この場合、図1のAFエリアの例を用いて説明す
ると、上記回動位置M1にミラー24が位置している状
態でCCD3に取り込まれる画像情報は、分割領域R01
の画像データであり、その場合のAFエリアとしては、
図2の(A)に示したタイプT1 を適用した上下と左を
カットしたAFエリアA1 が規定され、それに対応する
図1のAFエリアA01が設定される。
First, in step S100, the mirror is driven to the rotating position M1, and in step S101 area form recognition is performed. In this case, to explain using the example of the AF area in FIG. 1, the image information taken into the CCD 3 in the state where the mirror 24 is located at the rotation position M1 is the divided area R01.
Image data, and the AF area in that case is
The AF area A1 is defined by cutting the upper and lower parts and the left part to which the type T1 shown in FIG. 2A is applied, and the corresponding AF area A01 of FIG. 1 is set.

【0039】本変形例のカメラは、図16のブロック構
成図に示すように1/4分割画面毎の合焦値算出を合焦
値算出回路16で行い、その分割画面毎の算出結果のみ
をメモリ15′に記憶させるようにしたので、毎回のミ
ラー回動時に合焦値算出を行うため、取り込み時間は少
し長くなるが、全画像のためのメモリを必要とせず、メ
モリ15′の容量を極端に小さくすることが可能とな
る。
In the camera of this modification, as shown in the block diagram of FIG. 16, the focus value calculation circuit 16 calculates the focus value for each 1/4 split screen, and only the calculation result for each split screen is displayed. Since it is stored in the memory 15 ', the focus value is calculated each time the mirror is rotated, so the capture time will be a little longer, but the memory for the entire image is not required and the capacity of the memory 15' can be saved. It becomes possible to make extremely small.

【0040】上記ステップS101でエリア形態認識を
行った後、ステップS102でミラー回動位置M1にお
ける領域R01の画像情報のコントラストデータを取り込
み、そのデータをコントラストデータD1として格納す
る。
After performing the area form recognition in step S101, the contrast data of the image information of the region R01 at the mirror rotation position M1 is fetched in step S102 and the data is stored as the contrast data D1.

【0041】その後、同様にステップS103からステ
ップS105までがミラー24を回動位置M2に回動さ
せ、領域R02(図1)に対応するタイプT2 のAFエリ
アA2 (図2の(B))が規定され、図1上AFエリア
A02の画像情報のコントラストデータを取り込み、その
データをコントラストデータD2として格納する。
After that, similarly, in steps S103 to S105, the mirror 24 is rotated to the rotation position M2 so that the AF area A2 of the type T2 (FIG. 2B) corresponding to the region R02 (FIG. 1) is formed. The specified contrast data of the image information of the AF area A02 in FIG. 1 is fetched and the data is stored as the contrast data D2.

【0042】ステップS106からステップS108で
は、ミラー24を回動位置M3に回動させ、領域R03
(図1)に対応するタイプT2 のAFエリアA2 (図2
の(B))が規定され、AFエリアA03の画像情報のコ
ントラストデータD3を取り込む。ステップS109か
らステップS111では、ミラー24を回動位置M4に
回動させ、領域R04(図1)に対応するタイプT3 のA
FエリアA3 (図2の(C))が規定され、AFエリア
A04の画像情報のコントラストデータD4を取り込む。
In steps S106 to S108, the mirror 24 is rotated to the rotation position M3, and the area R03 is formed.
AF area A2 of type T2 corresponding to (Fig. 1) (Fig. 2
(B)) is defined, and the contrast data D3 of the image information of the AF area A03 is captured. In steps S109 to S111, the mirror 24 is rotated to the rotation position M4, and A of the type T3 corresponding to the region R04 (FIG. 1).
The F area A3 ((C) in FIG. 2) is defined, and the contrast data D4 of the image information of the AF area A04 is fetched.

【0043】その後、ステップS112で合焦値を算出
する。この合焦値とは、今まで取り込んだコントラスト
データD1〜D4に様々な演算を施して得られる合焦度
合いに係る値のことである。
Then, in step S112, the focus value is calculated. The focus value is a value related to the focus degree obtained by performing various calculations on the contrast data D1 to D4 captured so far.

【0044】上記合焦値を算出した後に、ステップS1
13でその合焦値を基に山登りAF処理を行う。ステッ
プS114で上記山登りAF処理で合焦点、即ち、ピー
ク点が検出され、処理が完了したかの判定を行って、ま
だ、AF(合焦)が完全に終わっていない場合はステッ
プS100に戻って、再度コントラストデータの取り込
みを繰り返す。そして、合焦点が検出されたとき本ルー
チンを終了する。なお、本ルーチンでのAFエリアの形
態のタイプとして、図2の(A)、(B)、(C)の例
を対応させて説明したが、勿論、この形態以外のタイプ
であっても同様な処理が実行される。
After the focus value is calculated, step S1
At 13, a hill-climbing AF process is performed based on the focus value. In step S114, a focus point, that is, a peak point is detected in the hill-climbing AF process, and it is determined whether the process is completed. If AF (focusing) is not yet completed, the process returns to step S100. , Repeat acquisition of contrast data again. Then, when the in-focus point is detected, this routine ends. It should be noted that the type of the AF area form in this routine has been described in association with the examples of FIGS. 2A, 2B, and 2C, but of course the same applies to types other than this form. Processing is executed.

【0045】次に、図8のフローチャートにより、ミラ
ー24のスキャン位置、即ち、回動位置毎のAFエリア
の形態が同一である場合のAF処理について説明する。
このAF処理は、例えば、上記形態設定SW11におい
て白板モードが選択されており、図3に示すような撮影
画面を撮影するものとし、各分割画面に対するAFエリ
アの形態が共通である場合の処理である。なお、この処
理の場合は、AFエリアの形態が4回の部分画像の取り
込みで全く同じなので、図7のエリア形態認識処理は省
略される。
Next, referring to the flow chart of FIG. 8, the AF processing in the case where the scanning position of the mirror 24, that is, the form of the AF area for each rotating position is the same will be described.
This AF process is, for example, a process in the case where the whiteboard mode is selected in the form setting SW 11 and a shooting screen as shown in FIG. 3 is shot, and the form of the AF area for each split screen is common. is there. In the case of this processing, the area shape recognition processing of FIG. 7 is omitted because the shape of the AF area is exactly the same when the partial images are captured four times.

【0046】即ち、AF処理を行う場合、図8のサブル
ーチンに入り、ステップS200でミラー24を回動位
置M1に駆動する。次に、回動位置M1でのコントラス
トデータを取り込み、そのデータをコントラストデータ
D1として格納する。
That is, when performing the AF process, the subroutine of FIG. 8 is entered, and the mirror 24 is driven to the rotating position M1 in step S200. Next, the contrast data at the turning position M1 is fetched and the data is stored as the contrast data D1.

【0047】ステップS202からステップS207ま
で、ミラー24を回動位置M2、M3、M4に回動した
場合も同じ処理を行い、コントラストデータD2、D
3、D4を取り込む。ステップS208で4回に分けて
取り込んだコントラストデータD1からD4の情報を基
に合焦値の算出をする。ステップS209で合焦値を基
に山登りAFを行い、S210でAF(合焦)が完了し
たかを判定し、AFが全て完了するまでステップS20
0からステップS209を繰り返す。
From step S202 to step S207, the same processing is performed when the mirror 24 is rotated to the rotation positions M2, M3, M4, and the contrast data D2, D is obtained.
Take in 3 and D4. In step S208, the focus value is calculated based on the information of the contrast data D1 to D4 which is captured in four steps. In step S209, hill-climbing AF is performed based on the focus value, it is determined in step S210 whether AF (focus) is completed, and step S20 is performed until AF is completed.
Step S209 is repeated from 0.

【0048】次に、上記図7、8のステップS112、
または、ステップS208における合焦値の算出処理に
ついて詳細に説明する。本実施例のカメラでは、エリア
積算によって各部分の輝度分布や部分的なコントラスト
情報を知ることができる。即ち、図9の画像メモリ模式
図で示したように、例えば、分割領域R01の部分画像の
中を更に細かく32個の小さいユニットエリアで分け、
その1つのユニットエリアに対してコントラスト情報と
輝度情報が取り込めるようなハード構成になっている。
Next, step S112 of FIGS.
Alternatively, the focus value calculation process in step S208 will be described in detail. With the camera of the present embodiment, it is possible to know the brightness distribution of each part and the partial contrast information by area integration. That is, as shown in the schematic diagram of the image memory in FIG. 9, for example, the partial image of the divided region R01 is further divided into 32 small unit areas,
The hardware configuration is such that the contrast information and the brightness information can be fetched into the one unit area.

【0049】上記図1の撮影画面で説明したように全体
画像の上下、左右の背景をカットしたようなAFエリア
を適用する場合、図9の斜線部分がカットされることに
なるので、領域R01に対するコントラストデータD1と
して、カット部を除いてa0からa17の18個のデータ
が取り込まれ、領域R02に対するコントラストデータD
2として、同じくカット部を除いて、b0 からb23の2
4個のデータが取り込まれ、領域R03に対するコントラ
ストデータD3として、同じくカット部を除いて、c0
からc23までの24個のデータが取り込まれ、更に、領
域R04に対するコントラストデータD4として、同じく
カット部を除いて、d0 からd17までの18個のユニッ
トエリアのデータが取り込まれるということになる。
When an AF area in which the upper and lower and left and right backgrounds of the entire image are cut is applied as described with reference to the shooting screen of FIG. 1, the shaded portion of FIG. 18 pieces of data a0 to a17 are fetched as the contrast data D1 for the area R0, and the contrast data D1 for the area R02 are acquired.
2, except for the cut part, 2 from b0 to b23
Four pieces of data are fetched, and as contrast data D3 for the region R03, c0
This means that 24 pieces of data from c0 to c23 are captured, and further, as contrast data D4 for the area R04, data of 18 unit areas from d0 to d17 are also captured, except for the cut portion.

【0050】そこで、まず初めに考えられる第1の合焦
値の算出方法として、単純な加算の方法が考えられる。
この場合の演算式は、 合焦値=ΣDai+ΣDbi+ΣDci+ΣDdi …………(1) となる。それぞれ、a0 からa17まで、b0 からb23ま
で、c0 からc23まで、d0 からd17まで全てのユニッ
トエリアのコントラストデータDaiーDdiをそれぞれ加
算して、その結果を合焦値とする。
Therefore, as a first method of calculating the first focus value, a simple addition method can be considered.
The calculation formula in this case is: focus value = ΣDai + ΣDbi + ΣDci + ΣDdi (1) The contrast data Dai-Ddi of all the unit areas from a0 to a17, b0 to b23, c0 to c23, and d0 to d17 are added, respectively, and the result is taken as a focus value.

【0051】次に、第2の合焦値の算出方法として、高
輝度部の情報の信頼度を低くするという方法が考えられ
る。即ち、本実施例のようなOAカメラでは白板等を撮
影することが多いが、被写体としての白板等で表面に光
沢のあるものでは、図10の撮影画面G0 に示される高
輝度領域部C0 のように、被写体表面の一部で蛍光灯等
の光が直接の反射される部分が存在することがあり、周
囲の輝度AF情報によるコントラストデータは信頼度が
低くなる。この算出方法は、上述のように蛍光灯等が直
接反射するような高輝度部C0 がAFエリアA01上に存
在したとき、その部分に関しては、重み付けを低くし
て、AF情報としての信頼度を低くするという考えで合
焦値を計算するものである。
Next, as a method of calculating the second focus value, a method of lowering the reliability of the information of the high brightness portion can be considered. That is, the OA camera as in the present embodiment often photographs a white plate or the like, but if the object is a white plate or the like and the surface is glossy, the high brightness area portion C0 shown in the photographing screen G0 of FIG. As described above, there may be a part where the light of a fluorescent lamp or the like is directly reflected on a part of the surface of the subject, and the reliability of the contrast data based on the surrounding brightness AF information becomes low. According to this calculation method, when the high-intensity part C0 that the fluorescent lamp or the like directly reflects is present on the AF area A01 as described above, the part is weighted low and the reliability as AF information is improved. The focus value is calculated with the idea of lowering it.

【0052】図11は、上記合焦値演算方法を適用した
ときのAF処理のフローチャートである。なお、取り扱
う撮影画面の分割状態とAFエリアは、前記図1に示す
ものと同一とする。AF処理を実行するとき上記ルーチ
ンに入る。まず、ステップS400でミラー回動位置M
1に駆動する。続いて、ステップS401でエリア形態
を認識する。次に、ステップS402でミラー回動位置
M1での領域R01のAFエリアのコントラストデータを
取り込み、そのコントラストデータD1とする。ここま
では、図7の処理と同一である。続いて、輝度情報も必
要となるので、ステップS403では回動位置M1にお
ける領域R01のAFエリアでの輝度データも取り込む。
FIG. 11 is a flow chart of the AF process when the above focus value calculation method is applied. It should be noted that the divided state of the photographing screen and the AF area to be handled are the same as those shown in FIG. When executing the AF processing, the above routine is entered. First, in step S400, the mirror rotation position M
Drive to 1. Then, the area form is recognized in step S401. Next, in step S402, the contrast data of the AF area of the region R01 at the mirror rotation position M1 is fetched and used as the contrast data D1. The processing up to this point is the same as the processing in FIG. 7. Subsequently, since the brightness information is also required, the brightness data in the AF area of the region R01 at the turning position M1 is also fetched in step S403.

【0053】更に、ステップS404からステップS4
15まではミラー回動位置M1に対して行ったことを同
様にミラー回動位置M2、ミラー回動位置M3、ミラー
回動位置M4についても行い、コントラストデータD
2、D3、D4、および、各輝度データを取り込む。な
お、上記コントラストデータD1、D2、D3、D4
は、前述したように各ユニットエリアに対応する個々の
コントラストデータの集合を指している。
Further, steps S404 to S4
Up to 15, what has been done for the mirror rotation position M1 is similarly performed for the mirror rotation position M2, the mirror rotation position M3, and the mirror rotation position M4.
2, D3, D4, and each luminance data are captured. The contrast data D1, D2, D3, D4
Indicates a set of individual contrast data corresponding to each unit area as described above.

【0054】ステップS416で上記演算方法に基づい
て合焦値を求め、その合焦値を基にステップS417で
山登りAF処理を行う。ステップS418でAF(合
焦)処理完了と判定されるまで上記の各データの取り込
みを繰り返す。
In step S416, the in-focus value is obtained based on the above calculation method, and the hill-climbing AF process is performed in step S417 based on the in-focus value. The acquisition of each data described above is repeated until it is determined in step S418 that the AF (focusing) process is completed.

【0055】上記ステップS416の合焦値の算出につ
いての説明を図12の合焦値演算処理のフローチャート
により行う。このフローチャートに示すように合焦値の
算出は各分割領域の部分画像毎に行う。即ち、ステップ
S700で回動位置M1における分割領域R01でのコン
トラスト値である合焦値を算出してその合焦値DA と
し、同じようにステップS701では回動位置M2の合
焦値DB を、ステップS702では回動位置M3の合焦
値DC を、ステップS703では回動位置M4の合焦値
DD を算出し、最後にステップS704で上記各合焦値
DA 、DB 、DC 、DD の4つを加算して、それを全体
の合焦値とする。
The calculation of the focus value in step S416 will be described with reference to the flow chart of the focus value calculation process in FIG. As shown in this flowchart, the focus value is calculated for each partial image of each divided area. That is, in step S700, the focus value which is the contrast value in the divided region R01 at the turning position M1 is calculated and set as the focus value DA, and similarly, in step S701, the focus value DB of the turning position M2 is In step S702, the focus value DC of the rotation position M3 is calculated, in step S703, the focus value DD of the rotation position M4 is calculated, and finally, in step S704, the four focus values DA, DB, DC, and DD are calculated. Is added to obtain the overall focus value.

【0056】上記ステップS700の回動位置M1にお
ける分割領域R01の合焦値DA の演算処理を図13のフ
ローチャートを用いて具体的に説明する。上記合焦値D
A は該当する分割領域(R01)のAFエリアのコントラ
スト値の総和を示し、最初にステップS800ではそれ
を値0にリセットしておく。変数iは、前記図9に示し
た上記AFエリアの部分画像のユニットエリアa0 から
a17まである添字のことで、ステップS801ではその
変数iを0にリセットしておく。
The calculation process of the focus value DA of the divided area R01 at the turning position M1 in step S700 will be specifically described with reference to the flowchart of FIG. Focus value D
A indicates the total sum of the contrast values of the AF area of the corresponding divided area (R01), which is first reset to 0 in step S800. The variable i is a subscript existing in the unit areas a0 to a17 of the partial image of the AF area shown in FIG. 9, and the variable i is reset to 0 in step S801.

【0057】なお、ステップS802で入力される輝度
データKaiは、図9のユニットエリアaiでの画像デー
タの輝度を示す値である。また、ステップS804、8
05のコントラスト値Daiは、図9のユニットエリアa
i におけるコントラスト値を示し、合焦値DA は上記の
値Daiが積算されたものである。また、ステップS80
3に用いられる値αは、高輝度判定のためのしきい値を
示している。
The brightness data Kai input in step S802 is a value indicating the brightness of the image data in the unit area ai in FIG. Also, steps S804 and S8
The contrast value Dai of 05 is the unit area a in FIG.
The contrast value at i is shown, and the focus value DA is the sum of the above values Dai. Also, step S80
The value α used for 3 indicates a threshold value for high brightness determination.

【0058】そこで、ステップS802で上記輝度デー
タKaiを入力する。ステップS803でその入力した輝
度データKaiとしきい値αを比較する。しきい値αより
も輝度データKaiのほうが大きい場合に当該ユニットエ
リアが高輝度であると判定される。ステップS803で
ユニットエリアai の輝度Kaiがしきい値α以下と判定
された場合は、そのユニットエリアは高輝度ではないと
判定されたことになるので、ステップS804に進み、
そのコントラスト値Daiが輝度値DA に加算されて行
く。
Therefore, in step S802, the brightness data Kai is input. In step S803, the input luminance data Kai is compared with the threshold value α. When the brightness data Kai is larger than the threshold value α, it is determined that the unit area has high brightness. If it is determined in step S803 that the brightness Kai of the unit area ai is less than or equal to the threshold value α, it means that the unit area is not high in brightness, and the process proceeds to step S804.
The contrast value Dai is added to the brightness value DA.

【0059】逆に、輝度値Kaiがしきい値α以下ではな
いと判定された場合、そのユニットとは高輝度部と判定
されたことになるので、そこでのコントラストデータD
aiに重み付け係数pをかけて加算する。この実施例の場
合は、高輝度部の信頼度を低くしようという考えに基づ
いて行っているので、重み付け係数pは1より小さい値
とする。
On the contrary, if it is determined that the luminance value Kai is not less than the threshold value α, it means that the unit is determined to be a high luminance portion, and therefore the contrast data D there is determined.
Ai is multiplied by the weighting coefficient p and added. In the case of this embodiment, the weighting coefficient p is set to a value smaller than 1, since the weighting coefficient p is set based on the idea of reducing the reliability of the high-luminance portion.

【0060】ステップS807で終了と判定されるまで
繰り返しこの処理を行い、回動位置M1は変数0から1
7まで18個データがあるのでiが17以上と判定され
た場合に、このサブルーチンを終了する。
This processing is repeatedly performed until it is determined in step S807 that the rotation position M1 is variable 0 to 1
Since there are 18 data up to 7, if i is determined to be 17 or more, this subroutine is finished.

【0061】なお、上記図13の処理は、ミラー24が
回動位置M1にあるときの合焦値算出処理のみを示して
おり、他のミラー回動位置M2、M3、M4における処
理も図13の処理と同様の演算がなされ、前記合焦値D
B 、DC 、DD が算出される。それらの演算が行われた
後、図11の処理に戻る。
The processing of FIG. 13 shows only the focus value calculation processing when the mirror 24 is at the turning position M1, and the processing at the other mirror turning positions M2, M3 and M4 is also shown in FIG. The same calculation as that of the above process is performed, and the focus value D
B, DC and DD are calculated. After those calculations are performed, the process returns to the process of FIG.

【0062】以上説明した処理では、ミラー24を回動
位置M1に駆動させてそこでのコントラストデータと輝
度データの双方を取り込んで、それを記憶しておき、ス
テップS404からステップS407までのコントラス
トデータと輝度データを取り込むという具合に全てのコ
ントラストデータと輝度データをメモリ15に記憶して
おいて、最後にステップS416で合焦値算出回路16
により合焦値を算出していた。
In the processing described above, the mirror 24 is driven to the rotation position M1 and both the contrast data and the brightness data there are fetched and stored, and the contrast data from step S404 to step S407 is stored. All the contrast data and the brightness data are stored in the memory 15 in such a manner that the brightness data is fetched, and finally, in step S416, the focus value calculation circuit 16
The focus value was calculated by.

【0063】しかしながら、全体の画像1枚分のコント
ラストデータと輝度データを記憶しておかなければなら
ないということで大きな容量のメモリを持たなければな
らないという不具合がある。そこで、全体のコントラス
トデータと輝度データを記憶していなくともすむよう
に、各分割画像毎に合焦値を求めるというAF処理も変
形例として考えられる。
However, since the contrast data and the brightness data for one image of the entire image must be stored, there is a problem that a large capacity memory must be provided. Therefore, an AF process of obtaining a focus value for each divided image so that it is not necessary to store the entire contrast data and brightness data may be considered as a modified example.

【0064】上記変形例のうち、第1の変形例としてA
F処理について、図16のブロック構成図と、図14の
フローチャートにより説明する。この図14のルーチン
は、高輝度部の信頼度を低くするような考えに基づいて
重み付けを行う場合のAF(合焦)処理を行うときに呼
び出され、まず、ステップS500ではミラー24を回
動位置M1に駆動する。ステップS501でエリア形態
認識を行う。ステップS502で上記回動位置M1での
分割画面の画像に対するコントラストデータD1を取り
込む。ステップS503で回動位置M1での輝度情報を
取り込む。
Of the above modifications, the first modification is A
The F process will be described with reference to the block diagram of FIG. 16 and the flowchart of FIG. The routine of FIG. 14 is called when performing AF (focusing) processing when weighting is performed based on the idea of lowering the reliability of the high-luminance portion. First, in step S500, the mirror 24 is rotated. Drive to position M1. In step S501, area form recognition is performed. In step S502, the contrast data D1 for the image of the split screen at the rotation position M1 is fetched. In step S503, the brightness information at the turning position M1 is fetched.

【0065】ここで、前記実施例の場合、すぐにミラー
24を回動位置M2に駆動させたが、前述したように多
くのメモリを使う。本変形例の処理では、上記ステップ
S502、503で取り込まれたコントラストデータと
輝度データを基にステップS504で回動位置M1での
合焦値を算出する。この算出処理は前記図13の合焦値
算出処理と同様の処理とする。
Here, in the case of the above embodiment, the mirror 24 is immediately driven to the turning position M2, but as described above, many memories are used. In the process of this modification, the focus value at the rotational position M1 is calculated in step S504 based on the contrast data and the brightness data captured in steps S502 and 503. This calculation process is similar to the focus value calculation process of FIG.

【0066】続いて、ステップS505からステップS
519までで同様に回動位置M2、M3、M4における
分割画面の画像の部分合焦値の算出を行う。分割画像毎
の合焦値の算出を行った後にステップS520で4つの
分割画面に対する合焦値を基に全体の合焦値の算出を行
う。そして、全体合焦値を基にステップS521で山登
りAF処理を行う。ステップS522でAFが完全に完
了したと判断されるまで上記の処理を繰り返す。
Then, from step S505 to step S
Up to 519, the partial focus value of the image of the split screen at the rotation positions M2, M3, and M4 is calculated similarly. After the focus value is calculated for each divided image, the total focus value is calculated based on the focus values for the four divided screens in step S520. Then, the hill-climbing AF process is performed in step S521 based on the overall focus value. The above processing is repeated until it is determined in step S522 that AF is completely completed.

【0067】次に、合焦値の算出処理の第2の変形例と
して、中央に重点を置いて合焦値加算を行う合焦値算出
処理が考えられる。この合焦値算出処理は、中央に重要
被写体があることが多いことから背景をカットし、更
に、中央に重きをおいて合焦値を算出する処理である。
Next, as a second modification of the focus value calculation process, a focus value calculation process of focusing on the center and performing focus value addition can be considered. This focus value calculation process is a process of cutting the background because there is often an important subject in the center and then calculating the focus value by placing more weight on the center.

【0068】即ち、ミラー回動位置M1、M2、M3、
M4での分割画面における各ユニットエリアに対するコ
ントラストデータをそれぞれDai、Dbi、Dci、Ddiと
し、中央に位置するミラー回動位置M2、M3の分割画
面のコントラストデータに重み付けをするための重み付
け係数をqとすると、合焦値は、 合焦値=ΣDai+q×ΣDbi+q×ΣDci+ΣDdi………(2) となり、合焦値を加算する時にコントラストデータDbi
のとCのコントラストデータDciのみに重み付け係数q
という重みをかけて中央の重みを大きくする。この場
合、中央を重要と判断するのでこの場合のqの値は1よ
り大きいものにしておく。
That is, the mirror rotation positions M1, M2, M3,
The contrast data for each unit area in the divided screen in M4 is set to Dai, Dbi, Dci, Ddi, respectively, and a weighting coefficient for weighting the contrast data in the divided screens of the mirror rotating positions M2, M3 located at the center is q. Then, the focus value becomes the focus value = ΣDai + q × ΣDbi + q × ΣDci + ΣDdi ... (2), and the contrast data Dbi is added when the focus values are added.
The weighting factor q is applied only to the contrast data Dci of No and C.
To increase the weight in the center. In this case, the center is judged to be important, so the value of q in this case is set to be larger than 1.

【0069】更に、上記合焦値算出処理の第3の変形例
として、つぎのような演算式を適用するものも提案でき
る。即ち、合焦値を次のような演算式により算出する変
形例であり、該合焦値を、 合焦値=q1×ΣDai+q2×ΣDbi+q3×ΣDci+q4×ΣDdi…(3) とする。この変形例の場合、例えば、q1 とq4 を0と
して、q2 とq3 を1とすると、2番目、3番目の中央
部分の分割画面の部分画像だけのコントラスト値の足し
算となるので中央部分だけを足し合わせた合焦値の算出
も可能となる。なお、上記各変形例における重み付け合
焦値の演算は、合焦演算回路16、または、CPU10
にて行われる。
Further, as a third modified example of the focusing value calculation processing, it is possible to propose a method to apply the following arithmetic expression. That is, this is a modified example in which the focus value is calculated by the following arithmetic expression, and the focus value is set as follows: focus value = q1 × ΣDai + q2 × ΣDbi + q3 × ΣDci + q4 × ΣDdi (3) In the case of this modification, for example, if q1 and q4 are set to 0, and q2 and q3 are set to 1, the contrast values of only the partial images of the split screens of the second and third central parts are added. It is also possible to calculate the combined focus value. The calculation of the weighted focus value in each of the above modifications is performed by the focus calculation circuit 16 or the CPU 10.
Will be held in.

【0070】次に、合焦値の算出の第4の変形例とし
て、輝度が所定値未満の場合は中央重点の重み付けを行
う変形例について説明する。この変形例においては、通
常、中央重点で重み付けを行いたいのだが、蛍光灯等の
直接の反射光が入ってしまって、画像として高輝度の部
分が存在している場合、つまり、白飛び部分がある場合
は、そこの部分のAF情報は、信頼度が低いものなの
で、中央重点をやめて高輝度部の信頼度を低くする合焦
値の算出に切り換える合焦値演算を行う例である。この
重み付けを切り換え可能な合焦値算出処理について、図
15を用いて説明する。
Next, as a fourth modification of the calculation of the focus value, a modification in which the weighting of the center point is performed when the brightness is less than a predetermined value will be described. In this modified example, normally, it is desired to perform weighting with center emphasis, but when direct reflected light from a fluorescent lamp or the like enters and there is a high-intensity part as an image, that is, an overexposed part If there is such a value, the AF information in that portion has low reliability, and therefore the focus value calculation is an example in which the focus is stopped and the focus value calculation is switched to the calculation of the focus value that lowers the reliability of the high-luminance portion. The focus value calculation process capable of switching the weighting will be described with reference to FIG.

【0071】ステップS900で分割画面の各ユニット
エリアの添字iを0にリセットする。ステップS901
でミラー回動位置M1に対応した分割画面の部分画像で
あるユニットエリアの輝度データKaiをひとつ入力す
る。ステップS902で該輝度データKaiと高輝度判定
のスレッシュ値βとを比較する。
In step S900, the subscript i of each unit area of the split screen is reset to 0. Step S901
Then, one luminance data Kai of the unit area, which is a partial image of the divided screen corresponding to the mirror rotation position M1, is input. In step S902, the brightness data Kai is compared with the threshold value β for high brightness determination.

【0072】輝度データKaiがスレッシュ値β以下と判
定された場合は、高輝度でない判別され、続いて、部分
画像は全部で18個あるのでその全てを調べるためにス
テップS901に戻って、2番目、3番目と順次ユニッ
トエリアのデータを入力していき、それを1つずつステ
ップS902で判定していく処理を繰り返す。
If it is determined that the luminance data Kai is less than or equal to the threshold value β, it is determined that the luminance is not high. Then, since there are 18 partial images in total, the process returns to step S901 to check all the partial images, and the second The process of sequentially inputting data for the third and the third unit areas and determining the data one by one in step S902 is repeated.

【0073】上記ステップS900からステップS90
3までは、ミラー回動位置M1の分割画像上のユニット
エリアの輝度データKaiについて行っている。同じくス
テップS905からステップS909までの処理は、ミ
ラー回動位置M2における分割画面の画像について行
い、該分割画面の画像のユニットエリア毎の輝度データ
Kbiの1つ1つをしきい値βより大きいかどうかの比較
を行う処理である。また、ステップS910からステッ
プS914までが、ミラー回動位置M3における分割画
面のユニットエリアの輝度データKciがしきい値βより
大きいかどうかの判定を行う処理であって、更に、ステ
ップS915からステップS919までが、ミラー回動
位置M4でのユニットエリアの輝度データKdiとしきい
値βを比較する処理になっている。
Steps S900 to S90
Up to 3, the luminance data Kai of the unit area on the divided image at the mirror rotation position M1 is calculated. Similarly, the processing from step S905 to step S909 is performed on the divided screen image at the mirror rotation position M2, and whether each of the brightness data Kbi for each unit area of the divided screen image is larger than the threshold value β. This is a process of comparing somehow. Further, steps S910 to S914 are processing for determining whether or not the brightness data Kci of the unit area of the divided screen at the mirror rotation position M3 is larger than the threshold value β, and further, steps S915 to S919. Up to the above, the process is to compare the brightness data Kdi of the unit area at the mirror rotation position M4 with the threshold value β.

【0074】もし、輝度データKai、Kbi、Kci、Kdi
が全てしきい値βより小さかった場合は、全分割画面の
画像に高輝度部が無いということでステップS920に
進み、中央重点の合焦値算出を行う。また、上記ユニッ
トエリアの輝度データの一つでもしきい値βより大きい
値があった場合は、その撮影画像に高輝度部が存在する
と判定されたことになるので、ステップS921にジャ
ンプして、輝度分布を用いた場合の合焦値の算出を行
う。
If the luminance data Kai, Kbi, Kci, Kdi
Are all smaller than the threshold value β, it means that there is no high-intensity part in the image of all divided screens, and the process proceeds to step S920, and the focus value of the center weight is calculated. If even one of the brightness data of the unit area has a value larger than the threshold value β, it means that it is determined that the high brightness part exists in the captured image, so the process jumps to step S921, The focus value is calculated when the brightness distribution is used.

【0075】本変形例の処理では、上記の処理を行うこ
とにより、中央重点を行うべきか、輝度分布を用いた合
焦値の算出を行うべきかの判別ができ、より適切な精度
の高い合焦値演算が可能となる。なお、上記判別は、C
PU10に内蔵される合焦モード選択手段により行わ
れ、中央重点モード実行手段、または、輝度分布対応モ
ード実行手段によりいずれかの選択されたモードにより
合焦値算出がなされる。
In the processing of this modification, by performing the above processing, it is possible to determine whether the center emphasis should be performed or the focus value should be calculated using the luminance distribution, and more appropriate and high accuracy can be obtained. Focus value calculation is possible. In addition, the above determination is C
The focus value is calculated by the focus mode selection means built in the PU 10, and the focus value is calculated by either the center-weighted mode execution means or the brightness distribution corresponding mode execution means.

【0076】次に、本発明の第2実施例の電子的撮像装
置であるOAカメラについて説明する。図17のブロッ
ク構成図に示すように、本実施例のOAカメラは、回動
可能なミラーに代わって、3つのハーフミラー25、2
6、27を配設し、更に、全体画像よりも低い精細度の
個々の部分画像を得るための複数の撮像素子である第
1、2、3、4CCD3a、3b、3c、3dが配設さ
れる。そして、CPU10Aに内蔵される電気的走査手
段により上記各CCDの出力を順次切り換えて実効的に
撮像視野を切り換えて走査し、図18の(A)に示すよ
うな全体画面G3 を4分割した部分画像を取り込み、該
部分画像を貼り合わせて1つの全体画像の画面を得るカ
メラである。
Next, an OA camera which is an electronic image pickup apparatus according to the second embodiment of the present invention will be described. As shown in the block diagram of FIG. 17, the OA camera of the present embodiment has three half mirrors 25, 2 instead of the rotatable mirror.
6, 27, and first, second, third, fourth CCDs 3a, 3b, 3c, 3d, which are a plurality of image pickup devices for obtaining individual partial images having a definition lower than that of the entire image. It Then, the electric scanning means built in the CPU 10A sequentially switches the output of each CCD to effectively switch the imaging field of view for scanning, and divides the entire screen G3 as shown in FIG. 18A into four parts. It is a camera that captures an image and combines the partial images to obtain a screen of one entire image.

【0077】本カメラの構成の詳細について説明する
と、本カメラにおいて、絞り1、撮影レンズ2を通った
入射光は、第1ハーフミラー25で2分割され、更に、
それぞれが第2ハーフミラー26、第3ハーフミラー2
7で2分割される。そして、図18の(A)に示すよう
に、全体画面G3 が4分割され、分割領域R31、R32、
R33、R34の部分画像がそれぞれ対応する第1、2、
3、4CCD3a、3b、3c、3dに入る。それらの
撮像信号は、撮像処理回路4a、4b、4c、4dによ
り、映像信号に変換された後、メモリ23に全画面のデ
ータが記憶される。
Explaining the details of the configuration of this camera, in this camera, the incident light that has passed through the diaphragm 1 and the taking lens 2 is split into two by the first half mirror 25, and further,
Second half mirror 26 and third half mirror 2 respectively
It is divided into 2 by 7. Then, as shown in FIG. 18A, the entire screen G3 is divided into four areas, and the divided areas R31, R32,
The first, second, and the corresponding partial images of R33 and R34, respectively.
Enter the 3,4 CCD 3a, 3b, 3c, 3d. The image pickup signals are converted into video signals by the image pickup processing circuits 4a, 4b, 4c, and 4d, and then data of the entire screen is stored in the memory 23.

【0078】メモリ23の画像信号はBPF5、LPF
6に出力され、各分割画面に対する合焦値が求められ
る。一方、上記画像信号は、貼り合わせ回路13′に出
力され、貼り合わせ処理されて、1つの全体画像として
記録される。上記以外の処理回路は前記図5の第1実施
例のカメラの回路構成と同一である。但し、第1〜第4
CCD3a〜3dには、同時に画像を取り込むことが出
来るため、上記画像貼り合わせ回路13′では、手ブレ
によるズレの補正は行う必要はなく、各CCDの取り付
け誤差の補正のみを行っている。
The image signals of the memory 23 are BPF5 and LPF.
6, and the focus value for each split screen is obtained. On the other hand, the image signal is output to the laminating circuit 13 ', subjected to a laminating process, and recorded as one whole image. The processing circuit other than the above is the same as the circuit configuration of the camera of the first embodiment of FIG. However, first to fourth
Since images can be simultaneously captured in the CCDs 3a to 3d, the image pasting circuit 13 'does not need to correct the deviation due to camera shake, but only corrects the mounting error of each CCD.

【0079】図19は、ミラースキャンを行わない本実
施例のカメラにおけるハーフミラー方式で4つの画像を
取り込む場合の撮影シーケンスである。上記撮影シーケ
ンス処理は、ステップS1200で撮影が開始され、ス
テップS1200で第2CCD3bの分割画面の輝度デ
ータを取り込む。この分割画面は前記第1実施例におけ
る回動位置M2と同様にこの状態では全体画面のほぼ中
央部分の画面であるから、この場合では、領域R32の輝
度データを取り込む。
FIG. 19 shows a photographing sequence for capturing four images by the half mirror method in the camera of this embodiment which does not perform mirror scan. In the shooting sequence process, shooting is started in step S1200, and in step S1200, brightness data of the divided screen of the second CCD 3b is captured. Since this divided screen is the screen in the substantially central portion of the entire screen in this state similarly to the turning position M2 in the first embodiment, in this case, the brightness data of the region R32 is fetched.

【0080】ステップS1201で第2CCD3bの撮
像情報をもとにAEの固定を行う。更に、ステップS1
202でAF処理を行い、そのAF処理により合焦され
た状態で、ステップS1203において撮影画面の記録
が行われ、撮影ルーチンを終了する。
In step S1201, AE is fixed based on the image pickup information of the second CCD 3b. Further, step S1
AF processing is performed in 202, and in the state of being focused by the AF processing, a shooting screen is recorded in step S1203, and the shooting routine ends.

【0081】上記ステップS1202のハーフ・ミラー
方式のAF処理について、図20のフローチャートによ
り詳しく説明する。本変形例において、AF処理を行う
場合に図20のルーチンに入り、まず、ステップS99
9で第1CCD3a〜第4CCD3dの全画像をメモリ
23に取り込む。ステップS1000で第1CCD3a
の画像を読み出す。ステップS1001でエリア形態の
認識を行い、そのエリアの形態に基づいてステップS1
002でコントラストデータを取り込む。そのデータを
コントラストデータD1とする。同じ処理をステップS
1000からステップS1011まで第2CCD3b、
第3CCD3c、第4CCD3dについて行い、コント
ラストデータD2、コントラストデータD3、コントラ
ストデータD4を読み出す。
The half mirror type AF processing in step S1202 will be described in detail with reference to the flowchart of FIG. In this modification, when the AF process is performed, the routine of FIG. 20 is entered, and first, step S99.
At 9, all the images from the first CCD 3 a to the fourth CCD 3 d are taken into the memory 23. In step S1000, the first CCD 3a
Read out the image. The area form is recognized in step S1001, and step S1 is performed based on the area form.
At 002, the contrast data is fetched. The data is called contrast data D1. Same process as step S
The second CCD 3b from 1000 to step S1011,
The contrast data D2, the contrast data D3, and the contrast data D4 are read out for the third CCD 3c and the fourth CCD 3d.

【0082】ステップS1012で4つのコントラスト
データを基に合焦値の算出を行う。
In step S1012, the focus value is calculated based on the four contrast data.

【0083】この合焦値の算出は、前に述べている第1
実施例のカメラのミラースキャン方式の場合と同じよう
に行うことができる。ステップS1013で山登りAF
処理を行い、ステップS1014で合焦処理が完了した
と判定されるまで同じことを繰り返す。
The calculation of the focus value is performed by the first method described above.
This can be performed in the same manner as in the mirror scan method of the camera of the embodiment. AF in the mountain climbing in step S1013
The process is performed, and the same process is repeated until it is determined in step S1014 that the focusing process is completed.

【0084】上記説明した本実施例のカメラでは、分割
画面の画像を取り込むのにミラーを回動させる必要がな
く、複数のCCDより上記分割画面の画像情報を取り込
むことができる。従って、回動ミラーの機械的な微調整
が不要となり、ミラーを変位させるときに生じるパララ
ックス等も生じない。また、一回の撮影で全画面の画像
が撮影できることから、個々の分割画面の画像の撮影時
間のずれが生じない。
In the camera of this embodiment described above, it is not necessary to rotate the mirror to capture the image of the split screen, and the image information of the split screen can be captured from a plurality of CCDs. Therefore, mechanical fine adjustment of the rotating mirror is not necessary, and parallax or the like that occurs when the mirror is displaced does not occur. Further, since the image of the full screen can be taken by one shot, there is no difference in the shooting time of the images of the individual split screens.

【0085】なお、上記実施例のカメラにおいては、撮
影画面の分割領域が図18の(A)に示すように左右方
向に分割した例であるが、この分割の方法の他の例とし
て、図18の(B)に示すように、ハーフミラーとCC
Dの配置によって、上下方向と左右方向に分割するもの
も提案することができる。
In the camera of the above embodiment, the divided area of the photographing screen is divided in the left and right direction as shown in FIG. 18A, but as another example of this dividing method, As shown in 18B, half mirror and CC
Depending on the arrangement of D, it is also possible to propose one that is divided in the vertical direction and the horizontal direction.

【0086】次に、前記第1、2実施例のカメラのAF
処理の変形例について説明する。前記第1、第2実施例
のカメラでは、全てAF処理中、必ずミラースキャンも
しくは、画像を4枚分全て取り込みながら、AF動作を
行うものであった。
Next, the AF of the cameras of the first and second embodiments will be described.
A modified example of the processing will be described. In the cameras of the first and second embodiments, the AF operation is always performed during the AF processing while performing the mirror scan or capturing all four images.

【0087】このAF処理中、例えば、ミラースキャン
方式だとミラーを動かしているので消費電力が多くな
る。また、ミラーを4回分のデータを取り込んでからA
F動作を1回行うということで、スピードが遅くなる。
同じようにハーフミラー方式でも4つのCCDを全て駆
動させていると消費電力が多くなる。本変形例のAF処
理では前記ミラースキャンの方式の場合は、AF処理
中、ミラースキャンを停止し、1箇所に固定する。ま
た、前記ハーフミラー方式では複数の撮像素子の内の1
つからのみデータを取り込むようにしてAF処理を行う
ことにより上述の不具合をなくすことができる。
During the AF process, for example, in the mirror scan system, the mirror is moved, so that the power consumption increases. Also, after the mirror has acquired the data for four times, A
Since the F operation is performed once, the speed becomes slow.
Similarly, even in the half mirror method, if all four CCDs are driven, power consumption increases. In the AF processing of this modification, in the case of the mirror scan method, the mirror scan is stopped and fixed to one place during the AF processing. Further, in the half mirror method, one of a plurality of image pickup devices is used.
The above-mentioned problems can be eliminated by performing the AF processing so that the data is taken in only from one of the two.

【0088】図21は、本変形例のAF処理のフローチ
ャートである。ステップS300でミラー24を回動位
置M1に駆動させる。ステップS301でエリアの形態
を認識する。ステップS302でコントラストデータを
取り込み、それをコントラストデータD1とする。ステ
ップS303では、コントラストデータD1を用いて1
回取り込んだ部分画像について、回動位置M1だけで合
焦値を算出する。
FIG. 21 is a flowchart of the AF process of this modification. In step S300, the mirror 24 is driven to the rotation position M1. In step S301, the form of the area is recognized. In step S302, the contrast data is fetched and used as the contrast data D1. In step S303, 1 is calculated using the contrast data D1.
With respect to the partial image captured once, the focus value is calculated only at the rotation position M1.

【0089】ステップS304からステップS315ま
で同じように回動位置M2、M3、M4においても部分
画像においての合焦値D2、D3、D4の算出を行う。
ステップS316では求めた4つの合焦値の比較を行
い、合焦値が最大のミラー回動位置を検出し、その位置
を合焦回動位置MN 情報として格納する。ステップS3
17でミラー24を最大値を示す上記回動位置MN に駆
動させる。
Similarly from step S304 to step S315, the focus values D2, D3, D4 in the partial images are calculated also at the turning positions M2, M3, M4.
In step S316, the obtained four focus values are compared, the mirror rotation position with the maximum focus value is detected, and the position is stored as focus rotation position MN information. Step S3
At 17, the mirror 24 is driven to the rotation position MN which shows the maximum value.

【0090】ステップS318ではその場所でミラーを
その回動位置に固定したままコントラストデータを取り
込み、そのコントラストデータをそのまま合焦値にす
る。その合焦値を基に山登りAFを行い、ステップS3
20でAF処理が完了したと判定されるまで同じ処理を
繰り返す。
In step S318, the contrast data is taken in while the mirror is fixed at the rotating position at that position, and the contrast data is directly set to the focus value. Based on the focus value, hill climbing AF is performed, and step S3
The same process is repeated until it is determined in 20 that the AF process is completed.

【0091】以上説明したAF処理によると、ミラー2
4を1画面の画像の合焦値算出毎に駆動させなくて済む
のでAFの速度が早くなり、消費電力も小さくなる。な
お、上記図21は、ミラースキャン方式の場合を説明し
たが、ミラーを駆動させる処理をCCDの情報を取り込
むという処理に置き換えれば、ハーフミラー方式にも対
応できる。
According to the AF processing described above, the mirror 2
4 does not have to be driven each time the focus value of one screen image is calculated, so the AF speed is increased and the power consumption is reduced. Although the case of the mirror scan method has been described with reference to FIG. 21, the half mirror method can also be supported by replacing the process of driving the mirror with the process of fetching information from the CCD.

【0092】次に、本発明の第3実施例の電子的撮像装
置のカメラについて説明する。本実施例のカメラは、撮
影画像情報の取り込みは回動可能なミラー24を用いる
カメラであるが、その撮影画像情報の記録時のミラー回
動変位域に対してAF処理時のミラー回動変位域が小さ
い範囲に制限されることを特徴とするカメラである。
Next, the camera of the electronic image pickup apparatus according to the third embodiment of the present invention will be described. The camera of the present embodiment is a camera that uses a rotatable mirror 24 for capturing captured image information, but the mirror rotational displacement during AF processing is relative to the mirror rotational displacement range during recording of the captured image information. The camera is characterized in that the range is limited to a small range.

【0093】図22は、本実施例のカメラにおける記録
時の撮影画面の被写体領域と光学要素のミラー24の回
動変位状態を示した図であり、ミラー角度は、M1から
M4の回動位置にミラーを動かして取り込まれる。図2
3は、本実施例のカメラのAF動作時のミラー24の中
間回動位置M5、M6、M7の回動変位状態を示した図
である。
FIG. 22 is a diagram showing a rotational displacement state of the object area of the photographing screen and the mirror 24 of the optical element at the time of recording in the camera of this embodiment. The mirror angle is the rotational position from M1 to M4. It is taken in by moving the mirror to. Figure 2
FIG. 3 is a diagram showing the rotational displacement state of the intermediate rotational positions M5, M6, M7 of the mirror 24 during the AF operation of the camera of this embodiment.

【0094】上記図23に示すように、AF処理時にお
けるAFエリアの規定に際して、ミラー24の回動角度
によってエリアの形状を変えなくても上下左右の背景カ
ットが実現できる。この例では、3か所のミラースキャ
ンでAFの情報を取り込めるので、前記第1実施例のカ
メラのように4か所のミラースキャンでAF情報を取り
込むのに比較して、AF処理が高速化できるになるとい
う効果もある。
As shown in FIG. 23, when defining the AF area during the AF processing, it is possible to realize background cutting in the vertical and horizontal directions without changing the shape of the area depending on the rotation angle of the mirror 24. In this example, since the AF information can be captured by the three mirror scans, the AF process is faster than the AF information is captured by the four mirror scans as in the camera of the first embodiment. There is also the effect of being able to do it.

【0095】なお、上記図23ではミラー回動位置M
5、M6、M7の3か所でAF情報を取るという図にな
っているが、例えば、図22の回動位置M2、M3の2
か所でミラー24を停止させてAF情報を取るというこ
とも可能である。この場合はAFエリアは更に小さくな
るが、より高速化が可能となる。
In FIG. 23, the mirror rotation position M
Although it is illustrated that the AF information is acquired at three positions of 5, M6, and M7, for example, 2 of the rotational positions M2 and M3 in FIG.
It is also possible to stop the mirror 24 at a location and obtain AF information. In this case, the AF area becomes smaller, but the speed can be further increased.

【0096】図24は、本実施例のカメラにおけるAF
処理のフローチャートである。まず、ステップS600
でミラーの回動位置M5に駆動する。ステップS601
で上記回動位置でのコントラストデータを取り込み、そ
の値をコントラストデータD5とする。
FIG. 24 shows the AF in the camera of this embodiment.
It is a flowchart of a process. First, step S600
The mirror is driven to the rotation position M5. Step S601
Then, the contrast data at the turning position is fetched, and the value is set as the contrast data D5.

【0097】ステップS602でミラー24を回動位置
M6に駆動して同様にコントラストデータD6を取り込
む。更に、ステップS604、ステップS605でコン
トラストデータD7を取り込む。そして、ステップS6
06で上記コントラストデータD5からD7により、合
焦値の算出を行う。ステップS607で山登りAFを行
う。ステップS608でAFの完了を確認を行い、完了
するまで上記AF処理を繰り返す。
In step S602, the mirror 24 is driven to the rotation position M6 to similarly capture the contrast data D6. Further, the contrast data D7 is fetched in steps S604 and S605. Then, step S6
At 06, the focus value is calculated from the contrast data D5 to D7. In step S607, mountain climbing AF is performed. In step S608, the completion of AF is confirmed, and the AF process is repeated until the completion.

【0098】[0098]

【発明の効果】上述のように本発明の請求項1に記載の
電子的撮像装置は、従来の撮像装置では背景にコントラ
ストの強い被写体が存在した場合や、主要被写体が背景
に比べてコントラストが低い場合にオートフォーカスが
背景に引かれて主要被写体に合焦しなかったが、その点
を解決するものであって、背景の影響を受けることな
く、主要被写体に合焦させることができる。
As described above, the electronic image pickup device according to the first aspect of the present invention has a conventional image pickup device which has a high contrast in the case where a subject having a high contrast exists in the background or the main subject has a higher contrast than the background. When the focus is low, the auto-focus is pulled to the background and the main subject is not focused, but this is a solution to that point, and the main subject can be focused without being affected by the background.

【0099】本発明の請求項2に記載の電子的撮像装置
によると、全体画像の取り込み分の撮像素子が必要なく
なり、部分画像を取り込む分の撮像素子を配設するだけ
でよい。
According to the electronic image pickup device of the second aspect of the present invention, the image pickup device for capturing the whole image is not required, and only the image pickup device for capturing the partial image is provided.

【0100】本発明の請求項3に記載の電子的撮像装置
によると、機械的な微調整が不要となる。また、光学要
素を変位させるときに生じるパララックス等が生じな
い。また、1回の撮影で全体画像を取り込めるので、個
々の部分画像間の時間差が生じない。
According to the electronic image pickup device of the third aspect of the present invention, mechanical fine adjustment is unnecessary. Further, parallax or the like that occurs when displacing the optical element does not occur. Further, since the entire image can be captured by one shooting, there is no time difference between the individual partial images.

【0101】本発明の請求項4、5に記載の電子的撮像
装置は、従来の部分画像を組み合わせて全体画像を得る
カメラにおいては、背景を除外した合焦エリアが規定さ
れなかったが、その点を解決し、請求項4のものでは、
部分視野毎に合焦エリアを規定することにより、全体と
して背景を除外した合焦エリアを適用できる。請求項5
のものは、全体として背景を除外した合焦エリアが実現
し、部分視野毎には同一の合焦エリアとすることができ
る。
In the electronic image pickup device according to the fourth and fifth aspects of the present invention, in the conventional camera that obtains the whole image by combining partial images, the focusing area excluding the background is not defined. The point is solved, and according to claim 4,
By defining the focus area for each partial visual field, the focus area excluding the background as a whole can be applied. Claim 5
In this case, the focusing area excluding the background is realized as a whole, and the same focusing area can be set for each partial visual field.

【0102】本発明の請求項6に記載の電子的撮像装置
によると、被写体によって縦横比が異なり、除外すべき
背景の部分が異なるような場合にも確実に背景を除外し
た合焦エリアを規定することができる。
According to the electronic image pickup device of the sixth aspect of the present invention, even when the aspect ratio differs depending on the subject and the background portion to be excluded is different, the focusing area in which the background is excluded is definitely defined. can do.

【0103】本発明の請求項7に記載の電子的撮像装置
によると、被写体の形態毎に異なる有効部分視野規定を
瞬時に切り換えることが可能となる。
According to the electronic image pickup device of the seventh aspect of the present invention, it is possible to instantly switch different effective partial visual field definitions for each form of the subject.

【0104】本発明の請求項8に記載の電子的撮像装置
によると、各部分画像のみの合焦情報だけでは合焦度が
低くなる場合、また、部分画像にコントラストがない場
合であっても、背景部分を除外した全体画像の合焦情報
を得ることができる。
According to the electronic image pickup device of the eighth aspect of the present invention, even if the focusing degree is low only by the focusing information of each partial image, or even if the partial image has no contrast. It is possible to obtain the focus information of the entire image excluding the background portion.

【0105】本発明の請求項9、10、11、12に記
載の電子的撮像装置は、従来の撮像装置では、部分画像
と組み合わせて1つの全体画像とすることから広い範囲
の画像を取り込むことができるが、そのため、合焦処理
に有効な画像情報や合焦処理に悪影響を与える画像情報
等が1つの全体画像に同様に混在する可能性が高くなっ
ていたが、その点を解決し、請求項9のものでは、重み
付け加算により有効な合焦情報を取り込み、良好な合焦
処理を実現できる。また、請求項10のものでは、主要
被写体は、殆どの場合、中央にあるので主要被写体に合
焦した画像を得ることができる。また、請求項11のも
のは、輝度のむらの影響を受けることなく、良好な合焦
処理を実現できる。また、請求項12のものでは、全体
画像を一時的に記録しておくためのメモリが不要にな
る。
The electronic image pickup device according to claims 9, 10, 11 and 12 of the present invention, in the conventional image pickup device, takes in a wide range of images because it is combined with a partial image to form one whole image. However, there is a high possibility that image information that is effective for focusing processing, image information that adversely affects focusing processing, and the like will also be mixed in one entire image. According to the ninth aspect, effective focusing information can be captured by weighted addition, and good focusing processing can be realized. Further, in the tenth aspect, since the main subject is located at the center in most cases, an image focused on the main subject can be obtained. In the eleventh aspect, a good focusing process can be realized without being affected by uneven brightness. Further, according to the twelfth aspect, a memory for temporarily recording the entire image is unnecessary.

【0106】本発明の請求項13に記載の電子的撮像装
置は、従来の撮像装置では、露出条件が揃っていないと
別の領域間での輝度の比較ができず、また、露出条件の
違いを加味した比較処理をしなければならなかったが、
その点を解決し、複雑な処理を追加することなく別の領
域間の輝度の比較ができる。
In the electronic image pickup device according to the thirteenth aspect of the present invention, in the conventional image pickup device, it is not possible to compare the luminance between different regions unless the exposure conditions are complete, and the exposure conditions are different. I had to do a comparison process with
By solving the problem, it is possible to compare the brightness between different areas without adding complicated processing.

【0107】本発明の請求項14に記載の電子的撮像装
置によると、従来の撮像装置では、部分画像と組み合わ
せて1つの全体画像とすることから広い範囲の画像を取
り込むことができ、合焦処理に有効な画像情報や合焦処
理に悪影響を与える画像情報等が1つの全体画像に同様
に混在する可能性が高かったが、その点を解決し、被写
体の輝度レベルに応じて適切な重み付けが実現でき、良
好な合焦情報を取り込むことができる。
According to the electronic image pickup device of the fourteenth aspect of the present invention, in the conventional image pickup device, a wide range of images can be taken in because a single whole image is combined with a partial image, and focusing is achieved. There was a high possibility that image information that is effective for processing and image information that adversely affects focusing processing would be mixed in one entire image as well, but that point was resolved and appropriate weighting was performed according to the brightness level of the subject. Can be realized, and good focus information can be captured.

【0108】本発明の請求項15に記載の電子的撮像装
置は、従来の部分画像を組み合わせて全体画像を得る電
子的撮像装置では、複数の視野に跨った合焦エリアとい
うのは、規定されていなかったが、撮影する被写体に対
応した広範囲の合焦エリアが規定できる。
According to a fifteenth aspect of the present invention, in a conventional electronic image pickup apparatus for obtaining an entire image by combining partial images, a focusing area extending over a plurality of fields of view is defined. Although it was not, a wide range of focus areas corresponding to the subject to be photographed can be defined.

【0109】本発明の請求項16に記載の電子的撮像装
置では、全体画像の取り込み分の撮像素子が必要なくな
り、部分画像を取り込む分の撮像素子だけ配設すればよ
い。
In the electronic image pickup device according to the sixteenth aspect of the present invention, the image pickup device for capturing the whole image is not required, and only the image pickup device for capturing the partial image may be provided.

【0110】本発明の請求項17に記載の電子的撮像装
置によると、機械的な微調整が不要となる。また、光学
要素を変位させるときに生じるパララックス等が生じな
い。また、1回の撮影で全体画像を取り込めるので、個
々の部分画像間の時間差が生じない。
According to the electronic image pickup device of the seventeenth aspect of the present invention, mechanical fine adjustment becomes unnecessary. Further, parallax or the like that occurs when displacing the optical element does not occur. Further, since the entire image can be captured by one shooting, there is no time difference between the individual partial images.

【0111】本発明の請求項18、19に記載の電子的
撮像装置は、従来の部分画像を組み合わせて全体画像を
得るカメラにおいては、被写体に適した合焦エリアが規
定されていないが、その点を解決し、請求項18のもの
では、部分視野毎に合焦エリアを規定することにより全
体として被写体に適した合焦エリアが実現できる。ま
た、請求項19に記載の電子的撮像装置では、全体とし
て被写体に適した合焦エリアが実現し、部分視野毎には
同一の合焦エリアとなる。
In the electronic image pickup device according to the eighteenth and nineteenth aspects of the present invention, in the conventional camera for obtaining the whole image by combining partial images, the focusing area suitable for the subject is not defined. The point is solved, and in the eighteenth aspect, by defining the focusing area for each partial visual field, the focusing area suitable for the subject as a whole can be realized. Further, in the electronic image pickup device according to the nineteenth aspect, a focusing area suitable for a subject is realized as a whole, and the same focusing area is provided for each partial visual field.

【0112】本発明の請求項20に記載の電子的撮像装
置によると、被写体によって縦横比が異なった場合、被
写体によって適した合焦エリアも異なるが、どんな被写
体でも確実に最適な合焦エリアが実現できる。
According to the electronic image pickup device of the twentieth aspect of the present invention, when the aspect ratio differs depending on the subject, the suitable focusing area differs depending on the subject, but the optimum focusing area can be surely obtained for any subject. realizable.

【0113】本発明の請求項21に記載の電子的撮像装
置によると、被写体の形態毎に異なる有効部分視野規定
を瞬時に切り換えることが可能となる。
According to the electronic image pickup device of the twenty-first aspect of the present invention, it is possible to instantaneously switch different effective partial visual field definitions for each form of the subject.

【0114】本発明の請求項22に記載の電子的撮像装
置によると、従来の撮像装置では背景にコントラストの
強い被写体が存在した場合や、主要被写体が背景に比べ
てコントラストが低い場合にオートフォーカスが背景に
引かれて主要被写体に合焦させることが困難であり、ま
た、従来の部分画像を組み合わせて全体画像を得るカメ
ラにおいては、背景を除外した合焦エリアが規定されな
かったが、それらの点を解決し、新たな処理等を追加す
ることなく、ミラー停止位置を変えるだけで簡易的な背
景の状況が可能となる。
According to the electronic image pickup device of the twenty-second aspect of the present invention, in the conventional image pickup device, autofocus is performed when a subject having a strong contrast exists in the background or when the main subject has a lower contrast than the background. Is difficult to focus on the main subject due to the background being drawn, and in the conventional camera that combines the partial images to obtain the entire image, the focusing area excluding the background was not specified. However, a simple background situation is possible by changing the mirror stop position without adding new processing.

【0115】本発明の請求項23に記載の電子的撮像装
置は、従来の部分画像を組み合わせて1つの全体画像を
得る電子的撮像装置の撮影シーケンスにおいては、組み
合わせ手段を行うタイミングは明確化されていなかった
が、その点を解決し、すべての部分画像が合焦した状態
で取り込まれ、確実に合焦した全体画像が得ることが可
能となる。
According to the electronic image pickup apparatus of the twenty-third aspect of the present invention, in the photographing sequence of the conventional electronic image pickup apparatus which obtains one whole image by combining partial images, the timing of performing the combining means is clarified. Although it was not, it is possible to solve that point, and all the partial images are captured in a focused state, so that it is possible to obtain a reliably focused entire image.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の電子的撮像装置に適用される
撮影画面の分割画面、および、そのAFエリアの一例を
示す図。
FIG. 1 is a diagram showing an example of a split screen of a shooting screen applied to an electronic image pickup apparatus according to an embodiment of the present invention, and an example of its AF area.

【図2】上記図1の撮影画面に対するAFエリアの形態
のタイプを示し、(A)は、撮影画面左端部の領域のA
Fエリア形態を示し、(B)は、中央部の領域のAFエ
リア形態を示し、(C)は、右端部の領域のAFエリア
形態を示す。
FIG. 2 shows a type of form of an AF area with respect to the shooting screen of FIG.
The F area form is shown, (B) shows the AF area form of the central region, and (C) shows the AF area form of the right end region.

【図3】上記図1の実施例の電子的撮像装置における撮
影画面の分割画面、および、そのAFエリアの他の例を
示す図。
FIG. 3 is a diagram showing another example of a split screen of a shooting screen and its AF area in the electronic image pickup apparatus according to the embodiment of FIG.

【図4】上記図1の実施例の電子的撮像装置における撮
影画面の分割画面、および、そのAFエリアの更に他の
例を示す図。
FIG. 4 is a diagram showing still another example of a split screen of a shooting screen and its AF area in the electronic image pickup apparatus of the embodiment of FIG.

【図5】本発明の第1実施例の電子的撮像装置であるO
Aカメラのブロック構成図。
FIG. 5 is an electronic image pickup apparatus O according to the first embodiment of the present invention.
The block block diagram of A camera.

【図6】上記図5のOAカメラにおける撮影シーケンス
のフローチャート。
6 is a flowchart of a shooting sequence in the OA camera shown in FIG.

【図7】上記図6の撮影シーケンスにおいて、呼び出さ
れるサブルーチンのAF処理のフローチャート。
7 is a flowchart of AF processing of a subroutine called in the shooting sequence of FIG.

【図8】上記図6の撮影シーケンスにおいて、呼び出さ
れるサブルーチンの別のAF処理のフローチャート。
8 is a flowchart of another AF process of a called subroutine in the shooting sequence of FIG.

【図9】上記図7、8のAF処理におけるAFエリアの
ユニットエリア分割状態を示す図。
FIG. 9 is a diagram showing a unit area division state of an AF area in the AF processing of FIGS.

【図10】図5のOAカメラによる撮影時にてAFエリ
アに高輝度領域が存在する撮影画面を示す図。
10 is a diagram showing a shooting screen in which a high-brightness area exists in the AF area when shooting is performed by the OA camera in FIG.

【図11】図5のOAカメラにおけるAF処理のフロー
チャート。
11 is a flowchart of AF processing in the OA camera of FIG.

【図12】図11のAF処理において適用される合焦値
算出処理のフローチャート。
12 is a flowchart of a focus value calculation process applied in the AF process of FIG.

【図13】上記図12の合焦値算出処理のうち、1つの
領域における合焦値算出処理の詳細を示すフローチャー
ト。
13 is a flowchart showing details of focus value calculation processing in one area of the focus value calculation processing in FIG.

【図14】上記図5のOAカメラのAF処理に対する変
形例のフローチャート。
14 is a flowchart of a modified example of the AF process of the OA camera shown in FIG.

【図15】上記図14のAF処理における合焦値算出処
理のフローチャート。
15 is a flowchart of a focus value calculation process in the AF process of FIG.

【図16】上記図5のOAカメラの変形例を示すブロッ
ク構成図。
16 is a block diagram showing a modification of the OA camera shown in FIG.

【図17】本発明の第2実施例の電子的撮像装置である
OAカメラのブロック構成図。
FIG. 17 is a block configuration diagram of an OA camera which is an electronic image pickup apparatus according to a second embodiment of the present invention.

【図18】上記図17のOAカメラにおける撮影画面の
分割画面と対応するCCDとの関係を示す図であって、
(A)は、左右方向に4分割した場合の撮影画面を示
し、(B)は、その分割方法の変形例であって上下、左
右にそれぞれ分割し、全体を1/4に分割した場合の撮
影画面を示す。
18 is a diagram showing a relationship between a divided screen of a shooting screen and a corresponding CCD in the OA camera of FIG.
(A) shows a shooting screen when the image is divided into four in the left-right direction, and (B) shows a modification of the dividing method, in which the image is divided into upper and lower parts, left and right parts, and the whole is divided into 1/4. A shooting screen is shown.

【図19】上記図17のOAカメラにおける撮影シーケ
ンスのフローチャート。
19 is a flowchart of a shooting sequence in the OA camera shown in FIG.

【図20】上記図19の撮影シーケンスで呼び出される
サブルーチンのAF処理のフローチャート。
20 is a flowchart of AF processing of a subroutine called in the shooting sequence of FIG.

【図21】図図17のOAカメラのAF処理に対する変
形例のAF処理のフローチャート。
21 is a flowchart of AF processing of a modified example of the AF processing of the OA camera of FIG.

【図22】本発明の第3実施例の電子的撮像装置である
OAカメラにおける撮影画像情報の取り込み時のミラー
回動状態を示す作用図。
FIG. 22 is an operation diagram showing a mirror rotation state at the time of capturing captured image information in the OA camera which is the electronic image pickup apparatus according to the third embodiment of the present invention.

【図23】上記図22のOAカメラにおける撮影画像の
合焦情報取り込み時のミラー回動状態を示す作用図。
FIG. 23 is an operation diagram showing a mirror rotating state at the time of fetching focus information of a captured image in the OA camera of FIG. 22.

【図24】上記図22のOAカメラにおけるAF処理の
フローチャート。
FIG. 24 is a flowchart of AF processing in the OA camera of FIG. 22.

【符号の説明】[Explanation of symbols]

3…………CCD(撮像素子) 3a、3b、3c、3d…………第1、2、3、4CC
D(複数の撮像素子) 10……………CPU(認識手段、有効部分規定手段、
重み付け手段、輝度分布検出手段、中央重点モード実行
手段、輝度分布対応モード実行手段、動作モード選択手
段) 10A………CPU(電気的走査手段) 12……………ROM(記憶手段) 16 ………合焦演算回路(加算手段、重み付け手段) 22……………ミラーモータ(光学要素駆動手段) 24……………ミラー(光学要素) G0 、G1 、G2 、G3…………全体画面(1つの全体画
像の画面) R01、R02、R03、R04、R11、R12、R13、R14、R
21、R22、R23、R24…………分割画面領域(部分画像
の画面) A01、A02、A03、A04、A11、A12、A13、A14、A
21、A22、A23、A24、………………AFエリア(有効
部分視野に対応する部分画像の領域)
3 ... CCD (imaging device) 3a, 3b, 3c, 3d ... First, second, third, fourth CC
D (plurality of image pickup devices) 10 ... CPU (recognition means, effective part defining means,
Weighting means, brightness distribution detection means, center weighted mode execution means, brightness distribution corresponding mode execution means, operation mode selection means) 10A ......... CPU (electrical scanning means) 12 ......... ROM (storage means) 16 ... Focusing calculation circuit (adding means, weighting means) 22 Mirror mirror (optical element driving means) 24 Mirror (optical elements) G0, G1, G2, G3 ...... Screen (screen of one whole image) R01, R02, R03, R04, R11, R12, R13, R14, R
21, R22, R23, R24 ... Split screen area (screen of partial image) A01, A02, A03, A04, A11, A12, A13, A14, A
21, A22, A23, A24, ... AF area (partial image area corresponding to the effective partial field of view)

Claims (23)

【特許請求の範囲】[Claims] 【請求項1】撮像手段の撮像視野を切換えて走査し該走
査に係る複数の撮像視野にそれぞれ対応する上記撮像手
段の出力に依拠した各個の部分画像を表す情報を組み合
わせて一つの全体画像を表す情報を得るようになされた
電子的撮像装置であって、 上記全体画像の対応する視野から所定の不要視野を除外
した限定視野の各該当部分たる有効部分視野に夫々対応
する上記各個の部分画像を表す情報に基づいて合焦度合
いに係る情報を得る手段を備えたことを特徴とする電子
的撮像装置。
1. An entire image is formed by combining information representing respective partial images depending on the output of the image pickup means corresponding to a plurality of image pickup fields of view associated with the scanning. An electronic image pickup device adapted to obtain information representing, each of the partial images corresponding to an effective partial visual field, which is each corresponding portion of a limited visual field in which a predetermined unnecessary visual field is excluded from the corresponding visual field of the entire image. An electronic image pickup device comprising means for obtaining information relating to a degree of focus based on information indicating
【請求項2】上記一つの全体画像の個々の部分画像を得
るための当該撮像素子への入射光路に介挿された光学要
素を変位させることにより上記撮像視野を切換えて走査
を行うようになされた光学要素駆動手段を備えた請求項
1記載の電子的撮像装置。
2. A scanning is performed by switching the imaging field of view by displacing an optical element interposed in an optical path incident on the image pickup device to obtain individual partial images of the one entire image. The electronic image pickup apparatus according to claim 1, further comprising optical element driving means.
【請求項3】上記一つの全体画像の個々の部分画像を得
るための複数の撮像素子から出力を取り出すにつき該当
素子を所定順序で切り換え選択して、乃至は同時に、出
力を取り出すことにより実効的に上記撮像視野を切り換
えて走査を行うようになされた電気的走査手段を備えた
請求項1記載の電子的撮像装置。
3. Effective extraction of outputs from a plurality of image pickup devices for obtaining individual partial images of the one whole image is performed by switching and selecting the corresponding devices in a predetermined order, or simultaneously extracting outputs. The electronic image pickup apparatus according to claim 1, further comprising an electric scanning unit configured to perform scanning by switching the image pickup field of view.
【請求項4】上記走査に係る複数の撮像視野にそれぞれ
対応して上記有効部分視野がそれぞれ規定されてなる請
求項2、または、3記載の電子的撮像装置。
4. The electronic image pickup apparatus according to claim 2, wherein the effective partial visual fields are defined respectively corresponding to a plurality of image pickup visual fields related to the scanning.
【請求項5】上記走査に係る複数の撮像視野にそれぞれ
対応して上記有効部分視野が等しい形態のものとして規
定されてなる請求項2、または、3記載の電子的撮像装
置。
5. The electronic image pickup apparatus according to claim 2, wherein the effective partial field of view is defined to be equal to each of a plurality of image pickup fields of view related to the scanning.
【請求項6】被写体の形態を認識する認識手段と、 上記認識手段による認識に基づいて上記有効部分視野を
規定する有効部分視野規定手段と、 を備えてなる請求項4、または、5記載の電子的撮像装
置。
6. A recognizing means for recognizing a form of a subject, and an effective partial visual field defining means for defining the effective partial visual field on the basis of the recognition by the recognizing means. Electronic imaging device.
【請求項7】上記有効部分視野を規定する情報が格納さ
れた記憶手段を備えてなる請求項4、または、5記載の
電子的撮像装置。
7. The electronic image pickup apparatus according to claim 4, further comprising a storage unit that stores information defining the effective partial field of view.
【請求項8】上記各個の部分画像を表す情報に基づいて
合焦度合いに係る情報を得るにつき、当該部分画像を表
す情報に基づいて得られる合焦情報を加算して用いるた
めの加算手段を備えたことを特徴とする請求項1、2、
3、4、5、6、または、7記載の電子的撮像装置。
8. Addition means for adding and using focus information obtained based on the information representing the partial image when obtaining information relating to the degree of focus based on the information representing each of the partial images Claims 1 and 2 characterized by comprising
3. The electronic image pickup device according to 3, 4, 5, 6, or 7.
【請求項9】上記加算手段は、被写体の状態に応じて適
応的に重み付け加算するための重み付け手段を含んで構
成されてなる請求項8記載の電子的撮像装置。
9. The electronic image pickup apparatus according to claim 8, wherein said adding means includes weighting means for adaptively performing weighted addition according to the state of the subject.
【請求項10】上記重み付け手段は、当該全体画像の対
応する視野内での比較的中心側で重み付けを重くするも
のである請求項9記載の電子的撮像装置。
10. The electronic image pickup apparatus according to claim 9, wherein the weighting means weights the entire image relatively toward the center in the corresponding visual field.
【請求項11】上記重み付け手段は、当該全体画像に対
応する視野内での輝度分布を検出する輝度分布検出手段
の検出結果に対応した重み付けをするものである請求項
9記載の電子的撮像装置。
11. The electronic image pickup device according to claim 9, wherein the weighting means weights the detection result of the brightness distribution detecting means for detecting the brightness distribution in the visual field corresponding to the entire image. .
【請求項12】上記輝度分布検出手段は、上記各個の部
分画像に対応する領域毎に輝度を検出する処理を行う手
段を含んでなる請求項11記載の電子的撮像装置。
12. The electronic image pickup apparatus according to claim 11, wherein the brightness distribution detecting means includes means for performing a process of detecting brightness for each area corresponding to each of the partial images.
【請求項13】上記領域毎に輝度を検出するに際して
は、それぞれの検出に係る露出条件を一定にして行うよ
うにされた請求項12記載の電子的撮像装置。
13. The electronic image pickup apparatus according to claim 12, wherein when the brightness is detected for each of the areas, the exposure condition for each detection is made constant.
【請求項14】上記各個の部分画像を表す情報に基づい
て合焦度合いに係る情報を得るにつき当該部分画像を表
す情報に基づいて得られる合焦情報を加算して用いるた
めの加算手段と、 上記加算するにつき当該全体画像の対応する視野内での
比較的中心側で重み付けを重くするような重み付けを行
って加算する中央重点モードでの動作を実行するための
中央重点モード実行手段と、 上記加算するにつき当該全体画像の対応する視野内での
輝度分布に対応した重み付けを行って加算する輝度分布
対応モードでの動作を実行するための輝度分布対応モー
ド実行手段と、 当該全体画像の対応する視野内での輝度レベルが所定値
未満であるときには上記中央重点モード実行手段に中央
重点モードでの動作を実行せしめ、同輝度レベルが上記
所定値以上であるときには、上記輝度分布対応モード実
行手段に輝度分布対応モードでの動作を実行せしめるた
めの動作モード選択手段と、 を備えた請求項8記載の電子的撮像装置。
14. Addition means for adding and using focusing information obtained based on the information representing the partial image when obtaining information relating to the degree of focusing based on the information representing each of the partial images, Central weighted mode execution means for executing the operation in the central weighted mode in which the weighting is performed such that the weighting is performed relatively on the center side in the corresponding visual field of the entire image when performing the addition, and A luminance distribution corresponding mode executing means for executing an operation in a luminance distribution corresponding mode for performing weighting corresponding to the luminance distribution in the corresponding visual field of the entire image upon addition and corresponding to the entire image When the brightness level in the field of view is less than the predetermined value, the center-weighted mode execution means is caused to execute the operation in the center-weighted mode, and the brightness level is equal to or higher than the predetermined value. When it is, an electronic imaging device according to claim 8, further comprising a operation mode selecting means for allowing executing the operation of the luminance distribution corresponding mode to the luminance distribution corresponding mode executing means.
【請求項15】撮像手段の撮像視野を切換えて走査し、
該走査に係る複数の撮像視野に夫々対応する上記撮像手
段の出力に依拠した各個の部分画像を表す情報を組み合
わせて一つの全体画像を表す情報を得るようになされた
電子的撮像装置であって、 上記各個の部分画像のうちの1つ、もしくは、複数のも
のに対応する各情報に基づいて合焦度合いに係る情報を
得る手段を備えたことを特徴とする電子的撮像装置。
15. An image pickup field of an image pickup means is switched to perform scanning,
An electronic imaging device adapted to obtain information representing one whole image by combining information representing each partial image depending on the output of the imaging means corresponding to a plurality of imaging fields of view related to the scanning. An electronic image pickup apparatus comprising means for obtaining information relating to a degree of focusing based on information corresponding to one or a plurality of the partial images.
【請求項16】上記一つの全体画像の個々の部分画像を
得るための当該撮像素子への入射光路に介挿された光学
要素を変位させることにより上記撮像視野を切換えて走
査を行うようになされた光学要素駆動手段を備えた請求
項15記載の電子的撮像装置。
16. A scanning is performed by switching the imaging field of view by displacing an optical element interposed in an incident optical path to the image pickup device for obtaining an individual partial image of the one whole image. The electronic image pickup apparatus according to claim 15, further comprising: an optical element driving unit.
【請求項17】上記一つの全体画像の個々の部分画像を
得るための複数の撮像素子から出力を取り出すにつき、
該当素子を所定順序で切り換え選択して、乃至は同時
に、出力を取り出すことにより実効的に上記撮像視野を
切り換えて走査を行うようになされた電気的走査手段を
備えた請求項15記載の電子的撮像装置。
17. Extracting outputs from a plurality of image pickup devices for obtaining individual partial images of the one whole image,
The electronic scanning device according to claim 15, further comprising an electrical scanning unit configured to switch the selected elements in a predetermined order and, at the same time, extract the output to effectively switch the imaging field of view to perform scanning. Imaging device.
【請求項18】上記走査に係る複数の撮像視野にそれぞ
れ対応して上記有効部分視野がそれぞれ規定されてなる
請求項16、または、17記載の電子的撮像装置。
18. The electronic image pickup apparatus according to claim 16, wherein the effective partial visual fields are defined respectively corresponding to a plurality of image pickup visual fields related to the scanning.
【請求項19】上記走査に係る複数の撮像視野およびこ
れらにそれぞれ対応する上記有効部分視野が等しい形態
のものとして規定されてなる請求項16、または、17
記載の電子的撮像装置。
19. A plurality of imaging fields of view related to the scanning and the effective partial fields of view corresponding thereto are defined as having the same form.
Electronic imaging device as described.
【請求項20】被写体の形態に係る情報を認識する認識
手段と、 上記認識手段による認識に基づいて上記有効部分視野を
規定する有効部分視野規定手段と、 を備えてなる請求項16記載の電子的撮像装置。
20. The electronic device according to claim 16, further comprising: a recognizing unit that recognizes information relating to the form of the subject, and an effective partial visual field defining unit that defines the effective partial visual field based on the recognition by the recognizing unit. Imaging device.
【請求項21】上記有効部分視野を規定する情報が格納
された記憶手段を備えてなる請求項16、または、17
記載の電子的撮像装置。
21. A storage means for storing information defining the effective partial field of view.
Electronic imaging device as described.
【請求項22】撮像手段の撮像視野を切換えて走査し、
該走査に係る複数の撮像視野に夫々対応する上記撮像手
段の出力に依拠した各個の部分画像を表す情報を組み合
わせて一つの全体画像を表す情報を得るようになされた
電子的撮像装置であって、 上記一つの全体画像の個々の部分画像を得るための当該
撮像素子への入射光路に介挿された光学要素を変位させ
ることにより上記撮像視野を切り換えて走査を行うよう
になされた光学要素駆動手段と、 上記全体画像の対応する視野から所定の不要視野を除外
した限定視野たる有効部分視野に対応する上記部分画像
を表す情報に基づいて合焦度合いに係る情報を得るため
に、上記光学要素駆動手段による光学要素の変位域を上
記一つの全体画像を表す情報を得るときよりも小さい範
囲に制限する手段と、 を備えたことを特徴とする電子的撮像装置。
22. The imaging visual field of the imaging means is switched to perform scanning,
An electronic imaging device adapted to obtain information representing one whole image by combining information representing each partial image depending on the output of the imaging means corresponding to a plurality of imaging fields of view related to the scanning. , An optical element drive configured to perform scanning by switching the imaging field of view by displacing an optical element interposed in an incident optical path to the image pickup device to obtain an individual partial image of the one entire image Means for obtaining information on the degree of focusing based on information representing the partial image corresponding to the effective partial field of view, which is a limited field of view excluding a predetermined unnecessary field from the corresponding field of view of the entire image, An electronic image pickup device comprising: means for limiting the displacement range of the optical element by the driving means to a range smaller than that for obtaining the information representing the one whole image.
【請求項23】撮像手段の撮像視野を切換えて走査し、
該走査に係る複数の撮像視野にそれぞれ対応する上記撮
像手段の出力に依拠した各個の部分画像を表す情報を組
み合わせて一つの全体画像を表す情報を得るようになさ
れた電子的撮像装置であって、 上記各個の部分画像のうちの一つのもの、または、複数
のものに対応する情報に基づいて合焦度合いに係る情報
を得る手段と、 上記合焦度合いに係る情報に基づいて合焦調節を行うた
めの手段と、上記合焦調節が行われてから上記各個の部
分画像を表す情報を組み合わせて一つの全体画像を表す
情報を得るための組合せ手段と、 を備えたことを特徴とする電子的撮像装置。
23. The imaging visual field of the imaging means is switched to perform scanning,
An electronic imaging device adapted to obtain information representing one whole image by combining information representing each partial image depending on the output of the imaging means corresponding to a plurality of imaging fields of view related to the scanning. , Means for obtaining information on the degree of focus based on information corresponding to one of the individual partial images or a plurality of pieces, and focus adjustment based on the information on the degree of focus. An electronic device comprising: a unit for performing the focus adjustment and a combining unit for obtaining the information representing one whole image by combining the information representing the individual partial images after the focus adjustment is performed. Imaging device.
JP16796794A 1994-07-20 1994-07-20 Electronic imaging device Expired - Fee Related JP3619541B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16796794A JP3619541B2 (en) 1994-07-20 1994-07-20 Electronic imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16796794A JP3619541B2 (en) 1994-07-20 1994-07-20 Electronic imaging device

Publications (2)

Publication Number Publication Date
JPH0832863A true JPH0832863A (en) 1996-02-02
JP3619541B2 JP3619541B2 (en) 2005-02-09

Family

ID=15859360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16796794A Expired - Fee Related JP3619541B2 (en) 1994-07-20 1994-07-20 Electronic imaging device

Country Status (1)

Country Link
JP (1) JP3619541B2 (en)

Also Published As

Publication number Publication date
JP3619541B2 (en) 2005-02-09

Similar Documents

Publication Publication Date Title
US8494301B2 (en) Refocusing images using scene captured images
JP5395678B2 (en) Distance map generation type multi-lens camera
US9332194B2 (en) Imaging apparatus for obtaining a user-intended image when orientation of the imaging apparatus changes in applying a special effect that changes the image quality in a set direction
JP4198449B2 (en) Digital camera
JP3541820B2 (en) Imaging device and imaging method
US20080030592A1 (en) Producing digital image with different resolution portions
US9282312B2 (en) Single-eye stereoscopic imaging device, correction method thereof, and recording medium thereof
WO2017045558A1 (en) Depth-of-field adjustment method and apparatus, and terminal
WO2007049634A1 (en) Imaging device, image processing device, and program
JP4509081B2 (en) Digital camera and digital camera program
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
JP4645413B2 (en) Imaging device
JP2001298659A (en) Image pickup device, image processing system, image pickup method and storage medium
JP2007324856A (en) Imaging apparatus and imaging control method
JP4250198B2 (en) Digital camera
JP3984346B2 (en) Imaging apparatus and image composition method
JP2003209727A (en) Digital camera
JPH1188731A (en) Camera
JP2007124278A (en) Imaging apparatus
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP3619541B2 (en) Electronic imaging device
JP3991448B2 (en) camera
JP4923674B2 (en) Digital camera, focus position specifying method, program
JP4520792B2 (en) Automatic focus control method and automatic focus control device
US11057560B2 (en) Image pickup apparatus, image pickup method, and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20031209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071119

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111119

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111119

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121119

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees