JP2003058893A - Processor, image pickup device and control method therefor - Google Patents

Processor, image pickup device and control method therefor

Info

Publication number
JP2003058893A
JP2003058893A JP2001246211A JP2001246211A JP2003058893A JP 2003058893 A JP2003058893 A JP 2003058893A JP 2001246211 A JP2001246211 A JP 2001246211A JP 2001246211 A JP2001246211 A JP 2001246211A JP 2003058893 A JP2003058893 A JP 2003058893A
Authority
JP
Japan
Prior art keywords
information
image
image frame
movement amount
vertical direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001246211A
Other languages
Japanese (ja)
Inventor
Mineo Uchida
峰雄 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001246211A priority Critical patent/JP2003058893A/en
Publication of JP2003058893A publication Critical patent/JP2003058893A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor which accurately detects the movement of an object or photograph picture frame of a camera on the basis of photographed image information having a small number of pixels, and an image pickup device in which the image processor can be packaged. SOLUTION: The image pickup device is provided with a detection part 26 for detecting the movement of an image from each of a plurality of detection areas in a picture inputted by an imaging device and determining the movement of an entire or partial picture from the movement in each of areas, and by decomposing the movement of the image into two axial directions (horizontal direction and vertical direction) and changing a method for selecting the detection area corresponding to each of axial directions, the detection area suited to the axial direction to detect the movement can be segmented. Thus, since a large quantity of information is taken in a moving direction corresponding to the direction of the movement, a detected moving amount becomes more highly reliable and even when using the imaging device having a comparatively small number of pixels, the movement of the object or image pickup picture frame of the image pickup device can be accurately detected from the image information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像の動きを動き
ベクトルとして検出可能な画像処理装置、その画像処理
装置を搭載可能な撮像装置およびそれらの制御方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus capable of detecting a motion of an image as a motion vector, an image pickup apparatus capable of mounting the image processing apparatus, and a control method thereof.

【従来の技術】カメラ等の光学機器や撮像装置では、撮
像素子からある時間間隔をおいて入力される像情報に基
づいて被写体の動きやカメラの撮影画枠の動き(パンや
ブレ)を検出する技術として、これまで様々な技術が提
案されている。また、主な被写体の動きを検出する前処
理技術として、画面内の周辺部分の情報からカメラの動
きを検出し、その情報に基づいて、主な被写体の動きを
検出して演算する技術も提案されている。
2. Description of the Related Art In an optical device such as a camera or an image pickup apparatus, the movement of a subject or the movement of a camera image frame (pan or blur) is detected based on image information input from an image pickup device at a certain time interval. Various techniques have been proposed so far. Also, as a preprocessing technology to detect the movement of the main subject, we also propose a technology that detects the movement of the camera from the information of the peripheral part of the screen and detects and calculates the movement of the main subject based on that information. Has been done.

【発明が解決しようとする課題】しかしながら、従来の
技術では、像情報に基づいて被写体あるいはカメラの撮
影画枠の動きを精度良く検出するには、画素数の非常に
多い撮像素子を必要とした。特に、画面内のいくつかの
領域のみを演算に用いる場合には、検出領域だけでも像
の動き検出に十分な画素数を持たなければならない。そ
のため画面全体では非常に多数の画素数が必要となる。
このため、少ない画素数の撮像素子に基づいて、被写体
の動きやカメラの撮影画枠の動き(パンやブレ)を検出
することは、困難であった。本発明は上記説明した従来
技術の問題点を解決するためになされたものであり、そ
の目的は、撮像された少ない画素数の画像情報に基づい
て被写体あるいはカメラの撮影画枠の動きを精度良く検
出できる画像処理装置およびその画像処理装置を搭載可
能な撮像装置ならびにそれらの制御方法を提供すること
である。
However, in the conventional technique, an image pickup device having a very large number of pixels is required to accurately detect the movement of the subject or the image frame of the camera based on the image information. . In particular, when only some areas in the screen are used for calculation, the detection area alone must have a sufficient number of pixels for image motion detection. Therefore, a very large number of pixels is required for the entire screen.
Therefore, it is difficult to detect the movement of the subject or the movement of the image frame of the camera (panning or blurring) based on the image sensor having a small number of pixels. The present invention has been made in order to solve the above-mentioned problems of the prior art, and an object thereof is to accurately move a subject or a shooting image frame of a camera based on image information of a small number of pixels taken. An object of the present invention is to provide a detectable image processing device, an imaging device capable of mounting the image processing device, and a control method thereof.

【課題を解決するための手段】上記目的を達成するため
の本発明に係る一実施形態の撮像装置は、以下の構成を
有する。すなわち、被写体像を連続して撮像し、複数の
画像を生成する撮像手段を有する撮像装置であって、前
記画像の画枠の鉛直方向に長い矩形領域を形成する画素
群の輝度に関する情報である鉛直方向輝度情報を取得す
る第1の取得手段と、前記画像の画枠の水平方向に長い
矩形領域を形成する画素群の輝度に関する情報である水
平方向輝度情報を取得する第2の取得手段と、前記鉛直
方向輝度情報と前記水平方向輝度情報とに基づいて、前
記複数の画像間における前記画枠の移動量に関する情報
を生成する移動量生成手段と、を有することを特徴とす
る。
An image pickup apparatus according to an embodiment of the present invention for achieving the above object has the following configuration. That is, the image pickup apparatus has an image pickup unit that continuously picks up a subject image and generates a plurality of images, and is information regarding the luminance of a pixel group that forms a rectangular area that is long in the vertical direction of the image frame of the image. First obtaining means for obtaining the vertical direction luminance information, and second obtaining means for obtaining the horizontal direction luminance information which is information relating to the luminance of a pixel group forming a horizontally long rectangular area of the image frame of the image. And a movement amount generation unit that generates information regarding a movement amount of the image frame between the plurality of images based on the vertical direction luminance information and the horizontal direction luminance information.

【0002】ここで、例えば、前記鉛直方向に長い矩形
領域とは、前記画枠内の左側端部または右側端部であ
り、前記水平方向に長い矩形領域とは、前記画枠内の上
側端部または下側端部であることが好ましい。
Here, for example, the vertically long rectangular area is a left end portion or a right end portion in the image frame, and the horizontally long rectangular area is an upper end portion in the image frame. Part or lower end part.

【0003】ここで、例えば、前記移動量検出手段は、
前記鉛直方向輝度情報より前記画枠の鉛直方向の移動量
を算出し、前記水平方向輝度情報より前記画枠の水平方
向の移動量を算出し、それぞれ算出された移動量に基づ
いて前記画枠の移動量を生成することが好ましい。
Here, for example, the movement amount detecting means is
The vertical movement amount of the image frame is calculated from the vertical direction luminance information, the horizontal movement amount of the image frame is calculated from the horizontal direction luminance information, and the image frame is calculated based on the calculated movement amount. It is preferable to generate a movement amount of

【0004】ここで、例えば、前記画枠の移動量に関す
る情報に基づいて前記複数の画像間に生じる撮影画像ず
れを補正する補正手段と、前記補正された画像を用いて
前記複数の画像中に存在する動体の存在領域を検出する
検出手段と、を更に有することをが好ましい。
Here, for example, correction means for correcting a photographed image shift that occurs between the plurality of images based on the information regarding the movement amount of the image frame, and the correction images are used in the plurality of images. It is preferable to further include a detection unit that detects an existing region of an existing moving body.

【0005】上記目的を達成するための本発明に係る一
実施形態のプロセッサは、以下の構成を有する。すなわ
ち、入力される複数の画像に基づいて、前記複数の画像
間に生じる画枠の移動量に関する情報を生成するプロセ
ッサであって、前記画像の画枠の鉛直方向に長い矩形領
域を形成する画素群の輝度に関する情報である鉛直方向
輝度情報を取得する第1の取得手段と、前記画像の画枠
の水平方向に長い矩形領域を形成する画素群の輝度に関
する情報である水平方向輝度情報を取得する第2の取得
手段と、前記鉛直方向輝度情報と前記水平方向輝度情報
とに基づいて、前記複数の画像間における前記画枠の移
動量に関する情報を生成する移動量生成手段と、を有す
ることを特徴とする。
A processor according to an embodiment of the present invention for achieving the above object has the following configuration. That is, a processor that generates information on the amount of movement of image frames that occur between the plurality of images based on a plurality of images that are input, and that is a pixel that forms a rectangular area that is long in the vertical direction of the image frames of the images. First acquisition means for acquiring vertical direction brightness information that is information about the brightness of a group, and horizontal brightness information that is information about the brightness of a pixel group that forms a rectangular region that is long in the horizontal direction of the image frame of the image. And a movement amount generation unit that generates information regarding a movement amount of the image frame between the plurality of images based on the vertical direction luminance information and the horizontal direction luminance information. Is characterized by.

【0006】ここで、例えば、前記鉛直方向に長い矩形
領域とは、前記撮影画枠内の左側端部または右側端部で
あり、前記水平方向に長い矩形領域とは、前記画枠内の
上側端部または下側端部であることが好ましい。
Here, for example, the vertically long rectangular area is a left end portion or a right end portion in the photographing image frame, and the horizontally long rectangular area is an upper portion in the image frame. It is preferably an end or a lower end.

【0007】ここで、例えば、前記移動量検出手段は、
前記鉛直方向輝度情報より前記撮影画枠の鉛直方向の移
動量を算出し、前記水平方向輝度情報より前記撮影画枠
の水平方向の移動量を算出し、それぞれ算出された移動
量に基づいて前記撮影画枠の移動量を生成することが好
ましい。
Here, for example, the movement amount detecting means is
The vertical movement amount of the photographing image frame is calculated from the vertical direction luminance information, the horizontal movement amount of the photographing image frame is calculated from the horizontal direction luminance information, and the movement amount is calculated based on the calculated movement amount. It is preferable to generate the movement amount of the photographing image frame.

【0008】ここで、例えば、前記撮影画枠の移動量に
関する情報に基づいて前記複数の画像間に生じる撮影画
枠ずれを補正する補正手段と、前記補正された画像を用
いて前記複数の画像データ中に存在する動体の存在領域
を検出する検出手段と、を更に有することが好ましい。
[0008] Here, for example, a correction means for correcting the shift of the shooting image frame that occurs between the plurality of images based on the information regarding the movement amount of the shooting image frame, and the plurality of images using the corrected image. It is preferable to further include a detection unit that detects a region where a moving body exists in the data.

【0009】上記目的を達成するための本発明に係る一
実施形態の撮像装置の制御方法は、以下の構成を有す
る。すなわち、被写体像を連続して撮像し、複数の画像
を生成する撮像工程を有する撮像装置の制御方法であっ
て、前記画像の画枠の鉛直方向に長い矩形領域を形成す
る画素群の輝度に関する情報である鉛直方向輝度情報を
取得する第1の取得工程と、前記画像の画枠の水平方向
に長い矩形領域を形成する画素群の輝度に関する情報で
ある水平方向輝度情報を取得する第2の取得工程と、前
記鉛直方向輝度情報と前記水平方向輝度情報とに基づい
て、前記複数の画像間における前記画枠の移動量に関す
る情報を生成する移動量生成工程と、を有することを特
徴とする。
An image pickup apparatus control method according to an embodiment of the present invention for achieving the above object has the following configuration. That is, a method of controlling an image pickup apparatus having an image pickup step of continuously picking up a subject image and generating a plurality of images, which relates to the luminance of a pixel group forming a rectangular region long in the vertical direction of the image frame of the image. A first acquisition step of acquiring vertical luminance information that is information, and a second acquisition step of horizontal luminance information that is information regarding the luminance of a pixel group that forms a rectangular region that is long in the horizontal direction of the image frame of the image. An acquisition step, and a movement amount generation step of generating information regarding a movement amount of the image frame between the plurality of images based on the vertical direction luminance information and the horizontal direction luminance information. .

【0010】上記目的を達成するための本発明に係る一
実施形態のプロセッサは、以下の構成を有する。すなわ
ち、入力される複数の画像に基づいて、前記複数の画像
間に生じる画枠の移動量に関する情報を生成するプロセ
ッサの制御方法であって、前記画像の画枠の鉛直方向に
長い矩形領域を形成する画素群の輝度に関する情報であ
る鉛直方向輝度情報を取得する第1の取得工程と、前記
画像の画枠の水平方向に長い矩形領域を形成する画素群
の輝度に関する情報である水平方向輝度情報を取得する
第2の取得工程と、前記鉛直方向輝度情報と前記水平方
向輝度情報とに基づいて、前記複数の画像間における前
記画枠の移動量に関する情報を生成する移動量生成工程
と、を有することを特徴とする。
A processor according to an embodiment of the present invention for achieving the above object has the following configuration. That is, it is a control method of a processor that generates information on the amount of movement of image frames that occur between the plurality of images based on a plurality of input images, and a rectangular area that is long in the vertical direction of the image frames of the images. A first acquisition step of acquiring vertical direction brightness information that is information related to the brightness of a pixel group to be formed, and horizontal brightness that is information related to the brightness of a pixel group that forms a rectangular area that is long in the horizontal direction of the image frame of the image. A second acquisition step of acquiring information, and a movement amount generation step of generating information regarding a movement amount of the image frame between the plurality of images based on the vertical direction luminance information and the horizontal direction luminance information, It is characterized by having.

【0011】上記目的を達成するための本発明に係る一
実施形態のプログラムは、以下の構成を有する。すなわ
ち、上記に記載の撮像装置の制御方法を実現するための
プログラムコードを有する情報処理装置が実行可能なこ
とを特徴とする。
A program according to an embodiment of the present invention for achieving the above object has the following configuration. That is, it is characterized in that the information processing apparatus having the program code for realizing the above-described method for controlling the image pickup apparatus can be executed.

【0012】上記目的を達成するための本発明に係る一
実施形態の記憶媒体は、以下の構成を有する。すなわ
ち、上記に記載のプログラムを記憶したことを特徴とす
る。
A storage medium according to an embodiment of the present invention for achieving the above object has the following configuration. That is, the above-mentioned program is stored.

【0013】上記目的を達成するための本発明に係る一
実施形態のプログラムは、以下の構成を有する。すなわ
ち、上記に記載のプロセッサの制御方法を実現するため
のプログラムコードを有する情報処理装置が実行可能な
ことを特徴とする。
A program according to an embodiment of the present invention for achieving the above object has the following configuration. That is, it is characterized in that an information processing apparatus having a program code for realizing the above-described processor control method can be executed.

【0014】上記目的を達成するための本発明に係る一
実施形態の記憶媒体は、以下の構成を有する。すなわ
ち、上記に記載のプログラムを記憶したことを特徴とす
る。
A storage medium according to an embodiment of the present invention for achieving the above object has the following configuration. That is, the above-mentioned program is stored.

【0015】[0015]

【発明の実施の形態】以下に図面を参照して、本発明に
係る好適な実施形態の一例である画像処理装置、この画
像処理装置を搭載した撮像装置およびそれらの制御方法
について説明する。
BEST MODE FOR CARRYING OUT THE INVENTION An image processing apparatus as an example of a preferred embodiment according to the present invention, an image pickup apparatus equipped with this image processing apparatus, and a control method thereof will be described below with reference to the drawings.

【0016】なお本実施形態では、画像処理装置として
プロセッサを、撮像装置としてレンズ交換可能ないわゆ
る一眼レフタイプのカメラを用いて説明する。 [撮像装置の全体構成:図1]図1は、本実施形態の画
像処理装置であるプロセッサを搭載した撮像装置である
カメラの全体構成を示す図である。
In this embodiment, a processor is used as an image processing apparatus, and a so-called single-lens reflex type camera with interchangeable lenses is used as an image pickup apparatus. [Overall Configuration of Imaging Device: FIG. 1] FIG. 1 is a diagram illustrating an overall configuration of a camera, which is an imaging device, equipped with a processor that is an image processing device according to the present embodiment.

【0017】図1において、10はカメラ本体、30は
交換レンズであり、カメラ本体10から交換レンズ30
は交換可能である。
In FIG. 1, 10 is a camera body and 30 is an interchangeable lens.
Are exchangeable.

【0018】[カメラ本体]まずカメラ本体10につい
て説明する。11は撮影レンズの光軸、12はフィルム
面、13は半透過性の主ミラー、14は第1反射ミラー
である。主ミラー13と第1反射ミラー14はともに撮
影時には上部に跳ね上がり、撮影レンズの光軸11から
はずれる。
[Camera Body] First, the camera body 10 will be described. Reference numeral 11 is an optical axis of the taking lens, 12 is a film surface, 13 is a semi-transparent main mirror, and 14 is a first reflecting mirror. Both the main mirror 13 and the first reflecting mirror 14 jump up to the top during shooting, and deviate from the optical axis 11 of the shooting lens.

【0019】15は第1反射ミラー14によるフィルム
面12と共役な近軸時結像面、16は第2反射ミラー、
17は赤外カットフィルター、18は2つの開口部を有
する絞り、19は2次結像レンズ、20は焦点検出用セ
ンサーである。
Reference numeral 15 is a paraxial image forming plane conjugate with the film surface 12 formed by the first reflecting mirror 14, and 16 is a second reflecting mirror.
Reference numeral 17 is an infrared cut filter, 18 is a diaphragm having two openings, 19 is a secondary imaging lens, and 20 is a focus detection sensor.

【0020】[焦点検出用センサー:図2]焦点検出用
センサー20は、例えばCMOSやCCDといったエリ
アの蓄積型の光電変換素子から構成されている。例え
ば、図2に示すように、絞り18の2つの開口部に対応
して、焦点検出用センサー20の多数に分割された受光
センサー部は、20Aと20Bに示すように1対のエリ
アを構成している。
[Focus Detection Sensor: FIG. 2] The focus detection sensor 20 is composed of an accumulation type photoelectric conversion element in an area such as a CMOS or CCD. For example, as shown in FIG. 2, a plurality of light receiving sensor portions of the focus detection sensor 20 corresponding to the two openings of the diaphragm 18 form a pair of areas as shown in 20A and 20B. is doing.

【0021】また、受光センサー部20Aと20Bに加
えて、信号蓄積部(図示せず)や信号処理用の周辺回路
(図示せず)などが同一チップ上に集積回路として作り
込まれている。
In addition to the light receiving sensor units 20A and 20B, a signal storage unit (not shown), a peripheral circuit for signal processing (not shown), and the like are formed on the same chip as an integrated circuit.

【0022】図1における第1反射ミラー14から焦点
検出用センサー20までの構成は、特開平9−1849
65等に詳細に記載されているように、撮影画面内の任
意の位置で、像ずれ方式による焦点検出を可能とするも
のである。
The structure from the first reflecting mirror 14 to the focus detecting sensor 20 in FIG. 1 is disclosed in Japanese Patent Laid-Open No. 9-1849.
As described in detail in No. 65 and the like, it is possible to detect the focus by the image shift method at an arbitrary position within the photographing screen.

【0023】[焦点検出用エリア:図3]図3は、像ず
れ方式による焦点検出を行うため、撮影画面内にFA1
〜FA25の25ポイントの焦点検出用エリアを設けた
一例を示したものである。
[Focus Detection Area: FIG. 3] In FIG. 3, since the focus detection is performed by the image shift method, FA1 is displayed in the photographing screen.
8 shows an example in which 25 points of focus detection areas of FA25 are provided.

【0024】図1の説明に戻って、21は拡散性を有す
るピント板、22はペンタプリズム、23は接眼レン
ズ、24は第3の反射ミラー、25は集光レンズ、26
は被写体の輝度に関する情報を得るための測光用センサ
ーである。
Returning to the explanation of FIG. 1, 21 is a focusing plate having diffusivity, 22 is a penta prism, 23 is an eyepiece lens, 24 is a third reflecting mirror, 25 is a condenser lens, and 26 is a condenser lens.
Is a photometric sensor for obtaining information about the brightness of the subject.

【0025】[測光用センサー:図4、図5]測光用セ
ンサー26は、例えば、CMOSやCCDといったエリ
アの蓄積型光電変換素子から構成されている。例えば、
図4に示すように、格子状に複数分割された受光センサ
ー部を有する構成になっており、撮影画面の略全体を視
野としている。図4に示す複数分割された受光センサー
部は、図5に示すようにP1、1〜Pm、n、すなわち
m×nに分割されている。
[Photometric sensor: FIGS. 4 and 5] The photometric sensor 26 is composed of, for example, a storage photoelectric conversion element in an area such as a CMOS or CCD. For example,
As shown in FIG. 4, it is configured to have a plurality of light-receiving sensor portions divided into a lattice shape, and has a field of view substantially over the entire photographing screen. The plurality of divided light receiving sensor units shown in FIG. 4 are divided into P1, 1 to Pm, n, that is, m × n, as shown in FIG.

【0026】また測光用センサー26には、受光センサ
ー部以外に信号蓄積部(図示せず)や信号処理用の周辺
回路(図示せず)などが同一チップ上に集積回路として
作り込まれている。
Further, in the photometric sensor 26, in addition to the light receiving sensor section, a signal storage section (not shown), a peripheral circuit for signal processing (not shown), and the like are formed as an integrated circuit on the same chip. .

【0027】図1における27は撮影レンズを取り付け
るマウント部、28は撮影レンズと情報通信を行うため
の接点部である。
Reference numeral 27 in FIG. 1 denotes a mount portion for mounting a photographing lens, and 28 denotes a contact portion for performing information communication with the photographing lens.

【0028】[交換レンズ:図1]次に交換レンズ30
について説明する。
[Interchangeable Lens: FIG. 1] Next, the interchangeable lens 30
Will be described.

【0029】図1における31は絞り、32はカメラ本
体と情報通信を行うための接点部、33はカメラに取り
付けられるためのマウント部、34〜37は撮影レンズ
を構成する各光学レンズである。
In FIG. 1, 31 is a diaphragm, 32 is a contact part for communicating information with the camera body, 33 is a mount part to be attached to the camera, and 34 to 37 are optical lenses constituting a taking lens.

【0030】[撮像装置の電気回路の構成:図6]図6
に、撮像装置の電気回路の構成の一例を示す。
[Structure of Electric Circuit of Imaging Device: FIG. 6] FIG.
An example of the configuration of the electric circuit of the imaging device is shown in FIG.

【0031】[カメラ本体:図6]まずカメラ本体10
ついて説明する。
[Camera body: FIG. 6] First, the camera body 10
explain about.

【0032】41は例えば内部にALU、ROM、RA
MやA/Dコンバータ、タイマー機能あるいはシリアル
通信ポート等を内蔵したワンチップマイクロコンピュー
タによる制御部でありカメラ機構等の全体制御を行う。
制御部41の具体的な制御シーケンスについては後述す
る。
41 is, for example, an ALU, ROM, RA inside
It is a control unit by a one-chip microcomputer having a built-in M or A / D converter, a timer function, a serial communication port, etc., and controls the entire camera mechanism and the like.
A specific control sequence of the control unit 41 will be described later.

【0033】焦点検出用センサー20および測光用セン
サー26は図1等に記載したものと同一である。焦点検
出用センサー20および測光用センサー26の出力信号
は、制御部41のA/Dコンバータ入力端子に接続され
る。
The focus detecting sensor 20 and the photometric sensor 26 are the same as those shown in FIG. Output signals of the focus detection sensor 20 and the photometric sensor 26 are connected to an A / D converter input terminal of the control unit 41.

【0034】42はシャッターであり制御部41の出力
端子に接続されて制御される。43は第1モータードラ
イバであり制御部41の出力端子に接続されて制御さ
れ、フィルム給送や主ミラー13の駆動等を行うための
第1モーター44を駆動する。45はカメラの姿勢を検
出するセンサーであり、その出力信号は制御部41の入
力端子に接続される。制御部41は姿勢検出センサー4
5の情報を入力することで撮影時に横位置に構えての撮
影なのか、縦位置に構えての撮影なのかといった情報を
得ることができる。
A shutter 42 is connected to an output terminal of the control unit 41 and controlled. A first motor driver 43 is connected to an output terminal of the control unit 41 and controlled, and drives a first motor 44 for feeding the film, driving the main mirror 13, and the like. Reference numeral 45 denotes a sensor that detects the attitude of the camera, and the output signal thereof is connected to the input terminal of the control unit 41. The control unit 41 uses the attitude detection sensor 4
By inputting the information of 5, it is possible to obtain information as to whether the image is held in the horizontal position or in the vertical position at the time of shooting.

【0035】46は低照度下の条件で測距センサー20
により焦点検出を行う場合に被写体に赤外光などを投光
するAF光源であり、制御部41の出力信号に応じて発
光される。47は被写体の輝度が不足しているような場
合に撮影時に発光する発光部であり、制御部41の出力
信号に応じてフラッシュなどにより発光される。
Reference numeral 46 denotes the distance measuring sensor 20 under the condition of low illuminance.
Is an AF light source that projects infrared light or the like onto a subject when focus detection is performed by, and emits light in accordance with an output signal from the control unit 41. Reference numeral 47 is a light emitting unit that emits light when photographing when the brightness of the subject is insufficient, and is emitted by a flash or the like according to the output signal of the control unit 41.

【0036】48は液晶パネル等で構成されて撮影枚数
や日付情報、撮影情報等を表示する表示器であり、制御
部41の出力信号に応じて各セグメントが点灯制御され
る。49は各種スイッチであり、レリーズボタン等が含
まれる。28は図1に記載した接点部であり、制御部4
1のシリアル通信ポートの入出力信号が接続される。
Reference numeral 48 denotes a display device which is composed of a liquid crystal panel or the like and displays the number of shots, date information, shooting information and the like, and lighting of each segment is controlled according to the output signal of the control section 41. Reference numeral 49 denotes various switches including a release button and the like. Reference numeral 28 is the contact portion shown in FIG.
The input / output signals of one serial communication port are connected.

【0037】[交換レンズ:図6]次に交換レンズ30
について説明する。
[Interchangeable lens: FIG. 6] Next, the interchangeable lens 30
Will be described.

【0038】51は、例えば内部にALU、ROM、R
AMやシリアル通信ポート等を内蔵したワンチップマイ
クロコンピュータによるレンズ制御部である。52は、
第2モータードライバであり、レンズ制御部51の出力
端子に接続されて制御され、焦点調節を行うための第2
モーター53を駆動する。
51 is, for example, an ALU, ROM, R inside
It is a lens control unit by a one-chip microcomputer including an AM and a serial communication port. 52 is
A second motor driver, which is connected to an output terminal of the lens control unit 51 and is controlled to perform a second focus adjustment.
The motor 53 is driven.

【0039】54は第3モータードライバであり、レン
ズ制御部51の出力端子に接続されて制御され、図1に
て記載された絞り31の制御を行うための第3モーター
55を駆動する。
Reference numeral 54 denotes a third motor driver, which is connected to the output terminal of the lens controller 51 and controlled to drive the third motor 55 for controlling the diaphragm 31 shown in FIG.

【0040】56は、焦点調節レンズの繰り出し量、す
なわち被写体距離に関する情報を得るための距離エンコ
ーダーであり、レンズ制御部51の入力端子に接続され
る。57は、交換レンズ30がズームレンズである場合
に撮影時の焦点距離情報を得るためのズームエンコーダ
ーであり、レンズ制御部51の入力端子に接続されてい
る。
Reference numeral 56 denotes a distance encoder for obtaining the amount of extension of the focus adjustment lens, that is, information on the object distance, which is connected to the input terminal of the lens controller 51. Reference numeral 57 is a zoom encoder for obtaining focal length information at the time of shooting when the interchangeable lens 30 is a zoom lens, and is connected to the input terminal of the lens control unit 51.

【0041】32は、図1に記載された接点部であり、
レンズ制御部51のシリアル通信ポートの入出力信号が
接続される。
Reference numeral 32 is the contact portion shown in FIG.
The input / output signals of the serial communication port of the lens controller 51 are connected.

【0042】交換レンズ30がカメラ本体10に装着さ
れると、それぞれの接点部28と32とが接続されて、
レンズ制御部51はカメラ本体の制御部41とのデータ
通信が可能となる。
When the interchangeable lens 30 is attached to the camera body 10, the respective contact points 28 and 32 are connected,
The lens control unit 51 can perform data communication with the control unit 41 of the camera body.

【0043】カメラ本体の制御部41が焦点検出や露出
演算を行うために必要なレンズ固有の光学的な情報、お
よび、距離エンコーダー56あるいはズームエンコーダ
ー57に基づいた被写体距離に関する情報または焦点距
離情報は、レンズ制御部51からカメラ本体の制御部4
1へとデータ通信によって出力される。
The optical information peculiar to the lens necessary for the control unit 41 of the camera body to perform focus detection and exposure calculation, and the information on the object distance or the focal length information based on the distance encoder 56 or the zoom encoder 57, , The lens controller 51 to the camera controller 4
1 is output by data communication.

【0044】また、カメラ本体の制御部41が焦点検出
や露出演算を行った結果求められた焦点調節情報や絞り
情報はカメラ本体の制御部41からレンズ制御部51へ
とデータ通信によって出力されて、レンズ制御部51は
焦点調節情報に従って第2のモータードライバ52を制
御し、絞り情報に従って第3のモータードライバ54を
制御する。
The focus adjustment information and aperture information obtained as a result of the focus detection and the exposure calculation performed by the control unit 41 of the camera body are output from the control unit 41 of the camera body to the lens control unit 51 by data communication. The lens control unit 51 controls the second motor driver 52 according to the focus adjustment information, and controls the third motor driver 54 according to the aperture information.

【0045】[制御部の動作]次に、図7のフローチャ
ートを用いて、カメラ本体の制御部41の動作シーケン
スについて説明する。
[Operation of Control Unit] Next, the operation sequence of the control unit 41 of the camera body will be described with reference to the flowchart of FIG.

【0046】不図示の電源スイッチがオンされて制御部
41が動作可能となり、不図示のレリーズボタンの第1
ストロークスイッチがオンされると、制御部41の動作
が開始する。
A power switch (not shown) is turned on to enable the controller 41 to operate, and the first release button (not shown) is activated.
When the stroke switch is turned on, the operation of the control unit 41 starts.

【0047】まず、ステップS101において、制御部
41は、測光用センサー26に制御信号を出力し、測光
用の第1の信号蓄積を行う。
First, in step S101, the control section 41 outputs a control signal to the photometric sensor 26 to accumulate the first photometric signal.

【0048】次に、ステップS102において、制御部
41は、測光用センサー26に蓄積された各受光部P
1、1〜Pm、nの信号を読み出しながらA/D変換を
行い、第1の蓄積信号の情報としてRAMに記憶する。
この際に、変換された各デジタルデータに対してシェー
ディング等の必要な各種のデータ補正を行う。
Next, in step S102, the control section 41 controls each light receiving section P stored in the photometric sensor 26.
A / D conversion is performed while reading out the signals 1 to 1 to Pm and n, and the signals are stored in the RAM as information of the first accumulated signal.
At this time, various necessary data corrections such as shading are performed on each converted digital data.

【0049】次に、ステップS103において、制御部
41は、タイマー部で所定時間が経過するまで待つよう
に指示し、所定時間が経過するとステップS104へ進
む。
Next, in step S103, the control unit 41 instructs the timer unit to wait until a predetermined time has elapsed, and when the predetermined time has elapsed, the process proceeds to step S104.

【0050】次に、ステップS104において、制御部
41は、測光用センサー26に制御信号を出力して、測
光用の第2の信号蓄積を行う。
Next, in step S104, the control section 41 outputs a control signal to the photometric sensor 26 to accumulate the second photometric signal.

【0051】次に、ステップS105において、制御部
41は、測光用センサー26に蓄積された各受光部P
1、1〜Pm、nの信号を読み出しながらA/D変換を
行い、第2の蓄積信号情報としてRAMに記憶する。こ
の際に、変換された各デジタルデータに対してシェーデ
ィング等の必要な各種のデータ補正を行う。
Next, in step S105, the control section 41 controls the light receiving sections P accumulated in the photometric sensor 26.
A / D conversion is performed while reading out the signals 1 to 1 to Pm and n, and stored in the RAM as second accumulated signal information. At this time, various necessary data corrections such as shading are performed on each converted digital data.

【0052】次に、ステップS106において、制御部
41は、第2の蓄積信号の情報に基づいて、周知のアル
ゴリズムによる露出演算を行う。露出演算によって、被
写体の輝度を求め、これに対して適正露出となるシャッ
ター速度や絞り値を決定する。また、フラッシュ発光を
するかどうかの判別もする。
Next, in step S106, the control section 41 performs an exposure calculation by a known algorithm based on the information of the second accumulated signal. The brightness of the subject is obtained by the exposure calculation, and the shutter speed and aperture value that provide the proper exposure are determined. Also, it is determined whether or not the flash is to be emitted.

【0053】次に、ステップS107において、制御部
41は、第1の蓄積信号の情報および第2の蓄積信号の
情報に基づいて動体領域の検出を行う。(この動体領域
検出の具体的方法は後述する。)次に、ステップS10
8において、制御部41は、動体領域検出結果に基づい
て、焦点検出を行うべきエリアをFA1〜FA25の焦
点検出エリアより選択する。
Next, in step S107, the control unit 41 detects the moving body area based on the information of the first accumulated signal and the information of the second accumulated signal. (A specific method for detecting this moving body area will be described later.) Next, step S10.
In 8, the control unit 41 selects an area where focus detection is to be performed from the focus detection areas FA1 to FA25 based on the moving body area detection result.

【0054】次に、ステップS109において、制御部
41は、焦点検出用センサー20に対して制御信号を出
力して、信号蓄積を行う。
Next, in step S109, the control section 41 outputs a control signal to the focus detection sensor 20 to accumulate the signal.

【0055】次に、ステップS110において、制御部
41は、焦点検出用センサー20に蓄積された信号を読
み出しながらA/D変換を行う。さらに、変換された各
デジタルデータに対してシェーディング等の必要な各種
のデータ補正を行う。
Next, in step S110, the control section 41 performs A / D conversion while reading the signal accumulated in the focus detection sensor 20. Further, various necessary data corrections such as shading are performed on each converted digital data.

【0056】次に、ステップS111において、制御部
41は、焦点検出を行うために必要なレンズ情報等をレ
ンズ制御部51より入力し、これと焦点検出用センサー
20から得られているデジタルデータよりステップS1
08にて選択された焦点検出エリアの焦点状態を演算す
る。さらに演算された焦点状態に従って、合焦となるた
めのレンズ移動量を算出する。
Next, in step S111, the control unit 41 inputs lens information and the like required for focus detection from the lens control unit 51, and based on this and digital data obtained from the focus detection sensor 20. Step S1
The focus state of the focus detection area selected at 08 is calculated. Further, the amount of lens movement for achieving focusing is calculated according to the calculated focus state.

【0057】次に、ステップS112において、制御部
41は、算出されたレンズ移動量をレンズ制御部51に
出力する。これに従ってレンズ制御部51は、焦点調節
用レンズを駆動するように第2モータードライバ52に
信号出力して、第2モーター53を駆動する。これによ
り撮影レンズ34〜37は、被写体に対して合焦状態と
なる。合焦状態になった後に距離エンコーダー56に基
づいた被写体距離に関する情報をレンズ制御部51より
入手することで、制御部41は、被写体までの距離情報
を得ることができる。
Next, in step S112, the control section 41 outputs the calculated lens movement amount to the lens control section 51. In accordance with this, the lens controller 51 outputs a signal to the second motor driver 52 to drive the focus adjustment lens, and drives the second motor 53. As a result, the taking lenses 34 to 37 are in focus with respect to the subject. The controller 41 can obtain the distance information to the subject by obtaining the information about the subject distance based on the distance encoder 56 from the lens controller 51 after the focus state is achieved.

【0058】次に、ステップS113において、制御部
41は、シャッターボタンの第2ストロークスイッチが
オンされるのを待ち、オンされなければステップS10
1に戻り、オンされるとステップS114へ進む。
Next, in step S113, the control unit 41 waits for the second stroke switch of the shutter button to be turned on, and if not turned on, step S10.
Returning to step 1, when turned on, the process proceeds to step S114.

【0059】次に、ステップS114において、制御部
41は、第1モータードライバに制御信号を出力して、
第1モーター44を駆動して主ミラー13および第1反
射ミラー14を跳ね上げる。
Next, in step S114, the control section 41 outputs a control signal to the first motor driver,
The first motor 44 is driven to flip up the main mirror 13 and the first reflection mirror 14.

【0060】次に、ステップS115において、制御部
41は、ステップS106にて演算された絞り値情報を
レンズ制御部51に対して出力する。この情報に従って
レンズ制御部51は絞り31を駆動するように第3モー
タードライバ54に信号を出力して、第3モーター55
を駆動する。これにより撮影レンズは絞り込み状態とな
る。
Next, in step S115, the control section 41 outputs the aperture value information calculated in step S106 to the lens control section 51. According to this information, the lens control unit 51 outputs a signal to the third motor driver 54 so as to drive the diaphragm 31, and the third motor 55
To drive. As a result, the photographing lens is brought into a narrowed state.

【0061】次に、ステップS116において、制御部
41は、ステップS106にて演算されたシャッター速
度にしたがってシャッター42を制御してフィルムに対
する露光を行う。また、露出演算によって発光部47を
使用して撮影すべきシーンであると判別されている場合
にはストロボなどの発光部47を発光させる。
Next, in step S116, the control unit 41 controls the shutter 42 according to the shutter speed calculated in step S106 to expose the film. When it is determined by the exposure calculation that the scene is to be shot using the light emitting unit 47, the light emitting unit 47 such as a strobe is caused to emit light.

【0062】次に、ステップS117において、制御部
41は、レンズ制御部51に対して絞り31を開放する
ように情報出力する。この情報に従ってレンズ制御部5
1は絞り31を駆動するように第3モータードライバ5
4に信号出力して、第3モーター55を駆動する。これ
により撮影レンズは絞り開放状態となる。
Next, in step S117, the control section 41 outputs information to the lens control section 51 so as to open the diaphragm 31. The lens controller 5 according to this information
1 is the third motor driver 5 so as to drive the diaphragm 31
A signal is output to 4 to drive the third motor 55. As a result, the photographic lens is in the aperture open state.

【0063】次に、ステップS118において、第1モ
ータードライバに制御信号を出力して、第1モーター4
4を駆動して主ミラー13および第1の反射ミラー14
をダウンさせる。
Next, in step S118, a control signal is output to the first motor driver to drive the first motor 4
4 to drive the main mirror 13 and the first reflecting mirror 14
Bring down.

【0064】次に、ステップS119において、制御部
41は、第1モータードライバに制御信号を出力して、
第1モーター44を駆動してフィルムの巻き上げを行う
ことにより、一連の撮影シーケンスが終了する。
Next, in step S119, the control section 41 outputs a control signal to the first motor driver,
By driving the first motor 44 to wind the film, a series of photographing sequences is completed.

【0065】[動体検出の詳細な説明:図8]次に、ス
テップS107で実行する動体検出の詳細な内容につい
て、図8のフローチャートに従って説明する。なおこの
動体検出だけ実行する部分を1つのプロセッサとしてま
とめてもよい。
[Detailed Description of Moving Object Detection: FIG. 8] Next, the detailed content of the moving object detection executed in step S107 will be described with reference to the flowchart of FIG. It should be noted that the part that executes only the moving object detection may be integrated into one processor.

【0066】[蓄積信号情報の周辺部:図9]まず、ス
テップS151において、図7のステップS102で得
られた第1の蓄積信号情報の1次元の射影情報を演算す
る。
[Peripheral part of accumulated signal information: FIG. 9] First, in step S151, the one-dimensional projection information of the first accumulated signal information obtained in step S102 of FIG. 7 is calculated.

【0067】但し、この際に第1の蓄積信号情報におけ
る周辺部を、図9(a)に示すように、水平方向に長い
ブロックHa〜Hd(ブロック群H)に分割する。また
各分割されたブロックにおいて、水平方向(列方向)の1
次元射影情報を演算する。
However, at this time, the peripheral portion of the first accumulated signal information is divided into blocks Ha to Hd (block group H) which are long in the horizontal direction, as shown in FIG. 9A. In each divided block, 1 in the horizontal direction (column direction)
Calculates dimensional projection information.

【0068】ここで、図9(a)に示す中央部分を除い
て周辺部の情報を用いるのは、主被写体以外の背景部分
の領域に基づく射影情報となるようにするためである。
Here, the information of the peripheral portion except for the central portion shown in FIG. 9A is used because the projection information is based on the area of the background portion other than the main subject.

【0069】また周辺部を、図9(a)に示すように複
数のブロックに分割してそれぞれ独立に演算するのは、
後にステップS153で動いている被写体が含まれるブ
ロックを除外してカメラの動きだけをより正確に算出す
るためである。同様に、図7のステップS105で得ら
れた第2の蓄積信号情報のブロック群Hによる水平方向
(列方向)の1次元射影情報をも合わせて演算する。
The peripheral part is divided into a plurality of blocks as shown in FIG.
This is because it is possible to more accurately calculate only the camera movement by excluding the block including the moving subject in step S153 later. Similarly, in the horizontal direction by the block group H of the second accumulated signal information obtained in step S105 of FIG.
The calculation is also performed by including the one-dimensional projection information (in the column direction).

【0070】[蓄積信号情報の例 撮影シーン:図1
0]図10(a)および(b)は、撮影シーンの一例を
示したもので、図10(a)が第1の信号蓄積を行った
時点での撮影シーン、図10(b)が第2の信号蓄積を
行った時点での撮影シーンである。
[Example of accumulated signal information Photographing scene: FIG. 1
0] FIGS. 10 (a) and 10 (b) show an example of a shooting scene. FIG. 10 (a) shows a shooting scene at the time when the first signal accumulation is performed, and FIG. It is a shooting scene at the time when the signal accumulation of No. 2 is performed.

【0071】図10(a)および(b)において、71
は主被写体である人物であり、図10(a)の時点に対
して図10(b)の時点では、人物は、画面左側より右
側に向けて移動している。72は空、73は地面、74
〜76は木々であり、この撮影シーンでは背景を構成す
るものである。
In FIGS. 10A and 10B, 71
Is a main subject, and the person is moving from the left side to the right side of the screen at the time point of FIG. 10B with respect to the time point of FIG. 72 is the sky, 73 is the ground, 74
Numerals to 76 are trees, which constitute the background in this shooting scene.

【0072】図10(a)のFR1は、第1の信号蓄積
を行った時点でのカメラの撮影画枠であり、図10
(b)のFR2は、第2の信号蓄積を行った時点でのカ
メラの撮影画枠を示している。
FR1 in FIG. 10 (a) is an image frame of the camera at the time when the first signal accumulation is carried out.
FR2 in (b) indicates the image frame of the camera when the second signal is stored.

【0073】すなわち、図10(a)および(b)は、
人物71の移動に従って撮影画枠も画面左側より右側に
向けて移動しつつ、手ぶれなどの影響もあって画面の下
側から上側への移動もあるという状態を示している。
That is, FIG. 10A and FIG.
It shows a state in which the photographing image frame moves from the left side of the screen to the right side according to the movement of the person 71, but also moves from the lower side to the upper side of the screen due to the influence of camera shake or the like.

【0074】[蓄積信号情報から演算された1次元の射
影情報:図11]図11(a)および(b)は、図10
(a)および(b)にて示した撮影シーンより得られた
第1および第2の蓄積信号情報の周辺部分のあるブロッ
クから演算された1次元の射影情報の例を示す。
[One-dimensional projection information calculated from accumulated signal information: FIG. 11] FIGS. 11A and 11B are shown in FIG.
An example of one-dimensional projection information calculated from a block having a peripheral portion of the first and second accumulated signal information obtained from the shooting scenes shown in (a) and (b) is shown.

【0075】図11(a)は、ブロック群Hのあるブロ
ック(例えばHa)の水平方向(列方向)の1次元射影
情報を表しており、曲線H1が第1の蓄積信号情報に基
づくもの、曲線H2が第2の蓄積信号情報に基づくもの
である。
FIG. 11A shows the one-dimensional projection information in the horizontal direction (column direction) of a block (for example, Ha) in the block group H, and the curve H1 is based on the first accumulated signal information. The curve H2 is based on the second accumulated signal information.

【0076】次に、ステップS152において、第1の
蓄積信号情報のブロック群Hによる射影情報とそれに対
応する第2の蓄積信号情報のブロック群Hによる射影情
報との相関演算を行い、カメラの左右方向の動き(撮影
画枠の移動)の方向と量を算出する。
Next, in step S152, a correlation calculation is performed between the projection information by the block group H of the first accumulated signal information and the corresponding projection information by the block group H of the second accumulated signal information, and the left and right sides of the camera are calculated. The direction and amount of the directional movement (movement of the image frame) is calculated.

【0077】具体的には、図11(a)にて示した曲線
H1と曲線H2との相関演算を行うことで、第1の信号
蓄積を行った時点に対して第2の信号蓄積を行った時点
でのそのブロック内の像の左右方向での移動方向と移動
量が算出できる。
Specifically, by performing the correlation calculation between the curve H1 and the curve H2 shown in FIG. 11A, the second signal accumulation is performed at the time when the first signal accumulation is performed. It is possible to calculate the moving direction and the moving amount in the left-right direction of the image in the block at that time.

【0078】例えば、曲線H1に対して曲線H2が2画
素分左側に移動していれば、第1の信号蓄積を行った時
点より第2の信号蓄積を行った時点ではカメラの撮影画
枠が2画素分右側に移動していることを示している。
For example, if the curve H2 is moved to the left by two pixels with respect to the curve H1, the image frame of the camera is changed from the time when the first signal is stored to the time when the second signal is stored. This indicates that the pixel has moved to the right by two pixels.

【0079】次に、ステップS153において、Ha〜
Hdの各ブロックの射影情報にステップS152の相関
演算を施すことにより得た演算結果からそれらの最頻値
を選択することにより撮影画枠全体の左右方向の動き量
を決定する。前述したように、Ha〜Hdは、撮影画面
の周辺に存在するブロックであり、その1次元射影像を
用いて算出したステップS152の演算結果は、主とし
て静止物である背景の情報に基づいているから、撮影画
枠の動き量を示すはずである。
Next, in step S153, Ha ~
The amount of movement in the left-right direction of the entire captured image frame is determined by selecting the mode value from the calculation result obtained by performing the correlation calculation of step S152 on the projection information of each block of Hd. As described above, Ha to Hd are blocks existing around the photographing screen, and the calculation result of step S152 calculated using the one-dimensional projected image thereof is mainly based on the information of the background which is a stationary object. Should indicate the amount of movement of the image frame.

【0080】しかし、ブロックによっては動いている被
写体が含まれていたり、コントラストが低かったりして
撮影画枠の動き量を正確に算出できない場合もある。そ
こで、本実施形態では、各ブロックに対するステップS
152の演算結果から、その最頻値を選択することで撮
影画枠の動き量を決定する。例えば、ブロックHa、H
b、Hcの射影情報からそれぞれ像が2画素分左側に、
即ち撮影画枠が2画素分右側に移動しているという演算
結果が得られ、ブロックHdの射影情報からは像が1画
素分右側に、即ち撮影画枠が1画素分左側に移動してい
るという結果が得られたとする。こうした場合、ブロッ
クHa、Hb、Hcの演算結果の方がブロックHdの演
算結果より信頼性が高いと考えられ、ブロックHdで
は、実際に動いている被写体が存在するなどの要因から
カメラの撮影画枠の動きを正確に算出されていないと考
えられる。この4ブロックの演算結果の最頻値を選択す
ることにより、カメラの撮影画枠の左右方向への動き量
は、右側に2画素であるものと決定する。次に、ステッ
プS154において、続いてカメラの上下方向の動きを
算出するため、ステップステップS102で得られた第
1の蓄積信号情報における周辺部を、図9(b)に示す
垂直方向に長いブロックVa〜Vd(ブロック群V)に
分割し、それぞれのブロックにおいて垂直方向(行方向)
の1次元射影情報を演算する。
However, depending on the block, a moving subject may be included or the contrast may be low, so that the amount of movement of the photographic image frame may not be accurately calculated. Therefore, in this embodiment, step S for each block is performed.
The motion amount of the photographing image frame is determined by selecting the mode value from the calculation result of 152. For example, blocks Ha, H
From the projection information of b and Hc, the image is two pixels on the left side,
That is, a calculation result that the image frame is moved to the right by two pixels is obtained, and the image is moved to the right by one pixel, that is, the image frame is moved to the left by one pixel from the projection information of the block Hd. Suppose that the result is obtained. In such a case, it is considered that the calculation results of the blocks Ha, Hb, and Hc are more reliable than the calculation result of the block Hd, and in the block Hd, the image captured by the camera is captured due to the fact that there is a subject that is actually moving. It is considered that the frame movement has not been calculated accurately. By selecting the mode value of the calculation result of these 4 blocks, the amount of movement of the image frame of the camera in the left-right direction is determined to be 2 pixels on the right side. Next, in step S154, in order to subsequently calculate the vertical movement of the camera, the peripheral portion in the first accumulated signal information obtained in step S102 is a block long in the vertical direction shown in FIG. 9B. Divide into Va to Vd (block group V), and in each block in the vertical direction (row direction)
The one-dimensional projection information of is calculated.

【0081】同様に、ステップステップS105で得ら
れた第2の蓄積信号情報における周辺部を、図9(b)
に示す垂直方向に長いブロックVa〜Vd(ブロック群
V)に分割し、それぞれのブロックにおいて垂直方向
(行方向)の1次元射影情報をも合わせて演算する。
Similarly, the peripheral portion in the second accumulated signal information obtained in step S105 is shown in FIG.
Are divided into vertically long blocks Va to Vd (block group V) shown in FIG.
It also calculates the one-dimensional projection information in the (row direction).

【0082】図11(b)は、ブロック群Vのあるブロ
ック(例えばVa)の垂直方向(行方向)の1次元射影
情報を表しており、曲線V1が第1の蓄積信号情報に基
づくもの、曲線V2が第2の蓄積信号情報に基づくもの
である。
FIG. 11B shows the one-dimensional projection information in the vertical direction (row direction) of a block (for example, Va) in the block group V, and the curve V1 is based on the first accumulated signal information. The curve V2 is based on the second accumulated signal information.

【0083】次にステップS155では、ステップS1
52で説明したのと同様の相関演算をブロック群Vに対
して行うことにより、ブロック内の像の上下方向での移
動方向と移動量とが算出される。
Next, in step S155, step S1
By performing the same correlation calculation as described in 52 on the block group V, the moving direction and the moving amount of the image in the block in the vertical direction are calculated.

【0084】図11(b)において、例えば、曲線V1
に対して曲線V2が1画素分下側に移動していることが
算出されたとすれば、第1の信号蓄積を行った時点より
第2の信号蓄積を行った時点では、カメラの撮影画枠が
1画素分上側に移動していることを示している。
In FIG. 11B, for example, the curve V1
On the other hand, if it is calculated that the curve V2 is moved downward by one pixel, the shooting frame of the camera is changed from the time when the first signal is stored to the time when the second signal is stored. Indicates that one pixel has moved upward.

【0085】次に、ステップS156において、Va〜
Vdの各ブロックの射影情報にステップS152と同様
の相関演算を施すことにより得た演算結果からそれらの
最頻値を選択することにより撮影画枠全体の上下方向の
動き量を決定する。ここで、ブロックVb、Vc、Vd
の射影情報からそれぞれ像が1画素分下側に、即ち撮影
画枠が1画素分上側に移動しているという演算結果が得
られ、ブロックVaの射影情報からは像が移動していな
い、即ち撮影画枠の動きはないという結果が得られたと
する。4ブロックの演算結果から最頻値をとって、カメ
ラの撮影画枠の上下方向への動き量は、上側に1画素で
あるものと決定する。次に、ステップS157におい
て、以上により算出されたカメラの左右方向と上下方向
の動き(撮影画枠の移動)に基づいて、まず第1の蓄積
信号情報に対する第2の蓄積信号情報の2次元的な位置
関係をずらし、次に、そのずらした位置関係の上で、そ
の重なり部分について、第2の蓄積信号情報の各輝度情
報と第1の蓄積信号情報の各輝度情報との差分値を演算
する。
Next, in step S156, Va ~
The vertical movement amount of the entire photographing image frame is determined by selecting the mode value from the calculation result obtained by performing the correlation calculation similar to step S152 on the projection information of each block of Vd. Here, the blocks Vb, Vc, Vd
From the projection information of the above, the calculation result that the image is moved downward by one pixel, that is, the captured image frame is moved upward by one pixel, is obtained, and from the projection information of the block Va, the image is not moved, that is, It is assumed that the result that the image frame does not move is obtained. By taking the mode value from the calculation result of the four blocks, it is determined that the vertical movement amount of the photographing image frame of the camera is one pixel on the upper side. Next, in step S157, based on the movements of the camera in the left-right direction and the up-down direction (movement of the photographing image frame) calculated above, first, the two-dimensional information of the second accumulated signal information with respect to the first accumulated signal information is obtained. The positional relationship is shifted, and then, on the shifted positional relationship, a difference value between each luminance information of the second accumulated signal information and each luminance information of the first accumulated signal information is calculated for the overlapping portion. To do.

【0086】[第2と第1の蓄積信号情報から差分値
(2次元情報)を演算:図12]すなわち、図12にお
いて、第1の蓄積信号情報を2次元的に表したものをD
FR1とし、第2の蓄積信号情報を2次元的に表したも
のをDFR2とする。
[Calculation of difference value (two-dimensional information) from second and first accumulated signal information: FIG. 12] That is, in FIG. 12, a two-dimensional representation of the first accumulated signal information is represented by D.
Let FR1 be DFR2 that two-dimensionally represent the second accumulated signal information.

【0087】ここで、ステップS153およびステップ
S156のステップにて算出されたカメラの動き(撮影
画枠の移動)の方向と量により、第1の蓄積信号情報D
FR1に対して、第2の蓄積信号情報DFR2を右側に
2画素、上側に1画素ずらして、その重なり部分(斜線
部分)について第1の蓄積信号情報DFR1のP1、3
の輝度情報と第2の蓄積信号情報DFR2のP2、1の
輝度情報との差分値を演算するというふうに、各画素毎
に輝度情報の差分値を全て演算する。
Here, the first accumulated signal information D is calculated according to the direction and amount of the camera movement (movement of the photographing frame) calculated in steps S153 and S156.
The second accumulated signal information DFR2 is shifted from the FR1 by 2 pixels on the right side and by 1 pixel on the upper side, and P1 and 3 of the first accumulated signal information DFR1 are overlapped with each other (hatched portion).
All the difference values of the brightness information are calculated for each pixel, such that the difference value between the brightness information of 1 and the brightness information of P2, 1 of the second accumulated signal information DFR2 is calculated.

【0088】尚、輝度情報の差分値には正負の値が存在
するが、本実施形態では差の絶対値として扱う。
Although there are positive and negative values in the difference value of the brightness information, it is treated as the absolute value of the difference in this embodiment.

【0089】[差分値(2次元情報)から射影情報(1
次元)を演算:図13]次に、ステップS158におい
て、ステップS157で演算された差分値情報である2
次元の情報を1次元の射影情報となるように演算する。
[From the difference value (two-dimensional information), the projection information (1
Dimension): FIG. 13] Next, in step S158, the difference value information calculated in step S157 is 2
The dimensional information is calculated to be one-dimensional projection information.

【0090】ここで、ステップS158にて演算された
差分値は、背景部分のように動きの無い被写体領域にお
いては、第1の蓄積信号情報における輝度情報と第2の
蓄積信号情報における輝度情報とはカメラの動き(撮影
画枠の移動)の方向と量との算出にエラーがない限りは
殆ど一致するのでほぼ0となる。
Here, the difference value calculated in step S158 is the luminance information in the first accumulated signal information and the luminance information in the second accumulated signal information in the subject area where there is no movement such as the background portion. Is almost 0 because there is almost no error in the calculation of the direction and amount of the camera movement (movement of the image frame), so that it is almost 0.

【0091】しかし、図10にて説明したシーンの人物
71のように画面内に動きのある被写体が存在すると、
その被写体領域では、第1の蓄積信号情報においては人
物71の輝度情報であったのに、第2の蓄積信号情報に
おける輝度情報においては背景領域になるなどして輝度
情報に差が出てくる。
However, if a moving subject exists in the screen like the person 71 in the scene described with reference to FIG. 10,
In the subject area, although the luminance information of the person 71 is used in the first accumulated signal information, the luminance information in the second accumulated signal information becomes a background area, which causes a difference in the luminance information. .

【0092】よって図10(a)および(b)にて示し
た撮影シーンに対応してこのステップにて演算された射
影情報としては、図13(a)に水平方向(列方向)の
データを示す曲線Hmvを、同図(b)に垂直方向(行
方向)のデータを示す曲線Vmvをそれぞれ示すように
人物71が移動した領域においてその値が高くなる。
Therefore, as the projection information calculated in this step corresponding to the shooting scenes shown in FIGS. 10A and 10B, the data in the horizontal direction (column direction) is shown in FIG. 13A. The value of the curved line Hmv becomes high in the region where the person 71 has moved, as indicated by the curved line Vmv showing the data in the vertical direction (row direction) in FIG.

【0093】次に、ステップS159において、ステッ
プS158で演算された差分値の射影データに基づい
て、撮影画面内における動体領域(動きのある被写体領
域)を判別する。
Next, in step S159, the moving object area (moving subject area) in the photographing screen is determined based on the projection data of the difference value calculated in step S158.

【0094】図13(a)に示した水平方向(列方向)
の射影像が所定値以上の高い値を示している領域と、図
13(b)に示した垂直方向(行方向)の射影像が所定
値以上の高い値を示している領域との画面内の交差領域
を求めると撮影画面内の動体領域を求めることができ
る。
Horizontal direction (column direction) shown in FIG. 13 (a)
Within the screen, an area in which the projection image of No. 2 shows a high value of a predetermined value or more and an area in which the projection image of the vertical direction (row direction) shown in FIG. When the crossing area of is obtained, the moving body area in the photographing screen can be obtained.

【0095】このステップが終了すると、図7のステッ
プS108へ戻るが、このステップにおける焦点検出エ
リアの選択手法として動体領域に含まれるエリアを選択
することで動きのある被写体によく追従するオートフォ
ーカスを実現することができる。
When this step is completed, the process returns to step S108 in FIG. 7, but as the focus detection area selection method in this step, the area included in the moving object area is selected to perform auto-focusing well following a moving subject. Can be realized.

【0096】ステップS159にて求められた動体領域
に含まれる焦点検出エリアとしてはFA14、FA1
9、FA24などの数点がある。ここで、これらの数点
の中から合焦領域として、例えば、焦点検出エリアFA
14を決定する手法としては、種々の方法を用いること
ができる。
FA14 and FA1 are the focus detection areas included in the moving object area obtained in step S159.
There are several points such as 9, FA24. Here, from these several points, for example, the focus detection area FA
As a method of determining 14, various methods can be used.

【0097】例えば、上記の選択された数点において測
距を行って測距情報から最終的な合焦領域を決定する手
法(例えば近距離優先)もあるし、測距を行う以前に所
定のアルゴリズムにより1点に絞り込む手法(例えば画
面の上側優先)などがある。また、以上説明したような
動体領域の検出を時間間隔をおいて繰り返し行うことで
動体の動き量や動く方向をも検出することができる。
For example, there is a method (for example, near distance priority) for performing the distance measurement at the above selected several points and determining the final focus area from the distance measurement information. There is a method of narrowing down to one point by an algorithm (for example, upper screen priority). Further, by repeatedly detecting the moving body region as described above at time intervals, it is possible to detect the moving amount and moving direction of the moving body.

【0098】例えば、図10にて説明したようなシーン
で、人物71が撮影画枠の左側から右側に横切るように
動いているとすれば、図13(a)にて示した射影情報
の曲線Hmvの値の大きい部分が左側から右側に移動し
ていくことが検出できるからである。
For example, in the scene described with reference to FIG. 10, if the person 71 is moving across the shooting image frame from the left side to the right side, the projection information curve shown in FIG. This is because it can be detected that the portion having a large Hmv value moves from the left side to the right side.

【0099】このようにして、図14に例示するように
動きのある被写体に対して焦点検出エリアFA14が選
択されて合焦することが可能となる。
In this way, the focus detection area FA14 can be selected and focused on a moving subject as illustrated in FIG.

【0100】本実施形態では、写真フィルムに撮影を行
うカメラにおいて測光用センサーの蓄積信号情報を用い
てパンやブレによるカメラの撮影画枠の動きを検出する
方法について説明したが、焦点検出用センサーや電子ス
チルカメラの撮像素子であってもよい。また本実施形態
では、蓄積信号情報の1次元射影情報を用いてカメラの
撮影画枠の動きを算出したが、動きを算出する方法はこ
れに限るものではなく射影情報を用いないものであって
もよい。
In the present embodiment, the method for detecting the movement of the photographing frame of the camera due to the pan or blur by using the accumulated signal information of the photometric sensor in the camera for photographing on the photographic film has been described. Alternatively, it may be an image pickup device of an electronic still camera. Further, in the present embodiment, the movement of the image frame of the camera is calculated using the one-dimensional projection information of the accumulated signal information, but the method of calculating the movement is not limited to this, and the projection information is not used. Good.

【他の実施形態】なお、本発明は、複数の機器(例えば
ホストコンピュータ、インタフェイス機器、リーダ、プ
リンタなど)から構成されるシステムに適用しても、一
つの機器からなる装置(例えば、複写機、ファクシミリ
装置など)に適用してもよい。
Other Embodiments Even when the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus including one device (for example, a copying machine). Machine, facsimile machine, etc.).

【0101】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納された
プログラムコードを読み出し実行することによっても、
達成されることは言うまでもない。この場合、記憶媒体
から読み出されたプログラムコード自体が前述した実施
形態の機能を実現することになり、そのプログラムコー
ドを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実
行することにより、前述した実施形態の機能が実現され
るだけでなく、そのプログラムコードの指示に基づき、
コンピュータ上で稼働しているオペレーティングシステ
ム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or a recording medium) recording a program code of software for realizing the functions of the above-described embodiment to a system or apparatus, and to supply a computer of the system or apparatus ( Alternatively, by the CPU or MPU) reading and executing the program code stored in the storage medium,
It goes without saying that it will be achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also based on the instruction of the program code,
An operating system (OS) running on the computer does some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized.

【0102】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, , The CPU provided in the function expansion card or the function expansion unit performs some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized.

【0103】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャートに対応す
るプログラムコードが格納されることになる。
When the present invention is applied to the above storage medium, the storage medium stores the program code corresponding to the above-described flowchart.

【0104】以上説明したように、本実施形態の撮像装
置は、撮像素子により入力される画面内の複数の検出領
域からそれぞれ像の動きを検出し、さらに各領域の動き
から画面全体または部分の動きを決定する検出部を備え
ており、像の動きを2つの軸方向(左右方向と上下方
向)に分解し、それぞれの軸方向に応じて検出領域の選
択方法を変更することにより、動きを検出する軸方向に
適した検出領域の切り出し方が可能である。
As described above, the image pickup apparatus of the present embodiment detects the movement of an image from each of a plurality of detection areas in the screen input by the image pickup element, and further detects the movement of each area from the whole or part of the screen. It is equipped with a detection unit that determines the movement. By dividing the movement of the image into two axial directions (horizontal direction and vertical direction) and changing the detection area selection method according to each axial direction, It is possible to cut out a detection area suitable for the axial direction of detection.

【0105】すなわち、左右方向の動きを検出する際に
は、左右方向に長い複数のブロックを検出領域として用
い、上下方向の動きを検出する際には、上下方向に長い
複数のブロックを検出領域として用いる。
That is, when detecting a horizontal movement, a plurality of blocks which are long in the horizontal direction are used as detection areas, and when detecting a movement in the vertical direction, a plurality of blocks which are long in the vertical direction are detected. Used as.

【0106】このように、動きの方向に合わせて動く方
向の情報を多くとることにより、検出される動き量はよ
り信頼性の高いものとなる。したがって、比較的少ない
画素数の撮像素子を用いる場合でも、像情報から被写体
あるいは撮像装置の撮像画枠の動きを精度よく検出する
ことが可能である。
As described above, by obtaining a large amount of information on the direction of movement in accordance with the direction of movement, the detected amount of movement becomes more reliable. Therefore, even when the image pickup device having a relatively small number of pixels is used, it is possible to accurately detect the movement of the subject or the image pickup image frame of the image pickup device from the image information.

【発明の効果】以上説明したように、本発明によれば、
撮像された少ない画素数の画像情報に基づいて被写体あ
るいはカメラの撮影画枠の動きを精度良く検出できる画
像処理装置およびその画像処理装置を搭載可能な撮像装
置ならびにそれらの制御方法を提供することができる。
As described above, according to the present invention,
(EN) Provided are an image processing device capable of accurately detecting a movement of a subject or a shooting image frame of a camera based on imaged image information of a small number of pixels, an imaging device capable of mounting the image processing device, and a control method thereof. it can.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る一実施形態のカメラの光学部材の
配置等を示した断面図である。
FIG. 1 is a cross-sectional view showing an arrangement of optical members of a camera of an embodiment according to the present invention.

【図2】焦点検出用センサーの構成の一例を示す図であ
る。
FIG. 2 is a diagram showing an example of a configuration of a focus detection sensor.

【図3】焦点検出エリアの配置の一例を示す図である。FIG. 3 is a diagram showing an example of arrangement of focus detection areas.

【図4】測光用センサーの構成の一例を示す図である。FIG. 4 is a diagram showing an example of a configuration of a photometric sensor.

【図5】測光用センサーの画面分割の一例を示す図であ
る。
FIG. 5 is a diagram showing an example of screen division of a photometric sensor.

【図6】カメラおよび交換レンズの電気回路の構成の一
例を示すブロック図である。
FIG. 6 is a block diagram showing an example of a configuration of electric circuits of a camera and an interchangeable lens.

【図7】カメラの制御部の動作の一例を示すフローチャ
ートである。
FIG. 7 is a flowchart showing an example of the operation of the control unit of the camera.

【図8】制御部の動体領域の検出例を示すフローチャー
トである。
FIG. 8 is a flowchart showing an example of detection of a moving body area of a control unit.

【図9】検出範囲の一例を示す図である。FIG. 9 is a diagram showing an example of a detection range.

【図10】撮影シーンの一例を示す図である。FIG. 10 is a diagram showing an example of a shooting scene.

【図11】周辺部分の射影情報を示す図である。FIG. 11 is a diagram showing projection information of a peripheral portion.

【図12】画像間における撮像画枠ずれを補正する方法
を説明する図である。
FIG. 12 is a diagram illustrating a method of correcting a shift in a captured image frame between images.

【図13A】水平方向の差分情報から射影情報を求めた
図である。
FIG. 13A is a diagram in which projection information is obtained from horizontal difference information.

【図13B】垂直方向の差分情報から射影情報を求めた
図である。
FIG. 13B is a diagram in which projection information is obtained from vertical difference information.

【図13C】水平方向と垂直方向の差分情報から動体領
域を求めた図である。
FIG. 13C is a diagram in which a moving body region is obtained from horizontal and vertical difference information.

【図14】複数の動体領域の中から測距点を選択した一
例を示す図である。
FIG. 14 is a diagram showing an example in which a distance measuring point is selected from a plurality of moving object areas.

【符号の説明】[Explanation of symbols]

10 カメラ本体 20 焦点検出用センサー 26 測光用センサー 30 交換レンズ 41 カメラの制御部 45 姿勢検出センサー 47 発光部 51 交換レンズの制御部 56 距離エンコーダー 57 ズームエンコーダー 10 camera body 20 Focus detection sensor 26 Photometric sensor 30 interchangeable lens 41 Camera control 45 Posture detection sensor 47 Light emitting part 51 Interchangeable lens controller 56 distance encoder 57 Zoom encoder

Claims (14)

【特許請求の範囲】[Claims] 【請求項1】 被写体像を連続して撮像し、複数の画像
を生成する撮像手段を有する撮像装置であって、 前記画像の画枠の鉛直方向に長い矩形領域を形成する画
素群の輝度に関する情報である鉛直方向輝度情報を取得
する第1の取得手段と、 前記画像の画枠の水平方向に長い矩形領域を形成する画
素群の輝度に関する情報である水平方向輝度情報を取得
する第2の取得手段と、 前記鉛直方向輝度情報と前記水平方向輝度情報とに基づ
いて、前記複数の画像間における前記画枠の移動量に関
する情報を生成する移動量生成手段と、を有することを
特徴とする撮像装置。
1. An image pickup apparatus having an image pickup means for continuously picking up a subject image to generate a plurality of images, wherein the luminance of a pixel group forming a rectangular region long in a vertical direction of an image frame of the image is related. A first acquisition unit that acquires vertical brightness information that is information, and a second acquisition unit that acquires horizontal brightness information that is information related to the brightness of a pixel group that forms a rectangular area that is long in the horizontal direction of the image frame of the image. An acquisition unit; and a movement amount generation unit that generates information regarding a movement amount of the image frame between the plurality of images based on the vertical direction luminance information and the horizontal direction luminance information. Imaging device.
【請求項2】 前記鉛直方向に長い矩形領域とは、前記
画枠内の左側端部または右側端部であり、前記水平方向
に長い矩形領域とは、前記画枠内の上側端部または下側
端部であることを特徴とする請求項1に記載の撮像装
置。
2. The vertically long rectangular area is a left end portion or a right end portion in the image frame, and the horizontally long rectangular area is an upper end portion or a lower end portion in the image frame. The imaging device according to claim 1, wherein the imaging device is a side end portion.
【請求項3】 前記移動量検出手段は、前記鉛直方向輝
度情報より前記画枠の鉛直方向の移動量を算出し、前記
水平方向輝度情報より前記画枠の水平方向の移動量を算
出し、それぞれ算出された移動量に基づいて前記画枠の
移動量を生成することを特徴とする請求項1または請求
項2に記載の撮像装置。
3. The movement amount detection means calculates a vertical movement amount of the image frame from the vertical direction luminance information, and calculates a horizontal movement amount of the image frame from the horizontal direction luminance information, The image pickup apparatus according to claim 1, wherein the moving amount of the image frame is generated based on the calculated moving amount.
【請求項4】 前記画枠の移動量に関する情報に基づい
て前記複数の画像間に生じる撮影画像ずれを補正する補
正手段と、 前記補正された画像を用いて前記複数の画像中に存在す
る動体の存在領域を検出する検出手段と、を更に有する
ことを特徴とする請求項1乃至請求項3のいずれか1項
に記載の撮像装置。
4. A correction unit that corrects a captured image shift that occurs between the plurality of images based on information about the movement amount of the image frame, and a moving object that exists in the plurality of images using the corrected image. 4. The image pickup apparatus according to claim 1, further comprising: a detection unit that detects a region in which the image exists.
【請求項5】 入力される複数の画像に基づいて、前記
複数の画像間に生じる画枠の移動量に関する情報を生成
するプロセッサであって、 前記画像の画枠の鉛直方向に長い矩形領域を形成する画
素群の輝度に関する情報である鉛直方向輝度情報を取得
する第1の取得手段と、 前記画像の画枠の水平方向に長い矩形領域を形成する画
素群の輝度に関する情報である水平方向輝度情報を取得
する第2の取得手段と、 前記鉛直方向輝度情報と前記水平方向輝度情報とに基づ
いて、前記複数の画像間における前記画枠の移動量に関
する情報を生成する移動量生成手段と、を有することを
特徴とするプロセッサ。
5. A processor for generating information on a movement amount of an image frame occurring between the plurality of images based on a plurality of input images, the rectangular region being long in a vertical direction of the image frame of the image. First acquisition means for acquiring vertical direction luminance information which is information relating to the luminance of the pixel group to be formed, and horizontal luminance which is information relating to the luminance of the pixel group which forms a horizontally long rectangular area of the image frame of the image. Second acquisition means for acquiring information; movement amount generation means for generating information regarding the movement amount of the image frame between the plurality of images based on the vertical direction luminance information and the horizontal direction luminance information, A processor having.
【請求項6】 前記鉛直方向に長い矩形領域とは、前記
撮影画枠内の左側端部または右側端部であり、前記水平
方向に長い矩形領域とは、前記画枠内の上側端部または
下側端部であることを特徴とする請求項5に記載のプロ
セッサ。
6. The rectangular area elongated in the vertical direction is a left end portion or a right end portion in the photographing image frame, and the rectangular area elongated in the horizontal direction is an upper end portion in the image frame or The processor according to claim 5, wherein the processor is a lower end portion.
【請求項7】 前記移動量検出手段は、前記鉛直方向輝
度情報より前記撮影画枠の鉛直方向の移動量を算出し、
前記水平方向輝度情報より前記撮影画枠の水平方向の移
動量を算出し、それぞれ算出された移動量に基づいて前
記撮影画枠の移動量を生成することを特徴とする請求項
5または請求項6に記載のプロセッサ。
7. The movement amount detection means calculates a movement amount in the vertical direction of the photographing image frame from the vertical direction luminance information,
6. The horizontal movement amount of the photographing image frame is calculated from the horizontal direction luminance information, and the movement amount of the photographing image frame is generated based on each calculated movement amount. 6. The processor according to 6.
【請求項8】 前記撮影画枠の移動量に関する情報に基
づいて前記複数の画像間に生じる撮影画枠ずれを補正す
る補正手段と、 前記補正された画像を用いて前記複数の画像データ中に
存在する動体の存在領域を検出する検出手段と、を更に
有することを特徴とする請求項5乃至請求項7のいずれ
か1項に記載のプロセッサ。
8. A correction unit that corrects a shooting image frame shift that occurs between the plurality of images based on information about the movement amount of the shooting image frame, and a correction unit that uses the corrected image in the plurality of image data. 8. The processor according to claim 5, further comprising: a detection unit that detects a region where a moving body that exists is present.
【請求項9】 被写体像を連続して撮像し、複数の画像
を生成する撮像工程を有する撮像装置の制御方法であっ
て、 前記画像の画枠の鉛直方向に長い矩形領域を形成する画
素群の輝度に関する情報である鉛直方向輝度情報を取得
する第1の取得工程と、 前記画像の画枠の水平方向に長い矩形領域を形成する画
素群の輝度に関する情報である水平方向輝度情報を取得
する第2の取得工程と、 前記鉛直方向輝度情報と前記水平方向輝度情報とに基づ
いて、前記複数の画像間における前記画枠の移動量に関
する情報を生成する移動量生成工程と、を有することを
特徴とする撮像装置の制御方法。
9. A method of controlling an image pickup apparatus having an image pickup step of continuously picking up a subject image to generate a plurality of images, the pixel group forming a rectangular area long in a vertical direction of an image frame of the image. A first acquisition step of acquiring vertical direction brightness information that is information related to the brightness of the image, and horizontal brightness information that is information related to the brightness of a pixel group that forms a rectangular area that is long in the horizontal direction of the image frame of the image. A second acquisition step, and a movement amount generation step of generating information regarding a movement amount of the image frame between the plurality of images based on the vertical direction luminance information and the horizontal direction luminance information. A method for controlling an image pickup device having a feature.
【請求項10】 入力される複数の画像に基づいて、前
記複数の画像間に生じる画枠の移動量に関する情報を生
成するプロセッサの制御方法であって、 前記画像の画枠の鉛直方向に長い矩形領域を形成する画
素群の輝度に関する情報である鉛直方向輝度情報を取得
する第1の取得工程と、 前記画像の画枠の水平方向に長い矩形領域を形成する画
素群の輝度に関する情報である水平方向輝度情報を取得
する第2の取得工程と、 前記鉛直方向輝度情報と前記水平方向輝度情報とに基づ
いて、前記複数の画像間における前記画枠の移動量に関
する情報を生成する移動量生成工程と、を有することを
特徴とするプロセッサの制御方法。
10. A control method for a processor, which generates information on a movement amount of an image frame occurring between the plurality of images based on a plurality of input images, wherein the image frame of the image is long in a vertical direction. A first acquisition step of acquiring vertical direction brightness information, which is information about the brightness of a pixel group forming a rectangular area, and information about the brightness of a pixel group forming a rectangular area that is long in the horizontal direction of the image frame of the image. A second acquisition step of acquiring horizontal direction luminance information; and a movement amount generation for generating information regarding a movement amount of the image frame between the plurality of images based on the vertical direction luminance information and the horizontal direction luminance information. A method of controlling a processor, comprising:
【請求項11】 請求項9に記載の撮像装置の制御方法
を実現するためのプログラムコードを有する情報処理装
置が実行可能なプログラム。
11. A program executable by an information processing apparatus having a program code for implementing the method for controlling an image pickup apparatus according to claim 9.
【請求項12】 請求項11に記載のプログラムを記憶
した記憶媒体。
12. A storage medium storing the program according to claim 11.
【請求項13】 請求項10に記載のプロセッサの制御
方法を実現するためのプログラムコードを有する情報処
理装置が実行可能なプログラム。
13. A program executable by an information processing device, having a program code for implementing the method of controlling a processor according to claim 10.
【請求項14】 請求項13に記載のプログラムを記憶
した記憶媒体。
14. A storage medium storing the program according to claim 13.
JP2001246211A 2001-08-14 2001-08-14 Processor, image pickup device and control method therefor Withdrawn JP2003058893A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001246211A JP2003058893A (en) 2001-08-14 2001-08-14 Processor, image pickup device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001246211A JP2003058893A (en) 2001-08-14 2001-08-14 Processor, image pickup device and control method therefor

Publications (1)

Publication Number Publication Date
JP2003058893A true JP2003058893A (en) 2003-02-28

Family

ID=19075818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001246211A Withdrawn JP2003058893A (en) 2001-08-14 2001-08-14 Processor, image pickup device and control method therefor

Country Status (1)

Country Link
JP (1) JP2003058893A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005109814A (en) * 2003-09-30 2005-04-21 Casio Comput Co Ltd Image photographing device and program
WO2008114499A1 (en) * 2007-03-20 2008-09-25 Panasonic Corporation Photographing equipment and photographing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005109814A (en) * 2003-09-30 2005-04-21 Casio Comput Co Ltd Image photographing device and program
WO2008114499A1 (en) * 2007-03-20 2008-09-25 Panasonic Corporation Photographing equipment and photographing method
US7961222B2 (en) 2007-03-20 2011-06-14 Panasonic Corporation Image capturing apparatus and image capturing method

Similar Documents

Publication Publication Date Title
US8102465B2 (en) Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
USRE46239E1 (en) Method and system for image construction using multiple exposures
US8854533B2 (en) Image capture apparatus and control method therefor
JP2003344891A (en) Automatic photographing mode setting camera
JP6335434B2 (en) Imaging apparatus, control method thereof, and program
JP3823921B2 (en) Imaging device
JP6049333B2 (en) FOCUS DETECTION DEVICE AND FOCUS DETECTION DEVICE CONTROL METHOD
US9774782B2 (en) Image pickup apparatus and image pickup method
JP2001223932A (en) Image pickup device and digital camera
JP2001255456A (en) Range-finding device
JP2006091915A (en) Imaging apparatus
JP3632677B2 (en) Electronic camera
JP4948248B2 (en) Imaging apparatus and control method thereof
JP4935380B2 (en) Image tracking device and imaging device
JP5070856B2 (en) Imaging device
JP2003058893A (en) Processor, image pickup device and control method therefor
JP2004104652A (en) Image pickup device
JP2006115322A (en) Camera capable of panning photography and program for motion picture editing
JP2000330008A (en) Automatic focusing device
JP2002372664A (en) Moving body region discriminating system, method of discriminating moving body region and focusing device
JP4550211B2 (en) camera
JP2005345501A (en) Electronic camera
JP2005064749A (en) Camera
JP2001165622A (en) Optical device
JP6858022B2 (en) Focus detector, its control method and program, and imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20081104