JP2011101159A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2011101159A
JP2011101159A JP2009253846A JP2009253846A JP2011101159A JP 2011101159 A JP2011101159 A JP 2011101159A JP 2009253846 A JP2009253846 A JP 2009253846A JP 2009253846 A JP2009253846 A JP 2009253846A JP 2011101159 A JP2011101159 A JP 2011101159A
Authority
JP
Japan
Prior art keywords
image
range
electronic camera
reading
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009253846A
Other languages
Japanese (ja)
Other versions
JP5655291B2 (en
Inventor
Naoki Jinbo
直樹 神保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009253846A priority Critical patent/JP5655291B2/en
Publication of JP2011101159A publication Critical patent/JP2011101159A/en
Application granted granted Critical
Publication of JP5655291B2 publication Critical patent/JP5655291B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera capable of reading accumulated data of different ranges of an imaging element at a proper rate. <P>SOLUTION: The electronic camera includes: the imaging element 12 in which a plurality of charge storage type photoelectric conversion elements are arrayed horizontally and vertically; a reading means 15 for reading the accumulated data by the imaging element 12 at a predetermined reading rate in order of an element column; and a control means 20 for controlling the reading means 15 so as to read accumulated data of an element column included in a first range of the imaging element 12 at a first reading rate and read accumulated data of an element column included in a second range different from the first range of the imaging element 12 at a second reading rate. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、電子カメラに関する。   The present invention relates to an electronic camera.

撮像した画像から複数のクロップ領域内の画像を取得するデジタルカメラが知られている(特許文献1参照)。   A digital camera that acquires images in a plurality of crop areas from captured images is known (see Patent Document 1).

特開2005−175683号公報JP 2005-175683 A

従来技術では、撮像素子から画素データを読出す際のデータ読出しレートが各クロップ領域でどのように設定されるのか明らかでなかった。   In the prior art, it has not been clear how the data read rate when reading pixel data from the image sensor is set in each crop region.

本発明による電子カメラは、複数の電荷蓄積型光電変換素子が水平方向および垂直方向に配列された撮像素子と、撮像素子による蓄積データを素子列順に所定の読出しレートで読出す読出し手段と、撮像素子の第1範囲に含まれる素子列の蓄積データを第1の読出しレートで読出し、撮像素子の第1範囲と異なる第2範囲に含まれる素子列の蓄積データを第2の読出しレートで読出すように読出し手段を制御する制御手段と、を備えることを特徴とする。   An electronic camera according to the present invention includes an image sensor in which a plurality of charge storage photoelectric conversion elements are arranged in a horizontal direction and a vertical direction, reading means for reading data stored by the image sensor in a predetermined read rate in the order of element rows, and imaging The accumulated data of the element array included in the first range of the elements is read at the first reading rate, and the accumulated data of the element array included in the second range different from the first range of the imaging element is read at the second reading rate. Control means for controlling the reading means as described above.

本発明による電子カメラでは、撮像素子の異なる範囲の蓄積データを適切なレートで読出せる。   In the electronic camera according to the present invention, stored data in different ranges of the image sensor can be read at an appropriate rate.

本発明の第一の実施形態による電子カメラの構成を例示する図である。It is a figure which illustrates the structure of the electronic camera by 1st embodiment of this invention. 電子カメラの背面図である。It is a rear view of an electronic camera. 録画前にライブビュー画像を表示する画面を例示する図である。It is a figure which illustrates the screen which displays a live view image before recording. 録画前に表示枠を点灯表示する画面を例示する図である。It is a figure which illustrates the screen which lights and displays a display frame before video recording. 録画中の画面を例示する図である。It is a figure which illustrates the screen during recording. 2画像録画前にライブビュー画像を表示する画面を例示する図である。It is a figure which illustrates the screen which displays a live view image before 2 image recording. 2画像録画前に表示枠を点灯表示する画面を例示する図である。It is a figure which illustrates the screen which lights and displays a display frame before 2 image recording. 2画像録画中の画面を例示する図である。It is a figure which illustrates the screen during 2 image recording. 撮像素子からの画素データの読出しを説明する図である。It is a figure explaining reading of pixel data from an image sensor. 撮像素子からの画素データの読出しを説明する図である。It is a figure explaining reading of pixel data from an image sensor. 録画処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a video recording process. 再生表示処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a reproduction | regeneration display process. クロップ領域の位置関係を説明する図である。It is a figure explaining the positional relationship of a crop area | region. 位置関係と表示象限とを説明する図である。It is a figure explaining a positional relationship and a display quadrant.

以下、図面を参照して本発明を実施するための形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態による電子カメラ1の構成例を説明するブロック図である。図1において、電子カメラ1は、撮影光学系11と、撮像素子12と、AFE(Analog front end)回路13と、画像処理回路14と、タイミングジェネレータ(TG)15と、LCDモニタ17と、バッファメモリ18と、フラッシュメモリ19と、CPU20と、メモリカードインターフェース(I/F)21と、操作部材22とを備える。
Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a configuration example of an electronic camera 1 according to the first embodiment of the present invention. In FIG. 1, an electronic camera 1 includes a photographing optical system 11, an image sensor 12, an AFE (Analog front end) circuit 13, an image processing circuit 14, a timing generator (TG) 15, an LCD monitor 17, and a buffer. A memory 18, a flash memory 19, a CPU 20, a memory card interface (I / F) 21, and an operation member 22 are provided.

CPU20、バッファメモリ18、フラッシュメモリ19、メモリカードインターフェース21、画像処理回路14、およびLCDモニタ17は、それぞれがバス16を介して接続されている。   The CPU 20, the buffer memory 18, the flash memory 19, the memory card interface 21, the image processing circuit 14, and the LCD monitor 17 are connected via the bus 16.

撮影光学系11は、ズームレンズやフォーカシングレンズを含む複数のレンズ群で構成され、被写体像を撮像素子12の受光面に結像させる。なお、図1を簡単にするため、撮影光学系11を単レンズとして図示している。   The photographing optical system 11 includes a plurality of lens groups including a zoom lens and a focusing lens, and forms a subject image on the light receiving surface of the image sensor 12. In order to simplify FIG. 1, the photographing optical system 11 is shown as a single lens.

TG15は、CPU20から送出される指示に応じて所定のタイミング信号を発生し、撮像素子12、AFE回路13、画像処理回路14へそれぞれのタイミング信号を供給する。タイミング信号によって撮像素子12等が駆動制御されることにより、撮像素子12による撮像タイミングや撮像素子12からのアナログ画像信号の読出しタイミングが制御される。   The TG 15 generates a predetermined timing signal in response to an instruction sent from the CPU 20 and supplies the timing signal to the image sensor 12, the AFE circuit 13, and the image processing circuit 14. The image pickup device 12 and the like are driven and controlled by the timing signal, whereby the image pickup timing by the image pickup device 12 and the readout timing of the analog image signal from the image pickup device 12 are controlled.

撮像素子12は、撮影光学系11を通過した光束による被写体像を光電変換してアナログ画像信号を生成する。アナログ画像信号は、AFE回路13に入力される。本実施形態の撮像素子12は、たとえば、画素に対応する複数の電荷蓄積型の光電変換素子を備えたCMOSイメージセンサによって構成される。撮像素子12は電子シャッター機能を有しており、いわゆるローリングシャッターによって各画素の露光制御を行う。ローリングシャッターでは、画素の露光・読出しタイミング(蓄積制御のタイミング)が撮像面における水平方向の画素並び(水平ライン)ごとに異なっている。
また撮像素子12は、窓読み出し、という駆動モードを使用し、クロップした選択エリアに必要な領域のみを撮像素子で撮像して読み出すことが可能である。この撮像素子12における窓読出し駆動モードでは、撮像素子内の任意の位置および大きさのエリアをユーザーが任意に選択(設定)可能である。撮像素子12は、その選択されたエリアの大きさに応じて、被写体像を撮像して被写体像信号を読み出すフレームレート(以下、読み出しフレームレートと称す)を可変制御される(具体的には選択されたエリアの大きさが小さいほど読出しフレームレートを上げることができる)。これによって、複数のクロップ領域が選択された場合においても、撮像信号読み出しに要する時間が不必要に長くならなず、動画像(ライブビュー画像)表示や動画像記録にとって十分な読み出しフレームレートが確保できる。
撮像素子12は複数の駆動モードを有しており、間引きや加算方法が異なるためフレームレートの変更が可能である。複数の選択エリアに対して、それぞれの選択エリア内の被写体の動きに応じたフレームレートを設定することができる。例えば、動きベクトルが大きい被写体に対しては(動きの速い被写体を含むエリアが上述のクロップエリアとして選択された場合には)フレームレートを高くすることが可能になる。つまり被写体の動きに応じた読み出しフレームレートの制御が可能になる。
このように撮像素子12は、撮影される被写体の速さや、一画面内から切り出されるクロップエリアの大きさなどに応じて、適切な読み出しフレームレートで駆動制御されるものである。
The image sensor 12 photoelectrically converts a subject image by a light beam that has passed through the photographing optical system 11 to generate an analog image signal. The analog image signal is input to the AFE circuit 13. The image sensor 12 of the present embodiment is configured by a CMOS image sensor including a plurality of charge storage photoelectric conversion elements corresponding to pixels, for example. The image sensor 12 has an electronic shutter function, and performs exposure control of each pixel by a so-called rolling shutter. In the rolling shutter, pixel exposure / reading timing (accumulation control timing) is different for each horizontal pixel arrangement (horizontal line) on the imaging surface.
In addition, the image pickup device 12 can use a drive mode called window reading and pick up and read out only the area necessary for the cropped selection area. In the window reading drive mode in the image sensor 12, the user can arbitrarily select (set) an area of an arbitrary position and size in the image sensor. The image sensor 12 is variably controlled in a frame rate (hereinafter referred to as a readout frame rate) for capturing a subject image and reading a subject image signal in accordance with the size of the selected area (specifically, a selection is made). The smaller the size of the recorded area, the higher the read frame rate). As a result, even when a plurality of crop areas are selected, the time required to read out the imaging signal does not become unnecessarily long, and a readout frame rate sufficient for moving image (live view image) display and moving image recording is ensured. it can.
The image sensor 12 has a plurality of drive modes, and the frame rate can be changed because the thinning and addition methods are different. For a plurality of selection areas, a frame rate can be set according to the movement of the subject in each selection area. For example, for a subject with a large motion vector (when an area including a fast-moving subject is selected as the above-mentioned crop area), the frame rate can be increased. In other words, the readout frame rate can be controlled according to the movement of the subject.
As described above, the image sensor 12 is driven and controlled at an appropriate reading frame rate in accordance with the speed of the subject to be photographed, the size of the crop area cut out from one screen, and the like.

AFE回路13は、アナログ画像信号に対して相関二重サンプリングやゲイン調整などのアナログ処理を行うとともに、アナログ処理後の画像信号をデジタル画像データに変換する。デジタル画像データは画像処理回路14に入力される。画像処理回路14は、デジタル画像データに対して各種の画像処理(画素補間処理、階調変換処理、輪郭強調処理、ホワイトバランス調整処理、画像圧縮処理、画像伸張処理など)を施す。   The AFE circuit 13 performs analog processing such as correlated double sampling and gain adjustment on the analog image signal, and converts the image signal after the analog processing into digital image data. The digital image data is input to the image processing circuit 14. The image processing circuit 14 performs various types of image processing (pixel interpolation processing, gradation conversion processing, contour enhancement processing, white balance adjustment processing, image compression processing, image expansion processing, etc.) on the digital image data.

LCDモニタ17は液晶パネルによって構成され、CPU20からの指示に応じて画像や操作メニュー画面などを表示する。LCDモニタ17の表示面上にはタッチ操作部材(不図示)が積層されている。タッチ操作部材は、ユーザーによってタッチ操作された場合に操作部材上(すなわち液晶モニタ17の表示画面上)のタッチ位置を示す信号を発生し、CPU20へ送出する。   The LCD monitor 17 is composed of a liquid crystal panel, and displays an image, an operation menu screen, and the like according to an instruction from the CPU 20. A touch operation member (not shown) is stacked on the display surface of the LCD monitor 17. The touch operation member generates a signal indicating the touch position on the operation member (that is, on the display screen of the liquid crystal monitor 17) when the user performs a touch operation, and sends the signal to the CPU 20.

バッファメモリ18は、画像処理回路14によって画像処理される前、画像処理中、画像処理された後のデジタル画像データを一時的に記憶する。また、後述するクロップ録画を行う場合にも、各画像データ(第1画像データおよび第2画像データ)をそれぞれ一時記憶するために十分な記憶容量が確保されている。フラッシュメモリ19は、CPU20に実行させるプログラムを記憶する。   The buffer memory 18 temporarily stores digital image data before image processing by the image processing circuit 14, during image processing, and after image processing. Also, when performing crop recording, which will be described later, sufficient storage capacity is secured to temporarily store each image data (first image data and second image data). The flash memory 19 stores a program to be executed by the CPU 20.

CPU20は、フラッシュメモリ19が記憶するプログラムを実行することによって電子カメラ1が行う動作を制御する。CPU20は、AF(オートフォーカス)動作制御や、自動露出(AE)演算も行う。AF動作は、たとえば、ライブビュー画像のコントラスト情報に基づいてフォーカシングレンズ(不図示)の合焦位置を求めるコントラスト検出方式を用いる。ライブビュー画像は、撮影指示前に撮像素子12によって所定の時間間隔(たとえば60フレーム/毎秒=60fps)で繰り返し取得されるモニタ用画像のことをいう。ライブビュー画像はスルー画像とも呼ばれる。   The CPU 20 controls an operation performed by the electronic camera 1 by executing a program stored in the flash memory 19. The CPU 20 also performs AF (autofocus) operation control and automatic exposure (AE) calculation. The AF operation uses, for example, a contrast detection method for obtaining a focus position of a focusing lens (not shown) based on contrast information of a live view image. The live view image refers to a monitor image that is repeatedly acquired by the image sensor 12 at a predetermined time interval (for example, 60 frames / second = 60 fps) before a shooting instruction. The live view image is also called a through image.

メモリカードインターフェース21はコネクタ(不図示)を有し、該コネクタにメモリカードなどの記憶媒体51が接続される。メモリカードインターフェース21は、接続された記憶媒体51に対するデータの書き込みや、記憶媒体51からのデータの読込みを行う。記憶媒体51は、半導体メモリを内蔵したメモリカード、またはハードディスクドライブなどで構成される。   The memory card interface 21 has a connector (not shown), and a storage medium 51 such as a memory card is connected to the connector. The memory card interface 21 writes data to the connected storage medium 51 and reads data from the storage medium 51. The storage medium 51 is configured by a memory card incorporating a semiconductor memory, a hard disk drive, or the like.

操作部材22は、後述するレリーズボタン22a、録画スイッチ22i、ズームスイッチ22bおよび22c、十字スイッチ22g、メニュースイッチ22eなどを含む。操作部材22は、ファンクション操作やメニュー選択操作など、各操作に応じた操作信号をCPU20へ送出する。   The operation member 22 includes a release button 22a, a recording switch 22i, zoom switches 22b and 22c, a cross switch 22g, a menu switch 22e, and the like which will be described later. The operation member 22 sends an operation signal corresponding to each operation, such as a function operation or a menu selection operation, to the CPU 20.

図2は、電子カメラ1の背面図である。電子カメラ1の背面には、LCDモニタ17と、ズームスイッチ22b(T)と、ズームスイッチ22c(W)と、ファンクション(F)スイッチ22dと、録画スイッチ22iと、メニュースイッチ22eと、削除スイッチ22fと、十字スイッチ22gと、OKスイッチ22hとが設けられている。   FIG. 2 is a rear view of the electronic camera 1. On the back of the electronic camera 1, there are an LCD monitor 17, a zoom switch 22b (T), a zoom switch 22c (W), a function (F) switch 22d, a recording switch 22i, a menu switch 22e, and a deletion switch 22f. And a cross switch 22g and an OK switch 22h.

電子カメラ1のCPU20は、撮影モード時に上述したライブビュー画像をLCDモニタ17に表示させる。図3は、ライブビュー画像を表示するLCDモニタ17の表示画面を例示する図である。ライブビュー画像は、撮像素子12が有する有効画素のうち間引き読み出しされた画素のデータに基づいて表示されたものである。したがって、撮像素子12が有する有効画素数に比べてLCDモニタ17の表示画素数が少ない場合には、ライブビュー画像の精細度を低くするようにデータ読出し時の間引き率が設定される。間引きは、単純間引き方式でも画素加算方式でもよい。撮像素子12に60fpsで撮像を行わせる場合、ライブビュー画像を60fpsで表示させることができる。   The CPU 20 of the electronic camera 1 displays the above-described live view image on the LCD monitor 17 in the shooting mode. FIG. 3 is a diagram illustrating a display screen of the LCD monitor 17 that displays a live view image. The live view image is displayed based on the data of the pixels that are thinned out and read out from the effective pixels of the image sensor 12. Therefore, when the number of display pixels on the LCD monitor 17 is smaller than the number of effective pixels of the image sensor 12, the thinning rate at the time of data reading is set so as to reduce the definition of the live view image. The thinning may be a simple thinning method or a pixel addition method. When the image sensor 12 performs imaging at 60 fps, a live view image can be displayed at 60 fps.

CPU20は、ライブビュー画像を表示中にレリーズボタン22aから操作信号が入力された場合、静止画撮影処理を開始させて静止画像を取得する。静止画撮影では、通常、撮像素子12が有する全画素から読出した画素のデータに基づいて記録画像を生成する。なお、設定により、撮像素子12が有する全画素のうち所定の間引き率で読出した画素のデータに基づいて記録画像を生成すること、または、撮像素子12が有する撮像領域(有効画素領域)のうち所定の領域から読出した画素のデータに基づいて記録画像を生成することも可能に構成されている。   When an operation signal is input from the release button 22a while a live view image is displayed, the CPU 20 starts a still image shooting process and acquires a still image. In still image shooting, a recorded image is usually generated based on pixel data read from all the pixels of the image sensor 12. Note that, depending on the setting, a recorded image is generated based on pixel data read at a predetermined thinning rate among all the pixels of the image sensor 12, or among the image areas (effective pixel areas) of the image sensor 12 It is also possible to generate a recorded image based on pixel data read from a predetermined area.

また、CPU20は、ライブビュー画像を表示中に録画スイッチ22iから操作信号が入力された場合、動画撮影処理を開始させて動画像を取得し、動画撮影処理中に再度操作信号が入力された場合に動画撮影処理を終了する。動画撮影では、通常、撮像素子12が有する有効画素のうち所定の間引き率で読出した画素のデータに基づいて記録画像を生成する。なお、設定により、撮像素子12が有する撮像領域(有効画素領域)のうち所定領域から読出した画素のデータに基づいて記録画像を生成することも可能に構成されている。撮像素子12から画素のデータを読出す領域は、後述するクロップ領域設定操作により変更可能に構成されている。   Further, when an operation signal is input from the recording switch 22i while the live view image is displayed, the CPU 20 starts moving image shooting processing to acquire a moving image, and when an operation signal is input again during the moving image shooting processing. The video shooting process ends. In moving image shooting, a recorded image is usually generated based on pixel data read out at a predetermined thinning rate among the effective pixels of the image sensor 12. Note that, depending on the setting, it is also possible to generate a recorded image based on pixel data read from a predetermined area in the imaging area (effective pixel area) of the imaging element 12. The area for reading pixel data from the image sensor 12 is configured to be changeable by a crop area setting operation described later.

本実施形態は、動画像を取得する場合の動作に特徴を有するので、以下、動画像取得(録画)を中心に説明を行う。   Since this embodiment has a feature in the operation when acquiring a moving image, the following description will focus on moving image acquisition (recording).

<1画像録画の場合>
−クロップ領域設定−
CPU20は、ライブビュー画像を表示中にLCDモニタ17上のタッチ操作部材(不図示)から操作信号が入力された場合、そのタッチ位置を示す表示枠31をライブビュー画像の上に重ねて点滅表示(重畳表示)させる(図3)。本例では、表示枠31のアスペクト比は、LCDモニタ17の表示領域のアスペクト比と一致する。表示枠31は、動画像取得(録画)時における高精細画像の撮影範囲に対応する。
<For single image recording>
-Crop area setting-
When an operation signal is input from a touch operation member (not shown) on the LCD monitor 17 while displaying a live view image, the CPU 20 blinks a display frame 31 indicating the touch position on the live view image. (Superimposed display) (FIG. 3). In this example, the aspect ratio of the display frame 31 matches the aspect ratio of the display area of the LCD monitor 17. The display frame 31 corresponds to a shooting range of a high-definition image at the time of moving image acquisition (recording).

CPU20は、表示枠31を点滅させている状態でLCDモニタ17上のタッチ操作部材(不図示)から操作信号が入力された場合、そのタッチ位置へ表示枠31の中心位置を移動させる。また、CPU20は、ズームスイッチ22c(W)から操作信号が入力された場合は、点滅中の表示枠31のサイズを操作回数に応じて大きくし、ズームスイッチ22b(T)から操作信号が入力された場合は、点滅中の表示枠31のサイズを操作回数に応じて小さくする。CPU20は、OKスイッチ22hから操作信号が入力された場合、その時点の表示枠41を点滅表示から点灯表示へ変更させる(図4)。   When an operation signal is input from a touch operation member (not shown) on the LCD monitor 17 while the display frame 31 is blinking, the CPU 20 moves the center position of the display frame 31 to the touch position. When an operation signal is input from the zoom switch 22c (W), the CPU 20 increases the size of the blinking display frame 31 according to the number of operations, and the operation signal is input from the zoom switch 22b (T). In such a case, the size of the blinking display frame 31 is reduced according to the number of operations. When an operation signal is input from the OK switch 22h, the CPU 20 changes the display frame 41 at that time from blinking display to lighting display (FIG. 4).

なお、点灯表示中の表示枠41の表示位置がタッチ操作された場合のCPU20は、表示枠41を点灯表示から点滅表示へ変更させる。CPU20は、削除スイッチ22fから操作信号が入力された場合に点滅状態の表示枠41を消去させる。   When the display position of the display frame 41 that is lit is touched, the CPU 20 changes the display frame 41 from the lit display to the blinking display. The CPU 20 deletes the blinking display frame 41 when an operation signal is input from the deletion switch 22f.

−録画−
CPU20は、録画スイッチ22iから操作信号が入力された場合、動画像取得(録画)処理を開始させる。CPU20は、表示枠41がセットされている(すなわち、表示枠41が点灯表示されている)場合、高精細画像(第1画像と呼ぶ)を取得させる。高精細画像は、撮像素子12の撮像領域(有効画素領域)のうち表示枠41に対応する領域に対応する画像である。また、CPU20は、表示枠41がセットされていない(すなわち、表示枠41が点灯表示されていない)場合には、全画面画像を取得させる。全画面画像は、撮像素子12の有効画素領域の全域に対応する画像である。
-Recording-
When an operation signal is input from the recording switch 22i, the CPU 20 starts a moving image acquisition (recording) process. When the display frame 41 is set (that is, the display frame 41 is lit and displayed), the CPU 20 causes a high-definition image (referred to as a first image) to be acquired. The high-definition image is an image corresponding to an area corresponding to the display frame 41 in the imaging area (effective pixel area) of the imaging element 12. In addition, when the display frame 41 is not set (that is, the display frame 41 is not lit and displayed), the CPU 20 acquires a full screen image. The full screen image is an image corresponding to the entire effective pixel region of the image sensor 12.

高精細画像を取得する場合のCPU20は、表示枠41のサイズが大きいほど撮像素子12から画素データを読出す際の間引き率を高くし(換言すれば、読み出し解像度を低くし)、表示枠41のサイズが小さいほど撮像素子12から画素データを読出す際の間引き率を低く(換言すれば、読み出し解像度を高く)設定する。間引き率が低いほど(すなわち表示枠41のサイズが小さいほど)、高精細の動画像が得られる。更にCPU20は、表示枠41内に存在する被写体の動きをその枠41内の平均的な動きベクトルに基づいて求め、その動きに応じて撮像素子12の読み出しフレームレートを制御する。具体的には、被写体の動きが激しい(動きベクトルが大きい)ほど撮像素子12の読み出しフレームレートを上げる。なお、高精細画像の録画を開始したCPU20は、録画開始前の表示画像(図4)に代えて、録画中の表示画像(図5)をLCDモニタ17に表示させる。   When acquiring a high-definition image, the CPU 20 increases the thinning rate when reading out pixel data from the image sensor 12 as the size of the display frame 41 is larger (in other words, lowers the reading resolution). The smaller the size, the lower the decimation rate when reading pixel data from the image sensor 12 (in other words, the higher the reading resolution). The lower the thinning rate (that is, the smaller the size of the display frame 41), the higher definition moving image can be obtained. Further, the CPU 20 obtains the motion of the subject existing in the display frame 41 based on the average motion vector in the frame 41 and controls the readout frame rate of the image sensor 12 according to the motion. Specifically, the readout frame rate of the image sensor 12 is increased as the subject moves more rapidly (the motion vector is larger). The CPU 20 that has started recording the high-definition image causes the LCD monitor 17 to display the display image being recorded (FIG. 5) instead of the display image before the recording is started (FIG. 4).

<2画像録画の場合>
−クロップ領域設定−
CPU20は、ライブビュー画像に重ねて表示枠41(図4)を点灯表示中に、さらにLCDモニタ17上のタッチ操作部材(不図示)から操作信号が入力された場合、そのタッチ位置を示す表示枠61をライブビュー画像の上に重ねて点滅表示(重畳表示)させる(図6)。本例において、表示枠61のアスペクト比をLCDモニタ17の表示領域のアスペクト比と一致させている点は表示枠31(41)の場合と同様である。表示枠61は、動画像取得(録画)時における高精細画像(第2画像と呼ぶ)の撮影範囲を表す。
<In case of 2 image recording>
-Crop area setting-
When the operation signal is input from the touch operation member (not shown) on the LCD monitor 17 while the display frame 41 (FIG. 4) is lit on the CPU 20 while being superimposed on the live view image, the CPU 20 displays the touch position. The frame 61 is overlaid on the live view image and blinked (superimposed) (FIG. 6). In this example, the aspect ratio of the display frame 61 is matched with the aspect ratio of the display area of the LCD monitor 17 as in the case of the display frame 31 (41). A display frame 61 represents a shooting range of a high-definition image (referred to as a second image) at the time of moving image acquisition (recording).

CPU20は、表示枠61を点滅させている状態でLCDモニタ17上のタッチ操作部材(不図示)から操作信号が入力された場合、そのタッチ位置へ表示枠61の中心位置を移動させる。また、CPU20は、ズームスイッチ22c(W)から操作信号が入力された場合は、点滅中の表示枠61のサイズを操作回数に応じて大きくし、ズームスイッチ22b(T)から操作信号が入力された場合は、点滅中の表示枠61のサイズを操作回数に応じて小さくする。CPU20は、OKスイッチ22hから操作信号が入力された場合、その時点の表示枠71を点滅表示から点灯表示へ変更させる(図7)。   When an operation signal is input from a touch operation member (not shown) on the LCD monitor 17 while the display frame 61 is blinking, the CPU 20 moves the center position of the display frame 61 to the touch position. When an operation signal is input from the zoom switch 22c (W), the CPU 20 increases the size of the blinking display frame 61 according to the number of operations, and the operation signal is input from the zoom switch 22b (T). In such a case, the size of the blinking display frame 61 is reduced according to the number of operations. When an operation signal is input from the OK switch 22h, the CPU 20 changes the display frame 71 at that time from blinking display to lighting display (FIG. 7).

なお、点灯表示中の表示枠41、71のいずれかの表示位置がタッチ操作された場合のCPU20は、対応する表示枠を点灯表示から点滅表示へ変更させる。CPU20は、削除スイッチ22fから操作信号が入力された場合には、点滅状態の表示枠を消去させる。   Note that the CPU 20 when the display position of any of the display frames 41 and 71 being lit is touched, changes the corresponding display frame from the lit display to the blinking display. When an operation signal is input from the deletion switch 22f, the CPU 20 deletes the blinking display frame.

CPU20は、録画スイッチ22iから操作信号が入力された場合、動画像取得(録画)処理を開始させる。CPU20は、2つの高精細画像(拡大画像)を取得させる。2つの高精細画像は、撮像素子12の撮像領域のうち表示枠41に対応する領域に対応する第1画像(図5)と、表示枠71に対応する領域に対応する第2画像(図8)である。ここで本実施形態では第2画像(図8)の被写体よりも第1画像(図5)の被写体の方が激しく動いている(平均的な動きベクトルが相対的に大きい)ものと仮定する。なお、高精細画像の録画を開始したCPU20は、録画開始前の表示画像(図7)に代えて、録画中の表示画像(図8)をLCDモニタ17に表示させる。ここで、録画中の表示画像(図8)に代えて録画中の表示画像(図5)をLCDモニタ17に表示させることも可能に構成される。   When an operation signal is input from the recording switch 22i, the CPU 20 starts a moving image acquisition (recording) process. The CPU 20 acquires two high-definition images (enlarged images). The two high-definition images are a first image (FIG. 5) corresponding to a region corresponding to the display frame 41 in an imaging region of the image sensor 12, and a second image (FIG. 8) corresponding to a region corresponding to the display frame 71. ). Here, in the present embodiment, it is assumed that the subject of the first image (FIG. 5) moves more violently (the average motion vector is relatively larger) than the subject of the second image (FIG. 8). The CPU 20 that has started recording the high-definition image causes the LCD monitor 17 to display the display image being recorded (FIG. 8) instead of the display image before the recording is started (FIG. 7). Here, the display image (FIG. 5) being recorded can be displayed on the LCD monitor 17 instead of the display image (FIG. 8) being recorded.

CPU20は、2画像録画の場合は2つのクロップ領域のそれぞれに対して、撮像素子12から画素データを読出す際のデータ読出しレート(すなわち間引き率)を設定する。   In the case of two-image recording, the CPU 20 sets a data reading rate (that is, a thinning rate) when reading pixel data from the image sensor 12 for each of the two crop areas.

図9および図10は、撮像素子12からの画素データの読出しを説明する図である。図9は、全画面画像を取得する場合(すなわち、表示枠41(図4)がセットされていない場合)を説明する図である。CPU20は、撮像素子12の有効画素領域の全域に対応する画像を取得するため、撮像素子12の上側から下側へ、水平ラインごとにタイミングをずらして露光・読出しを制御する。上述したように、撮像素子12から画素データを読出す際の間引き率を高くするように、読出し水平ラインを所定間隔でセットするとともに(たとえば、60fps)、読出し水平ラインにおいて所定画素間隔で画素データを読出す。    9 and 10 are diagrams for explaining reading of pixel data from the image sensor 12. FIG. 9 is a diagram illustrating a case where a full screen image is acquired (that is, a case where the display frame 41 (FIG. 4) is not set). The CPU 20 controls exposure / reading by shifting the timing for each horizontal line from the upper side to the lower side of the image sensor 12 in order to acquire an image corresponding to the entire effective pixel region of the image sensor 12. As described above, the readout horizontal line is set at a predetermined interval (for example, 60 fps) so as to increase the thinning rate when the pixel data is read out from the image sensor 12, and the pixel data at the predetermined pixel interval on the readout horizontal line. Read out.

図10は、クロップ領域について画像を取得する場合を説明する図である。図10は2画像録画の例であるので、表示枠41および表示枠71(図7)の双方がセットされている。CPU20は、複数のクロップ領域に対応する画像を取得するため、撮像素子12の上側から下側へ水平ラインごと、かつクロップ領域ごとにタイミングをずらして露光・読出しを制御する。   FIG. 10 is a diagram illustrating a case where an image is acquired for a crop area. Since FIG. 10 is an example of two-image recording, both the display frame 41 and the display frame 71 (FIG. 7) are set. In order to acquire images corresponding to a plurality of crop areas, the CPU 20 controls exposure / reading by shifting the timing from the upper side to the lower side of the image sensor 12 for each horizontal line and for each crop area.

図10において、画素領域1071は表示枠71(図7)に対応し、画素領域1041は表示枠41(図7)に対応する。CPU20は、撮像素子12から画素データを読出す際の間引き率を低くする(換言すれば高解像読出しモードにする)ように、読出し水平ラインの間隔を全画面画像取得時より狭くセットするとともに、読出し水平ラインにおける画素間隔も全画面取得時より狭くする。画素領域1071および画素領域1041間でサイズが異なる場合は、各画素領域間で読出し水平ライン間隔および画素間隔(換言すれば読出しの解像度を)を異ならせる。更に、表示枠41、71内の被写体の動きに応じて、読み出しのフレームレートを制御する。図10の例では、画素領域1071に係る読出し水平ラインをたとえば10fps相当にセットし、画素領域1041に係る読出し水平ラインをたとえば30fps相当にセットする。このように動きの激しい被写体(図5)に係る読出し水平ラインの方のフレームレートを相対的に上げるようにする。   In FIG. 10, a pixel area 1071 corresponds to the display frame 71 (FIG. 7), and a pixel area 1041 corresponds to the display frame 41 (FIG. 7). The CPU 20 sets the interval of the readout horizontal lines to be narrower than that at the time of acquiring the full screen image so as to reduce the thinning rate when reading out the pixel data from the image sensor 12 (in other words, the high resolution readout mode is set). Also, the pixel interval in the readout horizontal line is made narrower than that at the time of full screen acquisition. When the sizes of the pixel area 1071 and the pixel area 1041 are different, the reading horizontal line interval and the pixel interval (in other words, the reading resolution) are made different between the pixel areas. Further, the reading frame rate is controlled in accordance with the movement of the subject in the display frames 41 and 71. In the example of FIG. 10, the readout horizontal line related to the pixel area 1071 is set to, for example, 10 fps, and the readout horizontal line related to the pixel area 1041 is set to, for example, 30 fps. Thus, the frame rate of the readout horizontal line related to the subject (FIG. 5) that moves rapidly is relatively increased.

ここで、各水平ラインの露光時間は、電子カメラ1に設定されているシャッター秒時に対応するものであり、たとえば、CPU20が公知の自動露出演算によって決定したシャッター秒時が用いられる。   Here, the exposure time of each horizontal line corresponds to the shutter time set in the electronic camera 1, and for example, the shutter time determined by the CPU 20 by a known automatic exposure calculation is used.

以上説明した録画処理の流れについて、図11に例示するフローチャートを参照して説明する。電子カメラ1のCPU20は、不図示のメインスイッチがオン操作されると、図11の処理を行うプログラムを起動する。図11のステップS101において、CPU20は、撮像素子12にライブビュー画像用の撮像を開始させ、取得された画像データに基づくライブビュー画像をLCDモニタ17に表示させてステップS102へ進む(図3)。   The flow of the recording process described above will be described with reference to the flowchart illustrated in FIG. When a main switch (not shown) is turned on, the CPU 20 of the electronic camera 1 activates a program that performs the processing in FIG. In step S101 in FIG. 11, the CPU 20 causes the image sensor 12 to start imaging for a live view image, displays a live view image based on the acquired image data on the LCD monitor 17, and proceeds to step S102 (FIG. 3). .

図3に例示したライブビュー画像は、撮像素子12が有する有効画素のうち、LCDモニタ17の表示画素数に応じた間引き率で読出したデータに基づいて表示させたものである。したがって、撮像素子12が有する画素数に比べてLCDモニタ17の表示画素数が少ない場合には、ライブビュー画像の解像度を低くするようにデータ読出し時の間引き率を設定する。ここで、画素密度変換処理について述べる。LCDモニタ17の表示画面の走査形式に規定される画素数よりも、撮像素子12の読出し画素数が多い場合には、その走査形式の規定よりも高い画素密度で画像情報が生成されてしまう。そこでこの画素密度の高い画像情報を表示画面の走査形式に合わせた画素密度まで低減する処理のことを画素密度変換処理という。   The live view image illustrated in FIG. 3 is displayed based on data read out at a thinning rate corresponding to the number of display pixels of the LCD monitor 17 among the effective pixels of the image sensor 12. Therefore, when the number of display pixels on the LCD monitor 17 is smaller than the number of pixels of the image sensor 12, the thinning rate at the time of data reading is set so as to lower the resolution of the live view image. Here, pixel density conversion processing will be described. When the number of read pixels of the image sensor 12 is larger than the number of pixels specified in the scanning format of the display screen of the LCD monitor 17, image information is generated with a higher pixel density than that specified in the scanning format. Therefore, the process of reducing the image information having a high pixel density to a pixel density that matches the scanning format of the display screen is called a pixel density conversion process.

ステップS102において、CPU20は、クロップ領域を設定する操作が行われたか否かを判定する。CPU20は、たとえば、ファンクションスイッチ22dの押下操作を示す信号が操作部材22から入力された場合、ステップS102を肯定判定してステップS103へ進む。CPU20は、ファンクションスイッチ22dの押下操作を示す信号が入力されない場合には、ステップS102を否定判定してステップS108へ進む。   In step S102, the CPU 20 determines whether or not an operation for setting a crop area has been performed. For example, when a signal indicating a pressing operation of the function switch 22d is input from the operation member 22, the CPU 20 makes a positive determination in step S102 and proceeds to step S103. If the signal indicating the pressing operation of the function switch 22d is not input, the CPU 20 makes a negative determination in step S102 and proceeds to step S108.

ステップS103において、CPU20は、撮影対象の指定操作を受け付ける。具体的には、上述したように表示枠31または表示枠61をライブビュー画像に重ねて表示させた上で、OKスイッチ22hからの操作信号を待つ。CPU20は、OKスイッチ22hが操作されるとステップS104へ進む。   In step S <b> 103, the CPU 20 accepts an operation for specifying a shooting target. Specifically, as described above, the display frame 31 or the display frame 61 is displayed so as to overlap the live view image, and an operation signal from the OK switch 22h is waited for. When the OK switch 22h is operated, the CPU 20 proceeds to step S104.

ステップS104において、CPU20は、撮影対象に動きがあるか否かを判定する。CPU20は、後から取得されたフレーム画像データにおける検出領域の位置と、先に取得されたフレーム画像データにおける撮影対象の位置との相対距離が所定差を超えている場合に、ステップS104を肯定判定してステップS105へ進む。CPU20は、上記相対距離が所定差以下の場合には、ステップS104を否定判定してステップS106へ進む。   In step S <b> 104, the CPU 20 determines whether or not there is a movement in the shooting target. When the relative distance between the position of the detection region in the frame image data acquired later and the position of the shooting target in the frame image data acquired earlier exceeds a predetermined difference, the CPU 20 makes a positive determination in step S104. Then, the process proceeds to step S105. If the relative distance is equal to or smaller than the predetermined difference, the CPU 20 makes a negative determination in step S104 and proceeds to step S106.

ステップS105において、CPU20は、画素領域1041に係る読出し水平ラインのように、読み出しレートを30fps相当にセットしてステップS107へ進む。フレームレートを上げることによって蓄積時間が短くなり、蓄積データの信号値が低くなる。この場合は、撮像感度を高くすることによって信号値の低下分を補償するようにしてもよい。ステップS106において、CPU20は、画素領域1071に係る読出し水平ラインのように、読み出しレートを10fps相当にセットしてステップS107へ進む。フレームレートを下げることによって蓄積時間が長くなり、蓄積データの信号値が高くなる。この場合は、撮像感度を低くすることによって信号値の増加分を補償するようにしてもよい。   In step S105, the CPU 20 sets the readout rate to be equivalent to 30 fps as in the readout horizontal line related to the pixel region 1041, and proceeds to step S107. Increasing the frame rate shortens the accumulation time and lowers the signal value of the accumulated data. In this case, the decrease in the signal value may be compensated by increasing the imaging sensitivity. In step S106, the CPU 20 sets the readout rate to be equivalent to 10 fps like the readout horizontal line related to the pixel region 1071, and proceeds to step S107. Lowering the frame rate increases the storage time and increases the signal value of the stored data. In this case, the increase in signal value may be compensated for by lowering the imaging sensitivity.

ステップS107において、CPU20は、クロップ領域設定終了操作が行われたか否かを判定する。CPU20は、表示枠31または61の点滅表示を終了した場合にステップS107を肯定判定してステップS108へ進む。CPU20は、表示枠31または61を点滅表示させている場合はステップS107を否定判定し、ステップS103へ戻る。   In step S107, the CPU 20 determines whether or not a crop area setting end operation has been performed. When the CPU 20 finishes blinking the display frame 31 or 61, it makes a positive determination in step S107 and proceeds to step S108. If the display frame 31 or 61 is blinking, the CPU 20 makes a negative determination in step S107 and returns to step S103.

ステップS108において、CPU20は録画操作が行われたか否かを判定する。CPU20は、録画スイッチ22iから操作信号が入力された場合にステップS108を肯定判定してステップS109へ進む。CPU20は、録画スイッチ22iから操作信号が入力されない場合には、ステップS108を否定判定してステップS101へ戻る。   In step S108, the CPU 20 determines whether or not a recording operation has been performed. When the operation signal is input from the recording switch 22i, the CPU 20 makes a positive determination in step S108 and proceeds to step S109. When the operation signal is not input from the recording switch 22i, the CPU 20 makes a negative determination in step S108 and returns to step S101.

ステップS109において、CPU20は、動画撮影処理を開始させてステップS110へ進む。ステップS110において、CPU20は、取得した画像データに基づいて、たとえば、MPEGフォーマットの画像ファイルを記憶媒体51へ記録して図11による処理を終了する。   In step S109, the CPU 20 starts moving image shooting processing and proceeds to step S110. In step S110, the CPU 20 records, for example, an MPEG format image file on the storage medium 51 based on the acquired image data, and ends the process of FIG.

以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)電子カメラ1は、複数の電荷蓄積型光電変換素子が水平方向および垂直方向に配列された撮像素子12と、撮像素子12による蓄積データを素子列順に所定の読出しレートで読出すTG15と、撮像素子12の第1範囲に含まれる素子列の蓄積データを第1の読出しレートで読出し、撮像素子12の第1範囲と異なる第2範囲に含まれる素子列の蓄積データを第2の読出しレートで読出すようにTG15を制御するCPU20とを備えるので、撮像素子12の異なる範囲の蓄積データを、それぞれ適切なレートで読出せる。
According to the first embodiment described above, the following operational effects can be obtained.
(1) The electronic camera 1 includes an image sensor 12 in which a plurality of charge storage photoelectric conversion elements are arranged in a horizontal direction and a vertical direction, and a TG 15 that reads accumulated data from the image sensor 12 in a sequence of element rows at a predetermined read rate. The accumulated data of the element array included in the first range of the image sensor 12 is read at the first reading rate, and the accumulated data of the element array included in the second range different from the first range of the image sensor 12 is read second. Since the CPU 20 controls the TG 15 to read at a rate, the accumulated data in different ranges of the image sensor 12 can be read at an appropriate rate.

(2)画像データを記憶媒体51に記録するメモリカードI/F21をさらに備え、CPU20は、第1範囲の蓄積データに基づく画像データ(第1画像)、および第2範囲の蓄積データに基づく画像データ(第2画像)の双方を記憶媒体51に記録するようにメモリカードI/F21を制御する。これにより、異なる読出しレートで読出した複数の画像を録画できる。 (2) A memory card I / F 21 that records image data in the storage medium 51 is further provided, and the CPU 20 includes image data based on the first range of accumulated data (first image) and an image based on the second range of accumulated data. The memory card I / F 21 is controlled to record both data (second image) in the storage medium 51. Thereby, a plurality of images read at different reading rates can be recorded.

(3)上記(2)の場合のCPU20は、メモリカードI/F21に第1範囲および第2範囲の蓄積データに基づく画像データを記憶媒体51に記録せしめる際には、撮像素子12に含まれる、画像データを形成する蓄積データを出力する素子列のうち、第1範囲と第2範囲に対応する素子列からの蓄積データのみを読出すようTG15を制御するようにした。一般に、撮像素子12にはオプティカルブラック部が設けられている。オプティカルブラック部に含まれる画素は遮光されており、センサ出力の基準となる信号を出力する。録画時にはオプティカルブラック部に含まれる画素について蓄積データを読出さないことで、録画時の読出し制御が簡単になる。 (3) The CPU 20 in the case of (2) is included in the image sensor 12 when the memory card I / F 21 records image data based on the accumulated data in the first range and the second range on the storage medium 51. The TG 15 is controlled so as to read only the accumulated data from the element rows corresponding to the first range and the second range among the element rows that output the accumulated data forming the image data. In general, the image sensor 12 is provided with an optical black portion. The pixels included in the optical black portion are shielded from light and output a signal serving as a reference for sensor output. By not reading the accumulated data for the pixels included in the optical black portion during recording, the readout control during recording is simplified.

(変形例1)
上述した説明では、2画像録画の際に設定した2つのクロップ領域が異なる水平ライン上に存在する場合(2つのクロップ領域において共通する水平ラインが存在しない)を例示したが、2つのクロップ領域が同一の水平ラインを含む場合も想定される。この場合は、たとえば、クロップ領域が広い方のデータ読出しレート(すなわち間引き率)をクロップ領域が狭い方のデータ読出しレートに揃えるようにする。具体的には、30fps相当でデータ読出しレートをセットすべき画素領域1041と、10fps相当でデータ読出しレートをセットすべき画素領域1071とが共通の水平ライン上に存在する場合、読出しレートが速い方の30fps相当でデータ読出しレートをセットする。重複するクロップ領域について異なるレートで2度読みする場合に比べて合理的である。また、速い方の読出しレートに揃えることで、撮影対象の主要被写体に動きがある場合に好適である。
(Modification 1)
In the above description, the case where the two crop areas set at the time of two-image recording exist on different horizontal lines (there is no common horizontal line in the two crop areas) is exemplified. It is also assumed that the same horizontal line is included. In this case, for example, the data read rate (that is, the thinning rate) of the wider crop area is made equal to the data read rate of the narrower crop area. Specifically, when the pixel area 1041 to set the data reading rate at 30 fps and the pixel area 1071 to set the data reading rate at 10 fps are on a common horizontal line, the one with the higher reading rate The data read rate is set at 30 fps. This is more reasonable than when the overlapping crop area is read twice at different rates. In addition, it is suitable for the case where there is a movement in the main subject to be photographed by making the reading rate faster.

なお、読出しレートの速い方に揃えるようにセットする代わりに、両読出しレートの平均値に揃えるようにしてもよい。   Instead of setting the values so that the reading rates are faster, they may be adjusted to the average value of both reading rates.

(変形例2)
ライブビュー表示時や動画撮影時に、指定された撮影対象を追尾する構成にしてもよい。具体的には、上述した表示枠31(表示枠61)内の対象物を追尾被写体Tとする。CPU20は、OKスイッチ22hが押下されてステップS104(図11)へ進む際に、その時点で表示枠31(表示枠61)に表示中の追尾被写体Tに対応する画像データに基づいて特徴量データを生成し、特徴量データを含む参照用データをフラッシュメモリ19に格納(登録)する。この参照用データは、追尾被写体Tを追尾する際のテンプレートマッチング用に用いる。
(Modification 2)
A configuration may be adopted in which a specified shooting target is tracked during live view display or during moving image shooting. Specifically, the object in the display frame 31 (display frame 61) described above is set as the tracking subject T. When the CPU 20 proceeds to step S104 (FIG. 11) when the OK switch 22h is pressed, the feature data is based on the image data corresponding to the tracking subject T currently displayed on the display frame 31 (display frame 61). And the reference data including the feature data is stored (registered) in the flash memory 19. This reference data is used for template matching when tracking the tracking subject T.

その後、CPU20は被写体追尾処理を行う。具体的には、取得時刻が異なる複数フレームの画像データを用いて公知のテンプレートマッチング処理を施すことにより、先に取得された画像データにおける追尾被写体Tと類似する領域を、後から取得された画像データから検出(追尾)する。   Thereafter, the CPU 20 performs subject tracking processing. Specifically, by performing a known template matching process using image data of a plurality of frames having different acquisition times, an area similar to the tracking subject T in the previously acquired image data is acquired later. Detect (track) from data.

CPU20は、被写体位置が移動したか否かを判定する。CPU20は、後から取得された画像データにおける検出領域の位置と、先に取得された画像データにおける追尾被写体Tの位置との相対距離が所定差を超えている場合に、ステップS104(図11)を肯定判定してステップS105へ進む。CPU20は、上記相対距離が所定差以下の場合には、ステップS104を否定判定してステップS106へ進む。   The CPU 20 determines whether or not the subject position has moved. When the relative distance between the position of the detection area in the image data acquired later and the position of the tracking subject T in the image data acquired earlier exceeds a predetermined difference, the CPU 20 performs step S104 (FIG. 11). Is affirmed and the process proceeds to step S105. If the relative distance is equal to or smaller than the predetermined difference, the CPU 20 makes a negative determination in step S104 and proceeds to step S106.

ステップS105またはステップS106におけるCPU20は、それぞれ上記読出しレートのセットに加えて、次回の処理で用いるフォーカスエリアの座標位置(AFエリア位置)を現位置から、上記被写体追尾処理で検出した追尾被写体Tの位置へ更新する。   The CPU 20 in step S105 or step S106, in addition to the set of readout rates, respectively, determines the coordinate position (AF area position) of the focus area used in the next process from the current position of the tracking subject T detected by the subject tracking process. Update to position.

(第二の実施形態)
第二の実施形態では、第一の実施形態の電子カメラ1で記録された画像ファイルに基づいて行う動画像再生について説明する。第二の実施形態によるLCDモニタ17の表示領域は、表示制御上、たとえば上下左右に4分割されている。CPU20は、各分割領域に対する個別の表示データをそれぞれ生成する。LCDモニタ17は、CPU20から送出される4つの表示データに基づいて、各分割領域ごとに再生画像を表示させる。つまり、4つの個別のLCDモニタが上下左右に並べて配設されている場合と同様の表示制御を行う。
(Second embodiment)
In the second embodiment, moving image reproduction performed based on an image file recorded by the electronic camera 1 of the first embodiment will be described. The display area of the LCD monitor 17 according to the second embodiment is divided into, for example, four parts vertically and horizontally for display control. The CPU 20 generates individual display data for each divided area. The LCD monitor 17 displays a reproduced image for each divided area based on the four display data sent from the CPU 20. That is, display control is performed in the same manner as when four individual LCD monitors are arranged vertically and horizontally.

本説明では、LCDモニタ17の右上の分割領域を第1象限と呼び、左上の分割領域を第2象限と呼び、左下の分割領域を第3象限と呼び、右下の分割領域を第4象限と呼ぶことにする。CPU20は、1画像録画された動画像ファイルを再生表示する場合、LCDモニタ17の第1象限〜第4象限を用いて1つの動画像を再生表示させる。すなわち、再生表示しようとする動画像の画面を上下左右に4分割し、右上の分割領域をLCDモニタ17の第1象限に表示させ、左上の分割領域をLCDモニタ17の第2象限に表示させ、左下の分割領域をLCDモニタ17の第3象限に表示させ、右下の分割領域をLCDモニタ17の第4象限に表示させる。   In this description, the upper right divided area of the LCD monitor 17 is called the first quadrant, the upper left divided area is called the second quadrant, the lower left divided area is called the third quadrant, and the lower right divided area is the fourth quadrant. I will call it. When the CPU 20 reproduces and displays a moving image file recorded with one image, the CPU 20 reproduces and displays one moving image using the first to fourth quadrants of the LCD monitor 17. That is, the screen of the moving image to be reproduced and displayed is divided into four parts in the upper, lower, left and right directions, the upper right divided area is displayed in the first quadrant of the LCD monitor 17, and the upper left divided area is displayed in the second quadrant of the LCD monitor 17. The lower left divided area is displayed in the third quadrant of the LCD monitor 17, and the lower right divided area is displayed in the fourth quadrant of the LCD monitor 17.

CPU20は、2画像録画された動画像ファイルを再生表示する場合、LCDモニタ17の第1象限〜第4象限のうち2つの象限を用いて2つの動画像を再生表示する。再生表示に用いる2つの象限は、2つの動画像の相対的な位置関係、すなわち、2画像録画の際に設定された2つのクロップ領域の位置関係に基づいて決定する。   When reproducing and displaying a moving image file recorded with two images, the CPU 20 reproduces and displays two moving images using two quadrants of the first quadrant to the fourth quadrant of the LCD monitor 17. The two quadrants used for playback display are determined based on the relative positional relationship between the two moving images, that is, the positional relationship between the two crop areas set during the two-image recording.

2画像録画された動画像ファイルを再生表示する場合に用いる2つの象限の決定方法を含む再生表示処理の流れについて、図12に例示するフローチャートを参照して説明する。電子カメラ1のCPU20は、メニュー操作によって動画像再生が指示されると、図12の処理を行うプログラムを起動する。図12のステップS201において、CPU20は、表示対象の動画像ファイルに2画像が録画されているか否かを判定する。CPU20は、2画像のデータが含まれている(2画像録画されている)場合にステップS201を肯定判定してステップS202へ進む。CPU20は、2画像のデータが含まれていない(1画像録画されている)場合にステップS201を否定判定してステップS219へ進む。   A flow of reproduction display processing including a method for determining two quadrants used when reproducing and displaying a moving image file recorded with two images will be described with reference to a flowchart illustrated in FIG. The CPU 20 of the electronic camera 1 activates a program for performing the processing in FIG. In step S201 in FIG. 12, the CPU 20 determines whether or not two images are recorded in the moving image file to be displayed. If two images of data are included (two images are recorded), the CPU 20 makes an affirmative decision in step S201 and proceeds to step S202. If the two images are not included (one image is recorded), the CPU 20 makes a negative determination in step S201 and proceeds to step S219.

ステップS202において、CPU20は、2画像録画の際に設定された2つのクロップ領域の位置関係を判定してステップS203へ進む。図13は、クロップ領域の位置関係を説明する図である。図13において、図10における画素領域1041(第1画像に相当)の略中央に位置する画素に対応する座標をa(x1,y1)とし、画素領域1071(第2画像に相当)の略中央に位置する画素に対応する座標をb(x2,y2)とする。   In step S202, the CPU 20 determines the positional relationship between the two crop areas set during the two-image recording, and proceeds to step S203. FIG. 13 is a diagram for explaining the positional relationship of the crop areas. In FIG. 13, a coordinate corresponding to a pixel located approximately in the center of the pixel area 1041 (corresponding to the first image) in FIG. 10 is a (x1, y1), and approximately center of the pixel area 1071 (corresponding to the second image). Let b (x2, y2) be the coordinates corresponding to the pixel located at.

CPU20は、第2画像の座標b(x2,y2)が第1画像の座標a(x1,y1)に対してどの方向に位置しているかに基づいて、8つの位置関係に分類する。「位置A」は、座標a(x1,y1)に対して座標b(x2,y2)が下方に位置する場合である。「位置B」は、座標a(x1,y1)に対して座標b(x2,y2)が右下方に位置する場合である。図13における破線は、境界を示す一次関数を表す(Y=−2X、Y=−X/2、Y=X/2、Y=2X)。   The CPU 20 classifies the second image into eight positional relationships based on the direction in which the coordinate b (x2, y2) of the second image is located with respect to the coordinate a (x1, y1) of the first image. “Position A” is a case where the coordinates b (x2, y2) are located below the coordinates a (x1, y1). “Position B” is a case where the coordinate b (x2, y2) is located on the lower right side with respect to the coordinate a (x1, y1). A broken line in FIG. 13 represents a linear function indicating a boundary (Y = −2X, Y = −X / 2, Y = X / 2, Y = 2X).

「位置C」は、座標a(x1,y1)に対して座標b(x2,y2)が右方に位置する場合である。「位置D」は、座標a(x1,y1)に対して座標b(x2,y2)が右上方に位置する場合である。「位置E」は、座標a(x1,y1)に対して座標b(x2,y2)が上方に位置する場合である。「位置F」は、座標a(x1,y1)に対して座標b(x2,y2)が左上方に位置する場合である。   “Position C” is a case where the coordinates b (x2, y2) are located to the right with respect to the coordinates a (x1, y1). “Position D” is a case where the coordinate b (x2, y2) is located on the upper right side with respect to the coordinate a (x1, y1). “Position E” is a case where the coordinates b (x2, y2) are located above the coordinates a (x1, y1). “Position F” is a case where the coordinate b (x2, y2) is located at the upper left with respect to the coordinate a (x1, y1).

「位置G」は、座標a(x1,y1)に対して座標b(x2,y2)が左方に位置する場合である。「位置H」は、座標a(x1,y1)に対して座標b(x2,y2)が左下方に位置する場合である。   “Position G” is a case where the coordinates b (x2, y2) are located to the left with respect to the coordinates a (x1, y1). “Position H” is a case where the coordinates b (x2, y2) are located on the lower left with respect to the coordinates a (x1, y1).

図12のステップS203において、CPU20は「位置A」に該当するか否かを判定する。CPU20は、「位置A」に該当する場合にステップS203を肯定判定してステップS204へ進み、「位置A」に該当しない場合にはステップS203を否定判定してステップS205へ進む。   In step S <b> 203 of FIG. 12, the CPU 20 determines whether or not it corresponds to “position A”. The CPU 20 makes an affirmative decision in step S203 when it corresponds to “position A”, and proceeds to step S204. If it does not correspond to “position A”, the CPU 20 makes a negative decision in step S203 and proceeds to step S205.

ステップS204において、CPU20は、図14(A)に例示するように、座標a(x1,y1)を第2象限の略中央に位置させて、第1画像を第2象限に表示させるとともに、座標b(x2,y2)を第3象限の略中央に位置させて、第2画像を第3象限に表示させるように設定してステップS218へ進む。   In step S204, as illustrated in FIG. 14A, the CPU 20 displays the first image in the second quadrant by positioning the coordinates a (x1, y1) in the approximate center of the second quadrant, b (x2, y2) is positioned approximately at the center of the third quadrant, and the second image is set to be displayed in the third quadrant, and the process proceeds to step S218.

ステップS205において、CPU20は「位置B」に該当するか否かを判定する。CPU20は、「位置B」に該当する場合にステップS205を肯定判定してステップS206へ進み、「位置B」に該当しない場合にはステップS205を否定判定してステップS207へ進む。   In step S205, the CPU 20 determines whether or not it corresponds to “position B”. If the position corresponds to “position B”, the CPU 20 makes an affirmative determination in step S205 and proceeds to step S206. If the position does not correspond to “position B”, the CPU 20 makes a negative determination and proceeds to step S207.

ステップS206において、CPU20は、図14(B)に例示するように、座標a(x1,y1)を第2象限の略中央に位置させて、第1画像を第2象限に表示させるとともに、座標b(x2,y2)を第4象限の略中央に位置させて、第2画像を第4象限に表示させるように設定してステップS218へ進む。   In step S206, as illustrated in FIG. 14B, the CPU 20 displays the first image in the second quadrant by positioning the coordinates a (x1, y1) in the approximate center of the second quadrant, b (x2, y2) is positioned approximately at the center of the fourth quadrant, and the second image is set to be displayed in the fourth quadrant, and the process proceeds to step S218.

ステップS207において、CPU20は「位置C」に該当するか否かを判定する。CPU20は、「位置C」に該当する場合にステップS207を肯定判定してステップS208へ進み、「位置C」に該当しない場合にはステップS205を否定判定してステップS209へ進む。   In step S207, the CPU 20 determines whether or not it corresponds to “position C”. The CPU 20 makes an affirmative decision in step S207 when it corresponds to “position C”, and proceeds to step S208. If it does not correspond to “position C”, it makes a negative decision in step S205 and proceeds to step S209.

ステップS208において、CPU20は、図14(C)に例示するように、座標a(x1,y1)を第2象限の略中央に位置させて、第1画像を第2象限に表示させるとともに、座標b(x2,y2)を第1象限の略中央に位置させて、第2画像を第1象限に表示させるように設定してステップS218へ進む。   In step S208, as illustrated in FIG. 14C, the CPU 20 displays the first image in the second quadrant by positioning the coordinates a (x1, y1) in the approximate center of the second quadrant, b (x2, y2) is positioned approximately at the center of the first quadrant, and the second image is set to be displayed in the first quadrant, and the process proceeds to step S218.

ステップS209において、CPU20は「位置D」に該当するか否かを判定する。CPU20は、「位置D」に該当する場合にステップS209を肯定判定してステップS210へ進み、「位置D」に該当しない場合にはステップS209を否定判定してステップS211へ進む。   In step S209, the CPU 20 determines whether or not the position corresponds to “position D”. The CPU 20 makes an affirmative decision in step S209 when it corresponds to “position D” and proceeds to step S210, and if it does not correspond to “position D”, it makes a negative decision in step S209 and proceeds to step S211.

ステップS210において、CPU20は、図14(D)に例示するように、座標a(x1,y1)を第3象限の略中央に位置させて、第1画像を第3象限に表示させるとともに、座標b(x2,y2)を第1象限の略中央に位置させて、第2画像を第1象限に表示させるように設定してステップS218へ進む。   In step S210, as illustrated in FIG. 14D, the CPU 20 displays the first image in the third quadrant by positioning the coordinates a (x1, y1) in the approximate center of the third quadrant, b (x2, y2) is positioned approximately at the center of the first quadrant, and the second image is set to be displayed in the first quadrant, and the process proceeds to step S218.

ステップS211において、CPU20は「位置E」に該当するか否かを判定する。CPU20は、「位置E」に該当する場合にステップS211を肯定判定してステップS212へ進み、「位置E」に該当しない場合にはステップS211を否定判定してステップS213へ進む。   In step S <b> 211, the CPU 20 determines whether or not it corresponds to “position E”. The CPU 20 makes an affirmative decision in step S211 when it corresponds to “position E”, and proceeds to step S212. If it does not correspond to “position E”, it makes a negative decision in step S211 and proceeds to step S213.

ステップS212において、CPU20は、図14(E)に例示するように、座標a(x1,y1)を第3象限の略中央に位置させて、第1画像を第3象限に表示させるとともに、座標b(x2,y2)を第2象限の略中央に位置させて、第2画像を第2象限に表示させるように設定してステップS218へ進む。   In step S212, as illustrated in FIG. 14E, the CPU 20 displays the first image in the third quadrant by positioning the coordinates a (x1, y1) in the approximate center of the third quadrant, b (x2, y2) is positioned approximately in the center of the second quadrant, and the second image is set to be displayed in the second quadrant, and the process proceeds to step S218.

ステップS213において、CPU20は「位置F」に該当するか否かを判定する。CPU20は、「位置F」に該当する場合にステップS213を肯定判定してステップS214へ進み、「位置F」に該当しない場合にはステップS213を否定判定してステップS215へ進む。   In step S213, the CPU 20 determines whether or not it corresponds to “position F”. The CPU 20 makes an affirmative decision in step S213 when it corresponds to “position F”, and proceeds to step S214. If it does not correspond to “position F”, it makes a negative decision in step S213 and proceeds to step S215.

ステップS214において、CPU20は、図14(F)に例示するように、座標a(x1,y1)を第4象限の略中央に位置させて、第1画像を第4象限に表示させるとともに、座標b(x2,y2)を第2象限の略中央に位置させて、第2画像を第2象限に表示させるように設定してステップS218へ進む。   In step S214, as illustrated in FIG. 14F, the CPU 20 displays the first image in the fourth quadrant by positioning the coordinates a (x1, y1) in the approximate center of the fourth quadrant, b (x2, y2) is positioned approximately in the center of the second quadrant, and the second image is set to be displayed in the second quadrant, and the process proceeds to step S218.

ステップS215において、CPU20は「位置G」に該当するか否かを判定する。CPU20は、「位置G」に該当する場合にステップS215を肯定判定してステップS216へ進み、「位置G」に該当しない場合にはステップS215を否定判定してステップS217へ進む。   In step S <b> 215, the CPU 20 determines whether or not it corresponds to “position G”. The CPU 20 makes an affirmative decision in step S215 when it corresponds to “position G” and proceeds to step S216, and if it does not correspond to “position G”, it makes a negative decision in step S215 and proceeds to step S217.

ステップS216において、CPU20は、図14(G)に例示するように、座標a(x1,y1)を第1象限の略中央に位置させて、第1画像を第1象限に表示させるとともに、座標b(x2,y2)を第2象限の略中央に位置させて、第2画像を第2象限に表示させるように設定してステップS218へ進む。   In step S216, as illustrated in FIG. 14G, the CPU 20 positions the coordinates a (x1, y1) in the approximate center of the first quadrant, displays the first image in the first quadrant, b (x2, y2) is positioned approximately in the center of the second quadrant, and the second image is set to be displayed in the second quadrant, and the process proceeds to step S218.

ステップS217において、CPU20は、図14(H)に例示するように、座標a(x1,y1)を第1象限の略中央に位置させて、第1画像を第1象限に表示させるとともに、座標b(x2,y2)を第3象限の略中央に位置させて、第2画像を第3象限に表示させるように設定してステップS218へ進む。   In step S217, the CPU 20 displays the first image in the first quadrant with the coordinates a (x1, y1) positioned substantially at the center of the first quadrant as illustrated in FIG. b (x2, y2) is positioned approximately at the center of the third quadrant, and the second image is set to be displayed in the third quadrant, and the process proceeds to step S218.

ステップS218において、CPU20は、終了操作が行われたか否かを判定する。CPU20は、再生表示の終了操作が行われた場合にステップS218を肯定判定して図12による処理を終了する。CPU20は、再生表示の終了操作が行われない場合には、ステップS218を否定判定してステップS201へ戻る。ステップS201へ戻る場合は、上述した処理を繰り返す。   In step S218, the CPU 20 determines whether or not an end operation has been performed. When the reproduction display end operation is performed, the CPU 20 makes an affirmative determination in step S218 and ends the process of FIG. If the reproduction display end operation is not performed, the CPU 20 makes a negative determination in step S218 and returns to step S201. When returning to step S201, the above-described processing is repeated.

以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)電子カメラ1は、画像を表示するLCDモニタ17を有し、CPU20は、第1範囲の蓄積データに基づく再生画像、または第2範囲の蓄積データに基づく再生画像をLCDモニタ17に表示させるようにしたので、ユーザは、異なる読出しレートで読出した複数の画像を観察できる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) The electronic camera 1 has an LCD monitor 17 that displays an image, and the CPU 20 displays on the LCD monitor 17 a reproduced image based on the first range of accumulated data or a reproduced image based on the second range of accumulated data. As a result, the user can observe a plurality of images read at different reading rates.

(2)LCDモニタ17は、互いに異なる画像を表示可能な複数の表示領域を含み、この場合のCPU20は、撮像素子12上における第1範囲と第2範囲との相対的な位置関係に基づいて、第1範囲に基づく再生画像を表示する表示領域と、第2範囲に基づく再生画像を表示する表示領域とを選択制御するので、2画像録画した動画像を適切な位置関係で表示できる。 (2) The LCD monitor 17 includes a plurality of display areas capable of displaying different images, and the CPU 20 in this case is based on the relative positional relationship between the first range and the second range on the image sensor 12. Since the display area for displaying the reproduced image based on the first range and the display area for displaying the reproduced image based on the second range are selected and controlled, it is possible to display the moving images recorded in the two images with an appropriate positional relationship.

(変形例3)
上述した説明では、LCDモニタ17の表示領域を上下左右に4分割して第1象限〜第4象限で表す場合に、2つの象限を用いて2画像録画された2つの動画像を再生表示した。再生表示に用いなかった象限には、たとえば録画時の撮影条件を表示させるように構成してもよい。撮影条件には、2つの動画像に対応する2つのクロップ領域のそれぞれに対応するデータ読出しレートや、電子ズーム倍率などを含める。また、再生表示に用いなかった他の象限に、クロップ領域設定する前の画面におけるクロップ領域(すなわち、録画範囲)を示す表示枠を表示させてもよい。
(Modification 3)
In the above description, when the display area of the LCD monitor 17 is divided into four parts in the upper, lower, left, and right directions and expressed in the first to fourth quadrants, two moving images recorded using two quadrants are reproduced and displayed. . You may comprise so that the imaging conditions at the time of video recording may be displayed on the quadrant which was not used for the reproduction | regeneration display, for example. The shooting conditions include a data read rate corresponding to each of two crop areas corresponding to two moving images, an electronic zoom magnification, and the like. In addition, a display frame indicating the crop area (that is, the recording range) on the screen before setting the crop area may be displayed in other quadrants not used for playback display.

変形例3の場合のCPU20は、クロップ領域設定時にOKスイッチ22hから操作信号が入力された場合、その時点の表示枠71を点滅表示から点灯表示へ変更させる(図7)とともに、図7に例示したライブビュー画像に対応する縮小画像(静止画像)を保存する。   When the operation signal is input from the OK switch 22h when the crop area is set, the CPU 20 in the third modification changes the display frame 71 at that time from blinking display to lighting display (FIG. 7) and illustrated in FIG. The reduced image (still image) corresponding to the live view image is saved.

具体的には、図7に例示した表示に用いた表示データを、たとえば縦横それぞれ1/4のサイズに間引いて縮小する。この縮小画像には、表示枠41および表示枠71が含まれる。CPU20は、該縮小画像の表示データを、録画後に記憶媒体51に記録する動画像ファイルに関連付けて(あるいは動画像ファイルに含めて)、記憶媒体51に記録する。そして、再生表示時には、動画像再生に用いていない象限の1つに、該縮小表示画像を表示させる。これにより、クロップ領域設定する前の画面におけるクロップ領域(すなわち、録画範囲)が一目でわかるように表示できる。   Specifically, the display data used for the display illustrated in FIG. 7 is reduced by thinning it down to, for example, a quarter size. This reduced image includes a display frame 41 and a display frame 71. The CPU 20 records the reduced image display data in the storage medium 51 in association with the moving image file to be recorded in the storage medium 51 after recording (or in the moving image file). At the time of reproduction display, the reduced display image is displayed in one of the quadrants not used for moving image reproduction. Thus, the crop area (that is, the recording range) on the screen before setting the crop area can be displayed at a glance.

以上の説明はあくまで一例であり、上記の実施形態の構成に何ら限定されるものではない。   The above description is merely an example, and is not limited to the configuration of the above embodiment.

1…電子カメラ
12…撮像素子
13…AFE回路
14…画像処理回路
15…TG
17…LCDモニタ
18…バッファメモリ
19…フラッシュメモリ
20…CPU
22…操作部材
DESCRIPTION OF SYMBOLS 1 ... Electronic camera 12 ... Image pick-up element 13 ... AFE circuit 14 ... Image processing circuit 15 ... TG
17 ... LCD monitor 18 ... Buffer memory 19 ... Flash memory 20 ... CPU
22 ... Operation member

Claims (8)

複数の電荷蓄積型光電変換素子が水平方向および垂直方向に配列された撮像素子と、
前記撮像素子による蓄積データを素子列順に所定の読出しレートで読出す読出し手段と、
前記撮像素子の第1範囲に含まれる素子列の蓄積データを第1の読出しレートで読出し、前記撮像素子の前記第1範囲と異なる第2範囲に含まれる素子列の蓄積データを第2の読出しレートで読出すように前記読出し手段を制御する制御手段と、
を備えることを特徴とする電子カメラ。
An image sensor in which a plurality of charge storage photoelectric conversion elements are arranged in a horizontal direction and a vertical direction;
Reading means for reading the accumulated data by the image pickup device at a predetermined read rate in the order of the element rows;
The accumulated data of the element array included in the first range of the image sensor is read at a first read rate, and the accumulated data of the element array included in the second range different from the first range of the image sensor is read second. Control means for controlling said reading means to read at a rate;
An electronic camera comprising:
請求項1に記載の電子カメラにおいて、
前記制御手段は、前記第1範囲と前記第2範囲の少なくとも一部が重なる場合、前記第1の読出しレートおよび前記第2の読出しレートを同じにするように前記読出し手段を制御することを特徴とする電子カメラ。
The electronic camera according to claim 1,
The control means controls the reading means so that the first reading rate and the second reading rate are the same when at least a part of the first range and the second range overlap. And an electronic camera.
請求項2に記載の電子カメラにおいて、
前記制御手段は、前記第1の読出しレートおよび前記第2の読出しレートのうちいずれか速い方の読出しレートに揃えるように前記読出し手段を制御することを特徴とする電子カメラ。
The electronic camera according to claim 2,
The electronic camera according to claim 1, wherein the control means controls the reading means so as to align with a reading rate which is faster of the first reading rate and the second reading rate.
請求項2に記載の電子カメラにおいて、
前記制御手段は、前記第1の読出しレートおよび前記第2の読出しレートの平均の読出しレートに揃えるように前記読出し手段を制御することを特徴とする電子カメラ。
The electronic camera according to claim 2,
The electronic camera is characterized in that the control means controls the reading means so as to be equal to an average reading rate of the first reading rate and the second reading rate.
請求項1〜4のいずれか一項に記載の電子カメラにおいて、
画像を表示する表示手段と、
前記第1範囲の蓄積データに基づく再生画像、または前記第2範囲の蓄積データに基づく再生画像を前記表示手段に表示させる表示制御手段と、
をさらに備えることを特徴とする電子カメラ。
In the electronic camera as described in any one of Claims 1-4,
Display means for displaying an image;
Display control means for causing the display means to display a reproduced image based on the accumulated data in the first range or a reproduced image based on the accumulated data in the second range;
An electronic camera further comprising:
請求項5に記載の電子カメラにおいて、
前記表示手段は、互いに異なる画像を表示可能な複数の表示領域を含み、
前記表示制御手段は、前記撮像素子上における前記第1範囲と前記第2範囲との相対的な位置関係に基づいて、前記第1範囲に基づく再生画像を表示する表示領域と、前記第2範囲に基づく前記再生画像を表示する表示領域とを選択制御することを特徴とする電子カメラ。
The electronic camera according to claim 5,
The display means includes a plurality of display areas capable of displaying different images.
The display control means includes a display area for displaying a reproduced image based on the first range based on a relative positional relationship between the first range and the second range on the image sensor, and the second range. And a display area for displaying the reproduced image based on the electronic camera.
請求項1〜6のいずれか一項に記載の電子カメラにおいて、
画像データを記録媒体に記録する記録手段と、
前記第1範囲の蓄積データに基づく画像データ、および前記第2範囲の蓄積データに基づく画像データの双方を前記記録媒体に記録するように前記記録手段を制御する記録制御手段と、
をさらに備えることを特徴とする電子カメラ。
In the electronic camera as described in any one of Claims 1-6,
Recording means for recording image data on a recording medium;
Recording control means for controlling the recording means to record both the image data based on the accumulated data in the first range and the image data based on the accumulated data in the second range on the recording medium;
An electronic camera further comprising:
請求項7に記載の電子カメラにおいて、
前記制御手段は、前記記録手段に前記第1範囲および前記第2範囲の蓄積データに基づく画像データを前記記録媒体に記録せしめる際には、前記撮像素子に含まれる、画像データを形成する蓄積データを出力する素子列のうち、前記第1範囲と前記第2範囲に対応する素子列からの蓄積データのみを読出すよう前記読出し手段を制御することを特徴とする電子カメラ。
The electronic camera according to claim 7,
When the control unit causes the recording unit to record image data based on the accumulated data in the first range and the second range on the recording medium, the control unit includes accumulated data included in the imaging element to form image data. The electronic camera controls the reading means so as to read out only the accumulated data from the element rows corresponding to the first range and the second range among the element rows that output.
JP2009253846A 2009-11-05 2009-11-05 Electronic camera Expired - Fee Related JP5655291B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009253846A JP5655291B2 (en) 2009-11-05 2009-11-05 Electronic camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009253846A JP5655291B2 (en) 2009-11-05 2009-11-05 Electronic camera

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014236584A Division JP5915720B2 (en) 2014-11-21 2014-11-21 Imaging device

Publications (2)

Publication Number Publication Date
JP2011101159A true JP2011101159A (en) 2011-05-19
JP5655291B2 JP5655291B2 (en) 2015-01-21

Family

ID=44191988

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009253846A Expired - Fee Related JP5655291B2 (en) 2009-11-05 2009-11-05 Electronic camera

Country Status (1)

Country Link
JP (1) JP5655291B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150185308A1 (en) * 2014-01-02 2015-07-02 Katsuhiro Wada Image processing apparatus and image processing method, image pickup apparatus and control method thereof, and program
JP2015143815A (en) * 2013-12-27 2015-08-06 キヤノン株式会社 Imaging device, control method of the same, program thereof and recording medium thereof
JP2017063510A (en) * 2017-01-12 2017-03-30 株式会社ニコン Electronic device and control program
JP2018033192A (en) * 2017-12-05 2018-03-01 株式会社ニコン Image pickup device
JP2018137762A (en) * 2018-03-06 2018-08-30 株式会社ニコン Electronic apparatus
JP2019004521A (en) * 2018-09-27 2019-01-10 株式会社ニコン Electronic device and control program
JP2019195210A (en) * 2013-10-01 2019-11-07 株式会社ニコン Electronic apparatus
DE112018004380T5 (en) 2017-10-02 2020-05-14 Sony Semiconductor Solutions Corporation SOLID BODY IMAGE SENSOR AND SOLID BODY IMAGE DEVICE
JP2020074596A (en) * 2020-01-23 2020-05-14 株式会社ニコン Image pickup device
JP2020174352A (en) * 2020-06-08 2020-10-22 株式会社ニコン Electronic apparatus
US11290652B2 (en) 2013-05-31 2022-03-29 Nikon Corporation Electronic apparatus and control program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0438570A (en) * 1990-06-05 1992-02-07 Hitachi Ltd Picture processor and method for controlling and processing its picture data
JP2003189186A (en) * 2001-12-20 2003-07-04 Matsushita Electric Ind Co Ltd Image pickup device
JP2005175683A (en) * 2003-12-09 2005-06-30 Nikon Corp Digital camera
JP2006324834A (en) * 2005-05-18 2006-11-30 Hitachi Ltd Device and method for imaging
JP2008035278A (en) * 2006-07-28 2008-02-14 Sanyo Electric Co Ltd Pixel information reading method and imaging apparatus
JP2008042838A (en) * 2006-08-10 2008-02-21 Hitachi Kokusai Electric Inc Television camera
JP2009105756A (en) * 2007-10-24 2009-05-14 Canon Inc Imaging apparatus, imaging system, and method of driving imaging apparatus
JP2009164767A (en) * 2007-12-28 2009-07-23 Hitachi Ltd Imaging apparatus and its display method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0438570A (en) * 1990-06-05 1992-02-07 Hitachi Ltd Picture processor and method for controlling and processing its picture data
JP2003189186A (en) * 2001-12-20 2003-07-04 Matsushita Electric Ind Co Ltd Image pickup device
JP2005175683A (en) * 2003-12-09 2005-06-30 Nikon Corp Digital camera
JP2006324834A (en) * 2005-05-18 2006-11-30 Hitachi Ltd Device and method for imaging
JP2008035278A (en) * 2006-07-28 2008-02-14 Sanyo Electric Co Ltd Pixel information reading method and imaging apparatus
JP2008042838A (en) * 2006-08-10 2008-02-21 Hitachi Kokusai Electric Inc Television camera
JP2009105756A (en) * 2007-10-24 2009-05-14 Canon Inc Imaging apparatus, imaging system, and method of driving imaging apparatus
JP2009164767A (en) * 2007-12-28 2009-07-23 Hitachi Ltd Imaging apparatus and its display method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11290652B2 (en) 2013-05-31 2022-03-29 Nikon Corporation Electronic apparatus and control program
JP2019195210A (en) * 2013-10-01 2019-11-07 株式会社ニコン Electronic apparatus
JP2015143815A (en) * 2013-12-27 2015-08-06 キヤノン株式会社 Imaging device, control method of the same, program thereof and recording medium thereof
US20150185308A1 (en) * 2014-01-02 2015-07-02 Katsuhiro Wada Image processing apparatus and image processing method, image pickup apparatus and control method thereof, and program
JP2017063510A (en) * 2017-01-12 2017-03-30 株式会社ニコン Electronic device and control program
DE112018004380T5 (en) 2017-10-02 2020-05-14 Sony Semiconductor Solutions Corporation SOLID BODY IMAGE SENSOR AND SOLID BODY IMAGE DEVICE
JP2018033192A (en) * 2017-12-05 2018-03-01 株式会社ニコン Image pickup device
JP2018137762A (en) * 2018-03-06 2018-08-30 株式会社ニコン Electronic apparatus
JP2019004521A (en) * 2018-09-27 2019-01-10 株式会社ニコン Electronic device and control program
JP2020074596A (en) * 2020-01-23 2020-05-14 株式会社ニコン Image pickup device
JP2020174352A (en) * 2020-06-08 2020-10-22 株式会社ニコン Electronic apparatus
JP7028279B2 (en) 2020-06-08 2022-03-02 株式会社ニコン Electronics

Also Published As

Publication number Publication date
JP5655291B2 (en) 2015-01-21

Similar Documents

Publication Publication Date Title
JP5655291B2 (en) Electronic camera
JP4823179B2 (en) Imaging apparatus and imaging control method
JP4980982B2 (en) Imaging apparatus, imaging method, focus control method, and program
US20120044400A1 (en) Image pickup apparatus
US9185294B2 (en) Image apparatus, image display apparatus and image display method
US8963993B2 (en) Image processing device capable of generating wide-range image
JP2016028539A (en) Imaging device
JP2014123070A (en) Image capturing device and control method therefor
JP6518452B2 (en) Imaging apparatus and imaging method
JP2008109336A (en) Image processor and imaging apparatus
JP6323022B2 (en) Image processing device
JP3798544B2 (en) Imaging control apparatus and imaging control method
JP2009124313A (en) Electronic camera
JP6671323B2 (en) Imaging device
JP2011024123A (en) Three-dimensional imaging apparatus, and three-dimensional image display method
JP5915720B2 (en) Imaging device
JP4888829B2 (en) Movie processing device, movie shooting device, and movie shooting program
JP2014007454A (en) Image pickup device and image pickup method
JP5332668B2 (en) Imaging apparatus and subject detection program
JP2004309653A (en) Imaging unit
JP2009094741A (en) Imaging device, imaging method and program
JP2008067136A (en) Imaging device and imaging method
JP2010187111A (en) Image capturing apparatus
JP2010187112A (en) Image reproducing device
US8605191B2 (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141028

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141110

R150 Certificate of patent or registration of utility model

Ref document number: 5655291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees