JP6521731B2 - Imaging device, control method therefor, and control program - Google Patents

Imaging device, control method therefor, and control program Download PDF

Info

Publication number
JP6521731B2
JP6521731B2 JP2015101083A JP2015101083A JP6521731B2 JP 6521731 B2 JP6521731 B2 JP 6521731B2 JP 2015101083 A JP2015101083 A JP 2015101083A JP 2015101083 A JP2015101083 A JP 2015101083A JP 6521731 B2 JP6521731 B2 JP 6521731B2
Authority
JP
Japan
Prior art keywords
image
imaging
unit
area
pixel group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015101083A
Other languages
Japanese (ja)
Other versions
JP2016219949A (en
Inventor
太郎 小林
太郎 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015101083A priority Critical patent/JP6521731B2/en
Publication of JP2016219949A publication Critical patent/JP2016219949A/en
Application granted granted Critical
Publication of JP6521731B2 publication Critical patent/JP6521731B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮像装置、その制御方法および制御プログラムに関し、特に、画像において注目被写体を解像度を高くして動画像として撮影することができる撮像装置に関する。   The present invention relates to an imaging device, a control method thereof and a control program, and more particularly to an imaging device capable of capturing an object of interest in an image as a moving image with high resolution.

近年、デジタルカメラ又はデジタルビデオカメラなどの撮像装置では、撮像素子の全画素のうちその一部を読み出す処理および画素出力を加算して読み出す処理を行うことによって画素数を減らすようにしている。上記のような処理は、動画像の撮影を行う際には一般的に行われている。そして、画素出力の読み出しおよび当該読み出しに要する時間を低減することによって、フレームレートの向上および消費電力の抑制を行うことができる。   In recent years, in an imaging apparatus such as a digital camera or a digital video camera, the number of pixels is reduced by performing a process of reading out a part of all pixels of an imaging element and a process of adding and reading pixel outputs. The processing as described above is generally performed when shooting a moving image. Further, the frame rate can be improved and the power consumption can be suppressed by reducing the readout time of the pixel output and the time required for the readout.

上述のような読み出し処理を行う撮像装置では、静止画を撮影する際には、全画素を用いて撮影を行って高精細の静止画を得る。そして、動画像を撮影する際には、フレームレートと解像度とのバランスを考慮して適切な画素数で撮影するようにしている。   In the imaging apparatus that performs the above-described read processing, when capturing a still image, capturing is performed using all pixels to obtain a high-resolution still image. Then, when shooting a moving image, shooting is performed with an appropriate number of pixels in consideration of the balance between the frame rate and the resolution.

ところで、動画像の撮影を行う際には、動きのある人物などの注目被写体を画角から外れることなく撮影を継続したいという要望がある。特に、子供のように素早く、かつ予測困難な動きをする注目被写体をズームアップして捕える場合に、上記のような要望がある。   By the way, when shooting a moving image, there is a demand for continuing shooting without moving away from the angle of view of a subject of interest such as a moving person. In particular, there is a demand as described above in the case of zooming in and capturing a target object that moves quickly and is difficult to predict as a child.

このような要望に応えるためには、例えば、撮像装置の画角を広角にして撮影を行うことによって注目被写体を画角内に収めることができる。ところが、画角を広角にすると、不可避的に注目被写体が小さくなってしまい、例えば、子供の表情などユーザが捕えたい状況を記録することが困難となってしまう。   In order to meet such a demand, for example, by focusing at a wide angle of view of the imaging device, the subject of interest can be contained within the angle of view. However, when the angle of view is made wide, the subject of interest inevitably becomes smaller, and for example, it becomes difficult to record a situation that the user wants to catch, such as a child's expression.

そこで、広角で撮影した結果得られた画像のうち注目被写体を拡大処理してズームアップ画像として記録することがある。しかしながら、拡大処理を行った場合には十分な解像度を得ることが難しい。さらに、十分な解像度を確保しようとして読み出し処理を行う画素数を多くすると、フレームレートと解像度とのバランスが崩れてフレームレートおよび消費電力の障害となることがある。   Therefore, a subject of interest may be enlarged and recorded as a zoom-up image among images obtained as a result of photographing at a wide angle. However, when the enlargement process is performed, it is difficult to obtain sufficient resolution. Furthermore, if the number of pixels to be read out is increased in order to secure a sufficient resolution, the balance between the frame rate and the resolution may be lost, which may be an obstacle to the frame rate and the power consumption.

このように、解像度とフレームレートのバランスおよび消費電力の低減をともに達成することは極めて難しい。   Thus, it is extremely difficult to achieve both resolution and frame rate balance and reduction of power consumption.

一方、動く被写体の撮影を支援するため、2つの撮像部を備えて、一方の撮像部で被写体を撮像するとともに、他方の撮像部で一方の撮像部よりも広角で被写体を撮像するようにした撮像装置がある(特許文献1参照)。この撮像装置では、他方の撮像部で得られた画像を表示し、一方の撮像部で得られた画像を記録する。この際、一方の撮像部による撮像範囲が認識可能な態様で、他方の撮像部で得られた画像を表示するようにしている。   On the other hand, in order to support shooting of a moving subject, two imaging units are provided, and one imaging unit captures an object while the other imaging unit captures an object at a wider angle than one imaging unit. There is an imaging device (see Patent Document 1). In this imaging device, the image obtained by the other imaging unit is displayed, and the image obtained by one imaging unit is recorded. At this time, the image obtained by the other imaging unit is displayed in such a manner that the imaging range of one imaging unit can be recognized.

特開2010−273046号公報JP, 2010-273046, A

上述のように、特許文献1に記載の撮像装置では、一方の撮像部による撮像範囲が認識可能な態様で他方の撮像部で得られた画像を表示するため、ユーザが動く被写体(注目被写体)が画角から外れないように撮影を行うことが容易となる。ところが、特許文献1に記載の撮像装置においては、注目被写体の大きさが変化した場合には、ユーザはズーム操作などを行う必要がある。このため、注目被写体の大きさが変化した場合などにおいてはユーザの負担は軽減されない。   As described above, in the imaging device described in Patent Document 1, a subject (focused subject) in which the user moves in order to display an image obtained by the other imaging unit in a mode in which the imaging range of one imaging unit can be recognized. It is easy to take a picture so as not to deviate from the angle of view. However, in the imaging device described in Patent Document 1, when the size of the subject of interest changes, the user needs to perform a zoom operation or the like. Therefore, the burden on the user can not be reduced when the size of the subject of interest changes.

さらに、特許文献1に記載の撮像装置においては、2つの撮像部を独立して制御する必要があり、CPUなどの制御部の処理負荷が増大してしまう。   Furthermore, in the imaging device described in Patent Document 1, it is necessary to control two imaging units independently, and the processing load of a control unit such as a CPU increases.

そこで、本発明の目的は、読み出し画素数を適切に制御するとともに消費電力を低減して容易にユーザ所望の画角の画像を十分な解像度で得ることのできる撮像装置、その制御方法、および制御プログラムを提供することにある。   Therefore, it is an object of the present invention to provide an imaging device capable of easily obtaining an image of a user's desired angle of view with a sufficient resolution by controlling the number of readout pixels appropriately and reducing power consumption, and control method thereof To provide the program.

上記の目的を達成するため、本発明による撮像装置は、被写体を撮像して画像を出力する撮像素子を備える撮像手段を有する撮像装置であって、前記撮像素子において、第1の列信号線と接続される第1の画素群からの信号の読み出しを第1の読み出し動作として行って第1の画像を得るとともに、前記第1の列信号線とは物理的に独立して設けられた第2の列信号線と接続され、少なくとも一部の画素群が前記第1の画素群の撮影画角に含まれる、前記第1の画素群と異なる第2の画素群からの信号の読み出しを第2の読み出し動作として前記第1の読み出し動作と並行して行って第2の画像を得る読み出し手段と、前記第1の画像を用いて注目被写体を含む領域を注目被写体領域として判別する判別手段と、前記注目被写体領域に応じて前記読み出し手段を制御して、前記第2の読み出し動作で得られる第2の画像を前記注目被写体を含む画像とする制御手段と、を有し、前記第2の画像より前記第1の画像の方が広角で、かつ前記第1の画像における前記注目被写体領域の画素数より、前記第2の画像の画素数の方が多いことを特徴とする。 To achieve the above object, an imaging apparatus according to the present invention is an imaging apparatus having an imaging means comprising an imaging device for outputting the images by imaging an object, in the imaging device, the first column signal line Reading out a signal from a first pixel group connected to the first pixel group as a first readout operation to obtain a first image, and providing a first image physically independent of the first column signal line The signal readout from the second pixel group different from the first pixel group is performed, which is connected to the two column signal lines and at least a part of the pixel group is included in the imaging angle of view of the first pixel group determining means for determining an area as the attention object region including reading means for obtaining a second image performed in parallel with the first read operation as second read operation, a target object using a pre-Symbol first image When, in accordance with prior Kichu th subject area By controlling the serial reading means, wherein the second image obtained by the second reading operation possess a control means for an image including the target object, the second said from the image of the first image It is characterized in that the number of pixels of the second image is larger than that of the wide angle and the number of pixels of the subject region of interest in the first image .

本発明によれば、読み出し画素数を適切に制御しつつ消費電力を低減して容易にユーザ所望の画角の画像を十分な解像度で得ることができる。 According to the present invention, it is possible to obtain an image of easy user desired angle of view by reducing the power consumption while appropriately controlling the number of pixels out read with sufficient resolution.

本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。It is a block diagram showing the composition about an example of the imaging device by a 1st embodiment of the present invention. 図1に示す第1の撮像部によって行われる間引き駆動の一例を説明するための図である。It is a figure for demonstrating an example of the thinning-out drive performed by the 1st imaging part shown in FIG. 図1に示す第2の撮像部によって行われる間引き駆動の一例を説明するための図である。It is a figure for demonstrating an example of the thinning-out drive performed by the 2nd imaging part shown in FIG. 図1に示す第2の撮像部によって行われる間引き駆動の他の例を説明するための図である。It is a figure for demonstrating the other example of the thinning-out drive performed by the 2nd imaging part shown in FIG. 図1に示すカメラにおいて動画モードの際の撮像タイミングを説明するためのタイミング図である。FIG. 6 is a timing chart for explaining imaging timing in a moving image mode in the camera shown in FIG. 1. 図1に示すカメラで行われる撮影処理を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography process performed with the camera shown in FIG. 図1に示すカメラで用いられる撮像素子駆動選択テーブルの一例を示す図である。It is a figure which shows an example of the image pick-up element drive selection table used with the camera shown in FIG. 本発明の第2の実施形態によるカメラの一例についてその構成を示すブロック図である。It is a block diagram showing the composition about an example of the camera by a 2nd embodiment of the present invention. 図8に示す撮像素子の構造を示す斜視図である。It is a perspective view which shows the structure of the image pick-up element shown in FIG. 図9の示す撮像素子の構成の一例を説明するためのブロック図である。It is a block diagram for demonstrating an example of a structure of the image pick-up element shown in FIG. 図10に示す撮像素子を第1の読み出し動作で駆動した際の画素選択の一例を説明するための図である。It is a figure for demonstrating an example of pixel selection at the time of driving the image pick-up element shown in FIG. 10 by 1st read-out operation. 図10に示す撮像素子を第2の読み出し動作で駆動した際の画素選択の一例を説明するための図である。It is a figure for demonstrating an example of pixel selection at the time of driving the image pick-up element shown in FIG. 10 by 2nd read-out operation. 図8に示すカメラにおいて動画モードの際の撮像タイミングを説明するためのタイミング図である。FIG. 9 is a timing chart for explaining imaging timing in a moving image mode in the camera shown in FIG. 8; 図8に示すカメラで行われる撮影処理を説明するためのフローチャートである。It is a flowchart for demonstrating the imaging | photography process performed with the camera shown in FIG. 図8に示すカメラで用いられる撮像素子駆動選択テーブルの一例を示す図である。It is a figure which shows an example of the image pick-up element drive selection table used with the camera shown in FIG.

以下に、本発明の実施の形態による撮像装置の一例について図面を参照して説明する。   Hereinafter, an example of an imaging device according to an embodiment of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態による撮像装置の一例についてその構成を示すブロック図である。
First Embodiment
FIG. 1 is a block diagram showing a configuration of an example of an imaging device according to a first embodiment of the present invention.

図示の撮像装置は、例えば、動画撮影機能付きの電子スチルカメラ又はデジタルビデオカメラ(以下単にカメラと呼ぶ)である。カメラは、第1の撮像部および第2の撮像部を有している。そして、第1の撮像部は、撮影レンズユニット(以下単にレンズと呼ぶ)110、レンズ制御部111、撮像素子112、および撮像素子駆動回路113を備えている。同様に、第2の撮像部は、レンズ120、レンズ制御部121、撮像素子122、および撮像素子駆動回路123を備えている。さらに、カメラは、信号処理部130、圧縮伸長部140、制御部150、発光部160、操作部170、画像表示部180、および画像記録部190を有している。   The illustrated imaging apparatus is, for example, an electronic still camera or a digital video camera (hereinafter simply referred to as a camera) with a moving image shooting function. The camera has a first imaging unit and a second imaging unit. The first imaging unit includes an imaging lens unit (hereinafter simply referred to as a lens) 110, a lens control unit 111, an imaging element 112, and an imaging element drive circuit 113. Similarly, the second imaging unit includes a lens 120, a lens control unit 121, an imaging element 122, and an imaging element drive circuit 123. The camera further includes a signal processing unit 130, a compression / decompression unit 140, a control unit 150, a light emitting unit 160, an operation unit 170, an image display unit 180, and an image recording unit 190.

図示はしないが、レンズ110および120の各々は、複数のレンズおよび光学機構部を備えている。そして、レンズ110および120はそれぞれ被写体像(光学像)を撮像素子112および122に結像する。   Although not shown, each of the lenses 110 and 120 includes a plurality of lenses and an optical mechanism. Then, the lenses 110 and 120 form an object image (optical image) on the imaging elements 112 and 122, respectively.

光学機構部は、例えば、AF機構、ズーム駆動機構、メカニカルシャッタ機構、および絞り機構を備えている。レンズ制御部111および121は制御部150の制御下でそれぞれレンズ110およびレンズ120に備えられた光学機構部を駆動制御する。   The optical mechanism unit includes, for example, an AF mechanism, a zoom drive mechanism, a mechanical shutter mechanism, and an aperture mechanism. The lens control units 111 and 121 drive and control the optical mechanism units provided in the lens 110 and the lens 120 under the control of the control unit 150.

なお、以下の説明では、レンズ110および120は独立のレンズとして説明するが、本実施形態の効果が得られれば、二つのレンズ110および120を同一としてもよい。   In the following description, the lenses 110 and 120 are described as independent lenses, but the two lenses 110 and 120 may be identical if the effects of the present embodiment can be obtained.

撮像素子112および122の各々は、画素部およびA/Dコンバータ(図示せず)を有し、例えば、所謂XY読み出し方式のCMOS型イメージセンサである。そして、撮像素子駆動回路113および123は制御部150の制御下で、撮像素子112および122の露光処理、信号読み出し処理、およびリセット処理などを行う。これによって、撮像素子112および122はそれぞれ第1および第2の撮像信号(第1および第2の画像信号ともいう)を出力する。   Each of the imaging elements 112 and 122 has a pixel portion and an A / D converter (not shown), and is, for example, a so-called XY readout type CMOS image sensor. Then, under the control of the control unit 150, the imaging element drive circuits 113 and 123 perform exposure processing, signal readout processing, reset processing and the like of the imaging elements 112 and 122. As a result, the imaging elements 112 and 122 respectively output first and second imaging signals (also referred to as first and second image signals).

信号処理部130は、制御部150の制御下で、第1および第2の画像信号に対して、ホワイトバランス調整処理、色補正処理、およびAE(Auto Exposure)処理などの信号処理を行い、第1および第2の画像データを出力する。なお、信号処理部130には、注目被写体判別部1301が備えられている。そして、注目被写体判別部1301には、動体検出部1302、人物検出部1303、および顔検出部1304が備えられている。   The signal processing unit 130 performs signal processing such as white balance adjustment processing, color correction processing, and AE (Auto Exposure) processing on the first and second image signals under the control of the control unit 150. Output 1 and 2nd image data. The signal processing unit 130 is provided with a subject of interest determination unit 1301. The object-of-interest discrimination unit 1301 includes a moving body detection unit 1302, a person detection unit 1303, and a face detection unit 1304.

動体検出部1302は、後述するように、第1および第2の画像信号の各々においてフレーム間の相関演算を行って動く被写体(動体)を検出する。図示の例では、動体検出部1302は、検出した動体を含むアスペクト比16:9の画角を動体検知領域として制御部150に出力する。   The moving subject detection unit 1302 performs correlation calculation between frames in each of the first and second image signals to detect a moving subject (moving subject), as described later. In the illustrated example, the moving object detection unit 1302 outputs an angle of view with an aspect ratio of 16: 9 including the detected moving object to the control unit 150 as a moving object detection region.

人物検出部1303は、第1および第2の画像信号の各々においてパターンマッチングを行って人物を検出する。図示の例では、人物検出部1303は検出して人物を含むアスペクト比16:9の画角を人物検知領域として制御部150に出力する。   The human detection unit 1303 performs pattern matching on each of the first and second image signals to detect a human. In the illustrated example, the human detection unit 1303 detects and outputs an angle of view having an aspect ratio of 16: 9 including the human to the control unit 150 as a human detection area.

また、顔検出部1304は、第1および第2の画像信号の各々においてパターンマッチングを行って人物の顔を検出する。図示の例では、顔検出部1304は検出した顔を含むアスペクト比16:9の画角を顔検知領域として制御部150に出力する。   The face detection unit 1304 performs pattern matching on each of the first and second image signals to detect the face of a person. In the illustrated example, the face detection unit 1304 outputs an angle of view with an aspect ratio of 16: 9 including the detected face as a face detection area to the control unit 150.

圧縮伸長部140は、制御部150の制御下で、信号処理部130の出力である第1および第2の画像データに対して、JPEG(Joint Photographic Coding Experts Group)方式などの所定の静止画像データフォーマットに応じて圧縮符号化処理を行ってそれぞれ第1および第2の符号化画像データを生成する。さらに、圧縮伸長部140は制御部150から送られた第1および第2の符号化画像データに対して伸長復号化処理を行って復号化画像データ(つまり、第1および第2の画像データ)とする。   Under control of the control unit 150, the compression / decompression unit 140 applies predetermined still image data such as JPEG (Joint Photographic Coding Experts Group) method to the first and second image data output from the signal processing unit 130. The compression encoding process is performed according to the format to generate first and second encoded image data. Furthermore, the compression / decompression unit 140 performs decompression decoding processing on the first and second encoded image data sent from the control unit 150 to decode the image data (that is, first and second image data). I assume.

なお、圧縮伸長部140は、MPEG(Moving Picture Experts Group)方式などに応じて第1および第2の画像データである動画像データについて圧縮符号化/伸長復号化処理を行うようにしてもよい。   Note that the compression / decompression unit 140 may perform compression encoding / decompression decoding processing on moving image data, which is the first and second image data, according to the MPEG (Moving Picture Experts Group) method or the like.

制御部150は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などを備えるマイクロコントローラである。そして、CPUがROMに記憶されたプログラムを実行することによって、カメラ全体を制御する。   The control unit 150 is a microcontroller including, for example, a central processing unit (CPU), a read only memory (ROM), and a random access memory (RAM). The CPU controls the entire camera by executing a program stored in the ROM.

制御部150は、信号処理部130によるAE処理によって被写体の露光値が所定の露光値よりも低いと判定すると、発光部160を制御して発光を行い被写体を照明する。なお、発光部160として、例えば、キセノン管を用いたストロボ装置又はLED発光装置が用いられる。   When the control unit 150 determines that the exposure value of the subject is lower than the predetermined exposure value by the AE processing by the signal processing unit 130, the control unit 150 controls the light emitting unit 160 to emit light and illuminate the subject. As the light emitting unit 160, for example, a strobe device or an LED light emitting device using a xenon tube is used.

操作部170は、例えば、シャッタレリーズボタンなどの各種操作キー、レバー、ダイヤル、およびタッチパネルを有している。操作部170はユーザの入力操作に応じた操作信号を制御部150に与える。   The operation unit 170 includes, for example, various operation keys such as a shutter release button, a lever, a dial, and a touch panel. The operation unit 170 provides the control unit 150 with an operation signal according to the user's input operation.

画像表示部180は、例えば、LCD(Liquid Crystal Display)などの表示デバイスおよび当該表示デバイスのインタフェース回路を備えている。そして、画像表示部180は、制御部150から送られた画像データに応じた画像を表示デバイスに表示する。   The image display unit 180 includes, for example, a display device such as a liquid crystal display (LCD) and an interface circuit of the display device. Then, the image display unit 180 displays an image corresponding to the image data sent from the control unit 150 on the display device.

画像記録部190は、例えば、可搬型の半導体メモリ、光ディスク、HDD(Hard Disk Drive)、又は磁気テープなどの記録媒体である。画像記録部190には、圧縮伸長部140によって圧縮符号化処理された符号化画像データが画像ファイルとして記憶される。また、画像記録部190は制御部150によって指定された画像ファイルを読み出して制御部150に出力する。そして、制御部150は読みだされた符号化画像データを圧縮伸長部140で伸長復号化処理して復号化画像データとする。   The image recording unit 190 is, for example, a recording medium such as a portable semiconductor memory, an optical disk, an HDD (Hard Disk Drive), or a magnetic tape. The image recording unit 190 stores, as an image file, encoded image data that has been compression-encoded by the compression / decompression unit 140. Further, the image recording unit 190 reads the image file specified by the control unit 150 and outputs the image file to the control unit 150. Then, the control unit 150 subjects the read encoded image data to decompression decoding processing by the compression / decompression unit 140 to obtain decoded image data.

ここで、図1に示すカメラの基本的な動作について説明する。   Here, the basic operation of the camera shown in FIG. 1 will be described.

例えば、静止画像を撮影する際には、撮像前(つまり、本撮影前)において、撮像素子112および122の各々では、画素から出力されたアナログ信号について順次CDS(Correlated Double Sampling)処理およびAGC(Automatic Gain Control)処理が施される。その後、撮像素子112および122の各々では、A/Dコンバータによってアナログ信号をA/D変換して画像信号(デジタル画像信号)を出力する。そして、この画像信号は信号処理部130に送られる。   For example, when capturing a still image, CDS (Correlated Double Sampling) processing and AGC (analog CD) processing are sequentially performed on the analog signals output from the pixels in each of the imaging elements 112 and 122 before imaging (that is, before main imaging). Automatic Gain Control) processing is performed. Thereafter, in each of the imaging elements 112 and 122, an A / D converter A / D converts an analog signal and outputs an image signal (digital image signal). Then, this image signal is sent to the signal processing unit 130.

信号処理部130において、注目被写体判別部1301は、第1の撮像部の出力である第1の画像信号について被写体判別処理を行う。そして、注目被写体判別部1301は注目被写体領域(つまり、動体検知領域、人物検知領域、および顔検知領域)を示す注目被写体領域情報を制御部150に出力する。   In the signal processing unit 130, the attention subject determination unit 1301 performs a subject determination process on a first image signal which is an output of the first imaging unit. Then, the attention object determination unit 1301 outputs attention object region information indicating the attention object region (that is, the moving object detection region, the person detection region, and the face detection region) to the control unit 150.

なお、制御部150は、後述するように、注目被写体領域情報に基づいて第2の撮像部における撮影条件を決定して、撮像素子駆動回路123を制御する。これによって、第2の撮像部においては撮像素子122の撮影画角のうち注目被写体領域を切り出して撮影が行われる。   The control unit 150 controls the imaging element drive circuit 123 by determining the imaging conditions in the second imaging unit based on the target subject area information as described later. As a result, in the second imaging unit, the subject region of interest is cut out of the imaging angle of view of the imaging element 122 and imaging is performed.

信号処理部130は、第1および第2の画像信号に対して、例えば、画質補正処理を行ってそれぞれ第1および第2のカメラスルー画像信号を生成する。そして、信号処理部130は、制御部150の制御下で第1および第2のカメラスルー画像信号を制画像表示部180に送る。これによって、画像表示部180には第1および第2のカメラスルー画像信号に応じたカメラスルー画像(ライブビュー画像)が表示される。ユーザはこれらカメラスルー画像を目視しつつ、注目被写体に画角合わせを行うことができる。   The signal processing unit 130 performs, for example, image quality correction processing on the first and second image signals to generate first and second camera through image signals, respectively. Then, the signal processing unit 130 sends the first and second camera through image signals to the control image display unit 180 under the control of the control unit 150. As a result, a camera through image (live view image) corresponding to the first and second camera through image signals is displayed on the image display unit 180. The user can perform angle-of-view alignment on the subject of interest while viewing these camera through images.

上述の状態で、つまり、カメラスルー画像が画像表示部180に表示された状態で、操作部190に備えられたシャッタレリーズボタンが押下されたとする。これによって、制御部150は撮像素子駆動回路113および撮像素子駆動回路123を制御して、撮像素子112および撮像素子122からそれぞれ1フレーム分の第1および第2の画像信号を信号処理部130に取り込む。信号処理部130は当該1フレーム分の第1および第2の画像信号に画質補正処理して、処理後のデジタル画像信号(つまり、第1および第2の画像データ)を圧縮伸長部140に送る。   In the above-described state, that is, in a state where the camera through image is displayed on the image display unit 180, it is assumed that the shutter release button provided on the operation unit 190 is pressed. Thus, the control unit 150 controls the imaging device drive circuit 113 and the imaging device drive circuit 123 to send the first and second image signals of one frame to the signal processing unit 130 from the imaging device 112 and the imaging device 122, respectively. take in. The signal processing unit 130 performs image quality correction processing on the first and second image signals for one frame, and sends the processed digital image signals (that is, the first and second image data) to the compression and decompression unit 140. .

圧縮伸長部140は、第1および第2の画像データを圧縮符号化する。圧縮伸長部140は、制御部150の制御下で第1および第2の符号化画像データを画像記録部190に送る。これによって、第1および第2の符号化画像データが静止画像に係る画像ファイル(第1および第2の画像ファイル)として画像記録部190に記録されることになる。   The compression and decompression unit 140 compresses and encodes the first and second image data. The compression and decompression unit 140 sends the first and second encoded image data to the image recording unit 190 under the control of the control unit 150. As a result, the first and second encoded image data are recorded in the image recording unit 190 as image files (first and second image files) related to a still image.

画像記録部190に記録された画像ファイルを再生する際には、制御部150は、操作部170からの操作入力に応じて選択された画像ファイルを画像記録部190から読み込む。そして、制御部150は当読み込んだ該画像ファイルを圧縮伸長部140に送る。圧縮伸長部140は画像ファイルを伸長復号化処理し復号化画像データを得る。制御部150は復号化画像データを画像表示部180に送って、画像表示部180に復号化画像データに応じた静止画像を再生表示する。   When reproducing the image file recorded in the image recording unit 190, the control unit 150 reads from the image recording unit 190 the image file selected according to the operation input from the operation unit 170. Then, the control unit 150 sends the read image file to the compression / decompression unit 140. The compression / decompression unit 140 decompresses and decodes the image file to obtain decoded image data. The control unit 150 sends the decoded image data to the image display unit 180, and reproduces and displays a still image corresponding to the decoded image data on the image display unit 180.

動画像データを記録する際には、制御部150の制御下で、撮像素子112および122から出力された第1および第2画像信号が信号処理部130に取り込まれる。信号処理部130は第1および第2の画像信号を順次処理して第1および第2の画像データ(つまり、ここでは動画像データ)を生成する。これら動画像データは圧縮伸長部140で圧縮符号化処理されて、符号化動画像データが順次画像記録部190に転送されて動画像ファイルとして記録される。   When recording moving image data, the first and second image signals output from the imaging elements 112 and 122 are taken into the signal processing unit 130 under the control of the control unit 150. The signal processing unit 130 sequentially processes the first and second image signals to generate first and second image data (that is, moving image data here). These moving image data are compressed and encoded by the compression / decompression unit 140, and the encoded moving image data is sequentially transferred to the image recording unit 190 and recorded as a moving image file.

画像記録部190に記録された動画像ファイルを再生する際には、制御部150は、操作部170からの操作入力に応じて、選択された動画像ファイルを画像記録部190から読み込む。そして、制御部150は読み込んだ動画像ファイルを圧縮伸長部140に送る。圧縮伸長部140は動画像ファイルを伸長復号化処理し復号化動画像データを得る。制御部150は復号化動画像データを画像表示部180に送って、画像表示部180に動画像データに応じた動画像を再生表示する。   When reproducing the moving image file recorded in the image recording unit 190, the control unit 150 reads the selected moving image file from the image recording unit 190 in accordance with the operation input from the operation unit 170. Then, the control unit 150 sends the read moving image file to the compression / decompression unit 140. The compression / decompression unit 140 decompresses and decodes the moving image file to obtain decoded moving image data. The control unit 150 sends the decoded moving image data to the image display unit 180, and causes the image display unit 180 to reproduce and display a moving image according to the moving image data.

図2は、図1に示す第1の撮像部によって行われる間引き駆動の一例を説明するための図である。   FIG. 2 is a diagram for explaining an example of the thinning drive performed by the first imaging unit shown in FIG.

なお、以下の説明では、撮像素子112および122の画素数および第1および第2の撮像部で撮影する被写体の画角は同一であるとして説明するが、本実施の形態による効果がある範囲においてそれぞれ異ならせるようにしてもよい。   In the following description, it is assumed that the number of pixels of the imaging elements 112 and 122 and the angle of view of the subject photographed by the first and second imaging units are the same. They may be different from one another.

図2においては、説明の便宜上、撮像素子112および122の各々は32行×18列の画素部を有するものとする。実際には、撮像素子(つまり、画素部)の画素数は7680行×4320列である。また、一般に画素部において画素はベイヤ配列されるが、ここでは説明の便宜上カラーフィルタについては省略するものとする。   In FIG. 2, for convenience of explanation, each of the imaging elements 112 and 122 is assumed to have 32 rows × 18 columns of pixel units. In practice, the number of pixels of the imaging device (that is, the pixel portion) is 7680 rows × 4320 columns. Also, in general, the pixels are arranged in a Bayer arrangement in the pixel portion, but here, for convenience of explanation, the color filter is omitted.

まず、第1の撮像部における間引き読み出しについて説明する。第1の撮像部においては撮像素子112の画角全域を取得するように、撮像素子112の読み出しが行われる。図2に示すように、第1の撮像部においては、水平および垂直方向の各々について画素を1/6に間引いて読み出しが行われるものとする。この読み出しによって1280×720画素が読み出されて、第1の画像データはHDの動画像データとして記録および表示される。これによって、画角全域に係る画像を得ることができる。   First, thinning readout in the first imaging unit will be described. In the first imaging unit, readout of the imaging element 112 is performed so as to acquire the entire angle of view of the imaging element 112. As shown in FIG. 2, in the first imaging unit, it is assumed that readout is performed by thinning out the pixels to 1/6 in each of the horizontal and vertical directions. By this readout, 1280 × 720 pixels are read out, and the first image data is recorded and displayed as moving image data of HD. This makes it possible to obtain an image relating to the entire angle of view.

図3は、図1に示す第2の撮像部によって行われる間引き駆動の一例を説明するための図である。   FIG. 3 is a diagram for explaining an example of the thinning drive performed by the second imaging unit shown in FIG.

第2の撮像部について間引き読み出しをする際には、第2の撮像部においては、後述するように制御部150よって指定された注目領域が、撮像素子駆動回路123によって切り出されて読み出しが行われる。なお、注目領域について、注目被写体判別部1301によって第1の画像信号から判別される。   When thinning out reading is performed on the second imaging unit, in the second imaging unit, as described later, the attention area designated by the control unit 150 is cut out by the imaging device drive circuit 123 and readout is performed. . The attention object discrimination unit 1301 discriminates the attention area from the first image signal.

図3に示すように、ここでは、人物周辺が注目領域とされている。注目領域の大きさに応じた適切な解像度が得られる間引き率を考慮して、第2の撮像部においては、水平および垂直方向の各々について画素を1/2に間引いて読み出しが行われるものとする。この読み出しによって1920×1080画素が読み出されて、第2の画像データはフルHDの動画像データとして記録および表示される。これによって、人物周辺の領域の画像を高解像度で得ることができる。   As shown in FIG. 3, here, the area around the person is taken as the attention area. In the second imaging unit, the readout is performed by thinning out the pixels to 1/2 in each of the horizontal direction and the vertical direction in consideration of a thinning rate that can obtain an appropriate resolution according to the size of the attention area Do. By this reading, 1920 × 1080 pixels are read out, and the second image data is recorded and displayed as full HD moving image data. By this, it is possible to obtain an image of a region around a person with high resolution.

図4は、図1に示す第2の撮像部によって行われる間引き駆動の他の例を説明するための図である。   FIG. 4 is a view for explaining another example of the thinning drive performed by the second imaging unit shown in FIG.

図4に示す例では、図3に示す例よりも注目領域が狭い。注目領域に係る画像は解像度が高いほど高画質となる。よって、図4においては図3と比べて間引き率を低くして読み出しが行われる。   In the example shown in FIG. 4, the region of interest is narrower than the example shown in FIG. The image related to the attention area has higher image quality as the resolution is higher. Therefore, in FIG. 4, the read-out is performed with the thinning rate lower than that in FIG.

図4に示す例では、人物の顔周辺が注目領域としてされている。そして、当該注目の大きさに応じた適切な解像度が得られる間引き率を考慮して、第2の撮像部においては、水平および垂直方向ともに間引きを行わずに読み出しが行われる。この読み出しによって1920×1080画素が読み出されて、第2の画像データはフルHDの動画像データとして記録および表示される。これによって、人物の顔周辺の領域の画像を高解像度で得ることができる。   In the example shown in FIG. 4, the area around the face of the person is taken as the attention area. Then, in consideration of the thinning rate at which an appropriate resolution corresponding to the size of the attention is obtained, in the second imaging unit, reading is performed without performing thinning in both the horizontal and vertical directions. By this reading, 1920 × 1080 pixels are read out, and the second image data is recorded and displayed as full HD moving image data. By this, it is possible to obtain an image of a region around the face of a person with high resolution.

上述のように、第1の撮像部で読み出された第1の画像信号においてその注目領域の画素数は、第2の撮像部で読み出された第2の画像信号の画素数に及ばない。つまり、第1の撮像部で読み出された第1の画像信号においてその注目領域を拡大処理して引き延ばした画像に比べて、第2の撮像部において読み出された第2の画像信号が示す画像は格段に高画質となる。   As described above, in the first image signal read by the first imaging unit, the number of pixels in the region of interest does not reach the number of pixels of the second image signal read by the second imaging unit. . That is, in the first image signal read out by the first imaging unit, the second image signal read out by the second imaging unit is shown as compared to the image obtained by performing enlargement processing on the region of interest. Images are much higher quality.

図5は、図1に示すカメラにおいて動画モードの際の撮像タイミングを説明するためのタイミング図である。   FIG. 5 is a timing chart for explaining imaging timing in the moving image mode in the camera shown in FIG.

図示のように、制御部150の制御下で撮像素子駆動回路113および123から送られる垂直同期信号(VD)によって撮像タイミングが規定されている。図示の例では、説明の便宜上、第1の撮像部におけるフレームレートは第2の撮像部におけるフレームレートの2倍とする。   As illustrated, the imaging timing is defined by the vertical synchronization signal (VD) sent from the imaging device driving circuits 113 and 123 under the control of the control unit 150. In the illustrated example, for convenience of explanation, the frame rate in the first imaging unit is twice that of the second imaging unit.

ここでは、第1の撮像部の出力である第1の画像信号はライブビュー表示として用いられ、撮像素子112は常時駆動されている。期間T0〜T1のフレームの前に操作部170によって動画記録の開始命令が行われたとする。期間T0〜T1におけるフレームでは、第1の撮像部で得られた第1の画像信号が画像表示部180にライブビュー画像として表示される。この際、注目被写体判別部1301によって第1の画像信号において注目被写体の領域(注目領域)が判別されて、注目被写体領域情報として制御部150に与えられる。   Here, the first image signal which is the output of the first imaging unit is used as live view display, and the imaging element 112 is constantly driven. It is assumed that a start command of moving image recording is issued by the operation unit 170 before the frame of the period T0 to T1. In the frame in the period T0 to T1, the first image signal obtained by the first imaging unit is displayed on the image display unit 180 as a live view image. At this time, the region of interest (region of interest) of the object of interest is discriminated in the first image signal by the object of interest discrimination unit 1301 and given to the control unit 150 as object of interest region information.

制御部150は、注目被写体領域情報に応じて、第2の撮像部による撮影の際に用いる切り出し位置情報および間引き率等などの駆動条件(つまり、撮像条件)を撮像素子駆動回路123に送る。   The control unit 150 sends driving conditions (i.e., imaging conditions) such as cutout position information and a thinning rate used at the time of shooting by the second imaging unit to the imaging element driving circuit 123 according to the subject region information of interest.

期間T1〜T3のフレームにおいては、第2の撮像部では時間T1の時点で撮像素子駆動回路123に与えられた切り出し位置情報および間引き率などの駆動条件に基づいて第2の画像信号が読み出される。そして、第2の画像信号は、信号処理部130で処理された後、注目被写体を高解像度で撮影した画像データ(動画像データ)として記録されることになる。   In the frame of the period T1 to T3, the second image pickup unit reads the second image signal based on the cutting position information and the driving condition such as the thinning rate given to the image pickup device driving circuit 123 at time T1. . Then, after the second image signal is processed by the signal processing unit 130, the second image signal is recorded as image data (moving image data) obtained by photographing the subject of interest at high resolution.

同様にして、期間T1〜T2および期間T2〜T3においては、第1の撮像部の出力である第1の画像信号はライブビュー画像として用いられる。この際には、前述のように、注目被写体判別部1301によって注目領域の判別処理が行われて、制御部150は撮像素子駆動回路123に駆動条件を送る。   Similarly, in the periods T1 to T2 and the periods T2 to T3, the first image signal which is the output of the first imaging unit is used as a live view image. At this time, as described above, the processing for discriminating the attention area is performed by the attention object discrimination unit 1301, and the control unit 150 sends the drive condition to the imaging element drive circuit 123.

上述のようにして、期間T0〜T5において、第1および第2の撮像部ともに動画記録が停止されるまで、フレーム毎に同様の動作を行う。   As described above, in the period T0 to T5, the same operation is performed for each frame until the moving image recording is stopped for both the first and second imaging units.

このようにして、読み出し処理および注目領域の判別処理を行うことによって、第2の撮像部で得られる第2の画像信号(ここでは、動画像)は、注目被写体領域に限定された高解像度画像となり、当該高解像度画像が記録されることになる。   In this manner, the second image signal (here, moving image) obtained by the second imaging unit by performing the reading process and the determination process of the attention area is a high resolution image limited to the attention subject area. The high resolution image is to be recorded.

図6は、図1に示すカメラで行われる撮影処理を説明するためのフローチャートである。なお、図示のフローチャートは制御部150の制御下で行われる。   FIG. 6 is a flowchart for explaining the photographing processing performed by the camera shown in FIG. Note that the illustrated flowchart is performed under the control of the control unit 150.

カメラの電源がオンとされて、操作部170によってカメラが撮影モードとされると、制御部150は撮像素子駆動回路113を制御して第1の撮像部によるライブビュー撮像を開始する。   When the power of the camera is turned on and the camera is set to the photographing mode by the operation unit 170, the control unit 150 controls the imaging device driving circuit 113 to start live view imaging by the first imaging unit.

続いて、制御部150は、図5に示す期間T0〜T1において、第1の撮像部によってライブビュー画像(第1の画像信号)を1フレーム分(Fr1)撮像する(ステップS401)。ステップS401の処理においては、図2〜図5に関連して説明したように、撮像素子112が捕える画角全体を撮影するように画角が設定され、かつ十分なフレームレートを維持するため間引き処理が行われる。   Subsequently, the control unit 150 causes the first imaging unit to capture a live view image (first image signal) for one frame (Fr1) in the period T0 to T1 shown in FIG. 5 (step S401). In the process of step S401, as described with reference to FIGS. 2 to 5, the angle of view is set so as to capture the entire angle of view captured by the image sensor 112, and thinning is performed to maintain a sufficient frame rate. Processing is performed.

なお、ステップS401の処理で得られた第1の画像信号をFr1−0と呼ぶことにする。また、ステップS401の処理で読み出された第1の画像信号(ライブビュー画像)は、ライブビュー又は記録動画像として画像処理および画面表示されるが、ここでは詳細な説明を省略する。   The first image signal obtained in the process of step S401 is referred to as Fr1-0. The first image signal (live view image) read in the process of step S401 is subjected to image processing and screen display as a live view or a recorded moving image, but the detailed description is omitted here.

次に、制御部150は、操作部170のユーザ操作によって注目被写体領域がマニュアル設定されているか否かを示すユーザ設定有無フラグU=0であるか否かを確認する(ステップS402)。ユーザ設定有無フラグUは、注目被写体領域をユーザがマニュアル操作によって一意に決定する際に用いられるフラグである。例えば、操作部170がタッチパネルディスプレイである場合には、ユーザは注目領域を指などでタッチして注目被写体領域を指定することができる。   Next, the control unit 150 checks whether or not a user setting presence / absence flag U = 0 indicating whether the subject area of interest is manually set by the user operation of the operation unit 170 (step S402). The user setting presence / absence flag U is a flag used when the user uniquely determines the subject area of interest by manual operation. For example, in the case where the operation unit 170 is a touch panel display, the user can specify a target subject area by touching the target area with a finger or the like.

なお、ここでは、設定される注目被写体領域はアスペクト比16:9の領域とされる。そして、ユーザが注目被写体領域をマニュアル設定した場合には、ユーザ設定フラグU=1となる。また、ユーザが注目被写体領域をマニュアル設定していない場合には、ユーザ設定フラグU=0となる。   Here, the target subject area to be set is an area with an aspect ratio of 16: 9. Then, when the user manually sets the target subject area, the user setting flag U = 1. In addition, when the user has not set the subject region of interest manually, the user setting flag U = 0.

ユーザ設定有無フラグU=1であると(ステップS402において、NO)、制御部150はユーザが設定した注目被写体領域を内蔵メモリに領域Aとして保存する(ステップS403)。そして、制御部150は、後述するステップS414の処理に進む。   If the user setting presence / absence flag U is 1 (NO in step S402), the control unit 150 saves the object of interest area set by the user as the area A in the built-in memory (step S403). Then, the control unit 150 proceeds to the process of step S414 described later.

ユーザ設定有無フラグU=0であると(ステップS402において、YES)、制御部150は、操作部170による操作によって注目被写体領域の検出条件が動体検出の設定となっているか否かを示す動体検出設定有無フラグM=0であるか否かを確認する(ステップS404)。   When user setting presence / absence flag U is 0 (YES in step S402), control unit 150 detects a moving object detection condition of the subject region of interest according to the operation by operation unit 170 or not. It is confirmed whether or not the setting presence / absence flag M = 0 (step S404).

この動体検出設定有無フラグMは、画像において動く被写体を注目領域として設定ためのフラグである。この動体検出設定有無フラグMはユーザ自身が動体を最適な大きさとなるようにフレーミングすることが困難な場合などに用いられる。そして、ユーザが動体検出設定を行った場合には、動体検出設定有無フラグM=1となる。また、ユーザが動体検出設定を行っていない場合には、動体検出設定有無フラグM=0となる。   The moving object detection setting presence / absence flag M is a flag for setting a moving subject in an image as a region of interest. The moving object detection setting presence / absence flag M is used, for example, when it is difficult for the user to frame the moving object to an optimum size. When the user performs moving object detection setting, the moving object detection setting presence / absence flag M = 1. In addition, when the user does not perform moving object detection setting, the moving object detection setting presence / absence flag M = 0.

動体検出設定有無フラグM=1であると(ステップS404において、NO)、制御部150は第1の撮像部で得られた第1の画像信号Fr1を動体検出部1302に入力する。そして、制御部150の制御下で、動体検出部1302は、第1の画像信号Fr1から輪郭を抜き出して輪郭情報(現在の輪郭情報)を得る。そして、動体検出部1302は第1の画像信号Fr1が入力される前に記憶された過去の輪郭情報と現在の輪郭情報とを比較して動体領域を検出する動体検出処理を行う(ステップS405)。そして、動体検出部1302は現在の輪郭情報を内蔵メモリに過去の輪郭情報として記憶する。なお、動体領域はその周囲を含めてアスペクト比16:9の領域とされる。   If the moving object detection setting presence / absence flag M is 1 (NO in step S404), the control unit 150 inputs the first image signal Fr1 obtained by the first imaging unit to the moving object detection unit 1302. Then, under the control of the control unit 150, the moving body detection unit 1302 extracts a contour from the first image signal Fr1 to obtain contour information (current contour information). Then, the moving body detection unit 1302 performs a moving body detection process of detecting a moving body area by comparing the past contour information stored before the first image signal Fr1 is input with the current contour information (step S405). . Then, the moving body detection unit 1302 stores the current contour information in the built-in memory as past contour information. In addition, a moving body area | region is made into an area | region of aspect ratio 16: 9 including the periphery.

続いて、制御部150は動体検出部1302によって検出された動体領域を注目被写体領域とする。そして、制御部150は当該注目被写体領域を内蔵メモリに領域Aとして保存する(ステップS406)。その後、制御部150は、後述するステップS414の処理に進む。   Subsequently, the control unit 150 sets the moving object region detected by the moving object detection unit 1302 as a target object region. Then, the control unit 150 stores the subject area of interest as an area A in the built-in memory (step S406). Thereafter, the control unit 150 proceeds to the process of step S414 described later.

動体検出設定有無フラグM=0であると(ステップS404において、YES)、制御部150は、操作部170による操作によって注目被写体領域の検出条件が人物検出の設定となっているか否かを示す人物検出設定有無フラグP=0であるか否かを確認する(ステップS407)。   If moving object detection setting presence / absence flag M is 0 (YES in step S404), control unit 150 causes the operation unit 170 to operate the operation unit 170 to indicate whether the detection condition of the target subject area is the person detection setting or not. It is confirmed whether or not the detection setting presence / absence flag P = 0 (step S407).

この人物検出設定有無フラグPは、画像において人物を注目領域として設定ためのフラグである。この人物検出設定有無フラグPはユーザ自身が人物を最適な大きさとなるようにフレーミングすることが困難な場合などに用いられる。そして、ユーザが人物検出設定を行った場合には、人物検出設定有無フラグP=1となる。また、ユーザが人物検出設定を行っていない場合には、人物検出設定有無フラグP=0となる。   The person detection setting presence / absence flag P is a flag for setting a person as an attention area in an image. The person detection setting presence / absence flag P is used, for example, when it is difficult for the user to frame a person to an optimum size. Then, when the user performs the person detection setting, the person detection setting presence / absence flag P = 1. Further, when the user does not perform the person detection setting, the person detection setting presence / absence flag P = 0.

人物検出設定有無フラグP=1であると(ステップS407において、NO)、制御部150は第1の撮像部で得られた第1の画像信号Fr1を人物検出部1303に入力する。そして、制御部150の制御下で、人物検出部1303は、第1の画像信号Fr1が示す画像においてパターンマッチングを用いて人物の形状と比較して人物領域を検出する人物検出処理を行う(ステップS408)。なお、人物領域はその周囲を含めてアスペクト比16:9の領域とされる。   If the person detection setting presence / absence flag P is 1 (NO in step S407), the control unit 150 inputs the first image signal Fr1 obtained by the first imaging unit to the person detection unit 1303. Then, under the control of the control unit 150, the person detection unit 1303 performs person detection processing for detecting a person area in the image indicated by the first image signal Fr1 using pattern matching in comparison with the shape of the person (step S408). The person area is an area with an aspect ratio of 16: 9 including the periphery thereof.

続いて、制御部150は人物検出部1303によって検出された人物領域を注目被写体領域とする。そして、制御部150は当該注目被写体領域を内蔵メモリに領域Aとして保存する(ステップS409)。その後、制御部150は、後述するステップS414の処理に進む。   Subsequently, the control unit 150 sets the human area detected by the human detection unit 1303 as a target subject area. Then, the control unit 150 stores the subject area of interest as an area A in the built-in memory (step S409). Thereafter, the control unit 150 proceeds to the process of step S414 described later.

人物検出設定有無フラグP=0であると(ステップS407において、YES)、制御部150は、操作部170による操作によって注目被写体領域の検出条件が顔検出の設定となっているか否かを示す顔検出設定有無フラグF=0であるか否かを確認する(ステップS410)。   If the person detection setting presence / absence flag P is 0 (YES in step S407), the control unit 150 causes the operation unit 170 to operate the operation unit 170 to indicate whether the detection condition of the target subject area is the face detection setting. It is confirmed whether or not the detection setting presence / absence flag F = 0 (step S410).

この顔検出設定有無フラグFは、画像において顔を注目領域として設定ためのフラグである。この顔検出設定有無フラグFはユーザ自身が人物の顔を最適な大きさとなるようにフレーミングすることが困難な場合などに用いられる。そして、ユーザが顔検出設定を行った場合には、顔検出設定有無フラグF=1となる。また、ユーザが顔検出設定を行っていない場合には、顔検出設定有無フラグF=0となる。   The face detection setting presence / absence flag F is a flag for setting a face as an attention area in an image. The face detection setting presence / absence flag F is used, for example, when it is difficult for the user to frame the face of a person to an optimal size. Then, when the user performs face detection setting, the face detection setting presence / absence flag F = 1. Further, when the user does not perform the face detection setting, the face detection setting presence / absence flag F = 0.

顔検出設定有無フラグF=1であると(ステップS410において、NO)、制御部150は第1の撮像部で得られた第1の画像信号Fr1を顔検出部1304に入力する。そして、制御部150の制御下で、顔検出部1304は、第1の画像信号Fr1が示す画像においてパターンマッチングを用いて人物の顔の形状と比較して顔領域を検出する顔検出処理を行う(ステップS411)。なお、顔領域はその周囲を含めてアスペクト比16:9の領域とされる。   If the face detection setting presence / absence flag F is 1 (NO in step S410), the control unit 150 inputs the first image signal Fr1 obtained by the first imaging unit to the face detection unit 1304. Then, under the control of the control unit 150, the face detection unit 1304 performs a face detection process of detecting a face area by comparing the shape of the face of a person using pattern matching in the image indicated by the first image signal Fr1. (Step S411). The face area is an area with an aspect ratio of 16: 9 including the periphery thereof.

続いて、制御部150は顔検出部1304によって検出された顔領域を注目被写体領域とする。そして、制御部150は当該注目被写体領域を内蔵メモリに領域Aとして保存する(ステップS412)。その後、制御部150は、後述するステップS414の処理に進む。   Subsequently, the control unit 150 sets the face area detected by the face detection unit 1304 as a target subject area. Then, the control unit 150 stores the subject area of interest as an area A in the built-in memory (step S412). Thereafter, the control unit 150 proceeds to the process of step S414 described later.

顔検出設定有無フラグF=0であると(ステップS410において、YES)、制御部150は、注目被写体領域の検出条件が設定されていないので、画像全体を注目被写体領域とする。そして、制御部150は当該注目被写体領域を内蔵メモリに領域Aとして保存する(ステップS413)。   If the face detection setting presence / absence flag F is 0 (YES in step S410), the control unit 150 sets the entire image as a target subject region because the detection condition for the target subject region is not set. Then, the control unit 150 stores the subject area of interest as an area A in the built-in memory (step S413).

次に、制御部150は領域A(つまり、注目被写体領域)の画像全体に占める割合rを算出する(ステップS414)。そして、制御部150は当該割合rに応じて後述する撮像素子駆動選択テーブルTbl1に応じて撮像素子122の駆動方法を選択する(ステップS415)。   Next, the control unit 150 calculates the ratio r of the area A (that is, the target subject area) to the entire image (step S414). Then, the control unit 150 selects the driving method of the imaging element 122 according to the imaging element drive selection table Tbl1 described later according to the ratio r (step S415).

図7は、図1に示すカメラで用いられる撮像素子駆動選択テーブルの一例を示す図である。なお、この撮像素子駆動選択テーブルは、制御部150に備えられたROMに格納されている。   FIG. 7 is a diagram showing an example of an imaging element drive selection table used in the camera shown in FIG. The imaging element drive selection table is stored in the ROM provided in the control unit 150.

撮像素子駆動選択テーブルTbl1は注目被写体領域Aの画像に占める割合rに応じて、第2の撮像部による撮影の際の水平および垂直方向の間引き率又は画素加算数を定めるものである。図示の例では、割合rが56.25%以上の場合には水平および垂直方向の間引き率は1/4間引きとされる。また、割合rが25%以上で56.25%未満の場合は水平および垂直方向の間引き率は1/3間引きとされる。   The image pickup device drive selection table Tbl1 determines the thinning rate or the pixel addition number in the horizontal and vertical directions at the time of photographing by the second image pickup unit according to the ratio r of the object area A of interest to the image. In the illustrated example, when the ratio r is 56.25% or more, the thinning rates in the horizontal and vertical directions are set to 1⁄4. When the ratio r is 25% or more and less than 56.25%, the thinning rates in the horizontal and vertical directions are reduced to 1/3.

さらに、割合rが6.25%以上で25%未満の場合には、水平および垂直方向の間引き率は1/2間引きとされる。そして、割合rが6.25%未満の場合には、水平および垂直方向の間引きはなしとされる。   Furthermore, when the ratio r is 6.25% or more and less than 25%, the horizontal and vertical thinning rates are set to 1/2 thinning. Then, when the ratio r is less than 6.25%, thinning in the horizontal and vertical directions is regarded as none.

なお、ここでは、撮像素子駆動選択テーブルTbl1は割合rに応じて間引き率を規定するテーブルとしたが、注目被写体領域を最適な画素数又は最適なフレームレートで読み出す際には、撮像素子駆動選択テーブルTbl1は割合rに応じて画素加算数を規定するテーブルとされる。   Here, although the imaging device drive selection table Tbl1 is a table that defines the thinning rate according to the ratio r, when reading out the object area of interest with the optimal number of pixels or the optimal frame rate, the imaging device drive selection is performed. The table Tbl1 is a table which defines the pixel addition number according to the ratio r.

再び図6を参照して、制御部150は撮像素子駆動回路123に、ステップS415の処理で選択した撮像素子駆動方法(つまり、ここでは、間引き率)および注目被写体領域Aの画像における位置を送る。つまり、制御部150は第2の撮像部に撮影条件を指示する(ステップS416)。この際、割合rが56.25%以上である場合には(つまり、注目被写体領域が所定のサイズ以上である場合には)、制御部150はレンズ制御部121に、画角を予め定められた分だけ広角側になるようにする駆動指示を行う。つまり、制御部150は画角を予め定められた分だけ広角側にシフトする。これによって、注目被写体が以降のフレームで画像内から外れてしまうリスクを事前に回避する。   Referring back to FIG. 6, control unit 150 sends the image sensor driving method (that is, the thinning rate here) selected in the process of step S 415 to the image sensor driving circuit 123 and the position in the image of subject area A of interest. . That is, the control unit 150 instructs the second imaging unit to perform imaging conditions (step S416). At this time, when the ratio r is 56.25% or more (that is, when the subject region of interest is a predetermined size or more), the control unit 150 sets the angle of view in advance to the lens control unit 121. A drive instruction is issued to make the lens more wide-angle as much as possible. That is, the control unit 150 shifts the angle of view to the wide-angle side by a predetermined amount. This avoids in advance the risk that the subject of interest will deviate from the image in the subsequent frames.

次に、制御部150の制御下で、図5に示す期間T1〜T3において、第2の撮像部は1フレームの撮像を行う(ステップS417)。この撮像によって得られた第2の画像信号は注目被写体領域を高い解像度で読み出した画像となる。   Next, under the control of the control unit 150, the second imaging unit performs imaging of one frame in the periods T1 to T3 illustrated in FIG. 5 (step S417). The second image signal obtained by this imaging is an image obtained by reading out the target object area at a high resolution.

なお、ここでは得られた第2の画像信号をFr2−1と呼ぶ。また、当該第2の画像信号は動画像として画像処理および画面表示されるが、ここでは詳細な説明を省略する。   Here, the obtained second image signal is called Fr2-1. The second image signal is subjected to image processing and screen display as a moving image, but the detailed description is omitted here.

その後、制御部150は次フレームの処理を行う。つまり、制御部150はステップS417の処理を行った後、ステップS401の処理に戻って、図5に示す期間T1〜T2の期間において、第1の撮像部によって撮像を行ってライブビュー画像(第1の画像信号)を1フレーム分得る。ここで得られた第1の画像信号をFr1−1と呼ぶ。   Thereafter, the control unit 150 processes the next frame. That is, after performing the process of step S417, the control unit 150 returns to the process of step S401, performs imaging by the first imaging unit during the period T1 to T2 shown in FIG. One image signal) is obtained for one frame. The first image signal obtained here is called Fr1-1.

その後、図5に示す期間T2〜T3の期間においても第1の撮像部によって撮像を行いライブビュー画像を1フレーム分得る。ここで得られた第1の画像信号をFr1−2と呼ぶ。第1の画像信号Fr1−1およびFr1−2はステップS401〜S416で説明したようにして処理される。そして、これら第1の画像信号Fr1−1およびFr1−2において得られた注目被写体領域情報は、ステップS417において第2の撮像部による撮像に反映される。   Thereafter, imaging is performed by the first imaging unit also during the period T2 to T3 illustrated in FIG. 5 to obtain a live view image for one frame. The first image signal obtained here is called Fr1-2. The first image signals Fr1-1 and Fr1-2 are processed as described in steps S401 to S416. Then, the object-of-interest area information obtained in the first image signals Fr1-1 and Fr1-2 is reflected in the imaging by the second imaging unit in step S417.

このように、本発明の第1の実施形態では、第1の撮像部で得られた第1の画像信号において注目被写体領域を判別する。そして、当該注目被写体領域に応じて第2の撮像部による撮像を制御する。これによって、所望の画角を有する画像を十分な解像度で切り出して撮像を行うことができる。そして、無駄な画素の読み出しおよび消費電力を抑制することができる。   As described above, in the first embodiment of the present invention, the target subject area is determined in the first image signal obtained by the first imaging unit. Then, imaging by the second imaging unit is controlled in accordance with the target subject area. Thus, an image having a desired angle of view can be cut out at a sufficient resolution to perform imaging. Then, unnecessary pixel readout and power consumption can be suppressed.

なお、注目被写体領域を切り出す際には、注目被写体領域のみを切り出すようにしてもよく、さらには、注目被写体領域を含む所定の範囲の領域を切り出すようにしてもよい。   When cutting out the target subject area, only the target subject area may be cut out, and further, an area within a predetermined range including the target subject area may be cut out.

[第2の実施形態]
続いて、本発明の第2の実施形態によるカメラの一例について説明する。
Second Embodiment
Subsequently, an example of a camera according to a second embodiment of the present invention will be described.

図8は、本発明の第2の実施形態によるカメラの一例についてその構成を示すブロック図である。なお、図8において、図1に示すカメラと同一の構成要素については同一の参照番号を付して説明を省略する。   FIG. 8 is a block diagram showing the configuration of an example of a camera according to the second embodiment of the present invention. In FIG. 8, the same components as in the camera shown in FIG.

図示のカメラは撮像部を有しており、撮像部は、レンズ610、レンズ制御部611、撮像素子612、および撮像素子駆動回路613を備えている。なお、図示はしないが、レンズ610は、複数のレンズおよび光学機構部を備えている。そして、レンズ610は被写体像(光学像)を撮像素子612に結像する。   The illustrated camera includes an imaging unit, and the imaging unit includes a lens 610, a lens control unit 611, an imaging element 612, and an imaging element driving circuit 613. Although not shown, the lens 610 includes a plurality of lenses and an optical mechanism. Then, the lens 610 forms an object image (optical image) on the image sensor 612.

光学機構部は、例えば、AF機構、ズーム駆動機構、メカニカルシャッタ機構、および絞り機構を備えている。レンズ制御部611は制御部650の制御下でレンズ610に備えられた光学機構部を駆動制御する。   The optical mechanism unit includes, for example, an AF mechanism, a zoom drive mechanism, a mechanical shutter mechanism, and an aperture mechanism. The lens control unit 611 controls driving of an optical mechanism provided in the lens 610 under the control of the control unit 650.

撮像素子612は、画素部およびA/Dコンバータ(図示せず)を有し、例えば、所謂XY読み出し方式のCMOS型イメージセンサである。そして、撮像素子駆動回路613は制御部650の制御下で、撮像素子612の露光処理、信号読み出し処理、およびリセット処理などを行う。これによって、撮像素子612は後述するようにして第1および第2の画像信号を出力する。   The imaging element 612 has a pixel portion and an A / D converter (not shown), and is, for example, a so-called XY readout type CMOS image sensor. Then, under the control of the control unit 650, the imaging device drive circuit 613 performs exposure processing of the imaging device 612, signal readout processing, reset processing, and the like. As a result, the imaging element 612 outputs the first and second image signals as described later.

制御部150は、例えば、CPU、ROM、およびRAMなどを備えるマイクロコントローラである。そして、CPUがROMに記憶されたプログラムを実行することによって、カメラ全体を制御する。また、制御部650は、信号処理部130によるAE処理によって被写体の露光値が所定の露光値よりも低いと判定すると、発光部160を制御して発光を行って被写体を照明する。   The control unit 150 is a microcontroller including, for example, a CPU, a ROM, and a RAM. The CPU controls the entire camera by executing a program stored in the ROM. Further, when the control unit 650 determines that the exposure value of the subject is lower than the predetermined exposure value by the AE processing by the signal processing unit 130, the control unit 650 controls the light emitting unit 160 to emit light to illuminate the subject.

ここで、図8に示すカメラの基本的な動作について説明する。   Here, the basic operation of the camera shown in FIG. 8 will be described.

例えば、静止画像を撮影する際には、撮像前(つまり、本撮影前)において、撮像素子612では、画素から出力されたアナログ信号について順次CDS処理およびAGC処理が施される。その後、撮像素子612では、A/Dコンバータによってアナログ信号をA/D変換して画像信号(デジタル画像信号)を出力する。そして、この画像信号は信号処理部130に送られる。   For example, when capturing a still image, the imaging device 612 sequentially performs CDS processing and AGC processing on analog signals output from pixels before capturing (that is, before capturing a main image). Thereafter, in the imaging device 612, an A / D converter A / D converts an analog signal and outputs an image signal (digital image signal). Then, this image signal is sent to the signal processing unit 130.

信号処理部130において、注目被写体判別部1301は、後述する第1の読み出し動作において撮像素子612から出力された第1の画像信号について被写体判別処理を行う。そして、注目被写体判別部1301は注目被写体領域(つまり、動体検知領域、人物検知領域、および顔検知領域)を示す注目被写体領域情報を制御部650に出力する。   In the signal processing unit 130, the attention subject determination unit 1301 performs a subject determination process on the first image signal output from the imaging element 612 in the first readout operation described later. Then, the attention object determination unit 1301 outputs attention object region information indicating the attention object region (that is, the moving object detection region, the person detection region, and the face detection region) to the control unit 650.

なお、制御部650は、後述するように、注目被写体領域情報に基づいて第2の読み出し動作における撮影条件を決定して、撮像素子駆動回路613を制御する。これによって、第2の読み出し動作では撮像素子612の撮影画角のうち注目被写体領域を切り出す画素読み出しが行われて、第2の画像信号として出力される。   The control unit 650 controls the imaging element drive circuit 613 by determining the imaging conditions in the second readout operation based on the target subject area information as described later. As a result, in the second readout operation, pixel readout for cutting out the target object area out of the imaging angle of view of the imaging element 612 is performed, and is output as a second image signal.

信号処理部130は、第1および第2の読み出し処理でそれぞれ得られた第1および第2の画像信号に対して、例えば、画質補正処理を行って第1および第2のカメラスルー画像信号を生成する。そして、信号処理部130は、制御部650の制御下で第1および第2のカメラスルー画像信号を制画像表示部180に送る。これによって、画像表示部180には第1および第2のカメラスルー画像信号に応じたカメラスルー画像(ライブビュー画像)が表示される。ユーザはこれらカメラスルー画像を目視しつつ、注目被写体に画角合わせを行うことができる。   The signal processing unit 130 performs, for example, image quality correction processing on the first and second image signals obtained respectively in the first and second readout processing, and outputs the first and second camera through image signals. Generate Then, the signal processing unit 130 sends the first and second camera through image signals to the control image display unit 180 under the control of the control unit 650. As a result, a camera through image (live view image) corresponding to the first and second camera through image signals is displayed on the image display unit 180. The user can perform angle-of-view alignment on the subject of interest while viewing these camera through images.

上述の状態で、つまり、カメラスルー画像が画像表示部180に表示された状態で、操作部190に備えられたシャッタレリーズボタンが押下されたとする。これによって、制御部650は撮像素子駆動回路613を制御して、撮像素子612から第1および第2の読み出し動作で得られた1フレーム分の第1および第2の画像信号を信号処理部130に取り込む。信号処理部130は当該1フレーム分の第1および第2の画像信号に画質補正処理して、処理後のデジタル画像信号(つまり、第1および第2の画像データ)を圧縮伸長部140に送る。   In the above-described state, that is, in a state where the camera through image is displayed on the image display unit 180, it is assumed that the shutter release button provided on the operation unit 190 is pressed. Thus, the control unit 650 controls the imaging device driving circuit 613 to process the first and second image signals of one frame obtained by the first and second readout operations from the imaging device 612 as the signal processing unit 130. Capture to The signal processing unit 130 performs image quality correction processing on the first and second image signals for one frame, and sends the processed digital image signals (that is, the first and second image data) to the compression and decompression unit 140. .

動画像データを記録する際には、制御部650の制御下で、撮像素子612から出力された第1および第2画像信号が信号処理部130に取り込まれる。信号処理部130は第1および第2の画像信号を順次処理して第1および第2の画像データ(つまり、ここでは動画像データ)を生成する。これら動画像データは圧縮伸長部140で圧縮符号化処理されて、符号化動画像データが順次画像記録部190に転送されて動画像ファイルとして記録される。   When recording moving image data, the first and second image signals output from the imaging element 612 are taken into the signal processing unit 130 under the control of the control unit 650. The signal processing unit 130 sequentially processes the first and second image signals to generate first and second image data (that is, moving image data here). These moving image data are compressed and encoded by the compression / decompression unit 140, and the encoded moving image data is sequentially transferred to the image recording unit 190 and recorded as a moving image file.

図9は、図8に示す撮像素子の構造を示す斜視図である。   FIG. 9 is a perspective view showing the structure of the imaging device shown in FIG.

撮像素子612は第1のチップ(画素部)70および第2のチップ71を有しており、第2のチップ(第2の素子部ともいう)71上に第1のチップ(第1の素子部ともいう)70が積層されている。第1のチップ70は2次元マトリックス状に配列された複数の画素を有しており、第1のチップ70は光入射側に配置されている(つまり、光学像の受光側に位置している)。第2のチップ71には後述する列走査回路および行走査回路などの画素駆動回路が形成されている。   The imaging element 612 includes a first chip (pixel portion) 70 and a second chip 71, and the first chip (first element) is formed on a second chip (also referred to as a second element portion) 71. Section 70 is stacked. The first chip 70 has a plurality of pixels arranged in a two-dimensional matrix, and the first chip 70 is disposed on the light incident side (that is, located on the light receiving side of the optical image) ). On the second chip 71, pixel drive circuits such as a column scan circuit and a row scan circuit, which will be described later, are formed.

このように、第1のチップ70に画素を形成し、第2のチップ71に画素駆動回路を形成すれば、撮像素子612の周辺回路および画素部の製造プロセスを分けることができる。この結果、周辺回路における配線の細線化および高密度化による読み出し動作の高速化、撮像素子の小型化および高機能化を図ることができる。   As described above, when pixels are formed in the first chip 70 and a pixel drive circuit is formed in the second chip 71, the manufacturing process of the peripheral circuit of the imaging element 612 and the pixel portion can be divided. As a result, speeding up of the reading operation can be achieved by thinning and densifying the wiring in the peripheral circuit, and downsizing and high functionality of the imaging device can be achieved.

図10は、図9の示す撮像素子の構成の一例を説明するためのブロック図である。なお、図示の例においては、説明の便宜上、信号処理部130が2つ示されている。   FIG. 10 is a block diagram for explaining an example of the configuration of the imaging device shown in FIG. In the illustrated example, two signal processing units 130 are shown for convenience of explanation.

第1のチップ70において、複数の画素701が2次元マトリクス状に配列されている。画素701は水平方向(行方向)において転送信号線703、リセット信号線704、および行選択信号線705に接続され、垂直方向(列方向)において列信号線702−aおよび702−bに接続されている。なお、列信号線702−aおよび702−bの各々は読み出し行単位に応じて接続先が異なる。   In the first chip 70, a plurality of pixels 701 are arranged in a two-dimensional matrix. The pixel 701 is connected to the transfer signal line 703, the reset signal line 704, and the row selection signal line 705 in the horizontal direction (row direction), and is connected to the column signal lines 702-a and 702-b in the vertical direction (column direction). ing. The connection destinations of the column signal lines 702-a and 702-b differ depending on the read row unit.

図示のように、画素701の各々は、光電変換素子であるフォトダイオードPD、転送トランジスタM1、リセットトランジスタM2、増幅トランジスタM3、選択トランジスタM4、およびフローティングディフュージョンFDを有している。   As illustrated, each of the pixels 701 includes a photodiode PD which is a photoelectric conversion element, a transfer transistor M1, a reset transistor M2, an amplification transistor M3, a selection transistor M4, and a floating diffusion FD.

なお、図示の例では、トランジスタの各々はnチャネルMOSFET(MOS Field−Effect Transistor)である。   In the illustrated example, each of the transistors is an n-channel MOSFET (MOS Field-Effect Transistor).

転送トランジスタM1、リセットトランジスタM2、および選択トランジスタM4のゲートには、それぞれ転送信号線703、リセット信号線704、および行選択信号線705が接続されている。これら信号線703〜705は水平方向に延在し、同一行の画素701が同時に駆動される。これによって、ライン順次動作型のローリングシャッタ又は全行同時動作型のグローバルシャッタの動作を制御することができる。さらに、選択トランジスタM4のソースには列信号線702−a又は702−bが行単位で接続されている。   The transfer signal line 703, the reset signal line 704, and the row selection signal line 705 are connected to the gates of the transfer transistor M1, the reset transistor M2, and the selection transistor M4, respectively. The signal lines 703 to 705 extend in the horizontal direction, and the pixels 701 in the same row are simultaneously driven. By this, it is possible to control the operation of the line sequential operation type rolling shutter or the all row simultaneous operation type global shutter. Furthermore, the column signal line 702-a or 702-b is connected to the source of the selection transistor M4 in units of rows.

フォトダイオードPDは、光電変換によって生成された電荷を蓄積する。そして、フォトダイオードPDのP側が接地され、N側が転送トランジスタM1のソースに接続されている。転送トランジスタM1がオンすると、フォトダイオードPDの電荷がFDに転送され、当該FDには寄生容量が存在するので、FDに転送された電荷が蓄積される。   The photodiode PD accumulates the charge generated by photoelectric conversion. The P side of the photodiode PD is grounded, and the N side is connected to the source of the transfer transistor M1. When the transfer transistor M1 is turned on, the charge of the photodiode PD is transferred to the FD, and since the parasitic capacitance exists in the FD, the charge transferred to the FD is accumulated.

増幅トランジスタM3のドレインには電源電圧Vddが印加され、そのゲートはFDに接続されている。増幅トランジスタM3は、FDの電荷(つまり、電圧)を増幅して電圧信号に変換する。選択トランジスタM4は、信号を読み出す画素701を行単位で選択するためのものであり、そのドレインは増幅トランジスタM3のソースに接続されている。また、選択トランジスタM4のソースは、列信号線702に接続されている。   The power supply voltage Vdd is applied to the drain of the amplification transistor M3, and its gate is connected to the FD. The amplification transistor M3 amplifies the charge (that is, voltage) of the FD and converts it into a voltage signal. The selection transistor M4 is for selecting the pixels 701 for reading out signals in units of rows, and the drain thereof is connected to the source of the amplification transistor M3. The source of the selection transistor M4 is connected to the column signal line 702.

選択トランジスタM4がオンすると、FDの電圧に対応する電圧信号が列信号線702に出力される。リセットトランジスタM2のドレインには電源電圧Vddが印加され、そのソースはFDに接続されている。リセットトランジスタM2のオンによって、FDの電圧は電源電圧Vddにリセットされる。   When the selection transistor M4 is turned on, a voltage signal corresponding to the voltage of the FD is output to the column signal line 702. The power supply voltage Vdd is applied to the drain of the reset transistor M2, and the source is connected to the FD. When the reset transistor M2 is turned on, the voltage of the FD is reset to the power supply voltage Vdd.

第2のチップ71には、カラムADCブロック711が備えられており、カラムADC711は列信号線702−a又は702−bに接続されている。さらに、第2のチップ71には、行走査回路712、列走査回路713−aおよび713−b、タイミング制御回路714、水平信号線(出力手段)715−aおよび715−bが備えられている。   The second chip 71 is provided with a column ADC block 711, and the column ADC 711 is connected to the column signal line 702-a or 702-b. Furthermore, the second chip 71 is provided with a row scanning circuit 712, column scanning circuits 713-a and 713-b, a timing control circuit 714, and horizontal signal lines (output means) 715-a and 715-b. .

タイミング制御回路714は制御部650の制御下で行走査回路712、列走査回路713−aおよび713−b、およびカラムADCブロック711の動作タイミングを制御する。行走査回路712は各行の走査を行い、列走査回路713aおよび713bはそれぞれ各列の走査を行う。   The timing control circuit 714 controls operation timings of the row scanning circuit 712, the column scanning circuits 713-a and 713-b, and the column ADC block 711 under the control of the control unit 650. The row scanning circuit 712 scans each row, and the column scanning circuits 713a and 713b scan each column.

水平信号線715−aおよび715−bは、それぞれ列走査回路713−aおよび713−bで制御されるタイミングに応じてカラムADCブロック711の出力信号(画像信号)を転送する。   The horizontal signal lines 715-a and 715-b transfer the output signal (image signal) of the column ADC block 711 according to the timing controlled by the column scanning circuits 713- a and 713- b, respectively.

なお、後述するように、水平信号線715−aに転送された画像信号は信号処理部650に第1の読み出し動作によって得られる第1の画像信号(ライブビュー用の画像信号)として信号処理部130に与えられる。一方、水平信号線715−bに転送された画像信号は第2の読み出し動作によって得られる第2の画像信号(注目被写体の画像信号)として信号処理部130に与えられる。   As described later, the image signal transferred to the horizontal signal line 715-a is processed by the signal processing unit 650 as a first image signal (image signal for live view) obtained by the first read operation. It is given to 130. On the other hand, the image signal transferred to the horizontal signal line 715-b is given to the signal processing unit 130 as a second image signal (image signal of the object of interest) obtained by the second readout operation.

図11は、図10に示す撮像素子を第1の読み出し動作で駆動した際の画素選択の一例を説明するための図である。   FIG. 11 is a diagram for explaining an example of pixel selection when the image sensor shown in FIG. 10 is driven by the first readout operation.

また、図12は、図10に示す撮像素子を第2の読み出し動作で駆動した際の画素選択の一例を説明するための図である。   FIG. 12 is a diagram for explaining an example of pixel selection when the image sensor shown in FIG. 10 is driven by the second read operation.

なお、ここでは、説明の便宜上、撮像素子612は32行×18列の画素を有するものとする。実際には、撮像素子612の画素数は7680行×4320列である。また、一般に画素はベイヤ配列されるが、ここでは説明の便宜上カラーフィルタについては省略するものとする。   Here, for convenience of explanation, it is assumed that the image sensor 612 has 32 rows × 18 columns of pixels. In practice, the number of pixels of the imaging element 612 is 7680 rows × 4320 columns. Also, in general, pixels are arranged in a Bayer pattern, but here, for convenience of explanation, color filters are omitted.

図11において、第1の読み出し動作によって読み出される画素は、列信号線702−aに接続された画素701の全て又は一部である。また、第2の読み出し動作によって読み出される画素は、列信号線702−bに接続された画素701の全て又は一部である。   In FIG. 11, the pixels read out by the first read operation are all or part of the pixels 701 connected to the column signal line 702-a. The pixels read out by the second read operation are all or part of the pixels 701 connected to the column signal line 702-b.

列信号線702−aおよび702−bは物理的に独立しており、この結果、第1および第2の読み出し動作を同時に行うことができる。よって、撮像素子612は第1の読み出し動作で得られる第1の画像信号と、第2の読み出し動作で得られる第2の画像信号とを同時に出力することができる。   The column signal lines 702-a and 702-b are physically independent, so that the first and second read operations can be performed simultaneously. Therefore, the imaging element 612 can simultaneously output the first image signal obtained in the first read operation and the second image signal obtained in the second read operation.

図示の例では第1の読み出し動作によって読み出される特定の画素群(第1の画素群)については画角全体をカバーするが、間引き率が大きく、かつ総画素数は少ない。これによって、注目被写体判別処理に必要な解像度を保つとともに、フレームレートを積雪なレートする。   In the illustrated example, the specific pixel group (first pixel group) read out by the first read operation covers the entire angle of view, but the thinning ratio is large and the total number of pixels is small. By this, while maintaining the resolution required for the object-of-interest discrimination processing, the frame rate is snow-covered.

一方、第2の読み出し動作によって読み出される画素群(第2の画素群)については、注目被写体を可能な限り高解像度で得るため、間引き率が小さく、総画素数も第1の画素群と比較して多い。なお、第2の画素群は注目被写体判別処理の結果に応じてその領域が可変であるので、第1の画素群を除く全ての画素を第2の画素群としてもよい。   On the other hand, for the pixel group (second pixel group) read out by the second read operation, the thinning rate is small and the total number of pixels is also compared with the first pixel group, since the subject of interest is obtained as high resolution as possible. There are many. Note that, since the area of the second pixel group is variable according to the result of the object-of-interest determination process, all pixels except the first pixel group may be set as the second pixel group.

上述のように、選択行毎にライブビュー撮像(第1の読み出し動作)と注目被写体の撮像(第2の読み出し)とを分けることによって、互いに異なる電荷蓄積時間でデータサイズの異なるフレームレートの画像信号を得ることができる。   As described above, by dividing the live view imaging (first readout operation) and the imaging of the object of interest (second readout) for each selected row, images of frame rates different in data size with different charge accumulation times are obtained. You can get a signal.

次に、列信号線702−aおよび702−bの各々に出力された電圧信号(アナログ信号)は、図10に示すカラムADCブロック711においてデジタル信号(画像信号)に変換される。   Next, voltage signals (analog signals) output to each of the column signal lines 702-a and 702-b are converted into digital signals (image signals) in a column ADC block 711 shown in FIG.

カラムADCブロック711の出力である画像信号は、列走査回路713−a又は713−bによってカラムADCブロック711から水平信号線715−a又は715−bに読み出される。水平信号線715−aおよび715−bに読み出された画像信号は信号処理部130に送られる。   The image signal which is the output of the column ADC block 711 is read out from the column ADC block 711 to the horizontal signal line 715-a or 715-b by the column scanning circuit 713-a or 713-b. The image signals read out to the horizontal signal lines 715-a and 715-b are sent to the signal processing unit 130.

ここで、図11を参照して、第1の読み出し動作における間引き読み出しについて説明する。   Here, thinning out reading in the first reading operation will be described with reference to FIG.

第1の読み出し動作においては撮像素子612の画角全域を取得するように、撮像素子612の読み出しが行われる。第1の読み出し動作においては、水平および垂直方向の各々について画素を1/6に間引いて読み出しが行われるものとする。この読み出し動作によって1280×720画素が読み出されて、第1の画像データがHDの動画像データとして記録および表示される。これによって、画角全域に係る画像を得ることができる。   In the first readout operation, readout of the imaging element 612 is performed so as to acquire the entire angle of view of the imaging element 612. In the first reading operation, it is assumed that reading is performed by thinning the pixel to 1/6 in each of the horizontal and vertical directions. By this read operation, 1280 × 720 pixels are read out, and the first image data is recorded and displayed as moving image data of HD. This makes it possible to obtain an image relating to the entire angle of view.

次に、図12を参照して、第2の読み出し動作における間引き読み出しについて説明する。   Next, thinning out reading in the second reading operation will be described with reference to FIG.

第2の読み出し動作においては、後述するように制御部650よって指定された注目領域が、撮像素子駆動回路623によって切り出されて読み出しが行われる。なお、注目領域については、注目被写体判別部1301によって第1の画像信号から判別される。   In the second read operation, as described later, a focused area designated by the control unit 650 is cut out by the imaging device drive circuit 623 and read is performed. Note that the attention object discrimination unit 1301 discriminates the attention area from the first image signal.

図12においては、人物周辺が注目領域とされている。注目領域の大きさに応じた適切な解像度が得られる間引き率を考慮して、第2の読み出し動作においては、水平および垂直方向の各々について画素を1/2に間引いて読み出しが行われるものとする。この読み出し動作によって1920×1080画素が読み出されて、第2の画像データがフルHDの動画像データとして記録および表示される。これによって、人物周辺の領域の画像を高解像度で得ることができる。   In FIG. 12, the area around the person is taken as the attention area. In the second readout operation, readout is performed by thinning out the pixels to 1/2 in each of the horizontal and vertical directions in consideration of a decimation rate that can obtain an appropriate resolution according to the size of the attention area Do. By this read operation, 1920 × 1080 pixels are read out, and the second image data is recorded and displayed as full HD moving image data. By this, it is possible to obtain an image of a region around a person with high resolution.

上述のように、第1の読み出し動作で読み出された第1の画像信号においてその注目領域の画素数は、第2の読み出し動作で読み出された第2の画像信号の画素数に及ばない。つまり、第1の読み出し動作で読み出された第1の画像信号においてその注目領域を拡大処理して引き延ばした画像に比べて、第2の読み出し動作において読み出された第2の画像信号が示す画像は格段に高画質となる。   As described above, in the first image signal read in the first read operation, the number of pixels in the region of interest does not reach the number of pixels in the second image signal read in the second read operation. . That is, in the first image signal read out in the first read operation, the second image signal read out in the second read out operation is shown as compared to the image obtained by performing enlargement processing on the region of interest. Images are much higher quality.

図13は、図8に示すカメラにおいて動画モードの際の撮像タイミングを説明するためのタイミング図である。   FIG. 13 is a timing chart for explaining imaging timing in the moving image mode in the camera shown in FIG.

図示のように、制御部650の制御下で撮像素子駆動回路613から送られる垂直同期信号(VD)によって撮像タイミングが規定されている。図示の例では、説明の便宜上、第1の読み出し動作におけるフレームレートは第2の読み出し動作におけるフレームレートの2倍とする。   As illustrated, the imaging timing is defined by the vertical synchronization signal (VD) sent from the imaging device driving circuit 613 under the control of the control unit 650. In the illustrated example, for convenience of explanation, the frame rate in the first read operation is twice the frame rate in the second read operation.

ここでは、第1の読み出し動作で得られる第1の画像信号はライブビュー表示として用いられ、撮像素子612は常時駆動されている。期間T0〜T1のフレームの前に操作部170によって動画記録の開始命令が行われたとする。期間T0〜T1におけるフレームでは、第1の読み出し動作で得られた第1の画像信号が画像表示部180にライブビュー画像として表示される。この際、注目被写体判別部1301によって第1の画像信号において注目被写体の領域(注目領域)が判別されて、注目被写体領域情報として制御部650に与えられる。   Here, the first image signal obtained in the first read operation is used as live view display, and the imaging element 612 is always driven. It is assumed that a start command of moving image recording is issued by the operation unit 170 before the frame of the period T0 to T1. In the frame in the period T0 to T1, the first image signal obtained in the first read operation is displayed on the image display unit 180 as a live view image. At this time, the region of interest (region of interest) of the object of interest is discriminated in the first image signal by the object of interest discrimination unit 1301 and given to the control unit 650 as object of interest region information.

制御部650は、注目被写体領域情報に応じて、第2の読み出し動作で用いる切り出し位置情報および間引き率等などの駆動条件(つまり、撮像条件)を撮像素子駆動回路623に送る。   The control unit 650 sends driving conditions (i.e., imaging conditions) such as cutout position information and a thinning ratio used in the second reading operation to the imaging element driving circuit 623 according to the subject region information of interest.

期間T1〜T3のフレームにおいては、第2の読み出し動作では時間T1の時点で撮像素子駆動回路623に与えられた切り出し位置情報および間引き率などの駆動条件に基づいて第2の画像信号が読み出される。そして、第2の画像信号は、信号処理部130で処理された後、注目被写体を高解像度で撮影した画像データ(動画像データ)として記録されることになる。   In the frame of period T1 to T3, in the second reading operation, the second image signal is read based on the cutting position information and the driving condition such as the thinning rate given to the imaging device driving circuit 623 at time T1. . Then, after the second image signal is processed by the signal processing unit 130, the second image signal is recorded as image data (moving image data) obtained by photographing the subject of interest at high resolution.

同様にして、期間T1〜T2および期間T2〜T3においては、第1の読み出し動作で得られた第1の画像信号はライブビュー画像として用いられる。この際には、前述のように、注目被写体判別部1301によって注目領域の判別処理が行われて、制御部650は撮像素子駆動回路623に駆動条件を送る。   Similarly, in periods T1 to T2 and periods T2 to T3, the first image signal obtained in the first readout operation is used as a live view image. At this time, as described above, the processing for discriminating the attention area is performed by the attention object discrimination unit 1301, and the control unit 650 sends the drive condition to the imaging element drive circuit 623.

上述のようにして、期間T0〜T5において、第1および第2の読み出し動作ともに動画記録が停止されるまでフレーム毎に行われる。   As described above, in the periods T0 to T5, both the first and second read operations are performed frame by frame until the moving image recording is stopped.

上述のようにして、読み出し処理および注目領域の判別処理を行うことによって、第2の読み出し動作で得られる第2の画像信号(ここでは、動画像)は、注目被写体領域に限定された高解像度画像となり、当該高解像度画像が記録されることになる。   As described above, the second image signal (here, a moving image) obtained in the second reading operation by performing the reading process and the determination process of the attention area has a high resolution limited to the attention subject area. It becomes an image, and the high resolution image is recorded.

図14は、図8に示すカメラで行われる撮影処理を説明するためのフローチャートである。   FIG. 14 is a flowchart for explaining the photographing process performed by the camera shown in FIG.

なお、図示のフローチャートは制御部650の制御下で行われる。また、図示のフローチャートにおいて、ステップS1102〜S1115の処理は、図6に示すステップS402〜S415の処理と同様であるので、説明を省略する。   Note that the illustrated flowchart is performed under the control of the control unit 650. Further, in the illustrated flowchart, the processes of steps S1102 to S1115 are the same as the processes of steps S402 to S415 shown in FIG.

カメラの電源がオンとされて、操作部170によってカメラが撮影モードとされると、制御部650は撮像素子駆動回路613を制御して第1の読み出し動作を開始する。   When the power of the camera is turned on and the camera is set to the photographing mode by the operation unit 170, the control unit 650 controls the imaging device driving circuit 613 to start the first read operation.

続いて、制御部650は、図13に示す期間T0〜T1において、第1の読み出し動作によってライブビュー画像(第1の画像信号)を1フレーム分(Fr1)撮像する(ステップS1101)。ステップS1101の処理においては、図11〜図13に関連して説明したように、撮像素子612が捕える画角全体を撮影するように画角が設定され、かつ十分なフレームレートを維持するため間引き処理が行われる。   Subsequently, the control unit 650 captures one frame (Fr1) of the live view image (first image signal) by the first read operation in the period T0 to T1 shown in FIG. 13 (step S1101). In the process of step S 1101, as described in connection with FIGS. 11 to 13, the angle of view is set so as to capture the entire angle of view captured by the image sensor 612, and thinning is performed to maintain a sufficient frame rate. Processing is performed.

なお、ステップS1101の処理で得られた第1の画像信号をFr1−0と呼ぶことにする。また、ステップS1101の処理で読み出された第1の画像信号(ライブビュー画像)は、ライブビュー又は記録動画像として画像処理および画面表示されるが、ここでは詳細な説明を省略する。   The first image signal obtained in the process of step S1101 is referred to as Fr1-0. The first image signal (live view image) read in the process of step S1101 is subjected to image processing and screen display as a live view or a recording moving image, but the detailed description is omitted here.

その後、図6に関連して説明したようにして、制御部650は注目被写体判別部1301を用いてステップS1102〜S1115の処理を行う。そして、制御部650は、ステップS115において、当該割合rに応じて後述する撮像素子駆動選択テーブルTbl2に応じて撮像素子122の駆動方法を選択する。   Thereafter, as described with reference to FIG. 6, the control unit 650 performs the processing of steps S1102 to S1115 using the subject-of-interest determination unit 1301. Then, in step S115, the control unit 650 selects the drive method of the imaging element 122 according to the imaging element drive selection table Tbl2 described later according to the ratio r.

図15は、図8に示すカメラで用いられる撮像素子駆動選択テーブルの一例を示す図である。なお、この撮像素子駆動選択テーブルは、制御部650に備えられたROMに格納されている。   FIG. 15 is a diagram showing an example of an imaging element drive selection table used in the camera shown in FIG. The imaging element drive selection table is stored in the ROM provided in the control unit 650.

撮像素子駆動選択テーブルTbl2は注目被写体領域Aの画像に占める割合rに応じて、第2の読みだと動作の際の水平および垂直方向の間引き率又は画素加算数を定めるものである。図示の例では、割合rが56.25%以上の場合には水平および垂直方向の間引き率は1/4間引きとされる。また、割合rが25%以上で56.25%未満の場合は水平および垂直方向の間引き率は1/3間引きとされる。   The imaging element drive selection table Tbl2 determines the thinning rate or the pixel addition number in the horizontal and vertical directions at the time of operation in the second reading according to the ratio r of the object area A of interest to the image. In the illustrated example, when the ratio r is 56.25% or more, the thinning rates in the horizontal and vertical directions are set to 1⁄4. When the ratio r is 25% or more and less than 56.25%, the thinning rates in the horizontal and vertical directions are reduced to 1/3.

さらに、割合rが25%未満の場合には、水平および垂直方向の間引き率は1/2間引きとされる。なお、ここでは、撮像素子駆動選択テーブルTbl2は割合rに応じて間引き率を規定するテーブルとしたが、注目被写体領域を最適な画素数又は最適なフレームレートで読み出す際には、撮像素子駆動選択テーブルTbl2は割合rに応じて画素加算数を規定するテーブルとされる。   Furthermore, when the ratio r is less than 25%, the thinning rates in the horizontal and vertical directions are reduced to 1⁄2. Here, although the imaging device drive selection table Tbl2 is a table that defines the thinning ratio according to the ratio r, when reading out the object area of interest with the optimal number of pixels or the optimal frame rate, the imaging device drive selection is performed. The table Tbl2 is a table which defines the pixel addition number in accordance with the ratio r.

再び図14を参照して、制御部650は撮像素子駆動回路613に、ステップS1115の処理で選択した撮像素子駆動方法(つまり、ここでは、間引き率)および注目被写体領域Aの画像における位置を送る。つまり、制御部650は第2の読み出し動作で用いられる撮影条件を指示する(ステップS1116)。この際、割合rが56.25%以上である場合には、制御部650はレンズ制御部611に、画角を予め定められた分だけ広角側になるようにする駆動指示を行う。これによって、注目被写体が以降のフレームで画像内から外れてしまうリスクを事前に回避する。   Referring again to FIG. 14, the control unit 650 sends the image sensor driving method (that is, the thinning rate here) selected in the process of step S 1115 to the image sensor driving circuit 613 and the position in the image of the object area A of interest. . That is, the control unit 650 instructs the imaging conditions used in the second readout operation (step S1116). At this time, when the ratio r is 56.25% or more, the control unit 650 instructs the lens control unit 611 to make the angle of view a wide angle side by a predetermined amount. This avoids in advance the risk that the subject of interest will deviate from the image in the subsequent frames.

次に、制御部650は、撮像素子駆動回路613を制御して、図13に示す期間T1〜T3において、第2の読み出し動作で1フレームの撮像を行う(ステップS1117)。この撮像によって得られた第2の画像信号は注目被写体領域を高い解像度で読み出した画像となる。   Next, the control unit 650 controls the imaging element driving circuit 613 to perform imaging of one frame in the second readout operation in the periods T1 to T3 illustrated in FIG. 13 (step S1117). The second image signal obtained by this imaging is an image obtained by reading out the target object area at a high resolution.

なお、ここでは得られた第2の画像信号をFr2−1と呼ぶ。また、当該第2の画像信号は動画像として画像処理および画面表示されるが、ここでは詳細な説明を省略する。   Here, the obtained second image signal is called Fr2-1. The second image signal is subjected to image processing and screen display as a moving image, but the detailed description is omitted here.

その後、制御部650は次フレームの処理を行う。つまり、制御部650はステップS1117の処理を行った後、ステップS1101の処理に戻って、図13に示す期間T1〜T2の期間において、第1の読み出し動作による撮像を行ってライブビュー画像(第1の画像信号)を1フレーム分得る。ここで得られた第1の画像信号をFr1−1と呼ぶ。   Thereafter, the control unit 650 performs processing of the next frame. That is, after performing the process of step S1117, the control unit 650 returns to the process of step S1101 and performs imaging by the first readout operation during the period T1 to T2 shown in FIG. One image signal) is obtained for one frame. The first image signal obtained here is called Fr1-1.

さらに、図13に示す期間T2〜T3の期間においても第1の読み出し動作によって撮像を行ってライブビュー画像を1フレーム分得る。ここで得られた第1の画像信号をFr1−2と呼ぶ。第1の画像信号Fr1−1およびFr1−2はステップS1101〜S1116において処理される。そして、これら第1の画像信号Fr1−1およびFr1−2において得られた注目被写体領域情報は、ステップS117において第2の読み出し動作に反映される。   Furthermore, during the periods T2 to T3 shown in FIG. 13, imaging is performed by the first read operation to obtain one frame of a live view image. The first image signal obtained here is called Fr1-2. The first image signals Fr1-1 and Fr1-2 are processed in steps S1101 to S1116. Then, the object-of-interest area information obtained in the first image signals Fr1-1 and Fr1-2 is reflected in the second readout operation in step S117.

このように、本発明の第2の実施形態では、第1の読み出し動作で得られた第1の画像信号において注目被写体領域を判別する。そして、当該注目被写体領域に応じて第2の読み出し動作を制御する。これによって、所望の画角を有する画像を十分な解像度で切り出して撮像を行うことができる。そして、無駄な画素の読み出しおよび消費電力を抑制することができる。   As described above, in the second embodiment of the present invention, the target subject area is determined in the first image signal obtained in the first read operation. Then, the second read operation is controlled in accordance with the subject area of interest. Thus, an image having a desired angle of view can be cut out at a sufficient resolution to perform imaging. Then, unnecessary pixel readout and power consumption can be suppressed.

なお、注目被写体領域を切り出す際には、注目被写体領域のみを切り出すようにしてもよく、さらには、注目被写体領域を含む所定の範囲の領域を切り出すようにしてもよい。   When cutting out the target subject area, only the target subject area may be cut out, and further, an area within a predetermined range including the target subject area may be cut out.

上述の説明から明らかなように、図1および図8に示す例においては、注目被写体判別部1301および制御部150又は650が判別手段として機能し、制御部150又は650、レンズ制御部121又は611、および撮像素子駆動回路123又は613が制御手段として機能する。また、制御部650および撮像素子駆動回路613は読み出し手段として機能する。   As is apparent from the above description, in the example shown in FIGS. 1 and 8, the object of interest discrimination unit 1301 and the control unit 150 or 650 function as discrimination means, and the control unit 150 or 650, the lens control unit 121 or 611. , And the imaging device drive circuit 123 or 613 function as control means. Further, the control unit 650 and the imaging device driving circuit 613 function as a reading unit.

以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。   As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, The various form of the range which does not deviate from the summary of this invention is also included in this invention .

また、上記の実施の形態の機能を制御方法として、この制御方法を撮像装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを撮像装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。   In addition, the control method may be executed by the imaging apparatus as the control method of the functions of the above-described embodiment. In addition, a program having the functions of the above-described embodiments may be used as a control program to cause a computer included in the imaging apparatus to execute the control program. The control program is recorded, for example, on a computer readable recording medium.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Embodiments
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be implemented by a circuit (eg, an ASIC) that implements one or more functions.

111,121 レンズ制御部
112,122 撮像素子
113,123 撮像素子駆動回路
130 信号処理部
140 圧縮伸長部
150 制御部
170 操作部
180 画像表示部
190 画像記録部
1301 注目被写体判別部
111 and 121 lens control unit 112 and 122 imaging device 113 and 123 imaging device drive circuit 130 signal processing unit 140 compression and decompression unit 150 control unit 170 operation unit 180 image display unit 190 image recording unit 1301 object of interest discrimination unit

Claims (9)

被写体を撮像して画像を出力する撮像素子を備える撮像手段を有する撮像装置であって、
前記撮像素子において、第1の列信号線と接続される第1の画素群からの信号の読み出しを第1の読み出し動作として行って第1の画像を得るとともに、前記第1の列信号線とは物理的に独立して設けられた第2の列信号線と接続され、少なくとも一部の画素群が前記第1の画素群の撮影画角に含まれる、前記第1の画素群と異なる第2の画素群からの信号の読み出しを第2の読み出し動作として前記第1の読み出し動作と並行して行って第2の画像を得る読み出し手段と、
記第1の画像を用いて注目被写体を含む領域を注目被写体領域として判別する判別手段と、
記注目被写体領域に応じて前記読み出し手段を制御して、前記第2の読み出し動作で得られる第2の画像を前記注目被写体を含む画像とする制御手段と、
を有し、
前記第2の画像より前記第1の画像の方が広角で、かつ前記第1の画像における前記注目被写体領域の画素数より、前記第2の画像の画素数の方が多いことを特徴とする撮像装置。
An imaging apparatus having an imaging means comprising an imaging device for outputting the images by imaging an object,
In the image pickup element, readout of a signal from a first pixel group connected to a first column signal line is performed as a first readout operation to obtain a first image, and Is connected to a second column signal line provided physically independently, and at least a part of the pixel group is included in the imaging angle of view of the first pixel group, different from the first pixel group Reading means for obtaining a second image by reading signals from the two pixel groups in parallel with the first reading operation as a second reading operation;
And discriminating means for discriminating an area including the target object using a pre-Symbol first image as a target object region,
By controlling the reading means in accordance with the prior Kichu th subject area, and control means for the second image obtained by the second reading operation and the image containing the target object,
I have a,
The first image is wider than the second image, and the number of pixels of the second image is larger than the number of pixels of the region of interest in the first image. Imaging device.
前記第1の読み出し動作のフレームレートは、前記第2の読み出し動作のフレームレートより高いことを特徴とする請求項1に記載の撮像装置。The imaging device according to claim 1, wherein a frame rate of the first read operation is higher than a frame rate of the second read operation. 前記判別手段は、前記第1の画像において動く被写体の領域を前記注目被写体領域として判別することを特徴とする請求項1又は2に記載の撮像装置。 It said discrimination means, an imaging apparatus according to claim 1 or 2, characterized in that to determine the area of the moving subject Te first image odor as the attention object region. 前記判別手段は、前記第1の画像において人物の領域を前記注目被写体領域として判別することを特徴とする請求項1又は2に記載の撮像装置。 It said discrimination means, an imaging apparatus according to claim 1 or 2, characterized in that to determine the area of a person Te first image odor as the attention object region. 前記判別手段は、前記第1の画像において人物の顔領域を前記注目被写体領域として判別することを特徴とする請求項1又は2に記載の撮像装置。 It said discrimination means, an imaging apparatus according to claim 1 or 2, characterized in that to determine the face area of the first image odor Te person as the target object area. 前記判別手段は、前記第1の画像においてユーザが指定した領域を前記注目被写体領域として判別することを特徴とする請求項1又は2に記載の撮像装置。 It said discriminating means, the imaging device according to user-specified area in the first image to claim 1 or 2, characterized in that to determine as the target object area. 前記制御手段は、前記第1の画像における注目被写体領域のサイズに応じて前記第2の画像を得る際の間引き率を決定することを特徴とする請求項1乃至のいずれか1項に記載の撮像装置。 The control method according to any one of claims 1 to 6 , wherein a thinning rate is determined when obtaining the second image in accordance with the size of a target subject region in the first image. Imaging device. 被写体を撮像して画像を出力する撮像素子を備える撮像手段を有する撮像装置の制御方法であって、
前記撮像素子において、第1の列信号線と接続される第1の画素群からの信号の読み出しを第1の読み出し動作として行って第1の画像を得るとともに、前記第1の列信号線とは物理的に独立して設けられた第2の列信号線と接続され、少なくとも一部の画素群が前記第1の画素群の撮影画角に含まれる、前記第1の画素群と異なる第2の画素群からの信号の読み出しを第2の読み出し動作として前記第1の読み出し動作と並行して行って第2の画像を得る読み出しステップと、
記第1の画像を用いて注目被写体を含む領域を注目被写体領域として判別する判別ステップと、
記注目被写体領域に応じて前記読み出しステップを制御して、前記第2の読み出し動作で得られる第2の画像を前記注目被写体を含む画像とする制御ステップと、
を有し、
前記第2の画像より前記第1の画像の方が広角で、かつ前記第1の画像における前記注目被写体領域の画素数より、前記第2の画像の画素数の方が多いことを特徴とする制御方法。
A method for controlling an imaging apparatus having an imaging means comprising an imaging device for outputting the images by imaging an object,
In the image pickup element, readout of a signal from a first pixel group connected to a first column signal line is performed as a first readout operation to obtain a first image, and Is connected to a second column signal line provided physically independently, and at least a part of the pixel group is included in the imaging angle of view of the first pixel group, different from the first pixel group Reading out a signal from the second pixel group as a second reading operation in parallel with the first reading operation to obtain a second image;
A determining step of determining a region including the target object using a pre-Symbol first image as a target object region,
And controlling the reading step in accordance with the prior Kichu th subject area, and a control step of the second image obtained by the second reading operation and the image containing the target object,
I have a,
The first image is wider than the second image, and the number of pixels of the second image is larger than the number of pixels of the region of interest in the first image. Control method.
被写体を撮像して画像を出力する撮像素子を備える撮像手段を有する撮像装置で用いられる制御プログラムであって、
前記撮像装置が備えるコンピュータに、
前記撮像素子において、第1の列信号線と接続される第1の画素群からの信号の読み出しを第1の読み出し動作として行って第1の画像を得るとともに、前記第1の列信号線とは物理的に独立して設けられた第2の列信号線と接続され、少なくとも一部の画素群が前記第1の画素群の撮影画角に含まれる、前記第1の画素群と異なる第2の画素群からの信号の読み出しを第2の読み出し動作として前記第1の読み出し動作と並行して行って第2の画像を得る読み出しステップと、
記第1の画像を用いて注目被写体を含む領域を注目被写体領域として判別する判別ステップと、
記注目被写体領域に応じて前記読み出しステップを制御して、前記第2の読み出し動作で得られる第2の画像を前記注目被写体を含む画像とする制御ステップと、
を実行させ
前記第2の画像より前記第1の画像の方が広角で、かつ前記第1の画像における前記注目被写体領域の画素数より、前記第2の画像の画素数の方が多いことを特徴とする制御プログラム。
A control program used in an image pickup apparatus having an image pickup means comprising a imaging device for outputting the images by imaging an object,
In a computer provided in the imaging device,
In the image pickup element, readout of a signal from a first pixel group connected to a first column signal line is performed as a first readout operation to obtain a first image, and Is connected to a second column signal line provided physically independently, and at least a part of the pixel group is included in the imaging angle of view of the first pixel group, different from the first pixel group Reading out a signal from the second pixel group as a second reading operation in parallel with the first reading operation to obtain a second image;
A determining step of determining a region including the target object using a pre-Symbol first image as a target object region,
And controlling the reading step in accordance with the prior Kichu th subject area, and a control step of the second image obtained by the second reading operation and the image containing the target object,
Was executed,
The first image is wider than the second image, and the number of pixels of the second image is larger than the number of pixels of the region of interest in the first image. Control program.
JP2015101083A 2015-05-18 2015-05-18 Imaging device, control method therefor, and control program Active JP6521731B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015101083A JP6521731B2 (en) 2015-05-18 2015-05-18 Imaging device, control method therefor, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015101083A JP6521731B2 (en) 2015-05-18 2015-05-18 Imaging device, control method therefor, and control program

Publications (2)

Publication Number Publication Date
JP2016219949A JP2016219949A (en) 2016-12-22
JP6521731B2 true JP6521731B2 (en) 2019-05-29

Family

ID=57581708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015101083A Active JP6521731B2 (en) 2015-05-18 2015-05-18 Imaging device, control method therefor, and control program

Country Status (1)

Country Link
JP (1) JP6521731B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019134202A (en) 2018-01-29 2019-08-08 ソニーセミコンダクタソリューションズ株式会社 Imaging apparatus and control method of image pic-up device
JP2019213020A (en) * 2018-06-04 2019-12-12 ソニーセミコンダクタソリューションズ株式会社 Imaging device and imaging control method
JP7271215B2 (en) * 2019-02-18 2023-05-11 キヤノン株式会社 SYNCHRONIZATION CONTROL DEVICE, SYNCHRONIZATION CONTROL METHOD, AND PROGRAM
JP7279169B2 (en) 2019-08-14 2023-05-22 富士フイルム株式会社 IMAGING DEVICE, METHOD OF OPERATION OF IMAGING DEVICE, AND PROGRAM

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1169342A (en) * 1997-08-22 1999-03-09 Hitachi Denshi Ltd Image processing system for tracking intruding object
JP2005277726A (en) * 2004-03-24 2005-10-06 Toshiba Corp Image monitoring device
JP6375607B2 (en) * 2013-09-30 2018-08-22 株式会社ニコン Electronic device, electronic device control method, and control program

Also Published As

Publication number Publication date
JP2016219949A (en) 2016-12-22

Similar Documents

Publication Publication Date Title
US9392160B2 (en) Circuit and method providing wide dynamic-range operation of auto-focus(AF) focus state sensor elements, digital imaging device, and computer system including same
JP6190184B2 (en) Imaging device, imaging apparatus, control method thereof, and control program
US9538085B2 (en) Method of providing panoramic image and imaging device thereof
US10284800B2 (en) Solid-state image pickup element, method of controlling a solid-state image pickup element, and image pickup apparatus
TW201041377A (en) Display control apparatus, display control method, and program
JP2010136223A (en) Imaging device and imaging method
TW200952472A (en) Image capturing apparatus capable of displaying live preview image
US9185294B2 (en) Image apparatus, image display apparatus and image display method
KR101889932B1 (en) Apparatus and Method for photographing image
JP6521731B2 (en) Imaging device, control method therefor, and control program
US8681235B2 (en) Apparatus for processing digital image signal that obtains still image at desired point in time and method of controlling the apparatus
US20120026381A1 (en) Digital image signal processing method, digital image signal processing apparatus and recording medium having recorded thereon the method
JP6296767B2 (en) Imaging apparatus and image signal processing method
JP6881939B2 (en) Solid-state image sensor, its control method, and image sensor
JP6223160B2 (en) Imaging device, control method thereof, and control program
JP2011166515A (en) Imaging apparatus
US20180139380A1 (en) Image capture device
JP5223950B2 (en) Imaging apparatus, display control program, and display control method
JP2017195642A (en) Image pickup device and image pickup apparatus
JP6448219B2 (en) Imaging apparatus and control method thereof
JP6346417B2 (en) Imaging apparatus, control method thereof, and control program
JP7210172B2 (en) Imaging device and its control method
JP6881940B2 (en) Solid-state image sensor, its control method, and image sensor
JP2017034344A (en) Imaging apparatus and control method therefor
JP2019074640A (en) Imaging apparatus and control method of the same, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190423

R151 Written notification of patent or utility model registration

Ref document number: 6521731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151