JP2020188335A - Imaging apparatus and method for controlling the same - Google Patents

Imaging apparatus and method for controlling the same Download PDF

Info

Publication number
JP2020188335A
JP2020188335A JP2019090649A JP2019090649A JP2020188335A JP 2020188335 A JP2020188335 A JP 2020188335A JP 2019090649 A JP2019090649 A JP 2019090649A JP 2019090649 A JP2019090649 A JP 2019090649A JP 2020188335 A JP2020188335 A JP 2020188335A
Authority
JP
Japan
Prior art keywords
image
frame
moving image
reading
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019090649A
Other languages
Japanese (ja)
Inventor
山崎 勝也
Katsuya Yamazaki
山崎  勝也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019090649A priority Critical patent/JP2020188335A/en
Publication of JP2020188335A publication Critical patent/JP2020188335A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an imaging apparatus capable of acquiring still image data at a higher speed during moving image shooting.SOLUTION: An imaging element 101 receives light from a subject and acquires image data by photoelectric conversion. A discrimination control unit 102 detects that an instruction of still image photographing is generated during acquisition of the moving image, and controls to extend a blanking period in reading of the moving image by changing a reading method of a frame image related to generation of a video file. A moving image determination unit 103 determines the encoding attribute (I, P, B frames) of the frame image of the video file, and stores data of the frame image to which the encoding attribute is added in a frame buffer 104. A moving image generation unit 105 generates a video file from the frame image stored in the frame buffer 104. A still image generation unit 106 generates a still image file using data read out during the extended blanking period.SELECTED DRAWING: Figure 1

Description

本発明は、動画撮影および静止画撮像が可能な撮像装置とその制御方法に関する。特に動画撮影中に静止画撮影の指示が検出された場合に動画生成を適切に行い、且つ静止画生成をより高速に行うことを可能する技術に関するものである。 The present invention relates to an imaging device capable of capturing moving images and capturing still images, and a control method thereof. In particular, the present invention relates to a technique capable of appropriately generating a moving image and generating a still image at a higher speed when an instruction for shooting a still image is detected during movie shooting.

撮像素子から得られる動画像データは、GOP(Group of Picture)と呼ばれる単位で効率よく圧縮される。GOPにてI (Intra picture) フレームと呼ばれるフレーム内圧縮符号化では、他のフレームから独立して符号化および復号化が可能である。高圧縮率の処理はできないものの、高画質の画像データを取得できるという特徴がある。また、P (Predictive Picture) フレームと呼ばれるフレーム間圧縮符号化では、Iフレームからの差分情報を用いることにより、高い圧縮率を達成可能である。反面ではIフレームを参照しないと符号化および復号化ができないという問題もある。B (Bidirectionally Predictive Picture) フレームと呼ばれる前後フレーム間圧縮符号化では、IフレームおよびPフレーム等の前後するフレームからの差分情報を用いる。これにより、Pフレームよりも更に高い圧縮率を達成可能である。しかし前後のフレームを参照しないと符号化および復号化ができないという問題もある。このような符号化および復号化形式は、H.264/MPEG-4 AVCとしてISO/IEC 14496-10「MPEG-4 Part10 Advanced Video Coding」にて規格化されて公知であるため、その詳細な説明を省略する。 The moving image data obtained from the image sensor is efficiently compressed in units called GOP (Group of Picture). In-frame compression coding, called I (Intra picture) frame in GOP, allows coding and decoding independently of other frames. Although it cannot process with a high compression rate, it has the feature of being able to acquire high-quality image data. Further, in the inter-frame compression coding called P (Predictive Picture) frame, a high compression ratio can be achieved by using the difference information from the I frame. On the other hand, there is also a problem that encoding and decoding cannot be performed without referring to the I frame. In the compression coding between the front and rear frames called the B (Bidirectionally Predictive Picture) frame, the difference information from the previous and next frames such as the I frame and the P frame is used. This makes it possible to achieve a higher compression ratio than the P frame. However, there is also a problem that encoding and decoding cannot be performed without referring to the preceding and following frames. Such encoding and decoding formats are standardized and known as H.264 / MPEG-4 AVC in ISO / IEC 14496-10 "MPEG-4 Part 10 Advanced Video Coding", and thus a detailed description thereof will be given. Is omitted.

ところで動画像データ生成方式で動画撮影が行われている際に、静止画撮影を行おうとする場合、静止画撮影期間において動画像データが欠落してブランクが発生するという課題がある。そこで特許文献1では、動画像データ生成中に静止画撮影を行う場合に動画像データの生成を中断することなく静止画像データを生成する撮像装置が開示されている。この撮像装置は撮像素子からの信号を、動画用記憶素子と静止画用記憶素子に保持する。動画用記憶素子から動画用のデータが読出されている際の、動画信号読出しブランキング期間を用いて、静止画用記憶素子から静止画用のデータを読出す制御が行われる。 By the way, when still image shooting is performed when moving image shooting is performed by the moving image data generation method, there is a problem that moving image data is lost during the still image shooting period and a blank occurs. Therefore, Patent Document 1 discloses an imaging device that generates still image data without interrupting the generation of moving image data when still image shooting is performed during the generation of moving image data. This image pickup device holds the signal from the image pickup element in the moving image storage element and the still image storage element. Control is performed to read the still image data from the still image storage element by using the moving image signal reading blanking period when the moving image data is being read from the moving image storage element.

特開2010−4175号公報Japanese Unexamined Patent Publication No. 2010-4175

特許文献1に開示された従来技術では、撮像素子の出力に基づく動画像データの読出し時間に対して、動画像データを読出さない時間、いわゆる動画ブランキング時間が短い。動画ブランキング時間は、撮像素子の出力に基づく静止画像データの読出し時間に割り当てられ、静止画像データを全て読出すためには多くの動画ブランキング時間を必要とする。例えば、60fps(frames per second)での動画像データの読出し中に静止画像データを読出す場合を想定する。20回の動画ブランキング時間を必要とする場合、静止画の高速連写を行えず、静止画連写では3fpsに制限されてしまう。 In the prior art disclosed in Patent Document 1, the time for not reading the moving image data, that is, the so-called moving image blanking time is shorter than the reading time for the moving image data based on the output of the image sensor. The moving image blanking time is allocated to the reading time of the still image data based on the output of the image sensor, and a large amount of moving image blanking time is required to read all the still image data. For example, it is assumed that the still image data is read while the moving image data is read at 60 fps (frames per second). When the moving image blanking time of 20 times is required, high-speed continuous shooting of still images cannot be performed, and the continuous shooting of still images is limited to 3 fps.

動画像データのフレームレートとして、高速なレートが要求される場合(例えば120fps)、1回の動画ブランキング時間はさらに短くなる。静止画像データを全て読出すためには、さらに多い回数分の動画ブランキング時間が必要となる結果、静止画連写がより遅くなる。
本発明の目的は、動画撮影中に静止画像データをより高速に取得することが可能な撮像装置を提供することである。
When a high-speed rate is required as the frame rate of moving image data (for example, 120 fps), one moving image blanking time is further shortened. In order to read all the still image data, a larger number of moving image blanking times are required, and as a result, continuous still image shooting becomes slower.
An object of the present invention is to provide an imaging device capable of acquiring still image data at a higher speed during moving image shooting.

本発明の実施形態の装置は、撮像素子による動画像の取得中に静止画像を取得することが可能な撮像装置であって、前記撮像素子に対して前記動画像に係るフレーム画像の読出し方法を第1の読出し方法に設定して前記フレーム画像の符号化属性を決定するとともに、前記動画像に係るフレーム画像の取得中に静止画撮影の指示が検出された場合、前記動画像に係るフレーム画像の読出し方法を第2の読出し方法に変更する制御手段と、前記符号化属性が付加された前記フレーム画像のデータから動画像データを生成する動画生成手段と、前記制御手段により前記第2の読出し方法に変更された後に、前記撮像素子から取得されるデータを用いて静止画像データを生成する静止画生成手段と、を備える。前記制御手段は、前記第2の読出し方法として、前記第1の読出し方法に比べて前記動画像データの生成に係るフレーム画像の画素数を低減させた方法を決定することにより、前記動画像の読出しにおけるブランキング期間を拡大する制御を行い、前記静止画生成手段は前記ブランキング期間に読出されるデータから前記静止画像データを生成する。 The apparatus of the embodiment of the present invention is an imaging device capable of acquiring a still image while acquiring a moving image by the imaging element, and a method of reading a frame image related to the moving image from the imaging element. When the coding attribute of the frame image is determined by setting to the first reading method and an instruction for still image shooting is detected during acquisition of the frame image related to the moving image, the frame image related to the moving image is detected. A control means for changing the reading method of the above to a second reading method, a moving image generating means for generating moving image data from the data of the frame image to which the coding attribute is added, and the second reading by the control means. A still image generation means for generating still image data using the data acquired from the imaging element after the method is changed. The control means determines, as the second reading method, a method in which the number of pixels of the frame image related to the generation of the moving image data is reduced as compared with the first reading method. Control is performed to extend the blanking period in the reading, and the still image generating means generates the still image data from the data read in the blanking period.

本発明によれば、動画撮影中に静止画像データをより高速に取得することが可能な撮像装置を提供することができる。 According to the present invention, it is possible to provide an imaging device capable of acquiring still image data at a higher speed during moving image shooting.

本発明の実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image pickup apparatus which concerns on embodiment of this invention. 実施形態の撮像素子の構成を示す模式図である。It is a schematic diagram which shows the structure of the image sensor of an embodiment. 画素群および列アンプ・ADCを示す模式図である。It is a schematic diagram which shows a pixel group and a column amplifier / ADC. 1つの画素の構成を示す回路図である。It is a circuit diagram which shows the structure of one pixel. 標準的な動画ファイルの生成方法を説明するフローチャートである。It is a flowchart explaining the generation method of a standard moving image file. 標準的な動画ファイルの生成方法を説明するタイミングチャートである。It is a timing chart explaining the generation method of a standard moving image file. 図4の画素構成に対応する詳細な制御を説明するタイミングチャートである。It is a timing chart explaining the detailed control corresponding to the pixel configuration of FIG. 第1から第3の実施形態の処理を説明するフローチャートである。It is a flowchart explaining the process of 1st to 3rd Embodiment. 第1実施形態の処理を説明するタイミングチャートである。It is a timing chart explaining the process of 1st Embodiment. 第2実施形態の処理を説明するタイミングチャートである。It is a timing chart explaining the process of 2nd Embodiment. 第3実施形態の処理を説明するタイミングチャートである。It is a timing chart explaining the processing of 3rd Embodiment.

以下に、本発明の好ましい実施形態を、添付図面に基づいて詳細に説明する。動画撮影中に静止画撮影指示が検出された場合に動画像データの生成を適切に行い、静止画像データの読出しを高速に行うことが可能な撮像装置の例を示す。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. An example of an imaging device capable of appropriately generating moving image data and reading still image data at high speed when a still image shooting instruction is detected during movie shooting is shown.

図1は、本実施形態にかかわる動画および静止画の撮像が可能な撮像装置100の主たる構成要素を示すブロック図である。撮像素子101は、不図示の撮像光学系によって結像される被写体からの光を受光し、光電変換によって電気信号を出力する。撮像素子101にはCCD(電荷結合素子)型イメージセンサ、CMOS(相補型金属酸化膜半導体)型イメージセンサ等が適用され、被写体の光像に対して、受光感度に応じた画像信号を出力する。撮像素子101の駆動方式としては、撮像素子101の一括露光を行って記憶素子に信号電荷を一時的に記憶させてから順次読出しを行う、グローバルシャッター方式がある。また、撮像素子101を一行もしくは複数行、または一列もしくは複数列ごとに露光を行って記憶素子に信号電荷を一時的に記憶させてから順次読出しを行う、スリットローリング方式がある。本実施形態ではグローバルシャッター方式を適用した例を示す。 FIG. 1 is a block diagram showing a main component of an image pickup apparatus 100 capable of capturing moving images and still images according to the present embodiment. The image sensor 101 receives light from a subject imaged by an image pickup optical system (not shown) and outputs an electric signal by photoelectric conversion. A CCD (charge coupling element) type image sensor, a CMOS (complementary metal oxide semiconductor) type image sensor, or the like is applied to the image pickup device 101, and an image signal corresponding to the light receiving sensitivity is output to the light image of the subject. .. As a driving method of the image pickup device 101, there is a global shutter method in which the image pickup device 101 is collectively exposed, the signal charge is temporarily stored in the storage element, and then the signal charges are sequentially read out. Further, there is a slit rolling method in which the image sensor 101 is exposed in one row or a plurality of rows, or one row or a plurality of columns, the signal charge is temporarily stored in the storage element, and then the signal charges are sequentially read out. In this embodiment, an example in which the global shutter method is applied is shown.

判別制御部102は、動画撮影条件であるフレーム画素サイズや、単位時間あたりのフレーム画像枚数等の条件を制御する。例えば一般的なHDTV(High definition Television)では、フレーム画像サイズとして水平画素数が1920で垂直画素数が1080であり、1秒間のフレーム画像枚数が30fpsまたは60fpsに対応する数である。判別制御部102は撮像素子101に対して、垂直同期信号(VSYNC:Vertical Synchronizing signal)108と水平同期信号(HSYNC:Horizontal Synchronizing signal)を出力する。例えば、HDTVでの動画撮影が行われる場合、VSYNC108は1秒間に30または60のパルスとして撮像素子101に出力され、HSYNC109は1080のパルスとして出力される。これにより、判別制御部102は撮像素子101を用いた動画撮影の開始および停止の制御を行う。 The discrimination control unit 102 controls conditions such as the frame pixel size, which is a moving image shooting condition, and the number of frame images per unit time. For example, in a general HDTV (High definition Television), the number of horizontal pixels is 1920 and the number of vertical pixels is 1080 as the frame image size, and the number of frame images per second is a number corresponding to 30 fps or 60 fps. The discrimination control unit 102 outputs a vertical synchronization signal (VSYNC: Vertical Synchronizing signal) 108 and a horizontal synchronization signal (HSYNC: Horizontal Synchronizing signal) to the image sensor 101. For example, when video recording is performed on an HDTV, VSYNC 108 is output to the image sensor 101 as a pulse of 30 or 60 per second, and HSYNC 109 is output as a pulse of 1080. As a result, the discrimination control unit 102 controls the start and stop of moving image shooting using the image sensor 101.

また判別制御部102は、静止画撮影条件、例えば静止画サイズ、静止画解像度やシャッター速度等の条件を制御する。判別制御部102は撮像素子101に対するVSYNC108およびHSYNC109を、静止画撮影条件に基づいて変更することで、撮像素子101による静止画撮影の開始および停止の制御を行う。判別制御部102は、動画撮影中に静止画撮影の開始指示が発生したか否かを判別する。判別結果に応じて、VSYNC108およびHSYNC109のリセット制御等が行われ、動画撮影中に静止画撮影が可能となる。 Further, the discrimination control unit 102 controls still image shooting conditions such as still image size, still image resolution, shutter speed, and the like. The discrimination control unit 102 controls the start and stop of still image shooting by the image sensor 101 by changing VSYNC 108 and HSYNC 109 for the image sensor 101 based on the still image shooting conditions. The discrimination control unit 102 determines whether or not a start instruction for still image shooting has been generated during movie shooting. Depending on the determination result, reset control of VSYNC 108 and HSYNC 109 is performed, and still image shooting becomes possible during moving image shooting.

動画像判別部103は、撮像素子101の出力に基づくフレーム画像信号を順次に取得し、フレーム画像信号に対する圧縮方式の判別を行う。つまり、フレーム内圧縮符号とするべきか、フレーム間予測圧縮符号とするべきかが判別され、最適な情報量の動画ファイルを構成することができる。動画像判別部103は、判別制御部102により動画撮影中に静止画撮影の開始指示が検出された場合にも、動画ファイルのフレーム画像信号に対する圧縮方式の判別を行う。動画ファイルのフレーム画像信号に対して、規定のフレーム内圧縮符号、またはフレーム間予測圧縮符号のどちらにするべきかが判別され、最適な情報量の動画ファイルを構成することができる。 The moving image discrimination unit 103 sequentially acquires the frame image signals based on the output of the image pickup device 101, and discriminates the compression method for the frame image signals. That is, it is determined whether the in-frame compression code or the inter-frame prediction compression code should be used, and a moving image file having an optimum amount of information can be constructed. The moving image discrimination unit 103 discriminates the compression method for the frame image signal of the moving image file even when the discriminating control unit 102 detects a start instruction for still image shooting during the moving image shooting. With respect to the frame image signal of the moving image file, it is determined whether to use the specified in-frame compression code or the inter-frame prediction compression code, and the moving image file having the optimum amount of information can be configured.

フレームバッファ104は、動画像判別部103の指示にしたがって撮像素子101から得られたフレーム画像信号を記憶可能な記憶装置であり、複数のフレームの画像信号を記憶保持する。動画生成部105は、動画像判別部103の指示に基づいてフレームバッファ104に記憶されているフレーム画像信号を取得して動画ファイルを生成する。例えば、ISO/IEC 14496-10「MPEG-4 Part10 Advanced Video Coding」による圧縮方式を適用して、動画ファイルを構成するIフレーム、Pフレーム、およびBフレームからなるGOPの生成処理が行われる。 The frame buffer 104 is a storage device capable of storing the frame image signal obtained from the image pickup device 101 according to the instruction of the moving image discrimination unit 103, and stores and holds the image signals of a plurality of frames. The moving image generation unit 105 acquires the frame image signal stored in the frame buffer 104 based on the instruction of the moving image discrimination unit 103, and generates a moving image file. For example, a compression method based on ISO / IEC 14496-10 "MPEG-4 Part10 Advanced Video Coding" is applied to generate a GOP consisting of I frames, P frames, and B frames that compose a video file.

静止画生成部106は、撮像素子101の出力に基づくフレーム画像信号から静止画ファイルを生成する。例えば、ISO/IEC 10918-1「Joint Photographic Experts Group」による圧縮方式を適用して、静止画ファイルの生成が行われる。 The still image generation unit 106 generates a still image file from a frame image signal based on the output of the image sensor 101. For example, a still image file is generated by applying a compression method by ISO / IEC 10918-1 "Joint Photographic Experts Group".

記録メディア107は、動画生成部105および静止画生成部106によってそれぞれ生成された、動画ファイルおよび静止画ファイルのデータを記録する。データを保存する記録メディア107については任意の記録デバイスを使用可能である。 The recording medium 107 records the data of the moving image file and the still image file generated by the moving image generation unit 105 and the still image generating unit 106, respectively. Any recording device can be used for the recording medium 107 for storing data.

図2は、撮像素子101の主たる構成を示す模式図である。画素群201は複数の単位画素により画素アレイを構成する。単位画素は単数または複数のフォトダイオード(以下、PDとも記す)と、該フォトダイオードの出力を記憶する記憶素子等を備える。PDは被写体からの光を受光し、その受光感度に応じた画素信号を出力する光電変換部を構成する。 FIG. 2 is a schematic view showing a main configuration of the image sensor 101. The pixel group 201 constitutes a pixel array with a plurality of unit pixels. A unit pixel includes a single or a plurality of photodiodes (hereinafter, also referred to as PD), a storage element for storing the output of the photodiode, and the like. The PD constitutes a photoelectric conversion unit that receives light from a subject and outputs a pixel signal according to the light receiving sensitivity.

タイミング制御回路202は、画素群201の動作タイミング、および列アンプ・ADC(アナログ・デジタル変換器)203、センサ出力部204等の動作タイミングを制御する。タイミング制御回路202は、VSYNC(108)およびHSYNC(109)等の信号に基づいて動作タイミングの制御を行う。 The timing control circuit 202 controls the operation timing of the pixel group 201 and the operation timing of the column amplifier / ADC (analog / digital converter) 203, the sensor output unit 204, and the like. The timing control circuit 202 controls the operation timing based on signals such as VSYNC (108) and HSYNC (109).

列アンプ・ADC203は、画素群201から行ごとに信号の読出しが行われた後に、アナログ・デジタル変換を行う。更に列アンプ・ADC203は、画素群201の複数列または複数行の信号を加算して読出してAD変換処理を行う機能を有する。センサ出力部204は、列アンプ・ADC203によってデジタル化された信号を、動画像判別部103および静止画生成部106にフレーム画像信号として出力する。 The column amplifier / ADC 203 performs analog-to-digital conversion after reading a signal from the pixel group 201 row by row. Further, the column amplifier / ADC 203 has a function of adding and reading signals of a plurality of columns or a plurality of rows of the pixel group 201 to perform AD conversion processing. The sensor output unit 204 outputs the signal digitized by the column amplifier ADC 203 to the moving image discrimination unit 103 and the still image generation unit 106 as a frame image signal.

図3は、画素群201の一部を、8行8列の範囲で模式的に示す図である。一般的な静止画像としては、縦横のアスペクト比が2:3である。廉価な動画および静止画撮像装置では総画素数が約2400万(縦4000画素×横6000画素)程度であり、高価な動画および静止画撮像装置では総画素数が約5000万(縦5800画素×横8600画素)程度である。本実施形態では、後者(水平画素数8600×垂直画素数5800)の総画素数とする。 FIG. 3 is a diagram schematically showing a part of the pixel group 201 in the range of 8 rows and 8 columns. As a general still image, the aspect ratio of aspect ratio is 2: 3. Inexpensive video and still image imagers have a total pixel count of about 24 million (length 4000 pixels x width 6000 pixels), and expensive video and still image imagers have a total pixel count of about 50 million (length 5800 pixels x). It is about 8600 pixels in width). In the present embodiment, the total number of pixels of the latter (horizontal pixel number 8600 × vertical pixel number 5800) is used.

図3に示す画素301は画素群201を構成し、各々が列ごとに垂直読出信号線VL_n(302)に接続されている。VL_nは第n列に対応する垂直読出信号線を表し、例えば第1列目の画素301はVL_1(302)(Vertical Line 1)に接続され、第2列目の画素301はVL_2(302)に接続されている。なお、VL_1〜VL_nについては基本機能が同一であるため同じ符号302を付記している。 The pixels 301 shown in FIG. 3 form a pixel group 201, and each of them is connected to the vertical read signal line VL_n (302) for each row. VL_n represents the vertical read signal line corresponding to the nth column. For example, the pixel 301 in the first column is connected to VL_1 (302) (Vertical Line 1), and the pixel 301 in the second column is connected to VL_2 (302). It is connected. Since the basic functions of VL_1 to VL_n are the same, the same reference numerals 302 are added.

また画素301は、各々が行ごとに行選択信号線HL_SEL_m(303)に接続されている。HL_SEL_mは第m行に対応する行選択信号線を表し、例えば第1行目の画素301はHL_SEL_1(303)(Horizontal Line Select 1)に接続され、第2行目の画素301はHL_SEL_2(303)に接続されている。なお、HL_SEL_1〜HL_SEL_mについては基本機能が同一であるため同じ符号303を付記している。 Further, each of the pixels 301 is connected to the line selection signal line HL_SEL_m (303) line by line. HL_SEL_m represents a line selection signal line corresponding to the mth line. For example, pixel 301 in the first line is connected to HL_SEL_1 (303) (Horizontal Line Select 1), and pixel 301 in the second line is HL_SEL_2 (303). It is connected to the. Since the basic functions of HL_SEL_1 to HL_SEL_m are the same, the same reference numeral 303 is added.

一例として、HL_SEL_1(303)が選択された場合を説明すると、画素群201の第1行目の画素の信号が垂直読出信号線VL_1(302)〜VL_n(302)に読出される。列アンプ・ADC203は読出された信号を、デジタル化された信号に変換する。また、HL_SEL_m(303)により、画素群201の第m行目の画素の信号が垂直読出信号線VL_1(302)〜VL_n(302)に読出された状態では、列アンプ・ADC203が複数列の垂直読出信号線からの信号を加算してデジタル化する。つまり、複数の列信号を加算して変換する水平加算機能が実現される。 As an example, when HL_SEL_1 (303) is selected, the signal of the first line of the pixel group 201 is read by the vertical read signal lines VL_1 (302) to VL_n (302). The column amplifier / ADC 203 converts the read signal into a digitized signal. Further, in the state where the signal of the pixel in the mth row of the pixel group 201 is read by the HL_SEL_m (303) to the vertical read signal lines VL_1 (302) to VL_n (302), the column amplifier ADC203 has a plurality of columns vertically. The signal from the read signal line is added and digitized. That is, a horizontal addition function that adds and converts a plurality of column signals is realized.

更には、複数のHL_SEL_m(303)を同時に制御することにより、画素群201における複数行の画素の信号が、垂直読出信号線VL_1(302)〜VL_n(302)に加算して読出される。この状態で列アンプ・ADC203により垂直読出信号線からの信号をデジタル化された信号に変換する垂直加算機能が実現される。画素301はそれぞれ、後述する動作制御用の各種の制御信号線にも接続されている。 Further, by controlling a plurality of HL_SEL_m (303) at the same time, the signals of the pixels of the plurality of lines in the pixel group 201 are added to the vertical read signal lines VL_1 (302) to VL_n (302) and read. In this state, the column amplifier ADC203 realizes a vertical addition function that converts a signal from the vertical read signal line into a digitized signal. Each of the pixels 301 is also connected to various control signal lines for operation control, which will be described later.

図4は、1つの画素301の構成例を示す回路図である。画素301が備えるPD401に被写体からの光が入射すると、その受光感度に応じた電気信号への光電変換が行われる。MOV_MEM402はPD401の電気信号を動画用信号として記憶する記憶素子であり、転送トランジスタTr1を介してPD401と繋がっている。STL_MEM403はPD401の電気信号を静止画用信号として記憶する記憶素子であり、転送トランジスタTr2を介してPD401と繋がっている。 FIG. 4 is a circuit diagram showing a configuration example of one pixel 301. When light from the subject is incident on the PD 401 included in the pixel 301, photoelectric conversion into an electric signal is performed according to the light receiving sensitivity. MOV_MEM402 is a storage element that stores the electrical signal of PD401 as a moving image signal, and is connected to PD401 via a transfer transistor Tr1. The STL_MEM403 is a storage element that stores the electrical signal of the PD401 as a still image signal, and is connected to the PD401 via a transfer transistor Tr2.

PD401とMOV_MEM402との間に設けられた転送トランジスタTr1は、信号転送信号TX_MOV_PM(404)で制御することにより、PD401の電気信号をMOV_MEM402に転送し、動画用信号が記憶される。 The transfer transistor Tr1 provided between PD401 and MOV_MEM402 transfers the electric signal of PD401 to MOV_MEM402 by controlling with the signal transfer signal TX_MOV_PM (404), and the moving image signal is stored.

転送トランジスタTr3は、MOV_MEM402と出力用のフローティングディフュージョン(以下、FDと略記する)部408との間に設けられている。転送トランジスタTr3は、信号転送信号TX_MOV_MF(405)で制御することにより、MOV_MEM402に保持された動画用信号をFD部408へ転送する。 The transfer transistor Tr3 is provided between MOV_MEM402 and a floating diffusion (hereinafter abbreviated as FD) unit 408 for output. The transfer transistor Tr3 transfers the moving image signal held in the MOV_MEM402 to the FD unit 408 by controlling it with the signal transfer signal TX_MOV_MF (405).

同様に、PD401とSTL_MEM403との間に設けられた転送トランジスタTr2は、信号転送信号TX_STL_PM(406)で制御することにより、PD401の電気信号をSTL_MEM403に転送し、静止画用信号が記憶される。転送トランジスタTr4は、STL_MEM403とFD部408との間に設けられている。転送トランジスタTr4は、信号転送信号TX_STL_MF(407)で制御することにより、STL_MEM403に保持された静止画用信号をFD部408へ転送する。 Similarly, the transfer transistor Tr2 provided between the PD401 and the STL_MEM403 transfers the electrical signal of the PD401 to the STL_MEM403 by controlling with the signal transfer signal TX_STL_PM (406), and the still image signal is stored. The transfer transistor Tr4 is provided between the STL_MEM403 and the FD unit 408. The transfer transistor Tr4 transfers the still image signal held in the STL_MEM403 to the FD unit 408 by controlling it with the signal transfer signal TX_STL_MF (407).

信号転送信号TX_MOV_MF(405)、または信号転送信号TX_STL_MF(407)によってFD部408へ転送された信号は、トランジスタTr5,Tr6を介して出力される。トランジスタTr5は増幅トランジスタであり、そのゲートがFD部408に接続されている。トランジスタTr6は選択トランジスタであり、行選択信号HL_SEL_m(303)により垂直読出信号VL_n(302)に動画用信号または静止画用信号を出力する。 The signal transferred to the FD unit 408 by the signal transfer signal TX_MOV_MF (405) or the signal transfer signal TX_STL_MF (407) is output via the transistors Tr5 and Tr6. The transistor Tr5 is an amplification transistor, and its gate is connected to the FD unit 408. The transistor Tr6 is a selection transistor, and outputs a moving image signal or a still image signal to the vertical read signal VL_n (302) by the row selection signal HL_SEL_m (303).

トランジスタTr7,Tr8は、PD401,FD部408を初期化電位にするためのリセットトランジスタである。これらは被写体に応じた電気信号および、動画用信号と静止画用信号を取得する前にリセット信号RES(409)により初期化を行う。トランジスタTr5,Tr7,Tr8は電圧VCCの電源線に接続されており、それぞれの制御信号によりスイッチング動作が行われる。 The transistors Tr7 and Tr8 are reset transistors for setting the PD401 and FD unit 408 to the initialization potential. These are initialized by the reset signal RES (409) before acquiring the electric signal according to the subject and the moving image signal and the still image signal. The transistors Tr5, Tr7, and Tr8 are connected to a power supply line having a voltage of VCC, and a switching operation is performed by their respective control signals.

次に図1から図4を参照しつつ、図5から図7を用いて、標準的な動画ファイルの生成処理について説明する。図5は処理方法を説明するフローチャートであり、図6と図7は処理例を示すタイミングチャートである。本実施形態の画素群201は総画素数が約5000万(水平画素数8600×垂直画素数5800)である。全画素のうち、所定画素数(水平画素数1920×垂直画素数1080)の画素から、量子化ビット数が12Bitであって、1秒間のフレーム数が60fpsに対応する動画ファイルを生成する処理例を説明する。ただし、画素数およびフレーム数等は例示であって、本例に限定されるものではない。 Next, a standard moving image file generation process will be described with reference to FIGS. 1 to 4 and FIGS. 5 to 7. FIG. 5 is a flowchart for explaining the processing method, and FIGS. 6 and 7 are timing charts showing processing examples. The pixel group 201 of the present embodiment has a total number of pixels of about 50 million (horizontal pixel number 8600 × vertical pixel number 5800). A processing example of generating a moving image file having a quantization bit rate of 12 bits and a frame number of 1 second corresponding to 60 fps from pixels having a predetermined number of pixels (horizontal pixel number 1920 x vertical pixel number 1080) among all pixels. Will be explained. However, the number of pixels, the number of frames, and the like are examples and are not limited to this example.

動画信号の読出し方法を、下記に示す。
・第1の動画信号読出し方法
例えば水平方向での4画素および垂直方向での4画素の各信号を加算して読出す方法である。この加算読出しでは、画素群201のうち、所定画素数(水平画素数7920×垂直画素数4320)の画素群に被写体からの光が照射されると、各PDの受光感度に応じた電気信号が出力される。水平方向および垂直方向にてそれぞれ信号が加算されることで、低減された画素数(水平画素数1920×垂直画素数1080)の画素信号を動画信号に利用することができる。
The method of reading the moving image signal is shown below.
-First moving image signal reading method For example, it is a method of adding and reading each signal of 4 pixels in the horizontal direction and 4 pixels in the vertical direction. In this addition reading, when light from the subject is applied to a pixel group having a predetermined number of pixels (horizontal pixel number 7920 x vertical pixel number 4320) among the pixel group 201, an electric signal corresponding to the light receiving sensitivity of each PD is generated. It is output. By adding signals in the horizontal direction and the vertical direction, respectively, a pixel signal with a reduced number of pixels (horizontal pixel number 1920 x vertical pixel number 1080) can be used as a moving image signal.

・第2の動画信号読出し方法
例えば水平方向での4画素ごと、および垂直方向での4画素ごとに一画素のみの信号を読出す方法である。この間引き読出しでは、画素群201のうち、所定画素数(水平画素数7920×垂直画素数4320)の画素に対して被写体からの光が照射される。水平4画素および垂直4画素ごとに離散した画素群の各PDから受光感度に応じた電気信号が出力され、低減された画素数(水平画素数1920×垂直画素数1080)の画素信号を動画信号に利用することができる。
-Second moving image signal reading method For example, it is a method of reading a signal of only one pixel for every four pixels in the horizontal direction and every four pixels in the vertical direction. In this thinning-out reading, light from the subject is applied to pixels having a predetermined number of pixels (horizontal number of pixels 7920 x vertical number of pixels 4320) among the pixel group 201. An electric signal corresponding to the light receiving sensitivity is output from each PD of the pixel group discrete for each of the horizontal 4 pixels and the vertical 4 pixels, and the pixel signal with the reduced number of pixels (horizontal pixel number 1920 x vertical pixel number 1080) is a moving image signal. Can be used for.

・第3の動画信号読出し方法
この方法は非加算読出しである。例えば、画素群201のうち、画面中央部分に該当する所定画素数(水平画素数1920×垂直画素数1080)の画素に被写体からの光が照射される。各PDの受光感度に応じた電気信号が出力され、動画信号に利用することができる。
-Third moving image signal reading method This method is uncountable reading. For example, in the pixel group 201, light from the subject is irradiated to pixels having a predetermined number of pixels (horizontal pixel number 1920 × vertical pixel number 1080) corresponding to the central portion of the screen. An electric signal corresponding to the light receiving sensitivity of each PD is output and can be used as a moving image signal.

第1の動画信号読出し方法(加算読出し)では、水平4画素および垂直4画素の16画素分を1画素に相当する動画用信号として扱うので、高感度撮影には適するが、全体的に画像の明瞭度が低くなるという側面をもつ。加算読出しにより取得された画像データには拡大処理が施される。所定の解像度が得られない場合、Iフレーム(フレーム内圧縮符号化)の適用から除外される。 In the first moving image signal reading method (additional reading), 16 pixels of 4 horizontal pixels and 4 vertical pixels are treated as a moving image signal corresponding to 1 pixel, so that it is suitable for high-sensitivity shooting, but the image as a whole is It has the aspect of low clarity. The image data acquired by the additive reading is enlarged. If a given resolution cannot be obtained, it is excluded from the application of I-frame (in-frame compression coding).

第2の動画信号読出し方法(間引き読出し)は、水平4画素および垂直4画素ごとの、16分の1の画素信号のみを動画用信号として扱うので、高感度撮影には適さず、読出さない画素の分だけ全体的に画像の解像度が低下する。しかし、第1の動画信号読出し方法よりも信号読出しは簡潔である。 The second moving image signal reading method (thinning-out reading) treats only 1/16 pixel signal for every 4 horizontal pixels and 4 vertical pixels as a moving image signal, so it is not suitable for high-sensitivity shooting and is not read. The overall image resolution is reduced by the number of pixels. However, the signal reading is simpler than the first moving image signal reading method.

第3の動画信号読出し方法(非加算読出し)は、1画素ごとに動画信号を扱うので、高感度撮影には適さないが、全体的に画像が明瞭になるという側面をもつ。画素群201のうち、画面中央部分の画素しか使用しないので、画素群201の画角と、得られる動画像の画角とが一致しない。一方で、第1および第2の動画信号読出し方法と比べて、信号読出しはより簡潔である。 The third moving image signal reading method (non-additive reading) handles the moving image signal for each pixel, and is not suitable for high-sensitivity shooting, but has an aspect that the image becomes clear as a whole. Since only the pixel in the center of the screen is used in the pixel group 201, the angle of view of the pixel group 201 and the angle of view of the obtained moving image do not match. On the other hand, the signal reading is simpler than the first and second moving image signal reading methods.

本発明の適用上、動画ファイルの生成方法においては、加算読出し、間引き読出し、非加算読出しの何れでもよい。本実施形態の例では、第1の動画信号読出し方法(加算読出し)を前提として説明する。 For the purpose of applying the present invention, in the method of generating a moving image file, any of additive reading, thinning reading, and non-additive reading may be used. In the example of this embodiment, the first moving image signal reading method (additional reading) will be described as a premise.

図5、図6を参照して、標準的な動画ファイルの生成方法について詳述する。図6では、動画生成部105が生成する動画ファイルのフレーム画像の一例を示す。1つのIフレーム画像、1つのPフレーム画像、および2つのBフレーム画像の合計4フレーム画像が、1つのGOPを構成する場合を図示している。VSYNC(108)は、動画ファイルの各々のフレーム画像の始まりを示す同期信号であり、1秒間当たりに生成される動画ファイルのフレーム画像数に相当する。判別制御部102はVSYNC(108)を撮像素子101に出力する。本実施形態ではVSYNC(108)の周期を、HDTVのフレームレート60fpsに対応する周期として扱う。HSYNC(109)は、フレーム画像内における各々の水平ラインの始まりを示す同期信号であり、フレーム画像の垂直解像度に相当する。判別制御部102はHSYNC(109)を撮像素子101に出力する。本実施形態のHSYNC(109)は、HDTVの場合の垂直画素数1080に対応する信号である。 A standard method for generating a moving image file will be described in detail with reference to FIGS. 5 and 6. FIG. 6 shows an example of a frame image of a moving image file generated by the moving image generation unit 105. The case where one I frame image, one P frame image, and two B frame images, a total of four frame images, constitutes one GOP is illustrated. VSYNC (108) is a synchronization signal indicating the start of each frame image of the moving image file, and corresponds to the number of frame images of the moving image file generated per second. The discrimination control unit 102 outputs VSYNC (108) to the image sensor 101. In this embodiment, the cycle of VSYNC (108) is treated as a cycle corresponding to the frame rate of 60 fps of HDTV. HSYNC (109) is a synchronization signal indicating the beginning of each horizontal line in the frame image, and corresponds to the vertical resolution of the frame image. The discrimination control unit 102 outputs HSYNC (109) to the image sensor 101. HSYNC (109) of this embodiment is a signal corresponding to the number of vertical pixels 1080 in the case of HDTV.

図6のMOV_MEM(402)には、撮像素子101の一括露光を行って一時的に信号を記憶してから順次読出しを行うグローバルシャッター方式の動作を示している。各々の動画フレームは、VSYNC(108)に同期して更新される。HSYNC(109)の下には信号TX_MOV_PM(404)およびTX_MOV_MF(405)を示す。なお、その他の記号は図4にて説明済である。図6の詳細については、図7を用いて後述する。 MOV_MEM (402) in FIG. 6 shows the operation of the global shutter system in which the image sensor 101 is collectively exposed, the signal is temporarily stored, and then the signals are sequentially read out. Each video frame is updated in sync with VSYNC (108). Below HSYNC (109) are the signals TX_MOV_PM (404) and TX_MOV_MF (405). The other symbols have already been explained in FIG. The details of FIG. 6 will be described later with reference to FIG. 7.

図5のフローチャートにおいて、先ず判別制御部102で動画撮影条件および静止画撮影条件が設定される(STEP501)。例えば、動画撮影条件として1秒間のフレーム画像数が60に設定される。次に、判別制御部102は動画撮影の開始指示が発生したかどうかを判定する(STEP502)。動画撮影の開始指示が発生したと判定された場合、STEP503の処理へ進むが、動画撮影の開始指示が発生しない間はSTEP502の判定処理が繰り返し行われる。 In the flowchart of FIG. 5, first, the determination control unit 102 sets the moving image shooting condition and the still image shooting condition (STEP 501). For example, the number of frame images per second is set to 60 as a moving image shooting condition. Next, the discrimination control unit 102 determines whether or not an instruction to start moving image shooting has occurred (STEP 502). If it is determined that the movie shooting start instruction has been generated, the process proceeds to STEP503, but the STEP502 determination process is repeated while the movie shooting start instruction is not generated.

STEP503では、同期信号(VSYNCおよびHSYNC)に基づいて、撮像素子101からフレーム画像が取得される。1つのIフレーム画像、1つのPフレーム画像、および2つのBフレーム画像の合計4フレーム画像が1つのGOPを構成している。動画像判別部103はフレーム画像にフレーム属性を持たせて、属性データを付加してフレームバッファ104にデータを順次記憶していく(STEP504)。この場合のフレーム属性は符号化属性、つまりフレーム画像のデータをどのような圧縮方式で符号化処理するかを表す。本実施形態ではフレーム属性としてI,P,Bを例示する。符号化属性データはフレーム内圧縮処理での符号化、フレーム間圧縮処理での符号化等、フレームに応じて異なる属性を表す。ただし、これは符号化属性の一例であり、本発明はフレームに応じてフレーム間予測や補完等の各種方式で処理を行う実施形態に適用可能である。フレームバッファ104に記憶されたフレーム画像のデータは、動画像判別部103によるフレーム属性のデータに基づいて処理される。 In STEP503, a frame image is acquired from the image sensor 101 based on the synchronization signals (VSYNC and HSYNC). A total of four frame images, one I frame image, one P frame image, and two B frame images, constitutes one GOP. The moving image discrimination unit 103 gives a frame attribute to the frame image, adds the attribute data, and sequentially stores the data in the frame buffer 104 (STEP 504). The frame attribute in this case represents a coding attribute, that is, what kind of compression method is used to encode the frame image data. In this embodiment, I, P, and B are exemplified as frame attributes. The coded attribute data represents different attributes depending on the frame, such as coding in the intra-frame compression process and coding in the inter-frame compression process. However, this is an example of a coding attribute, and the present invention can be applied to an embodiment in which processing is performed by various methods such as inter-frame prediction and complementation according to frames. The frame image data stored in the frame buffer 104 is processed based on the frame attribute data by the moving image discrimination unit 103.

次に、動画生成部105は動画圧縮符号化の処理を実行する(STEP505)。I(Intra picture)フレームと判別されたフレーム画像の場合、動画生成部105はフレーム内圧縮処理を実行する。つまり、他のフレームから独立して符号化および復号化が可能なIフレームに係るフレーム内圧縮符号化の処理が行われる。また、P(Predictive Picture)フレームと判別されたフレーム画像の場合、動画生成部105はIフレームからの差分情報を用いて高い圧縮率を達成するPフレームに係るフレーム間圧縮符号化の処理を行う。B(Bidirectionally Predictive Picture)フレームと判別されたフレーム画像の場合、動画生成部105はフレーム間圧縮処理を行う。つまり、IフレームおよびPフレームからの差分情報を用いて高い圧縮率を達成するBフレームに係る前後フレーム間圧縮符号化の処理が実行される。こうして動画生成部105により生成された動画ファイルのデータは記録メディア107に保存される(STEP506)。 Next, the moving image generation unit 105 executes a moving image compression coding process (STEP 505). In the case of a frame image determined to be an I (Intra picture) frame, the moving image generation unit 105 executes an in-frame compression process. That is, the in-frame compression coding process for the I frame, which can be encoded and decoded independently of other frames, is performed. Further, in the case of a frame image determined to be a P (Predictive Picture) frame, the moving image generation unit 105 performs inter-frame compression coding processing related to the P frame that achieves a high compression rate by using the difference information from the I frame. .. In the case of a frame image determined to be a B (Bidirectionally Predictive Picture) frame, the moving image generation unit 105 performs inter-frame compression processing. That is, the processing of the compression coding between the previous and next frames related to the B frame that achieves a high compression rate by using the difference information from the I frame and the P frame is executed. The data of the moving image file thus generated by the moving image generation unit 105 is stored in the recording medium 107 (STEP 506).

図7は、図6に示すタイミングを詳述に示すタイミングチャートである。以下、図4に示す画素301の構成に合わせて説明する。時間軸は左右方向の軸であり、最上位に示すRES(409)信号にて時刻T1,T8,T9を示す。また、HSYNC(109)からVL_n(302)にて時刻T0からT7を示す。 FIG. 7 is a timing chart showing the timing shown in FIG. 6 in detail. Hereinafter, the description will be given according to the configuration of the pixel 301 shown in FIG. The time axis is the left-right axis, and the time T1, T8, and T9 are indicated by the RES (409) signal shown at the top. In addition, the times T0 to T7 are shown from HSYNC (109) to VL_n (302).

時刻T1で撮像素子101にVSYNC(108)およびHSYNC(109)が入力されると、RES(409)信号(リセット信号)により画素301のPD401およびFD部408が初期化される。続いて時刻T2では、TX_MOV_MF(405)信号のイネーブルによって、動画用信号が記憶されているMOV_MEM402からFD部408へ信号が転送される。 When VSYNC (108) and HSYNC (109) are input to the image sensor 101 at time T1, the PD401 and FD unit 408 of pixel 301 are initialized by the RES (409) signal (reset signal). Subsequently, at time T2, the TX_MOV_MF (405) signal is enabled to transfer the signal from MOV_MEM402, which stores the moving image signal, to the FD unit 408.

時刻T3では、HL_SEL_1(303)信号のイネーブルによって、画素群201の第1行目の画素301のFD部408から垂直読出信号線VL_1(302)〜VL_n(302)に信号が出力される。HL_SEL_1(303)信号がイネーブルされる期間は、時刻T3から時刻T5までの期間であり、HSYNC(109)の時間間隔に対応する時刻T1から時刻T6までの期間よりも短い。また、HL_SEL_1(303)信号がイネーブルされる時間は、垂直読出信号線VL_n(302)に出力された動画信号を、列アンプ・ADC203がデジタル化するために十分な時間に設定される。 At time T3, by enabling the HL_SEL_1 (303) signal, a signal is output from the FD unit 408 of the pixel 301 in the first row of the pixel group 201 to the vertical read signal lines VL_1 (302) to VL_n (302). The period during which the HL_SEL_1 (303) signal is enabled is the period from time T3 to time T5, which is shorter than the period from time T1 to time T6 corresponding to the time interval of HSYNC (109). The time during which the HL_SEL_1 (303) signal is enabled is set to a time sufficient for the column amplifier / ADC 203 to digitize the moving image signal output to the vertical read signal line VL_n (302).

本実施形態におけるHSYNCの時間間隔については、垂直画素数1080と動画ファイルのフレームレート60fpsにより最大値が決定される。更には動画信号に関して12Bitでの量子化を行うための、列アンプ・ADC203の動作周波数から、HSYNC(109)の時間間隔の最小値が決定される。ここで、列アンプ・ADC203の動作周波数を1GHzとした場合の例を下記式に示す。
式1:最大値の算出式
フレームレート / 垂直画素数= 1 / 60 / 1080 ≒ 15.4 μs(マイクロ秒)
式2:最小値の算出式
1 / 列アンプ・ADC203の動作周波数 × 量子化数 = 1 / 1GHz × 2^12 ≒ 4.1μs
HSYNC(109)の時間間隔の設定範囲は上記最小値から最大値までの範囲となる。
The maximum value of the HSYNC time interval in the present embodiment is determined by the number of vertical pixels 1080 and the frame rate of the moving image file of 60 fps. Further, the minimum value of the time interval of HSYNC (109) is determined from the operating frequency of the column amplifier ADC203 for performing the quantization of the moving image signal in 12 bits. Here, an example when the operating frequency of the column amplifier / ADC 203 is 1 GHz is shown in the following equation.
Equation 1: Maximum value calculation formula Frame rate / number of vertical pixels = 1/60/1080 ≒ 15.4 μs (microseconds)
Formula 2: Calculation formula for the minimum value
1 / Operating frequency of column amplifier / ADC203 x Number of quantization = 1/1 1GHz x 2 ^ 12 ≒ 4.1μs
The setting range of the time interval of HSYNC (109) is the range from the above minimum value to the maximum value.

図2に示すセンサ出力部204の動作周波数は、HSYNC(109)の時間間隔内にて、水平画素数1920の画素について12Bitでの出力が可能な動作周波数となる。
式3:動作周波数の算出式
1920 × 12 / HSYNC(109)の時間間隔 ≒ 1.5 〜 5.6 GHz
例えば、標準的な動画ファイルの生成方法におけるHSYNC(109)の時間間隔を10μsとし、センサ出力部204の動作周波数を2.3GHzとする。
The operating frequency of the sensor output unit 204 shown in FIG. 2 is an operating frequency capable of outputting 12 bits for a pixel having 1920 horizontal pixels within the time interval of HSYNC (109).
Equation 3: Calculation formula for operating frequency
1920 x 12 / HSYNC (109) time interval ≒ 1.5 to 5.6 GHz
For example, the time interval of HSYNC (109) in the standard moving image file generation method is 10 μs, and the operating frequency of the sensor output unit 204 is 2.3 GHz.

図7の時刻T6で撮像素子101には、第2行目の画素301を読出すためのHSYNC(109)が入力される。時刻T7では、HL_SEL_2(303)信号のイネーブルによって、画素群201の第2行目の画素301のFD部408から、垂直読出信号線VL_1(302)〜VL_n(302)に信号が出力される。 At time T6 in FIG. 7, HSYNC (109) for reading the pixel 301 in the second row is input to the image sensor 101. At time T7, by enabling the HL_SEL_2 (303) signal, a signal is output from the FD unit 408 of the second row pixel 301 of the pixel group 201 to the vertical read signal lines VL_1 (302) to VL_n (302).

この様な動作は、垂直画素数1080に相当する回数に亘って繰り返される。図7の時刻T5から時刻T7までの期間は、垂直読出信号線VL_1(302)〜VL_n(302)の各信号が不定となる期間である。この期間は水平同期信号HSYNCに同期して発生することから、一般には水平ブランキング期間、あるいは省略してHブランクと呼ばれている。 Such an operation is repeated as many times as the number of vertical pixels is 1080. The period from time T5 to time T7 in FIG. 7 is a period in which each signal of the vertical read signal lines VL_1 (302) to VL_n (302) is indefinite. Since this period occurs in synchronization with the horizontal synchronization signal HSYNC, it is generally called a horizontal blanking period, or H blank for short.

HSYNC(109)の時間間隔が10μsである場合、画素群201から1フレームの読出しにかかる時間は下記式4のとおりである。
式4:読出し時間の算出式
10μs × 1080 = 10.8ms(ミリ秒)
読出し時間は、VSYNC(108)の時間間隔である約16.7msよりも短くなる。つまり、図7に示す時刻T8から時刻T9までの時間である約5.8msの期間には、画素群201から動画信号を読出す動作が不要である。よって、撮像素子101の動作を一時的に停止させて省電力化を図ることが可能である。時刻T8から時刻T9までの期間は、垂直同期信号VSYNCに同期して発生することから、一般には垂直ブランキング期間、あるいは省略してVブランクと呼ばれている。
標準的な動画ファイルの生成処理の説明を終えて、次に動画ファイルの生成中における静止画ファイルの生成処理を、下記の各実施形態において説明する。
When the time interval of HSYNC (109) is 10 μs, the time required to read one frame from the pixel group 201 is as shown in Equation 4 below.
Equation 4: Calculation formula for read time
10 μs x 1080 = 10.8 ms (milliseconds)
The read time is shorter than the VSYNC (108) time interval of about 16.7 ms. That is, during the period of about 5.8 ms, which is the time from the time T8 to the time T9 shown in FIG. 7, the operation of reading the moving image signal from the pixel group 201 is unnecessary. Therefore, it is possible to temporarily stop the operation of the image sensor 101 to save power. Since the period from time T8 to time T9 occurs in synchronization with the vertical synchronization signal VSYNC, it is generally called a vertical blanking period or V blank for short.
After finishing the description of the standard moving image file generation process, the still image file generation process during the generation of the moving image file will be described in each of the following embodiments.

[第1実施形態]
次に図1から図4、図8、図9を参照して、本発明の第1実施形態に係る撮像装置において動画ファイルの生成中に静止画ファイルを生成する処理を説明する。本実施形態では、所定画素数(水平画素数1920×垂直画素数1080)の画素群により、各画素の量子化ビット数が12Bitで1秒間のフレーム数が60fpsに対応する動画ファイルを生成する際に、静止画ファイルを生成可能である。静止画ファイルは、総画素数約5000万画素(水平画素数8600×垂直画素数5800)の画素群により、各画素の量子化ビット数を14Bitとして生成される。ただし、画素数およびフレーム数等は例示であって、これらに限定されるものではない。また、第1の動画信号読出し方法(加算読出し)を前提として説明する。
[First Embodiment]
Next, a process of generating a still image file during generation of a moving image file in the imaging device according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 4, 8 and 9. In the present embodiment, when a moving image file corresponding to a predetermined number of pixels (horizontal pixel number 1920 x vertical pixel number 1080), the number of quantization bits of each pixel is 12 bits, and the number of frames per second is 60 fps is generated. In addition, it is possible to generate a still image file. The still image file is generated by a pixel group having a total number of pixels of about 50 million pixels (horizontal pixel number 8600 x vertical pixel number 5800) with the number of quantization bits of each pixel being 14 bits. However, the number of pixels, the number of frames, and the like are examples and are not limited thereto. Further, the description will be made on the premise of the first moving image signal reading method (additional reading).

図8は本実施形態の処理を説明するフローチャートである。図9は、動画生成部105で生成される動画ファイルのフレーム画像の例を示すタイミングチャートである。1つのIフレーム画像、1つのPフレーム画像、および2つのBフレーム画像の合計4フレーム画像により1つのGOPが構成される。第1のBフレーム画像の取得中に静止画像の取得タイミングが発生した例を示す。以下、図5および図6で説明した事項との相違点を説明し、同様の説明を省略する。このような省略方法は後述の実施形態でも同じである。 FIG. 8 is a flowchart illustrating the processing of the present embodiment. FIG. 9 is a timing chart showing an example of a frame image of a moving image file generated by the moving image generation unit 105. A GOP is composed of a total of four frame images, one I frame image, one P frame image, and two B frame images. An example in which the acquisition timing of the still image occurs during the acquisition of the first B frame image is shown. Hereinafter, differences from the matters described with reference to FIGS. 5 and 6 will be described, and the same description will be omitted. Such an abbreviation method is the same in the embodiments described later.

本実施形態において、HSYNC(109)は動画ファイルの垂直画素および静止画ファイルの垂直画素に応じた信号である。図9のMOV_MEM(402)にはグローバルシャッター方式の動作を示しており、STL_MEM(403)には静止画用信号の取得動作を示している。また、図9では信号TX_STL_PM(406)および信号TX_STL_PM(407)が追加されている。図9には、MOV_MEM(402)にB(1)の動画フレームの信号を記憶している最中に、STL_MEM(403)に静止画用信号を記憶する例を示す。STL_MEM(403)に静止画用信号が記憶されるまでは、前述した標準的な動画ファイルの生成方法と同じである。STL_MEM(403)に静止画用信号が記憶されたあとには、STL_MEM(403)から静止画用信号を読出すために、動画ファイルの読出し方法が変更される。 In the present embodiment, HSYNC (109) is a signal corresponding to the vertical pixels of the moving image file and the vertical pixels of the still image file. MOV_MEM (402) in FIG. 9 shows the operation of the global shutter method, and STL_MEM (403) shows the operation of acquiring a still image signal. Further, in FIG. 9, the signal TX_STL_PM (406) and the signal TX_STL_PM (407) are added. FIG. 9 shows an example in which the still image signal is stored in STL_MEM (403) while the signal of the moving image frame of B (1) is stored in MOV_MEM (402). Until the still image signal is stored in STL_MEM (403), it is the same as the standard moving image file generation method described above. After the still image signal is stored in STL_MEM (403), the method of reading the moving image file is changed in order to read the still image signal from STL_MEM (403).

図8のSTEP701,STEP702,STEP704の各処理は、図5のSTEP501,STEP502,STEP503の各処理と同様であるので、それらの説明を割愛する。動画生成部105が動画ファイルを生成する際に生じる垂直ブランキング期間は、前述した標準的な動画ファイルの生成方法と同じく約5.8msとなっている。 Since the processes of STEP701, STEP702, and STEP704 in FIG. 8 are the same as the processes of STEP501, STEP502, and STEP503 in FIG. 5, their explanations are omitted. The vertical blanking period that occurs when the moving image generation unit 105 generates a moving image file is about 5.8 ms, which is the same as the standard moving image file generation method described above.

STEP702で動画撮影の開始指示が検出されると、STEP703の処理に進む。判別制御部102は静止画撮影の指示の発生について判定する(STEP703)。ユーザは不図示の操作部により、静止画撮影の指示を行うことができる。静止画撮影の指示が発生していないと判定された場合、STEP704の処理に進み、また静止画撮影の指示が発生したと判定された場合、STEP708の処理に進む。 When the start instruction of movie shooting is detected in STEP702, the process proceeds to STEP703. The discrimination control unit 102 determines the occurrence of an instruction for still image shooting (STEP 703). The user can give an instruction to shoot a still image by using an operation unit (not shown). If it is determined that the still image shooting instruction has not been generated, the process proceeds to STEP704, and if it is determined that the still image shooting instruction has been generated, the process proceeds to STEP708.

静止画撮影の指示が発生した場合、量子化ビット数が14Bitで総画素数が約5000万画素(水平画素数8600×垂直画素数5800)の静止画ファイルを生成する処理が実行される。動作周波数が1GHzである列アンプ・ADC203を用いて行われる静止画用信号の読出しにおいて、下記式5から得られる時間が読出しに必要な最小時間である。
式5:読出し時間の算出式
1 / 1GHz × 2^14 × 5800 ≒ 95ms
When an instruction to shoot a still image is issued, a process of generating a still image file having a quantization bit rate of 14 bits and a total pixel number of about 50 million pixels (horizontal pixel number 8600 x vertical pixel number 5800) is executed. In the reading of the still image signal performed by using the column amplifier ADC203 having an operating frequency of 1 GHz, the time obtained from the following equation 5 is the minimum time required for reading.
Equation 5: Calculation formula for read time
1/1 GHz x 2 ^ 14 x 5800 ≒ 95ms

本実施形態においては、動画ファイルを生成する際に生じる、垂直ブランキング期間を使用して静止画用信号を読出す処理が行われる。下記式6によりフレーム数が算出される。
式6:フレーム数の算出式
95 / 5.8 ≒16.4フレーム
つまり、動画ファイルの17フレーム分の垂直ブランキング期間を使用して、静止画用信号の読出しが行われることになる。その結果、実際の静止画用信号の読出し、および静止画ファイルの生成にかかる時間は、下記式7により算出される。
式7:所要時間の算出式
17 × 16.7 ≒ 284ms
In the present embodiment, a process of reading a still image signal is performed using a vertical blanking period that occurs when a moving image file is generated. The number of frames is calculated by the following formula 6.
Equation 6: Calculation formula for the number of frames
95 / 5.8 ≒ 16.4 frames That is, the still image signal is read out using the vertical blanking period of 17 frames of the moving image file. As a result, the time required for actually reading the still image signal and generating the still image file is calculated by the following equation 7.
Equation 7: Calculation formula for required time
17 x 16.7 ≒ 284ms

この計算例では静止画ファイルの処理にて、非常に長い時間が必要となる。そこで、動画ファイルの生成中に静止画ファイルを生成する場合、動画ファイルに係るフレーム画像の読出し方法を変更する処理が行われる。これにより、動画ファイルを生成する際に生じる、垂直ブランキング期間を長くすることができる。 In this calculation example, a very long time is required to process the still image file. Therefore, when a still image file is generated during the generation of the moving image file, a process of changing the reading method of the frame image related to the moving image file is performed. As a result, the vertical blanking period that occurs when the moving image file is generated can be lengthened.

動画撮影中に静止画撮影の指示が発生すると(STEP703)、動画ファイルの読出し方法の変更処理が実行される(STEP708)。前述した第1の動画信号読出し方法では、水平4画素および垂直4画素の各信号を加算して読出す方法を説明した。動画ファイルの読出し方法の変更処理(STEP708)では、垂直4画素の加算読出しが垂直8画素の加算読出しに変更されるので、画素群201からの読出し行数を半分に低減することができる。その結果、画素群201からの1フレームの読出し時間は下記式8により算出される。
式8:読出し時間の算出式
10μs × 540 = 5.4ms
If an instruction to shoot a still image is generated during movie shooting (STEP 703), the process of changing the reading method of the movie file is executed (STEP 708). In the first moving image signal reading method described above, a method of adding and reading each of the horizontal 4 pixel and vertical 4 pixel signals has been described. In the process of changing the reading method of the moving image file (STEP708), the addition reading of the vertical 4 pixels is changed to the addition reading of the vertical 8 pixels, so that the number of reading lines from the pixel group 201 can be reduced by half. As a result, the read time of one frame from the pixel group 201 is calculated by the following equation 8.
Equation 8: Calculation formula for read time
10 μs x 540 = 5.4 ms

1フレーム中の垂直ブランキング期間は下記式9により算出される。
式9:垂直ブランキング期間の算出式
16.7 − 5.4 = 11.3ms
したがって、標準的な5.8msの場合よりも垂直ブランキング期間を拡大することが可能となる。拡大された垂直ブランキング期間を使用して読出される静止画用信号のフレーム数は、下記式10により算出される。
式10:フレーム数の算出式
95 / 11.3 ≒ 8.4フレーム
つまり、動画ファイルの9フレーム分の垂直ブランキング期間を使用して、静止画用信号を読出すことができる。その結果、実際の静止画用信号の読出し、および静止画ファイルの生成にかかる時間は、下記式11から算出される。
式11:所要時間の算出式
9 × 16.7 ≒ 150ms
したがって、標準的な場合の所要時間284msよりも、静止画ファイルの処理時間を短縮可能である。
The vertical blanking period in one frame is calculated by the following formula 9.
Equation 9: Calculation formula for vertical blanking period
16.7 − 5.4 = 11.3ms
Therefore, it is possible to extend the vertical blanking period compared to the standard 5.8 ms case. The number of frames of the still image signal read out using the expanded vertical blanking period is calculated by the following equation 10.
Equation 10: Calculation formula for the number of frames
95 / 11.3 ≒ 8.4 frames In other words, the still image signal can be read using the vertical blanking period of 9 frames of the moving image file. As a result, the time required to read the actual still image signal and generate the still image file is calculated from the following equation 11.
Equation 11: Calculation formula for required time
9 x 16.7 ≒ 150ms
Therefore, the processing time of the still image file can be shortened compared to the standard time required of 284 ms.

図8のSTEP709でフレーム画像の取得処理が開始され、STEP710でフレーム画像の加算読出しが行われる。画素群201から水平4画素の加算、垂直8画素の加算によって読出された所定画素数(水平画素数1920×垂直画素数540)の画素の動画フレームは、静止画用信号を読出さない場合に比べて、垂直方向の解像度が半分になる。 The frame image acquisition process is started in STEP 709 of FIG. 8, and the frame image is additionally read and read in STEP 710. A moving image frame with a predetermined number of pixels (1920 horizontal pixels x 540 vertical pixels) read by adding 4 horizontal pixels and 8 vertical pixels from the pixel group 201 is when the still image signal is not read. In comparison, the vertical resolution is halved.

図9に示す様に、MOV_MEM(402)にB(1)の動画フレームが記憶されている最中に、STL_MEM(403)に静止画用信号が記憶される。つまり、B(1)の動画フレームについては当該フレームの前後の動画フレームを参照して符号化処理が行われる。このため、B(1)の動画フレームにおける垂直方向の解像度が半分になったとしても、相応の補完が行われてB(1)の動画フレームのデータが生成される。 As shown in FIG. 9, while the moving image frame of B (1) is stored in MOV_MEM (402), the still image signal is stored in STL_MEM (403). That is, the moving image frame of B (1) is encoded by referring to the moving image frames before and after the frame. Therefore, even if the vertical resolution of the video frame of B (1) is halved, the data of the video frame of B (1) is generated by performing appropriate complementation.

また図9に示すように、静止画用信号の読出しは、複数の動画フレームに及んで行われる。図9では、動画フレーム(B1)および動画フレーム(B2)の信号読出しと並行して静止画用の信号読出しが行われる様子を例示している。図8のSTEP711で静止画像の取得処理が開始し、STEP712で静止画像データの読出しが行われる。先述のように静止画の読出し時間は95ms(式5)であって動画ファイルの垂直ブランキング期間の長さは11.3ms(式9)である。この場合、最低でも動画ファイルの9フレームの読出しと並行して、静止画用信号を読出す処理が行われる。 Further, as shown in FIG. 9, the reading of the still image signal is performed over a plurality of moving image frames. FIG. 9 illustrates a state in which a signal for a still image is read out in parallel with the signal reading of the moving image frame (B1) and the moving image frame (B2). The still image acquisition process is started in STEP711 of FIG. 8, and the still image data is read out in STEP712. As described above, the reading time of the still image is 95 ms (Equation 5), and the length of the vertical blanking period of the moving image file is 11.3 ms (Equation 9). In this case, a process of reading the still image signal is performed in parallel with reading at least 9 frames of the moving image file.

読出された動画用信号はSTEP705でフレームバッファ104に記憶された後、STEP706とSTEP713の処理に進む。STEP706では動画圧縮符号化の処理が実行され、STEP713では撮像素子101からの静止画用信号に基づく静止画圧縮符号化の処理が実行される。これらは並行して処理が行われる。 The read moving image signal is stored in the frame buffer 104 in STEP705, and then proceeds to the processing of STEP706 and STEP713. In STEP706, the moving image compression coding process is executed, and in STEP713, the still image compression coding process based on the still image signal from the image sensor 101 is executed. These are processed in parallel.

こうして動画生成部105により生成された動画ファイル、および静止画生成部106により生成された静止画ファイルの各データは記録メディア107に保存される(STEP707)。 Each data of the moving image file generated by the moving image generation unit 105 and the still image file generated by the still image generating unit 106 is stored in the recording medium 107 (STEP 707).

本実施形態にて説明した垂直画素の加算数は例示であって、これに限定されるものではない。また動画ファイルのBフレームの記録の最中に、静止画用信号を読出して静止画ファイルの記録を行う例を説明したが、Iフレームからの差分情報を用いて高い圧縮率を達成するPフレームについても適用可能である。また、他のフレームから独立して符号化および復号化の可能なIフレームの記録中に、静止画像データの記録を行う場合には、当該IフレームをPフレームまたはBフレームに置き換えて符号化処理が実行される。これにより、適切な動画ファイルのフレーム構成の適応が可能になる。あるいは、動画ファイルにおけるIフレームの記録中に、静止画像データの記録を行う場合に、当該Iフレームに対する処理を終了してから記録処理が行われる。以上の事項は後述の実施形態でも同様である。 The addition number of vertical pixels described in the present embodiment is an example, and is not limited thereto. In addition, an example of reading a still image signal and recording a still image file during recording of a B frame of a moving image file has been described, but a P frame that achieves a high compression ratio using the difference information from the I frame has been described. Is also applicable. In addition, when recording still image data while recording an I frame that can be encoded and decoded independently of other frames, the I frame is replaced with a P frame or a B frame for encoding processing. Is executed. This makes it possible to adapt the frame structure of an appropriate video file. Alternatively, when recording still image data during the recording of an I frame in a moving image file, the recording process is performed after the processing for the I frame is completed. The above items are the same in the embodiments described later.

本実施形態では、所定画素数(水平画素数1920×垂直画素数1080)の画素群による、量子化ビット数が12Bitの各画素信号から1秒間のフレーム数が60fpsに対応する動画ファイルを生成する。動画撮影中に静止画撮影の指示が発生した場合に動画ファイルの生成方法が変更される。総画素数約5000万(水平画素数8600×垂直画素数5800)の画素群201による、量子化ビット数が14Bitの各画素信号から静止画ファイルを生成することができる。つまり、水平4画素および垂直4画素の加算読出しが行われる動画撮影中に、静止画撮影の指示が発生すると動画信号読出し方法が水平4画素および垂直8画素の加算読出しに切り替わり、画素群201からの読出し行数が半分になる。その結果、静止画用信号の読出し時間を短縮できる。
本実施形態によれば、動画撮影中の静止画取得時に動画読出し方法を適応的に変更し、動画読出しに伴う動画ブランキング時間を十分に確保することができる。
In the present embodiment, a moving image file corresponding to a frame number of 60 fps per second is generated from each pixel signal having a quantization bit rate of 12 bits by a pixel group having a predetermined number of pixels (horizontal pixel number 1920 x vertical pixel number 1080). .. The method of generating a moving image file is changed when a still image shooting instruction is issued during movie shooting. A still image file can be generated from each pixel signal having a quantization bit rate of 14 bits by a pixel group 201 having a total pixel count of about 50 million (horizontal pixel count 8600 x vertical pixel count 5800). That is, if an instruction for still image shooting is generated during moving image shooting in which additional reading of horizontal 4 pixels and vertical 4 pixels is performed, the moving image signal reading method is switched to additional reading of horizontal 4 pixels and vertical 8 pixels, and the pixel group 201 starts from The number of lines read is halved. As a result, the reading time of the still image signal can be shortened.
According to the present embodiment, the moving image reading method can be adaptively changed when a still image is acquired during movie shooting, and a sufficient moving image blanking time associated with moving image reading can be secured.

[第2実施形態]
次に本発明の第2実施形態を説明する。本実施形態では第1の動画信号読出し方法である水平4画素および垂直4画素の加算読出しが行われる動画撮影中に、静止画撮影の指示が発生した場合に動画ファイルの生成方法が変更される。水平8画素および垂直4画素の加算読出しを行うことにより、画素群201からの読出し列数が半分になる。その結果、静止画用信号の読出し時間を短縮できる。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the present embodiment, the method of generating a moving image file is changed when a still image shooting instruction is issued during movie shooting in which additional reading of horizontal 4 pixels and vertical 4 pixels is performed, which is the first moving image signal reading method. .. By performing additional reading of 8 horizontal pixels and 4 vertical pixels, the number of reading columns from the pixel group 201 is halved. As a result, the reading time of the still image signal can be shortened.

図10を参照して、動画ファイルの生成中における静止画ファイルの生成処理について説明する。図10のタイミングチャートは、動画生成部105により生成される動画ファイルのフレーム画像の一例を示す。1つのIフレーム画像、1つのPフレーム画像、および2つのBフレーム画像の合計4フレーム画像が1つのGOPを構成する場合に、第1のBフレーム画像の取得中に静止画像データの取得処理を行う場合を示している。HSYNC(109)は動画ファイルの垂直画素および静止画ファイルの垂直画素に応じた信号である。 The still image file generation process during the generation of the moving image file will be described with reference to FIG. The timing chart of FIG. 10 shows an example of a frame image of a moving image file generated by the moving image generation unit 105. When a total of four frame images of one I frame image, one P frame image, and two B frame images constitute one GOP, the still image data acquisition process is performed during the acquisition of the first B frame image. It shows the case to do. HSYNC (109) is a signal corresponding to the vertical pixels of the moving image file and the vertical pixels of the still image file.

動画ファイルの生成中における静止画ファイルの生成処理の流れは、第1実施形態にて説明した図8と同様である。よって図8との相違点のみを説明する。STEP703からSTEP708に進み、動画信号読出し方法の変更処理が行われる。すなわち、水平4画素および垂直4画素の加算読出しが、水平8画素および垂直4画素の加算読出しに変更され、画素群201からの読出し列数が半分となる。一行から読出される信号の列数が半分になることで、列アンプ・ADC203の並列処理化が可能となり、列アンプ・ADC203の処理時間が半分となる。その結果、画素群201からの1フレームの読出し時間は、下記式12により算出される。
式12:読出し時間の算出式
5μs × 1080 = 5.4ms
The flow of the still image file generation process during the generation of the moving image file is the same as that of FIG. 8 described in the first embodiment. Therefore, only the differences from FIG. 8 will be described. Proceeding from STEP703 to STEP708, the process of changing the moving image signal reading method is performed. That is, the additional reading of the horizontal 4 pixels and the vertical 4 pixels is changed to the additional reading of the horizontal 8 pixels and the vertical 4 pixels, and the number of reading columns from the pixel group 201 is halved. By halving the number of columns of signals read from one row, parallel processing of the column amplifier / ADC203 becomes possible, and the processing time of the column amplifier / ADC203 is halved. As a result, the read time of one frame from the pixel group 201 is calculated by the following equation 12.
Equation 12: Calculation formula for read time
5 μs x 1080 = 5.4 ms

1フレーム中の垂直ブランキング期間は、下記式13により算出される。
式13:垂直ブランキング期間の算出式
16.7 − 5.4 = 11.3ms
したがって、標準的な5.8msの場合よりも垂直ブランキング期間を拡大することが可能となる。拡大された垂直ブランキング期間を使用して読出される静止画用信号のフレーム数は、下記式14により算出される。
式14:フレーム数の算出式
95 / 11.3 ≒ 8.4フレーム
つまり、動画ファイルの9フレーム分の垂直ブランキング期間を使用して、静止画用信号を読出しが行われる。その結果、実際の静止画用信号の読出し、および静止画ファイルの生成にかかる時間は上記式11から、
9 × 16.7 ≒ 150ms
と算出される。標準的な場合の所要時間284msよりも静止画用信号の処理時間を短縮することが可能になる。
The vertical blanking period in one frame is calculated by the following equation 13.
Equation 13: Calculation formula for vertical blanking period
16.7 − 5.4 = 11.3ms
Therefore, it is possible to extend the vertical blanking period compared to the standard 5.8 ms case. The number of frames of the still image signal read out using the expanded vertical blanking period is calculated by the following equation 14.
Equation 14: Calculation formula for the number of frames
95 / 11.3 ≒ 8.4 frames That is, the still image signal is read out using the vertical blanking period of 9 frames of the moving image file. As a result, the time required to read the actual still image signal and generate the still image file is calculated from the above equation 11.
9 x 16.7 ≒ 150ms
Is calculated. It is possible to shorten the processing time of the still image signal compared to the standard time required of 284 ms.

また、画素群201から、水平8画素の加算および垂直4画素の加算により読出された所定画素数(水平画素数960×垂直画素数1080)の動画フレームは、静止画用信号を読出さない時に比べて、水平方向の解像度が半分になる。図10に示す様に、MOV_MEM402にB(1)の動画フレームの信号が記憶されている最中に、STL_MEM403に静止画用信号が記憶される。つまり、動画フレームB(1)では当該フレームの前後の動画フレームを参照して符号化処理が行われる。そのため、当該動画フレームB(1)の水平方向の解像度が半分になったとしても、相応の補完が行われて動画フレームB(1)のデータが生成される。 Further, a moving image frame having a predetermined number of pixels (960 horizontal pixels x 1080 vertical pixels) read from the pixel group 201 by adding 8 horizontal pixels and 4 vertical pixels is when the still image signal is not read. In comparison, the horizontal resolution is halved. As shown in FIG. 10, while the signal of the moving image frame of B (1) is stored in MOV_MEM402, the still image signal is stored in STL_MEM403. That is, in the moving image frame B (1), the coding process is performed with reference to the moving image frames before and after the frame. Therefore, even if the horizontal resolution of the moving image frame B (1) is halved, the data of the moving image frame B (1) is generated by performing appropriate complementation.

図10に示す様に静止画用の信号読出しは、複数の動画フレームに及んで行われる。図10では、動画フレーム(B1)および動画フレーム(B2)の読出しと並行して静止画用信号が読出される様子を例示している。静止画読出し時間が95msで動画ファイルに係る垂直ブランキング時間が11.3msの場合、最低でも動画ファイルの9フレームの読出しと並行して、静止画用信号の読出し処理が行われる(図8:STEP711および712参照)。 As shown in FIG. 10, the signal reading for the still image is performed over a plurality of moving image frames. FIG. 10 illustrates how a still image signal is read in parallel with reading the moving image frame (B1) and the moving image frame (B2). When the still image read time is 95 ms and the vertical blanking time for the video file is 11.3 ms, the still image signal is read out in parallel with reading at least 9 frames of the video file (Fig. 8: STEP711). And 712).

本実施形態では、動画読出し方法にて水平4画素の加算を水平8画素の加算に変更する例を説明したが、水平画素の加算数はこれに限定されるものではない。 In the present embodiment, an example of changing the addition of 4 horizontal pixels to the addition of 8 horizontal pixels by the moving image reading method has been described, but the number of additions of horizontal pixels is not limited to this.

[第3実施形態]
次に本発明の第3実施形態を説明する。本実施形態では第1の動画信号読出し方法である水平4画素および垂直4画素の加算読出しが行われる動画撮影中に、静止画撮影の指示が発生した場合に動画ファイルの生成方法が変更される。水平8画素および垂直8画素の加算読出しを行うことにより、画素群201からの読出し行数が半分になり、且つ画素群201からの読出し列数が半分になる。その結果、静止画用信号の読出し時間をさらに短縮できる。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. In the present embodiment, the method of generating a moving image file is changed when a still image shooting instruction is issued during movie shooting in which additional reading of horizontal 4 pixels and vertical 4 pixels is performed, which is the first moving image signal reading method. .. By performing additional reading of 8 horizontal pixels and 8 vertical pixels, the number of rows read from the pixel group 201 is halved, and the number of columns read from the pixel group 201 is halved. As a result, the reading time of the still image signal can be further shortened.

図1から図4、および、図8、図11を参照して、本実施形態における動画ファイルの生成中における静止画ファイルの生成方法について説明する。図11において、図9および図10との相違点を垂直読出信号線VL_n(302)に出力される信号のタイミングに示す。 A method of generating a still image file during generation of a moving image file in the present embodiment will be described with reference to FIGS. 1 to 4, 8 and 11. In FIG. 11, the difference from FIGS. 9 and 10 is shown in the timing of the signal output to the vertical read signal line VL_n (302).

動画ファイルの生成中での静止画ファイルの生成処理の流れは、第1実施形態にて説明した図8と同様である。よって図8との相違点のみを説明する。STEP703からSTEP708に進み、動画信号読出し方法の変更処理が行われる。すなわち、水平4画素の加算が水平8画素の加算に変更され、且つ垂直4画素の加算が垂直8画素の加算に変更されて信号読出しが行われる。画素群201からの、読出し行数が半分となり、且つ読出し列数が半分になる。つまり本実施形態では、第1実施形態で示した加算方法と、第2実施形態で示した加算方法とが併用され、同時に適用される。その結果、画素群201からの1フレームの読出し時間は、下記式15により算出される。
式15:読出し時間の算出式
5μs × 540 = 2.7ms
The flow of the still image file generation process during the generation of the moving image file is the same as that of FIG. 8 described in the first embodiment. Therefore, only the differences from FIG. 8 will be described. Proceeding from STEP703 to STEP708, the process of changing the moving image signal reading method is performed. That is, the addition of 4 horizontal pixels is changed to the addition of 8 horizontal pixels, and the addition of 4 vertical pixels is changed to the addition of 8 vertical pixels, and the signal is read out. The number of read rows from the pixel group 201 is halved, and the number of read columns is halved. That is, in the present embodiment, the addition method shown in the first embodiment and the addition method shown in the second embodiment are used in combination and are applied at the same time. As a result, the read time of one frame from the pixel group 201 is calculated by the following equation 15.
Equation 15: Calculation formula for read time
5 μs x 540 = 2.7 ms

1フレーム中の垂直ブランキング期間は、下記式16により算出される。
式16:垂直ブランキング期間の算出式
16.7 − 2.7 = 14ms
よって、標準的な5.8msの場合よりも垂直ブランキング期間を拡大することが可能となる。拡大された垂直ブランキング期間を使用して読出される静止画用信号のフレーム数は、下記式17により算出される。
式17:フレーム数の算出式
95 / 14 ≒ 6.8フレーム
つまり、動画ファイルの7フレーム分の垂直ブランキング期間を使用して、静止画用信号を読出すことができる。その結果、実際の静止画用信号の読出し、および静止画ファイルの生成にかかる時間は、下記式18により算出される。
式18:所要時間の算出式
7 × 16.7 ≒ 117ms
標準的な場合の所要時間284msよりも静止画用信号の処理時間を短縮可能である。
The vertical blanking period in one frame is calculated by the following equation 16.
Equation 16: Calculation formula for vertical blanking period
16.7 − 2.7 = 14ms
Therefore, it is possible to extend the vertical blanking period compared to the standard 5.8 ms case. The number of frames of the still image signal read out using the expanded vertical blanking period is calculated by the following equation 17.
Equation 17: Calculation formula for the number of frames
95/14 ≒ 6.8 frames In other words, the still image signal can be read using the vertical blanking period of 7 frames of the moving image file. As a result, the time required for actually reading the still image signal and generating the still image file is calculated by the following equation 18.
Formula 18: Calculation formula for required time
7 x 16.7 ≒ 117ms
The processing time of the still image signal can be shortened compared to the standard time required of 284 ms.

本実施形態では、画素群201から、水平8画素および垂直8画素の加算読出しにより、所定画素数(水平画素数960×垂直画素数540)の動画フレームが取得される。つまり、静止画用信号を読出さない場合に比べて、水平方向および垂直方向の解像度がそれぞれ半分になる。図11に示す様に、MOV_MEM402にB(1)の動画フレームの信号が記憶されている最中に、STL_MEM403に静止画用信号が記憶される。つまり、動画フレームB(1)では当該フレームの前後の動画フレームを参照して符号化処理が行われる。そのため、動画フレームB(1)の水平方向および垂直方向の解像度がともに半分なったとしても、相応の補完が行われて動画フレームB(1)が生成される。 In the present embodiment, a moving image frame having a predetermined number of pixels (number of horizontal pixels 960 × number of vertical pixels 540) is acquired from the pixel group 201 by adding and reading 8 horizontal pixels and 8 vertical pixels. That is, the resolutions in the horizontal direction and the vertical direction are halved as compared with the case where the still image signal is not read. As shown in FIG. 11, while the signal of the moving image frame of B (1) is stored in MOV_MEM402, the still image signal is stored in STL_MEM403. That is, in the moving image frame B (1), the coding process is performed with reference to the moving image frames before and after the frame. Therefore, even if the resolutions in the horizontal direction and the vertical direction of the moving image frame B (1) are both halved, appropriate complementation is performed to generate the moving image frame B (1).

また、図11に示す様に静止画ファイルの読出しは、複数の動画フレームに及んで行われる。図11では、動画フレーム(B1)および動画フレーム(B2)の読出しと並行して静止画用信号が読出されている様子を例示している。静止画読出し時間が95msで動画ファイルに係る垂直ブランキング時間が14msの場合、最低でも動画ファイルの7フレームの読出しと並行して、静止画用信号の読出し処理が行われる(図8:STEP711および712参照)。 Further, as shown in FIG. 11, the reading of the still image file is performed over a plurality of moving image frames. FIG. 11 illustrates a state in which a still image signal is read in parallel with reading the moving image frame (B1) and the moving image frame (B2). When the still image read time is 95 ms and the vertical blanking time for the moving image file is 14 ms, the still image signal reading process is performed in parallel with reading at least 7 frames of the moving image file (Fig. 8: STEP711 and STEP711 and). See 712).

本実施形態では、動画信号読出し方法にて水平4画素の加算が水平8画素の加算に変更され、且つ垂直4画素の加算が垂直8画素の加算に変更される例を説明した。水平画素の加算数および垂直画素の加算数はこれに限定されるものではない。 In the present embodiment, an example has been described in which the addition of 4 horizontal pixels is changed to the addition of 8 horizontal pixels and the addition of 4 vertical pixels is changed to the addition of 8 vertical pixels by the moving image signal reading method. The number of additions of horizontal pixels and the number of additions of vertical pixels are not limited to this.

前記実施形態では、撮像素子からの信号に基づく複数のフレーム画像により形成される動画像データを取得しつつ、静止画像データを取得することができる。動画撮影中に静止画撮影の指示が検出されたか否かの判定が行われ、判定結果により、動画ファイルを生成するための1つのフレーム画像の取得に要する時間および動画フレーム画像の生成方法が制御される。動画読出し方法を適応的に変更することで、動画読出しに伴う動画ブランキング期間を長く確保できる。すなわち静止画像データの読出し時間を十分に確保できるので、動画像データ生成中の静止画撮影にて動画像データの生成を中断することなく、動画像データを適切なタイミングで符号化して生成できる。前記実施形態によれば、静止画撮影期間において動画像データの欠落が発生することなく、また動画撮影中に、静止画撮影(静止画像データの取得)をより高速に行うことが可能な撮像装置を提供できる。
以上、本発明の好ましい実施形態について説明したが、本発明は前記実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
In the above embodiment, it is possible to acquire still image data while acquiring moving image data formed by a plurality of frame images based on signals from an image sensor. It is determined whether or not an instruction to shoot a still image is detected during movie shooting, and the time required to acquire one frame image for generating a movie file and the method of generating a movie frame image are controlled by the judgment result. Will be done. By adaptively changing the moving image reading method, it is possible to secure a long moving image blanking period associated with moving image reading. That is, since the reading time of the still image data can be sufficiently secured, the moving image data can be encoded and generated at an appropriate timing without interrupting the generation of the moving image data during the still image shooting during the moving image data generation. According to the above embodiment, an imaging device capable of performing still image shooting (acquisition of still image data) at a higher speed without causing loss of moving image data during the still image shooting period and during moving image shooting. Can be provided.
Although the preferred embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications and modifications can be made within the scope of the gist thereof.

101 撮像素子
102 判別制御部
103 動画像判別部
104 フレームバッファ
105 動画生成部
106 静止画生成部


101 Image sensor 102 Discrimination control unit 103 Moving image discrimination unit 104 Frame buffer 105 Movie generation unit 106 Still image generation unit


Claims (10)

撮像素子による動画像の取得中に静止画像を取得することが可能な撮像装置であって、
前記撮像素子に対して前記動画像に係るフレーム画像の読出し方法を第1の読出し方法に設定して前記フレーム画像の符号化属性を決定するとともに、前記動画像に係るフレーム画像の取得中に静止画撮影の指示が検出された場合、前記動画像に係るフレーム画像の読出し方法を第2の読出し方法に変更する制御手段と、
前記符号化属性が付加された前記フレーム画像のデータから動画像データを生成する動画生成手段と、
前記制御手段により前記第2の読出し方法に変更された後に、前記撮像素子から取得されるデータを用いて静止画像データを生成する静止画生成手段と、を備え、
前記制御手段は、前記第2の読出し方法として、前記第1の読出し方法に比べて前記動画像データの生成に係るフレーム画像の画素数を低減させた方法を決定することにより、前記動画像の読出しにおけるブランキング期間を拡大する制御を行い、
前記静止画生成手段は前記ブランキング期間に読出されるデータから前記静止画像データを生成する
ことを特徴とする撮像装置。
An image pickup device capable of acquiring a still image while a moving image is acquired by an image sensor.
The method for reading the frame image related to the moving image is set to the first reading method for the image sensor to determine the coding attribute of the frame image, and the frame image related to the moving image is stationary during acquisition. When an instruction to take an image is detected, a control means for changing the reading method of the frame image related to the moving image to the second reading method, and
A moving image generation means for generating moving image data from the frame image data to which the coding attribute is added, and
A still image generating means for generating still image data using the data acquired from the image sensor after the control means has changed to the second reading method.
The control means determines, as the second reading method, a method in which the number of pixels of the frame image related to the generation of the moving image data is reduced as compared with the first reading method. Controls to extend the blanking period in reading,
The still image generating means is an imaging device characterized in that the still image data is generated from the data read during the blanking period.
前記制御手段は、前記符号化属性を前記フレーム画像ごとに決定し、前記第1および第2の読出し方法により前記撮像素子から読出されて、前記符号化属性が付加された前記フレーム画像のデータを記憶手段に記憶させる制御を行い、
前記動画生成手段は前記記憶手段から取得したデータを用いて前記動画像データを生成する
ことを特徴とする請求項1に記載の撮像装置。
The control means determines the coding attribute for each frame image, reads the data from the image pickup device by the first and second reading methods, and obtains the data of the frame image to which the coding attribute is added. Control the storage means to store
The imaging apparatus according to claim 1, wherein the moving image generating means generates the moving image data using the data acquired from the storage means.
前記制御手段は、前記第2の読出し方法として、前記動画像に係るフレーム画像に対して複数の行もしくは列、または複数の行および複数の列のデータを加算して読出す方法を決定する
ことを特徴とする請求項1または請求項2に記載の撮像装置。
As the second reading method, the control means determines a method of adding and reading data of a plurality of rows or columns, or a plurality of rows and a plurality of columns to a frame image related to the moving image. The imaging apparatus according to claim 1 or 2.
前記符号化属性は、前記フレーム画像にフレーム内圧縮処理を行うか、またはフレーム間圧縮処理を行うかを決定する属性であり、
前記動画生成手段は、前記フレーム画像ごとに前記符号化属性にしたがって圧縮処理を行う
ことを特徴とする請求項3に記載の撮像装置。
The coding attribute is an attribute that determines whether to perform in-frame compression processing or inter-frame compression processing on the frame image.
The imaging device according to claim 3, wherein the moving image generating means performs compression processing for each frame image according to the coding attribute.
前記制御手段は、前記動画像に係るフレーム画像の取得中に静止画撮影の指示が検出され、かつ、前記動画像の生成に係るフレームの前記符号化属性がフレーム間圧縮を表すときに前記フレーム画像の読出し方法を前記第2の読出し方法に変更する
ことを特徴とする請求項4に記載の撮像装置。
The control means said the frame when an instruction to shoot a still image is detected during acquisition of a frame image related to the moving image and the coding attribute of the frame related to the generation of the moving image represents inter-frame compression. The imaging apparatus according to claim 4, wherein the image reading method is changed to the second reading method.
第1のフレームに係る前記符号化属性が当該フレームの画像のフレーム内圧縮を表し、第2のフレームに係る前記符号化属性が当該フレームの画像のフレーム間圧縮を表す場合、
前記制御手段は、前記動画像に係るフレーム画像の取得中に静止画撮影の指示が検出され、かつ、前記動画像の生成に係るフレーム画像が前記第1のフレームの画像であるときに、前記第1のフレームを前記第2のフレームに置き換えて圧縮処理の制御を行う
ことを特徴とする請求項4に記載の撮像装置。
When the coding attribute related to the first frame represents the intra-frame compression of the image of the frame, and the coding attribute related to the second frame represents the inter-frame compression of the image of the frame.
The control means said when the instruction for still image shooting is detected during the acquisition of the frame image related to the moving image and the frame image related to the generation of the moving image is the image of the first frame. The image pickup apparatus according to claim 4, wherein the first frame is replaced with the second frame to control the compression process.
前記制御手段は、前記動画像に係るフレーム画像の取得中に静止画撮影の指示が検出され、かつ、前記動画像の生成に係るフレームの前記符号化属性がフレーム内圧縮を表すときに、当該フレームの画像に対する符号化の処理を終了してから前記静止画生成手段により静止画像データを生成する制御を行う
ことを特徴とする請求項4に記載の撮像装置。
The control means is concerned when an instruction for still image shooting is detected during acquisition of a frame image related to the moving image and the coding attribute of the frame related to the generation of the moving image represents intra-frame compression. The image pickup apparatus according to claim 4, wherein the still image generation means controls the generation of still image data after the processing of encoding the frame image is completed.
前記動画像に係るフレーム画像の取得中に静止画撮影の指示が検出され、当該動画像データの生成中に前記静止画像のデータが読出される場合、前記動画生成手段は複数のフレームの画像データを用いて補完を行い、前記動画像データを生成する
ことを特徴とする請求項1から7のいずれか1項に記載の撮像装置。
When the instruction to shoot a still image is detected during the acquisition of the frame image related to the moving image and the still image data is read out during the generation of the moving image data, the moving image generating means has the image data of a plurality of frames. The imaging apparatus according to any one of claims 1 to 7, wherein the moving image data is generated by complementing with the above.
前記制御手段は、前記第1の読出し方法として、前記撮像素子の画素群の一部から動画像のデータを読出す方法を決定する
ことを特徴とする請求項1から8のいずれか1項に記載の撮像装置。
The control means according to any one of claims 1 to 8, wherein as the first reading method, a method of reading moving image data from a part of a pixel group of the image pickup element is determined. The image sensor described.
撮像素子による動画像の取得中に静止画像を取得することが可能な撮像装置にて実行される制御方法であって、
前記撮像素子に対して前記動画像に係るフレーム画像の読出し方法を第1の読出し方法に設定して前記フレーム画像の符号化属性を決定するとともに、前記動画像に係るフレーム画像の取得中に静止画撮影の指示が検出された場合、前記動画像に係るフレーム画像の読出し方法を第2の読出し方法に変更する制御工程と、
前記符号化属性が付加された前記フレーム画像のデータから動画像データを生成する動画生成工程と、
前記第2の読出し方法に変更された後に、前記撮像素子から取得されるデータを用いて静止画像データを生成する静止画生成工程と、を有し、
前記制御工程では、前記第2の読出し方法として、前記第1の読出し方法に比べて前記動画像データの生成に係るフレーム画像の画素数を低減させた方法を決定することにより、前記動画像の読出しにおけるブランキング期間を拡大する制御が行われ、
前記静止画生成工程では前記ブランキング期間に読出されるデータから前記静止画像データが生成される
ことを特徴とする撮像装置の制御方法。


A control method executed by an image pickup device capable of acquiring a still image while a moving image is acquired by an image sensor.
The method for reading the frame image related to the moving image is set to the first reading method for the image sensor to determine the coding attribute of the frame image, and the frame image related to the moving image is stationary during acquisition. When an instruction to take an image is detected, a control step of changing the reading method of the frame image related to the moving image to the second reading method, and
A moving image generation step of generating moving image data from the frame image data to which the coding attribute is added, and
It has a still image generation step of generating still image data using the data acquired from the image sensor after the change to the second reading method.
In the control step, as the second reading method, a method of reducing the number of pixels of the frame image related to the generation of the moving image data as compared with the first reading method is determined, so that the moving image can be read. Control is performed to extend the blanking period in reading,
A control method for an imaging device, characterized in that, in the still image generation step, the still image data is generated from the data read during the blanking period.


JP2019090649A 2019-05-13 2019-05-13 Imaging apparatus and method for controlling the same Pending JP2020188335A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019090649A JP2020188335A (en) 2019-05-13 2019-05-13 Imaging apparatus and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019090649A JP2020188335A (en) 2019-05-13 2019-05-13 Imaging apparatus and method for controlling the same

Publications (1)

Publication Number Publication Date
JP2020188335A true JP2020188335A (en) 2020-11-19

Family

ID=73222012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019090649A Pending JP2020188335A (en) 2019-05-13 2019-05-13 Imaging apparatus and method for controlling the same

Country Status (1)

Country Link
JP (1) JP2020188335A (en)

Similar Documents

Publication Publication Date Title
JP4018727B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US7898573B1 (en) Camera with high-quality still capture during continuous video capture
US8634012B2 (en) Solid-state image pickup device and method of driving the same
US8610809B2 (en) Solid-state imaging device and camera system that controls a unit of plural rows
US10313588B2 (en) Image capturing system and control method of image capturing system
CN111869213A (en) Encoding device, decoding device, encoding method, decoding method, encoding program, and decoding program
KR101046012B1 (en) Dynamic image processing device, dynamic image processing method, and computer-readable recording medium having recorded dynamic image processing program
JP2015144339A (en) Image processor, image processing method and program
JP2007104623A (en) Video signal transmission system, imaging apparatus, signal processor and video signal transmission method
JP4678849B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US20090052551A1 (en) Method and apparatus for coding moving image and imaging system
KR20100061311A (en) Photographing apparatus and controlling method thereof
US8718451B1 (en) Camera with high-quality still capture during continuous video capture
JP2020188335A (en) Imaging apparatus and method for controlling the same
JP2005217955A (en) Imaging device, its control method, program, and storage medium
JP2005191814A (en) Solid-state imaging unit and pixel signal reading method
JP4284577B2 (en) Imaging apparatus and solid-state imaging device driving method
US6628708B1 (en) Method and system for compressing color video data within a data processing system
CN104349078A (en) Solid-state imaging device
JP7324039B2 (en) Imaging device and its control method
JP2002027332A (en) Image pickup device
JP2018191136A (en) Encoding device, encoding method and program
JP2003116039A (en) High-resolution image generator
JP2007074455A (en) Image recording and reproducing device
JP2013219682A (en) Imaging device