JP2011055188A - Image capturing apparatus, and method of manufacturing the same - Google Patents

Image capturing apparatus, and method of manufacturing the same Download PDF

Info

Publication number
JP2011055188A
JP2011055188A JP2009201477A JP2009201477A JP2011055188A JP 2011055188 A JP2011055188 A JP 2011055188A JP 2009201477 A JP2009201477 A JP 2009201477A JP 2009201477 A JP2009201477 A JP 2009201477A JP 2011055188 A JP2011055188 A JP 2011055188A
Authority
JP
Japan
Prior art keywords
image data
interpolation
imaging
memory
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009201477A
Other languages
Japanese (ja)
Other versions
JP5317894B2 (en
Inventor
Katsuhiro Wada
克博 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009201477A priority Critical patent/JP5317894B2/en
Publication of JP2011055188A publication Critical patent/JP2011055188A/en
Application granted granted Critical
Publication of JP5317894B2 publication Critical patent/JP5317894B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem in an image capturing apparatus where an moving image is captured in interlaced mode, wherein a memory is likely to be crashed when recording a progressive mode image data. <P>SOLUTION: The image capturing apparatus includes an imaging means for capturing a subject and an interpolation means for interpolating the captured image data. The apparatus generates the progressive mode image data by performing field interpolation processing when the imaging means is driven. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、動画撮影のできる撮像装置において、撮影中に撮像システムを破綻させることをふせぐ制御方法に関するものである。   The present invention relates to a control method for preventing an imaging system from failing during shooting in an imaging apparatus capable of shooting moving images.

デジタルカメラ、デジタルビデオカメラ等の撮像装置、特に撮影画像に対する各種信号処理を実行する際、メインメモリ(例えば、SDRAM)に一旦、データをバッファリングして該各種処理を実行するシステムがある。ここで、例えば撮像手段であるセンサから高速に画像データの読み出しを行う場合、高速に画像データを読み出している期間と画像処理を実行している期間が重複し、メインメモリに対するアクセスが集中してメモリ帯域が破綻してしまう場合がある。   When executing various signal processing on an imaging apparatus such as a digital camera or a digital video camera, in particular, a captured image, there is a system that temporarily buffers data in a main memory (for example, SDRAM) and executes the various processing. Here, for example, when reading image data from a sensor as an imaging means at high speed, the period during which image data is read out at high speed and the period during which image processing is executed overlap, and access to the main memory is concentrated. There is a case where the memory bandwidth is broken.

特に、動画をプログレッシブ方式の信号に変換して記録するときや、動画記録中にプログレッシブ方式の信号である静止画の記録を行う同時記録時に問題が顕在化する。インターレース方式の信号からプログレッシブ方式の信号に変換するIP変換処理の実行中にメモリ帯域が破綻し、メインメモリにアクセスできず、その結果、撮像システムを破綻させてしまうのである。   In particular, a problem becomes apparent when a moving image is converted into a progressive signal and recorded, or when a still image that is a progressive signal is recorded during moving image recording. During execution of IP conversion processing for converting an interlaced signal to a progressive signal, the memory band is broken, the main memory cannot be accessed, and as a result, the imaging system is broken.

そこで、撮像システムを破綻させず、動画記録中においても高精細な静止画を得る方法が提案されている。撮影画像に現れる動きを検出し、該検出結果に応じて、水平/垂直ブランキング中にフィールド内補間処理、フィールド間補間処理かを切り替え、静止画用の画像を生成し、記録媒体に記録する手法である(特許文献1)。   Therefore, a method has been proposed for obtaining a high-definition still image even during moving image recording without causing the imaging system to fail. Detection of motion appearing in a captured image, switching between intra-field interpolation processing and inter-field interpolation processing during horizontal / vertical blanking according to the detection result, generating an image for a still image and recording it on a recording medium This is a technique (Patent Document 1).

特開2007−228119号公報JP 2007-228119 A

しかし、上述した方法で静止画用の画像を生成する場合、撮像素子から高速に画像データを読み出している期間における補間処理は、撮影画像に現れる動きが小さいと、フィールド間補間になる。すなわち、時間的に前のフィールドを参照するため、メインメモリに対するアクセスが増え、更に該CMOS等の固体撮像素子から高速に画像データを読み出し、メインメモリに書き込む期間と重複し、やはりメモリ帯域が破綻してしまう可能性がある。   However, when an image for a still image is generated by the above-described method, interpolation processing during a period in which image data is read from the image sensor at high speed is inter-field interpolation if the motion that appears in the captured image is small. That is, since the previous field is referred to in time, access to the main memory is increased, and further, the image data is read from the solid-state imaging device such as the CMOS and written in the main memory. There is a possibility that.

また、デジタルカメラ、デジタルビデオカメラ等の撮像装置において、今後、撮像手段の更なる高解像度化が進んでいくと、更にSDRAMの帯域が圧迫されることが懸念される。それを回避するためには、メインメモリとなるSDRAMの容量を大きくする、メインメモリとなるSDRAMを複数有する、などが考えられる。しかし、これらの手法のいずれにおいても、撮像装置のコストアップにつながる。   In addition, in an imaging apparatus such as a digital camera or a digital video camera, there is a concern that the bandwidth of the SDRAM will be further compressed as the resolution of the imaging unit further increases. In order to avoid this, it is conceivable to increase the capacity of the SDRAM serving as the main memory or to have a plurality of SDRAMs serving as the main memory. However, any of these methods leads to an increase in the cost of the imaging apparatus.

上記課題に鑑み、本発明は、コストアップすることなく、該撮像装置の各種信号処理を破綻させず、高精細な動画、および静止画を得る撮像装置及びその制御方法を提供することを目的とする。   In view of the above problems, an object of the present invention is to provide an imaging apparatus that obtains high-definition moving images and still images and a control method thereof without increasing the cost and without causing various signal processing of the imaging apparatus to fail. To do.

上記目的を達成するために、本発明に記載の撮像装置は、被写体像をインターレース方式で撮像して得られた画像データをメモリに格納する撮像手段と、前記メモリに格納された画像データを読み出し、プログレッシブ方式の画像データへと補間処理を行う補間手段と、を有し、前記補間手段は、前記撮像手段が前記撮像または前記画像データのメモリへの格納を行っている期間は、フィールド内補間によって前記補間処理を行うことを特徴とする。   In order to achieve the above object, an image pickup apparatus according to the present invention includes an image pickup unit that stores image data obtained by picking up a subject image in an interlaced manner in a memory, and reads out the image data stored in the memory. Interpolating means for interpolating progressive image data, and the interpolating means performs intra-field interpolation during a period in which the imaging means is performing the imaging or storing the image data in a memory. The interpolation process is performed by the following.

また、本発明に記載の撮像装置の制御方法は、撮像手段に被写体像をインターレース方式で撮像させ、得られた画像データをメモリに格納させる撮像ステップと、前記メモリに格納された画像データを読み出し、プログレッシブ方式の画像データへと補間処理を行う補間ステップと、を有し、前記補間ステップでは、前記撮像ステップが行われている期間は、フィールド内補間によって前記補間処理を行うことを特徴とする。   The image pickup apparatus control method according to the present invention includes an image pickup step in which an image pickup unit picks up a subject image in an interlaced manner and stores the obtained image data in a memory, and reads out the image data stored in the memory. An interpolation step for performing interpolation processing to progressive image data, wherein the interpolation processing is performed by intra-field interpolation during a period in which the imaging step is performed. .

本発明によれば、メインメモリの帯域を破綻させず、撮像手段からの高精細な画像データの高速読出を可能とする。   According to the present invention, it is possible to read high-definition image data from the imaging means at high speed without breaking down the bandwidth of the main memory.

本実施形態を説明するための撮像装置の構成図Configuration diagram of imaging apparatus for explaining the present embodiment 本実施形態を説明するためのタイミング図Timing chart for explaining the present embodiment 本実施形態の処理シーケンス説明図Processing sequence explanatory diagram of this embodiment 本実施形態の処理のフローチャート図Flowchart diagram of processing of this embodiment

(第1の実施形態)
図1に本実施形態に利用できるデジタルカメラ、デジタルビデオカメラ等の撮像装置の構成図を示す。
(First embodiment)
FIG. 1 shows a configuration diagram of an imaging apparatus such as a digital camera or a digital video camera that can be used in this embodiment.

101はレンズ、102は被写体像を撮像するCMOS等の固体撮像素子、103は該CMOS等の固体撮像素子102の読み出し制御を行うTG(Timing Generate)部である。104は該固体撮像素子102から読み出されたアナログ信号をディジタル信号に変換するA/D変換部(センサインターフェース)、105はディジタル信号に変換された固体撮像素子からの信号を処理し、画像データを生成するカメラ信号処理部である。106は画像データにフィールド間補間処理、フィールド内補間処理のいずれかを施し、インターレース方式の信号からプログレッシブ方式の信号に変換する補間部である。107は画像データを動画像記録の画角にするための動画リサイズ部である。108は動画リサイズ部107にてリサイズした画像に対するNR(Noise Reduction)処理部、109は、動画像の画角にリサイズされた画像データを符号化する動画符号化部である。110は、映像信号と音声情報入力手段であるマイクロフォン(不図示)からの音声情報信号を記録するフォーマットに変換する記録信号処理部であり、更に、音声データを復号処理し、音声信号としてスピーカー(不図示)に送る。111は、映像情報、音声情報を記録する記録媒体である。   Reference numeral 101 denotes a lens, reference numeral 102 denotes a solid-state image pickup device such as a CMOS for picking up a subject image, and reference numeral 103 denotes a TG (Timing Generate) unit that performs read control of the solid-state image pickup device 102 such as a CMOS. Reference numeral 104 denotes an A / D converter (sensor interface) that converts an analog signal read from the solid-state image sensor 102 into a digital signal. Reference numeral 105 processes a signal from the solid-state image sensor that has been converted into a digital signal. It is a camera signal processing part which produces | generates. An interpolation unit 106 performs either inter-field interpolation processing or intra-field interpolation processing on the image data and converts the interlace signal into a progressive signal. Reference numeral 107 denotes a moving image resizing unit for setting the image data to a moving image recording angle of view. Reference numeral 108 denotes an NR (Noise Reduction) processing unit for the image resized by the moving image resizing unit 107, and reference numeral 109 denotes a moving image encoding unit that encodes the image data resized to the angle of view of the moving image. A recording signal processing unit 110 converts a video signal and a voice information signal from a microphone (not shown) serving as a voice information input unit into a recording format. The recording signal processing unit 110 further decodes the voice data and uses a speaker ( (Not shown). Reference numeral 111 denotes a recording medium for recording video information and audio information.

112は、JPEG等の符号化処理を行う静止画符号化部、113は、JPEG等の静止画符号化手段にて符号化された静止画像データを格納するSDカード等の静止画記録部である。114は、各種信号処理部と符号化手段等の機能ブロックにて処理されたデータを一旦、格納するSDRAM等のメインメモリである。該各機能ブロックは、該メインメモリ114をシェアして使用しており、該メインメモリ114を介して信号処理データ、画像データの受け渡しを行っている。115は、該メインメモリ114に対する各機能ブロックからのアクセス要求を制御し、アクセスを調停するアービター部、116は、CMOS等の固体撮像素子102から読み出した画像データからなる撮影画角の領域を分割する領域制御部である。117は、撮影している被写体を検出し該被写体の動きを検出する動き/被写体検出部、118はこれら撮像システムを制御するシステム制御部である。また本構成において、シャッタはローリングシャッタとし、走査ラインごとに順次シャッタを切り、電荷蓄積を行い、各画像に対する蓄積電荷を読み出すものとする。   112 is a still image encoding unit that performs encoding processing such as JPEG, and 113 is a still image recording unit such as an SD card that stores still image data encoded by still image encoding means such as JPEG. . Reference numeral 114 denotes a main memory such as an SDRAM for temporarily storing data processed by various signal processing units and functional blocks such as encoding means. Each functional block shares and uses the main memory 114, and passes signal processing data and image data through the main memory 114. Reference numeral 115 denotes an arbiter unit that controls access requests from each functional block to the main memory 114, and arbitrates access. 116 divides a field of view angle made up of image data read from the solid-state image sensor 102 such as a CMOS. This is a region control unit. Reference numeral 117 denotes a movement / subject detection unit that detects the subject being photographed and detects the movement of the subject, and 118 is a system control unit that controls these imaging systems. In this configuration, the shutter is a rolling shutter, and the shutter is sequentially turned off for each scanning line, charge accumulation is performed, and accumulated charge for each image is read.

動き/被写体検出部117では、対象となる被写体の検出と、その動き量を検出する。被写体検出の検出方法は対象により様々であるが、本実施形態では人物の顔検出とし、肌色部を検出し、人間の顔の特徴(例えば、目の位置)から、被写体(顔)と判断する。肌色部が存在しない場合、被写体なしとする。また動き量検出は、被写体の動き方向と大きさを表す動きベクトルを用いて判断する(フレーム間で、動きベクトルを算出する)。前フレーム(N−1フレーム)と対象フレーム(Nフレーム)のブロック(例えば、N×N画素)をシフトさせ、最もよくマッチングする部分を検出し、動きベクトルを算出する。これらの詳細な検出方法の説明については周知の技術であるため省略する。   The movement / subject detection unit 117 detects a target subject and detects the amount of movement. Although detection methods for subject detection vary depending on the target, in this embodiment, human face detection is performed, the skin color portion is detected, and the subject (face) is determined from the characteristics of the human face (for example, the position of the eyes). . If no skin color portion exists, no subject is present. In addition, the motion amount detection is determined using a motion vector representing the direction and magnitude of the motion of the subject (a motion vector is calculated between frames). The block (for example, N × N pixels) of the previous frame (N−1 frame) and the target frame (N frame) is shifted, the best matching portion is detected, and the motion vector is calculated. Description of these detailed detection methods is a well-known technique and will be omitted.

被写体をパンして撮影しているとき、あるいは、被写体の動きが大きいときは、ローリングシャッタの影響で画角内の走査時間差により、撮影画像に歪を生じる。そこで、固体撮像素子から高速に画像データを読み出し、画角内の走査時間差を極力抑え、ローリングシャッタによる画像歪の影響を抑制する。例えば、垂直同期信号(V)に同期して固体撮像素子から画像データを読み出すとする。図2に垂直同期信号(V)に同期して固体撮像素子から画像データを読み出した際の処理の負荷を示す。   When the subject is panned and photographed, or when the subject moves greatly, the photographed image is distorted due to the scanning time difference within the angle of view due to the rolling shutter. Therefore, image data is read from the solid-state imaging device at high speed, the difference in scanning time within the angle of view is suppressed as much as possible, and the influence of image distortion due to the rolling shutter is suppressed. For example, assume that image data is read from the solid-state imaging device in synchronization with the vertical synchronization signal (V). FIG. 2 shows a processing load when image data is read from the solid-state imaging device in synchronization with the vertical synchronization signal (V).

図2(1)は1V期間かけてCMOS等の固体撮像素子102から画像データを読み出す場合のメインメモリ114に対するメモリ帯域の占有率を示し、縦軸をメインメモリ114に対するメモリ帯域の占有率、横軸を画像処理に要する処理時間とする。図2(2)はCMOS等の固体撮像素子102から画像データを高速に読み出す場合のメモリ帯域の占有率を示し、同様に縦軸をメインメモリ114に対するメモリ帯域の占有率、横軸を画像処理に要する処理時間とする。網掛け部はCMOS等の固体撮像素子102から画像データを読み出した後のカメラ信号処理等の各機能ブロックにおける信号処理のメインメモリ114に対するメモリ帯域の占有率の総和である。   FIG. 2 (1) shows the occupancy ratio of the memory band with respect to the main memory 114 when image data is read from the solid-state imaging device 102 such as CMOS over a 1V period. The axis is the processing time required for image processing. FIG. 2B shows the memory bandwidth occupancy when image data is read out from the solid-state imaging device 102 such as a CMOS at high speed. Similarly, the vertical axis represents the memory bandwidth occupancy with respect to the main memory 114, and the horizontal axis represents image processing. Processing time required. The shaded portion is the sum of the occupancy ratios of the memory band with respect to the main memory 114 for signal processing in each functional block such as camera signal processing after image data is read from the solid-state imaging device 102 such as CMOS.

図2(2)はCMOS等の固体撮像素子102から高速に画像データを読み出しているため、Vの前半の時間に該固体撮像素子102からの読み出し処理が集中している。各機能ブロックの中でも特に動画をプログレッシブ方式の信号に補間して記録する場合や、動画中静止画の記録時における補間部106の信号処理のメインメモリ114に対するメモリ帯域の占有率は高い。   In FIG. 2B, since image data is read out from the solid-state imaging device 102 such as a CMOS at high speed, reading processing from the solid-state imaging device 102 is concentrated in the first half of V. Among each functional block, the occupation ratio of the memory band with respect to the main memory 114 for signal processing of the interpolation unit 106 is particularly high when a moving image is interpolated and recorded as a progressive signal or when a still image in moving image is recorded.

補間部106において、上記の処理の場合に必要な映像信号は、Nフィールドと時間的に前のN−1フィールドであり、前者は現在、撮像素子103から得られるフィールド信号であり、後者は1フィールド前のフィールド信号である。補間部106における処理に必要な2つのフィールド信号のうちN−1フィールド信号は、メインメモリ114格納されているため、処理を行う際、該メインメモリ114から読み出してくる。また、動画符号化部109において、動画符号化フレームがBピクチャの場合、双方向予測符号化ピクチャとなるため、過去と将来のIピクチャまたはPピクチャの2フレームが必要となる(参照フレームが複数)。そのため、動画符号化部109からのメインメモリ114に対するアクセスが増える。   In the interpolation unit 106, the video signal necessary for the above processing is the N-1 field temporally preceding the N field, the former is a field signal currently obtained from the image sensor 103, and the latter is 1 This is a field signal before the field. Of the two field signals necessary for the processing in the interpolation unit 106, the N-1 field signal is stored in the main memory 114, and therefore is read from the main memory 114 when processing is performed. In addition, in the moving image encoding unit 109, when the moving image encoded frame is a B picture, it becomes a bi-predictive encoded picture, so two frames of past and future I pictures or P pictures are required (a plurality of reference frames are included). ). Therefore, access to the main memory 114 from the moving image encoding unit 109 increases.

従って、本撮像システムにおいて、固体撮像素子102から画像データを高速に読み出した際、補間部106の信号処理によるメインメモリ114に対するアクセスが最も集中する。このとき、メモリ帯域の占有率は100%を越え、アクセス要求が受け付けられない可能性がある。その結果、撮像システムが破綻してしまう。そこで、デジタルカメラ、デジタルビデオカメラ等の撮像装置として、システムが破綻しない手法を用いるのが本実施形態であり、以下に説明する。   Therefore, in this imaging system, when image data is read out from the solid-state imaging device 102 at a high speed, access to the main memory 114 by signal processing of the interpolation unit 106 is most concentrated. At this time, the occupation ratio of the memory bandwidth exceeds 100%, and there is a possibility that the access request cannot be accepted. As a result, the imaging system fails. Therefore, this embodiment uses a technique that does not cause the system to fail as an imaging apparatus such as a digital camera or a digital video camera, which will be described below.

図1に示すデジタルカメラ、デジタルビデオカメラ等の撮像装置において、システム制御部118により、指示されたTG103からのタイミングパルスに応じて固体撮像素子102から画像データが高速に読み出される。   In the imaging apparatus such as a digital camera or a digital video camera shown in FIG. 1, image data is read from the solid-state imaging device 102 at high speed by the system control unit 118 in accordance with an instructed timing pulse from the TG 103.

この様相を図3に示す。図3中、横軸は時間軸であり、(1)〜(5)はそれぞれVのタイミングを表す。「読み出し」の列は分割された各領域の読み出しタイミングを示したもので、「処理」はどの領域の画像データがどのタイミングで処理されたかを示す。「センサ駆動」の列にある色塗り部は固体撮像素子102が駆動している期間を示す。(1)では最初に固体撮像素子102から画像データを高速に読み出し、該画像データをA/D変換部104にて、ディジタル信号に変換し、アービター部115経由で一旦、メインメモリ114に格納する。この際、A/D変換部104にて、ディジタル信号に変換された画像データは、動き/被写体検出部117にも入力される。メインメモリ114に格納されている(1)のタイミングで固体撮像素子102から高速に読み出された画像データは、次のVのタイミング(2)でメインメモリ114から読み出され、カメラ信号処理部105に入力される。   This aspect is shown in FIG. In FIG. 3, the horizontal axis is a time axis, and (1) to (5) represent the timing of V, respectively. The column “Read” indicates the read timing of each divided area, and “Process” indicates which area of image data is processed at which timing. The colored portions in the column “Sensor Drive” indicate the period during which the solid-state image sensor 102 is driven. In (1), first, image data is read out from the solid-state image sensor 102 at high speed, the image data is converted into a digital signal by the A / D converter 104, and temporarily stored in the main memory 114 via the arbiter 115. . At this time, the image data converted into a digital signal by the A / D conversion unit 104 is also input to the motion / subject detection unit 117. The image data read from the solid-state imaging device 102 at high speed (1) stored in the main memory 114 is read from the main memory 114 at the next V timing (2), and the camera signal processing unit 105 is input.

更に該カメラ信号処理部105からの映像信号(Nフィールド)が補間部106に入力され、補間部106にて、該映像信号とメインメモリ114から読み出された一つ前のN−1フィールドの映像信号によって、フィールド間補間処理が施される。フィールド間補間処理後、映像信号はメインメモリ114に書き戻される。この後、静止画の記録のためにJPEG等の符号化処理を行う静止画符号化部112にて、画像データがメインメモリ114から読み出され、静止画符号化され、メインメモリ114における静止画処理のみに使用される符号化データが格納される領域に格納される。その後、静止画データを格納するSDカード等の記録部113に格納される。   Further, the video signal (N field) from the camera signal processing unit 105 is input to the interpolation unit 106, and the video signal and the previous N−1 field read from the main memory 114 are read by the interpolation unit 106. Inter-field interpolation processing is performed by the video signal. After inter-field interpolation processing, the video signal is written back to the main memory 114. Thereafter, in the still image encoding unit 112 that performs encoding processing such as JPEG for recording a still image, the image data is read from the main memory 114, encoded as a still image, and the still image in the main memory 114 is recorded. It is stored in an area where encoded data used only for processing is stored. Thereafter, it is stored in a recording unit 113 such as an SD card for storing still image data.

また、フィールド間補間処理を施された映像信号は、メインメモリ114から読み出され、動画リサイズ部107にて、画像データを動画像記録の画角に変換される。その後、NR(Noise Reduction)処理部108、動画リサイズ部107にて、動画像記録の画角に変換された画像データに対し、NR処理、リサイズを行う。そして動画符号化部109にて、符号化され、記録信号処理部110にて記録信号処理を施され、記録媒体111に記録される。同様に(2)のタイミングにおいて、各種画像信号処理を実行している最中でもリアルタイムで固体撮像素子102から画像データが高速に読み出される。該固体撮像素子102から高速に読み出された画像データは、同様にA/D変換部104にて、ディジタル信号に変換し、アービター部115経由でメインメモリ114に格納される。   The video signal subjected to the inter-field interpolation processing is read from the main memory 114, and the moving image resizing unit 107 converts the image data into the angle of view for moving image recording. Thereafter, an NR (Noise Reduction) processing unit 108 and a moving image resizing unit 107 perform NR processing and resizing on the image data converted to the angle of view of moving image recording. Then, it is encoded by the moving image encoding unit 109, subjected to recording signal processing by the recording signal processing unit 110, and recorded on the recording medium 111. Similarly, at the timing of (2), image data is read from the solid-state image sensor 102 at high speed in real time even during various image signal processing. Similarly, the image data read out from the solid-state imaging device 102 at high speed is converted into a digital signal by the A / D converter 104 and stored in the main memory 114 via the arbiter 115.

上述したように、本実施形態では補間部106にて、NフィールドとN−1フィールドの画像データによってフィールド間補間が施され、その後、映像信号はメインメモリ114に書き戻される。従って、補間処理時にはメインメモリ114に対するアクセスが集中(メインメモリ114に対するWrite、Read要求)する。このとき、固体撮像素子102からの画像データの高速読み出し処理に伴う、メインメモリ114に対してアクセス(メインメモリ114に対するWrite、Read要求)するタイミングが重なってしまう。その結果、メインメモリ114に対する帯域を圧迫させ、メインメモリ114に対するアクセス要求を受け付けなくなるときが発生し、撮像装置としてのシステムを破綻させてしまう可能性がある。 そこで、システム破綻の回避策として、撮影している1画角内を複数の領域に分割し、各領域に対する各種処理の順番を切り替えるのが本実施形態の処理である。   As described above, in the present embodiment, the interpolator 106 performs inter-field interpolation using the N field and N−1 field image data, and then the video signal is written back to the main memory 114. Therefore, accesses to the main memory 114 are concentrated during the interpolation process (write and read requests to the main memory 114). At this time, the timing of accessing the main memory 114 (Write / Read request to the main memory 114) accompanying the high-speed reading process of the image data from the solid-state imaging device 102 overlaps. As a result, the bandwidth for the main memory 114 may be compressed, and an access request to the main memory 114 may not be accepted, which may break down the system as the imaging device. Therefore, as a measure for avoiding system failure, the processing of this embodiment is to divide the one field angle being shot into a plurality of areas and switch the order of various processes for each area.

本実施形態における処理シーケンスについて図3と、図4のフローチャートを用いて説明する。本実施形態では、通常撮影においては動画像データをインターレース方式の信号で記録している撮像装置において、動画像データをプログレッシブ方式の信号で記録するモードに設定した場合の処理を想定する。すなわち、メインメモリ114はインターレース方式の画像データを処理するのに必要な容量に合わせてあり、プログレッシブ方式の動画像データをそのまま処理すると、メインメモリが破綻してしまうような場合を想定する。図4は、(a)が本実施形態のメインのフローであり、(b)は「読み出し・補間処理」のフローである。いずれもシステム制御部118が信号を送受信することにより各部に指示を出し、実行させているものである。   A processing sequence according to the present embodiment will be described with reference to FIGS. 3 and 4. In the present embodiment, it is assumed that an imaging apparatus that records moving image data with an interlace signal in normal shooting sets a mode in which moving image data is recorded with a progressive signal. That is, it is assumed that the main memory 114 has a capacity necessary for processing interlaced image data, and that the main memory will be destroyed if the progressive moving image data is processed as it is. 4A is a main flow of the present embodiment, and FIG. 4B is a flow of “reading / interpolation processing”. In either case, the system control unit 118 sends and receives signals to instruct each unit to execute.

撮像装置の電源が投入されると処理が開始され(S401)、撮影者からの記録開始指示を待つ(S402)。記録開始指示を受けた後、まず図3(1)のタイミングにおいて、下記の処理を実行する。TG(Timing Generater)部103に対し記録開始指示を行い、固体撮像素子102に対して画像データ読み出し用のパルス信号を出力させる(S403)。固体撮像素子102から読み出された画像データは、A/D変換部104(センサインターフェース)にてディジタル信号に変換され、動き/被写体検出部117に入力される。また画像データはアービター部115を介してメインメモリ114にも出力され、格納される。   When the image pickup apparatus is turned on, the process is started (S401), and a recording start instruction from the photographer is awaited (S402). After receiving the recording start instruction, the following processing is first executed at the timing shown in FIG. A recording start instruction is issued to a TG (Timing Generator) unit 103, and a pulse signal for reading image data is output to the solid-state imaging device 102 (S403). Image data read from the solid-state image sensor 102 is converted into a digital signal by the A / D conversion unit 104 (sensor interface) and input to the motion / subject detection unit 117. The image data is also output to the main memory 114 via the arbiter unit 115 and stored.

カメラ信号処理部105では、領域制御部116の指示により、固体撮像素子102から読み出された画像データから構成される1画角を複数領域に分割して分割画像データとする(S404)。本実施形態では、1画角を4つの領域に分割するものとする。領域の分割は、メインメモリ(DDR等)から画像データを読み出すことにより実現され、リードアドレスを制御することで読み出す順番が変えられる。   In response to an instruction from the area control unit 116, the camera signal processing unit 105 divides one angle of view composed of the image data read from the solid-state imaging device 102 into a plurality of areas to obtain divided image data (S404). In the present embodiment, it is assumed that one angle of view is divided into four regions. The division of the area is realized by reading the image data from the main memory (DDR or the like), and the reading order is changed by controlling the read address.

さらに動き/被写体検出部117により複数領域に分割された各々の領域に対し、撮影している被写体の有無を検出し(S405)、該検出した被写体の動き量を検出する(S406)。その後、読み出し・補間処理が実行される(S407)。   Further, the presence / absence of the subject being photographed is detected in each region divided into a plurality of regions by the motion / subject detection unit 117 (S405), and the detected motion amount of the subject is detected (S406). Thereafter, reading / interpolation processing is executed (S407).

読み出し・補間処理について図4(b)を用いて説明する。まずS405、S406で得られた被写体の有無と動き量検出の結果を基に、分割された各領域の読み出しの順番が決定される。本実施形態では、A、B、C、Dいずれの領域にも被写体が存在し、A領域の被写体の動きが他の3つの領域に存在する被写体の動きよりも大きいとする。このとき、メインメモリ114からA領域に相当する画像データを最初に読み出す(S411)。従って、メインメモリ114から読み出す画像データの順番は、図3(2)に示すようにA→B→C→Dの順番となる(B→C→Dは本来任意)。   Read / interpolation processing will be described with reference to FIG. First, the reading order of each divided area is determined based on the presence / absence of the subject obtained in S405 and S406 and the result of motion amount detection. In the present embodiment, it is assumed that the subject exists in any of the areas A, B, C, and D, and the movement of the subject in the A area is larger than the movement of the subject that exists in the other three areas. At this time, image data corresponding to the area A is first read from the main memory 114 (S411). Therefore, the order of the image data read from the main memory 114 is A → B → C → D as shown in FIG. 3B (B → C → D is originally arbitrary).

メインメモリ114からまずはじめにA領域が読み出される(S411)。その後、フローチャートではS412として読み出された領域が1画像データ中で最初に読み出された領域かどうかを判定するステップを設け、ここではYesとしてS414に進む。A領域の補間処理中は固体撮像素子102の動作中(センサ駆動中)であるので、メインメモリ114への負担の少ないフィールド内補間で補間処理を行う(S414)。ここでまだ全領域の読み出しを終了していないのでS411に戻って次の領域の読み出しを始める。今度はS412にてNoの分岐に進み、そのほかの3つの領域(B、C、D)に関しては、フィールド間補間で補間処理を行う(S413)。以上を全領域の読み込みが終了するまで行い(S415)、全領域の読み出しが終了したらメインのフローへ戻る(S416)。その後、記録終了指示を受けたか否かを判別し、終了指示を受けた場合は処理を終了し(S409)、受けていない場合は、S403に戻り、次のVのタイミングで動作を始める(S408)。今、図3(2)のタイミングでメモリからの読み出し・補間処理を行っていたとすると、S403に戻ることにより同時並行で、次の図3(3)のタイミングでメモリからの読み出し・補間処理が行われる画像の、撮像素子からの読み出しを始めることになる。   First, the area A is read from the main memory 114 (S411). Thereafter, in the flowchart, there is provided a step of determining whether or not the area read out in S412 is the area read out first in one image data. Here, the process proceeds to S414 as Yes. Since the solid-state image sensor 102 is operating (interacting with the sensor) during the A area interpolation processing, the interpolation processing is performed by intra-field interpolation with less burden on the main memory 114 (S414). Here, since reading of the entire area has not been completed, the process returns to S411 to start reading of the next area. This time, the process proceeds to branch No in S412, and the other three regions (B, C, D) are interpolated by inter-field interpolation (S413). The above is performed until the reading of all areas is completed (S415). When reading of all areas is completed, the process returns to the main flow (S416). Thereafter, it is determined whether or not a recording end instruction has been received. If an end instruction has been received, the process ends (S409). If not, the process returns to S403 to start the operation at the next V timing (S408). ). If reading / interpolation processing from the memory is performed at the timing of FIG. 3 (2), reading / interpolation processing from the memory is performed simultaneously at the timing of the next FIG. 3 (3) by returning to S403. Reading of the image to be performed from the image sensor is started.

同様に図3(3)のタイミングにおいても、被写体検出、動き量検出が行われる。今回はA、B、に被写体が存在し、B領域の被写体の動きがA領域に存在する被写体の動きよりも大きいとする。このとき、メインメモリ114からB領域に相当する画像データを最初に読み出す(S411)。従って、メインメモリ114から読み出す画像データの順番は、図3(2)に示すようにB→A→C→Dの順番とする(A→C→Dは本来任意)。   Similarly, subject detection and motion amount detection are also performed at the timing of FIG. This time, it is assumed that there are subjects in A and B, and the movement of the subject in the B area is larger than the movement of the subject in the A area. At this time, image data corresponding to the area B is first read from the main memory 114 (S411). Therefore, the order of the image data read from the main memory 114 is B → A → C → D as shown in FIG. 3B (A → C → D is originally arbitrary).

メインメモリ114からまずはじめにB領域が読み出される(S411)。その後、フローチャートではS412として読み出された領域が1画像データ中で最初に読み出された領域かどうかを判定するステップを設け、ここではYesとしてS414に進む。B領域の補間処理中は固体撮像素子102の動作中(センサ駆動中)であるので、メインメモリ114への負担の少ないフィールド内補間で補間処理を行う(S414)。ここでまだ全領域の読み出しを終了していないのでS411に戻って次の領域の読み出しを始める。今度はS412にてNoの分岐に進み、そのほかの3つの領域(A、C、D)に関しては、フィールド間補間で補間処理を行う(S413)。以上を全領域の読み込みが終了するまで行い(S415)、全領域の読み出しが終了したらメインのフローへ戻る(S416)。   First, the area B is read from the main memory 114 (S411). Thereafter, in the flowchart, there is provided a step of determining whether or not the area read out in S412 is the area read out first in one image data. Here, the process proceeds to S414 as Yes. Since the solid-state image sensor 102 is operating (while the sensor is being driven) during the B area interpolation processing, the interpolation processing is performed by intra-field interpolation with a small burden on the main memory 114 (S414). Here, since reading of the entire area has not been completed, the process returns to S411 to start reading of the next area. This time, the process proceeds to branch No in S412, and the other three regions (A, C, D) are interpolated by inter-field interpolation (S413). The above is performed until the reading of all areas is completed (S415). When reading of all areas is completed, the process returns to the main flow (S416).

図3(4)、(5)のタイミングにおいては、それぞれ処理の順番がB→A→C→D、D→A→B→Cとなっており、同様に処理が行われる。   At the timings of FIGS. 3 (4) and 3 (5), the processing order is B → A → C → D and D → A → B → C, and the same processing is performed.

以上のように固体撮像素子から高速に画像データを読み出すデジタルカメラ、デジタルビデオカメラ等の撮像装置において、撮像装置が駆動している期間には、フィールド内補間処理を行い画像データを記録する。1画角を複数の領域に分割し、撮影している被写体の動きが大きい領域に対するフィールド内補間での補間処理と固体撮像素子102から画像データを読み出すタイミングが一致するようにメインメモリ114の画像データの読み出しタイミングを適応的に制御する。こうすることにより、固体撮像素子102から画像データを読み出している期間は、メインメモリ114に対するアクセス要求(Read要求)を実行することなく、メインメモリ114に対するアクセスを減らすことができる。その結果、メインメモリ114に対する帯域を圧迫させ、メインメモリ114に対するアクセス要求を受け付けなくなることを抑制でき、撮像システムを破綻させることを回避できる。   As described above, in an imaging apparatus such as a digital camera or a digital video camera that reads image data from a solid-state imaging device at high speed, intra-field interpolation processing is performed and image data is recorded during the period when the imaging apparatus is driven. An image in the main memory 114 is divided so that the interpolation processing in the intra-field interpolation for the region where the movement of the subject being photographed is divided and the timing for reading out the image data from the solid-state imaging device 102 are divided into a plurality of regions. The data read timing is adaptively controlled. This makes it possible to reduce access to the main memory 114 without executing an access request (Read request) to the main memory 114 during a period in which image data is read from the solid-state imaging device 102. As a result, the bandwidth for the main memory 114 is compressed, and it is possible to prevent the access request for the main memory 114 from being rejected, and the failure of the imaging system can be avoided.

また、本実施形態では、動画撮影において動画像データをプログレッシブ方式の信号で記録する場合の実施例を示したが、それに限らず、動画撮影中に途中で同じくプログレッシブ方式の信号で記録される静止画像データを撮影する場合などにも適用できる。この場合、図3の各VDのうちどこか1つのVDのタイミングで、その直前2つのタイミングで読み出された画像データを用いて中段の補間処理が実行されることになる。   Further, in the present embodiment, an example in which moving image data is recorded as a progressive signal in moving image shooting has been described. However, the present invention is not limited thereto, and still images that are also recorded as a progressive signal during moving image shooting. It can also be applied when shooting image data. In this case, at the timing of one of the VDs in FIG. 3, the intermediate interpolation process is executed using the image data read at the two previous timings.

また、本実施形態では、各撮影画像データの1画角を4つの分割画像データに分割し、処理を実行したが、この分割数は撮影される画像の解像度と撮像素子の駆動性能とのバランスで決定されたものである。従って、例えば本実施形態で用いた撮像素子よりも読み出し速度の速い撮像素子を用いた場合、1画角の8分の1の領域を処理する時間で撮像素子の駆動が終わることも考えられる。このような場合、1画角を8つの分割画像データに分割して最初の1領域の分割画像データのみをフィールド内補間によって補間処理を行えば、メモリは破綻せず、かつより多くの領域で精度の高い補間処理を行うことができる。   In the present embodiment, one field angle of each captured image data is divided into four divided image data, and the process is executed. The number of divisions is a balance between the resolution of the captured image and the drive performance of the image sensor. It was decided by. Therefore, for example, when an image sensor having a higher reading speed than the image sensor used in the present embodiment is used, it is conceivable that the drive of the image sensor is finished in a time for processing an area of 1/8 of the angle of view. In such a case, if one field angle is divided into eight divided image data and only the first divided image data of one region is subjected to interpolation processing by intra-field interpolation, the memory does not break down and more regions are used. A highly accurate interpolation process can be performed.

また、本発明の他の実施形態として、撮像素子の性能に関係なく分割数を決めておき、1領域の分割画像データの補間処理が終わるたびに撮像素子の駆動が終了しているかどうかを判定するステップを加える。そして、撮像素子の駆動が終了するまでは、フィールド内補間によって補間処理を行うようにしてもよい。   As another embodiment of the present invention, the number of divisions is determined regardless of the performance of the image sensor, and it is determined whether or not the drive of the image sensor is finished every time interpolation processing of divided image data in one region is completed. Add steps to Then, interpolation processing may be performed by intra-field interpolation until driving of the image sensor is completed.

(第2の実施形態)
本実施形態では、第1の実施形態に比べて分割された各領域における被写体の動きが全てない場合の処理を考える。なお、第1の実施形態と処理が同様の箇所は説明を省略する。第1の実施形態と同じ図3、図4を用いて本実施形態における処理シーケンスについて説明する。
(Second Embodiment)
In the present embodiment, a process is considered when there is no movement of the subject in each of the divided areas as compared with the first embodiment. Note that the description of the same parts as those in the first embodiment is omitted. A processing sequence in the present embodiment will be described with reference to FIGS. 3 and 4 which are the same as those in the first embodiment.

第1の実施形態と同様に、固体撮像素子102から読み出された画像データから構成される1画角を4領域に分割し(図3中、A、B、C、D)、各領域における被写体の有無(S405)と、その動き量を検出する(S406)。その後読み出し・補間処理へと進む(S407)。   As in the first embodiment, one angle of view composed of image data read from the solid-state image sensor 102 is divided into four areas (A, B, C, and D in FIG. 3). The presence or absence of a subject (S405) and the amount of movement are detected (S406). Thereafter, the process proceeds to reading / interpolation processing (S407).

例えば、図3(2)のタイミングにおいては、図3(1)のタイミングで検出した被写体の動き量を検出した結果、被写体の動きがない場合、被写体(特に人物)の存在しない領域から優先して、メインメモリ114から画像データを読み出す。ここでは、A領域のみ被写体が存在しなかったとする。この場合、メインメモリ114から画像データを読み出す順番は、A→B→C→Dの順番となる(S410)。
以下、第1の実施形態と同様に、初めのA領域がフィールド内補間の補間処理、他の3つの領域(B、C、D)がフィールド間補間の補間処理によって補間され、全領域の補間処理が実行され、メインの処理に戻る(S416)。
For example, at the timing of FIG. 3 (2), when the movement amount of the subject detected at the timing of FIG. 3 (1) is detected and there is no movement of the subject, priority is given to the area where the subject (particularly a person) does not exist. Thus, image data is read from the main memory 114. Here, it is assumed that no subject exists only in the A area. In this case, the order of reading the image data from the main memory 114 is the order of A → B → C → D (S410).
Hereinafter, as in the first embodiment, the first A area is interpolated by intra-field interpolation, and the other three areas (B, C, D) are interpolated by inter-field interpolation. The process is executed, and the process returns to the main process (S416).

図3(3)、(4)、(5)のタイミングにおいては、それぞれ処理の順番がB→A→C→D、B→A→C→D、D→A→B→Cと決まり、同様に処理が行われている。   3 (3), (4), and (5), the processing order is determined as B → A → C → D, B → A → C → D, and D → A → B → C, respectively. Processing has been performed.

以上のようにプログレッシブ方式の信号で動画像データを記録する系において、撮影画角内を複数の領域に分割し、各領域の被写体の動きと被写体の有無を検出し、被写体の動きがなく、被写体の存在しない領域にはフィールド内補間処理を実行する。この処理と固体撮像素子102から画像データを高速に読み出す読み出し処理のタイミングが一致するようにメインメモリ114の画像データの読み出しを適応的に制御する。これにより、被写体に対しては、解像度を落とさずに補間処理を行いつつ、メインメモリ114に対するアクセスを減らすことができる。その結果、メインメモリ114に対する帯域を圧迫させ、メインメモリ114に対するアクセス要求を受け付けなくなることを抑制でき、撮像システムを破綻させることを回避できる。   As described above, in a system that records moving image data with a progressive signal, the shooting angle of view is divided into a plurality of areas, the movement of the subject in each area and the presence or absence of the subject are detected, and there is no movement of the subject. Intra-field interpolation processing is executed for an area where no subject exists. The reading of the image data in the main memory 114 is adaptively controlled so that the timing of the reading process for reading out the image data from the solid-state image sensor 102 at a high speed matches. Thereby, it is possible to reduce the access to the main memory 114 while performing the interpolation processing without reducing the resolution for the subject. As a result, the bandwidth for the main memory 114 is compressed, and it is possible to prevent the access request for the main memory 114 from being rejected, and the failure of the imaging system can be avoided.

本実施形態においても第1の実施形態と同様に、動画撮影中の静止画撮影にも適用できることは言うまでもない。   Needless to say, this embodiment can also be applied to still image shooting during moving image shooting, as in the first embodiment.

また、第1、第2の実施形態ではそれぞれ(第1の実施形態)全ての領域で被写体が確認されて、動き量に大小関係があるとき、(第2の実施形態)被写体が1つの領域で確認できなかったとき、について述べた。しかし、本発明は被写体の有無とその動き量に関してその他様々な状況に対しても適用できる。例えば、被写体の動きが大きい領域と被写体が存在しない領域が同時に存在した場合、どちらをフィールド内補間にするか優先度をつけて処理をするなどすればよい。   Further, in the first and second embodiments (first embodiment), when the subject is confirmed in all the areas, and there is a magnitude relationship in the amount of movement (second embodiment), the subject is one area. When I couldn't confirm it, I mentioned. However, the present invention can also be applied to various other situations regarding the presence of an object and the amount of movement. For example, if there is an area where the movement of the subject is large and an area where the subject does not exist at the same time, processing may be performed with a priority indicating which one is to be used for intra-field interpolation.

(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
(Other embodiments)
The object of the present invention can also be achieved as follows. That is, a storage medium in which a program code of software in which a procedure for realizing the functions of the above-described embodiments is described is recorded is supplied to the system or apparatus. The computer (or CPU, MPU, etc.) of the system or apparatus reads out and executes the program code stored in the storage medium.

この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the storage medium and program storing the program code constitute the present invention.

また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD−R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。   Examples of the storage medium for supplying the program code include a flexible disk, a hard disk, an optical disk, and a magneto-optical disk. Further, a CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD-R, magnetic tape, nonvolatile memory card, ROM, or the like can also be used.

また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。   Further, by making the program code read by the computer executable, the functions of the above-described embodiments are realized. Furthermore, when the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, the functions of the above-described embodiments are realized by the processing. Is also included.

更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。   Furthermore, the following cases are also included. First, the program code read from the storage medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, based on the instruction of the program code, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing.

102 撮像素子
103 TG部
105 カメラ信号処理部
106 補間部
114 メインメモリ
116 領域制御部
117 動き/被写体検出部
118 システム制御部
102 Image Sensor 103 TG Unit 105 Camera Signal Processing Unit 106 Interpolation Unit 114 Main Memory 116 Area Control Unit 117 Motion / Subject Detection Unit 118 System Control Unit

Claims (7)

被写体像をインターレース方式で撮像して得られた画像データをメモリに格納する撮像手段と、
前記メモリに格納された画像データを読み出し、フィールド内補間またはフィールド間補間によってプログレッシブ方式の画像データへと補間処理を行うことが可能である補間手段と、を有し、
前記補間手段は、前記撮像手段が前記撮像または前記画像データのメモリへの格納を行っている期間は、フィールド内補間によって前記補間処理を行うことを特徴とする撮像装置。
Imaging means for storing image data obtained by imaging a subject image in an interlaced manner in a memory;
Interpolating means capable of reading out image data stored in the memory and performing interpolation processing into progressive image data by intra-field interpolation or inter-field interpolation;
The interpolating unit performs the interpolating process by intra-field interpolation during a period in which the imaging unit is performing the imaging or storing the image data in a memory.
前記メモリに格納された画像データを複数の分割画像データに分割する分割手段と、
前記分割画像データに対して被写体検出を行う被写体検出手段と、を有し、
前記補間手段は、前記撮像手段が前記撮像または前記画像データのメモリへの格納を行っている期間は、前記被写体検出手段によって被写体が検出されなかった分割画像データに対して、フィールド内補間によって前記補間処理を行うことを特徴とする請求項1に記載の撮像装置。
Dividing means for dividing the image data stored in the memory into a plurality of divided image data;
Subject detection means for performing subject detection on the divided image data,
The interpolating unit performs intra-field interpolation on the divided image data in which the subject is not detected by the subject detecting unit during the period in which the imaging unit performs the imaging or storing the image data in the memory. The imaging apparatus according to claim 1, wherein interpolation processing is performed.
前記メモリに格納された画像データを複数の分割画像データに分割する分割手段と、
前記分割画像データに対して動きを検出する動き検出手段を有し、
前記補間手段は、前記撮像手段が前記撮像または前記画像データのメモリへの格納を行っている期間は、前記動き検出手段によって動きが検出された分割画像データのうち、動きが大きいものからフィールド内補間によって前記補間処理を行うことを特徴とする請求項1に記載の撮像装置。
Dividing means for dividing the image data stored in the memory into a plurality of divided image data;
Motion detection means for detecting motion with respect to the divided image data;
In the period during which the imaging unit is performing the imaging or storing the image data in the memory, the interpolating unit is arranged in the field from the divided image data whose motion is detected by the motion detecting unit to the one in which the motion is large. The imaging apparatus according to claim 1, wherein the interpolation process is performed by interpolation.
前記分割手段による前記画像データの分割数は、前記画像データの解像度または前記撮像手段の駆動速度によって決定されることを特徴とする請求項2または3に記載の撮像装置。   The imaging apparatus according to claim 2 or 3, wherein the number of divisions of the image data by the dividing unit is determined by a resolution of the image data or a driving speed of the imaging unit. 撮像手段に被写体像をインターレース方式で撮像させ、得られた画像データをメモリに格納させる撮像ステップと、
前記メモリに格納された画像データを読み出し、プログレッシブ方式の画像データへと補間処理を行う補間ステップと、を有し、
前記補間ステップでは、前記撮像ステップが行われている期間は、フィールド内補間によって前記補間処理を行うことを特徴とする撮像装置の制御方法。
An imaging step of causing the imaging means to capture the subject image in an interlaced manner and storing the obtained image data in a memory;
An interpolation step of reading the image data stored in the memory and performing an interpolation process into progressive image data,
In the interpolation step, the interpolation process is performed by intra-field interpolation during a period in which the imaging step is performed.
請求項5に記載の撮像装置の制御方法の手順が記述されたコンピュータで実行可能なプログラム。   A computer-executable program in which a procedure of a control method for an imaging apparatus according to claim 5 is described. 請求項5に記載の撮像装置の制御方法の手順が記述されたプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program in which a procedure of a control method for an imaging apparatus according to claim 5 is described.
JP2009201477A 2009-09-01 2009-09-01 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD Expired - Fee Related JP5317894B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009201477A JP5317894B2 (en) 2009-09-01 2009-09-01 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009201477A JP5317894B2 (en) 2009-09-01 2009-09-01 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2011055188A true JP2011055188A (en) 2011-03-17
JP5317894B2 JP5317894B2 (en) 2013-10-16

Family

ID=43943762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009201477A Expired - Fee Related JP5317894B2 (en) 2009-09-01 2009-09-01 IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP5317894B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141053A1 (en) * 2011-04-14 2012-10-18 日立オートモティブシステムズ株式会社 Image processing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314951A (en) * 2001-04-13 2002-10-25 Canon Inc Image processor, image processing system, scanning system conversion method, storage medium and its program
JP2004304390A (en) * 2003-03-31 2004-10-28 Renesas Technology Corp Signal processor
JP2007228119A (en) * 2006-02-22 2007-09-06 Sony Corp Imaging apparatus, image processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002314951A (en) * 2001-04-13 2002-10-25 Canon Inc Image processor, image processing system, scanning system conversion method, storage medium and its program
JP2004304390A (en) * 2003-03-31 2004-10-28 Renesas Technology Corp Signal processor
JP2007228119A (en) * 2006-02-22 2007-09-06 Sony Corp Imaging apparatus, image processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012141053A1 (en) * 2011-04-14 2012-10-18 日立オートモティブシステムズ株式会社 Image processing device
JP2012222762A (en) * 2011-04-14 2012-11-12 Hitachi Automotive Systems Ltd Image processing apparatus
US9077907B2 (en) 2011-04-14 2015-07-07 Hitachi Automotive Systems, Ltd. Image processing apparatus

Also Published As

Publication number Publication date
JP5317894B2 (en) 2013-10-16

Similar Documents

Publication Publication Date Title
JP4320658B2 (en) Imaging apparatus, control method, and program
US20120105657A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and program
JP2008129554A (en) Imaging device and automatic focusing control method
JP2008109336A (en) Image processor and imaging apparatus
WO2008053791A1 (en) Imaging device and video signal generating method employed in imaging device
JP2009288780A (en) Image sensing apparatus
US20100277613A1 (en) Image recording device and image reproduction device
JP2013165487A (en) Image processing apparatus, image capturing apparatus, and program
JP4876066B2 (en) Video processing apparatus, video processing system, video processing method, and program
JP5829122B2 (en) Imaging apparatus and evaluation value generation apparatus
JP4225241B2 (en) Image display device
JP4606218B2 (en) Distortion correction device
JP5317894B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP2007267177A (en) Imaging apparatus
JP6124703B2 (en) Imaging apparatus and control method thereof
JP2007228119A (en) Imaging apparatus, image processing method, and program
JP5089499B2 (en) Shooting device, video still image recording method
JP5300606B2 (en) Imaging apparatus and control method thereof
JP5306068B2 (en) Imaging apparatus and control method thereof
JP4292963B2 (en) Imaging device
JP4846394B2 (en) Imaging apparatus and imaging method
JP2006229552A (en) Video camera
JP2006270160A (en) Image data processing apparatus
JP3596731B2 (en) Electronic zoom circuit
JP2015185936A (en) Imaging controller, imaging control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130611

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130709

LAPS Cancellation because of no payment of annual fees