JP2017126898A - Imaging device and video processing apparatus - Google Patents
Imaging device and video processing apparatus Download PDFInfo
- Publication number
- JP2017126898A JP2017126898A JP2016005491A JP2016005491A JP2017126898A JP 2017126898 A JP2017126898 A JP 2017126898A JP 2016005491 A JP2016005491 A JP 2016005491A JP 2016005491 A JP2016005491 A JP 2016005491A JP 2017126898 A JP2017126898 A JP 2017126898A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- signal
- photoelectric conversion
- picture
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Solid State Image Pick-Up Elements (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
Description
本発明は、撮像装置及び映像処理装置に関する。 The present invention relates to an imaging apparatus and a video processing apparatus.
動画と静止画を一台のカメラで同時に撮影できれば、撮影シーンを動画として視聴するとともに、その動画の中の決定的なシーンを静止画として楽しむことも可能となり、撮影された映像の価値を大きく高めることができる。また、通常のフレームレートの動画と高フレームレートの動画を一台のカメラで同時に撮影できれば、特定のシーンをスローモーション映像に切り替えつつ高品位な作品として楽しむことも可能となり、視聴者に対して動感を豊かに伝えることができる。また、映画や家庭用のテレビの映像をより臨場感のあるものにするための技術として、動画のHDR(ハイ・ダイナミックレンジ)技術がある。これは、感度の異なる2つの画素群からの出力を合成することで、表示画面の輝度再現範囲を拡大し、主に、瞬間的或いは部分的な輝度の突き上げによって、従来以上の臨場感を提供するものである。 If you can shoot movies and still images simultaneously with a single camera, you can watch the shooting scene as a movie and enjoy the decisive scene in the movie as a still image, greatly increasing the value of the shot image. Can be increased. Also, if you can shoot a normal frame rate video and a high frame rate video at the same time with a single camera, you can enjoy a high-quality work while switching a specific scene to a slow motion video. It can convey a dynamic feeling. In addition, as a technique for making movies and home television images more realistic, there is an HDR (high dynamic range) technique for moving images. This combines the output from two pixel groups with different sensitivities to expand the brightness reproduction range of the display screen, and provides a more realistic sensation than before, mainly by momentary or partial brightness increase. To do.
このような映像を撮影するための撮像装置として、受光効率の異なる複数の光電変換部を含む画素を有する撮像素子を用いた撮像装置が提案されている。ところで、撮像素子においては、信号を正常に出力できない画素(いわゆる欠陥画素)を完全になくすことは困難であるため、欠陥画素が存在した場合にその画素値を補正するための技術が提案されている。 As an imaging apparatus for capturing such an image, an imaging apparatus using an imaging element having pixels including a plurality of photoelectric conversion units having different light receiving efficiency has been proposed. By the way, in an image sensor, it is difficult to completely eliminate pixels that cannot output signals normally (so-called defective pixels). Therefore, a technique for correcting pixel values when defective pixels exist has been proposed. Yes.
特許文献1には、各単位画素が複数の光電変換部を有する撮像装置において、欠陥のある光電変換部の画素値を、同一の画素に含まれる他の光電変換部の画素値又は他の画素に含まれる光電変換部の画素値に基づいて補正することが記載されている。また、特許文献2には、各画素が主感光画素と従感光画素とを有する固体撮像装置において、従感光画素が欠陥である場合に、従感光画素の画素値を、主感光画素の画素値に基づいて補正することが記載されている。 In Patent Document 1, in an imaging device in which each unit pixel has a plurality of photoelectric conversion units, the pixel value of a defective photoelectric conversion unit is changed to the pixel value of another photoelectric conversion unit included in the same pixel or another pixel. The correction is described based on the pixel value of the photoelectric conversion unit included. In Patent Document 2, in a solid-state imaging device in which each pixel has a main photosensitive pixel and a secondary photosensitive pixel, when the secondary photosensitive pixel is defective, the pixel value of the secondary photosensitive pixel is set as the pixel value of the primary photosensitive pixel. It is described that the correction is made based on the above.
しかしながら、ユーザが映像に求める要求には様々なものがあり、特許文献1及び特許文献2に記載の方法により欠陥画素の画素値を補正した場合に、必ずしもユーザの意図を反映した映像が得られるとは限らなかった。 However, there are various requests that the user requests for video, and when the pixel values of defective pixels are corrected by the methods described in Patent Document 1 and Patent Document 2, a video that reflects the user's intention is not necessarily obtained. Not always.
本発明の目的は、受光効率の異なる複数の光電変換部を含む画素を有する撮像素子に欠陥画素が存在する場合に、欠陥画素の画素値を適切に補正してユーザの意図に応じた映像を取得しうる撮像装置及び映像処理装置を提供することにある。 An object of the present invention is to appropriately correct a pixel value of a defective pixel and display an image according to a user's intention when an image sensor having pixels including a plurality of photoelectric conversion units having different light receiving efficiencies exists. An object of the present invention is to provide an image pickup apparatus and a video processing apparatus that can be acquired.
本発明の一観点によれば、第1の光電変換部を含む第1の画素要素と、前記第1の光電変換部とは感度の異なる第2の光電変換部を含む第2の画素要素とをそれぞれが含む複数の画素を有し、前記第1の光電変換部において生成された信号電荷に基づく第1の映像信号と、前記第2の光電変換部において生成された信号電荷に基づく映像信号であって、前記第1の映像信号と同期した第2の映像信号とを取得する撮像素子と、前記複数の画素に、前記第1の画素要素が欠陥画素要素である欠陥画素が含まれる場合に、前記第1の映像信号における前記欠陥画素要素の画素値を、前記欠陥画素の前記第2の画素要素の第1の画素値と、前記欠陥画素に隣接する他の画素の前記第1の画素要素の第2の画素値とに基づいて算出する信号処理部とを有する撮像装置が提供される。 According to one aspect of the present invention, a first pixel element including a first photoelectric conversion unit, and a second pixel element including a second photoelectric conversion unit having a sensitivity different from that of the first photoelectric conversion unit, The first video signal based on the signal charge generated in the first photoelectric conversion unit and the video signal based on the signal charge generated in the second photoelectric conversion unit When the imaging device that acquires the second video signal synchronized with the first video signal and the plurality of pixels include a defective pixel in which the first pixel element is a defective pixel element. In addition, the pixel value of the defective pixel element in the first video signal is set to the first pixel value of the second pixel element of the defective pixel and the first pixel value of another pixel adjacent to the defective pixel. A signal processing unit that calculates based on the second pixel value of the pixel element; Imaging device that is provided.
また、本発明の他の一観点によれば、第1の光電変換部を含む第1の画素要素と、前記第1の光電変換部とは感度の異なる第2の光電変換部を含む第2の画素要素とをそれぞれが含む複数の画素を有する撮像素子により取得された映像データであって、前記第1の光電変換部において生成された信号電荷に基づく第1の映像データと、前記第2の光電変換部において生成された信号電荷に基づく映像データであって、前記第1の映像データと同期した第2の映像データとを取得する映像データ取得部と、前記撮像素子の前記複数の画素に、前記第1の画素要素が欠陥画素要素である欠陥画素が含まれる場合に、前記第1の映像データにおける前記欠陥画素要素の画素値を、前記欠陥画素の前記第2の画素要素の第1の画素値と、前記欠陥画素に隣接する他の画素の前記第1の画素要素の第2の画素値とに基づいて補正する補正処理部とを有する映像処理装置が提供される。 According to another aspect of the present invention, a second pixel including a first pixel element including a first photoelectric conversion unit and a second photoelectric conversion unit having a sensitivity different from that of the first photoelectric conversion unit. Image data acquired by an image sensor having a plurality of pixels each including a first pixel data based on the signal charge generated in the first photoelectric conversion unit, and the second A video data acquisition unit that acquires video data based on the signal charges generated in the photoelectric conversion unit of the second video data synchronized with the first video data; and the plurality of pixels of the imaging device When a defective pixel in which the first pixel element is a defective pixel element is included, the pixel value of the defective pixel element in the first video data is calculated as the second pixel element of the defective pixel. 1 pixel value and the defective pixel Video processing apparatus and a correction processing unit for correcting, based on the second pixel value of the first pixel element of the other adjacent pixels is provided.
また、本発明の他の一観点によれば、第1の光電変換部を含む第1の画素要素と、前記第1の光電変換部とは感度の異なる第2の光電変換部を含む第2の画素要素とをそれぞれが含む複数の画素を有する撮像素子により取得された映像データであって、前記第1の光電変換部において生成された信号電荷に基づく第1の映像データと、前記第2の光電変換部において生成された信号電荷に基づく映像データであって、前記第1の映像データと同期した第2の映像データとを取得し、前記撮像素子の前記複数の画素に、前記第1の画素要素が欠陥画素要素である欠陥画素が含まれる場合に、前記第1の映像データにおける前記欠陥画素要素の画素値を、前記欠陥画素の前記第2の画素要素の第1の画素値と、前記欠陥画素に隣接する他の画素の前記第1の画素要素の第2の画素値とに基づいて補正する映像処理方法が提供される。 According to another aspect of the present invention, a second pixel including a first pixel element including a first photoelectric conversion unit and a second photoelectric conversion unit having a sensitivity different from that of the first photoelectric conversion unit. Image data acquired by an image sensor having a plurality of pixels each including a first pixel data based on the signal charge generated in the first photoelectric conversion unit, and the second Image data based on the signal charges generated in the photoelectric conversion unit of the second image data, the second image data synchronized with the first image data, and acquiring the first image data in the plurality of pixels of the image sensor. When a defective pixel whose pixel element is a defective pixel element is included, a pixel value of the defective pixel element in the first video data is set to a first pixel value of the second pixel element of the defective pixel. , Of other pixels adjacent to the defective pixel Image processing method of correcting, based on the second pixel values of the serial first pixel element is provided.
本発明によれば、受光効率の異なる複数の光電変換部を含む画素を有する撮像素子において欠陥画素が存在する場合に、欠陥画素の画素値を適切に補正してユーザの意図に応じた映像を取得することができる。 According to the present invention, when a defective pixel exists in an imaging device having pixels including a plurality of photoelectric conversion units having different light receiving efficiencies, an image according to the user's intention is obtained by appropriately correcting the pixel value of the defective pixel. Can be acquired.
本発明の一実施形態による撮像装置について、図1乃至図35を用いて説明する。本実施形態では、撮像のための撮像素子や撮影光学系等と映像処理装置とを備えた撮像装置を、本発明の好適な実施の形態の一例として説明する。ただし、映像処理装置は、必ずしも撮像装置の一部として構成される必要はなく、撮像素子や撮影光学系とは別のハードウェアにより構成されていてもよい。また、映像処理装置の機能の全部又は一部を、撮像素子に搭載するようにしてもよい。 An imaging apparatus according to an embodiment of the present invention will be described with reference to FIGS. In the present embodiment, an image pickup apparatus including an image pickup device for image pickup, a shooting optical system, and the like and a video processing apparatus will be described as an example of a preferred embodiment of the present invention. However, the video processing apparatus is not necessarily configured as a part of the imaging apparatus, and may be configured by hardware different from the imaging element and the imaging optical system. Moreover, you may make it mount all or one part of the function of a video processing apparatus in an image pick-up element.
図1は、本実施形態による撮像装置の一例としてのデジタルスチルモーションカメラの外観図である。図1(a)がその正面図を示し、図1(b)がその背面図を示している。 FIG. 1 is an external view of a digital still motion camera as an example of the imaging apparatus according to the present embodiment. FIG. 1A shows a front view thereof, and FIG. 1B shows a rear view thereof.
本実施形態による撮像装置100は、筐体151と、筐体151の正面部に設けられた撮影光学系152と、筐体151の上面部に設けられたスイッチST154及びプロペラ162とを有している。また、撮像装置100は、筐体151の背面部に、表示部153と、スイッチMV155と、撮影モード選択レバー156と、メニューボタン157と、アップダウンスイッチ158,159と、ダイアル160と、再生ボタン161とを有している。 The imaging apparatus 100 according to the present embodiment includes a housing 151, a photographing optical system 152 provided on the front portion of the housing 151, and a switch ST <b> 154 and a propeller 162 provided on the upper surface of the housing 151. Yes. In addition, the imaging apparatus 100 includes a display unit 153, a switch MV155, a shooting mode selection lever 156, a menu button 157, up / down switches 158 and 159, a dial 160, and a playback button on the rear surface of the casing 151. 161.
筐体151は、撮像素子やシャッター装置等の撮像装置100を構成する種々の機能部品を収納する容器である。撮影光学系152は、被写体の光学像を結像するための光学系である。表示部153は、撮影情報や映像を表示するための表示装置により構成される。表示部153には、必要に応じて画面の向きを変えるための可動機構を設けてもよい。表示部153は、ダイナミックレンジの広い映像もその輝度範囲を抑制することなく表示できるだけの表示輝度範囲を有している。スイッチST154は、主に静止画の撮影を行うために使用するシャッターボタンである。スイッチMV155は、動画撮影の開始及び停止を行うためのボタンである。撮影モード選択レバー156は、撮影モードを選択するための切り替えスイッチである。メニューボタン157は、撮像装置100の機能設定を行う機能設定モードへ移行するためのボタンである。アップダウンスイッチ158,159は、各種の設定値を変更する際に用いるボタンである。ダイアル160は、各種の設定値を変更するためのダイアルである。再生ボタン161は、撮像装置100に収納されている記録媒体に記録されている映像を表示部153上で再生する再生モードへ移行するためのボタンである。プロペラ162は、空中からの撮影を行うために撮像装置100を空中に浮上させるためのものである。 The casing 151 is a container that houses various functional components that constitute the imaging device 100 such as an imaging element and a shutter device. The photographing optical system 152 is an optical system for forming an optical image of a subject. The display unit 153 includes a display device for displaying shooting information and video. The display unit 153 may be provided with a movable mechanism for changing the orientation of the screen as necessary. The display unit 153 has a display luminance range that can display an image with a wide dynamic range without suppressing the luminance range. The switch ST154 is a shutter button used mainly for taking a still image. The switch MV155 is a button for starting and stopping moving image shooting. The shooting mode selection lever 156 is a changeover switch for selecting a shooting mode. The menu button 157 is a button for shifting to a function setting mode for setting a function of the imaging apparatus 100. Up / down switches 158 and 159 are buttons used when changing various setting values. The dial 160 is a dial for changing various setting values. The playback button 161 is a button for shifting to a playback mode in which video recorded on a recording medium stored in the imaging apparatus 100 is played on the display unit 153. The propeller 162 is for floating the imaging device 100 in the air in order to perform shooting from the air.
図2は、本実施形態による撮像装置100の概略構成を示すブロック図である。撮像装置100は、図2に示すように、絞り181、絞り制御部182、光学フィルタ183、撮像素子184、アナログフロントエンド185,186、デジタル信号処理部187,188、タイミング発生部189を有している。また、撮像装置100は、システム制御CPU178、スイッチ入力手段179、映像メモリ190、飛行制御装置200を有している。また、撮像装置100は、表示インターフェース部191、記録インターフェース部192、記録媒体193、プリントインターフェース部194、外部インターフェース部196、無線インターフェース部198を有している。 FIG. 2 is a block diagram illustrating a schematic configuration of the imaging apparatus 100 according to the present embodiment. As shown in FIG. 2, the imaging apparatus 100 includes an aperture 181, an aperture control unit 182, an optical filter 183, an image sensor 184, analog front ends 185 and 186, digital signal processing units 187 and 188, and a timing generation unit 189. ing. Further, the imaging apparatus 100 includes a system control CPU 178, a switch input unit 179, a video memory 190, and a flight control apparatus 200. Further, the imaging apparatus 100 includes a display interface unit 191, a recording interface unit 192, a recording medium 193, a print interface unit 194, an external interface unit 196, and a wireless interface unit 198.
撮像素子184は、撮影光学系152を介して結像された被写体の光学像を電気的な映像信号に変換するためのものである。撮像素子184は、特に限定されるものではないが、例えば、UHDTV(Ultra High Definition Television)の規格を満たすのに十分な画素数、信号読み出し速度、色域、ダイナミックレンジを有している。絞り181は、撮影光学系152を通る光の量を調節するためのものである。絞り制御部182は、絞り181を制御するためのものである。光学フィルタ183は、撮像素子184に入射する光の波長、撮像素子184に伝達する空間周波数を制限するためのものである。撮影光学系152、絞り181、光学フィルタ183、撮像素子184は、撮影光学系152の光軸180上に配置されている。 The image sensor 184 is for converting an optical image of a subject formed through the photographing optical system 152 into an electrical video signal. The image sensor 184 is not particularly limited, and has, for example, a sufficient number of pixels, a signal readout speed, a color gamut, and a dynamic range to satisfy the UHDTV (Ultra High Definition Television) standard. The diaphragm 181 is for adjusting the amount of light passing through the photographing optical system 152. The aperture control unit 182 is for controlling the aperture 181. The optical filter 183 is for limiting the wavelength of light incident on the image sensor 184 and the spatial frequency transmitted to the image sensor 184. The photographing optical system 152, the diaphragm 181, the optical filter 183, and the image sensor 184 are disposed on the optical axis 180 of the photographing optical system 152.
アナログフロントエンド185,186は、撮像素子184から出力される映像信号のアナログ信号処理及びアナログ−デジタル変換処理を行うためのものである。アナログフロントエンド185,186は、例えば、ノイズを除去する相関二重サンプリング(CDS)回路、信号ゲインを調整するアンプ、アナログ信号をデジタル信号に変換するA/D変換器等により構成される。デジタル信号処理部187,188は、アナログフロントエンド185,186から出力されるデジタル映像データに対して各種の補正を行った後、映像データを圧縮するためのものである。この意味で、デジタル信号処理部187,188は、補正処理部でもある。デジタル信号処理部187,188が行う補正には、後述する欠陥画素の画素値の補正や、クロストーク補正が含まれる。タイミング発生部189は、撮像素子184、アナログフロントエンド185,186、デジタル信号処理部187,188に各種タイミング信号を出力するためのものである。システム制御CPU178は、各種演算の実行や撮像装置100の全体の制御を司る制御部である。映像メモリ190は、映像データを一時的に記憶するためのものである。 The analog front ends 185 and 186 are for performing analog signal processing and analog-digital conversion processing of the video signal output from the image sensor 184. The analog front ends 185 and 186 include, for example, a correlated double sampling (CDS) circuit that removes noise, an amplifier that adjusts a signal gain, an A / D converter that converts an analog signal into a digital signal, and the like. The digital signal processing units 187 and 188 are for performing various corrections on the digital video data output from the analog front ends 185 and 186 and then compressing the video data. In this sense, the digital signal processing units 187 and 188 are also correction processing units. The corrections performed by the digital signal processing units 187 and 188 include correction of pixel values of defective pixels, which will be described later, and crosstalk correction. The timing generator 189 is for outputting various timing signals to the image sensor 184, the analog front ends 185 and 186, and the digital signal processors 187 and 188. The system control CPU 178 is a control unit that performs various calculations and controls the entire imaging apparatus 100. The video memory 190 is for temporarily storing video data.
表示インターフェース部191は、撮影された映像を表示部153に表示するためのシステム制御CPU178と表示部153との間のインターフェースである。記録媒体193は、映像データや付加データ等を記録するための半導体メモリ等の記録媒体であり、撮像装置100に備え付けられていてもよいし着脱可能でもよい。記録インターフェース部192は、記録媒体193に記録又は記録媒体193から読み出しを行うためのシステム制御CPU178と記録媒体193との間のインターフェースである。外部インターフェース部196は、外部コンピュータ197等の外部機器と通信するためのシステム制御CPU178と外部機器との間のインターフェースである。プリントインターフェース部194は、撮影された映像を小型インクジェットプリンタ等のプリンタ195に出力し印刷するためのシステム制御CPU178とプリンタ195との間のインターフェースである。無線インターフェース部198は、インターネット等のネットワーク199と通信するためのシステム制御CPU178とネットワーク199との間のインターフェースである。スイッチ入力手段179は、スイッチST154やスイッチMV155、各種モードの切り替えを行う複数のスイッチを含む。飛行制御装置200は、空中からの撮影を行うためにプロペラ162を制御して撮像装置100を飛行させるための制御装置である。システム制御CPU178は、不揮発のレジスタを備えており、工場での調整値などを記憶することができ、本発明の記憶装置として動作する。 The display interface unit 191 is an interface between the system control CPU 178 and the display unit 153 for displaying captured images on the display unit 153. The recording medium 193 is a recording medium such as a semiconductor memory for recording video data, additional data, and the like, and may be provided in the imaging apparatus 100 or detachable. The recording interface unit 192 is an interface between the system control CPU 178 and the recording medium 193 for recording on or reading from the recording medium 193. The external interface unit 196 is an interface between the system control CPU 178 and an external device for communicating with an external device such as the external computer 197. The print interface unit 194 is an interface between the system control CPU 178 and the printer 195 for outputting a photographed image to a printer 195 such as a small inkjet printer for printing. The wireless interface unit 198 is an interface between the system control CPU 178 and the network 199 for communicating with a network 199 such as the Internet. The switch input unit 179 includes a switch ST154, a switch MV155, and a plurality of switches for switching various modes. The flight control device 200 is a control device for controlling the propeller 162 to fly the imaging device 100 in order to perform shooting from the air. The system control CPU 178 includes a nonvolatile register, can store factory adjustment values, and operates as a storage device of the present invention.
図3は、撮像素子184の構成例を示すブロック図である。撮像素子184は、図3に示すように、画素アレイ302、垂直走査回路307、読み出し回路308A,308B及びタイミング制御回路309A,309Bを含む。 FIG. 3 is a block diagram illustrating a configuration example of the image sensor 184. As shown in FIG. 3, the image sensor 184 includes a pixel array 302, a vertical scanning circuit 307, readout circuits 308A and 308B, and timing control circuits 309A and 309B.
画素アレイ302には、複数の画素303が行列状に配置されている。なお、画素アレイ302に属する画素303の実際の配列数は一般的には多数となるが、ここでは図面の簡略化のため、4行×4列の行列状に配置された16個の画素303のみを示している。複数の画素303の各々は、画素要素303Aと画素要素303Bとの組みを有する。図3では、画素303の上半分の領域を画素要素303Aとし、画素303の下半分の領域を画素要素303Bとしている。画素要素303A及び画素要素303Bは、それぞれ光電変換により信号を生成する。 In the pixel array 302, a plurality of pixels 303 are arranged in a matrix. Note that the actual number of pixels 303 belonging to the pixel array 302 is generally large, but here, in order to simplify the drawing, 16 pixels 303 arranged in a matrix of 4 rows × 4 columns. Only shows. Each of the plurality of pixels 303 includes a set of a pixel element 303A and a pixel element 303B. In FIG. 3, the upper half area of the pixel 303 is a pixel element 303A, and the lower half area of the pixel 303 is a pixel element 303B. The pixel element 303A and the pixel element 303B each generate a signal by photoelectric conversion.
画素アレイ302の各列には、列方向に延在する信号出力線304A,304Bが、それぞれ設けられている。各列の信号出力線304Aは、当該列に属する画素要素303Aに接続されている。信号出力線304Aには、画素要素303Aからの信号が出力される。各列の信号出力線304Bは、当該列に属する画素要素303Bに接続されている。信号出力線304Bには、画素要素303Bからの信号が出力される。画素アレイ302の各列には、また、列方向に延在する電源線305及び接地線306が、それぞれ設けられている。各列の電源線305及び接地線306は、当該列に属する画素303に接続されている。電源線305及び接地線306は、行方向に延在する信号線としてもよい。 Each column of the pixel array 302 is provided with signal output lines 304A and 304B extending in the column direction. The signal output line 304A of each column is connected to the pixel element 303A belonging to the column. A signal from the pixel element 303A is output to the signal output line 304A. The signal output line 304B of each column is connected to the pixel element 303B belonging to the column. A signal from the pixel element 303B is output to the signal output line 304B. Each column of the pixel array 302 is also provided with a power supply line 305 and a ground line 306 extending in the column direction. The power supply line 305 and the ground line 306 in each column are connected to the pixels 303 belonging to the column. The power supply line 305 and the ground line 306 may be signal lines extending in the row direction.
垂直走査回路307は、画素アレイ302に対して行方向に隣接して配置される。垂直走査回路307は、画素アレイ302の複数の画素303に対して行単位で、行方向に延在して配された図示しない制御線を介して、画素303内の読み出し回路を制御するための所定の制御信号が出力される。図には、制御信号として、リセットパルスφRESn、転送パルスφTXnA,TXnBを示している(nは、行番号に対応した整数)。 The vertical scanning circuit 307 is disposed adjacent to the pixel array 302 in the row direction. The vertical scanning circuit 307 controls a readout circuit in the pixel 303 via a control line (not shown) extending in the row direction with respect to the plurality of pixels 303 of the pixel array 302 in the row direction. A predetermined control signal is output. In the figure, reset pulses φRESn and transfer pulses φTXnA, TXnB are shown as control signals (n is an integer corresponding to a row number).
読み出し回路308A,308Bは、画素アレイ302を挟むように、画素アレイ302に対して列方向に隣接して配置されている。読み出し回路308Aは、各列の信号出力線304Aに接続されている。読み出し回路308Aは、各列の信号出力線304Aを順次選択的に活性化することで、各列の信号出力線304Aからの信号を順次読み出し、所定の信号処理を実施する。同様に、読み出し回路308Bは、各列の信号出力線304Bに接続されている。読み出し回路308Bは、各列の信号出力線304Bを順次選択的に活性化することで、各列の信号出力線304Bからの信号を順次読み出し、所定の信号処理を実施する。読み出し回路308A,308Bは、それぞれ、雑音除去回路、増幅回路、アナログデジタル変換回路、水平走査回路などを含むことができ、所定の信号処理を実施した信号を順次出力する。 The readout circuits 308A and 308B are arranged adjacent to the pixel array 302 in the column direction so as to sandwich the pixel array 302. The readout circuit 308A is connected to the signal output line 304A of each column. The readout circuit 308A sequentially activates the signal output lines 304A in each column, thereby sequentially reading out the signals from the signal output lines 304A in each column, and performs predetermined signal processing. Similarly, the readout circuit 308B is connected to the signal output line 304B of each column. The readout circuit 308B sequentially activates the signal output lines 304B in each column sequentially, thereby sequentially reading out the signals from the signal output lines 304B in each column and performing predetermined signal processing. Each of the readout circuits 308A and 308B can include a noise removal circuit, an amplification circuit, an analog-digital conversion circuit, a horizontal scanning circuit, and the like, and sequentially outputs signals that have undergone predetermined signal processing.
タイミング制御回路309Aは、垂直走査回路307及び読み出し回路308Aに接続されている。タイミング制御回路309Aは、垂直走査回路307及び読み出し回路308Aの駆動タイミングを制御する制御信号を出力する。タイミング制御回路309Bは、垂直走査回路307及び読み出し回路308Bに接続されている。タイミング制御回路309Bは、垂直走査回路307及び読み出し回路308Bの駆動タイミングを制御する制御信号を出力する。 The timing control circuit 309A is connected to the vertical scanning circuit 307 and the readout circuit 308A. The timing control circuit 309A outputs a control signal for controlling the driving timing of the vertical scanning circuit 307 and the readout circuit 308A. The timing control circuit 309B is connected to the vertical scanning circuit 307 and the readout circuit 308B. The timing control circuit 309B outputs a control signal for controlling the driving timing of the vertical scanning circuit 307 and the readout circuit 308B.
図4は、撮像素子184の画素303の内部構造を示す断面図である。それぞれの画素303は、図4に示すように、2つのフォトダイオード310A,310Bと、ライトガイド255と、カラーフィルタ256とを含む。フォトダイオード310Aは画素要素303Aの一部を構成し、フォトダイオード310Bは画素要素303Bの一部を構成する。フォトダイオード310A,310Bは、シリコン基板251内に設けられている。ライトガイド255は、シリコン基板251上に設けられた絶縁層254内に設けられている。絶縁層254は例えば酸化シリコンにより構成され、ライトガイド255は絶縁層254よりも高屈折率の材料、例えば窒化シリコンにより構成される。ライトガイド255間の絶縁層254には、配線層252が設けられている。ライトガイド255上には、所定の分光透過率特性を有するカラーフィルタ256が設けられている。なお、図4には、隣接する2つの画素303のカラーフィルタを、互いに異なる分光透過率特性を有するカラーフィルタ256,257により構成した例を示している。 FIG. 4 is a cross-sectional view showing the internal structure of the pixel 303 of the image sensor 184. Each pixel 303 includes two photodiodes 310A and 310B, a light guide 255, and a color filter 256, as shown in FIG. The photodiode 310A constitutes a part of the pixel element 303A, and the photodiode 310B constitutes a part of the pixel element 303B. The photodiodes 310A and 310B are provided in the silicon substrate 251. The light guide 255 is provided in an insulating layer 254 provided on the silicon substrate 251. The insulating layer 254 is made of, for example, silicon oxide, and the light guide 255 is made of a material having a higher refractive index than the insulating layer 254, for example, silicon nitride. A wiring layer 252 is provided on the insulating layer 254 between the light guides 255. On the light guide 255, a color filter 256 having a predetermined spectral transmittance characteristic is provided. FIG. 4 shows an example in which the color filters of two adjacent pixels 303 are configured by color filters 256 and 257 having different spectral transmittance characteristics.
ライトガイド255は、絶縁層254との間の屈折率差によって内部に光を閉じ込める性質を有している。これにより、カラーフィルタ256を介して入射した光をライトガイド255によってフォトダイオード310A,310Bに導くことができる。フォトダイオード310A,310Bは、ライトガイド255に対して非対称に配置されており、ライトガイド255を伝搬した光束は、高い効率でフォトダイオード310Aに入射し、低い効率でフォトダイオード310Bに入射する。更に、ライトガイド255は、その深さや傾斜角を調節することにより、フォトダイオード310A,310Bが有効に光電変換できる入射光束に対して、その入射角特性に偏りが生じないようになっている。 The light guide 255 has a property of confining light inside due to a difference in refractive index with the insulating layer 254. Thereby, the light incident through the color filter 256 can be guided to the photodiodes 310 </ b> A and 310 </ b> B by the light guide 255. The photodiodes 310A and 310B are arranged asymmetrically with respect to the light guide 255, and the light beam propagated through the light guide 255 is incident on the photodiode 310A with high efficiency and is incident on the photodiode 310B with low efficiency. Further, the light guide 255 is adjusted so that the incident angle characteristics of the light guide 255 are not biased with respect to the incident light beam that can be effectively photoelectrically converted by the photodiodes 310A and 310B.
図5は、画素に入射する光線の角度とフォトダイオードからの出力との関係を示すグラフである。図5において、横軸が画素に入射する光線の角度を表し、縦軸がフォトダイオードからの出力を表している。図5には、フォトダイオード310Aからの出力特性261と、フォトダイオード310Bからの出力特性262とを示している。 FIG. 5 is a graph showing the relationship between the angle of light rays incident on the pixel and the output from the photodiode. In FIG. 5, the horizontal axis represents the angle of light rays incident on the pixel, and the vertical axis represents the output from the photodiode. FIG. 5 shows an output characteristic 261 from the photodiode 310A and an output characteristic 262 from the photodiode 310B.
図5に示すように、特性261及び特性262は、ともに光線の入射角度がゼロのときをピークとする左右対称の僅かに山なりの形状となっている。また、特性262のピーク強度PBは、特性261のピーク強度PAの1/8程度になっている。このことは、フォトダイオード310A,310Bの入射角依存性はともに小さく、それらの受光効率はフォトダイオード310Aに比べてフォトダイオード310Bが1/8であるということを表している。すなわち、フォトダイオード310Bは、ISO感度の設定値に置き換えると、フォトダイオード310Aよりも3段分、感度が低いことになる。 As shown in FIG. 5, the characteristic 261 and the characteristic 262 both have a slightly symmetrical shape with a peak when the incident angle of the light beam is zero. Further, the peak intensity PB of the characteristic 262 is about 1/8 of the peak intensity PA of the characteristic 261. This means that the incident angle dependence of the photodiodes 310A and 310B is small, and the light receiving efficiency of the photodiode 310B is 1/8 of that of the photodiode 310A. That is, if the photodiode 310B is replaced with the ISO sensitivity setting value, the sensitivity is lower by three stages than the photodiode 310A.
次に、撮影光学系152と撮像素子184との関係を、図6を用いてより詳しく説明する。図6は、撮影光学系152と撮像素子184との関係を説明する図である。図6(a)は、撮影光学系152をその光軸180方向から見た図である。図6(b)は、図2の撮影光学系152から撮像素子184に至る部分をより詳細に示した図である。 Next, the relationship between the photographing optical system 152 and the image sensor 184 will be described in more detail with reference to FIG. FIG. 6 is a diagram for explaining the relationship between the photographing optical system 152 and the image sensor 184. FIG. 6A is a view of the photographing optical system 152 as seen from the direction of the optical axis 180. FIG. 6B is a diagram showing in more detail the part from the photographing optical system 152 to the image sensor 184 in FIG.
撮像素子184が、図6(b)に示すように、撮像領域の中央部に位置する画素276と、撮像領域の外縁近傍に位置する画素277とを含むものとする。この場合、画素276は、光線272と光線273とで囲まれた領域からの光束を受光することができる。また、画素277は、光線274と光線275とで囲まれた領域からの光束を受光することができる。この際、フィールドレンズ270が光学フィルタ183と撮影光学系152との間に配置されているため、撮影光学系152の付近では、画素276が受光する光束と画素277が受光する光束とは、図6(a)に領域271で示すように重なっている。この結果、撮影光学系152から射出される光束を何れの画素においても高効率で受光することが可能となっている。 As shown in FIG. 6B, the imaging element 184 includes a pixel 276 located in the center of the imaging area and a pixel 277 located near the outer edge of the imaging area. In this case, the pixel 276 can receive a light flux from a region surrounded by the light rays 272 and 273. Further, the pixel 277 can receive a light beam from a region surrounded by the light beam 274 and the light beam 275. At this time, since the field lens 270 is disposed between the optical filter 183 and the photographing optical system 152, the light flux received by the pixel 276 and the light flux received by the pixel 277 in the vicinity of the photographing optical system 152 are illustrated in FIG. 6 (a) is overlapped as indicated by a region 271. As a result, the light beam emitted from the photographing optical system 152 can be received with high efficiency in any pixel.
図7は、撮像素子から出力される映像信号を説明する概略図である。ここで、画素アレイ302に、図7(a)に示すカラーフィルタ配列281で、所定の光透過率特性を有するカラーフィルタが配置されている場合を想定する。図7(a)は、6行×8列の行列状に画素303が配列された画素アレイ302と、各画素に配置されるカラーフィルタの色を模式的に示したものである。図中、Rは赤色カラーフィルタを、G1及びG2は緑色カラーフィルタを、Bは青色カラーフィルタを、それぞれ表している。図示するカラーフィルタ配列281は、いわゆるベイヤー配列と呼ばれるカラーフィルタ配列であり、行毎に、G1BG1B…,RG2RG2…,G1BG1B…,…、といった繰り返しで、各色のカラーフィルタが配置されている。 FIG. 7 is a schematic diagram illustrating a video signal output from the image sensor. Here, it is assumed that a color filter having a predetermined light transmittance characteristic is arranged in the pixel array 302 in the color filter array 281 shown in FIG. FIG. 7A schematically shows a pixel array 302 in which pixels 303 are arranged in a matrix of 6 rows × 8 columns, and colors of color filters arranged in each pixel. In the figure, R represents a red color filter, G1 and G2 represent green color filters, and B represents a blue color filter. The color filter array 281 shown in the figure is a color filter array called a so-called Bayer array, and color filters for each color are arranged for each row by repeating G1BG1B... RG2RG2... G1BG1B.
このようなカラーフィルタ配列281を有する画素アレイ302からは、図7(b)及び図7(c)に示される出力データ282,283が得られる。図7(b)中、g1A及びg2Aは、緑色カラーフィルタが配置された画素303の画素要素303Aからの出力を表している。bAは、青色カラーフィルタが配置された画素303の画素要素303Aからの出力を表している。rAは、赤色カラーフィルタが配置された画素303の画素要素303Aからの出力を表している。図7(c)中、g1B及びg2Bは、緑色カラーフィルタが配置された画素303の画素要素303Bからの出力を表している。bBは、青色カラーフィルタが配置された画素303の画素要素303Bからの出力を表している。rBは、赤色カラーフィルタが配置された画素303の画素要素303Bからの出力を表している。 From the pixel array 302 having such a color filter array 281, output data 282 and 283 shown in FIGS. 7B and 7C are obtained. In FIG. 7B, g1A and g2A represent outputs from the pixel element 303A of the pixel 303 in which the green color filter is arranged. bA represents the output from the pixel element 303A of the pixel 303 in which the blue color filter is arranged. rA represents the output from the pixel element 303A of the pixel 303 in which the red color filter is arranged. In FIG. 7C, g1B and g2B represent outputs from the pixel element 303B of the pixel 303 in which the green color filter is arranged. bB represents the output from the pixel element 303B of the pixel 303 in which the blue color filter is arranged. rB represents the output from the pixel element 303B of the pixel 303 in which the red color filter is arranged.
図3を用いて説明したように、撮像素子184からは、読み出し回路308A、308Bからの2系統の出力が得られ、そのうちの一方が図7(b)に示す出力データ282であり、他方が図7(c)に示す出力データ283である。出力データ282は、所定の信号処理ののちに映像信号「picture A」となる。また、出力データ283は、所定の信号処理ののちに映像信号「picture B」となる。以後の説明では、出力データ282に基づく映像信号を「picture A」、出力データ283に基づく映像信号を「picture B」と表記するものとする。なお、「picture A」,「picture B」は、厳密には所定の補正等の処理を行った後の映像信号であるが、説明の便宜上、補正前或いは補正途中の映像信号についても「picture A」,「picture B」と表記することがある。 As described with reference to FIG. 3, the image sensor 184 obtains two outputs from the readout circuits 308A and 308B, one of which is the output data 282 shown in FIG. This is the output data 283 shown in FIG. The output data 282 becomes a video signal “picture A” after predetermined signal processing. The output data 283 becomes a video signal “picture B” after predetermined signal processing. In the following description, the video signal based on the output data 282 is referred to as “picture A”, and the video signal based on the output data 283 is referred to as “picture B”. Strictly speaking, “picture A” and “picture B” are video signals after processing such as predetermined correction, but for convenience of explanation, “picture A” is also used for video signals before or during correction. ”And“ picture B ”.
図8は、画素303の構成例を示す回路図である。画素303は、上記のように、画素要素303A及び画素要素303Bを有する。画素要素303Aは、フォトダイオード310Aと、転送トランジスタ311Aと、フローティングディフュージョン領域313Aと、リセットトランジスタ314Aと、増幅トランジスタ315Aとを有する。画素要素303Bは、フォトダイオード310Bと、転送トランジスタ311Bと、フローティングディフュージョン領域313Bと、リセットトランジスタ314Bと、増幅トランジスタ315Bとを有する。なお、フォトダイオード310Aは、図4に示したフォトダイオード310Aに対応し、フォトダイオード310Bは、図4に示したフォトダイオード310Bに対応する。 FIG. 8 is a circuit diagram illustrating a configuration example of the pixel 303. As described above, the pixel 303 includes the pixel element 303A and the pixel element 303B. The pixel element 303A includes a photodiode 310A, a transfer transistor 311A, a floating diffusion region 313A, a reset transistor 314A, and an amplification transistor 315A. The pixel element 303B includes a photodiode 310B, a transfer transistor 311B, a floating diffusion region 313B, a reset transistor 314B, and an amplification transistor 315B. Note that the photodiode 310A corresponds to the photodiode 310A illustrated in FIG. 4, and the photodiode 310B corresponds to the photodiode 310B illustrated in FIG.
フォトダイオード310Aのアノードは接地線306に接続され、フォトダイオード301Aのカソードは転送トランジスタ311Aのソースに接続されている。転送トランジスタ311Aのドレインは、リセットトランジスタ314Aのソース及び増幅トランジスタ315Aのゲートに接続されている。転送トランジスタ311Aのドレイン、リセットトランジスタ314Aのソース及び増幅トランジスタ315Aのゲートの接続ノードが、第1のフローティングディフュージョン領域313Aを構成する。リセットトランジスタ314Aのドレイン及び増幅トランジスタ315Aのドレインは、電源線305に接続されている。画素信号出力部316Aを構成する増幅トランジスタ315Aのソースは、信号出力線304Aに接続されている。 The anode of the photodiode 310A is connected to the ground line 306, and the cathode of the photodiode 301A is connected to the source of the transfer transistor 311A. The drain of the transfer transistor 311A is connected to the source of the reset transistor 314A and the gate of the amplification transistor 315A. A connection node of the drain of the transfer transistor 311A, the source of the reset transistor 314A, and the gate of the amplification transistor 315A constitutes the first floating diffusion region 313A. The drain of the reset transistor 314A and the drain of the amplification transistor 315A are connected to the power supply line 305. The source of the amplification transistor 315A constituting the pixel signal output unit 316A is connected to the signal output line 304A.
同様に、フォトダイオード310Bのアノードは接地線306に接続され、フォトダイオード310Bのカソードは転送トランジスタ311Bのソースに接続されている。転送トランジスタ311Bのドレインは、リセットトランジスタ314Bのソース及び増幅トランジスタ315Bのゲートに接続されている。転送トランジスタ311Bのドレイン、リセットトランジスタ314Bのソース及び増幅トランジスタ315Bのゲートの接続ノードが、第2のフローティングディフュージョン領域313Bを構成する。リセットトランジスタ314Bのドレイン及び増幅トランジスタ315Bのドレインは、電源線305に接続されている。画素信号出力部316Bを構成する増幅トランジスタ315Bのソースは、信号出力線304Bに接続されている。 Similarly, the anode of the photodiode 310B is connected to the ground line 306, and the cathode of the photodiode 310B is connected to the source of the transfer transistor 311B. The drain of the transfer transistor 311B is connected to the source of the reset transistor 314B and the gate of the amplification transistor 315B. A connection node of the drain of the transfer transistor 311B, the source of the reset transistor 314B, and the gate of the amplification transistor 315B constitutes the second floating diffusion region 313B. The drain of the reset transistor 314B and the drain of the amplification transistor 315B are connected to the power supply line 305. The source of the amplification transistor 315B constituting the pixel signal output unit 316B is connected to the signal output line 304B.
各列の画素303は、垂直走査回路307から行方向に配されたリセット制御線319及び転送制御線320A,320Bに接続されている。リセット制御線319は、リセットトランジスタ314Aのゲート及びリセットトランジスタ314Bのゲートに接続されている。転送制御線320Aは、コンタクト部312Aを介して転送トランジスタ311Aのゲートに接続されている。転送制御線320Bは、コンタクト部312Bを介して転送トランジスタ311Bのゲートに接続されている。リセット制御線319は、リセットトランジスタ314Aのゲート及びリセットトランジスタ314Bのゲートに、垂直走査回路307から出力されるリセットパルスφRESnを供給する。転送制御線320Aは、転送トランジスタ311Aのゲートに、垂直走査回路307から出力される転送パルスφTXnAを供給する。転送制御線320Bは、転送トランジスタ311Bのゲートに、垂直走査回路307から出力される転送パルスφTXnBを供給する。なお、リセットパルスφRESn、転送パルスφTXnA及び転送パルスφTXnBの符号に付したnは、行番号に対応した整数である。図面には、nを行番号に対応した整数で置き換えた符号で表している。 The pixels 303 in each column are connected from the vertical scanning circuit 307 to a reset control line 319 and transfer control lines 320A and 320B arranged in the row direction. The reset control line 319 is connected to the gate of the reset transistor 314A and the gate of the reset transistor 314B. The transfer control line 320A is connected to the gate of the transfer transistor 311A via the contact portion 312A. The transfer control line 320B is connected to the gate of the transfer transistor 311B via the contact portion 312B. The reset control line 319 supplies the reset pulse φRESn output from the vertical scanning circuit 307 to the gate of the reset transistor 314A and the gate of the reset transistor 314B. The transfer control line 320A supplies a transfer pulse φTXnA output from the vertical scanning circuit 307 to the gate of the transfer transistor 311A. The transfer control line 320B supplies the transfer pulse φTXnB output from the vertical scanning circuit 307 to the gate of the transfer transistor 311B. Note that n added to the signs of the reset pulse φRESn, the transfer pulse φTXnA, and the transfer pulse φTXnB is an integer corresponding to the row number. In the drawing, n is represented by a code in which n is replaced with an integer corresponding to the row number.
フォトダイオード310Aは光電変換により電荷を生成する第1の光電変換部であり、フォトダイオード310Bは光電変換により電荷を生成する第2の光電変換部である。フローティングディフュージョン領域313A,313Bは、電荷を蓄積する領域である。転送トランジスタ311Aは、フォトダイオード310Aにより生成された電荷をフローティングディフュージョン領域313Aに転送するためのものである。転送トランジスタ311Bは、フォトダイオード310Bにより生成された電荷をフローティングディフュージョン領域313Bに転送するためのものである。 The photodiode 310A is a first photoelectric conversion unit that generates charges by photoelectric conversion, and the photodiode 310B is a second photoelectric conversion unit that generates charges by photoelectric conversion. The floating diffusion regions 313A and 313B are regions for accumulating charges. The transfer transistor 311A is for transferring the charge generated by the photodiode 310A to the floating diffusion region 313A. The transfer transistor 311B is for transferring the charge generated by the photodiode 310B to the floating diffusion region 313B.
垂直走査回路307からハイレベルの転送パルスφTXnAが出力されると、転送トランジスタ311Aがオン状態となり、フォトダイオード310Aとフローティングディフュージョン領域313Aとが接続される。同様に、垂直走査回路307からハイレベルの転送パルスφTXnBが出力されると、転送トランジスタ311Bがオン状態となり、フォトダイオード310Bとフローティングディフュージョン領域313Bとが接続される。垂直走査回路307からハイレベルのリセットパルスφRESnが出力されると、リセットトランジスタ314A,314Bがオン状態となり、フォトダイオード310A,310B、フローティングディフュージョン領域313A,313Bがリセットされる。 When the high-level transfer pulse φTXnA is output from the vertical scanning circuit 307, the transfer transistor 311A is turned on, and the photodiode 310A and the floating diffusion region 313A are connected. Similarly, when the high-level transfer pulse φTXnB is output from the vertical scanning circuit 307, the transfer transistor 311B is turned on, and the photodiode 310B and the floating diffusion region 313B are connected. When the high level reset pulse φRESn is output from the vertical scanning circuit 307, the reset transistors 314A and 314B are turned on, and the photodiodes 310A and 310B and the floating diffusion regions 313A and 313B are reset.
垂直走査回路307からローレベルの転送パルスφTXnAが出力されると、転送トランジスタ311Aがオフ状態となり、フォトダイオード310Aは、光電変換により生成した信号電荷の蓄積を開始する。次いで、垂直走査回路307からハイレベルの転送パルスφTXnAが出力されると、転送トランジスタ311Aがオン状態となり、フォトダイオード310Aの信号電荷はフローティングディフュージョン領域313Aに転送される。すると、増幅トランジスタ315Aは、フォトダイオード310Aから転送された信号電荷の量に応じたフローティングディフュージョン領域313Aの電圧を増幅して信号出力線304Aに出力する。 When the low-level transfer pulse φTXnA is output from the vertical scanning circuit 307, the transfer transistor 311A is turned off, and the photodiode 310A starts accumulating signal charges generated by photoelectric conversion. Next, when the high-level transfer pulse φTXnA is output from the vertical scanning circuit 307, the transfer transistor 311A is turned on, and the signal charge of the photodiode 310A is transferred to the floating diffusion region 313A. Then, the amplification transistor 315A amplifies the voltage of the floating diffusion region 313A according to the amount of signal charge transferred from the photodiode 310A and outputs the amplified voltage to the signal output line 304A.
同様に、垂直走査回路307からローレベルの転送パルスφTXnBが出力されると、転送トランジスタ311Bがオフ状態となり、フォトダイオード310Bは、光電変換により生成した信号電荷の蓄積を開始する。次いで、垂直走査回路307からハイレベルの転送パルスφTXnBが出力されると、転送トランジスタ311Bがオン状態となり、フォトダイオード310Bの信号電荷はフローティングディフュージョン領域313Bに転送される。すると、増幅トランジスタ315Bは、フォトダイオード310Bから転送された信号電荷の量に応じたフローティングディフュージョン領域313Bの電圧を増幅して信号出力線304Bに出力する。 Similarly, when the low-level transfer pulse φTXnB is output from the vertical scanning circuit 307, the transfer transistor 311B is turned off, and the photodiode 310B starts accumulating signal charges generated by photoelectric conversion. Next, when a high-level transfer pulse φTXnB is output from the vertical scanning circuit 307, the transfer transistor 311B is turned on, and the signal charge of the photodiode 310B is transferred to the floating diffusion region 313B. Then, the amplification transistor 315B amplifies the voltage of the floating diffusion region 313B corresponding to the amount of signal charge transferred from the photodiode 310B and outputs the amplified voltage to the signal output line 304B.
図9及び図10は、画素303の要部を示す平面レイアウト図である。図9には、画素303の構成要素のうち、フォトダイオード310A,310B、転送トランジスタ311A,311B、フローティングディフュージョン領域313A,313Bを示している。リセットトランジスタ314A,314B及び増幅トランジスタ315A,315Bを含むその他の回路要素は、図面において読み出し回路部321として表し、詳細な図示は省略している。また、画素303の垂直方向に配される信号出力線304A,304B及び電源線305を省略し、リセット制御線319、電源線305、接地線306のコンタクト部を省略している。図10には、図9に示した構成要素に加え、図4において説明したライトガイド255を示している。ライトガイド255は、斜影線を付した部分が低屈折率領域を示し、白抜き部分が高屈折率領域、すなわち導光部分を示している。 9 and 10 are plan layout diagrams showing the main part of the pixel 303. FIG. 9 shows photodiodes 310A and 310B, transfer transistors 311A and 311B, and floating diffusion regions 313A and 313B among the components of the pixel 303. Other circuit elements including the reset transistors 314A and 314B and the amplification transistors 315A and 315B are represented as a read circuit unit 321 in the drawing, and detailed illustration is omitted. Further, the signal output lines 304A and 304B and the power supply line 305 arranged in the vertical direction of the pixel 303 are omitted, and the contact portions of the reset control line 319, the power supply line 305, and the ground line 306 are omitted. FIG. 10 shows the light guide 255 described in FIG. 4 in addition to the components shown in FIG. In the light guide 255, a hatched portion indicates a low refractive index region, and a white portion indicates a high refractive index region, that is, a light guide portion.
図9及び図10において、コンタクト部312Aは、転送制御線320Aと転送トランジスタ311Aのゲートとを接続するコンタクト部である。コンタクト部312Bは、転送制御線320Bと転送トランジスタ311Bのゲートとを接続するコンタクト部である。フォトダイオード310A,310Bは、光電変換を行う光電変換部であり、第1導電型(例えばP型)の半導体領域と、第1導電型の半導体領域とPN接合を構成する第2導電型(例えばN型)の半導体領域(N型の電子蓄積領域)とを有する。フォトダイオード310Aの第2導電型の半導体領域とフォトダイオード310Bの第2導電型の半導体領域とは、分離部322によって分離されている。 9 and 10, the contact portion 312A is a contact portion that connects the transfer control line 320A and the gate of the transfer transistor 311A. The contact portion 312B is a contact portion that connects the transfer control line 320B and the gate of the transfer transistor 311B. The photodiodes 310 </ b> A and 310 </ b> B are photoelectric conversion units that perform photoelectric conversion. The photodiodes 310 </ b> A and 310 </ b> B are a first conductivity type (for example, P type) semiconductor region and a second conductivity type (for example, a PN junction with the first conductivity type semiconductor region). N-type) semiconductor region (N-type electron storage region). The second conductivity type semiconductor region of the photodiode 310A and the second conductivity type semiconductor region of the photodiode 310B are separated by a separation unit 322.
転送トランジスタ311A,311B、コンタクト部312A,312B、転送制御線320A,320Bは、フォトダイオード310A,310B間にある分離部322に対し、それぞれ線対称又は略線対称に配置されている。一方、ライトガイド255は、図10に示すように、分離部322に対して偏った位置に配置されている。すなわち、フォトダイオード310Aがライトガイド255の底部分の多くの面積を占めるのに対して、フォトダイオード310Bはライトガイド255の底部分に僅かに掛かるだけとなっている。この結果、フォトダイオード310Aの受光効率は高く、フォトダイオード310Bの受光効率は低くなっている。 The transfer transistors 311A and 311B, the contact portions 312A and 312B, and the transfer control lines 320A and 320B are arranged in line symmetry or substantially line symmetry with respect to the separation portion 322 between the photodiodes 310A and 310B, respectively. On the other hand, the light guide 255 is disposed at a position biased with respect to the separation portion 322 as shown in FIG. That is, the photodiode 310A occupies a large area of the bottom portion of the light guide 255, whereas the photodiode 310B is slightly hooked on the bottom portion of the light guide 255. As a result, the light receiving efficiency of the photodiode 310A is high, and the light receiving efficiency of the photodiode 310B is low.
本実施形態による撮像素子184では、フォトダイオード310A,310Bの受光効率の比を8:1程度、すなわち感度の差を3段程度に設定している。そして、2つの映像を異なる蓄積時間の設定で撮影しつつ、画素要素においては同程度の信号電荷を得て、どちらもS/N比の良好なノイズ感のない映像としたり、或いは、品位の高いHDR映像を合成可能としたりすることに供している。詳細については、後述する。 In the image sensor 184 according to the present embodiment, the ratio of the light receiving efficiencies of the photodiodes 310A and 310B is set to about 8: 1, that is, the sensitivity difference is set to about three stages. Then, while shooting two images with different storage time settings, the pixel element obtains the same level of signal charge, and both have a good S / N ratio and no noise, or This makes it possible to synthesize high HDR video. Details will be described later.
図11は、撮像素子184の読み出し回路308A,308Bの構成例を示す回路図である。なお、図11には、読み出し回路308Aを想定して、一部の構成要素の符号の末尾に「A」を付記している。読み出し回路308Bにおいては、対応する構成要素の符号の末尾に「B」が付記されるものと理解されたい。 FIG. 11 is a circuit diagram illustrating a configuration example of the readout circuits 308A and 308B of the image sensor 184. In FIG. 11, “A” is added to the end of the reference numerals of some components assuming the reading circuit 308A. In the readout circuit 308B, it should be understood that “B” is appended to the end of the reference numerals of the corresponding components.
読み出し回路308Aは、図11に示すように、クランプ容量C0、フィードバック容量Cf、オペアンプ406、基準電圧源407、スイッチ423を含む。オペアンプ406の一方の入力端子は、クランプ容量C0を介して信号出力線304Aに接続されている。オペアンプ406の当該一方の入力端子と出力端子との間には、フィードバック容量Cfとスイッチ423とが並列に接続されている。オペアンプの他方の入力端子は、基準電圧源407に接続されている。基準電圧源407は、オペアンプ406に基準電圧Vrefを供給するためのものである。スイッチ423は、信号PC0Rで制御されるスイッチであり、信号PC0Rがハイレベルのときにオン状態となり、フィードバック容量Cfの両端を短絡させる。 As shown in FIG. 11, the read circuit 308A includes a clamp capacitor C0, a feedback capacitor Cf, an operational amplifier 406, a reference voltage source 407, and a switch 423. One input terminal of the operational amplifier 406 is connected to the signal output line 304A via a clamp capacitor C0. A feedback capacitor Cf and a switch 423 are connected in parallel between the one input terminal and the output terminal of the operational amplifier 406. The other input terminal of the operational amplifier is connected to the reference voltage source 407. The reference voltage source 407 is for supplying the reference voltage Vref to the operational amplifier 406. The switch 423 is a switch controlled by the signal PC0R, and is turned on when the signal PC0R is at a high level, and short-circuits both ends of the feedback capacitor Cf.
読み出し回路308Aは、また、スイッチ414,415,418,419、容量CTSA、容量CTNA、水平出力線424,425、出力アンプ421を含む。スイッチ414,415は、容量CTSA,CTNAへの画素信号の書き込みを制御するスイッチである。スイッチ414は、信号PTSAで制御されるスイッチであり、信号PTSAがハイレベルのときにオン状態となり、オペアンプ406の出力端子と容量CTSAとを接続する。スイッチ415は、信号PTNAで制御されるスイッチであり、信号PTNAがハイレベルのときにオン状態となり、オペアンプ406の出力端子と容量CTNAとを接続する。 The readout circuit 308A also includes switches 414, 415, 418, and 419, a capacitor CTSA, a capacitor CTNA, horizontal output lines 424 and 425, and an output amplifier 421. The switches 414 and 415 are switches that control writing of pixel signals to the capacitors CTSA and CTNA. The switch 414 is a switch controlled by the signal PTSA, and is turned on when the signal PTSA is at a high level, and connects the output terminal of the operational amplifier 406 and the capacitor CTSA. The switch 415 is a switch controlled by the signal PTNA and is turned on when the signal PTNA is at a high level, and connects the output terminal of the operational amplifier 406 and the capacitor CTNA.
スイッチ418,419は、容量CTSA,CTNAに保持されている画素信号の出力アンプ421への出力を制御するためのスイッチである。スイッチ418,419は、水平シフトレジスタからの制御信号に応じてオン状態となる。これにより、容量CTSAに書き込まれた信号は、スイッチ418及び水平出力線424を介して出力アンプ421に出力される。また、容量CTNAに書き込まれた信号は、スイッチ419及び水平出力線425を介して出力アンプ421に出力される。信号PC0R、信号PTNA及び信号PTSAは、システム制御CPU178による制御の下でタイミング発生部189から供給される信号である。 The switches 418 and 419 are switches for controlling the output of the pixel signals held in the capacitors CTSA and CTNA to the output amplifier 421. The switches 418 and 419 are turned on in response to a control signal from the horizontal shift register. As a result, the signal written in the capacitor CTSA is output to the output amplifier 421 via the switch 418 and the horizontal output line 424. Further, the signal written in the capacitor CTNA is output to the output amplifier 421 via the switch 419 and the horizontal output line 425. The signal PC0R, the signal PTNA, and the signal PTSA are signals that are supplied from the timing generation unit 189 under the control of the system control CPU 178.
読み出し回路308Bも、読み出し回路308Aと同等の構成を有している。また、以下の説明における信号PTNB及び信号PTSBは、システム制御CPU178による制御の下でタイミング発生部189から供給される信号であって、読み出し回路308Aでの信号PTNA及び信号PTSAと同等の役割を担っている。 The readout circuit 308B has a configuration equivalent to that of the readout circuit 308A. Further, the signal PTNB and the signal PTSB in the following description are signals supplied from the timing generation unit 189 under the control of the system control CPU 178, and play the same role as the signal PTNA and the signal PTSA in the read circuit 308A. ing.
次に、撮像素子184におけるリセット、蓄積及び読み出しの動作について、第1行目の画素303からの読み出し動作を例にして、図12のタイミングチャートを用いて順次説明する。 Next, reset, accumulation, and readout operations in the image sensor 184 will be sequentially described using the readout operation from the pixels 303 in the first row as an example with reference to the timing chart of FIG.
まず、時刻t1において、垂直走査回路307は、転送制御線320A,320Bに出力する転送パルスφTX1A,TX1Bを、ローレベルからハイレベルへと遷移する。これにより、転送トランジスタ311A,311Bは、オン状態となる。このとき、垂直走査回路307からは、リセット制御線319にハイレベルのリセットパルスφRES1が出力されており、リセットトランジスタ314A,314Bもオン状態である。これにより、フォトダイオード310A,310Bは、転送トランジスタ311A,311B及びリセットトランジスタ314A,314Bを介して電源線305に接続され、リセット状態となる。この際、フローティングディフュージョン領域313A,313Bも、リセット状態となる。 First, at time t1, the vertical scanning circuit 307 transitions the transfer pulses φTX1A and TX1B output to the transfer control lines 320A and 320B from the low level to the high level. As a result, the transfer transistors 311A and 311B are turned on. At this time, a high level reset pulse φRES1 is output from the vertical scanning circuit 307 to the reset control line 319, and the reset transistors 314A and 314B are also in the ON state. As a result, the photodiodes 310A and 310B are connected to the power supply line 305 via the transfer transistors 311A and 311B and the reset transistors 314A and 314B, and are in a reset state. At this time, the floating diffusion regions 313A and 313B are also reset.
次いで、時刻t2において、垂直走査回路307は、転送パルスφTX1Bをハイレベルからローレベルへと遷移する。これにより、転送トランジスタ311Bはオフ状態となり、フォトダイオード310Bでは光電変換による信号電荷の蓄積が開始する。
次いで、時刻t3において、垂直走査回路307は、転送パルスφTX1Aをハイレベルからローレベルへと遷移する。これにより、転送トランジスタ311Aはオフ状態となり、フォトダイオード310Aでは光電変換による信号電荷の蓄積が開始する。
次いで、時刻t4において、垂直走査回路307は、リセットパルスφRES1をハイレベルからローレベルへと遷移する。これにより、リセットトランジスタ314A,314Bはオフ状態となり、フローティングディフュージョン領域313A,313Bのリセットを解除する。
Next, at time t2, the vertical scanning circuit 307 changes the transfer pulse φTX1B from the high level to the low level. As a result, the transfer transistor 311B is turned off, and accumulation of signal charges by photoelectric conversion is started in the photodiode 310B.
Next, at time t3, the vertical scanning circuit 307 changes the transfer pulse φTX1A from the high level to the low level. As a result, the transfer transistor 311A is turned off, and the photodiode 310A starts to accumulate signal charges by photoelectric conversion.
Next, at time t4, the vertical scanning circuit 307 causes the reset pulse φRES1 to transition from the high level to the low level. Thereby, the reset transistors 314A and 314B are turned off, and the reset of the floating diffusion regions 313A and 313B is released.
これにより、フローティングディフュージョン領域313Aの電位が信号出力線304Aに増幅トランジスタ315Aを介してリセット信号レベルとして読み出され、読み出し回路308Aに入力される。また、フローティングディフュージョン領域313Bの電位が信号出力線304Bに増幅トランジスタ315Bを介してリセット信号レベルとして読み出され、読み出し回路308Bに入力される。 As a result, the potential of the floating diffusion region 313A is read to the signal output line 304A as the reset signal level via the amplification transistor 315A and input to the read circuit 308A. In addition, the potential of the floating diffusion region 313B is read as a reset signal level to the signal output line 304B via the amplification transistor 315B and input to the reading circuit 308B.
時刻t4において、タイミング発生部189から読み出し回路308A及び読み出し回路308Bには、ハイレベルの信号PC0Rが出力されており、スイッチ423はオン状態である。このため、読み出し回路308Aには、オペアンプ406が基準電圧Vrefの出力をバッファする状態で、画素要素303Aからリセット信号レベルの画素信号が入力される。図には示していないが、読み出し回路308Bにも同様に、画素要素303Bからリセット信号レベルの画素信号が入力される。 At time t4, the high-level signal PC0R is output from the timing generation unit 189 to the read circuit 308A and the read circuit 308B, and the switch 423 is in the on state. Therefore, the pixel signal at the reset signal level is input from the pixel element 303A to the readout circuit 308A in a state where the operational amplifier 406 buffers the output of the reference voltage Vref. Although not shown in the drawing, the reset signal level pixel signal is similarly input to the readout circuit 308B from the pixel element 303B.
次いで、時刻t5において、タイミング発生部189から読み出し回路308A及び読み出し回路308Bに出力する信号PC0Rをハイレベルからローレベルへと遷移し、スイッチ423をオフ状態にする。
次いで、時刻t6において、タイミング発生部189から読み出し回路308Aへ出力する信号PTNAをローレベルからハイレベルへと遷移してスイッチ415をオン状態にし、そのときのオペアンプ406の出力を容量CTNAへ書き込む。同様に、タイミング発生部189から読み出し回路308Bへ出力する信号PTNBをローレベルからハイレベルへと遷移してスイッチ415をオン状態にし、そのときのオペアンプ406の出力を容量CTNBへ書き込む。
Next, at time t5, the signal PC0R output from the timing generation unit 189 to the read circuit 308A and the read circuit 308B is changed from the high level to the low level, and the switch 423 is turned off.
Next, at time t6, the signal PTNA output from the timing generation unit 189 to the reading circuit 308A is changed from the low level to the high level to turn on the switch 415, and the output of the operational amplifier 406 at that time is written into the capacitor CTNA. Similarly, the signal PTNB output from the timing generation unit 189 to the reading circuit 308B is changed from the low level to the high level to turn on the switch 415, and the output of the operational amplifier 406 at that time is written to the capacitor CTNB.
次いで、時刻t7において、タイミング発生部189から読み出し回路308Aへ出力する信号PTNAをハイレベルからローレベルへと遷移してスイッチ415をオフ状態にし、容量CTNAへの書き込みを終了する。同様に、タイミング発生部189から読み出し回路308Bへ出力する信号PTNBをハイレベルからローレベルへと遷移してスイッチ415をオフ状態にし、容量CTNBへの書き込みを終了する。 Next, at time t7, the signal PTNA output from the timing generation unit 189 to the reading circuit 308A is changed from the high level to the low level, the switch 415 is turned off, and the writing to the capacitor CTNA is completed. Similarly, the signal PTNB output from the timing generation unit 189 to the reading circuit 308B is changed from the high level to the low level, the switch 415 is turned off, and the writing to the capacitor CTNB is completed.
次いで、時刻t8において、垂直走査回路307は、転送パルスφTX1A,φTX1Bをローレベルからハイレベルへと遷移し、転送トランジスタ311A,311Bをオン状態にする。これにより、フォトダイオード310Aに蓄積されていた信号電荷をフローティングディフュージョン領域313Aに転送し、フォトダイオード310Bに蓄積されていた信号電荷をフローティングディフュージョン領域313Bに転送する。 Next, at time t8, the vertical scanning circuit 307 changes the transfer pulses φTX1A and φTX1B from the low level to the high level, and turns on the transfer transistors 311A and 311B. As a result, the signal charge accumulated in the photodiode 310A is transferred to the floating diffusion region 313A, and the signal charge accumulated in the photodiode 310B is transferred to the floating diffusion region 313B.
時刻t8において転送パルスφTX1A,φTX1Bを同時にハイレベルにすることで、フォトダイオード310A,310Bの蓄積時間の終了タイミングが揃うため、両者が蓄積しきったところで同時に読み出すことになる。したがって、「picture A」のデータを用いて「picture B」のデータを補正する、「picture B」のデータを用いて「picture A」のデータを補正する、といったクロストーク補正が非常に簡単な演算で実現できるようになる。 By simultaneously setting the transfer pulses φTX1A and φTX1B to the high level at time t8, the end timings of the accumulation times of the photodiodes 310A and 310B are aligned. Therefore, crosstalk correction, such as correcting “picture B” data using “picture A” data and correcting “picture A” data using “picture B” data, is a very simple calculation. Can be realized.
次いで、時刻t9において、垂直走査回路307は、転送パルスφTX1A,φTX1Bをハイレベルからローレベルへと遷移し、転送トランジスタ311A,311Bをオフ状態にする。これにより、フォトダイオード310Aに蓄積された信号電荷のフローティングディフュージョン領域313Aへの読み出し及びフォトダイオード310Bに蓄積された信号電荷のフローティングディフュージョン領域313Bへの読み出しを終了する。 Next, at time t9, the vertical scanning circuit 307 changes the transfer pulses φTX1A and φTX1B from the high level to the low level, and turns off the transfer transistors 311A and 311B. Thereby, the reading of the signal charge accumulated in the photodiode 310A to the floating diffusion region 313A and the reading of the signal charge accumulated in the photodiode 310B to the floating diffusion region 313B are completed.
これにより、信号電荷により変化したフローティングディフュージョン領域313Aの電位が信号出力線304Aに増幅トランジスタ315Aを介して光信号レベルとして読み出され、読み出し回路308Aに入力供給される。また、信号電荷により変化したフローティングディフュージョン領域313Bの電位が信号出力線304Bに増幅トランジスタ315Bを介して光信号レベルとして読み出され、読み出し回路308Bに入力される。
そして、読み出し回路308Aでは、クランプ容量C0とフィードバック容量Cfとの容量比率で電圧変化に対して反転ゲインがかかった電圧が、オペアンプ406から出力される。同様に、読み出し回路308Bにおいても、クランプ容量C0とフィードバック容量Cfとの容量比率で電圧変化に対して反転ゲインがかかった電圧が、オペアンプ406から出力される。
As a result, the potential of the floating diffusion region 313A changed by the signal charge is read as an optical signal level to the signal output line 304A via the amplification transistor 315A, and input to the readout circuit 308A. Further, the potential of the floating diffusion region 313B changed by the signal charge is read as an optical signal level to the signal output line 304B via the amplification transistor 315B and is input to the reading circuit 308B.
In the readout circuit 308 </ b> A, the operational amplifier 406 outputs a voltage obtained by applying an inversion gain to the voltage change at the capacitance ratio between the clamp capacitor C <b> 0 and the feedback capacitor Cf. Similarly, in the readout circuit 308B, a voltage obtained by applying an inversion gain to the voltage change at the capacitance ratio of the clamp capacitor C0 and the feedback capacitor Cf is output from the operational amplifier 406.
次いで、時刻t10において、タイミング発生部189から読み出し回路308Aへ出力する信号PTSAをローレベルからハイレベルへと遷移してスイッチ414をオン状態にし、そのときのオペアンプ406の出力を容量CTSAへ書き込む。同様に、タイミング発生部189から読み出し回路308Bへ出力する信号PTSBをローレベルからハイレベルへと遷移してスイッチ414をオン状態にし、そのときのオペアンプ406の出力を容量CTSBへ書き込む。 Next, at time t10, the signal PTSA output from the timing generation unit 189 to the reading circuit 308A is changed from the low level to the high level to turn on the switch 414, and the output of the operational amplifier 406 at that time is written into the capacitor CTSA. Similarly, the signal PTSB output from the timing generator 189 to the reading circuit 308B is changed from the low level to the high level to turn on the switch 414, and the output of the operational amplifier 406 at that time is written to the capacitor CTSB.
次いで、時刻t11において、タイミング発生部189から読み出し回路308Aへ出力する信号PTSAをハイレベルからローレベルへと遷移してスイッチ414をオフ状態にし、容量CTSAへの書き込みを終了する。同様に、タイミング発生部189から読み出し回路308Bへ出力する信号PTSBをハイレベルからローレベルへと遷移してスイッチ414をオフ状態にし、容量CTSBへの書き込みを終了する。 Next, at time t11, the signal PTSA output from the timing generation unit 189 to the reading circuit 308A is changed from the high level to the low level, the switch 414 is turned off, and writing to the capacitor CTSA is completed. Similarly, the signal PTSB output from the timing generation unit 189 to the reading circuit 308B is changed from the high level to the low level to turn off the switch 414, and the writing to the capacitor CTSB is completed.
次いで、時刻t12において、垂直走査回路307は、リセットパルスφRES1をローレベルからハイレベルへと遷移し、リセットトランジスタ314A,314Bをオン状態とする。これにより、フローティングディフュージョン領域313A,313Bは、リセットトランジスタ314A,314Bを介して電源線305に接続され、リセット状態となる。 Next, at time t12, the vertical scanning circuit 307 changes the reset pulse φRES1 from the low level to the high level to turn on the reset transistors 314A and 314B. As a result, the floating diffusion regions 313A and 313B are connected to the power supply line 305 via the reset transistors 314A and 314B to be in a reset state.
図13は、フォトダイオード310A,310Bにおいて光電変換によって生成され蓄積されていく信号電荷の時間的な変化を示すグラフである。同図において、グラフの横軸は時間を表し、縦軸は信号電荷の量を表している。時間軸上には、図12に示した時刻t1から時刻t12を表示している。 FIG. 13 is a graph showing temporal changes in signal charges generated and accumulated by photoelectric conversion in the photodiodes 310A and 310B. In the figure, the horizontal axis of the graph represents time, and the vertical axis represents the amount of signal charge. On the time axis, time t1 to time t12 shown in FIG. 12 are displayed.
時刻t2において、転送パルスφTX1Bをローレベルとして転送トランジスタ311Bをオフ状態にし、フォトダイオード310Bにおける信号電荷の蓄積を開始すると、フォトダイオード310Bが保持する信号電荷の量は、時間の経過とともに増加する。図13の直線952が、フォトダイオード310Bが保持する信号電荷の量の変化を示している。信号電荷の増加は、時刻t8において転送パルスφTX1Bをハイレベルにして転送トランジスタ311Bをオン状態にし、フォトダイオード310Bの信号電荷をフローティングディフュージョン領域313Bへ転送するまで継続する。 At time t2, when the transfer pulse 3TX is turned off by setting the transfer pulse φTX1B to the low level and signal charge accumulation in the photodiode 310B is started, the amount of signal charge held by the photodiode 310B increases with time. A straight line 952 in FIG. 13 indicates a change in the amount of signal charge held by the photodiode 310B. The increase in the signal charge continues until the transfer pulse 3TXB is turned on at time t8 to turn on the transfer transistor 311B and the signal charge of the photodiode 310B is transferred to the floating diffusion region 313B.
また、時刻t3において、転送パルスφTX1Aをローレベルとして転送トランジスタ311Aをオフ状態にし、フォトダイオード310Aにおける信号電荷の蓄積を開始する。これにより、フォトダイオード31Aが保持する信号電荷の量は、時間の経過とともに増加する。図13の直線951が、フォトダイオード310Aが保持する信号電荷の量の変化を示している。信号電荷の増加は、時刻t8において転送パルスφTX1Aをハイレベルにして転送トランジスタ311Aをオン状態にし、フォトダイオード310Aの信号電荷をフローティングディフュージョン領域313Aへ転送するまで継続する。 At time t3, the transfer pulse φTX1A is set to low level to turn off the transfer transistor 311A, and signal charge accumulation in the photodiode 310A is started. As a result, the amount of signal charge held by the photodiode 31A increases with time. A straight line 951 in FIG. 13 shows a change in the amount of signal charge held by the photodiode 310A. The increase in the signal charge continues until the transfer pulse 3TXA is turned on at time t8 to turn on the transfer transistor 311A and the signal charge of the photodiode 310A is transferred to the floating diffusion region 313A.
時刻t8において、フォトダイオード310Bが保持する信号電荷量LBとフォトダイオード310Aが保持する信号電荷量LAとは、受光効率の差を蓄積時間の差によって相殺することにより、ほぼ同程度となっている。 At time t8, the signal charge amount LB held by the photodiode 310B and the signal charge amount LA held by the photodiode 310A are approximately the same by offsetting the difference in light receiving efficiency by the difference in accumulation time. .
転送パルスφTX1Bと転送パルスφTX1Aがともにローレベルである期間TM1において、フォトダイオード310Aとフォトダイオード310Bとの間のクロストークが発生する。期間TM1は、フォトダイオード310Aの蓄積期間とフォトダイオード310Bの蓄積期間のうちの短い方の値である。クロストーク量は、信号電荷の量にほぼ比例するので、信号電荷量が大きくなる期間TM1の後半の期間TM2において、相対的に多くのクロストークが発生する。 In a period TM1 in which both the transfer pulse φTX1B and the transfer pulse φTX1A are at a low level, crosstalk occurs between the photodiode 310A and the photodiode 310B. The period TM1 is a shorter value of the accumulation period of the photodiode 310A and the accumulation period of the photodiode 310B. Since the amount of crosstalk is substantially proportional to the amount of signal charge, a relatively large amount of crosstalk occurs in the second half period TM2 of the period TM1 in which the signal charge amount increases.
フォトダイオード310Aからフォトダイオード310Bへのクロストーク量CTABは、右下がりの斜影線を付した領域953の面積に比例する。また、フォトダイオード310Bからフォトダイオード310Aへのクロストーク量CTBAは、左下がりの斜影線を付した領域954の面積に比例する。これらの比例定数をそれぞれk,gと定義すると、クロストーク量CTAB,CTBAは、
CTAB=k×(LA×TM1)/2 …(1)
CTBA=g×(LA+LBS)×TM1/2 …(2)
と表すことができる。ここで、LBSは、時刻t3におけるフォトダイオード310Bの信号電荷量である。また、この図には表現していないが、時刻t2から時刻t3までの時間が期間TM1に対して十分に小さいと過程すると、LB=LBSと近似することができる。したがって、式(2)は、
CTBA=g×LB×TM1 …(3)
と変形することができる。
The amount of crosstalk CTAB from the photodiode 310A to the photodiode 310B is proportional to the area of the region 953 with a downward slanting shaded line. In addition, the amount of crosstalk CTBA from the photodiode 310B to the photodiode 310A is proportional to the area of a region 954 with a slanting line descending to the left. If these proportionality constants are defined as k and g, respectively, the crosstalk amounts CTAB and CTBA are
CTAB = k × (LA × TM1) / 2 (1)
CTBA = g × (LA + LBS) × TM1 / 2 (2)
It can be expressed as. Here, LBS is the signal charge amount of the photodiode 310B at time t3. Although not shown in this figure, if the time from time t2 to time t3 is sufficiently small with respect to the period TM1, it can be approximated as LB = LBS. Therefore, equation (2) is
CTBA = g × LB × TM1 (3)
And can be transformed.
したがって、式(1)及び式(3)から、クロストーク量CTABは、信号電荷量LAと、フォトダイオード310Aの蓄積期間とフォトダイオード310Bの蓄積時間のうちの短い方の値(期間TM1)との関数であることが判る。また、クロストーク量CTBAは、信号電荷量LBと、フォトダイオード310Aの蓄積期間とフォトダイオード310Bの蓄積時間のうちの短い方の値(期間TM1)との関数であることが判る。 Therefore, from the equations (1) and (3), the crosstalk amount CTAB is the signal charge amount LA, and the shorter value (period TM1) of the accumulation period of the photodiode 310A and the accumulation time of the photodiode 310B. It turns out that it is a function of. It can also be seen that the crosstalk amount CTBA is a function of the signal charge amount LB and the shorter value (period TM1) of the accumulation period of the photodiode 310A and the accumulation time of the photodiode 310B.
図14は、図9のA−B線に沿った画素303のポテンシャル図である。図14(a)は図12の時刻taにおけるポテンシャル図、図14(b)は図12の時刻tbにおけるポテンシャル図、図14(c)は図12の時刻tcにおけるポテンシャル図である。 FIG. 14 is a potential diagram of the pixel 303 along the line AB in FIG. 14A is a potential diagram at time ta in FIG. 12, FIG. 14B is a potential diagram at time tb in FIG. 12, and FIG. 14C is a potential diagram at time tc in FIG.
時刻taにおいては、図14(a)に示すように、転送トランジスタ311A,311Bはオフ状態であり、フォトダイオード310A,310Bには、それぞれ信号蓄積レベル323A,323Bの信号電荷が蓄積されている。前述のように、フォトダイオード310Aとフォトダイオード310Bとでは受光効率が異なるが、蓄積時間の差によって受光効率の差を相殺することで、信号蓄積レベル323A,323Bは同程度になっている。この状態は比較的長く続くため、フォトダイオード310Aの蓄積電荷が隣接するフォトダイオード310Bに漏れる現象及びフォトダイオード310Bの蓄積電荷が隣接するフォトダイオード310Aに漏れる現象が、無視できないレベルで発生する。 At time ta, as shown in FIG. 14A, the transfer transistors 311A and 311B are in an off state, and signal charges of signal accumulation levels 323A and 323B are accumulated in the photodiodes 310A and 310B, respectively. As described above, although the light receiving efficiency differs between the photodiode 310A and the photodiode 310B, the signal storage levels 323A and 323B are approximately the same by canceling out the difference in the light receiving efficiency due to the difference in the storage time. Since this state continues for a relatively long time, the phenomenon that the accumulated charge of the photodiode 310A leaks to the adjacent photodiode 310B and the phenomenon that the accumulated charge of the photodiode 310B leaks to the adjacent photodiode 310A occur at levels that cannot be ignored.
時刻tbにおいては、図14(b)に示すように、転送トランジスタ311A,311Bはオン状態であり、転送トランジスタ311A,311Bのポテンシャル障壁が低くなっている。これにより、フォトダイオード310Aに蓄積されていた信号電荷はフローティングディフュージョン領域313Aに転送され、フォトダイオード310Bに蓄積されていた信号電荷はフローティングディフュージョン領域313Bに転送される。この際、分離部322のポテンシャル障壁も低くなるが、転送トランジスタ311A,311Bのポテンシャル障壁は十分に小さくなっている。そのため、このタイミングでフォトダイオード310A,310Bの蓄積電荷が分離部322を介して隣接するフォトダイオード310B,310Aへ漏れる現象はほとんど生じない。 At time tb, as shown in FIG. 14B, the transfer transistors 311A and 311B are in the on state, and the potential barriers of the transfer transistors 311A and 311B are low. Thereby, the signal charge accumulated in the photodiode 310A is transferred to the floating diffusion region 313A, and the signal charge accumulated in the photodiode 310B is transferred to the floating diffusion region 313B. At this time, the potential barrier of the separation unit 322 is also lowered, but the potential barriers of the transfer transistors 311A and 311B are sufficiently small. Therefore, a phenomenon in which the accumulated charges of the photodiodes 310A and 310B leak to the adjacent photodiodes 310B and 310A via the separation portion 322 hardly occurs at this timing.
時刻tcにおいては、図14(c)に示すように、転送トランジスタ311A,311Bはオフ状態であり、ポテンシャルは図14(a)の状態に戻る。 At time tc, as shown in FIG. 14C, the transfer transistors 311A and 311B are in the OFF state, and the potential returns to the state shown in FIG.
図15は、撮像素子184の内部における光の伝搬と光電変換により発生した信号電荷の挙動を示す断面図である。画素303に入射する光束451は、まずカラーフィルタ256に入射して所定の波長成分がここで吸収され、絶縁層254の最上部にあたる界面不活性化膜(図示せず)を通過し、ライトガイド255に入射する。ライトガイド255内では、先に図5を用いて説明したように、光の波動的な振る舞いによって光線の方位情報、すなわち瞳情報が消失する。光束451は、ライトガイド255と絶縁層254との屈折率差によってライトガイド255の内部に閉じ込められたままシリコン基板251側に進み、ライトガイド255の底部分に達する。ライトガイド255の底部分はシリコン基板251に隣接し、ライトガイド255を射出した光束はシリコン基板251に入射する。シリコン基板251内に隣接して設けられたフォトダイオード310Aとフォトダイオード310Bとは、ライトガイド255に対して大きく偏芯して配置されている。このため、ライトガイド255を射出した光束のうちの大部分の光束452がフォトダイオード310Aへ入射し、ライトガイド255を射出した光束のうちの残りの一部分の光束453がフォトダイオード310Bへ入射する。フォトダイオード310A,310Bでは、入射した光子が信号電荷へと変換される。 FIG. 15 is a cross-sectional view showing the behavior of signal charges generated by light propagation and photoelectric conversion inside the image sensor 184. The light beam 451 incident on the pixel 303 first enters the color filter 256 and a predetermined wavelength component is absorbed here, passes through an interface deactivation film (not shown) corresponding to the uppermost portion of the insulating layer 254, and the light guide. Incident to 255. In the light guide 255, as described above with reference to FIG. 5, the light beam azimuth information, that is, pupil information disappears due to the wave behavior of the light. The light beam 451 proceeds to the silicon substrate 251 side while being confined inside the light guide 255 due to the difference in refractive index between the light guide 255 and the insulating layer 254, and reaches the bottom portion of the light guide 255. The bottom portion of the light guide 255 is adjacent to the silicon substrate 251, and the light beam emitted from the light guide 255 is incident on the silicon substrate 251. The photodiode 310A and the photodiode 310B provided adjacent to each other in the silicon substrate 251 are arranged so as to be largely eccentric with respect to the light guide 255. Therefore, most of the light beam 452 emitted from the light guide 255 is incident on the photodiode 310A, and the remaining part of the light beam 453 emitted from the light guide 255 is incident on the photodiode 310B. In the photodiodes 310A and 310B, incident photons are converted into signal charges.
この際、撮像素子184のシリコン基板251内部で発生した信号電荷は、拡散によって隣接する画素要素に漏れ込む。例えば、フォトダイオード310Aで発生した信号電荷454は、拡散によってフォトダイオード310Bに漏れ込む。また。フォトダイオード310Bで発生した信号電荷455は、拡散によってフォトダイオード310Aに漏れ込む。この現象は映像に悪影響を及ぼし、画像の滲みとなって現れる。 At this time, signal charges generated inside the silicon substrate 251 of the image sensor 184 leak into adjacent pixel elements by diffusion. For example, the signal charge 454 generated in the photodiode 310A leaks into the photodiode 310B by diffusion. Also. The signal charge 455 generated in the photodiode 310B leaks into the photodiode 310A by diffusion. This phenomenon has an adverse effect on the video and appears as blurring of the image.
図16は、本実施形態による撮像装置における撮像シーケンスを説明するためのタイミングチャートである。図面の最上部の「タイムコード」は、電源を投入してからの時間を示し、「00:00:00:00」は、「時:分:秒:フレーム」を表している。 FIG. 16 is a timing chart for explaining an imaging sequence in the imaging apparatus according to the present embodiment. The “time code” at the top of the drawing indicates the time since the power is turned on, and “00: 00: 00: 00” indicates “hour: minute: second: frame”.
時刻t31は、撮像装置100の電源投入時刻である。
時刻t32において、動画撮影ボタンであるスイッチMV155が使用者によって操作されてONとなり、これに応じて、「picture B」の撮像及び「picture A」の撮像が開始される。動画撮影のためのボタンであるスイッチMV155が操作されることに応じて、「picture B」については、所定の信号処理を経て記録媒体193にその映像データが書き込まれる。
Time t31 is the power-on time of the imaging apparatus 100.
At time t32, the switch MV155, which is a moving image shooting button, is operated by the user to be turned on, and in response to this, the imaging of “picture B” and the imaging of “picture A” are started. In response to the operation of the switch MV155, which is a button for moving image shooting, the video data of “picture B” is written to the recording medium 193 through predetermined signal processing.
なお、「picture B」の撮像だけでなく「picture A」の撮像も同時に行っているのは、後述するクロストーク補正を常に有効にするためである。図13に示した転送パルスφTX1Aがローレベルにならなければ、転送トランジスタ311Aはオン状態であるため、フォトダイオード310Aで発生した信号電荷は蓄積されることはない。しかし、仮にスイッチST154が操作された期間のみをクロストーク補正の対象にすると、クロストーク補正誤差の影響で、スイッチST154の操作タイミングにおいて記録された「picture B」に微妙な輝度変化や色相の変化が生じることとなる。 The reason why the “picture A” is picked up simultaneously with the “picture B” is because the crosstalk correction described later is always effective. If the transfer pulse φTX1A shown in FIG. 13 does not go to a low level, the transfer transistor 311A is in an on state, so that the signal charge generated in the photodiode 310A is not accumulated. However, if only the period during which the switch ST154 is operated is subject to crosstalk correction, a subtle change in luminance or hue in “picture B” recorded at the operation timing of the switch ST154 due to the influence of the crosstalk correction error. Will occur.
時刻t33から時刻t34の期間及び時刻t35から時刻t36の期間では、静止画の撮影を行うために使用するスイッチST154が操作されている。これを受けてこれら期間においては、「picture A」についても、所定の信号処理を経て記録媒体193にその映像データが書き込まれる。なお、「picture A」の映像データは、時刻t33から時刻t34の期間及び時刻t35から時刻t36の期間のみならず、「picture B」の映像データと同じ期間の間、記録媒体193に書き込むようにしてもよい。 In the period from time t33 to time t34 and in the period from time t35 to time t36, the switch ST154 used for taking a still image is operated. In response to this, the video data of “picture A” is also written to the recording medium 193 through predetermined signal processing during these periods. The “picture A” video data is written to the recording medium 193 not only during the period from time t33 to time t34 and from time t35 to time t36, but also during the same period as the video data of “picture B”. May be.
「picture A」及び「picture B」の何れについても、記録媒体193に記録された各映像データは、同一フレームレート、例えば60fpsの動画であり、NTSC方式のタイムコードが付加されているものとする。動画データの各フレームに付加されるタイムコードの値は、例えば図17に示すようになる。 For both “picture A” and “picture B”, each video data recorded on the recording medium 193 is a moving image with the same frame rate, for example, 60 fps, and an NTSC time code is added. . The value of the time code added to each frame of the moving image data is, for example, as shown in FIG.
図18は、「picture A」及び「picture B」の映像データのファイル構造の一例を示す図である。ここでは映像データのフォーマットとしてMP4ファイルの例を示すが、映像データのフォーマットはこれに限定されるものではない。MP4ファイルフォーマットは、ISO/IEC 14496−1/AMD6で規格化されている。全ての情報はBoxと呼ばれる構造体に格納されており、多重化されたビデオ及びオーディオビットストリーム(メディアデータ)と、これらメディアデータに対する管理情報(メタデータ)から構成されている。各Boxは4文字の識別子でそれぞれのBoxタイプが表される。ファイルタイプBox501(ftyp)は、ファイル先頭にあり、ファイルを識別するためのBoxである。メディアデータBox502(mdat)は、ビデオとオーディオのビットストリームが多重化されて格納されている。ムービーBox503(moov)は、メディアデータBox502に格納されたビットストリームを再生するための管理情報が格納されている。スキップBox504(skip)は、再生時にはスキップBox504内に格納されているデータを読み飛ばし、スキップするためのBoxである。 FIG. 18 is a diagram illustrating an example of a file structure of video data of “picture A” and “picture B”. Here, an example of the MP4 file is shown as the format of the video data, but the format of the video data is not limited to this. The MP4 file format is standardized by ISO / IEC 144961 / AMD6. All information is stored in a structure called a box, and is composed of multiplexed video and audio bitstreams (media data) and management information (metadata) for these media data. Each Box is an identifier of 4 characters and represents each Box type. The file type Box 501 (ftyp) is a box at the head of the file for identifying the file. The media data box 502 (mdat) stores a multiplexed video and audio bit stream. The movie box 503 (moov) stores management information for reproducing the bit stream stored in the media data box 502. The skip box 504 (skip) is a box for skipping and skipping data stored in the skip box 504 during reproduction.
スキップBox504内には、この映像データファイルを含むクリップのクリップ名508、本素材に付与されているクリップのUMID(Unique Material Identifier)509(CLIP−UMID)が格納される。スキップBox504内には、また、クリップ先頭フレームのタイムコード値(タイムコード先頭値)510、本素材ファイルが記録された記録メディアのシリアル番号511が格納される。なお、本図においては、スキップBox504に、フリースペース505、ユーザデータ506、メタデータ507も含まれている。本素材ファイルのUMIDや記録メディアのシリアル番号のような特殊なデータは、スキップBoxに格納されているので、汎用のビューアで再生する際に影響を与えない。 In the skip box 504, the clip name 508 of the clip including the video data file and the UMID (Unique Material Identifier) 509 (CLIP-UMID) of the clip attached to the material are stored. In the skip box 504, the time code value (time code start value) 510 of the clip start frame and the serial number 511 of the recording medium on which the material file is recorded are stored. In this figure, the skip box 504 includes free space 505, user data 506, and metadata 507. Since special data such as the UMID of the material file and the serial number of the recording medium are stored in the skip box, they are not affected when played back by a general-purpose viewer.
「picture A」及び「picture B」のそれぞれのMP4ファイルには、同じCLIP−UMIDが設定される。これにより、CLIP―UMIDを使って1つの素材ファイルから同じCLIP−UMIDのファイルを検索し、人手による確認作業をすることなく機械的に関連付けを行うことができるようになる。 The same CLIP-UMID is set in the MP4 files of “picture A” and “picture B”. As a result, the same CLIP-UMID file can be searched from one material file using CLIP-UMID, and mechanical association can be performed without manual confirmation.
図19は、「picture A」及び「picture B」の撮影条件の設定画面を説明する図である。撮影モード選択レバー156を、例えば図1(b)の位置から時計方向に90度回転させることによって、2つの映像を同時に撮影することができるデュアル映像モードに入るものとする。表示部153には、そのときの被写体の輝度に応じたBv値521、Fナンバー522、「picture A」及び「picture B」のそれぞれのISO感度523,524、シャッタースピード525,526が表示される。また、「picture A」及び「picture B」のそれぞれについて、現在設定されているピクチャーモード527,528が表示される。ピクチャーモードは、アップダウンスイッチ158,159及びダイアル160を用いて複数の選択肢の中から撮影の目的に合ったものを選択することができる。 FIG. 19 is a diagram for explaining a screen for setting the imaging conditions of “picture A” and “picture B”. Suppose that the shooting mode selection lever 156 is rotated 90 degrees clockwise from the position of FIG. 1B, for example, to enter a dual video mode in which two videos can be shot simultaneously. The display unit 153 displays the Bv value 521 corresponding to the luminance of the subject at that time, the F number 522, the ISO sensitivities 523 and 524 of “picture A” and “picture B”, and the shutter speeds 525 and 526, respectively. . In addition, currently set picture modes 527 and 528 are displayed for each of “picture A” and “picture B”. In the picture mode, the up / down switches 158 and 159 and the dial 160 can be used to select one that meets the purpose of shooting from a plurality of options.
前述したように、フォトダイオード310Aとフォトダイオード310Bとの間の受光効率の差は、3段に設定されている。このため、「picture A」と「picture B」との間のISO感度範囲には、3段の差がある。図20に示すように、「picture A」はISO100〜ISO102400、「picture B」はISO12〜ISO12800となっている。 As described above, the difference in light receiving efficiency between the photodiode 310A and the photodiode 310B is set to three stages. Therefore, there is a three-stage difference in the ISO sensitivity range between “picture A” and “picture B”. As shown in FIG. 20, “picture A” is ISO 100 to ISO 102400, and “picture B” is ISO 12 to ISO 12800.
図21は、デュアル映像モードにおけるプログラムAE(Automatic Exposure)線図である。横軸がTv値とそれに対応するシャッタースピードを示し、縦軸がAv値とそれに対応する絞り値を示している。また、斜め方向は等Bv線となっている。「picture A」のBv値とISO感度との関係がゲイン表記領域556に表されており、「picture B」のBv値とISO感度との関係がゲイン表記領域557に表されている。なお、図21において各Bv値は、他のパラメータと区別するために、四角で囲んだ数値で表している。 FIG. 21 is a program AE (Automatic Exposure) diagram in the dual video mode. The horizontal axis shows the Tv value and the corresponding shutter speed, and the vertical axis shows the Av value and the corresponding aperture value. Further, the oblique direction is an equal Bv line. The relationship between the Bv value of “picture A” and the ISO sensitivity is represented in the gain notation area 556, and the relationship between the Bv value of “picture B” and the ISO sensitivity is represented in the gain notation area 557. In FIG. 21, each Bv value is represented by a numerical value surrounded by a square to distinguish it from other parameters.
高輝度から低輝度になるに従って、シャッタースピード、絞り値、ISO感度がどのように変化するかについて、図21を用いて説明する。 How the shutter speed, aperture value, and ISO sensitivity change as the brightness changes from high to low will be described with reference to FIG.
まず、Bv13のときは、「picture A」では、ISO感度はISO100に設定される。「picture A」の等Bv線は、「picture A」のプログラム線図558と点551で交差し、点551からシャッタースピード1/4000、絞り値F11と定まる。一方、「picture B」では、ISO感度はISO12に設定される。「picture B」の等Bv線は、「picture B」のプログラム線図559と点552で交差し、点552からシャッタースピード1/500、絞り値F11と定まる。 First, in the case of Bv13, the ISO sensitivity is set to ISO100 in “picture A”. The equal Bv line of “picture A” intersects the program diagram 558 of “picture A” at a point 551, and the shutter speed 1/4000 and the aperture value F11 are determined from the point 551. On the other hand, in “picture B”, the ISO sensitivity is set to ISO12. The equal Bv line of “picture B” intersects the program diagram 559 of “picture B” at a point 552, and the shutter speed 1/500 and the aperture value F11 are determined from the point 552.
Bv10のときは、「picture A」では、ISO感度は1段分上昇してISO200に設定される。「picture A」の等BV線は、「picture A」のプログラム線図558と点553で交差し、点553からシャッタースピード1/1000、絞り値F11と定まる。一方、「picture B」では、ISO感度はISO12に設定される。「picture B」の等Bv線は、「picture B」のプログラム線図559と点560で交差し、点560からシャッタースピード1/60、絞り値F11と定まる。 In the case of Bv10, in “picture A”, the ISO sensitivity is increased by one step and set to ISO200. An equal BV line of “picture A” intersects with the program diagram 558 of “picture A” at a point 553, and a shutter speed 1/1000 and an aperture value F11 are determined from the point 553. On the other hand, in “picture B”, the ISO sensitivity is set to ISO12. The equal Bv line of “picture B” intersects the program diagram 559 of “picture B” at a point 560, and the shutter speed 1/60 and the aperture value F11 are determined from the point 560.
Bv6のときは、「picture A」では、ISO感度はISO200に設定される。「picture A」の等Bv線は、「picture A」のプログラム線図558と点554で交差し、点554からシャッタースピード1/1000、絞り値F2.8と定まる。一方、「picture B」では、ISO感度はISO12に設定される。「picture B」の等Bv線は、「picture B」のプログラム線図559と点555で交差し、点555からシャッタースピード1/60、絞り値F2.8と定まる。 In the case of Bv6, the ISO sensitivity is set to ISO200 in “picture A”. The equal Bv line of “picture A” intersects with the program diagram 558 of “picture A” at a point 554, and the shutter speed is 1/1000 and the aperture value F2.8 is determined from the point 554. On the other hand, in “picture B”, the ISO sensitivity is set to ISO12. The equal Bv line of “picture B” intersects the program diagram 559 of “picture B” at a point 555, and the shutter speed 1/60 and the aperture value F2.8 are determined from the point 555.
Bv5のときは、「picture A」では、ISO感度は1段分上昇してISO400に設定される。「picture A」の等Bv線は、「picture A」のプログラム線図558と点554で交差し、点554からシャッタースピード1/1000、絞り値F2.8と定まる。一方、「picture B」では、ISO感度はISO25に設定される。「picture B」の等Bv線は、「picture B」のプログラム線図559と点555で交差し、点555からシャッタースピード1/60、絞り値F2.8と定まる。 In the case of Bv5, in “picture A”, the ISO sensitivity is increased by one step and set to ISO400. The equal Bv line of “picture A” intersects with the program diagram 558 of “picture A” at a point 554, and the shutter speed is 1/1000 and the aperture value F2.8 is determined from the point 554. On the other hand, in “picture B”, the ISO sensitivity is set to ISO25. The equal Bv line of “picture B” intersects the program diagram 559 of “picture B” at a point 555, and the shutter speed 1/60 and the aperture value F2.8 are determined from the point 555.
以降、輝度が下がるにつれて、「picture A」、「picture B」ともに、シャッタースピードと絞り値は変化せずにゲインアップしISO感度が上昇していく。 Thereafter, as the brightness decreases, both the “picture A” and “picture B” increase the gain without changing the shutter speed and the aperture value, and the ISO sensitivity increases.
このプログラムAE線図に示した露光動作を行うことにより、表記した全輝度範囲において「picture A」は1/1000以上のシャッタースピードを保ち、「picture B」は多くの輝度範囲で1/60のシャッタースピードを保っている。これにより、「picture A」ではストップモーション効果を得つつ、「picture B」ではコマ送りのような、いわゆるジャーキネスが抑制された高品位な動画を得ることができる。 By performing the exposure operation shown in the program AE diagram, “picture A” maintains a shutter speed of 1/1000 or more in the entire luminance range described, and “picture B” is 1/60 in many luminance ranges. The shutter speed is maintained. As a result, while “picture A” obtains a stop motion effect, “picture B” makes it possible to obtain a high-quality moving image in which so-called jerkiness is suppressed, such as frame advance.
一般に、動画再生時のシャッタースピードが速いと、再生時にコマ送りのようないわゆるジャーキネスが現れて映像の滑らかさが失われてしまう。こういったジャーキネスを抑えた滑らかな映像を得るためには、一連の撮影において、1フレーム期間に近い蓄積時間を設定する必要がある。すなわち、フレームレートが30fpsであれば、1/30秒や1/60秒といった比較的長い蓄積時間が適切となる。特に、空撮などのカメラの姿勢が不安定な状況においては、この設定が重要である。 In general, when the shutter speed at the time of moving image reproduction is high, so-called jerkiness such as frame advance appears at the time of reproduction, and the smoothness of the image is lost. In order to obtain such a smooth image with reduced jerkiness, it is necessary to set an accumulation time close to one frame period in a series of photographing. That is, if the frame rate is 30 fps, a relatively long accumulation time such as 1/30 seconds or 1/60 seconds is appropriate. This setting is particularly important in situations where the camera posture is unstable, such as aerial photography.
一方、静止画においては、ブレを抑えて一瞬を写し止めた、いわゆるストップモーション効果のある映像を撮影することが求められる。このため、例えば1/1000秒程度の短い蓄積時間を設定する必要がある。また、高フレームレートの動画では、1フレーム期間が短いので、例えばフレームレートが120fpsであれば、1/125秒や1/250秒といった必然的に短い蓄積時間を設定することになる。 On the other hand, in still images, it is required to shoot a video with a so-called stop motion effect that suppresses blur and stops a moment. For this reason, it is necessary to set a short accumulation time of, for example, about 1/1000 second. In addition, since one frame period is short in a high frame rate moving image, for example, if the frame rate is 120 fps, a short accumulation time such as 1/125 seconds or 1/250 seconds is inevitably set.
単一の撮影レンズを通して動画と静止画或いは通常フレームレートの動画と高フレームレートの動画の2つの映像を同時に撮影するということは、それらの撮影で使用される絞りが共通であるということである。このときにも、2つの映像が異なる蓄積時間の設定で撮影されながらも、撮像素子においては同程度の信号電荷を得て、どちらもS/N比の良好なノイズ感のない映像となることが望ましい。 Shooting two images of a moving image and a still image or a normal frame rate moving image and a high frame rate moving image simultaneously through a single shooting lens means that the aperture used for the shooting is the same. . At this time, while the two images are shot with different storage time settings, the image sensor obtains the same level of signal charge, and both of them have a good S / N ratio and no noise. Is desirable.
図22は、「picture A」と「picture B」との間のシャッタースピードの差異を撮像シーケンス上で説明する図である。図には、横軸を時間として、V同期信号481、「picture A」の蓄積期間482,483、「picture B」の蓄積期間484,485を示している。nは、フレーム番号である。 FIG. 22 is a diagram illustrating a difference in shutter speed between “picture A” and “picture B” on the imaging sequence. In the figure, the horizontal axis indicates time, and the V synchronization signal 481, “picture A” accumulation periods 482 and 483, and “picture B” accumulation periods 484 and 485 are shown. n is a frame number.
蓄積期間482は、「picture A」の画面上端ラインの蓄積期間であり、蓄積期間483は、「picture A」の画面下端ラインの蓄積期間である。撮像素子184はローリング電子シャッター機能で露光動作を行うために、画面上端のラインから画面下端のラインに向かって、所定の時間間隔で順次蓄積が開始され、当該時間間隔で順次蓄積が終了する。蓄積が終了すると信号電荷は撮像素子184から順次読み出され、アナログフロントエンド185に入力される。時刻t53から時刻t54までが蓄積期間482であり、時刻t55から時刻t56までが蓄積期間483である。 The accumulation period 482 is the accumulation period of the “picture A” screen top line, and the accumulation period 483 is the accumulation period of the “picture A” screen bottom line. In order to perform an exposure operation with the rolling electronic shutter function, the image sensor 184 sequentially starts accumulation at a predetermined time interval from the line at the upper end of the screen toward the line at the lower end of the screen, and ends the accumulation at the time interval. When the accumulation ends, signal charges are sequentially read from the image sensor 184 and input to the analog front end 185. The accumulation period 482 is from time t53 to time t54, and the accumulation period 483 is from time t55 to time t56.
また、蓄積期間484は、「picture B」の画面上端ラインの蓄積期間であり、蓄積期間485は、「picture B」の画面下端ラインの蓄積期間である。「picture B」においても「picture A」と同様に、画面上端のラインから画面下端のラインに向かって、所定の時間間隔で蓄積が開始され、当該時間間隔で順次蓄積が終了する。蓄積が終了すると信号電荷は撮像素子184から順次読み出され、アナログフロントエンド186に入力される。時刻t51から時刻t54までが蓄積期間484であり、時刻t52から時刻t56までが蓄積期間485である。 The accumulation period 484 is the accumulation period of the screen top line of “picture B”, and the accumulation period 485 is the accumulation period of the screen bottom line of “picture B”. Similarly to “picture A”, accumulation in “picture B” starts from a line at the upper end of the screen toward a line at the lower end of the screen at a predetermined time interval, and the accumulation ends sequentially at the time interval. When the accumulation is completed, signal charges are sequentially read from the image sensor 184 and input to the analog front end 186. The accumulation period 484 is from time t51 to time t54, and the accumulation period 485 is from time t52 to time t56.
「picture A」と「picture B」の2つの映像は、異なる蓄積時間の設定で撮影されるが、「picture A」についてゲインアップするのではなく、撮像素子184において同程度のレベルの信号電荷を得ている。このため、「picture A」及び「picture B」のどちらもS/N比の良好なノイズ感のない映像となる。 Two pictures of “picture A” and “picture B” are photographed with different accumulation time settings, but the gain of the “picture A” is not increased, but the signal charge of the same level is obtained in the image sensor 184. It has gained. Therefore, both “picture A” and “picture B” are images having a good S / N ratio and no noise.
図23は、撮像装置100に電源を投入した後のライブビュー表示中の表示部153の様子を表す図である。表示部153には、撮影光学系152を通して捉えられた人物163のスポーツシーンが表示されている。また、撮影モード選択レバー156が図1(b)の状態から時計方向に90度回動した位置にあるので、デュアル映像モードでの「picture A」と「picture B」のシャッタースピード491,492及びFナンバー493が表示されている。 FIG. 23 is a diagram illustrating a state of the display unit 153 during live view display after the imaging apparatus 100 is powered on. On the display unit 153, the sports scene of the person 163 captured through the photographing optical system 152 is displayed. Also, since the shooting mode selection lever 156 is at a position rotated 90 degrees clockwise from the state of FIG. 1B, the shutter speeds 491 and 492 of “picture A” and “picture B” in the dual video mode and An F number 493 is displayed.
図24は、スイッチST154、スイッチMV155を操作することにより取得した映像のうちの1フレームを示したものである。図24(a)は、シャッタースピード1/1000、絞り値F4.0で撮影された「picture A」の映像である。図24(b)は、シャッタースピード1/60、絞り値F4.0で撮影された「picture B」の映像である。図24(b)に示した映像は、シャッタースピードが遅いため、被写体の動きが止まらずにぶれている。ただし、これを60fps程度のフレームレートの動画として再生すると、このぶれがむしろ良い方向に働いてジャーキネスが抑制された滑らかな高品位な映像となる。一方、図24(a)に示した映像は、シャッタースピードが速く、本来であればストップモーション効果が現れるはずである。しかしながら、図15を用いて先に説明したように、シリコン基板内部で発生した信号電荷が拡散によって隣接する画素要素に漏れ込み、図24(b)に示した映像があたかも足し合わされたかのような滲んだ映像となっている。このクロストーク現象は、図24(b)に示した映像においても発生しているが、元々ぶれた映像であるためほとんど目立たない。 FIG. 24 shows one frame of the video obtained by operating the switch ST154 and the switch MV155. FIG. 24A is an image of “picture A” taken at a shutter speed of 1/1000 and an aperture value of F4.0. FIG. 24B is an image of “picture B” taken at a shutter speed of 1/60 and an aperture value of F4.0. The image shown in FIG. 24B is blurred without stopping the movement of the subject because the shutter speed is slow. However, when this is played back as a moving image having a frame rate of about 60 fps, the blur works in a rather good direction, resulting in a smooth high-quality image in which jerkiness is suppressed. On the other hand, the image shown in FIG. 24A has a high shutter speed, and a stop motion effect should appear. However, as described above with reference to FIG. 15, the signal charge generated inside the silicon substrate leaks into adjacent pixel elements due to diffusion, so that the image shown in FIG. It has become a video. This crosstalk phenomenon also occurs in the image shown in FIG. 24B, but is hardly noticeable because the image is originally blurred.
そこで、速いシャッタースピードによる本来のストップモーション効果を得るために、本実施形態による撮像装置においては、撮像素子184から出力された映像信号に対してクロストーク補正を施す。クロストーク補正は、「picture A」と「picture B」の相互の影響を考慮して、適宜相互に減算処理を実施すればよい。 Therefore, in order to obtain the original stop motion effect due to the fast shutter speed, the imaging apparatus according to the present embodiment performs crosstalk correction on the video signal output from the imaging element 184. The crosstalk correction may be performed by appropriately subtracting each other in consideration of the mutual influences of “picture A” and “picture B”.
図25は、シャッタースピード1/1000、絞り値F4.0で撮影された「picture A」の映像(図24(a))に対してクロストーク補正を施した後の「picture A」の映像である。図24(a)の映像では、シリコン基板内部で発生した信号電荷が拡散により隣接画素要素に漏れ込み、図24(b)に示した映像があたかも足し合わされたかのような滲んだ映像となっていた。それに対して、図25の映像では、本来の速いシャッタースピードによるストップモーション効果が現れている。デジタルスチルモーションカメラの表示部153上では、再生ボタン161が操作されたときに、例えば図26に示すように、「picture A」496と「picture B」497の両方を並べて表示できることが望ましい。このようにすれば、映像を比較することでストップモーション効果のレベルを確認することができる。なお、この処理は、映像データを、ネットワークを介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータがプログラムを読み出して実行するように構成してもよい。 FIG. 25 is an image of “picture A” after crosstalk correction is performed on an image of “picture A” (FIG. 24A) taken at a shutter speed of 1/1000 and an aperture value of F4.0. is there. In the image of FIG. 24A, the signal charge generated inside the silicon substrate leaks into adjacent pixel elements due to diffusion, and the image shown in FIG. 24B is blurred as if they were added together. . On the other hand, in the video of FIG. 25, the stop motion effect due to the original fast shutter speed appears. On the display unit 153 of the digital still motion camera, when the play button 161 is operated, it is desirable that both “picture A” 496 and “picture B” 497 can be displayed side by side as shown in FIG. 26, for example. In this way, the level of the stop motion effect can be confirmed by comparing the images. In this process, the video data may be supplied to a system or apparatus via a network, and a computer of the system or apparatus may read and execute the program.
図27は、タブレット端末、パーソナルコンピュータ、テレビモニタなどにおける、ストレージに格納された「picture A」及び「picture B」の活用例を説明するための図である。
「picture A」及び「picture B」のデータファイルは、ネットワーク上のストレージ等に格納されているものとする。図において、フレーム群581は、MP4ファイルに格納された「picture A」のフレーム群であり、フレーム群571は、別のMP4ファイルに格納された「picture B」のフレーム群である。これらのMP4ファイルには撮影時に同じCLIP−UMIDが設定され、関連付けがなされている。
FIG. 27 is a diagram for explaining an application example of “picture A” and “picture B” stored in the storage in a tablet terminal, a personal computer, a television monitor, and the like.
It is assumed that the data files of “picture A” and “picture B” are stored in a storage on the network. In the figure, a frame group 581 is a “picture A” frame group stored in an MP4 file, and a frame group 571 is a “picture B” frame group stored in another MP4 file. These MP4 files are associated with the same CLIP-UMID set at the time of shooting.
まず、動画の再生をスタートすると、「picture B」のフレーム群571の先頭フレーム572から決められたフレームレートで順次フレームが再生される。「picture B」は、シャッタースピードが過度に速くならないような設定(この例では1/60秒)で撮影されているため、再生された映像はジャーキネスが抑制された高品位なものである。 First, when playback of a moving image is started, frames are sequentially played back at a frame rate determined from the first frame 572 of the “picture B” frame group 571. Since “picture B” is shot at a setting that prevents the shutter speed from becoming too fast (in this example, 1/60 seconds), the reproduced video is high-quality with reduced jerkiness.
ここで、「picture B」の動画の提示中に、使用者から再生モードの切り替え指示があった場合を想定する。例えば、フレーム573まで再生が進んだ時点で使用者が一時停止の操作を行うと、自動的に「picture B」に対応する「picture A」のデータファイルから同一タイムコードのフレーム582が検索され、表示される。「picture A」は、ストップモーション効果が得られやすい高速シャッタースピード(この例では1/1000秒)で撮影されており、スポーツシーンの一瞬を写し止めた迫力のある映像である。「picture A」と「picture B」の2つの映像は、異なる蓄積時間の設定で撮影されるが、「picture A」についてゲインアップするのではなく、撮像素子184において同程度の信号電荷を得ている。このため、「picture A」及び「picture B」のどちらもS/N比の良好なノイズ感のない映像となっている。 Here, it is assumed that the user gives a playback mode switching instruction during the presentation of the “picture B” video. For example, when the user performs a pause operation at the time when playback has progressed to frame 573, a frame 582 of the same time code is automatically searched from the data file of “picture A” corresponding to “picture B”, Is displayed. “Picture A” is a powerful image that is captured at a high shutter speed (in this example, 1/1000 second) at which a stop motion effect is easily obtained, and captures a moment in a sports scene. Two pictures of “picture A” and “picture B” are taken with different accumulation time settings, but the gain of “picture A” is not increased, but a similar signal charge is obtained at the image sensor 184. Yes. For this reason, both “picture A” and “picture B” are images having a good S / N ratio and no noise.
ここで、印刷の指示を行うと、「picture A」のフレーム582のデータがプリントインターフェース部194を介してプリンタ195に対して出力される。したがって、印刷物も、「picture A」を反映したストップモーション効果がある迫力のあるものとなる。 When printing is instructed, the data of the “picture A” frame 582 is output to the printer 195 via the print interface unit 194. Therefore, the printed matter is also powerful with a stop motion effect reflecting “picture A”.
使用者が一時停止を解除すると、自動的に「picture B」のフレーム群571に戻って、フレーム574から再生が再開する。このとき、再生される映像はジャーキネスが抑制された高品位なものである。 When the user cancels the pause, the frame automatically returns to the “picture B” frame group 571 and the reproduction is resumed from the frame 574. At this time, the reproduced video is of high quality with reduced jerkiness.
次に、「picture A」と「picture B」とを合成してHDR映像(ハイ・ダイナミックレンジ映像)を作成する際の動作について述べる。映画や家庭用のテレビの映像をより臨場感のあるものにするための技術として、動画のHDR技術がある。これは、表示画面の輝度再現範囲を拡大し、主に、瞬間的或いは部分的な輝度の突き上げによって、従来以上の臨場感を提供するものである。このHDR技術は、撮像装置内の撮像素子に感度の異なる2つの画素群を設け、これら画素群からの出力を合成することによってダイナミックレンジを拡大するものである。この技術においても、2つの画素群のどちらからもS/N比の良好なノイズ感のない中間映像データを作成し、最終的に品位の高いHDR映像を合成できることが望ましい。 Next, an operation for creating an HDR video (high dynamic range video) by combining “picture A” and “picture B” will be described. As a technique for making movies and home television images more realistic, there is a moving picture HDR technology. This expands the luminance reproduction range of the display screen, and provides a more realistic sensation than before, mainly by momentary or partial luminance increase. In the HDR technology, two pixel groups having different sensitivities are provided in an image pickup element in an image pickup apparatus, and the dynamic range is expanded by synthesizing outputs from these pixel groups. In this technique as well, it is desirable that intermediate video data having a good S / N ratio and no noise can be created from either of the two pixel groups, and finally high quality HDR video can be synthesized.
「picture A」は受光効率の高い画素要素303Aを用いて撮影され、「picture B」は受光効率の低い画素要素303Bを用いて撮影される。このため、両者に同一の蓄積時間を設定するだけでも、「picture B」は「picture A」に対して感度が3段劣る映像となる。したがって、「picture A」において低輝度領域が十分に再現可能なレベルのときに多くの場合で高輝度領域は白飛びしてしまうが、「picture B」ではその高輝度領域でも白飛びせずに輝度情報を残すことができる。ただし、「picture B」の低輝度部分は非常に信号レベルが低くなって黒つぶれを起こしているので、逆に、多くの場合は使用することはできない。 “Picture A” is photographed using a pixel element 303A having a high light receiving efficiency, and “picture B” is photographed using a pixel element 303B having a low light receiving efficiency. For this reason, even if the same accumulation time is set for both, “picture B” is an image that is inferior in sensitivity to “picture A” by three stages. Therefore, in the case of “picture A”, when the low luminance area is at a sufficiently reproducible level, the high luminance area often skips white, but in “picture B”, the high luminance area does not white out. Luminance information can be left. However, since the low luminance part of “picture B” has a very low signal level and blackout occurs, it cannot be used in many cases.
HDR映像を取得するためには、まず、感度の低い画素要素から取得した映像(以下、「アンダー映像」と呼ぶ)と感度の高い画素要素から取得した映像(以下、「オーバー映像」と呼ぶ)とを適切にゲイン調整する。そして、アンダー映像の輝度閾値より暗い領域はオーバー映像で置き換え、輝度閾値より明るい領域はアンダー映像をそのままに合成する。本実施形態では、アンダー映像として「picture B」を、オーバー映像として「picture A」を用いればよい。ただし、輝度閾値付近の明るさの中間領域は、映像の合成比率を徐々に変化させるなど、ユーザにとってより自然な映像に見えるように適宜調整することが望ましい。 In order to acquire HDR video, first, video acquired from pixel elements with low sensitivity (hereinafter referred to as “under video”) and video acquired from pixel elements with high sensitivity (hereinafter referred to as “over video”). Adjust the gain appropriately. Then, the area darker than the luminance threshold of the under video is replaced with the over video, and the area brighter than the luminance threshold is synthesized as it is. In the present embodiment, “picture B” may be used as the under video and “picture A” may be used as the over video. However, it is desirable that the brightness intermediate region near the luminance threshold is adjusted as appropriate so that the image looks more natural for the user, such as gradually changing the composition ratio of the images.
「picture A」に対して「picture B」の感度を何段低く設定するかは、被写体の輝度分布の範囲に依存する。輝度範囲が広く、アンダー映像としての「picture B」の信号レベルを3段よりも低くするときには、「picture B」の蓄積時間を「picture A」の蓄積時間よりも短くする。逆に、輝度範囲が狭く、アンダー映像としての「picture B」の信号レベルを3段低い感度よりも高くするには、「picture B」の蓄積時間を「picture A」の蓄積時間よりも長くすればよい。被写体が風景などの場合には、「picture B」は「picture A」に対して感度が3段程度低いことが適切な場合が多いため、感度の差を相殺して「picture A」と「picture B」の蓄積時間は同程度になる。「picture A」と「picture B」の蓄積時間が同程度であることによって、被写体が動いているときにも「picture A」と「picture B」の対応する画素位置における被写体像のぶれやボケの状態が良く揃うことになる。これにより、より高品位なHDR映像を得ることができる。 How much lower the sensitivity of “picture B” is set with respect to “picture A” depends on the range of the luminance distribution of the subject. When the luminance range is wide and the signal level of “picture B” as an under picture is set lower than three stages, the accumulation time of “picture B” is made shorter than the accumulation time of “picture A”. On the contrary, in order to make the signal level of “picture B” as an under picture narrower than the sensitivity of 3 steps lower than the sensitivity of “picture B”, the accumulation time of “picture B” should be longer than that of “picture A”. That's fine. When the subject is a landscape or the like, it is often appropriate that “picture B” has a sensitivity that is about three steps lower than “picture A”. Therefore, the “picture A” and “picture” are offset by canceling the difference in sensitivity. The accumulation time of “B” is about the same. Since the accumulation times of “picture A” and “picture B” are approximately the same, even when the subject is moving, blurring and blurring of the subject image at the corresponding pixel positions of “picture A” and “picture B” The state will be well aligned. As a result, a higher quality HDR video can be obtained.
図28は、「picture A」と「picture B」の蓄積動作を撮像シーケンス上で説明するための図である。図には、横軸を時間として、V同期信号781、「picture A」及び「picture B」の蓄積期間、フレーム番号nを示している。蓄積期間782が「picture A」の画面上端ラインの蓄積期間であり、蓄積期間783が「picture A」の画面下端ラインの蓄積期間である。また、蓄積期間784が「picture B」の画面上端ラインの蓄積期間であり、蓄積期間785が「picture B」の画面下端ラインの蓄積期間である。 FIG. 28 is a diagram for explaining the accumulation operation of “picture A” and “picture B” on the imaging sequence. In the figure, the horizontal axis indicates time, the V synchronization signal 781, the accumulation period of “picture A” and “picture B”, and the frame number n are shown. The accumulation period 782 is the accumulation period of the “picture A” screen top line, and the accumulation period 783 is the accumulation period of the “picture A” screen bottom line. Also, the accumulation period 784 is the accumulation period of the “picture B” screen upper end line, and the accumulation period 785 is the accumulation period of the “picture B” screen lower end line.
撮像素子184はローリング電子シャッター機能で露光動作を行うために、「picture A」では、画面上端のラインから画面下端のラインに向かって、所定の時間間隔で蓄積が開始され、当該時間間隔で順次蓄積が終了する。蓄積が終了すると信号電荷は撮像素子184から順次読み出され、アナログフロントエンド185に入力される。時刻t72から時刻t73までが蓄積期間782であり、時刻t75から時刻t76が蓄積期間783である。 Since the image sensor 184 performs an exposure operation with a rolling electronic shutter function, in “picture A”, accumulation starts at a predetermined time interval from the line at the upper end of the screen toward the line at the lower end of the screen, and sequentially at the time intervals. Accumulation ends. When the accumulation ends, signal charges are sequentially read from the image sensor 184 and input to the analog front end 185. The accumulation period 782 is from time t72 to time t73, and the accumulation period 783 is from time t75 to time t76.
また、「picture A」と同様に、「picture B」においても、画面上端のラインから画面下端のラインに向かって、所定の時間間隔で蓄積が開始され、当該時間間隔で順次蓄積が終了する。蓄積が終了すると信号電荷は撮像素子184から順次読み出され、アナログフロントエンド186に入力される。時刻t71から時刻t73までが蓄積期間784であり、時刻t74から時刻t76までが蓄積期間785である。 Similarly to “picture A”, in “picture B”, accumulation starts at a predetermined time interval from a line at the upper end of the screen toward a line at the lower end of the screen, and the accumulation ends sequentially at the time interval. When the accumulation is completed, signal charges are sequentially read from the image sensor 184 and input to the analog front end 186. The accumulation period 784 is from time t71 to time t73, and the accumulation period 785 is from time t74 to time t76.
図29は、「picture A」及び「picture B」における信号レベル、並びに、HDR映像における「picture A」と「picture B」との合成比率の、受光量との関係を示すグラフである。図29の上段及び下段の2つのグラフにおいて、横軸は受光量を示している。これら2つのグラフにおいて、横軸のスケールは同じである。上段のグラフの縦軸は、「picture A」及び「picture B」における信号レベルを示している。下段のグラフの縦軸は、HDR映像における「picture A」と「picture B」との合成比率を示している。上段のグラフの縦軸には、信号レベルがゼロの場合と飽和のレベルの場合に加えて、本実施形態において黒潰れと判定する信号レベル(黒潰れ判定レベル)と、本実施形態において飽和と判定するレベル(飽和判定レベル)とを示している。これらの信号レベルは、予め記憶手段に記録されている。 FIG. 29 is a graph showing the relationship between the signal level in “picture A” and “picture B”, and the combination ratio of “picture A” and “picture B” in HDR video, with the amount of received light. In the upper and lower graphs of FIG. 29, the horizontal axis indicates the amount of received light. In these two graphs, the horizontal scale is the same. The vertical axis of the upper graph indicates the signal levels in “picture A” and “picture B”. The vertical axis of the lower graph indicates the composition ratio of “picture A” and “picture B” in the HDR video. On the vertical axis of the upper graph, in addition to the case where the signal level is zero and the saturation level, a signal level (black crushing determination level) which is determined to be black crushing in the present embodiment, and saturation in this embodiment. The determination level (saturation determination level) is shown. These signal levels are recorded in the storage means in advance.
ここで、「picture A」の信号レベルが黒潰れ判定レベルであるときの受光量をL1とする。「picture B」の信号レベルが黒潰れ判定レベルであるときの受光量をL2とする。「picture A」の信号レベルが飽和判定レベルであるときの受光量をL3とする。「picture B」の信号レベルが飽和判定レベルであるときの受光量をL4とする。なお、受光量は、被写体の明るさと露光時間によって決まる。本実施形態では、これら受光量L1,L2,L3,L4によって区分される領域ごとに、HDR映像における「picture A」と「picture B」との合成比率を変化する。 Here, the received light amount when the signal level of “picture A” is the black crushing determination level is L1. The amount of received light when the signal level of “picture B” is the black crushing determination level is L2. The received light amount when the signal level of “picture A” is the saturation determination level is L3. The amount of received light when the signal level of “picture B” is the saturation determination level is L4. The amount of received light is determined by the brightness of the subject and the exposure time. In the present embodiment, the composition ratio of “picture A” and “picture B” in the HDR video is changed for each region divided by the received light amounts L1, L2, L3, and L4.
受光量がL1未満である領域6121は、「picture A」及び「picture B」がともに黒潰れしている領域である。領域6121では、相対的にS/N比に優れる「picture A」の信号の合成比率を1、「picture B」の信号の合成比率を0として合成する。 A region 6121 in which the amount of received light is less than L1 is a region in which both “picture A” and “picture B” are blacked out. In the region 6121, the “picture A” signal synthesis ratio, which is relatively excellent in the S / N ratio, is set to 1, and the “picture B” signal synthesis ratio is set to 0.
受光量がL1〜L2である領域6122は、「picture A」の信号レベルは適正であるが、「picture B」が黒潰れしている領域である。領域6122では、信号レベルが適正である「picture A」の信号の合成比率を1、「picture B」の信号の合成比率を0として合成する。 A region 6122 where the amount of received light is L1 to L2 is a region where “picture B” is black, although the signal level of “picture A” is appropriate. In the region 6122, the synthesis ratio of the “picture A” signal with the appropriate signal level is 1 and the synthesis ratio of the “picture B” signal is 0.
受光量がL2〜L3である領域6123は、「picture A」及び「picture B」の信号レベルがともに適正な領域である。領域6123では、「picture A」の信号の合成比率を1から0に徐々に減少し、「picture B」の信号の合成比率を0から1に徐々に増加する。なお、図29では、「picture A」及び「picture B」の信号レベルを受光量に対して線形的に変化する場合を示しているが、合成比率の変化は必ずしも線形的である必要はない。すなわち、「picture A」及び「picture B」の合成比率は、これらの合計値が1となるように変化すればよく、1次関数ではない他の関数に従って変化するようにしてもよい。 A region 6123 in which the amount of received light is L2 to L3 is a region where both the signal levels of “picture A” and “picture B” are appropriate. In the region 6123, the synthesis ratio of the “picture A” signal is gradually decreased from 1 to 0, and the synthesis ratio of the “picture B” signal is gradually increased from 0 to 1. In FIG. 29, the case where the signal levels of “picture A” and “picture B” change linearly with respect to the amount of received light is shown, but the change in the composition ratio is not necessarily linear. That is, the composition ratio of “picture A” and “picture B” may be changed so that the total value thereof becomes 1, and may be changed according to another function that is not a linear function.
受光量がL3〜L4である領域6124は、「picture B」の信号レベルは適正であるが、「picture A」の信号が飽和している領域である。領域6124では、信号レベルが適正である「picture B」の信号の合成比率を1、「picture A」の信号の合成比率を0として合成する。 A region 6124 where the amount of received light is L3 to L4 is a region where the signal level of “picture B” is appropriate, but the signal of “picture A” is saturated. In a region 6124, the synthesis ratio of the “picture B” signal having the appropriate signal level is 1 and the synthesis ratio of the “picture A” signal is 0.
受光量がL4を超える領域6125は、「picture A」及び「picture B」の信号がともに飽和している領域である。領域6125では、飽和直前で適正な信号が残っている可能性のある「picture B」の信号の合成比率を1、「picture A」の信号の合成比率を0として合成する。 A region 6125 in which the amount of received light exceeds L4 is a region where both the “picture A” and “picture B” signals are saturated. In the region 6125, the synthesis ratio of the “picture B” signal, which may have an appropriate signal remaining just before saturation, is 1 and the synthesis ratio of the “picture A” signal is 0.
上述したHDR映像の合成処理は、例えば、記録媒体193から「picture A」及び「picture B」を受信したシステム制御CPU178において実行される。すなわち、システム制御CPU178は、ハイ・ダイナミックレンジ映像合成部として機能する。 The HDR video composition processing described above is executed by, for example, the system control CPU 178 that has received “picture A” and “picture B” from the recording medium 193. That is, the system control CPU 178 functions as a high dynamic range video composition unit.
図30は、HDR合成用の「picture A」と「picture B」の例であって、太陽を含む夜明けの風景の映像である。図35(a)が「picture A」であり、図35(b)が「picture B」である。「picture A」と「picture B」の撮像条件は、ともに、シャッタースピードが1/60、絞り値がF2.8となっている。ただし、撮像時の実際のシャッタースピードは表示よりも細かく制御されているので、「picture A」と「picture B」とで全く同一とは限らない。 FIG. 30 is an example of “picture A” and “picture B” for HDR synthesis, and is an image of a landscape at dawn including the sun. FIG. 35A shows “picture A”, and FIG. 35B shows “picture B”. The imaging conditions of “picture A” and “picture B” both have a shutter speed of 1/60 and an aperture value of F2.8. However, since the actual shutter speed at the time of imaging is controlled more finely than the display, “picture A” and “picture B” are not necessarily exactly the same.
図30(a)は、受光効率の高い画素要素を用いて撮影された「picture A」の映像のうちの1フレームであり、建物791は陰になっているもののディテールは再現されている。一方、太陽792は非常に高輝度であるためにその周辺部も含めて白飛びしている。これに対し、図30(b)は、受光効率の低い画素要素を用いて撮影された「picture B」の映像のうちの図30(a)と同一タイミングのフレームであり、建物793は陰になっていてディテールも失われている。一方、太陽794は非常に高輝度ではあるが、受光効率の低い画素要素での撮影であるために白飛びせず、輝度情報や色情報は失われていない。 FIG. 30A shows one frame of the “picture A” image photographed using a pixel element with high light receiving efficiency, and the details of the building 791 are hidden but reproduced. On the other hand, since the sun 792 has very high brightness, the sun 792 is also whitened including its peripheral part. On the other hand, FIG. 30B is a frame at the same timing as FIG. 30A of the “picture B” image captured using the pixel element having low light receiving efficiency, and the building 793 is hidden. The details are lost. On the other hand, the sun 794 has a very high luminance, but since it is taken with a pixel element having a low light receiving efficiency, it does not fly out, and luminance information and color information are not lost.
図31は、HDR映像を合成した結果を撮像装置の表示部153上に表示した状態を示す図である。建物795のディテール及び太陽796とその周辺のグラデーションが良好に再現されたHDR映像を得ることができている。 FIG. 31 is a diagram illustrating a state in which the result of synthesizing the HDR video is displayed on the display unit 153 of the imaging apparatus. An HDR image in which the details of the building 795 and the gradation of the sun 796 and its surroundings are well reproduced can be obtained.
ここで、撮像素子184に欠陥画素が存在する場合を考える。ここで想定する欠陥画素とは、2つの画素要素303A,303Bのうちの少なくとも一方が、受光量に応じた適正な信号を出力することができない画素303である。欠陥画素が存在することによる画質の低下は、例えば以下のような補正処理を行うことにより抑制することができる。 Here, a case where a defective pixel exists in the image sensor 184 is considered. The defective pixel assumed here is a pixel 303 in which at least one of the two pixel elements 303A and 303B cannot output an appropriate signal corresponding to the amount of received light. Degradation of image quality due to the presence of defective pixels can be suppressed, for example, by performing the following correction process.
図32は、撮像素子184に欠陥画素が含まれる場合の欠陥画素の画素値の補正方法を模式的に示す平面図である。図32には、画素アレイ302のうち、6行×6列の行列状に配置された36個の画素303を示している。細線の枠6102が、画素303の境界を表している。この枠6102は、ライトガイド255の境界を表すものでもある。太線の枠6101で囲まれている2行×2列の画素ブロックは、カラーフィルタの繰り返し単位を表している。枠6101内には、赤色の光を選択的に透過するフィルタが配置された画素(R)と、緑色の光を選択的に透過するフィルタが配置された画素(G1,G2)と、青色の光を選択的に透過するフィルタが配置された画素(B)とが、それぞれ配置されている。この画素ブロックを繰り返し配置することで、いわゆるベイヤー配列のカラーフィルタが構成されている。それぞれの画素303は、「picture A」に対応する高感度の光電変換部を含む画素要素6104と、「picture B」に対応する低感度の光電変換部を含む画素要素6103とを含む。図には、画素要素6103,6104の感度の違いを視覚的に表すために、画素要素6104の面積を画素要素6103の面積よりも大きく描いている。 FIG. 32 is a plan view schematically showing a method for correcting a pixel value of a defective pixel when the imaging element 184 includes a defective pixel. FIG. 32 shows 36 pixels 303 arranged in a matrix of 6 rows × 6 columns in the pixel array 302. A thin line frame 6102 represents the boundary of the pixel 303. This frame 6102 also represents the boundary of the light guide 255. A pixel block of 2 rows × 2 columns surrounded by a thick line frame 6101 represents a repeating unit of the color filter. In the frame 6101, a pixel (R) in which a filter that selectively transmits red light is disposed, a pixel (G1, G2) in which a filter that selectively transmits green light is disposed, and a blue color Pixels (B) each having a filter that selectively transmits light are disposed. A so-called Bayer array color filter is configured by repeatedly arranging the pixel blocks. Each pixel 303 includes a pixel element 6104 including a high-sensitivity photoelectric conversion unit corresponding to “picture A” and a pixel element 6103 including a low-sensitivity photoelectric conversion unit corresponding to “picture B”. In the drawing, the area of the pixel element 6104 is drawn larger than the area of the pixel element 6103 in order to visually express the difference in sensitivity between the pixel elements 6103 and 6104.
ここで、一部の画素要素6103に欠陥がある場合を想定する。図32には、欠陥のある画素要素(欠陥画素要素)6103を、画素要素6105として表している。なお、ここでは低感度の画素要素6103に欠陥がある場合を例にして説明するが、高感度の画素要素6104に欠陥がある場合も同様の補正処理が可能である。 Here, it is assumed that some of the pixel elements 6103 are defective. In FIG. 32, a defective pixel element (defective pixel element) 6103 is represented as a pixel element 6105. Here, a case where the low-sensitivity pixel element 6103 has a defect will be described as an example, but the same correction processing can be performed when the high-sensitivity pixel element 6104 has a defect.
図32(a)には、欠陥のある画素要素6105の信号を、同じ画素303の他方の画素要素6106からの信号を用いて補正する例を、矢印6107によって模式的に示している。同じ画素303の他方の画素要素とは、換言すると、欠陥のある画素要素と同じライトガイド255を共有する他の画素要素である。 In FIG. 32A, an example in which the signal of the defective pixel element 6105 is corrected using the signal from the other pixel element 6106 of the same pixel 303 is schematically indicated by an arrow 6107. In other words, the other pixel element of the same pixel 303 is another pixel element that shares the same light guide 255 as the defective pixel element.
図32(b)には、欠陥のある画素要素6105の信号を、隣接する画素ブロックの同一の感度及びカラーフィルタを有する画素要素6110,6111,6112,6113からの信号を用いて補正する例を、矢印によって模式的に示している。すなわち、画素要素6110,6111,6112,6113からの信号を用いて補正することが、それぞれ矢印6110a,6111a,6112a,6113aによって模式的に示されている。 FIG. 32B shows an example in which a signal of a defective pixel element 6105 is corrected using signals from pixel elements 6110, 6111, 6112, and 6113 having the same sensitivity and color filter of adjacent pixel blocks. , Schematically indicated by arrows. That is, the correction using signals from the pixel elements 6110, 6111, 6112, and 6113 is schematically indicated by arrows 6110a, 6111a, 6112a, and 6113a, respectively.
同じ色のカラーフィルタが配置された画素要素を用いて欠陥補正を行うことを考えた場合、画素要素6105の信号を補正するために用いる画素要素としては、図32(a)に示すように、同じ画素303の他の画素要素6106が候補として考えられる。また、図32(b)に示すように、隣接する画素ブロックの、対応する感度及びカラーフィルタを有する画素要素6110,6111,6112,6113が候補として考えられる。本実施形態では、それぞれを用いるメリットとデメリットとを考慮して、ユーザの設定に応じて補正方法を切り替える。 When considering defect correction using a pixel element in which a color filter of the same color is arranged, as a pixel element used for correcting a signal of the pixel element 6105, as shown in FIG. Other pixel elements 6106 of the same pixel 303 are considered as candidates. Further, as shown in FIG. 32B, pixel elements 6110, 6111, 6112, and 6113 having the corresponding sensitivity and color filter of adjacent pixel blocks are considered as candidates. In the present embodiment, the correction method is switched according to the user setting in consideration of the advantages and disadvantages of using each.
まず、欠陥のある画素要素6105の信号レベルを、他の画素要素6105,6106,6110,6111,6112,6113の信号レベルの単純な線形和により算出する例として、次の式を考える。
S6105 = g1×S6106 + g2×S6110 + g3×S6111
+ g4×S6112 + g5×S6113 …(4)
ここで、S6105,S6106,S6110,S6111,S6112,S6113は、それぞれ画素要素6105,6106,6110,6111,6112,6113の信号レベルである。g1,g2,g3,g4,g5は、画素要素6106,6110,6111,6112,6113からの信号を合成する際のゲイン(合成比率)である。
First, as an example of calculating the signal level of the defective pixel element 6105 by a simple linear sum of the signal levels of the other pixel elements 6105, 6106, 6110, 6111, 6112, 6113, consider the following equation.
S6105 = g1 × S6106 + g2 × S6110 + g3 × S6111
+ G4 × S6112 + g5 × S6113 (4)
Here, S6105, S6106, S6110, S6111, S6112, and S6113 are the signal levels of the pixel elements 6105, 6106, 6110, 6111, 6112, and 6113, respectively. g1, g2, g3, g4, and g5 are gains (combining ratios) when signals from the pixel elements 6106, 6110, 6111, 6112, and 6113 are combined.
画素要素6106は、画素要素6110,6111,6112,6113とは感度の異なる画素要素であり、そのゲインg1は、他のゲインg2,g3,g4,g5とは異なったレベルとなる。 The pixel element 6106 is a pixel element having a sensitivity different from that of the pixel elements 6110, 6111, 6112, and 6113, and the gain g1 thereof is at a level different from that of the other gains g2, g3, g4, and g5.
例えば、図5を用いて説明したように、「picture B」の信号を生成する画素要素303Bが「picture A」の信号を生成する画素要素303Aに比べて感度が3段分低い場合、ゲインg1は前述の感度差を考慮して設定される。つまり、信号レベルS6106,S6110,S6111,S6112,S6113を単純平均する場合は、ゲインg2,g3,g4,g5は0.2に設定し、ゲインg1は0.2の1/8(=0.025)に設定する。すなわち、信号レベルS6106,S6110,S6111,S6112,S6113を、ゲインg1,g2,g3,g4,g5で表される所定の比率で合算し、信号レベルS6105を算出する。欠陥のある画素要素が高感度の画素要素の場合には、反対に8倍にすればよい。なお、ここまでの説明で挙げた感度が3段分低いという情報は、予め記憶手段に収められている。 For example, as described with reference to FIG. 5, when the pixel element 303 </ b> B that generates the “picture B” signal has a sensitivity that is three steps lower than the pixel element 303 </ b> A that generates the “picture A” signal, the gain g <b> 1 is set. Is set in consideration of the aforementioned sensitivity difference. That is, when the signal levels S6106, S6110, S6111, S6112, and S6113 are simply averaged, the gains g2, g3, g4, and g5 are set to 0.2, and the gain g1 is 1/8 of 0.2 (= 0. 025). That is, the signal levels S6106, S6110, S6111, S6112, and S6113 are added together at a predetermined ratio represented by gains g1, g2, g3, g4, and g5 to calculate a signal level S6105. If the defective pixel element is a high-sensitivity pixel element, the pixel element may be increased by a factor of eight. In addition, the information that the sensitivity mentioned in the above description is three steps lower is stored in the storage means in advance.
別の方法としては、隣接する画素要素からの信号の比率を用いてゲインを決定する方法が挙げられる。例えば、画素要素6110,6111,6112,6113からの信号と、これらとライトガイド255を共有する画素要素(感度が高い画素要素)からの信号との間の信号比率をそれぞれ調べる。そして、このように求めた信号比率を画素要素6105からの信号と画素要素6106からの信号との信号比率であると推定することで、画素要素6105からの信号レベルを算出することができる。 As another method, there is a method of determining a gain using a ratio of signals from adjacent pixel elements. For example, the signal ratios between the signals from the pixel elements 6110, 6111, 6112, and 6113 and the signals from the pixel elements that share the light guide 255 (pixel elements with high sensitivity) are examined. The signal level from the pixel element 6105 can be calculated by estimating the signal ratio thus obtained as the signal ratio between the signal from the pixel element 6105 and the signal from the pixel element 6106.
式(4)を用いる場合、画素要素からの信号が何れも適切なレベルにある場合は問題にならないが、いくつかの画素要素からの信号が飽和や黒潰れ又はそれに近いレベルにある場合は問題になる。 When equation (4) is used, it does not matter if the signals from the pixel elements are all at appropriate levels, but it does not matter if the signals from some of the pixel elements are at levels of saturation, blackout, or close to it. become.
一例として、階調を優先した画像を得るために、いわゆるHDR撮影をユーザが行っている場合を考える。更に説明を容易にするために、「picture A」の信号を出力する画素要素が飽和している場合、すなわち生成された信号電荷の量が所定値(飽和判定レベル)よりも多い場合を考える。つまり、受光量が、図29の領域6124に相当する場合である。このとき、「picture B」の信号を出力する画素要素は飽和していないので、欠陥のある画素要素が存在しない場合は、適切な信号が得られる。しかしながら、欠陥のある画素要素6105が存在した場合に、その補正処理に式(4)をそのまま用いると、飽和した信号レベルS6106を用いることで信号が不適切な値に見積もられてしまう。 As an example, let us consider a case where a user performs so-called HDR shooting in order to obtain an image giving priority to gradation. Further, in order to facilitate the explanation, a case where a pixel element that outputs a “picture A” signal is saturated, that is, a case where the amount of generated signal charge is larger than a predetermined value (saturation determination level) is considered. That is, the amount of received light corresponds to the region 6124 in FIG. At this time, since the pixel element that outputs the “picture B” signal is not saturated, an appropriate signal can be obtained when there is no defective pixel element. However, if there is a defective pixel element 6105 and the equation (4) is used as it is for the correction process, the signal is estimated to an inappropriate value by using the saturated signal level S6106.
そこで、階調を優先するモードの場合は、欠陥のある画素要素6105と同等の感度を有する画素要素6110,6111,6112,6113からの信号の混合比率を高める。具体的には、式(4)において、ゲインg1を低くして、ゲインg2,g3,g4,g5を高くする。模式的には、図32(b)のように、欠陥のある画素要素6105が含まれる画素ブロックに隣接する画素ブロックの、対応する感度及びカラーフィルタを有する画素要素6110,6111,6112,6113の信号を優先して利用するようにする。例えば、ゲインg1を0とすれば、欠陥のある画素要素6105が含まれる画素ブロックに隣接する画素ブロックの、対応する感度及びカラーフィルタを有する画素要素6110,6111,6112,6113からの信号のみを用いて補正が行われることになる。 Therefore, in the mode in which priority is given to gradation, the mixing ratio of signals from the pixel elements 6110, 6111, 6112, and 6113 having the same sensitivity as that of the defective pixel element 6105 is increased. Specifically, in the equation (4), the gain g1 is decreased and the gains g2, g3, g4, and g5 are increased. Typically, as shown in FIG. 32B, pixel elements 6110, 6111, 6112, 6113 having the corresponding sensitivity and color filter of the pixel block adjacent to the pixel block including the defective pixel element 6105 are included. Prioritize the use of signals. For example, if the gain g1 is 0, only signals from pixel elements 6110, 6111, 6112, and 6113 having the corresponding sensitivity and color filter of the pixel block adjacent to the pixel block including the defective pixel element 6105 are obtained. Will be used to correct.
この場合、画素要素6110,6111,6112,6113からの信号を単純平均して用いてもよいし、方向に応じた相関を用いて重みを変化するようにしてもよい。例えば、|S6110−S6112|と|S6111−S6113|とを比較し、数値の小さい方向を優先して重みを重くすることができる。これは、水平方向(或いは横方向)の信号レベルの変化(|S6110−S6112|)と、垂直方向(或いは縦方向)の信号レベルの変化(|S6111−S6113|)とのうち、空間的に変化が少ない方向の情報を優先して用いることに相当する。 In this case, the signals from the pixel elements 6110, 6111, 6112, and 6113 may be used as a simple average, or the weight may be changed using the correlation according to the direction. For example, | S6110-S6112 | can be compared with | S6111-S6113 |, and the direction with a smaller numerical value can be preferentially weighted. This is because of a change in signal level in the horizontal direction (or horizontal direction) (| S6110-S6112 |) and a change in signal level in the vertical direction (or vertical direction) (| S6111−S6113 |). This is equivalent to preferentially using information in a direction with little change.
「picture A」の信号を出力する画素要素が黒潰れしている場合、すなわち生成された信号電荷の量が所定値(黒潰れ判定レベル)よりも小さい場合も、同様の処理を適用可能である。すなわち、欠陥のある画素要素6105と同等の感度を有する画素要素6110,6111,6112,6113からの信号の混合比率を高めればよい。
同様である。
他の例として、ユーザが階調よりも解像度を優先している場合を考える。このような場合、上述のように隣接する画素ブロックの信号を用いて補正を行うと、空間的に低域通過フィルタを通したような効果が発現して解像度の低下を招くことがあるため、必ずしも好ましくはない。
The same processing can be applied when the pixel element that outputs the “picture A” signal is blacked out, that is, when the amount of the generated signal charge is smaller than a predetermined value (blacked out determination level). . That is, the mixing ratio of signals from the pixel elements 6110, 6111, 6112, and 6113 having the same sensitivity as that of the defective pixel element 6105 may be increased.
It is the same.
As another example, consider a case where the user gives priority to resolution over gradation. In such a case, if correction is performed using the signals of adjacent pixel blocks as described above, the effect of spatially passing through a low-pass filter may appear, resulting in a decrease in resolution. Not necessarily preferred.
そこで、階調を優先するモードでない場合は、欠陥のある画素要素と同じ画素に属する他の画素要素からの信号の合成比率を高める。すなわち、「picture A」に対応する画素要素からの信号の比率を高める。 Therefore, when the mode is not a mode in which priority is given to gradation, the synthesis ratio of signals from other pixel elements belonging to the same pixel as the defective pixel element is increased. That is, the ratio of the signal from the pixel element corresponding to “picture A” is increased.
具体的には、式(4)において、ゲインg2,g3,g4,g5を低くして、ゲインg1を高くする。模式的には、図32(a)のように、欠陥のある画素要素6105と同じ画素に属する他の画素要素6106からの信号を優先して利用するようにする。例えば、ゲインg2,g3,g4,g5を0とすれば、欠陥のある画素要素6105と同じ画素に属する他の画素要素6106からの信号のみを用いて補正が行われることになる。 Specifically, in the equation (4), the gains g2, g3, g4, and g5 are decreased and the gain g1 is increased. Typically, as shown in FIG. 32A, signals from other pixel elements 6106 belonging to the same pixel as the defective pixel element 6105 are used preferentially. For example, if the gains g2, g3, g4, and g5 are set to 0, correction is performed using only signals from other pixel elements 6106 belonging to the same pixel as the defective pixel element 6105.
ここで、被写体の状態と欠陥補正について考える。図33は、中央付近に人物が位置するようにして撮影された映像の一例である。このような映像を考えた場合、主被写体である人物6131はコントラストの高い信号を含むが、背景6132(ここでは空を想定)はコントラストの高い信号を含まない場合も多い。特に、撮影光学系のFナンバーが小さくボケが顕著な場合には、背景6132のコントラストは低くなる。コントラストが低い状況の場合は、前述した空間的な低域通過フィルタを用いても画像の変化はほとんどない。つまり、背景6132のような箇所には、ユーザによるモードの設定に関わらず、欠陥のある画素要素が含まれる画素ブロックに隣接する画素ブロックの、対応する感度及びカラーフィルタを有する画素要素からの信号を優先して利用すればよい。より具体的には、欠陥のある画素要素を含む適当な大きさの領域を規定してコントラストを計算する。ここでいうコントラストとしては、例えば、隣接する画素からの信号の差分絶対値を一定の領域で加算したものを平均的な輝度値で除したものなどを用いることができる。この定義に従うと、高周波成分を含む画像はコントラストが高く、ぼけた画像はコントラストが低くなる。前述のコントラストが規定値よりも小さい場合は、同じ画素の他の画素要素からの信号を優先して利用すればよい。 Here, the state of the subject and defect correction will be considered. FIG. 33 is an example of an image shot with a person positioned near the center. Considering such an image, the person 6131 as the main subject includes a signal with high contrast, but the background 6132 (assuming the sky here) often does not include a signal with high contrast. In particular, when the F number of the photographing optical system is small and the blur is noticeable, the contrast of the background 6132 is low. When the contrast is low, there is almost no change in the image even if the above-described spatial low-pass filter is used. That is, the signal from the pixel element having the corresponding sensitivity and the color filter of the pixel block adjacent to the pixel block including the defective pixel element is included in the place such as the background 6132 regardless of the mode setting by the user. Should be used with priority. More specifically, the contrast is calculated by defining an area of an appropriate size including defective pixel elements. As the contrast here, for example, a value obtained by adding a difference absolute value of signals from adjacent pixels in a certain area and dividing by an average luminance value can be used. According to this definition, an image including a high frequency component has a high contrast, and a blurred image has a low contrast. When the above-described contrast is smaller than a specified value, signals from other pixel elements of the same pixel may be used with priority.
次に、上述した本実施形態の欠陥補正処理の具体的な流れについて、図34のフローチャートを用いて説明する。
本実施形態の欠陥補正処理は、ステップS6301から開始される。ステップS6301は、欠陥補正処理の開始を示すステップである。
Next, a specific flow of the defect correction process of the present embodiment described above will be described with reference to the flowchart of FIG.
The defect correction process of this embodiment is started from step S6301. Step S6301 is a step indicating the start of the defect correction process.
続くステップS6302は、総ての欠陥の補正処理が終了したか否かを判断するステップである。欠陥画素が存在する位置は、予め記憶手段に記憶されている。記憶手段に記憶されている総ての欠陥画素についての処理が終了している場合(Y)には、ステップS6314に移行し、欠陥補正処理を終了する。総ての欠陥画素についての処理が終了していない場合(N)には、ステップS6303に移行する。 The subsequent step S6302 is a step of determining whether or not all defect correction processing has been completed. The position where the defective pixel exists is previously stored in the storage means. When the processes for all defective pixels stored in the storage unit have been completed (Y), the process proceeds to step S6314, and the defect correction process is terminated. If the processing has not been completed for all defective pixels (N), the process proceeds to step S6303.
ステップS6303は、欠陥画素が存在する領域のコントラストを判断するステップである。すなわち、図33を用いて説明した処理に対応する処理を行うステップである。コントラストが規定値以下の場合(Y)はステップS6309に移行し、そうでない場合(N)はステップS6304に移行する。 Step S6303 is a step of determining the contrast of the area where the defective pixel exists. That is, this is a step of performing processing corresponding to the processing described with reference to FIG. If the contrast is less than or equal to the specified value (Y), the process proceeds to step S6309. If not (N), the process proceeds to step S6304.
ステップS6304は、欠陥画素が第1の画素要素にあるか否かを判断するステップである。欠陥画素が第1の画素要素にある場合(Y)はステップS6305に移行し、欠陥画素が第2の画素要素にある場合(N)はステップS6306に移行する。 Step S6304 is a step of determining whether or not the defective pixel is in the first pixel element. If the defective pixel is in the first pixel element (Y), the process proceeds to step S6305. If the defective pixel is in the second pixel element (N), the process proceeds to step S6306.
ステップS6305は、欠陥画素とライトガイドを共有する他方の画素要素(第2の画素要素)の信号レベルが規定値以下か否かを判断するステップである。信号レベルが規定値以下の場合(Y)はステップS6309に移行し、そうでない場合(N)はステップS6307に移行する。この処理により、黒潰れした第2の画素要素の信号を参照して欠陥補正がなされることが回避される。 Step S6305 is a step of determining whether the signal level of the other pixel element (second pixel element) sharing the light guide with the defective pixel is equal to or less than a specified value. If the signal level is equal to or lower than the specified value (Y), the process proceeds to step S6309. If not (N), the process proceeds to step S6307. By this process, it is avoided that defect correction is performed with reference to the signal of the second pixel element that has been crushed black.
ステップS6306は、欠陥画素とライトガイドを共有する他方の画素要素(第1の画素要素)の信号レベルが規定値以上か否かを判断するステップである。信号レベルが規定値以上の場合(Y)はステップS6309に移行し、そうでない場合(N)はステップS6307に移行する。この処理により、飽和した第1の画素要素の信号を参照して欠陥補正がなされることが回避される。 Step S6306 is a step of determining whether or not the signal level of the other pixel element (first pixel element) sharing the light guide with the defective pixel is equal to or higher than a specified value. If the signal level is equal to or higher than the specified value (Y), the process proceeds to step S6309. If not (N), the process proceeds to step S6307. By this processing, it is avoided that defect correction is performed with reference to the saturated signal of the first pixel element.
ステップS6307は、階調優先か否かを判断するステップである。階調優先の場合(Y)はステップS6309に移行し、そうでない場合(N)はステップS6308に移行する。これにより、ユーザの意図に沿った欠陥補正処理がなされる。 Step S6307 is a step of determining whether or not gradation priority is given. If tone priority is given (Y), the process moves to step S6309. If not (N), the process moves to step S6308. Thereby, the defect correction process according to the user's intention is performed.
ステップS6308は、他の画素要素を優先する設定を行うステップである。すなわち本ステップでは、図32(a)のようにライトガイドを共有する他方の画素要素の信号を優先して欠陥補正する設定がなされる。その後、ステップS6313に移行する。 Step S6308 is a step in which priority is given to other pixel elements. That is, in this step, as shown in FIG. 32A, a setting for defect correction is performed with priority given to the signal of the other pixel element sharing the light guide. Thereafter, the process proceeds to step S6313.
ステップS6309は、欠陥の存在する画素要素を優先する設定を行うステップである。すなわち本ステップでは、図32(b)のように、欠陥のある画素要素が含まれる画素ブロックに隣接する画素ブロックの、対応する感度及びカラーフィルタを有する画素要素の信号を優先して欠陥補正する設定がなされる。その後、ステップS6310に移行する。 Step S6309 is a step in which priority is given to pixel elements having defects. That is, in this step, as shown in FIG. 32B, defect correction is performed with priority given to the signal of the pixel element having the corresponding sensitivity and color filter in the pixel block adjacent to the pixel block including the defective pixel element. Settings are made. Thereafter, the process proceeds to step S6310.
ステップS6310は、縦相関と横相関のどちらが高いかを判断するステップである。ここでは、図32の説明で述べたように、縦方向の画素値の差の絶対値と横方向の画素値の差の絶対値とを比較し、絶対値が小さい方向を相関が高いものとして定義する。縦方向の相関が高い場合はステップS6311に移行し、横方向の相関が高い場合はステップS6312に移行する。 Step S6310 is a step of determining which of the vertical correlation and the horizontal correlation is higher. Here, as described in FIG. 32, the absolute value of the difference between the vertical pixel values is compared with the absolute value of the difference between the horizontal pixel values, and the direction in which the absolute value is small is assumed to have a high correlation. Define. If the correlation in the vertical direction is high, the process proceeds to step S6311. If the correlation in the horizontal direction is high, the process proceeds to step S6312.
ステップS6311は、縦方向の重みを増す処理を施すステップである。具体的には、図32の矢印6111a,6113aの重みを、矢印6110a,6112aの重みよりも大きくすればよい。その後、ステップS6313に移行する。 Step S6311 is a step of performing processing for increasing the weight in the vertical direction. Specifically, the weights of arrows 6111a and 6113a in FIG. 32 may be set larger than the weights of arrows 6110a and 6112a. Thereafter, the process proceeds to step S6313.
ステップS6312は、横方向の重みを増す処理を施すステップである。具体的には、図32の矢印6110a,6112aの重みを、矢印6111a,6113aの重みよりも大きくすればよい。その後、ステップS6313に移行する。 Step S6312 is a step of performing processing to increase the weight in the horizontal direction. Specifically, the weights of arrows 6110a and 6112a in FIG. 32 may be set larger than the weights of arrows 6111a and 6113a. Thereafter, the process proceeds to step S6313.
ステップS6313は、欠陥補正処理を行うステップである。すなわち、ここまでのステップで定義した重みなどのパラメータを利用して欠陥画素の値を決定するステップである。その後、ステップS6302に戻る。 Step S6313 is a step for performing defect correction processing. In other words, this is a step of determining the value of the defective pixel using parameters such as the weights defined in the steps so far. Thereafter, the process returns to step S6302.
このようにして、以上説明したステップを総ての欠陥画素に対して実施することで、欠陥画素の画素値を補正し、適正な値を推定することができる。 In this way, by performing the steps described above for all defective pixels, the pixel value of the defective pixel can be corrected and an appropriate value can be estimated.
次に、本実施形態で説明した欠陥処理を情報処理装置で撮影後に行う場合の例について、図35を用いて説明する。
図35(a)には、撮像装置6141と、情報処理装置6142とを、これらの間のデータのやり取りに用いるケーブル6143を介して接続する様子を模式的に表している。撮像装置6141では、図35(b)に示すように、第1の映像データを含むファイル6144と、第2の映像データを含むファイル6145とが生成される。また、情報処理装置6142では、ファイル6144,6145を用いて生成された映像データを含むファイル6146が生成される。図35(b)において、ファイル6144,6145の第1の映像データ及び第2の映像データに示した黒い四角は、その位置に欠陥画素要素があることを模式的に表している。
Next, an example in which the defect processing described in the present embodiment is performed after shooting by the information processing device will be described with reference to FIG.
FIG. 35A schematically illustrates a state in which the imaging device 6141 and the information processing device 6142 are connected via a cable 6143 used for data exchange between them. In the imaging device 6141, as shown in FIG. 35 (b), a file 6144 containing the first video data and a file 6145 containing the second video data are generated. Further, the information processing apparatus 6142 generates a file 6146 including video data generated using the files 6144 and 6145. In FIG. 35 (b), the black squares shown in the first video data and the second video data of the files 6144 and 6145 schematically indicate that there is a defective pixel element at that position.
撮像装置6141は、第1の映像データと同期した第2の映像データをロスレスで記録する場合(いわゆるRAW記録の場合)は、記憶手段に記憶された第1の画素要素及び第2の画素要素の欠陥に関する情報を、メタデータに記録する。映像データを含むファイルには、「picture A」の映像データ(=第1の映像データ)或いは「picture B」の映像データ(=第2の映像データ)とともに、それらをリンクするための情報を含むメタデータが格納されている。また、図35の例では、第1の映像データを含むファイル6144には、上記の情報に加えて画素要素の欠陥に関する情報が記録されている。 When the imaging device 6141 records the second video data synchronized with the first video data without loss (in the case of so-called RAW recording), the first pixel element and the second pixel element stored in the storage unit The information about the defect is recorded in the metadata. The file including the video data includes “picture A” video data (= first video data) or “picture B” video data (= second video data) and information for linking them. Metadata is stored. In addition, in the example of FIG. 35, in the file 6144 including the first video data, information regarding pixel element defects is recorded in addition to the above information.
情報処理装置6142は、撮像装置6141から映像データを含むファイル6144,6145を取得する映像データ取得部(図示せず)を含む。撮像装置6141と情報処理装置6142とをケーブル6143を介して接続する図35(a)の例では、撮像装置6141のファイル6144,6145がケーブル6143を介して情報処理装置6142に送られる。図2に示した記録媒体193等を介するなど、別の方法を用いてファイル6144,6145を情報処理装置6142に移動するようにしてもよい。 The information processing device 6142 includes a video data acquisition unit (not shown) that acquires files 6144 and 6145 including video data from the imaging device 6141. In the example of FIG. 35A in which the imaging device 6141 and the information processing device 6142 are connected via the cable 6143, the files 6144 and 6145 of the imaging device 6141 are sent to the information processing device 6142 via the cable 6143. The files 6144 and 6145 may be moved to the information processing apparatus 6142 using another method such as via the recording medium 193 shown in FIG.
その後、情報処理装置6142において、いわゆる現像が行われる。ここでいう現像とは、複数の映像データと欠陥情報とを統合して1つの出力映像データを得ることをいう。具体的には、図29に示したようなHDR処理など、ユーザが意図した処理を施した画像を生成することをいう。この現像処理の際に、ユーザによって設定がなされる。つまり、階調を優先するモードであるのか、解像度を優先するモードであるのか等の選択がなされる。このユーザの設定(意図)に従って、欠陥に関する情報を参照しながら、前述したように補正処理の方法を切り替えて欠陥画素の画素値の補正を行えばよい。その結果、図35(b)に示すように、現像後の映像データを含むファイル6146を生成することができる。 Thereafter, so-called development is performed in the information processing device 6142. The term “development” here refers to obtaining a single output video data by integrating a plurality of video data and defect information. Specifically, it means generating an image subjected to processing intended by the user such as HDR processing as shown in FIG. At the time of this development processing, settings are made by the user. That is, selection is made as to whether the mode prioritizes gradation or the mode prioritizes resolution. According to the setting (intention) of the user, the pixel value of the defective pixel may be corrected by switching the correction processing method as described above while referring to the information regarding the defect. As a result, as shown in FIG. 35B, a file 6146 containing the developed video data can be generated.
このように、本実施形態によれば、受光効率の異なる複数の光電変換部を含む画素を有する撮像素子を用いて複数の映像を同時に撮影する撮像装置において、欠陥画素の画素値を適切に補正してユーザの意図に応じた画像を取得することができる。 As described above, according to the present embodiment, the pixel value of the defective pixel is appropriately corrected in the imaging device that simultaneously captures a plurality of images using an imaging element having pixels including a plurality of photoelectric conversion units having different light receiving efficiencies. Thus, an image according to the user's intention can be acquired.
[変形実施形態]
本発明は、上記実施形態に限らず種々の変形が可能である。
例えば、上記実施形態に記載の撮像装置の構成は、一例を示したものであり、本発明を適用可能な撮像装置は、図1及び図2に示した構成に限定されるものではない。また、撮像素子の各部の回路構成も、図3、図8、図11等に示した構成に限定されるものではない。例えば、図8に示す画素回路において、増幅トランジスタ315と信号出力線304との間に選択トランジスタを設けてもよい。また、1つの画素を構成する画素要素は2つに限定されるものではなく、3つ以上でもよい。
[Modified Embodiment]
The present invention is not limited to the above embodiment, and various modifications can be made.
For example, the configuration of the imaging apparatus described in the above embodiment is an example, and the imaging apparatus to which the present invention can be applied is not limited to the configuration illustrated in FIGS. 1 and 2. Further, the circuit configuration of each part of the image sensor is not limited to the configuration shown in FIGS. For example, in the pixel circuit illustrated in FIG. 8, a selection transistor may be provided between the amplification transistor 315 and the signal output line 304. Further, the number of pixel elements constituting one pixel is not limited to two, and may be three or more.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
100…撮像装置
152…撮影光学系
178…システム制御CPU
184…撮像素子
187,188…デジタル信号処理部
303…画素
303A,303B…画素要素
310A,310B…フォトダイオード(光電変換部)
6105…欠陥画素要素
DESCRIPTION OF SYMBOLS 100 ... Imaging device 152 ... Shooting optical system 178 ... System control CPU
184: Image sensor 187, 188 ... Digital signal processing unit 303 ... Pixel 303A, 303B ... Pixel element 310A, 310B ... Photodiode (photoelectric conversion unit)
6105 ... Defective pixel element
Claims (17)
前記複数の画素に、前記第1の画素要素が欠陥画素要素である欠陥画素が含まれる場合に、前記第1の映像信号における前記欠陥画素要素の画素値を、前記欠陥画素の前記第2の画素要素の第1の画素値と、前記欠陥画素に隣接する他の画素の前記第1の画素要素の第2の画素値とに基づいて算出する信号処理部と
を有することを特徴とする撮像装置。 A plurality of pixels each including a first pixel element including a first photoelectric conversion unit and a second pixel element including a second photoelectric conversion unit having a sensitivity different from that of the first photoelectric conversion unit; A first video signal based on the signal charge generated in the first photoelectric conversion unit, and a video signal based on the signal charge generated in the second photoelectric conversion unit, wherein the first video signal An image sensor for acquiring a second video signal synchronized with the signal;
When the plurality of pixels includes a defective pixel in which the first pixel element is a defective pixel element, the pixel value of the defective pixel element in the first video signal is set to the second value of the defective pixel. And a signal processing unit that calculates based on a first pixel value of a pixel element and a second pixel value of the first pixel element of another pixel adjacent to the defective pixel. apparatus.
ことを特徴とする請求項1記載の撮像装置。 2. The imaging according to claim 1, wherein the signal processing unit adds the first pixel value and the second pixel value at a predetermined ratio to calculate the pixel value of the defective pixel element. apparatus.
ことを特徴とする請求項1又は2記載の撮像装置。 The signal processing unit, when acquiring an image giving priority to gradation, makes a ratio of summing the second pixel values higher than a ratio of summing the first pixel values. The imaging apparatus according to 1 or 2.
ことを特徴とする請求項3記載の撮像装置。 When the change in the second pixel value of the other pixel differs depending on the direction adjacent to the defective pixel, the change in the pixel value of the other pixel located in a direction where the change in the pixel value is spatially small. The imaging apparatus according to claim 3, wherein the pixel value of the defective pixel is calculated using a second pixel value.
ことを特徴とする請求項1又は2記載の撮像装置。 The signal processing unit, when acquiring an image giving priority to resolution, sets a ratio of summing the first pixel values higher than a ratio of summing the second pixel values. Or the imaging device of 2.
ことを特徴とする請求項1又は2記載の撮像装置。 The signal processing unit, when the amount of signal charge generated in the second photoelectric conversion unit of the second pixel element of the defective pixel is greater than a predetermined value, a ratio of adding the second pixel value The imaging apparatus according to claim 1, wherein a higher ratio than the ratio of summing up the first pixel values is set.
ことを特徴とする請求項1又は2記載の撮像装置。 The signal processing unit, when the amount of signal charge generated in the second photoelectric conversion unit of the second pixel element of the defective pixel is less than a predetermined value, a ratio of adding the second pixel value The imaging apparatus according to claim 1, wherein a higher ratio than the ratio of summing up the first pixel values is set.
ことを特徴とする請求項1又は2記載の撮像装置。 When the contrast near the defective pixel is smaller than a predetermined value, the signal processing unit makes the ratio of summing the second pixel values higher than the ratio of summing the first pixel values. The imaging apparatus according to claim 1 or 2.
ことを特徴とする請求項1記載の撮像装置。 The signal processing unit includes the pixel of the defective pixel element based on the first pixel value and a ratio of pixel values of the first pixel element and the second pixel element of the other pixels. The imaging device according to claim 1, wherein a value is calculated.
ことを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。 10. The position of the defective pixel element is recorded as metadata in the file when the first video signal and the second video signal are recorded in a file. The imaging apparatus according to item 1.
それぞれの前記画素に含まれる前記第1の光電変換部及び前記第2の光電変換部は、1つの前記ライトガイドを共有する
ことを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。 The imaging device further includes a plurality of light guides that guide incident light to the pixels corresponding to the plurality of pixels,
10. The device according to claim 1, wherein the first photoelectric conversion unit and the second photoelectric conversion unit included in each of the pixels share one light guide. 11. Imaging device.
ことを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。 The high dynamic range video composition unit for synthesizing a high dynamic range video using the first video signal and the second video signal, according to any one of claims 1 to 10. The imaging device described.
前記撮像素子の前記複数の画素に、前記第1の画素要素が欠陥画素要素である欠陥画素が含まれる場合に、前記第1の映像データにおける前記欠陥画素要素の画素値を、前記欠陥画素の前記第2の画素要素の第1の画素値と、前記欠陥画素に隣接する他の画素の前記第1の画素要素の第2の画素値とに基づいて補正する補正処理部と
を有することを特徴とする映像処理装置。 A plurality of pixels each including a first pixel element including a first photoelectric conversion unit and a second pixel element including a second photoelectric conversion unit having a sensitivity different from that of the first photoelectric conversion unit; Video data acquired by the image sensor, the first video data based on the signal charge generated in the first photoelectric conversion unit, and the video based on the signal charge generated in the second photoelectric conversion unit A video data acquisition unit for acquiring second video data synchronized with the first video data;
When the plurality of pixels of the image sensor includes a defective pixel in which the first pixel element is a defective pixel element, the pixel value of the defective pixel element in the first video data is calculated as the pixel value of the defective pixel. A correction processing unit that performs correction based on a first pixel value of the second pixel element and a second pixel value of the first pixel element of another pixel adjacent to the defective pixel. A video processing device.
ことを特徴とする請求項13記載の映像処理装置。 The video processing apparatus according to claim 13, wherein a position where the defective pixel exists is recorded in a first file that records the first video data.
前記撮像素子の前記複数の画素に、前記第1の画素要素が欠陥画素要素である欠陥画素が含まれる場合に、前記第1の映像データにおける前記欠陥画素要素の画素値を、前記欠陥画素の前記第2の画素要素の第1の画素値と、前記欠陥画素に隣接する他の画素の前記第1の画素要素の第2の画素値とに基づいて補正する
ことを特徴とする映像処理方法。 A plurality of pixels each including a first pixel element including a first photoelectric conversion unit and a second pixel element including a second photoelectric conversion unit having a sensitivity different from that of the first photoelectric conversion unit; Video data acquired by the image sensor, the first video data based on the signal charge generated in the first photoelectric conversion unit, and the video based on the signal charge generated in the second photoelectric conversion unit Data, the second video data synchronized with the first video data,
When the plurality of pixels of the image sensor includes a defective pixel in which the first pixel element is a defective pixel element, the pixel value of the defective pixel element in the first video data is calculated as the pixel value of the defective pixel. An image processing method comprising: correcting based on a first pixel value of the second pixel element and a second pixel value of the first pixel element of another pixel adjacent to the defective pixel. .
前記第1の光電変換部において生成された信号電荷に基づく第1の映像データと、前記第2の光電変換部において生成された信号電荷に基づく映像データであって、前記第1の映像データと同期した第2の映像データとを取得する手段、及び
前記撮像素子の前記複数の画素に、前記第1の画素要素が欠陥画素要素である欠陥画素が含まれる場合に、前記第1の映像データにおける前記欠陥画素要素の画素値を、前記欠陥画素の前記第2の画素要素の第1の画素値と、前記欠陥画素に隣接する他の画素の前記第1の画素要素の第2の画素値とに基づいて補正する手段
として機能させるプログラム。 A program executed in a video processing apparatus that processes video data acquired by an imaging device having a plurality of pixels each including a first photoelectric conversion unit and a second photoelectric conversion unit, the computer comprising:
First video data based on the signal charge generated in the first photoelectric conversion unit, and video data based on the signal charge generated in the second photoelectric conversion unit, wherein the first video data Means for acquiring synchronized second video data, and the first video data when the plurality of pixels of the imaging device include a defective pixel in which the first pixel element is a defective pixel element. The pixel value of the defective pixel element in the first pixel value of the second pixel element of the defective pixel and the second pixel value of the first pixel element of another pixel adjacent to the defective pixel. A program that functions as a means of correction based on the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016005491A JP2017126898A (en) | 2016-01-14 | 2016-01-14 | Imaging device and video processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016005491A JP2017126898A (en) | 2016-01-14 | 2016-01-14 | Imaging device and video processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017126898A true JP2017126898A (en) | 2017-07-20 |
Family
ID=59365314
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016005491A Pending JP2017126898A (en) | 2016-01-14 | 2016-01-14 | Imaging device and video processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017126898A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019062327A (en) * | 2017-09-26 | 2019-04-18 | 株式会社 日立産業制御ソリューションズ | Imaging apparatus, imaging processing logic element, and imaging element |
US12166051B2 (en) | 2020-08-03 | 2024-12-10 | Canon Kabushiki Kaisha | Photoelectric conversion apparatus, method of manufacturing the same, and image capturing system |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004120525A (en) * | 2002-09-27 | 2004-04-15 | Fuji Photo Film Co Ltd | Camera |
JP2004222177A (en) * | 2003-01-17 | 2004-08-05 | Fuji Photo Film Co Ltd | Defective pixel correcting method of solid-state imaging device and photographing device |
JP2004247946A (en) * | 2003-02-13 | 2004-09-02 | Fuji Photo Film Co Ltd | Digital camera and method for correcting defective pixel of digital camera |
JP2009303020A (en) * | 2008-06-16 | 2009-12-24 | Fujifilm Corp | Image capturing apparatus and defective pixel correcting method |
WO2012117616A1 (en) * | 2011-02-28 | 2012-09-07 | 富士フイルム株式会社 | Image pick-up device and defective pixel correction method |
JP2015008535A (en) * | 2014-10-02 | 2015-01-15 | キヤノン株式会社 | Solid state image sensor and camera |
JP2015056710A (en) * | 2013-09-11 | 2015-03-23 | キヤノン株式会社 | Imaging apparatus and control method thereof, program, and storage medium of the same |
JP2015130630A (en) * | 2014-01-08 | 2015-07-16 | キヤノン株式会社 | Imaging apparatus, control method of the same, program, and storage medium |
JP2015201834A (en) * | 2014-03-31 | 2015-11-12 | ソニー株式会社 | Solid-state imaging device, drive control method thereof, image processing method, and electronic apparatus |
-
2016
- 2016-01-14 JP JP2016005491A patent/JP2017126898A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004120525A (en) * | 2002-09-27 | 2004-04-15 | Fuji Photo Film Co Ltd | Camera |
JP2004222177A (en) * | 2003-01-17 | 2004-08-05 | Fuji Photo Film Co Ltd | Defective pixel correcting method of solid-state imaging device and photographing device |
JP2004247946A (en) * | 2003-02-13 | 2004-09-02 | Fuji Photo Film Co Ltd | Digital camera and method for correcting defective pixel of digital camera |
JP2009303020A (en) * | 2008-06-16 | 2009-12-24 | Fujifilm Corp | Image capturing apparatus and defective pixel correcting method |
WO2012117616A1 (en) * | 2011-02-28 | 2012-09-07 | 富士フイルム株式会社 | Image pick-up device and defective pixel correction method |
JP2015056710A (en) * | 2013-09-11 | 2015-03-23 | キヤノン株式会社 | Imaging apparatus and control method thereof, program, and storage medium of the same |
JP2015130630A (en) * | 2014-01-08 | 2015-07-16 | キヤノン株式会社 | Imaging apparatus, control method of the same, program, and storage medium |
JP2015201834A (en) * | 2014-03-31 | 2015-11-12 | ソニー株式会社 | Solid-state imaging device, drive control method thereof, image processing method, and electronic apparatus |
JP2015008535A (en) * | 2014-10-02 | 2015-01-15 | キヤノン株式会社 | Solid state image sensor and camera |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019062327A (en) * | 2017-09-26 | 2019-04-18 | 株式会社 日立産業制御ソリューションズ | Imaging apparatus, imaging processing logic element, and imaging element |
US12166051B2 (en) | 2020-08-03 | 2024-12-10 | Canon Kabushiki Kaisha | Photoelectric conversion apparatus, method of manufacturing the same, and image capturing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7154547B2 (en) | Solid-state image sensor having control cells for developing signals for image-shooting control under poor illumination | |
TWI661727B (en) | Control device, control method and electronic device | |
CN103916575A (en) | Image pickup element, image pickup apparatus, and method for controlling the same | |
US10424343B2 (en) | Imaging device and playback device | |
US8319864B2 (en) | Imaging apparatus and imaging method | |
JP3999321B2 (en) | Electronic camera | |
US10757349B2 (en) | Imaging device and reproducing device | |
JP2017112596A (en) | Imaging apparatus and control method of the same | |
JP6190243B2 (en) | Imaging apparatus and control method thereof | |
JP2017126898A (en) | Imaging device and video processing apparatus | |
JP6855251B2 (en) | Imaging device and playback device | |
US10924693B2 (en) | Image sensor and image capturing apparatus | |
US10283538B2 (en) | Imaging device and method of driving imaging device | |
WO2019138747A1 (en) | Imaging device and control method therefor | |
JP6732587B2 (en) | Imaging device | |
JP6674225B2 (en) | Imaging device and image distortion detection method | |
JP6581409B2 (en) | Imaging apparatus and video processing apparatus | |
JP2019041170A (en) | Imaging apparatus and control method of the same | |
JP6808473B2 (en) | Imaging device and its driving method | |
JP2017192102A (en) | Imaging apparatus and imaging method | |
JP2018160854A (en) | Imaging apparatus and control method of the same | |
JP2018125697A (en) | Imaging apparatus and control method thereof | |
JP2006109046A (en) | Imaging device | |
JP2005117250A (en) | Imaging device | |
JP2019180055A (en) | Imaging device and image distortion detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20171214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191107 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200428 |