JP2022053481A - Signal processing device, photoelectric conversion device, photoelectric conversion system, control method of signal processing device and program - Google Patents

Signal processing device, photoelectric conversion device, photoelectric conversion system, control method of signal processing device and program Download PDF

Info

Publication number
JP2022053481A
JP2022053481A JP2021113140A JP2021113140A JP2022053481A JP 2022053481 A JP2022053481 A JP 2022053481A JP 2021113140 A JP2021113140 A JP 2021113140A JP 2021113140 A JP2021113140 A JP 2021113140A JP 2022053481 A JP2022053481 A JP 2022053481A
Authority
JP
Japan
Prior art keywords
signal processing
image data
photoelectric conversion
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021113140A
Other languages
Japanese (ja)
Inventor
渓輔 高橋
Keisuke Takahashi
英俊 林
Hidetoshi Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US17/481,550 priority Critical patent/US11582414B2/en
Publication of JP2022053481A publication Critical patent/JP2022053481A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

To provide a technique advantageous for improving the accuracy of correction for a signal output from an imaging device in a signal processing device.SOLUTION: A signal processing device processing image data output from a photoelectric conversion unit having a light receiving area and a light blocking area, is provide including: a control data generation unit that outputs control data used to generate correction data for correction of the image data by using a learned model generated by machine learning; and a signal processing unit that generates the correction data on the basis of the light blocking image data which is the image data of the light blocking data and the control data, and corrects the light receiving image data which is the image data of the light receiving area of the image data, without applying the learned model according to the correction data.SELECTED DRAWING: Figure 4

Description

本発明は、信号処理装置、光電変換装置、光電変換システム、信号処理装置の制御方法およびプログラムに関する。 The present invention relates to a signal processing device, a photoelectric conversion device, a photoelectric conversion system, a control method and a program of the signal processing device.

CMOSイメージセンサなどの撮像素子を使用した撮像装置において、画質の向上のために、それぞれの画素で生じる暗電流などに起因するノイズを補正する必要がある。特許文献1には、撮像領域を複数のブロックに分割し、ブロックの大きさと分割位置を撮影条件に応じて変化させ、予め記憶された分割パターンに応じた補正値を用いて、様々な撮影条件に対して適切に補正を行うことが示されている。 In an image pickup device using an image pickup element such as a CMOS image sensor, it is necessary to correct noise caused by a dark current generated in each pixel in order to improve the image quality. In Patent Document 1, the imaging region is divided into a plurality of blocks, the size and division position of the blocks are changed according to the imaging conditions, and various imaging conditions are used by using the correction values according to the division pattern stored in advance. It has been shown to make appropriate corrections to.

特開2017-034315号公報Japanese Unexamined Patent Publication No. 2017-034315

画質のより一層の向上のために、撮像素子のそれぞれの画素で生じる暗電流や画素から信号を読み出すための回路に起因するノイズなどをより適切に補正する必要がある。 In order to further improve the image quality, it is necessary to more appropriately correct the dark current generated in each pixel of the image sensor and the noise caused by the circuit for reading the signal from the pixel.

本発明は、信号処理装置において、撮像素子から出力される信号に対する補正の精度の向上に有利な技術を提供することを目的とする。 An object of the present invention is to provide a technique advantageous for improving the accuracy of correction for a signal output from an image pickup device in a signal processing device.

上記課題に鑑みて、本発明の実施形態に係る信号処理装置は、受光領域および遮光領域を備える光電変換部から出力される画像データを処理する信号処理装置であって、機械学習によって生成された学習済みモデルを用いて前記画像データの補正のための補正用データの生成に用いる制御データを出力する制御データ生成部と、前記画像データのうち前記遮光領域の画像データである遮光画像データと前記制御データとに基づいて前記補正用データを生成し、前記画像データのうち前記受光領域の画像データである受光画像データを前記補正用データに従って、前記学習済みモデルを適用せずに補正する信号処理部と、を含むことを特徴とする。 In view of the above problems, the signal processing device according to the embodiment of the present invention is a signal processing device that processes image data output from a photoelectric conversion unit including a light receiving region and a light shielding region, and is generated by machine learning. A control data generation unit that outputs control data used to generate correction data for correction of the image data using the trained model, a light-shielding image data that is image data of the light-shielding region among the image data, and the light-shielding image data. Signal processing that generates the correction data based on the control data and corrects the light receiving image data, which is the image data of the light receiving region among the image data, according to the correction data without applying the trained model. It is characterized by including a part and.

本発明によれば、信号処理装置において、撮像素子から出力される信号に対する補正の精度の向上に有利な技術を提供することができる。 According to the present invention, it is possible to provide a technique advantageous for improving the accuracy of correction for a signal output from an image pickup device in a signal processing device.

本実施形態の信号処理装置を備える光電変換装置の構成例を示す図。The figure which shows the structural example of the photoelectric conversion apparatus which includes the signal processing apparatus of this embodiment. 図1の光電変換装置の光電変換部の出力信号の概念図。The conceptual diagram of the output signal of the photoelectric conversion part of the photoelectric conversion apparatus of FIG. 本実施形態の信号処理装置のOBクランプ処理の概念図。The conceptual diagram of the OB clamp processing of the signal processing apparatus of this embodiment. 本実施形態の信号処理装置の補正に用いる制御データ生成のフロー図。The flow diagram of the control data generation used for the correction of the signal processing apparatus of this embodiment. 本実施形態の信号処理装置の機械学習モデルの図。The figure of the machine learning model of the signal processing apparatus of this embodiment. 本実施形態の信号処理装置を備える光電変換装置の構成例を示す図。The figure which shows the structural example of the photoelectric conversion apparatus which includes the signal processing apparatus of this embodiment. 本実施形態の信号処理装置を備える光電変換装置の構成例を示す図。The figure which shows the structural example of the photoelectric conversion apparatus which includes the signal processing apparatus of this embodiment. 本実施形態の信号処理装置を備える光電変換装置の構成例を示す図。The figure which shows the structural example of the photoelectric conversion apparatus which includes the signal processing apparatus of this embodiment. 本実施形態の信号処理装置の補正に用いる制御データ生成のフロー図。The flow diagram of the control data generation used for the correction of the signal processing apparatus of this embodiment. 図1の光電変換装置の配置例を示す図。The figure which shows the arrangement example of the photoelectric conversion apparatus of FIG. 図1の光電変換装置が組み込まれた撮像装置の構成例を示す図。The figure which shows the structural example of the image pickup apparatus which incorporated the photoelectric conversion apparatus of FIG. 図1の光電変換装置を含む光電変換システムの構成例を示す図。The figure which shows the structural example of the photoelectric conversion system including the photoelectric conversion apparatus of FIG.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential for the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.

第1の実施形態
図1~5を参照して、本開示の第1の実施形態による信号処理装置について説明する。図1は、本実施形態の信号処理装置150を備える光電変換装置100の構成例を示す図である。光電変換装置100は、信号処理装置150と、後述する受光領域および遮光領域を備え、信号処理装置150によって処理される画像データを出力する光電変換部101と、を含む。光電変換装置100は、さらに、垂直走査部103、制御部104、読出回路部105、AD変換部106、メモリ部107、水平走査部108を含みうる。
First Embodiment With reference to FIGS. 1 to 5, the signal processing apparatus according to the first embodiment of the present disclosure will be described. FIG. 1 is a diagram showing a configuration example of a photoelectric conversion device 100 including the signal processing device 150 of the present embodiment. The photoelectric conversion device 100 includes a signal processing device 150, and a photoelectric conversion unit 101 having a light receiving region and a light blocking region, which will be described later, and outputting image data processed by the signal processing device 150. The photoelectric conversion device 100 may further include a vertical scanning unit 103, a control unit 104, a reading circuit unit 105, an AD conversion unit 106, a memory unit 107, and a horizontal scanning unit 108.

信号処理装置150は、機械学習部151と信号処理部152とを含む。機械学習部151は、機械学習によって生成された学習済みモデル160と、画像データに基づいて、学習済みモデル160を用いて信号処理部152で画像データを補正するための補正用データを生成する際に用いる制御データを出力する制御データ生成部161と、を含む。信号処理部152は、画像データと制御データ生成部161によって生成された制御データとに基づいて補正用データを生成し、光電変換部101から出力される画像データを補正用データに従って補正する。本実施形態では、信号処理装置150が、光電変換装置100に搭載されている例を示すが、これに限られることはなく、信号処理装置150は、光電変換装置100とは別体であってもよい。 The signal processing device 150 includes a machine learning unit 151 and a signal processing unit 152. When the machine learning unit 151 generates correction data for correcting image data in the signal processing unit 152 using the trained model 160 based on the trained model 160 generated by machine learning and the image data. Includes a control data generation unit 161 that outputs control data used in the above. The signal processing unit 152 generates correction data based on the image data and the control data generated by the control data generation unit 161 and corrects the image data output from the photoelectric conversion unit 101 according to the correction data. In the present embodiment, an example in which the signal processing device 150 is mounted on the photoelectric conversion device 100 is shown, but the present invention is not limited to this, and the signal processing device 150 is a separate body from the photoelectric conversion device 100. May be good.

光電変換部101は、画素102を行方向(図1の横方向)にm+1個、列方向(図1の縦方向)にn+1個それぞれ配置した(m+1)×(n+1)画素で構成されている。垂直走査部103は、行選択線110(V(n))によって、行ごとに配されたm+1個の画素102に接続されており、信号を読み出す行を選択する。選択された行では、垂直出力線111(H(m))を介して、選択された行に含まれるm+1個の画素102から出力される信号が、一斉に読出回路部105へ読み出される。読出回路部105は、アンプなどを含み、画素102から出力される信号を増幅してもよい。読出回路部105から出力された信号は、AD変換部106にてアナログ信号からデジタル信号へ変換(AD変換)され、メモリ部107に一時的に保持される。その後、水平走査部108によってアドレス指定されたデジタル信号が、信号処理装置150の信号処理部152へ順次読み出され、信号処理部152にてデジタル信号処理が行われる。制御部104は、例えば、タイミングジェネレータを含み、光電変換装置100の各構成に対する制御信号を生成しうる。また、制御部104は、光電変換装置100の外部との通信によって光電変換装置100の撮像の際の撮像条件などの設定情報を取得し、光電変換装置100に含まれる各構成に条件に応じた制御信号を供給しうる。制御部104は、この設定情報に基づき、垂直走査部103、読出回路部105、AD変換部106、メモリ部107、水平走査部108、信号処理部152に対して制御を行う。 The photoelectric conversion unit 101 is composed of (m + 1) × (n + 1) pixels in which m + 1 pixels 102 are arranged in the row direction (horizontal direction in FIG. 1) and n + 1 pixels are arranged in the column direction (vertical direction in FIG. 1). .. The vertical scanning unit 103 is connected to the m + 1 pixels 102 arranged for each row by the row selection line 110 (V (n)), and selects a row for reading a signal. In the selected row, the signals output from the m + 1 pixels 102 included in the selected row are simultaneously read out to the read circuit unit 105 via the vertical output line 111 (H (m)). The read circuit unit 105 may include an amplifier or the like and amplify a signal output from the pixel 102. The signal output from the read circuit unit 105 is converted from an analog signal to a digital signal (AD conversion) by the AD conversion unit 106, and is temporarily held in the memory unit 107. After that, the digital signals addressed by the horizontal scanning unit 108 are sequentially read out to the signal processing unit 152 of the signal processing device 150, and the signal processing unit 152 performs digital signal processing. The control unit 104 may include, for example, a timing generator and may generate control signals for each configuration of the photoelectric conversion device 100. Further, the control unit 104 acquires setting information such as imaging conditions at the time of imaging of the photoelectric conversion device 100 by communicating with the outside of the photoelectric conversion device 100, and corresponds to each configuration included in the photoelectric conversion device 100 according to the conditions. It can supply control signals. Based on this setting information, the control unit 104 controls the vertical scanning unit 103, the reading circuit unit 105, the AD conversion unit 106, the memory unit 107, the horizontal scanning unit 108, and the signal processing unit 152.

信号処理部152では、光電変換部101のそれぞれの画素102に含まれるスイッチ素子(例えば、MOSトランジスタ)で発生するリセットノイズを低減する処理が実施される。また、光電変換部101から出力される画像データには、画素102に含まれるフォトダイオードから発生する暗電流や、電源インピーダンスや信号遅延などの回路起因の差によって発生するばらつき(FPN:固定パターンノイズ)が含まれうる。本明細書において、このFPNが行ごと、列ごとに、ある法則性を有してばらつく状態をシェーディングと称する。信号処理部152は、リセットノイズの成分を低減した後に、FPN成分やシェーディング成分などを低減し、画像データからノイズ成分が抑制された信号成分を取り出す処理を行う。本明細書において、この信号処理部152が、画像データのノイズ成分を低減する処理をOBクランプ処理と称する。 The signal processing unit 152 performs a process of reducing reset noise generated in a switch element (for example, a MOS transistor) included in each pixel 102 of the photoelectric conversion unit 101. Further, the image data output from the photoelectric conversion unit 101 has variations (FPN: fixed pattern noise) caused by the dark current generated from the photodiode included in the pixel 102 and the circuit-induced differences such as power supply impedance and signal delay. ) Can be included. In the present specification, the state in which the FPN varies from row to row and column to column with a certain rule is referred to as shading. After reducing the reset noise component, the signal processing unit 152 reduces the FPN component, the shading component, and the like, and performs a process of extracting the signal component in which the noise component is suppressed from the image data. In the present specification, the process in which the signal processing unit 152 reduces the noise component of the image data is referred to as an OB clamp process.

図2は、本実施形態において、光電変換部101から出力された信号を行ごとに改行した場合の概念図である。光電変換部101は、レンズなどの光学系を通り入射する光を受光する受光領域202および入射する光を光学的に遮光した遮光領域201(オプティカルブラック(OB)領域とも呼ばれうる。)を含む。遮光領域201は、光電変換部101で得られる画像データにおける、所謂、黒レベルの基準を決定するための基準領域である。ここで、遮光領域201のうち、図2に示されるように、画面の上部で全列にわたり画素102を光学的に遮光した領域をVOB領域203と称する。また、受光領域202の左側に位置し、全行にわたり画素102を光学的に遮光した領域をHOB領域204と称する。 FIG. 2 is a conceptual diagram in the case where the signal output from the photoelectric conversion unit 101 is broken line by line in the present embodiment. The photoelectric conversion unit 101 includes a light receiving region 202 that receives light incident on the optical system such as a lens and a light shielding region 201 (which may also be referred to as an optical black (OB) region) that optically shields the incident light. .. The light-shielding region 201 is a reference region for determining a so-called black level reference in the image data obtained by the photoelectric conversion unit 101. Here, in the light-shielding area 201, as shown in FIG. 2, the area in which the pixels 102 are optically light-shielded over the entire row at the upper part of the screen is referred to as a VOB area 203. Further, a region located on the left side of the light receiving region 202 and optically shielding the pixels 102 over the entire row is referred to as a HOB region 204.

OBクランプ処理において行ごと、列ごとのFPN成分を低減するために、信号処理部152は、画像データのうち遮光領域201の画像データである遮光画像データから補正用データを生成する。次いで、信号処理部152は、画像データのうち受光領域202の画像データである受光画像データを補正用データに従って補正する。例えば、信号処理部152は、遮光画像データの信号レベル(信号値)を行ごと、列ごとに平均化して補正用データを生成する。次いで、信号処理部152は、受光画像データのそれぞれの信号レベルから補正用データのそれぞれ対応する信号レベルを減算することによって、画像表示用のデータを生成してもよい。ここで、遮光領域201のうち信号レベルの行ごと、列ごとの平均値を取得する領域は、遮光領域201の任意の領域を設定することができる。この領域をクランプ値生成領域と称する。また、クランプ値生成領域から取得した平均値をクランプ値と称する。 In order to reduce the FPN component for each row and each column in the OB clamping process, the signal processing unit 152 generates correction data from the light-shielded image data which is the image data of the light-shielding region 201 among the image data. Next, the signal processing unit 152 corrects the received light image data, which is the image data of the light receiving area 202 among the image data, according to the correction data. For example, the signal processing unit 152 averages the signal level (signal value) of the light-shielded image data row by row and column by column to generate correction data. Next, the signal processing unit 152 may generate data for image display by subtracting the corresponding signal level of the correction data from each signal level of the received light image data. Here, an arbitrary area of the light-shielding area 201 can be set as the area of the light-shielding area 201 for acquiring the average value for each row and each column of the signal level. This region is referred to as a clamp value generation region. Further, the average value obtained from the clamp value generation area is referred to as a clamp value.

図3(a)~図3(c)は、OBクランプ処理の概念図である。図3(a)は、図2に示した光電変換部101を示し、図3(b)は、OBクランプ処理を実施する前の概念図であり、図3(c)は、OBクランプ処理を実施した後の概念図である。図3(b)は、縦軸に時間、横軸に遮光領域201の信号レベルを表しており、FPN成分のレベルと対応する信号レベルの平均値の例を示したものである。図3(b)では、行ごとにFPN成分が増加していくような概念図を示しており、遮光領域201の全領域をクランプ値生成領域とした場合のクランプ値301が示されている。各行の信号レベルからクランプ値301を減算した結果が、図3(c)に示される。図3(c)では、遮光領域201で得られた信号レベルからクランプ値301を減算したことによって、受光領域202を含め、光電変換部101で得られた画像データからFPN成分やシェーディング成分を抑制した信号成分を取り出せた状態が示されている。つまり、信号処理部152によるOBクランプ処理が、適切に行われた例を示している。 3 (a) to 3 (c) are conceptual diagrams of the OB clamp process. 3A shows the photoelectric conversion unit 101 shown in FIG. 2, FIG. 3B is a conceptual diagram before the OB clamping process is performed, and FIG. 3C shows the OB clamping process. It is a conceptual diagram after the implementation. FIG. 3B shows the time on the vertical axis and the signal level of the light-shielding region 201 on the horizontal axis, and shows an example of the average value of the signal level corresponding to the level of the FPN component. FIG. 3B shows a conceptual diagram in which the FPN component increases row by row, and shows a clamp value 301 when the entire region of the light-shielding region 201 is used as a clamp value generation region. The result of subtracting the clamp value 301 from the signal level of each row is shown in FIG. 3 (c). In FIG. 3C, by subtracting the clamp value 301 from the signal level obtained in the light-shielding region 201, the FPN component and the shading component are suppressed from the image data obtained by the photoelectric conversion unit 101 including the light-receiving region 202. The state in which the signal component was taken out is shown. That is, an example is shown in which the OB clamping process by the signal processing unit 152 is appropriately performed.

しかしならが、OBクランプ処理において、画像データのうち遮光領域201の遮光画像データの各行の平均値をそのまま減算に使用した場合、画素ごとに異なるランダムノイズなどの影響によって平均値がばらついてしまう可能性がある。このため、OBクランプ処理において、適切にシェーディング成分を低減にできなくなり、OBクランプ処理の精度が低下してしまう可能性がある。 However, in the OB clamping process, if the average value of each row of the light-shielding image data in the light-shielding area 201 of the image data is used as it is for subtraction, the average value may vary due to the influence of random noise or the like that differs for each pixel. There is sex. Therefore, in the OB clamping process, the shading component cannot be appropriately reduced, and the accuracy of the OB clamping process may be lowered.

そこで、例えば、行ごとに求めた遮光画像データの平均値に対してLPF(Low Pass Filter)を用いることで、クランプ値に行ばらつきに対する耐性を持たせ、OBクランプ処理の精度を向上させることが考えられる。このため、信号処理部152がOBクランプ処理を実施する際に、信号処理部152にOBクランプ処理を行うための制御データを与える必要がある。信号処理部152は、画像データのうち遮光領域201の画像データである遮光画像データと制御データとに基づいて上述の補正用データを生成する。OBクランプ処理を行う際の制御データは、LPFのフィードバックゲイン(シェーディングに対する追随性)の情報以外にも、遮光画像データのうち、OBクランプ処理に用いるクランプ値生成領域の大きさの情報、クランプ値生成領域の場所の情報、などが挙げられる。信号処理装置150の機械学習部151に配される制御データ生成部161は、学習済みモデル160を用いて、これらの制御データを生成する。信号処理部152は、遮光画像データとこれらの制御データの情報とに基づいて補正用データを生成し、例えば、上述のように受光画像データの信号レベルから補正用データの信号レベルを減算することによって画像表示用のデータを生成しうる。 Therefore, for example, by using an LPF (Low Pass Filter) for the average value of the light-shielded image data obtained for each row, the clamp value can be made resistant to row variation and the accuracy of the OB clamping process can be improved. Conceivable. Therefore, when the signal processing unit 152 performs the OB clamping process, it is necessary to provide the signal processing unit 152 with control data for performing the OB clamping process. The signal processing unit 152 generates the above-mentioned correction data based on the light-shielding image data and the control data, which are the image data of the light-shielding region 201 among the image data. In addition to the LPF feedback gain (following to shading) information, the control data for OB clamping processing includes information on the size of the clamp value generation area used for OB clamping processing and the clamp value among the light-shielding image data. Information on the location of the generation area, etc. can be mentioned. The control data generation unit 161 arranged in the machine learning unit 151 of the signal processing device 150 generates these control data by using the trained model 160. The signal processing unit 152 generates correction data based on the shading image data and the information of these control data, and for example, subtracts the signal level of the correction data from the signal level of the received light image data as described above. Can generate data for image display.

次に、制御データを生成するためのプロセスについて図4を用いて説明する。まず、S401では、制御データを生成するための画像データが準備される。制御データを生成するための画像データは、これまでの撮像によって取得された画像データであってもよいし、同等の撮像条件で取得された画像データであってもよい。これらの画像データは、信号処理装置150や光電変換装置100の外部から供給されてもよいし、図1に示されるように、信号処理装置150の機械学習部151にメモリ162が配され、メモリ162に記憶されていてもよい。また、制御データを生成するための画像データとして、リアルタイムで取得した画像データのうち遮光領域201のデータである遮光画像データが用いられてもよい。 Next, the process for generating control data will be described with reference to FIG. First, in S401, image data for generating control data is prepared. The image data for generating the control data may be image data acquired by conventional imaging, or may be image data acquired under the same imaging conditions. These image data may be supplied from the outside of the signal processing device 150 or the photoelectric conversion device 100, or as shown in FIG. 1, a memory 162 is arranged in the machine learning unit 151 of the signal processing device 150, and the memory It may be stored in 162. Further, as the image data for generating the control data, the light-shielding image data which is the data of the light-shielding region 201 among the image data acquired in real time may be used.

制御データを生成するための画像データが準備されると、ステップはS402~S404に遷移する。S402では、制御データとして、制御データ生成部161は、遮光画像データのうち補正用データを生成する領域(クランプ値生成領域)の大きさ、即ちクランプ値を生成する際の平均母数を決定する。クランプ値を生成する際の平均母数は、例えば、遮光領域201におけるFPN成分のノイズ量の大きさから判断してもよい。例えば、ノイズ量が大きい場合、大きなばらつきを抑えるためにクランプ値生成領域は大きく設定され、ノイズ量が小さい場合、遮光領域201内に存在するシミやムラの影響を不必要に受けないようにクランプ値生成領域の大きさは小さく設定される。 When the image data for generating the control data is prepared, the step transitions to S402 to S404. In S402, as the control data, the control data generation unit 161 determines the size of the region (clamp value generation region) for generating the correction data in the light-shielded image data, that is, the average parameter when generating the clamp value. .. The average parameter for generating the clamp value may be determined, for example, from the magnitude of the noise amount of the FPN component in the light-shielding region 201. For example, when the amount of noise is large, the clamp value generation area is set large in order to suppress large variations, and when the amount of noise is small, the clamp is clamped so as not to be unnecessarily affected by stains and unevenness existing in the light-shielding area 201. The size of the value generation area is set small.

また、S403では、制御データとして、制御データ生成部161は、遮光画像データのうち補正用データを生成する領域(クランプ値生成領域)の場所を決定する。クランプ値生成領域の場所は、遮光領域201におけるシェーディング形状、さらに、異常な信号値を出力する画素の場所から判断する。異常な信号を出力する画素とは、例えば、上述のシミやムラとなる領域の画素や、キズとなる画素でありうる。シミやムラとは、他の画素よりも相対的に大きな、または、小さな信号レベルを出力する画素の集合によって出現しうる。また、キズとなる画素とは、白キズや黒点のように、常に同じ信号レベルを出力する画素のことでありうる。クランプ値生成領域内にシミやムラが含まれた場合、クランプ値に所望のFPN成分以外の成分を含んでしまい、FPN成分を低減できなくなる可能性があるため、適切なOBクランプ処理ができなくなるおそれがある。このため、遮光領域201の遮光画像データにシミやムラが存在する場合、シミやムラが出現している領域を外してクランプ値生成領域が設定されうる。 Further, in S403, as control data, the control data generation unit 161 determines the location of a region (clamp value generation region) for generating correction data in the light-shielded image data. The location of the clamp value generation region is determined from the shading shape in the light-shielding region 201 and the location of the pixel that outputs an abnormal signal value. The pixel that outputs an abnormal signal may be, for example, a pixel in a region that causes spots or unevenness, or a pixel that causes scratches. Spots and unevenness can appear by a set of pixels that output a signal level that is relatively larger or smaller than other pixels. Further, the scratched pixel may be a pixel that always outputs the same signal level, such as a white scratch or a black dot. If stains or unevenness are included in the clamp value generation area, the clamp value may contain components other than the desired FPN component, and the FPN component may not be reduced, so that appropriate OB clamping processing cannot be performed. There is a risk. Therefore, when the light-shielding image data of the light-shielding area 201 has spots or unevenness, the clamp value generation area can be set by removing the area where the spots or unevenness appear.

さらに、S404では、制御データとして、制御データ生成部161は、シェーディングに対する追従性を決定する。例えば、シェーディングへの追従性は、シェーディング成分の大きさから判別してもよい。例えば、シェーディング量が大きい場合、クランプ値の追従性は大きく設定され、クランプ値が大きなシェーディング量に追従できるよう設定する。シェーディング量が小さい場合、クランプ値が不本意なばらつきの影響を受けないよう追従性は小さく設定される。 Further, in S404, as control data, the control data generation unit 161 determines the followability to shading. For example, the followability to shading may be determined from the size of the shading component. For example, when the shading amount is large, the followability of the clamp value is set to be large, and the clamp value is set so as to be able to follow the large shading amount. When the shading amount is small, the followability is set small so that the clamp value is not affected by unintended variations.

S402~S404の各ステップは、どのような順番で実施してもよい。また、例えば、S402~S404の各ステップは、同時に並行して実施されてもよい。また、例えば、S402~S404の全てのステップが実行されなくてもよい。少なくとも1つのステップが実行され、制御データが制御データ生成部161から信号処理部152に出力されることによって、信号処理部152で行われるOBクランプ処理の精度が向上しうる。 Each step of S402 to S404 may be carried out in any order. Further, for example, the steps S402 to S404 may be performed in parallel at the same time. Further, for example, all the steps of S402 to S404 may not be executed. By executing at least one step and outputting the control data from the control data generation unit 161 to the signal processing unit 152, the accuracy of the OB clamping process performed by the signal processing unit 152 can be improved.

制御データ生成部161は、S402~S404で決定した、クランプ値生成領域の大きさの情報、クランプ値生成領域の場所の情報、および、シェーディングに対する追随性の情報のうち少なくとも1つを含む制御データを信号処理部152に出力する。次いで、S405では、信号処理部152は、S402~S404にて決定した制御データと遮光領域201の遮光画像データとに基づいて補正用データを生成し、受光領域202の受光画像データを補正用データに従って補正するOBクランプ処理を実施する。これによって、本実施形態において、撮像条件に合わせたクランプ値を補正用データとして演算し、FPN成分やシェーディング成分を低減可能な適切なOBクランプ処理が可能となる。結果として、良好な画質の画像を得ることが可能となる。 The control data generation unit 161 includes control data including at least one of the information on the size of the clamp value generation area, the information on the location of the clamp value generation area, and the information on the followability to shading determined in S402 to S404. Is output to the signal processing unit 152. Next, in S405, the signal processing unit 152 generates correction data based on the control data determined in S402 to S404 and the light-shielding image data of the light-shielding area 201, and the light-receiving image data of the light-receiving area 202 is the correction data. The OB clamping process that corrects according to the above is performed. As a result, in the present embodiment, the clamp value according to the imaging condition is calculated as the correction data, and an appropriate OB clamp process capable of reducing the FPN component and the shading component becomes possible. As a result, it is possible to obtain an image with good image quality.

ここで、光電変換装置100の光電変換部101からの画像データは、光電変換部101の製造工程中に生ずるキズやロット内におけるチップの配置場所によって、例え、同じ撮像条件であったとしても、チップごとに異なるFPN成分やムラを有しうる。また、例えば、同ロット内であったとしても、各チップ間で層間膜の厚さが異なり配線容量の大きさがチップ間でばらついてしまう。配線容量の大きさが異なる場合、チップ間でシェーディング量や形状にもばらつきを生じてしまう可能性がある。光電変換部101のチップサイズが、例えば、デジタル一眼カメラで用いるイメージセンサのように大きい場合、このようなばらつきの影響をより大きく受けてしまう。このため、制御データ生成部161が、制御データを生成するための学習済みモデル160を出荷前にチューニングすることは、チップ毎にばらつくFPN成分やムラに適合したOBクランプ処理を実施するために、非常に重要となってくる。 Here, the image data from the photoelectric conversion unit 101 of the photoelectric conversion device 100 may have the same imaging conditions depending on the scratches generated during the manufacturing process of the photoelectric conversion unit 101 and the placement location of the chips in the lot. Each chip may have different FPN components and unevenness. Further, for example, even within the same lot, the thickness of the interlayer film differs between the chips, and the size of the wiring capacity varies among the chips. If the size of the wiring capacity is different, the amount of shading and the shape may vary between the chips. When the chip size of the photoelectric conversion unit 101 is large, for example, as an image sensor used in a digital single-lens reflex camera, it is more affected by such variations. Therefore, the control data generation unit 161 tunes the trained model 160 for generating the control data before shipment in order to carry out the OB clamping process suitable for the FPN component and unevenness that vary from chip to chip. It becomes very important.

また、同じ光電変換部101においても、撮像を行う際の蓄積時間に依存して発生する暗電流の量、さらにISO設定に依存してFPN成分の増幅率など、FPN成分は撮像条件ごとに変化しうる値である。さらに、出荷時にはなくとも、光電変換部101から出力される画像に、経年変化によるシミやムラなどが発生する可能性がある。これらの影響を踏まえ、その都度、適切なOBクランプ処理ができなければ、FPN成分やシェーディング成分を低減できなくなり、OBクランプ処理の精度が保てないおそれがある。 Further, even in the same photoelectric conversion unit 101, the FPN component changes depending on the imaging conditions such as the amount of dark current generated depending on the accumulation time during imaging and the amplification factor of the FPN component depending on the ISO setting. It is a possible value. Further, even if it is not at the time of shipment, the image output from the photoelectric conversion unit 101 may have stains or unevenness due to aging. Based on these effects, if an appropriate OB clamping process cannot be performed each time, the FPN component and shading component cannot be reduced, and the accuracy of the OB clamping process may not be maintained.

そこで、本実施形態において、制御データ生成部161は、画像データ(遮光画像データ)を学習済みモデル160に入力し、OBクランプ処理を実施するための制御データを出力させる。つまり、制御データ生成部161は、撮像条件やロットごと、チップごとに異なるシェーディング形状やシミ、ムラを機械学習した学習済みモデルを用いてFPN成分を低減するための制御データを出力させる。 Therefore, in the present embodiment, the control data generation unit 161 inputs the image data (light-shielding image data) into the trained model 160 and outputs the control data for performing the OB clamping process. That is, the control data generation unit 161 outputs control data for reducing the FPN component by using a trained model in which shading shapes, stains, and unevenness that differ for each imaging condition, lot, and chip are machine-learned.

本実施形態において、制御データ生成部161は、学習済みモデル160にクランプ値自体を出力させるのではなく、クランプ値を生成するための制御データを出力させる。また、信号処理部152は、制御データと遮光領域201の遮光画像データとに基づいて補正用データを生成し、受光領域202の受光画像データを補正用データに従って、学習済みモデル160を適用せずに補正するOBクランプ処理を実施する。このようにすることによって、例えば、クランプ値自体をメモリ162に保持する場合と比較して、メモリ162の面積を削減することが可能となる。さらに、クランプ値自体をメモリ162に保持する場合、フレーム毎にメモリ162にアクセスする必要がある。しかし本実施形態において、例えば、撮影条件を変えずに連続撮影する場合など、制御データの変更が必要ない場合は、メモリ162にアクセスする必要がなく、高フレームレートでの撮影が実現可能になる。 In the present embodiment, the control data generation unit 161 causes the trained model 160 to output the control data for generating the clamp value, instead of outputting the clamp value itself. Further, the signal processing unit 152 generates correction data based on the control data and the light-shielding image data of the light-shielding region 201, and does not apply the trained model 160 to the light-receiving image data of the light-receiving region 202 according to the correction data. The OB clamping process is performed to correct the data. By doing so, for example, it is possible to reduce the area of the memory 162 as compared with the case where the clamp value itself is held in the memory 162. Further, when the clamp value itself is held in the memory 162, it is necessary to access the memory 162 for each frame. However, in the present embodiment, when it is not necessary to change the control data, for example, when continuous shooting is performed without changing the shooting conditions, it is not necessary to access the memory 162, and shooting at a high frame rate becomes possible. ..

さらに、機械学習部151は、画像データを用いた機械学習によって学習済みモデル160を更新する学習部163をさらに含んでいてもよい。光電変換装置100での撮像を繰り返すことによって、学習部163は、例えば、撮像条件に対する取得した画像データの統計的な特徴を捉え、学習済みモデル160を更新してもよい。これによって、学習済みモデル160は、例えば、経年変化によるシミやムラの発生に適応できる。この場合の学習部163による機械学習は、教師なし学習と呼ばれうる。 Further, the machine learning unit 151 may further include a learning unit 163 that updates the trained model 160 by machine learning using image data. By repeating the imaging with the photoelectric conversion device 100, the learning unit 163 may, for example, capture the statistical characteristics of the acquired image data with respect to the imaging conditions and update the trained model 160. Thereby, the trained model 160 can be adapted to, for example, the occurrence of spots and unevenness due to aging. Machine learning by the learning unit 163 in this case can be called unsupervised learning.

図5は、本実施形態における機械学習モデルのニューラルネットワークの模式図である。ニューラルネットワークは、複数のノードを有する入力層と、複数のノードを有する中間層と、1個のノードを有する出力層と、を備えうる。入力層の各ノードには、画像データが入力される。中間層の各ノードは、入力層の各ノードに接続される。中間層の各ノードに入力された入力値の各要素は、中間層の各ノードにおける演算に用いられる。中間層の各ノードは、例えば、入力値の各ノードから入力された入力値と、所定の重み付け係数と、所定のバイアス値と、を用いて演算値を算出する。中間層の各ノードは、それぞれ出力層に接続され、算出した演算値を出力層のノードに出力する。出力層のノードは、中間層の各ノードから演算値が入力される。機械学習モデル(中間層)は、入力された画像データから、様々な撮像条件において、FPN成分を低減できるような制御データの導出を行う。これによって導出した制御データに基づいてOBクランプ処理を行えば、撮像条件やチップごとに異なるFPN成分やシェーディング成分だけではなく、経年変化にも適応した精度が高いOBクランプ処理が可能となる。結果として、本実施形態において、良好な画質を有する画像を取得することが可能となる。 FIG. 5 is a schematic diagram of a neural network of a machine learning model in this embodiment. The neural network may include an input layer having a plurality of nodes, an intermediate layer having a plurality of nodes, and an output layer having one node. Image data is input to each node of the input layer. Each node in the middle layer is connected to each node in the input layer. Each element of the input value input to each node of the intermediate layer is used for the operation at each node of the intermediate layer. Each node of the intermediate layer calculates a calculated value by using, for example, an input value input from each node of the input value, a predetermined weighting coefficient, and a predetermined bias value. Each node in the intermediate layer is connected to the output layer, and the calculated calculated value is output to the node in the output layer. For the nodes of the output layer, the calculated values are input from each node of the intermediate layer. The machine learning model (intermediate layer) derives control data from the input image data so that the FPN component can be reduced under various imaging conditions. If the OB clamping process is performed based on the control data derived in this way, it is possible to perform the OB clamping process with high accuracy adapted to not only the FPN component and shading component that differ depending on the imaging conditions and chips but also the secular variation. As a result, in the present embodiment, it is possible to acquire an image having good image quality.

第2の実施形態
図6を参照して、本開示の第2の実施形態による信号処理装置について説明する。図6は、本実施形態の信号処理装置150を備える光電変換装置600の構成例を示す図である。図1に示される信号処理装置150の機械学習部151に対して、本実施形態の信号処理装置150は、機械学習部651となっている点が上述の第1の実施形態と異なる。機械学習部651は、機械学習部151と比較して、光電変換装置600の外部から信号を取得するための信号線が追加されている。この機械学習部651の構成以外は、上述の第1の実施形態と同様であってもよいため、上述の第1の実施形態と異なる点について中心に説明し、同様であってもよい点に関しては適宜、説明を省略する。
Second Embodiment With reference to FIG. 6, the signal processing apparatus according to the second embodiment of the present disclosure will be described. FIG. 6 is a diagram showing a configuration example of a photoelectric conversion device 600 including the signal processing device 150 of the present embodiment. The signal processing device 150 of the present embodiment is different from the above-mentioned first embodiment in that the signal processing device 150 of the present embodiment is the machine learning unit 651 with respect to the machine learning unit 151 of the signal processing device 150 shown in FIG. Compared with the machine learning unit 151, the machine learning unit 651 has an additional signal line for acquiring a signal from the outside of the photoelectric conversion device 600. Other than the configuration of the machine learning unit 651, it may be the same as the first embodiment described above. Therefore, the points different from the first embodiment described above will be mainly described, and the same may be applied. Will omit the description as appropriate.

上述の第1の実施形態では学習済みモデル160を用いて、制御データ生成部161が画像データからチップごとや撮像条件に適合した制御データを導出することで、適切なOBクランプ処理が実施できることを示した。また、第1の実施形態では、学習部163が、教師なし学習を行ってもよいことを説明した。一方、本実施形態では、学習部163が、教師データを用いた機械学習を行うことによって学習済みモデル160を更新する。その上で、上述の第1の実施形態と同様に、制御データ生成部161が、学習済みモデル160を用いてOBクランプ処理において信号処理部152が使用する制御データを生成する。 In the first embodiment described above, the trained model 160 is used, and the control data generation unit 161 derives control data suitable for each chip and imaging conditions from the image data, so that appropriate OB clamping processing can be performed. Indicated. Further, in the first embodiment, it has been explained that the learning unit 163 may perform unsupervised learning. On the other hand, in the present embodiment, the learning unit 163 updates the trained model 160 by performing machine learning using the teacher data. Then, as in the first embodiment described above, the control data generation unit 161 generates the control data used by the signal processing unit 152 in the OB clamping process using the trained model 160.

より具体的には、本実施形態において、信号処理装置150(光電変換装置100)の外部から、画像データからFPN成分やシェーディング成分が除去されたデータが提供される。例えば、ユーザがFPN成分やシェーディング成分が除去されたデータを提供する。学習部163は、信号処理装置150の外部から提供される、画像データからノイズを低減したデータを教師データとして機械学習を行う。 More specifically, in the present embodiment, data from which the FPN component and the shading component are removed from the image data is provided from the outside of the signal processing device 150 (photoelectric conversion device 100). For example, the user provides data from which the FPN component and the shading component have been removed. The learning unit 163 performs machine learning using data in which noise is reduced from image data provided from the outside of the signal processing device 150 as teacher data.

例えば、制御データ生成部161が学習済みモデル160を用いて生成した制御データに基づいて信号処理部152が生成した補正用データと、同じ画像データや同じ撮像条件で得られた画像データからノイズを低減した教師データと、を学習部163は比較する。これによって、学習部163は、チップや撮像条件に適合した制御データを制御データ生成部161が学習済みモデル160を用いて生成できるように機械学習することができる。この比較結果に基づいて、学習部163は、学習済みモデル160を更新する。また、例えば、学習部163は、信号処理装置150の外部から入力される、画像データのノイズを低減可能な制御データ生成部161が出力する制御データに応じたデータを教師データとして機械学習を行ってもよい。 For example, noise is generated from the correction data generated by the signal processing unit 152 based on the control data generated by the control data generation unit 161 using the trained model 160, and the image data obtained under the same image data and the same imaging conditions. The learning unit 163 compares the reduced teacher data with the reduced teacher data. As a result, the learning unit 163 can perform machine learning so that the control data generation unit 161 can generate control data suitable for the chip and the imaging conditions by using the trained model 160. Based on this comparison result, the learning unit 163 updates the trained model 160. Further, for example, the learning unit 163 performs machine learning using data corresponding to the control data input from the outside of the signal processing device 150 and output by the control data generation unit 161 capable of reducing noise of the image data as teacher data. You may.

学習部163が実施する機械学習は、例えば、光電変換装置100の出荷前に行ってもよい。また、光電変換装置100を出荷した後に、例えば、光電変換装置100の起動時や終了時、また、バッテリを充電している間などに学習部163が機械学習を行ってもよい。さらに、ユーザや後述する光電変換システムの要求を受けて、随時、学習部163が機械学習を行っていってもよい。 The machine learning performed by the learning unit 163 may be performed, for example, before the photoelectric conversion device 100 is shipped. Further, after the photoelectric conversion device 100 is shipped, the learning unit 163 may perform machine learning, for example, at the time of starting or ending the photoelectric conversion device 100, or while charging the battery. Further, the learning unit 163 may perform machine learning at any time in response to a request from a user or a photoelectric conversion system described later.

また、上述の第1の実施形態、および、本実施形態において、学習部163は、機械学習部651に配されているが、これに限られることはない。例えば、学習部163は、信号処理部152に配されていてもよいし、機械学習部151および信号処理部152とは、別に配されていてもよい。 Further, in the first embodiment and the present embodiment described above, the learning unit 163 is arranged in the machine learning unit 651, but the present invention is not limited to this. For example, the learning unit 163 may be arranged in the signal processing unit 152, or may be arranged separately from the machine learning unit 151 and the signal processing unit 152.

本実施形態において、教師データを用いて機械学習を行う。これによって、適宜、更新される学習済みモデル160を用いて制御データ生成部161が生成した制御データに基づいてOBクランプ処理を行えば、撮像条件やチップごとに異なるFPN成分やシェーディング成分の低減を精度よく実施することができる。さらに、経年変化にも適応した精度が高いOBクランプ処理が可能となる。結果として、本実施形態において、良好な画質を有する画像を取得することが可能となる。 In this embodiment, machine learning is performed using teacher data. As a result, if the OB clamping process is performed based on the control data generated by the control data generation unit 161 using the trained model 160 that is updated as appropriate, the FPN component and shading component that differ depending on the imaging conditions and chips can be reduced. It can be carried out with high accuracy. Furthermore, it is possible to perform OB clamping processing with high accuracy that adapts to aging. As a result, in the present embodiment, it is possible to acquire an image having good image quality.

第3の実施形態
図7を参照して、本開示の第3の実施形態による信号処理装置について説明する。図7は、本実施形態の信号処理装置150を備える光電変換装置700の構成例を示す図である。図1に示される信号処理装置150の機械学習部151に対して、本実施形態の信号処理装置150は、機械学習部751となっている点が上述の第1の実施形態と異なる。機械学習部751は、機械学習部151と比較して、信号処理部152から信号を取得するための信号線が追加されている。また、機械学習部751は、解析部750をさらに含む。この機械学習部751の構成以外は、上述の第1の実施形態と同様であってもよいため、上述の第1の実施形態と異なる点について中心に説明し、同様であってもよい点に関しては適宜、説明を省略する。
Third Embodiment With reference to FIG. 7, the signal processing apparatus according to the third embodiment of the present disclosure will be described. FIG. 7 is a diagram showing a configuration example of a photoelectric conversion device 700 including the signal processing device 150 of the present embodiment. The signal processing device 150 of the present embodiment is different from the above-mentioned first embodiment in that the signal processing device 150 of the present embodiment is the machine learning unit 751 with respect to the machine learning unit 151 of the signal processing device 150 shown in FIG. Compared with the machine learning unit 151, the machine learning unit 751 has an additional signal line for acquiring a signal from the signal processing unit 152. Further, the machine learning unit 751 further includes an analysis unit 750. Other than the configuration of the machine learning unit 751, it may be the same as the first embodiment described above. Therefore, the points different from the first embodiment described above will be mainly described, and the same may be applied. Will omit the description as appropriate.

上述の第2の実施形態では信号処理装置150(光電変換装置100)の外部から受け取ったデータを教師データとして、学習部163は機械学習を行い、学習済みモデル160の更新を行うことを説明した。本実施形態では、制御データ生成部161が生成した制御データを用いて、信号処理部152がOBクランプ処理を行い、その結果を教師データにして学習を行う。より具体的には、制御データ生成部161が生成した制御データに基づいて信号処理部152が生成した補正用データのノイズの低減の程度を、解析部750が解析する。解析部750が、信号処理部152が生成した補正用データを解析し、OBクランプ処理の精度の良否(補正用データのノイズの低減の程度)を判定した結果を教師データとしてフィードバックし、学習部163が機械学習を行う。すなわち、本実施形態では、上述の第2の実施形態とは異なり、信号処理装置150の内部で、教師データが生成される。図7に示される、信号処理部152から機械学習部751への信号線は、信号処理部152によってOBクランプ処理が実施された補正画像データを解析部750に転送するために配されている。 In the second embodiment described above, it has been described that the learning unit 163 performs machine learning and updates the trained model 160 using the data received from the outside of the signal processing device 150 (photoelectric conversion device 100) as the teacher data. .. In the present embodiment, the signal processing unit 152 performs OB clamping processing using the control data generated by the control data generation unit 161 and uses the result as teacher data for learning. More specifically, the analysis unit 750 analyzes the degree of noise reduction of the correction data generated by the signal processing unit 152 based on the control data generated by the control data generation unit 161. The analysis unit 750 analyzes the correction data generated by the signal processing unit 152, feeds back the result of determining the accuracy of the OB clamp processing (the degree of noise reduction of the correction data) as teacher data, and feeds it back to the learning unit. 163 performs machine learning. That is, in the present embodiment, unlike the second embodiment described above, the teacher data is generated inside the signal processing device 150. The signal line from the signal processing unit 152 to the machine learning unit 751 shown in FIG. 7 is arranged to transfer the corrected image data to which the OB clamping process has been performed by the signal processing unit 152 to the analysis unit 750.

本実施形態における学習部163による機械学習は、強化学習と呼ばれうる。機械学習が、信号処理部152が受光画像データを補正用データに従って補正し、補正画像データを生成するごとに行われてもよい。教師データの数が増えることによって、OBクランプ処理の精度がより高くなる可能性がある。 Machine learning by the learning unit 163 in this embodiment can be called reinforcement learning. Machine learning may be performed every time the signal processing unit 152 corrects the received light image data according to the correction data and generates the corrected image data. As the number of teacher data increases, the accuracy of the OB clamping process may become higher.

解析部750が実施する、OBクランプ処理によるFPN成分の除去の程度を解析する方法の一例を以下に示す。入力された画像データに対し、解析部750は、遮光領域201の遮光画像データにおける任意の領域を設定する。ここで、この領域をFPN形状計算領域と称する。次いで、解析部750は、FPN形状計算領域の行ごと、列ごとの信号レベルの平均値を求め、平均値に対し、近似曲線を算出する。この近似曲線が、FPN形状を示す関数となる。ここで、FPN成分が完全に除去できた理想状態を近似曲線の傾きがゼロの状態とする。解析部750が算出した近似曲線と、理想状態の近似曲線の傾きをゼロとした関数と、の相関を求めることによって、FPN成分の低減の程度を判定することが可能となる。解析部750が解析したノイズの低減の程度は、学習部163に入力され教師データとして活用される。 An example of the method of analyzing the degree of removal of the FPN component by the OB clamping process carried out by the analysis unit 750 is shown below. With respect to the input image data, the analysis unit 750 sets an arbitrary area in the light-shielding image data of the light-shielding area 201. Here, this area is referred to as an FPN shape calculation area. Next, the analysis unit 750 obtains the average value of the signal levels for each row and each column in the FPN shape calculation area, and calculates an approximate curve with respect to the average value. This approximate curve becomes a function indicating the FPN shape. Here, the ideal state in which the FPN component can be completely removed is defined as the state in which the slope of the approximate curve is zero. By obtaining the correlation between the approximate curve calculated by the analysis unit 750 and the function in which the slope of the approximate curve in the ideal state is zero, it is possible to determine the degree of reduction of the FPN component. The degree of noise reduction analyzed by the analysis unit 750 is input to the learning unit 163 and utilized as teacher data.

本実施形態において、学習部163および解析部750は、機械学習部751に配されているが、これに限られることはない。例えば、学習部163および解析部750は、信号処理部152に配されていてもよいし、それぞれ機械学習部151および信号処理部152とは、別に配されていてもよい。また、学習部163と解析部750とが一体の構成となっていてもよい。ユーザが、様々な撮像条件で光電変換装置100を使用することで、幅広い教師データが得られ、より短期間での学習精度向上が見込まれる。 In the present embodiment, the learning unit 163 and the analysis unit 750 are arranged in the machine learning unit 751, but the present invention is not limited to this. For example, the learning unit 163 and the analysis unit 750 may be arranged in the signal processing unit 152, or may be arranged separately from the machine learning unit 151 and the signal processing unit 152, respectively. Further, the learning unit 163 and the analysis unit 750 may be integrated. When the user uses the photoelectric conversion device 100 under various imaging conditions, a wide range of teacher data can be obtained, and it is expected that the learning accuracy will be improved in a shorter period of time.

本実施形態において、信号処理装置150内において教師データを生成し機械学習を行う。これによって、適宜、更新される学習済みモデル160を用いて制御データ生成部161が生成した制御データに基づいてOBクランプ処理を行えば、撮像条件やチップごとに異なるFPN成分やシェーディング成分の低減を精度よく実施することができる。さらに、経年変化にも適応した精度が高いOBクランプ処理が可能となる。結果として、本実施形態において、良好な画質を有する画像を取得することが可能となる。 In the present embodiment, teacher data is generated in the signal processing device 150 and machine learning is performed. As a result, if the OB clamping process is performed based on the control data generated by the control data generation unit 161 using the trained model 160 that is updated as appropriate, the FPN component and shading component that differ depending on the imaging conditions and chips can be reduced. It can be carried out with high accuracy. Furthermore, it is possible to perform OB clamping processing with high accuracy that adapts to aging. As a result, in the present embodiment, it is possible to acquire an image having good image quality.

第4の実施形態
図8、9を参照して、本開示の第4の実施形態による信号処理装置について説明する。図8は、本実施形態の信号処理装置150を備える光電変換装置800の構成例を示す図である。図1に示される信号処理装置150の機械学習部151に対して、本実施形態の信号処理装置150は、機械学習部851となっている点が上述の第1の実施形態と異なる。機械学習部851は、機械学習部151と比較して、抽出部850をさらに含む。この機械学習部851の構成以外は、上述の第1の実施形態と同様であってもよいため、上述の第1の実施形態と異なる点について中心に説明し、同様であってもよい点に関しては適宜、説明を省略する。
Fourth Embodiment With reference to FIGS. 8 and 9, the signal processing apparatus according to the fourth embodiment of the present disclosure will be described. FIG. 8 is a diagram showing a configuration example of a photoelectric conversion device 800 including the signal processing device 150 of the present embodiment. The signal processing device 150 of the present embodiment is different from the above-mentioned first embodiment in that the signal processing device 150 of the present embodiment is the machine learning unit 851 with respect to the machine learning unit 151 of the signal processing device 150 shown in FIG. The machine learning unit 851 further includes an extraction unit 850 as compared with the machine learning unit 151. Other than the configuration of the machine learning unit 851, it may be the same as the first embodiment described above. Therefore, the points different from the first embodiment described above will be mainly described, and the same may be applied. Will omit the description as appropriate.

上述の第1の実施形態では、学習済みモデル160のニューラルネットワークの入力層の各ノードに画像データを入力することを説明した。本実施形態では、機械学習部851に抽出部850が配され、画像データから制御データの精度を向上させるための特徴量を抽出し、この抽出された特徴量を学習済みモデル160のニューラルネットワークの入力層の各ノードに入力する。上述の各実施形態のように画像データを学習済みモデル160のニューラルネットワークに入力するのではなく、画像データから抽出した特徴量の情報をニューラルネットワークに入力する。これによって、学習済みモデル160を用いて制御データ生成部161が信号処理部152に出力する制御データの精度が向上し、OBクランプ処理の精度が向上しうる。ここでは、学習済みモデル160に特徴量だけが入力されるとして説明するが、学習済みモデル160のニューラルネットワークに画像データと当該画像データの特徴量との両方が入力されてもよい。 In the first embodiment described above, it has been described that image data is input to each node of the input layer of the neural network of the trained model 160. In the present embodiment, the extraction unit 850 is arranged in the machine learning unit 851, the feature amount for improving the accuracy of the control data is extracted from the image data, and the extracted feature amount is used in the neural network of the trained model 160. Input to each node of the input layer. Instead of inputting the image data to the neural network of the trained model 160 as in each of the above-described embodiments, the information of the feature amount extracted from the image data is input to the neural network. As a result, the accuracy of the control data output by the control data generation unit 161 to the signal processing unit 152 using the trained model 160 can be improved, and the accuracy of the OB clamp processing can be improved. Here, it is described that only the feature amount is input to the trained model 160, but both the image data and the feature amount of the image data may be input to the neural network of the trained model 160.

図9は、本実施形態における、制御データを生成するためのプロセスである。図4に示されるプロセスと比較して、画像データの特徴量を抽出するためのS901のステップが追加されている。これ以外のステップは、図4に示されるステップと同様であってもよいため、説明を適宜、省略する。 FIG. 9 is a process for generating control data in the present embodiment. Compared with the process shown in FIG. 4, the step of S901 for extracting the feature amount of the image data is added. Since the steps other than this may be the same as the steps shown in FIG. 4, the description thereof will be omitted as appropriate.

S401で画像データの準備がなされると、ステップはS901に遷移し、抽出部850は、画像データから制御データの精度を向上させるための特徴量を抽出する。特徴量は、例えば、クランプ値生成領域の大きさを判断するための、遮光領域201の遮光画像データにおけるFPNのノイズの量であってもよい。また、例えば、特徴量は、クランプ値生成領域の場所を判断するための、遮光領域201の遮光画像データにおけるシェーディングの形状であってもよい。さらに、例えば、特徴量は、シェーディングへの追従性を判断するための、遮光領域201の遮光画像データにおけるシェーディング成分の大きさであってもよい。また、上述のように、シミやムラ、キズがある場合、クランプ値の精度が低下してしまう可能性がある。また、クランプ値生成領域内に段差がある場合にも、同様にクランプ値の精度が低下してしまう可能性がある。ここで、本実施形態における「段差」とは、ある行、または、ある列を境界に、信号値がオフセットを持った状態のことでありうる。したがって、特徴量は、例えば、遮光領域201の遮光画像データにおいて異常な信号値を出力する画素102の情報であってもよい。抽出部850は、特徴量として、これらのうち少なくとも1つの情報を学習済みモデル160に入力する。 When the image data is prepared in S401, the step shifts to S901, and the extraction unit 850 extracts the feature amount for improving the accuracy of the control data from the image data. The feature amount may be, for example, the amount of FPN noise in the light-shielding image data of the light-shielding region 201 for determining the size of the clamp value generation region. Further, for example, the feature amount may be a shading shape in the light-shielding image data of the light-shielding region 201 for determining the location of the clamp value generation region. Further, for example, the feature amount may be the size of the shading component in the light-shielding image data of the light-shielding region 201 for determining the shading followability. Further, as described above, if there are stains, unevenness, or scratches, the accuracy of the clamp value may decrease. Further, even if there is a step in the clamp value generation region, the accuracy of the clamp value may be similarly lowered. Here, the "step" in the present embodiment may be a state in which the signal value has an offset with a certain row or a certain column as a boundary. Therefore, the feature amount may be, for example, the information of the pixel 102 that outputs an abnormal signal value in the light-shielding image data of the light-shielding region 201. The extraction unit 850 inputs at least one of these pieces of information into the trained model 160 as a feature amount.

ここで、遮光領域201の遮光画像データにおけるFPNのノイズ量を導出する方法の一例を示す。撮像条件を揃えて取得した複数の画像データを用意する。これらの画像データの各画素値を時間方向に平均化処理を行う。この平均化処理によって、ランダムノイズ成分を除去することが可能となる。時間方向に平均化された画像データに対して遮光画像データの中で任意の領域を設定し、この領域内における標準偏差を算出する。この標準偏差が、遮光領域201の遮光画像データにおけるFPNのノイズ量となる。 Here, an example of a method for deriving the noise amount of FPN in the light-shielding image data of the light-shielding region 201 is shown. Prepare a plurality of image data acquired under the same imaging conditions. Each pixel value of these image data is averaged in the time direction. This averaging process makes it possible to remove random noise components. An arbitrary area is set in the light-shielded image data for the image data averaged in the time direction, and the standard deviation in this area is calculated. This standard deviation is the amount of FPN noise in the light-shielding image data of the light-shielding region 201.

遮光領域201の遮光画像データにおけるシェーディングの形状やシェーディング成分の大きさを導出する方法は、上述の第3の実施形態で解析部750が行う解析と同等である。したがって、ここでは説明を省略する。 The method of deriving the shading shape and the size of the shading component in the shading image data of the light-shielding region 201 is the same as the analysis performed by the analysis unit 750 in the third embodiment described above. Therefore, the description thereof is omitted here.

次いで、遮光領域201の遮光画像データにおけるシミやムラ、キズ、また、上述の段差など異常な信号値を出力する画素102の場所を導出する方法の一例を示す。遮光領域201の遮光画像データを任意の領域に分割する。この分割された領域のそれぞれに対し、領域内の信号レベルの平均値を取得する。その中で、ひとつ領域を選択し、選択された領域の信号レベルの平均値を用いて各領域の信号レベルの平均値を規格化する。その際に、平均値が他の領域に対してずれている領域が、シミやムラ、キズ、段差の原因となる画素102が配されている領域であると判定できる。また、例えば、出荷時に既知のシミやムラ、キズ、段差など異常な信号値を出力する画素102の情報は、メモリ162などに記憶されていてもよい。ここで、メモリ162に記憶される異常な信号値を出力する画素102の情報は、異常な信号値を出力する画素102の位置情報でもよいし、異常な信号値を出力する画素102の信号値のレベルでもよい。また、出荷後も、抽出部850などで抽出された異常な信号値を出力する画素102の情報が、メモリ162に記憶されてもよい。これによって、特徴量を抽出する際の抽出部850における計算量が抑制されうる。 Next, an example of a method of deriving the location of the pixel 102 that outputs an abnormal signal value such as a spot, unevenness, scratch, or the above-mentioned step in the light-shielding image data of the light-shielding region 201 will be shown. The light-shielding image data of the light-shielding area 201 is divided into arbitrary areas. For each of the divided regions, the average value of the signal levels in the region is acquired. Among them, one area is selected, and the average value of the signal level of each area is standardized by using the average value of the signal level of the selected area. At that time, it can be determined that the region where the average value deviates from the other regions is the region where the pixels 102 that cause spots, unevenness, scratches, and steps are arranged. Further, for example, the information of the pixel 102 that outputs an abnormal signal value such as a spot, unevenness, scratch, or step known at the time of shipment may be stored in a memory 162 or the like. Here, the information of the pixel 102 that outputs the abnormal signal value stored in the memory 162 may be the position information of the pixel 102 that outputs the abnormal signal value, or the signal value of the pixel 102 that outputs the abnormal signal value. Level may be used. Further, even after shipment, the information of the pixel 102 that outputs the abnormal signal value extracted by the extraction unit 850 or the like may be stored in the memory 162. As a result, the amount of calculation in the extraction unit 850 when extracting the feature amount can be suppressed.

抽出部850が特徴量を抽出すると、この特徴量を学習済みモデル160に入力する。次いで、S402~S404において、制御データ生成部161は、特徴量が入力された学習済みモデル160を用いて、信号処理部152がOBクランプ処理を行う際に使用する制御データを信号処理部152に出力する。画像データから導出したこれらの情報を基に、OBクランプ処理に必要な各設定値を決定する。次いで、S405において、信号処理部152は、S402~S404にて決定した制御データと遮光領域201の遮光画像データとに基づいて補正用データを生成し、受光領域202の受光画像データを補正データに従って補正するOBクランプ処理を実施する。 When the extraction unit 850 extracts the feature amount, the feature amount is input to the trained model 160. Next, in S402 to S404, the control data generation unit 161 transfers the control data used when the signal processing unit 152 performs the OB clamping process to the signal processing unit 152 by using the trained model 160 in which the feature amount is input. Output. Based on these information derived from the image data, each set value required for the OB clamping process is determined. Next, in S405, the signal processing unit 152 generates correction data based on the control data determined in S402 to S404 and the light-shielding image data of the light-shielding area 201, and the light-receiving image data of the light-receiving area 202 is according to the correction data. The OB clamping process for correction is performed.

本実施形態において、学習部163および抽出部850は、機械学習部851に配されているが、これに限られることはない。例えば、学習部163および抽出部850は、信号処理部152に配されていてもよいし、それぞれ機械学習部151および信号処理部152とは、別に配されていてもよい。 In the present embodiment, the learning unit 163 and the extraction unit 850 are arranged in the machine learning unit 851, but the present invention is not limited thereto. For example, the learning unit 163 and the extraction unit 850 may be arranged in the signal processing unit 152, or may be arranged separately from the machine learning unit 151 and the signal processing unit 152, respectively.

本実施形態では、画像データから抽出した特徴量を学習済みモデル160のニューラルネットワークに入力することによって、制御データ生成部161が制御データを生成する精度を向上させる。これによって、信号処理部152による、より適切なOBクランプ処理が可能となる。つまり、本実施形態においても、撮像条件やチップごとに異なるFPN成分やシェーディング成分の低減を精度よく実施することができる。さらに、経年変化にも適応した精度が高いOBクランプ処理が可能となる。結果として、本実施形態において、良好な画質を有する画像を取得することが可能となる。 In the present embodiment, the feature amount extracted from the image data is input to the neural network of the trained model 160 to improve the accuracy of the control data generation unit 161 to generate the control data. This enables more appropriate OB clamping processing by the signal processing unit 152. That is, also in this embodiment, it is possible to accurately reduce the FPN component and the shading component that differ depending on the imaging conditions and the chip. Furthermore, it is possible to perform OB clamping processing with high accuracy that adapts to aging. As a result, in the present embodiment, it is possible to acquire an image having good image quality.

ここまで説明した第1の実施形態から第4の実施形態は、それぞれ組み合わされていてもよい。例えば、信号処理装置150の外部から入力されるデータを教師データとして用いて学習済みモデル160が更新され、更新された学習済みモデル160に画像データの特徴量が入力されてもよい。また、例えば、信号処理装置150の外部から入力されるデータと、信号処理部152でOBクランプ処理を行った結果を解析したデータと、をそれぞれ教師データとして、学習済みモデル160が更新されてもよい。さらに、例えば、信号処理装置150の外部から入力されるデータと、信号処理部152でOBクランプ処理を行った結果を解析したデータと、をそれぞれ教師データとして、学習済みモデル160が更新され、更新された学習済みモデル160に画像データの特徴量が入力されてもよい。 The first to fourth embodiments described so far may be combined. For example, the trained model 160 may be updated using data input from the outside of the signal processing device 150 as teacher data, and the feature amount of the image data may be input to the updated trained model 160. Further, for example, even if the trained model 160 is updated, the data input from the outside of the signal processing device 150 and the data analyzed by the signal processing unit 152 for performing the OB clamping process are used as teacher data, respectively. good. Further, for example, the trained model 160 is updated and updated with the data input from the outside of the signal processing device 150 and the data analyzed by the signal processing unit 152 for performing the OB clamping process as teacher data, respectively. The feature amount of the image data may be input to the trained model 160.

このように、上述の各実施形態を組み合わせることによって、撮像条件やチップごとなどによって異なるFPN成分やシェーディング成分、経年変化に対して、より高い精度で適応した学習済みモデル160が得られる。これによって、高い精度のOBクランプ処理を実施可能な信号処理装置150が実現できる。また、本開示の信号処理装置150が組み込まれた光電変換装置100、600、700、800において、画質が高い画像を得ることが可能となる。 In this way, by combining each of the above-described embodiments, a trained model 160 that is adapted with higher accuracy to FPN components, shading components, and secular variation, which differ depending on imaging conditions, chips, and the like, can be obtained. This makes it possible to realize a signal processing device 150 capable of performing OB clamping processing with high accuracy. Further, in the photoelectric conversion devices 100, 600, 700, 800 incorporating the signal processing device 150 of the present disclosure, it is possible to obtain an image with high image quality.

その他の実施形態
上述の各実施形態で説明したOBクランプ処理を実施する信号処理装置150は、上述のように光電変換装置100の内部に設けられていてもよい。しかしながら、これに限られることはない。例えば、信号処理装置150は、光電変換装置100や光電変換部101とは別に配されていてもよい。信号処理装置150は、光電変換装置100とは別に配される、プロセッサ(例えば、CPUやMPU)を含むパソコンなどのコンピュータであってもよい。また、例えば、信号処理装置150は、上述の機能を実現するASICのような回路であってもよい。
Other Embodiments The signal processing apparatus 150 that carries out the OB clamping process described in each of the above-described embodiments may be provided inside the photoelectric conversion device 100 as described above. However, it is not limited to this. For example, the signal processing device 150 may be arranged separately from the photoelectric conversion device 100 and the photoelectric conversion unit 101. The signal processing device 150 may be a computer such as a personal computer including a processor (for example, a CPU or MPU), which is arranged separately from the photoelectric conversion device 100. Further, for example, the signal processing device 150 may be a circuit such as an ASIC that realizes the above-mentioned functions.

図10は、図1に示される光電変換装置100の各ブロックを半導体などの基板に配置した場合の配置例を示す図である。光電変換装置100は、シリコンなどの半導体を用いた基板1001と基板1002とを含んでいてもよい。基板1001に、信号処理装置150や垂直走査部103、制御部104、読出回路部105、AD変換部106、メモリ部107、水平走査部108などの各構成が配される。基板1002に、受光領域202および遮光領域201を備える画素102がアレイ状に並ぶ光電変換部101が配される。図10に示されるように、基板1001と基板1002との少なくとも一部が、積層されていてもよい。この構成によって、光電変換部101を含むアナログ部と、信号処理装置150を含むロジック部と、において、光電変換装置100を製造する際に、それぞれ適したプロセスを選択できるようになる。それぞれの構成に適切な製造プロセスを用いることによって、光電変換装置100に含まれる各構成において、良好な特性を得ることができるようになりうる。結果として、画質が向上した光電変換装置100が得られる。 FIG. 10 is a diagram showing an arrangement example when each block of the photoelectric conversion device 100 shown in FIG. 1 is arranged on a substrate such as a semiconductor. The photoelectric conversion device 100 may include a substrate 1001 and a substrate 1002 using a semiconductor such as silicon. Each configuration such as a signal processing device 150, a vertical scanning unit 103, a control unit 104, a reading circuit unit 105, an AD conversion unit 106, a memory unit 107, and a horizontal scanning unit 108 is arranged on the substrate 1001. On the substrate 1002, a photoelectric conversion unit 101 in which pixels 102 having a light receiving region 202 and a light shielding region 201 are arranged in an array is arranged. As shown in FIG. 10, at least a part of the substrate 1001 and the substrate 1002 may be laminated. With this configuration, in the analog unit including the photoelectric conversion unit 101 and the logic unit including the signal processing device 150, it becomes possible to select a suitable process when manufacturing the photoelectric conversion device 100. By using an appropriate manufacturing process for each configuration, it may be possible to obtain good characteristics in each configuration included in the photoelectric conversion device 100. As a result, the photoelectric conversion device 100 with improved image quality can be obtained.

図11は、上述の信号処理装置150が組み込まれた光電変換装置100、600、700、800の一例として撮像装置1100の構成を示している。撮像装置1100は、信号生成部1101、信号補正部1102、CPU1103、外部入力部1104、光学系1105、映像表示部1106、記録部1107、駆動系1108を含む。 FIG. 11 shows the configuration of the image pickup device 1100 as an example of the photoelectric conversion devices 100, 600, 700, and 800 in which the above-mentioned signal processing device 150 is incorporated. The image pickup apparatus 1100 includes a signal generation unit 1101, a signal correction unit 1102, a CPU 1103, an external input unit 1104, an optical system 1105, an image display unit 1106, a recording unit 1107, and a drive system 1108.

信号補正部1102は、上述の信号処理装置150でありうる。また、信号生成部1101は、上述の画素102を含む光電変換部101、垂直走査部103、制御部104、読出回路部105、AD変換部106、メモリ部107、水平走査部108などの各構成を含みうる。したがって、信号生成部1101と信号補正部1102とを含む構成は、上述の光電変換装置100、600、700、800でありうる。この構成において、信号生成部1101は、信号生成部1101単独で光電変換装置とも呼ばれうる。つまり、信号処理装置150は、上述したように、光電変換装置とは別に配されていてもよい。 The signal correction unit 1102 may be the signal processing device 150 described above. Further, the signal generation unit 1101 includes a photoelectric conversion unit 101 including the above-mentioned pixels 102, a vertical scanning unit 103, a control unit 104, a reading circuit unit 105, an AD conversion unit 106, a memory unit 107, a horizontal scanning unit 108, and the like. Can include. Therefore, the configuration including the signal generation unit 1101 and the signal correction unit 1102 may be the above-mentioned photoelectric conversion device 100, 600, 700, 800. In this configuration, the signal generation unit 1101 may also be referred to as a photoelectric conversion device by itself in the signal generation unit 1101. That is, as described above, the signal processing device 150 may be arranged separately from the photoelectric conversion device.

信号生成部1101の光電変換部101に光を入射させるための光学系1105よって入射した光に応じて、信号生成部1101は、光電変換を行いアナログの画像信号を生成し、AD変換することによって、画像データを出力する。出力された画像データは、映像表示部1106、記録部1107に出力、保存できるように信号補正部1102によって補正処理が行われる。補正処理の後の表示画像データを用いて映像表示部1106は、画像表示を行う。また、記録部1107は、表示画像データを保存する。CPU1103は、上述した、撮像装置1100における各構成の制御を行う。駆動系1108は、例えば、光学系1105のピントや絞りを動作させるために配される。外部入力部1104は、撮像の条件やシャッタの操作など、ユーザが入力・操作を行う各種ボタンなどでありうる。映像表示部1106としてタッチパネルが配され、映像表示部1106が、外部入力部1104(の一部)として機能してもよい。 In response to the light incident on the optical system 1105 for incident light on the photoelectric conversion unit 101 of the signal generation unit 1101, the signal generation unit 1101 performs photoelectric conversion to generate an analog image signal, and AD conversion is performed. , Output image data. The output image data is corrected by the signal correction unit 1102 so that it can be output and stored in the video display unit 1106 and the recording unit 1107. The image display unit 1106 displays an image using the display image data after the correction process. In addition, the recording unit 1107 stores the display image data. The CPU 1103 controls each configuration in the image pickup apparatus 1100 described above. The drive system 1108 is arranged, for example, to operate the focus and aperture of the optical system 1105. The external input unit 1104 may be various buttons for inputting and operating by the user, such as imaging conditions and shutter operation. A touch panel may be arranged as the image display unit 1106, and the image display unit 1106 may function as (a part of) the external input unit 1104.

撮像装置1100は、図11に示される構成の他に、例えば、温度計など、信号生成部1101で得られる画像などの他の環境の情報を得るための構成を備えていてもよい。例えば、信号処理装置150は、温度情報などの信号生成部1101(光電変換装置)では得られない情報も使用して機械学習を行い、学習済みモデル160を構築してもよい。撮像装置1100が使用される環境の様々な環境パラメータを用いることによって、撮影条件により適切に対応したOBクランプ処理を実施することが可能になりうる。結果として、撮像装置1100で得られる画像の画質が向上しうる。 In addition to the configuration shown in FIG. 11, the image pickup apparatus 1100 may have a configuration for obtaining information on other environments such as an image obtained by the signal generation unit 1101, such as a thermometer. For example, the signal processing device 150 may perform machine learning using information such as temperature information that cannot be obtained by the signal generation unit 1101 (photoelectric conversion device) to construct the trained model 160. By using various environmental parameters of the environment in which the image pickup apparatus 1100 is used, it may be possible to carry out the OB clamping process appropriately corresponding to the imaging conditions. As a result, the image quality of the image obtained by the image pickup apparatus 1100 can be improved.

図12は、複数の光電変換装置100、600、700、800と、光電変換装置100、600、700、800の外部のサーバ1201(例えば、クラウドサーバ)と通信するための通信部1202と、を備える光電変換システム1200の構成例を示す図である。通信部1202は、光電変換装置100、600、700、800が通信を行うための無線LANやBluetooth(登録商標)などの機能を有することによって実現されてもよい。また、通信部1202は、ユーザが光電変換装置100、600、700、800で取得可能な各種のデータをサーバ1201にアップロードまたはダウンロードするインターネットなどによって実現されてもよい。通信部1202は、光電変換装置100、600、700、800と、光電変換装置100、600、700、800の外部に配されたサーバ1201と、の間のデータの授受が行えれば、いかなる形態であってもよい。 FIG. 12 includes a plurality of photoelectric conversion devices 100, 600, 700, 800 and a communication unit 1202 for communicating with an external server 1201 (for example, a cloud server) of the photoelectric conversion devices 100, 600, 700, 800. It is a figure which shows the structural example of the photoelectric conversion system 1200 provided. The communication unit 1202 may be realized by having the photoelectric conversion devices 100, 600, 700, 800 have functions such as a wireless LAN and Bluetooth (registered trademark) for communicating. Further, the communication unit 1202 may be realized by the Internet or the like in which various data that can be acquired by the user with the photoelectric conversion devices 100, 600, 700, 800 are uploaded or downloaded to the server 1201. The communication unit 1202 may be in any form as long as it can exchange data between the photoelectric conversion devices 100, 600, 700, 800 and the server 1201 arranged outside the photoelectric conversion devices 100, 600, 700, 800. May be.

例えば、光電変換装置100、600、700、800の信号処理装置150の学習済みモデル160が、サーバ1201を介して、複数の光電変換装置100、600、700、800間で共有されてもよい。例えば、光電変換装置100、600、700、800が、通信部1202を介してサーバ1201に接続しているときに、信号処理装置150の学習部163は、機械学習を行い、学習済みモデル160を更新してもよい。 For example, the trained model 160 of the signal processing device 150 of the photoelectric conversion devices 100, 600, 700, 800 may be shared among a plurality of photoelectric conversion devices 100, 600, 700, 800 via the server 1201. For example, when the photoelectric conversion devices 100, 600, 700, and 800 are connected to the server 1201 via the communication unit 1202, the learning unit 163 of the signal processing device 150 performs machine learning to obtain the trained model 160. You may update it.

また、例えば、上述のように光電変換装置が信号処理装置150を備えず、サーバ1201に信号処理装置150が配されていてもよい。つまり、サーバ1201上に、機械学習によって生成された学習済みモデル160が配されていてもよい。 Further, for example, as described above, the photoelectric conversion device may not include the signal processing device 150, and the signal processing device 150 may be arranged in the server 1201. That is, the trained model 160 generated by machine learning may be arranged on the server 1201.

光電変換システム1200が、このような構成を備えることで、複数の光電変換装置(例えば、光電変換装置100、600、700、800)からの情報を使って学習済みモデル160の更新を行うことが可能となる。つまり、多くの幅広い撮像条件で撮像を行うユーザによって使用される光電変換装置が、光電変換システム1200のサーバ1201に接続される。これによって、例えば、短期間に多くの教師データを取得することが可能となる。結果として、OBクランプ処理の精度がより一層向上し、それぞれの光電変換装置で撮像された画像のより一層の高画質化が可能となる。 By providing such a configuration, the photoelectric conversion system 1200 can update the trained model 160 by using information from a plurality of photoelectric conversion devices (for example, photoelectric conversion devices 100, 600, 700, 800). It will be possible. That is, a photoelectric conversion device used by a user who performs imaging under many wide-ranging imaging conditions is connected to the server 1201 of the photoelectric conversion system 1200. This makes it possible to acquire a large amount of teacher data in a short period of time, for example. As a result, the accuracy of the OB clamping process is further improved, and the image quality captured by each photoelectric conversion device can be further improved.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワークまたは各種の記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータにおける1つ以上のプロセッサ(例えば、CPUやMPU。)がプログラムを読み出して実行する処理である。また、1つ以上の機能を実現する回路(例えば、ASIC。)によっても実現可能である。 The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to a system or device via a network or various storage media, and one or more processors (for example, a CPU or a CPU) in the computer of the system or device. MPU.) Is a process to read and execute a program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiment, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to publicize the scope of the invention.

150:信号処理装置、152:信号処理部、160:学習済みモデル、161:制御データ生成部、201:遮光領域、202:受光領域 150: Signal processing device, 152: Signal processing unit, 160: Trained model, 161: Control data generation unit, 201: Light-shielding area, 202: Light-receiving area

Claims (17)

受光領域および遮光領域を備える光電変換部から出力される画像データを処理する信号処理装置であって、
機械学習によって生成された学習済みモデルを用いて前記画像データの補正のための補正用データの生成に用いる制御データを出力する制御データ生成部と、
前記画像データのうち前記遮光領域の画像データである遮光画像データと前記制御データとに基づいて前記補正用データを生成し、前記画像データのうち前記受光領域の画像データである受光画像データを前記補正用データに従って、前記学習済みモデルを適用せずに補正する信号処理部と、
を含むことを特徴とする信号処理装置。
A signal processing device that processes image data output from a photoelectric conversion unit having a light receiving area and a light blocking area.
A control data generation unit that outputs control data used to generate correction data for correction of the image data using the trained model generated by machine learning.
The correction data is generated based on the light-shielding image data which is the image data of the light-shielding region and the control data of the image data, and the light-receiving image data which is the image data of the light-receiving region of the image data is used. A signal processing unit that corrects without applying the trained model according to the correction data,
A signal processing device comprising.
前記学習済みモデルに、前記画像データが入力されることを特徴とする請求項1に記載の信号処理装置。 The signal processing device according to claim 1, wherein the image data is input to the trained model. 前記画像データから前記制御データの精度を向上させるための特徴量を抽出する抽出部をさらに含み、
前記学習済みモデルに、前記特徴量が入力されることを特徴とする請求項1または2に記載の信号処理装置。
It further includes an extraction unit that extracts a feature amount for improving the accuracy of the control data from the image data.
The signal processing device according to claim 1 or 2, wherein the feature amount is input to the trained model.
前記特徴量が、前記遮光画像データにおける固定パターンノイズの量、前記遮光画像データにおけるシェーディングの形状、前記遮光画像データにおけるシェーディング成分の大きさ、前記遮光画像データにおいて異常な信号値を出力する画素の情報のうち少なくとも1つを含むことを特徴とする請求項3に記載の信号処理装置。 The feature amount is the amount of fixed pattern noise in the light-shielding image data, the shape of shading in the light-shielding image data, the size of the shading component in the light-shielding image data, and the pixel that outputs an abnormal signal value in the light-shielding image data. The signal processing apparatus according to claim 3, wherein the signal processing apparatus includes at least one of the information. 前記画像データを用いた機械学習によって前記学習済みモデルを更新する学習部をさらに含むことを特徴とする請求項1乃至4の何れか1項に記載の信号処理装置。 The signal processing apparatus according to any one of claims 1 to 4, further comprising a learning unit that updates the trained model by machine learning using the image data. 前記学習部が、前記信号処理装置の外部から提供される、前記画像データからノイズを低減したデータを教師データとして機械学習を行うことによって、前記学習済みモデルを更新することを特徴とする請求項5に記載の信号処理装置。 The claim is characterized in that the learning unit updates the trained model by performing machine learning using data obtained by reducing noise from the image data provided from the outside of the signal processing device as teacher data. 5. The signal processing apparatus according to 5. 前記学習部が、前記信号処理装置の外部から提供される、前記画像データのノイズを低減可能な前記制御データに応じたデータを教師データとして機械学習を行うことによって、前記学習済みモデルを更新することを特徴とする請求項5または6に記載の信号処理装置。 The learning unit updates the trained model by performing machine learning using data corresponding to the control data provided from the outside of the signal processing device, which can reduce the noise of the image data, as teacher data. The signal processing apparatus according to claim 5 or 6. 前記制御データに基づいて生成された前記補正用データのノイズの低減の程度を解析する解析部をさらに含み、
前記学習部が、前記解析部が解析した前記補正用データのノイズの低減の程度を教師データとして機械学習を行うことによって、前記学習済みモデルを更新することを特徴とする請求項5乃至7の何れか1項に記載の信号処理装置。
It further includes an analysis unit that analyzes the degree of noise reduction of the correction data generated based on the control data.
Claims 5 to 7 are characterized in that the learning unit updates the trained model by performing machine learning using the degree of noise reduction of the correction data analyzed by the analysis unit as teacher data. The signal processing device according to any one item.
前記機械学習が、前記信号処理部が前記補正用データを生成するごとに行われることを特徴とする請求項8に記載の信号処理装置。 The signal processing apparatus according to claim 8, wherein the machine learning is performed every time the signal processing unit generates the correction data. 前記制御データが、前記遮光画像データのうち前記補正用データを生成する領域の大きさの情報、前記遮光画像データのうち前記補正用データを生成する領域の場所の情報、および、前記補正用データを生成する際のシェーディングに対する追随性の情報のうち少なくとも1つを含む請求項1乃至9の何れか1項に記載の信号処理装置。 The control data includes information on the size of an area of the light-shielded image data for generating the correction data, information on the location of the area of the light-shielded image data for generating the correction data, and the correction data. The signal processing apparatus according to any one of claims 1 to 9, which includes at least one of information on followability to shading when generating the data. 請求項1乃至10の何れか1項に記載の信号処理装置と、
受光領域および遮光領域を備え、前記信号処理装置によって処理される画像データを出力する光電変換部と、
を備えることを特徴とする光電変換装置。
The signal processing device according to any one of claims 1 to 10.
A photoelectric conversion unit having a light receiving area and a light blocking area and outputting image data processed by the signal processing device, and a photoelectric conversion unit.
A photoelectric conversion device characterized by being provided with.
前記光電変換装置は、第1基板と第2基板とを含み、
前記第1基板に前記信号処理装置が配され、前記第2基板に前記光電変換部が配されることを特徴とする請求項11に記載の光電変換装置。
The photoelectric conversion device includes a first substrate and a second substrate, and includes the first substrate and the second substrate.
The photoelectric conversion device according to claim 11, wherein the signal processing device is arranged on the first substrate, and the photoelectric conversion unit is arranged on the second board.
前記第1基板と前記第2基板との少なくとも一部が、積層されていることを特徴とする請求項12に記載の光電変換装置。 The photoelectric conversion device according to claim 12, wherein at least a part of the first substrate and the second substrate are laminated. 請求項11乃至13の何れか1項に記載の光電変換装置と、
前記光電変換装置の外部のサーバと通信するための通信部と、
を備える光電変換システムであって、
前記学習済みモデルが、前記光電変換装置とは別の光電変換装置の学習済みモデルと前記サーバを介して共有されることを特徴とする光電変換システム。
The photoelectric conversion device according to any one of claims 11 to 13.
A communication unit for communicating with an external server of the photoelectric conversion device, and
It is a photoelectric conversion system equipped with
A photoelectric conversion system characterized in that the trained model is shared with a trained model of a photoelectric conversion device different from the photoelectric conversion device via the server.
請求項1乃至10の何れか1項に記載の信号処理装置と、
受光領域および遮光領域を備え、前記信号処理装置によって処理される画像データを出力する光電変換部をそれぞれが備える複数の光電変換装置と、
前記信号処理装置と前記複数の光電変換装置との間の通信を行う通信部と、
を含む光電変換システム。
The signal processing device according to any one of claims 1 to 10.
A plurality of photoelectric conversion devices each having a light receiving area and a light blocking area and each having a photoelectric conversion unit for outputting image data processed by the signal processing device.
A communication unit that communicates between the signal processing device and the plurality of photoelectric conversion devices, and
Photoelectric conversion system including.
受光領域および遮光領域を備える光電変換部から出力される画像データを処理する信号処理装置の制御方法であって、
機械学習によって生成された学習済みモデルを用いて前記画像データの補正に用いる制御データを出力する工程と、
前記画像データのうち前記遮光領域の画像データである遮光画像データと前記制御データとに基づいて補正用データを生成する工程と、
前記画像データのうち前記受光領域の画像データである受光画像データを前記補正用データに従って補正する工程と、
を含むことを特徴とする信号処理装置の制御方法。
It is a control method of a signal processing device that processes image data output from a photoelectric conversion unit having a light receiving area and a light blocking area.
A process of outputting control data used for correction of the image data using a trained model generated by machine learning, and
A step of generating correction data based on the light-shielding image data which is the image data of the light-shielding region and the control data among the image data,
A step of correcting the light-receiving image data, which is the image data of the light-receiving region among the image data, according to the correction data, and
A method for controlling a signal processing device, which comprises.
請求項16に記載の信号処理装置の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method of the signal processing apparatus according to claim 16.
JP2021113140A 2020-09-24 2021-07-07 Signal processing device, photoelectric conversion device, photoelectric conversion system, control method of signal processing device and program Pending JP2022053481A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/481,550 US11582414B2 (en) 2020-09-24 2021-09-22 Signal processing apparatus, photoelectric conversion apparatus, photoelectric conversion system, control method of signal processing apparatus, and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020160011 2020-09-24
JP2020160011 2020-09-24

Publications (1)

Publication Number Publication Date
JP2022053481A true JP2022053481A (en) 2022-04-05

Family

ID=80963000

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021113140A Pending JP2022053481A (en) 2020-09-24 2021-07-07 Signal processing device, photoelectric conversion device, photoelectric conversion system, control method of signal processing device and program

Country Status (1)

Country Link
JP (1) JP2022053481A (en)

Similar Documents

Publication Publication Date Title
US20200351464A1 (en) Image sensor
JP5852324B2 (en) Imaging apparatus, control method therefor, and program
US9065988B2 (en) Image pickup apparatus including image pickup element having image pickup pixel and focus detection pixel and signal processing method
CN102870404B (en) Imaging device and dark current correction method of same
JP5959834B2 (en) Imaging device
JP4396425B2 (en) Solid-state imaging device and signal processing method
JP2013009190A (en) Imaging device and driving method thereof
JP6779038B2 (en) Image sensor and its control method, image sensor and its control method
JP5207926B2 (en) Imaging apparatus and control method thereof
US20100245590A1 (en) Camera sensor system self-calibration
JP5489739B2 (en) Signal processing apparatus, imaging apparatus, and signal processing method
JP2022053481A (en) Signal processing device, photoelectric conversion device, photoelectric conversion system, control method of signal processing device and program
US20220337768A1 (en) Signal processing apparatus, photoelectric conversion apparatus, image capturing system, and control method of signal processing apparatus
US11582414B2 (en) Signal processing apparatus, photoelectric conversion apparatus, photoelectric conversion system, control method of signal processing apparatus, and non-transitory computer-readable storage medium
JP5222029B2 (en) IMAGING DEVICE, IMAGING SYSTEM, AND IMAGING DEVICE CONTROL METHOD
JP7134786B2 (en) Imaging device and control method
JP2018160740A (en) Signal processing circuit, imaging device, and signal processing method
JP2017142484A (en) Imaging device, controlling method of the same, program and storage medium
JP2013102288A (en) Imaging apparatus and control method of the same
JP5720213B2 (en) Imaging device
JP2017076875A (en) Imaging apparatus and method for correcting imaging apparatus
JP5129650B2 (en) Imaging device
US11399146B2 (en) Method for correcting defects and in particular for reducing noise in an image provided by an image sensor
JP7490939B2 (en) Imaging device
JP2018133685A (en) Imaging device, control method of the same, control program, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240701