JP6456466B2 - Image sensor and image sensor control method - Google Patents

Image sensor and image sensor control method Download PDF

Info

Publication number
JP6456466B2
JP6456466B2 JP2017231499A JP2017231499A JP6456466B2 JP 6456466 B2 JP6456466 B2 JP 6456466B2 JP 2017231499 A JP2017231499 A JP 2017231499A JP 2017231499 A JP2017231499 A JP 2017231499A JP 6456466 B2 JP6456466 B2 JP 6456466B2
Authority
JP
Japan
Prior art keywords
image
signal
signal processing
processing unit
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017231499A
Other languages
Japanese (ja)
Other versions
JP2018042284A (en
Inventor
哲也 秦
哲也 秦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017231499A priority Critical patent/JP6456466B2/en
Publication of JP2018042284A publication Critical patent/JP2018042284A/en
Application granted granted Critical
Publication of JP6456466B2 publication Critical patent/JP6456466B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、イメージセンサー及びイメージセンサーの制御方法に関する。   The present invention relates to an image sensor and a method for controlling the image sensor.

撮像装置での撮像において、画像信号の中から、特定の条件を満たす部分領域や特定の被写体を検出し、その検出結果に基づいて画像信号に対する画像処理を制御する技術が知られている。特許文献1では、画像信号の中から、人物の顔とその向いている方向を検出する方法に関して、顔検出用の顔検出テンプレートを用いて顔の向きを粗く分類した後に、主成分分析を用いた固有ベクトルの算出に基づいて詳細に顔の向きを計算する技術が開示されている。また、特許文献2では、二色性反射モデルに基づいて画像信号の中から鏡面反射成分を抽出し、撮影環境における光源の色温度推定を行う方法に関して、画素値の差分を用いて鏡面反射成分を抽出する技術が開示されている。   A technique for detecting a partial region or a specific subject satisfying a specific condition from an image signal and controlling image processing on the image signal based on the detection result is known. In Patent Document 1, regarding a method of detecting a human face and its direction from an image signal, a principal component analysis is used after roughly classifying the face direction using a face detection template for face detection. A technique for calculating the face orientation in detail based on the calculated eigenvector is disclosed. Further, in Patent Document 2, a method of extracting a specular reflection component from an image signal based on a dichroic reflection model and estimating a color temperature of a light source in a shooting environment, using a difference in pixel values, the specular reflection component. A technique for extracting the above is disclosed.

特開2003−141551号公報JP 2003-141551 A 特開2007−13415号公報JP 2007-13415 A

上述の特許文献1の技術によれば、計算量が少なく精度の低い検出と、計算量が多く精度が高い検出方法を組み合わせることにより、高い精度で画像中の顔に関する情報を取得する事ができる。しかしながら、顔の検出結果に基づいて、画像信号の色や輝度の補正処理など画像処理を行う場合、従来の技術では、顔の検出処理が完了するまで画像処理の開始を待つ必要があり、処理のタイムラグが生じる。特に、上述の特許文献1のような2段階での検出方法を用いる場合、処理時間が長くなるという課題がある。   According to the technique of the above-mentioned patent document 1, information relating to a face in an image can be acquired with high accuracy by combining detection with a small amount of calculation and low accuracy and a detection method with a large amount of calculation and high accuracy. . However, when image processing such as image signal color and brightness correction processing is performed based on the face detection result, in the conventional technology, it is necessary to wait for the start of image processing until the face detection processing is completed. Time lag occurs. In particular, when a two-stage detection method such as that described in Patent Document 1 is used, there is a problem that the processing time becomes long.

上述の特許文献2の場合も同様であり、画像信号に対するホワイトバランス補正を行うためには、画像信号の中から鏡面反射成分を抽出する処理が完了するのを待つ必要があり、処理のタイムラグが生じる場合がある。更に、顔の検出処理の場合と同様、鏡面反射成分の抽出を粗く高速な処理と高精度で処理量の大きい処理とを組み合わせて行う場合では、処理のタイムラグが大きくなる場合がある。   The same applies to the case of the above-mentioned Patent Document 2. In order to perform white balance correction on the image signal, it is necessary to wait for the process of extracting the specular reflection component from the image signal to be completed, and the processing time lag is reduced. May occur. Furthermore, as in the case of face detection processing, when extracting specular reflection components in combination with rough and high-speed processing and processing with high accuracy and a large amount of processing, the processing time lag may increase.

本発明の目的は、第1の信号処理部の処理結果を基に信号処理する際に、第1の信号処理部の処理結果の待ち時間を短縮することができるイメージセンサー及びイメージセンサーの制御方法を提供することである。   An object of the present invention is to provide an image sensor and an image sensor control method capable of reducing the waiting time of the processing result of the first signal processing unit when performing signal processing based on the processing result of the first signal processing unit. Is to provide.

本発明のイメージセンサーは、イメージセンサー層と信号処理層が積層されたイメージセンサーであって、前記イメージセンサー層に含まれ、光像を画像信号に変換する複数の画素と、前記信号処理層に含まれ、前記画像信号を基に画像領域の位置特定する第1の信号処理部と、前記画像信号を外部装置に含まれる第2の信号処理部に出力する第1の出力端子と、前記第2の信号処理部内の処理のために、前記第1の信号処理部が特定した前記画像領域の位置に係る出力領域情報を前記第2の信号処理部に出力する第2の出力端子と、前記第1の信号処理部のための設定データを入力する第1の入力端子とを有するThe image sensor of the present invention is an image sensor in which an image sensor layer and a signal processing layer are stacked, and is included in the image sensor layer, and includes a plurality of pixels that convert an optical image into an image signal, and the signal processing layer. A first signal processing unit that identifies a position of an image region based on the image signal; a first output terminal that outputs the image signal to a second signal processing unit included in an external device; A second output terminal for outputting, to the second signal processing unit, output region information relating to the position of the image region specified by the first signal processing unit for processing in the second signal processing unit ; to have a first input terminal for inputting a setting data for said first signal processing unit.

第2の信号処理部の処理と、第1の信号処理部の処理とを並行させることができるので、全体の処理時間を短縮することができる。   Since the processing of the second signal processing unit and the processing of the first signal processing unit can be performed in parallel, the overall processing time can be shortened.

第1の実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on 1st Embodiment. 第1の実施形態に係る積層センサーの構成を示すブロック図である。It is a block diagram which shows the structure of the lamination | stacking sensor which concerns on 1st Embodiment. 第1の実施形態に係る積層センサーの画素部の構成を示す図である。It is a figure which shows the structure of the pixel part of the lamination | stacking sensor which concerns on 1st Embodiment. 第1の実施形態に係る画像処理の流れを示す図である。It is a figure which shows the flow of the image processing which concerns on 1st Embodiment. 第1の実施形態に係る鏡面反射成分の抽出方法を説明する図である。It is a figure explaining the extraction method of the specular reflection component which concerns on 1st Embodiment. 第2の実施形態に係る撮像装置の構成を示すブロック図である。It is a block diagram which shows the structure of the imaging device which concerns on 2nd Embodiment. 第2の実施形態に係る画像処理の流れを示す図である。It is a figure which shows the flow of the image processing which concerns on 2nd Embodiment. 第2の実施形態に係る画像処理の流れを示す図である。It is a figure which shows the flow of the image processing which concerns on 2nd Embodiment.

(第1の実施形態)
以下、図1〜図5を参照して、本発明の第1の実施形態に係る撮像装置について説明する。第1の実施形態として、画像信号の中から鏡面反射成分を抽出した結果に基づいて光源推定を行い、ホワイトバランス補正を実行する撮像装置を例に取って説明する。
(First embodiment)
The imaging apparatus according to the first embodiment of the present invention will be described below with reference to FIGS. As the first embodiment, an imaging apparatus that performs white balance correction by performing light source estimation based on a result of extracting a specular reflection component from an image signal will be described as an example.

図1は、本発明の第1の実施形態に係る撮像装置の構成例を示すブロック図である。撮像装置100は、撮像光学系101、積層センサー110、画像処理ロジック部120、表示部132、操作部133及び外部メモリ134を有する。110は、光学像を画像信号に変換するイメージセンサー111と後述する画像処理部とを同一パッケージ内に構成した積層センサーである。120は、積層センサー110から出力される画像信号に対する画像処理を行う画像処理ロジック部である。131は画像データを記録する記録媒体、132はユーザに画像を呈示する表示部、133はユーザからの操作を受け付ける操作部、134は外部メモリである。S101は撮像画像信号、S102は鏡面反射候補領域情報、S103はカメラ信号処理設定データ、S104は記録画像信号、S105は表示画像信号、S106はユーザ指示入力信号、S107は外部メモリR/W情報である。   FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to the first embodiment of the present invention. The imaging apparatus 100 includes an imaging optical system 101, a stacked sensor 110, an image processing logic unit 120, a display unit 132, an operation unit 133, and an external memory 134. Reference numeral 110 denotes a stacked sensor in which an image sensor 111 that converts an optical image into an image signal and an image processing unit that will be described later are configured in the same package. An image processing logic unit 120 performs image processing on an image signal output from the stacked sensor 110. 131 is a recording medium for recording image data, 132 is a display unit for presenting an image to the user, 133 is an operation unit for receiving an operation from the user, and 134 is an external memory. S101 is a captured image signal, S102 is specular reflection candidate area information, S103 is camera signal processing setting data, S104 is a recording image signal, S105 is a display image signal, S106 is a user instruction input signal, and S107 is external memory R / W information. is there.

積層センサー110は、下記の構成要素を有する。111は光学像を画像信号に変換するイメージセンサー、112は撮像画像出力部である。113は、画像信号の中から鏡面反射成分が含まれている可能性のある領域を抽出する鏡面反射候補領域抽出部(第1の画像処理部)である。114は鏡面反射候補領域情報出力部、115は制御信号入力部である。S111はセンサー読み出し信号a、S112はセンサー読み出し信号b、S113は鏡面反射候補領域情報、S114はセンサー駆動設定信号、S115は鏡面反射抽出設定信号である。   The laminated sensor 110 has the following components. Reference numeral 111 denotes an image sensor that converts an optical image into an image signal, and reference numeral 112 denotes a captured image output unit. Reference numeral 113 denotes a specular reflection candidate region extraction unit (first image processing unit) that extracts a region that may contain a specular reflection component from the image signal. 114 is a specular reflection candidate area information output unit, and 115 is a control signal input unit. S111 is a sensor readout signal a, S112 is a sensor readout signal b, S113 is specular reflection candidate area information, S114 is a sensor drive setting signal, and S115 is a specular reflection extraction setting signal.

画像処理ロジック部120は、下記の構成要素を有する。121は撮像画像入力部、122は現像処理部(第2の画像処理部)、123は鏡面反射候補領域情報入力部、124は鏡面反射抽出部、125は制御信号出力部、126はシステム制御部である。S121は現像処理入力画像信号、S122は鏡面反射候補領域情報、S123はカメラ信号処理設定情報、S124はホワイトバランスゲイン情報である。   The image processing logic unit 120 includes the following components. 121 is a captured image input unit, 122 is a development processing unit (second image processing unit), 123 is a specular reflection candidate area information input unit, 124 is a specular reflection extraction unit, 125 is a control signal output unit, and 126 is a system control unit. It is. S121 is a development processing input image signal, S122 is specular reflection candidate area information, S123 is camera signal processing setting information, and S124 is white balance gain information.

図2は、積層センサー110の構成例を示すブロック図である。202a及び202bは、それぞれ、撮像画像出力部112及び鏡面反射候補領域抽出部113へ出力する画像信号を選択するための行走査回路(制御部)a及び行走査回路(制御部)bである。203a及び203bは、アナログ信号をデジタル信号に変換するカラムADC(アナログデジタル変換器)である。204は各列の走査を行う列操作回路である。   FIG. 2 is a block diagram illustrating a configuration example of the stacked sensor 110. 202a and 202b are a row scanning circuit (control unit) a and a row scanning circuit (control unit) b for selecting image signals to be output to the captured image output unit 112 and the specular reflection candidate area extraction unit 113, respectively. 203a and 203b are column ADCs (analog-digital converters) that convert analog signals into digital signals. A column operation circuit 204 scans each column.

イメージセンサー111は、2次元行列状に配置されている複数の画素211を有する。212aは転送信号線aであり、213aはリセット信号線aである。214aは行選択信号線aであり、行走査回路202aによる制御に従って、画素211からの画像信号の読み出しを行う。読み出した画像信号は、後述するように列信号線215aへ出力される。212bは転送信号線bであり、213bはリセット信号線bである。214bは行選択信号線bであり、行走査回路202bによる制御に従って、画素211からの画像信号の読み出しを行う。読み出した画像信号は、後述するように列信号線215bへ出力される。   The image sensor 111 has a plurality of pixels 211 arranged in a two-dimensional matrix. Reference numeral 212a denotes a transfer signal line a, and reference numeral 213a denotes a reset signal line a. A row selection signal line a 214a reads an image signal from the pixel 211 under the control of the row scanning circuit 202a. The read image signal is output to the column signal line 215a as described later. 212b is a transfer signal line b, and 213b is a reset signal line b. A row selection signal line b 214b reads an image signal from the pixel 211 in accordance with control by the row scanning circuit 202b. The read image signal is output to the column signal line 215b as will be described later.

215aは列信号線aであり、カラムADC203aを介して撮像画像出力部112へセンサー読み出し信号S111を出力する。215bは列信号線bであり、カラムADC203bを介して、鏡面反射候補領域抽出部113へセンサー読み出し信号S112を出力する。図示の通り、転送信号線212a、リセット信号線213a、行選択信号線214a、列信号線215aは、全ての画素211へ接続されている。一方、転送信号線212b、リセット信号線213b、行選択信号線214b、列信号線215bは、一部の画素211のみに接続されている。即ち、撮像画像出力部112へ出力されるセンサー読み出し信号S111に対して、鏡面反射候補領域抽出部113へ出力されるセンサー読み出し信号S112は間引かれた状態である。例えば、センサー読み出し信号S111は、水平4096画素、垂直2160画素である。センサー読み出し信号b(S112)は、水平400画素、垂直216画素に間引かれたものである。   A column signal line a 215a outputs a sensor read signal S111 to the captured image output unit 112 via the column ADC 203a. A column signal line b 215b outputs a sensor read signal S112 to the specular reflection candidate area extraction unit 113 via the column ADC 203b. As illustrated, the transfer signal line 212a, the reset signal line 213a, the row selection signal line 214a, and the column signal line 215a are connected to all the pixels 211. On the other hand, the transfer signal line 212b, the reset signal line 213b, the row selection signal line 214b, and the column signal line 215b are connected to only some of the pixels 211. That is, the sensor readout signal S112 output to the specular reflection candidate area extraction unit 113 is thinned out with respect to the sensor readout signal S111 output to the captured image output unit 112. For example, the sensor readout signal S111 is horizontal 4096 pixels and vertical 2160 pixels. The sensor readout signal b (S112) is thinned out to horizontal 400 pixels and vertical 216 pixels.

行走査回路202a,202bとイメージセンサー111とカラムADC203a,203bと鏡面反射候補領域抽出部113と列操作回路204と鏡面反射候補領域情報出力部114と撮像画像出力部112は、同一の半導体チップ内に形成される。イメージセンサー111と鏡面反射候補領域抽出部113は、相互に、積層して配置されている。即ち、イメージセンサー111が光入射側に、鏡面反射候補領域抽出部113がその裏側に配置され、相互に電気的に接続されている。これにより、イメージセンサー111が鏡面反射候補領域抽出部113に画像信号を出力する速度は、イメージセンサー111が現像処理部122に画像信号を出力速度より高速にすることができる。   The row scanning circuits 202a and 202b, the image sensor 111, the column ADCs 203a and 203b, the specular reflection candidate area extraction unit 113, the column operation circuit 204, the specular reflection candidate area information output unit 114, and the captured image output unit 112 are included in the same semiconductor chip. Formed. The image sensor 111 and the specular reflection candidate area extraction unit 113 are arranged in a stacked manner. That is, the image sensor 111 is disposed on the light incident side, and the specular reflection candidate area extraction unit 113 is disposed on the back side thereof, and is electrically connected to each other. Thereby, the speed at which the image sensor 111 outputs the image signal to the specular reflection candidate area extraction unit 113 can be higher than the output speed of the image sensor 111 to the development processing unit 122.

図3は、画素211の構成例を示す回路図である。301はフォトダイオードである。302は転送トランジスタである。303はFD(フローティングディフュージョン)である。304はリセットトランジスタである。305は増幅トランジスタである。306a及び306bは選択トランジスタである。フォトダイオード301は、アノードが接地され、カソードが転送トランジスタ302のソースに接続され、光を電荷に変換する光電変換部である。転送トランジスタのゲートには転送信号線212a及び212bが接続されている。従って、転送信号線212a又は212bによって、転送トランジスタ302がオンにされると、フォトダイオード301に蓄積された電荷は、FD303に転送され、FD303に蓄積される。増幅トランジスタ305は、ドレインが電源電圧Vddが印加され、ゲートがFD303に接続されている。増幅トランジスタ305は、FD303に蓄積された電荷を増幅して電圧信号に変換する。   FIG. 3 is a circuit diagram illustrating a configuration example of the pixel 211. Reference numeral 301 denotes a photodiode. Reference numeral 302 denotes a transfer transistor. Reference numeral 303 denotes an FD (floating diffusion). Reference numeral 304 denotes a reset transistor. Reference numeral 305 denotes an amplification transistor. Reference numerals 306a and 306b denote selection transistors. The photodiode 301 is a photoelectric conversion unit in which an anode is grounded and a cathode is connected to the source of the transfer transistor 302 to convert light into electric charges. Transfer signal lines 212a and 212b are connected to the gate of the transfer transistor. Therefore, when the transfer transistor 302 is turned on by the transfer signal line 212a or 212b, the charge stored in the photodiode 301 is transferred to the FD 303 and stored in the FD 303. The amplification transistor 305 has a drain to which the power supply voltage Vdd is applied and a gate connected to the FD 303. The amplification transistor 305 amplifies the charge accumulated in the FD 303 and converts it into a voltage signal.

選択トランジスタ306aは、増幅トランジスタ305のソースと列信号線215aの間に配置されており、そのゲートは行選択信号線214aに接続されている。従って、行選択信号線214aによって転送トランジスタ306aがオンにされると、FD303の電圧に対応する電圧信号が列信号線215aに出力される。   The selection transistor 306a is disposed between the source of the amplification transistor 305 and the column signal line 215a, and its gate is connected to the row selection signal line 214a. Accordingly, when the transfer transistor 306a is turned on by the row selection signal line 214a, a voltage signal corresponding to the voltage of the FD 303 is output to the column signal line 215a.

一方、選択トランジスタ306bは、増幅トランジスタ305のソースと列信号線215bの間に配置されており、そのゲートは行選択信号線214bに接続されている。従って、行選択信号線214bによって転送トランジスタ306bがオンにされると、FD303の電圧に対応する電圧信号が列信号線215bに出力される。   On the other hand, the selection transistor 306b is disposed between the source of the amplification transistor 305 and the column signal line 215b, and the gate thereof is connected to the row selection signal line 214b. Therefore, when the transfer transistor 306b is turned on by the row selection signal line 214b, a voltage signal corresponding to the voltage of the FD 303 is output to the column signal line 215b.

リセットトランジスタ304は、ゲートがリセット信号線214a及び214bに接続され、ドレインが電源電圧Vddのノードに接続され、ソースがFD303に接続されている。従って、リセット信号線214a又は214bによりリセットトランジスタ304がオンにされると、FD303の電圧が電源電圧Vddにリセットされる。行走査回路202aによる走査制御によってセンサー読み出し信号S111が読み出され、行走査回路202bによる走査制御によってセンサー読み出し信号S112が読み出される。   The reset transistor 304 has a gate connected to the reset signal lines 214a and 214b, a drain connected to the node of the power supply voltage Vdd, and a source connected to the FD 303. Accordingly, when the reset transistor 304 is turned on by the reset signal line 214a or 214b, the voltage of the FD 303 is reset to the power supply voltage Vdd. The sensor readout signal S111 is read out by the scanning control by the row scanning circuit 202a, and the sensor readout signal S112 is read out by the scanning control by the row scanning circuit 202b.

次に、図4を参照して、撮像装置100での画像信号の読み出しと、読み出した画像信号に対する画像処理の流れを説明する。図4は、1/30秒の駆動周期で動画像信号を読み出し、画像処理を実施する場合の撮像装置100の動作タイミングを説明する図である。   Next, with reference to FIG. 4, the reading of an image signal in the imaging apparatus 100 and the flow of image processing for the read image signal will be described. FIG. 4 is a diagram for explaining the operation timing of the imaging apparatus 100 when a moving image signal is read out with a driving cycle of 1/30 seconds and image processing is performed.

イメージセンサー111にて読み出されたセンサー読み出し信号a(S111)は、撮像画像出力部112により、積層センサー110の外部に撮像画像信号S101として出力される。撮像画像信号S101は、撮像画像入力部121により取り込まれ、現像処理入力画像信号S121として現像処理部122へ供給される。   The sensor read signal a (S111) read by the image sensor 111 is output to the outside of the stacked sensor 110 by the captured image output unit 112 as a captured image signal S101. The captured image signal S101 is captured by the captured image input unit 121 and supplied to the development processing unit 122 as the development processing input image signal S121.

図4に示すように、センサー読み出し信号a(S111)の最初のフレーム画像信号(フレーム1)の読み出しは、時刻t10において開始され、時刻t20において終了する。その後、時刻t20からt30において、次のフレーム画像信号(フレーム2)が読み出され、以降、周期的に読み出される。   As shown in FIG. 4, reading of the first frame image signal (frame 1) of the sensor reading signal a (S111) starts at time t10 and ends at time t20. Thereafter, from time t20 to t30, the next frame image signal (frame 2) is read, and thereafter periodically read.

現像処理部122は、第2の画像処理部であり、現像処理入力画像信号S121に対して、ガンマ補正や色補正など各種の補正処理(第2の画像処理)を実行する。また、現像処理部122は、後述の方法により算出したホワイトバランスゲインに従って、ホワイトバランス補正(第2の画像処理)を行う。現像処理部122での画像処理は、外部メモリR/W情報S107を経由して外部メモリ134を用いてなされ、図4の時刻t30〜t31の期間で行われる。   The development processing unit 122 is a second image processing unit, and executes various correction processes (second image processing) such as gamma correction and color correction on the development process input image signal S121. Further, the development processing unit 122 performs white balance correction (second image processing) according to the white balance gain calculated by a method described later. Image processing in the development processing unit 122 is performed using the external memory 134 via the external memory R / W information S107, and is performed in a period from time t30 to t31 in FIG.

即ち、時刻t10〜t20の期間に読み出された動画像の1フレーム目に対応する画像信号は、2フレーム分遅れた時刻t31に現像処理部122より出力され、記録媒体131での画像データの記録や表示部132での画像の表示に用いられる。   That is, the image signal corresponding to the first frame of the moving image read during the period from time t10 to time t20 is output from the development processing unit 122 at time t31 delayed by two frames, and the image data on the recording medium 131 is output. It is used for recording and displaying an image on the display unit 132.

一方、センサー読み出し信号b(S112)は、時刻t10〜t11において、鏡面反射候補領域抽出部113へ出力される。図示した通り、センサー読み出し信号b(S112)の読み出しは、センサー読み出し信号a(S111)の読み出しより短時間で完了する。これは、センサー読み出し信号b(S112)は画素数が間引かれており、また、イメージセンサー111と鏡面反射候補領域抽出部113が積層構造によって接続されているためである。   On the other hand, the sensor readout signal b (S112) is output to the specular reflection candidate region extraction unit 113 at times t10 to t11. As illustrated, reading of the sensor read signal b (S112) is completed in a shorter time than reading of the sensor read signal a (S111). This is because the sensor readout signal b (S112) has a thinned number of pixels, and the image sensor 111 and the specular reflection candidate area extraction unit 113 are connected by a stacked structure.

次に、鏡面反射候補領域抽出部113は、第1の画像処理部であり、センサー読み出し信号b(S112)から、被写体表面での鏡面反射が生じている可能性のある鏡面反射候補領域を抽出する第1の画像処理を行う。具体的な方法について、図5(a)〜(c)を参照して説明する。図5(a)及び(b)は、画像信号を適当な大きさのブロックに分割した状態を表す図である。図5(a)及び(b)では、8×8=64個のブロックに分割している。また、被写体表面の網掛けされている領域が、鏡面反射が生じている領域を表しているものとする。鏡面反射候補領域抽出部113は、分割したブロックのうち、鏡面反射が生じている領域を含む可能性のあるブロックを抽出し、その位置情報を鏡面反射候補領域情報S113として出力する。鏡面反射が生じている領域は、周囲の拡散反射のみが生じている領域に比べて、画像信号の輝度が高くなると考えられる。このため、鏡面反射候補領域抽出部113は、各ブロックに対してブロック内の平均輝度を算出し、その平均輝度が周囲のブロックより高い値を持つブロックを探索して抽出する。この条件によって鏡面反射が生じている可能性が高いと判断されるブロックは、複数存在する可能性もあり、その場合は鏡面反射候補領域情報S113として出力される情報も複数となる。図5(b)では、抽出されたブロックを斜線で表している。上記の鏡面反射候補領域の抽出処理は、時刻t11〜t12の期間で実行される。   Next, the specular reflection candidate area extraction unit 113 is a first image processing unit, and extracts a specular reflection candidate area that may cause specular reflection on the subject surface from the sensor readout signal b (S112). The first image processing is performed. A specific method will be described with reference to FIGS. FIGS. 5A and 5B are diagrams illustrating a state in which the image signal is divided into blocks of an appropriate size. In FIGS. 5A and 5B, the block is divided into 8 × 8 = 64 blocks. Further, it is assumed that the shaded area on the subject surface represents an area where specular reflection occurs. The specular reflection candidate area extraction unit 113 extracts a block that may include an area where specular reflection occurs from the divided blocks, and outputs the position information as specular reflection candidate area information S113. It is considered that the luminance of the image signal is higher in the region where the specular reflection occurs than in the region where only the surrounding diffuse reflection occurs. For this reason, the specular reflection candidate area extraction unit 113 calculates the average luminance in the block for each block, and searches for and extracts blocks having a higher average luminance than the surrounding blocks. There may be a plurality of blocks that are determined to have a high possibility of occurrence of specular reflection under this condition. In this case, a plurality of pieces of information are output as the specular reflection candidate area information S113. In FIG. 5 (b), the extracted blocks are represented by diagonal lines. The extraction process of the specular reflection candidate area is performed in a period from time t11 to t12.

鏡面反射候補領域情報S113は、鏡面反射候補領域情報出力部114によって、画像処理ブロック部120の鏡面反射候補領域情報入力部123へ出力される。   The specular reflection candidate area information S113 is output by the specular reflection candidate area information output unit 114 to the specular reflection candidate area information input unit 123 of the image processing block unit 120.

次に、鏡面反射抽出部124の処理について説明する。鏡面反射抽出部124は、撮像画像入力部121を介して入力された現像処理入力画像信号S121から、鏡面反射に対応した反射成分のみを抽出することにより、光源色の推定を行う。ただし、現像処理入力画像信号S121の中で、鏡面反射候補領域情報S122に対応した領域のみを用いる事により、処理時間を短縮する。   Next, processing of the specular reflection extraction unit 124 will be described. The specular reflection extracting unit 124 estimates the light source color by extracting only the reflection component corresponding to the specular reflection from the development processing input image signal S121 input via the captured image input unit 121. However, the processing time is shortened by using only the region corresponding to the specular reflection candidate region information S122 in the development processing input image signal S121.

図5(b)及び(c)を参照して、その処理内容を説明する。鏡面反射抽出部124は、鏡面反射候補領域抽出部113と同様、画像信号を複数のブロックに分割する。ここでの分割数や分割位置は鏡面反射候補領域抽出部113と同じ設定にする事とし、本実施形態では、8×8個のブロックに分割するものとする。鏡面反射抽出部124は、鏡面反射候補領域情報S122に含まれるブロックの中の画素に対して、輝度ヒストグラムを生成し、鏡面反射成分の抽出を行う。図5(c)に、鏡面反射抽出部124が生成する輝度ヒストグラムの例を示す。図5(c)の縦軸は各画素の輝度信号Y、図5(c)の横軸は各輝度信号Yの区間に含まれる画素数を表す頻度である。上述のように、鏡面反射が生じている領域は、生じていない領域に比べて高い輝度を持つと考えられるので、図5(c)の輝度ヒストグラムにおいて、輝度信号Yの高い区間に含まれる画素は鏡面反射成分を多く含んでいると考えられる。従って、輝度ヒストグラムにおいて、高い輝度信号に対応する区間に含まれる画素と、それより低い輝度信号に対応する区間に含まれる画素との間で、画素値の差分を算出することで鏡面反射信号を抽出する事ができる。ここで抽出した鏡面反射成分は、撮影環境における光源の色を表しているため、鏡面反射抽出部124は、抽出した鏡面反射成分を基に、撮影環境に適したホワイトバランスゲインを算出する事ができる。鏡面反射抽出部124は、算出したホワイトバランスゲインを、現像処理部122へ出力する。上述の処理は、図4のシーケンスにおいて、時刻t20〜t21の期間で実行される。時刻t21〜t22において、現像処理部122に対するホワイトバランスゲイン情報S124の更新が、システム制御部126により実行される。上述したように、図4の時刻t30〜t31において、現像処理部122は、ホワイトバランス補正を含めた画像処理が可能となる。   The processing content will be described with reference to FIGS. Similar to the specular reflection candidate area extraction unit 113, the specular reflection extraction unit 124 divides the image signal into a plurality of blocks. Here, the number of divisions and the division position are set to be the same as those of the specular reflection candidate area extraction unit 113, and in this embodiment, the division is made into 8 × 8 blocks. The specular reflection extraction unit 124 generates a luminance histogram for the pixels in the block included in the specular reflection candidate area information S122, and extracts specular reflection components. FIG. 5C shows an example of a brightness histogram generated by the specular reflection extraction unit 124. 5C represents the luminance signal Y of each pixel, and the horizontal axis of FIG. 5C represents the frequency representing the number of pixels included in each luminance signal Y section. As described above, since the region where the specular reflection occurs is considered to have a higher luminance than the region where the reflection does not occur, the pixels included in the interval where the luminance signal Y is high in the luminance histogram of FIG. Is considered to contain a lot of specular reflection components. Therefore, in the luminance histogram, the specular reflection signal is calculated by calculating the difference in pixel value between the pixel included in the interval corresponding to the high luminance signal and the pixel included in the interval corresponding to the lower luminance signal. It can be extracted. Since the specular reflection component extracted here represents the color of the light source in the shooting environment, the specular reflection extraction unit 124 may calculate a white balance gain suitable for the shooting environment based on the extracted specular reflection component. it can. The specular reflection extraction unit 124 outputs the calculated white balance gain to the development processing unit 122. The above-described processing is executed in the period from time t20 to t21 in the sequence of FIG. At times t21 to t22, the system control unit 126 updates the white balance gain information S124 for the development processing unit 122. As described above, at time t30 to t31 in FIG. 4, the development processing unit 122 can perform image processing including white balance correction.

以上、本実施形態の撮像装置100は、イメージセンサー111と画像処理部を一体型とした積層センサー110を備える。積層センサー110の内部の鏡面反射候補領域抽出部(画像処理部)113において鏡面反射が生じている可能性の高い領域を抽出し、その後、積層センサー110の外部の鏡面反射抽出部(画像処理部)124において、更に高精度に鏡面反射成分を抽出する。   As described above, the imaging apparatus 100 according to the present embodiment includes the laminated sensor 110 in which the image sensor 111 and the image processing unit are integrated. The specular reflection candidate region extraction unit (image processing unit) 113 inside the multilayer sensor 110 extracts a region that is highly likely to cause specular reflection, and then the specular reflection extraction unit (image processing unit) outside the multilayer sensor 110. ) 124, the specular reflection component is extracted with higher accuracy.

本実施形態によれば、図4のセンサー読み出し信号bの読み出し開始から完了と、続く、ブロック毎の輝度信号に基づく鏡面反射が生じている可能性の高い領域の抽出処理までが、センサー読み出し信号aの読み出し開始から完了までの間に完了している。本実施形態によらない場合、まず、センサー読み出し信号bに相当する間引き画像の生成を、センサー読み出し信号aを基に行わなければならず、さらに、その後にブロック毎の輝度値を用いた抽出処理を行わなければならないため、大幅に処理時間がかかる。これに対し、本実施形態によれば、上記の時間を短縮する事が可能である。   According to the present embodiment, the sensor readout signal is from the start to the completion of the readout of the sensor readout signal b in FIG. 4 and the subsequent extraction processing of the region where the specular reflection based on the luminance signal for each block is highly likely to occur. It is completed between the start of reading of a and the completion thereof. When not according to the present embodiment, first, a thinned image corresponding to the sensor readout signal b must be generated based on the sensor readout signal a, and then an extraction process using the luminance value for each block. This requires a lot of processing time. On the other hand, according to the present embodiment, the above time can be shortened.

なお、本実施形態では、ブロック単位の輝度情報を用いて、鏡面反射成分を含む可能性の高い領域を検出し、画素単位の輝度ヒストグラムを用いて鏡面反射成分の抽出を行ったが、鏡面反射の検出、抽出処理の方法はこれに限定するものではない。例えば、読み出した画像信号の中から、その輝度値が周囲の領域の輝度値よりも高い部分領域を、鏡面反射成分を含む可能性の高い領域として検出しても良い。また、画素単位で画素値の差分を算出し、算出した差分値の中から予め記憶した代表的な光源色に対応した差分値のみを抽出することによって、鏡面反射成分の抽出を行っても良い。つまり、画像信号に基づいて、鏡面反射を含む可能性の高い領域を検出する処理と、鏡面反射成分を抽出する処理で有れば、どのような方法を用いても構わない。   In this embodiment, an area having a high possibility of including a specular reflection component is detected using the luminance information of the block unit, and the specular reflection component is extracted using the luminance histogram of the pixel unit. The detection and extraction processing method is not limited to this. For example, a partial area whose luminance value is higher than the luminance value of the surrounding area may be detected from the read image signal as an area having a high possibility of including a specular reflection component. Alternatively, the specular reflection component may be extracted by calculating a pixel value difference in units of pixels and extracting only a difference value corresponding to a representative light source color stored in advance from the calculated difference value. . That is, any method may be used as long as it is processing for detecting a region having a high possibility of including specular reflection and processing for extracting a specular reflection component based on an image signal.

また、本実施形態では、鏡面反射成分を含む可能性の高い領域の位置情報を積層センサー110から出力する場合を説明したが、積層センサー110からの出力内容はこれに限定するものではない。例えば、鏡面反射成分を含む可能性の高い領域が存在するか否かを表す情報を出力しても良い。この場合、鏡面反射成分を含む可能性の高い領域が存在する場合は、現像処理部122は、鏡面反射の検出に基づいたホワイトバランス処理を行う。領域が存在しない場合は、現像処理部122は、画像信号の無彩色領域の検出に基づいたホワイトバランス処理を行う。これにより、鏡面反射の検出に基づくホワイトバランス処理では適切なホワイトバランス補正が行えない場合に、無駄な処理を行う事が無くなり、全体の処理時間を短縮する事が可能となる。   Further, in the present embodiment, a case has been described in which position information of an area that is likely to include a specular reflection component is output from the laminated sensor 110, but the output content from the laminated sensor 110 is not limited to this. For example, you may output the information showing whether the area | region with high possibility of containing a specular reflection component exists. In this case, when there is a region that is highly likely to include a specular reflection component, the development processing unit 122 performs white balance processing based on detection of specular reflection. When the area does not exist, the development processing unit 122 performs white balance processing based on the detection of the achromatic area of the image signal. As a result, when the white balance processing based on detection of specular reflection cannot perform appropriate white balance correction, unnecessary processing is not performed, and the entire processing time can be shortened.

また、積層センサー110からの出力結果として、鏡面反射成分を含む可能性の高い領域の画像信号を出力するようにしても良い。この場合、鏡面反射抽出部124は、出力された部分領域の画像信号に対して輝度ヒストグラムを生成し、鏡面反射成分の抽出を行えば良い。これにより、現像処理部122への高解像度な画像信号の読み出しの完了を待つことなく、鏡面反射抽出部124は、ホワイトバランスゲインの算出を行う事が可能となり、全体の処理時間を短縮する事が可能となる。   Further, as an output result from the laminated sensor 110, an image signal of an area having a high possibility of including a specular reflection component may be output. In this case, the specular reflection extracting unit 124 may generate a luminance histogram for the output partial region image signal and extract the specular reflection component. Accordingly, the specular reflection extraction unit 124 can calculate the white balance gain without waiting for the completion of reading of the high-resolution image signal to the development processing unit 122, thereby reducing the overall processing time. Is possible.

つまり、積層センサー110からの出力内容は、鏡面反射成分を含む可能性の高い領域を検出した結果を表す情報であれば、どのような形式であっても構わない。また、本実施形態では、イメージセンサー111と鏡面反射候補領域抽出部(画像処理部)113とが積層構造によって接続された積層センサー110を用いる場合を説明したが、センサーの構成を積層センサー110に限定するものではない。即ち、画素211と、行走査回路202a,202bと、鏡面反射候補領域抽出部113とが一体型のパッケージとして構成されたセンサーで有れば、どのような構成のセンサーを用いても構わない。   That is, the output content from the laminated sensor 110 may be in any format as long as it represents information indicating the result of detecting a region that is likely to include a specular reflection component. In this embodiment, the case where the laminated sensor 110 in which the image sensor 111 and the specular reflection candidate region extraction unit (image processing unit) 113 are connected by a laminated structure is used has been described. It is not limited. That is, any sensor may be used as long as the pixel 211, the row scanning circuits 202a and 202b, and the specular reflection candidate region extraction unit 113 are configured as an integrated package.

また、本実施形態では、積層センサー110と画像処理ロジック部120とを備えた撮像装置100の場合を説明したが、撮像装置に限定されるものではない。例えば、積層センサー110、鏡面反射候補領域抽出部113及び記録部を備えた撮像装置と、記録された信号の読み出し部と画像処理ロジック部120とを備えた画像処理装置から成る画像処理システムを用いても構わない。この場合、撮像装置の記録部は、イメージセンサー111から出力される画像信号と、鏡面反射成分が含まれる可能性の高い画像領域に関する情報を記録するようにすれば良い。このようにする事で、画像処理ロジック部120は、画像処理を撮像装置の外部で行う場合においても、全体の処理時間を短縮する事が可能となる。   In the present embodiment, the case of the imaging apparatus 100 including the stacked sensor 110 and the image processing logic unit 120 has been described. However, the present invention is not limited to the imaging apparatus. For example, an image processing system including an imaging device including a stacked sensor 110, a specular reflection candidate region extraction unit 113, and a recording unit, and an image processing device including a recorded signal reading unit and an image processing logic unit 120 is used. It doesn't matter. In this case, the recording unit of the imaging apparatus may record the information related to the image signal output from the image sensor 111 and the image region that is highly likely to include a specular reflection component. By doing in this way, the image processing logic unit 120 can shorten the entire processing time even when image processing is performed outside the imaging apparatus.

(第2の実施形態)
次に、本発明の第2の実施形態として、画像信号の中から顔を検出し、検出結果に基づいて画像処理を制御する撮像装置を例に取って説明する。図6は、本発明の第2の実施形態に係る撮像装置の構成例を示すブロック図である。図1に示した第1の実施形態の場合と同様の構成については、同じ符号を付け、説明は省略する。以下、本実施形態が第1の実施形態と異なる点を説明する。
(Second Embodiment)
Next, as a second embodiment of the present invention, an imaging apparatus that detects a face from an image signal and controls image processing based on the detection result will be described as an example. FIG. 6 is a block diagram illustrating a configuration example of an imaging apparatus according to the second embodiment of the present invention. The same components as those in the first embodiment shown in FIG. Hereinafter, the points of the present embodiment different from the first embodiment will be described.

S601は顔候補座標情報である。S602は顔候補画像情報である。610は顔候補検出部、611は顔候補正規化部、612は顔候補画像メモリ、613は顔候補画像出力部、614は顔候補座標メモリ、615は顔候補座標出力部、616は顔テンプレート画像メモリである。S610は個別顔候補画像情報、S611は正規化顔候補画像情報、S612は顔候補画像情報、S613は顔テンプレート画像情報、S614は顔テンプレート設定情報、S615は個別顔候補座標情報、S616は顔候補座標情報である。   S601 is face candidate coordinate information. S602 is face candidate image information. 610 is a face candidate detection unit, 611 is a face candidate normalization unit, 612 is a face candidate image memory, 613 is a face candidate image output unit, 614 is a face candidate coordinate memory, 615 is a face candidate coordinate output unit, and 616 is a face template image. It is memory. S610 is individual face candidate image information, S611 is normalized face candidate image information, S612 is face candidate image information, S613 is face template image information, S614 is face template setting information, S615 is individual face candidate coordinate information, and S616 is a face candidate. Coordinate information.

画像処理ロジック部120は、下記の構成要素を有する。621は顔候補画像入力部、622は顔判定部、623は顔候補座標入力部、624は固有ベクトルメモリである。S621は顔候補画像情報、S622は顔候補座標情報、S623は固有ベクトル情報、S624は顔判定結果情報である。   The image processing logic unit 120 includes the following components. 621 is a face candidate image input unit, 622 is a face determination unit, 623 is a face candidate coordinate input unit, and 624 is an eigenvector memory. S621 is face candidate image information, S622 is face candidate coordinate information, S623 is eigenvector information, and S624 is face determination result information.

イメージセンサー111については、第1の実施形態において説明した構成であるため、詳細説明は割愛する。なお、第1の実施形態の場合と同様、センサー読み出し信号a(S111)は、イメージセンサー111の全画素の画像信号である。センサー読み出し信号b(S112)は、イメージセンサー111の全画素に対して、間引かれた画像信号である。例えば、センサー読み出し信号a(S111)は、水平4096画素、垂直2160画素である。センサー読み出し信号b(S112)は、水平400画素、垂直216画素に間引かれたものである。   Since the image sensor 111 has the configuration described in the first embodiment, detailed description thereof is omitted. Note that, as in the case of the first embodiment, the sensor readout signal a (S111) is an image signal of all the pixels of the image sensor 111. The sensor readout signal b (S112) is an image signal that is thinned out for all pixels of the image sensor 111. For example, the sensor readout signal a (S111) is 4096 horizontal pixels and 2160 vertical pixels. The sensor readout signal b (S112) is thinned out to horizontal 400 pixels and vertical 216 pixels.

次に、図7及び図8を用いて、本発明の第2の実施形態に係る撮像装置の動作タイミングを説明する。なお、図7は1/30秒周期での動画撮影動作時、図8は1/60秒周期での動画撮影動作時の動作タイミングを示す図である。   Next, the operation timing of the imaging apparatus according to the second embodiment of the present invention will be described with reference to FIGS. Note that FIG. 7 is a diagram showing the operation timing at the time of moving image shooting operation at a 1/30 second cycle, and FIG.

センサー読み出し信号a(S111)は、撮像画像出力回路112により、積層センサー110の外部に、撮像画像信号S101として出力される。撮像画像信号S101は、撮像画像入力回路121により画像処理ロジック部120に取り込まれ、現像処理入力画像信号S121として、現像処理部122に供給される。センサー読み出し信号a(S111)は、図7に示すように、時刻t70において読み出しが開始され、時刻t80において読み出しが終了し、その後、時刻t90及びt100で、周期的に動画像が出力される。   The sensor readout signal a (S111) is output as a captured image signal S101 by the captured image output circuit 112 to the outside of the stacked sensor 110. The captured image signal S101 is taken into the image processing logic unit 120 by the captured image input circuit 121 and supplied to the development processing unit 122 as the development processing input image signal S121. As shown in FIG. 7, the sensor read signal a (S111) starts reading at time t70, ends reading at time t80, and then periodically outputs moving images at times t90 and t100.

現像処理部122は、顔判定結果情報S624に基づき、被写体の顔領域に対する肌色補正処理や、被写体の顔領域に特化したノイズ抑圧処理等の、顔領域画像処理を含めた画像処理を実行する。画像処理の実行は、外部メモリR/W情報S107を経由して外部メモリ134を用いてなされる。現像処理部122の出力として表示画像信号S105と記録画像信号S104が出力されるのは、図7の時刻t90〜t91である。即ち、時刻t70〜t80において読み出されたセンサー読み出し信号a(S111)の1フレーム目の画像に対する現像処理部122の出力は、2フレーム分遅れて時刻t90〜t91となる。表示画像信号S105に対しては、被写体の顔領域を示すポインタ情報が重畳され、表示部132に表示される。また、記録画像信号S104は、記録媒体131に記録される。   Based on the face determination result information S624, the development processing unit 122 executes image processing including face area image processing such as skin color correction processing for the face area of the subject and noise suppression processing specialized for the face area of the subject. . The image processing is executed using the external memory 134 via the external memory R / W information S107. The display image signal S105 and the recording image signal S104 are output as the output of the development processing unit 122 at times t90 to t91 in FIG. That is, the output of the development processing unit 122 for the image of the first frame of the sensor readout signal a (S111) read out at times t70 to t80 is delayed by two frames from time t90 to t91. Pointer information indicating the face area of the subject is superimposed on the display image signal S105 and displayed on the display unit 132. The recorded image signal S104 is recorded on the recording medium 131.

一方、センサー読み出し信号b(S112)は、顔候補検出部610に入力される。センサー読み出し信号b(S112)は、水平400画素、垂直216画素に間引かれるため、図7の時刻t70〜t71において読み出しが完了する。   On the other hand, the sensor readout signal b (S112) is input to the face candidate detection unit 610. Since the sensor readout signal b (S112) is thinned out to horizontal 400 pixels and vertical 216 pixels, readout is completed at times t70 to t71 in FIG.

顔テンプレート画像メモリ616には、顔のテンプレート画像が予め複数の顔サイズで記録されている。被写体としての顔は、その大きさが撮影時の状況により種々変わるので、顔のテンプレート画像も複数サイズで記録しておくのが望ましい。例えば、水平及び垂直画素が各々160画素、80画素、40画素、20画素の4種類を記録しており、顔テンプレート設定情報S614により、いずれかの顔サイズの顔のテンプレート画像を、顔テンプレート画像情報S613として読み出すかを指定可能である。   In the face template image memory 616, face template images are recorded in advance in a plurality of face sizes. Since the size of a face as a subject varies depending on the situation at the time of shooting, it is desirable to record face template images in a plurality of sizes. For example, four types of horizontal, vertical pixels of 160 pixels, 80 pixels, 40 pixels, and 20 pixels are recorded, and a face template image of any face size is converted into a face template image according to face template setting information S614. It is possible to specify whether to read as information S613.

顔候補検出部610は、指定された顔サイズの顔のテンプレート画像情報S613を用いて、センサー読み出し信号b(S112)の全画角に対して、指定された顔サイズの顔のテンプレート画像情報S613と相関の高い部分領域を探索する。即ち、顔候補検出部610は、指定された顔サイズの顔のテンプレート画像情報S613と同一サイズの部分領域画像を、センサー読み出し信号b(S112)から、部分領域をずらしながら抽出する。そして、顔候補検出部610は、部分領域と指定された顔サイズの顔のテンプレート画像情報S613との相関係数又は差分の比較により、部分領域に、顔が存在する可能性が高いか否か、粗く相関評価する。前述したように、被写体としての顔は、その大きさが撮影時の状況により種々変わるので、予め記録しておいた複数サイズの顔のテンプレート画像全てに対して、探索処理を行う事が望ましい。   The face candidate detection unit 610 uses the template image information S613 of the face with the specified face size, and the template image information S613 of the face with the specified face size for all the angles of view of the sensor read signal b (S112). Search for partial areas highly correlated with. That is, the face candidate detection unit 610 extracts a partial area image having the same size as the template image information S613 of the face having the designated face size from the sensor read signal b (S112) while shifting the partial area. Then, the face candidate detection unit 610 determines whether or not there is a high possibility that a face exists in the partial area by comparing the correlation coefficient or the difference between the partial area and the template image information S613 of the face of the designated face size. , Rough correlation evaluation. As described above, since the size of a face as a subject varies depending on the situation at the time of shooting, it is desirable to perform a search process for all the template images of a plurality of sizes recorded in advance.

そのため、図7に示すように、時刻t71〜t72において、顔候補検出部610は、水平及び垂直画素が各々160画素の顔テンプレート画像情報S613に対する探索処理を行う。時刻t72〜t73において、顔候補検出部610は、水平及び垂直画素が各々80画素の顔テンプレート画像情報S613に対する探索処理を行う。時刻t73〜t74において、顔候補検出部610は、水平及び垂直画素が各々40画素の顔テンプレート画像情報S613に対する探索処理を行う。時刻t74〜t75において、顔候補検出部610は、水平及び垂直画素が各々20画素の顔テンプレート画像情報S613に対する探索処理を行う。   Therefore, as shown in FIG. 7, at times t71 to t72, the face candidate detection unit 610 performs a search process on the face template image information S613 having 160 horizontal and vertical pixels. At times t72 to t73, the face candidate detection unit 610 performs a search process on the face template image information S613 in which the horizontal and vertical pixels are 80 pixels each. From time t73 to t74, the face candidate detection unit 610 performs a search process on the face template image information S613 in which the horizontal and vertical pixels are 40 pixels each. From time t74 to t75, the face candidate detection unit 610 performs search processing on the face template image information S613 in which the horizontal and vertical pixels are 20 pixels each.

上記の探索処理により、顔が存在する可能性が高いと判断されたならば、顔候補検出部610は、指定された顔サイズの顔のテンプレート画像情報S613と比較した部分領域の情報から、顔の位置とサイズ情報からなる個別顔候補座標情報S615を生成する。そて、顔候補検出部610は、個別顔候補座標情報S615を顔候補座標メモリ614に格納する。顔が存在する可能性が高いと判断される部分領域は、複数存在する可能性があるため、個別顔候補座標情報S615も複数になりえる。   If it is determined by the above search processing that there is a high possibility that a face exists, the face candidate detection unit 610 determines the face from the partial region information compared to the face template image information S613 of the designated face size. The individual face candidate coordinate information S615 including the position and size information is generated. Then, the face candidate detection unit 610 stores the individual face candidate coordinate information S615 in the face candidate coordinate memory 614. Since there may be a plurality of partial regions that are determined to have a high possibility that a face exists, there may be a plurality of individual face candidate coordinate information S615.

さらに、顔候補検出部610は、指定された顔サイズの顔のテンプレート画像情報S613と比較した部分領域画像を切り出し、個別顔候補画像情報S610を生成し、顔候補正規化部611に出力する。個別顔候補画像情報S610は、指定された顔サイズの顔のテンプレート画像情報S613に連動して、複数の画像サイズとなるため、顔候補正規化部611は、共通の画像サイズに統一する正規化処理を行う。例えば、顔候補正規化部611は、水平及び垂直画素が各々20画素のサイズになるように縮小処理を行う。こうして、正規化顔候補画像情報S611が生成され、顔候補画像メモリ612に、水平及び垂直画素が各々20画素のサイズに統一された顔候補画像として格納される。   Further, the face candidate detection unit 610 cuts out the partial region image compared with the face template image information S613 of the designated face size, generates individual face candidate image information S610, and outputs it to the face candidate normalization unit 611. Since the individual face candidate image information S610 has a plurality of image sizes in conjunction with the face template image information S613 of the designated face size, the face candidate normalization unit 611 normalizes the images to a common image size. Process. For example, the face candidate normalization unit 611 performs a reduction process so that the horizontal and vertical pixels are each 20 pixels in size. In this way, normalized face candidate image information S611 is generated and stored in the face candidate image memory 612 as a face candidate image in which horizontal and vertical pixels are unified to a size of 20 pixels.

顔候補正規化部611の正規化処理は、図7の時刻t71〜t72、t72〜t73、t73〜t74、 t74〜t75に含まれる。図7に示す通り、センサー読み出し信号b(S112)の読み出し開始から完了と、続く、4種類の顔サイズの顔のテンプレート画像によるテンプレートマッチング処理までが、センサー読み出し信号a(S111)の読み出し開始から完了までの間に完了する。   The normalization processing of the face candidate normalization unit 611 is included in times t71 to t72, t72 to t73, t73 to t74, and t74 to t75 in FIG. As shown in FIG. 7, from the start of reading of the sensor readout signal a (S111), from the start of reading out of the sensor readout signal a (S111) to the completion of the template matching processing using the template images of the four face sizes. Complete before completion.

次に、顔候補座標メモリ614及び顔候補画像メモリ612は、記録された顔候補座標情報S616及び正規化顔候補画像情報S612を出力する。顔候補座標情報S616及び正規化顔候補画像情報S612は、図7の時刻t80において、顔候補座標出力部615及び顔候補画像出力部613から、積層センサー110の外部に、顔候補座標情報S602及び顔候補画像情報S601として出力される。顔候補座標情報S602及び顔候補画像情報S601は、それぞれ、顔候補座標入力部623及び顔候補画像入力部621により、画像処理ロジック部120に入力される。   Next, the face candidate coordinate memory 614 and the face candidate image memory 612 output the recorded face candidate coordinate information S616 and normalized face candidate image information S612. The face candidate coordinate information S616 and the normalized face candidate image information S612 are transmitted from the face candidate coordinate output unit 615 and the face candidate image output unit 613 to the outside of the layer sensor 110 at time t80 in FIG. Output as face candidate image information S601. The face candidate coordinate information S602 and the face candidate image information S601 are input to the image processing logic unit 120 by the face candidate coordinate input unit 623 and the face candidate image input unit 621, respectively.

顔候補座標入力部623は、顔候補座標情報S602を顔候補座標情報S622として顔判定部622に出力する。また、顔候補画像入力部621は、顔候補画像情報S601を顔候補画像情報S621として顔判定部622に出力する。顔候補画像情報S621は、前述したように、顔のテンプレート画像情報S613と同一サイズの部分領域画像の相関係数又は差分により、顔である可能性が高いものと、粗く評価されただけであるため、正解率はさほど高いものではない。   The face candidate coordinate input unit 623 outputs the face candidate coordinate information S602 to the face determination unit 622 as face candidate coordinate information S622. Further, the face candidate image input unit 621 outputs the face candidate image information S601 as face candidate image information S621 to the face determination unit 622. As described above, the face candidate image information S621 is only roughly evaluated as having a high possibility of being a face based on the correlation coefficient or difference of the partial area images having the same size as the face template image information S613. Therefore, the accuracy rate is not so high.

固有ベクトルメモリ624は、さらに正解率を上げるために、予め顔の画像の特徴量を精度よく表すデータとして、主成分分析により抽出しておいた顔の固有ベクトル情報S623を記録しておく。顔判定部622は、顔候補画像情報S621に対して、顔の固有ベクトル情報S623と照合することにより、最終的に顔であるか否かの顔判定を行う。顔の固有ベクトル情報S623は、固有ベクトルメモリ624に予め記録されており、固有ベクトル情報S623として読み出され、顔判定部622に入力される。上述のようにして、顔判定部622は、主成分分析による顔判定処理を行い、最終的に顔であるか否かの顔判定を行い、顔判定の結果として顔判定結果情報S624を現像処理部122へ出力する。   In order to further increase the accuracy rate, the eigenvector memory 624 records face eigenvector information S623 previously extracted by principal component analysis as data that accurately represents the feature amount of the face image. The face determination unit 622 compares the face candidate image information S621 with face eigenvector information S623 to determine whether or not the face is finally a face. The face eigenvector information S623 is recorded in advance in the eigenvector memory 624, read out as eigenvector information S623, and input to the face determination unit 622. As described above, the face determination unit 622 performs face determination processing by principal component analysis, finally determines whether or not the face is a face, and develops face determination result information S624 as a result of face determination. To the unit 122.

図7の時刻t80〜t81において、顔判定部622は、顔候補画像情報S621に対する最終的な顔判定処理を実施する。図7の時刻t81〜t82において、現像処理部122での顔判定結果情報S624に基づいて制御される各種補正処理に関する設定パラメータの更新が実行される。以上により、現像処理部122での設定パラメータの更新により、図7の時刻t90〜時刻t91において、現像処理部122は、被写体の顔領域に対する肌色補正処理や、被写体の顔領域に特化したノイズ抑圧処理等の、顔領域画像処理を含めた画像処理を行う。   At times t80 to t81 in FIG. 7, the face determination unit 622 performs final face determination processing on the face candidate image information S621. At times t81 to t82 in FIG. 7, the setting parameters relating to various correction processes controlled based on the face determination result information S624 in the development processing unit 122 are updated. As described above, the development processing unit 122 updates the setting parameter at the time t90 to time t91 in FIG. 7 so that the development processing unit 122 performs skin color correction processing on the face area of the subject or noise specialized for the face area of the subject. Image processing including face area image processing such as suppression processing is performed.

本実施形態では、センサー読み出し信号b(S112)の読み出し開始から完了と、続く、4種類の顔サイズの顔のテンプレート画像によるテンプレートマッチング処理までが、センサー読み出し信号a(S111)の読み出し開始から完了までの間に完了している。   In the present embodiment, the process from the start of reading of the sensor read signal a (S112) to the completion of the template matching process using the template images of faces of four types of face sizes is completed from the start of reading of the sensor read signal a (S111). Has been completed.

本実施形態によらない場合、まず、センサー読み出し信号b(S112)に相当する間引き画像の生成を、センサー読み出し信号a(S111)を基に行わなければならない。さらに、その後に、4種類の顔サイズの顔のテンプレート画像によるテンプレートマッチング処理を行わなければならないため、大幅に処理時間がかかる。従って、本実施形態によれば、上記の時間が大幅に短縮されるものとなっている。   When not according to the present embodiment, first, a thinned image corresponding to the sensor readout signal b (S112) must be generated based on the sensor readout signal a (S111). Furthermore, since it is necessary to perform template matching processing using template images of faces of four types of face sizes after that, it takes a lot of processing time. Therefore, according to the present embodiment, the above time is greatly shortened.

次に、ユーザにより、本実施形態の撮像装置100に対する制御パラメータが変更された場合について、説明する。ここで、ユーザが、操作部133を介して、動画撮影時のフレームレートを1/30秒周期(図7)から、1/60秒周期(図8)の倍速のフレームレートに設定する指示を入力したものとする。   Next, a case where the control parameter for the imaging apparatus 100 according to the present embodiment is changed by the user will be described. Here, the user instructs via the operation unit 133 to set the frame rate at the time of moving image shooting from a 1/30 second period (FIG. 7) to a double frame rate of 1/60 second period (FIG. 8). Assume that you have entered it.

システム制御部126は、カメラ信号処理設定情報S123に対して、1/60秒周期設定を与え、制御信号出力部125を通じて、画像処理ロジック部120の外部にカメラ信号処理設定情報S103として出力する。積層センサー110の制御信号入力部115は、カメラ信号処理設定情報S103を入力し、顔候補検出部610に対する顔テンプレート設定信号S617と、イメージセンサー111に対するセンサー駆動設定信号S114を出力する。センサー駆動設定信号S114は、イメージセンサー111において生成されるセンサー読み出し信号b(S112)の間引き設定を変更する設定信号である。また、顔テンプレート設定信号S617は、前述した、4種類の顔サイズの顔のテンプレート画像のうち、いずれの顔サイズを下限としてテンプレートマッチング処理を行うかを変更する設定信号である。   The system control unit 126 gives a 1/60 second period setting to the camera signal processing setting information S123, and outputs the camera signal processing setting information S103 to the outside of the image processing logic unit 120 through the control signal output unit 125. The control signal input unit 115 of the stacked sensor 110 receives the camera signal processing setting information S103, and outputs a face template setting signal S617 for the face candidate detection unit 610 and a sensor drive setting signal S114 for the image sensor 111. The sensor drive setting signal S114 is a setting signal for changing the thinning setting of the sensor readout signal b (S112) generated in the image sensor 111. Further, the face template setting signal S617 is a setting signal for changing which of the above-described four face size face template images is to be subjected to the template matching process with a lower face size.

本実施形態では、フレームレートの設定が1/60秒周期と倍速化された場合であっても、センサー読み出し信号b(S112)の読み出し開始から完了と、続く、4種類の顔サイズの顔のテンプレート画像によるテンプレートマッチング処理までの期間を短くする。その期間は、センサー読み出し信号a(S111)の読み出し開始から完了までの間に完了させるために以下の変更を行う。   In this embodiment, even when the frame rate is set to a 1/60 second cycle, the reading of the sensor readout signal b (S112) is completed from the start of reading, and the faces of four types of face sizes that follow. The period until the template matching process using the template image is shortened. During this period, the following changes are made to complete the period from the start to the end of reading of the sensor read signal a (S111).

即ち、まず、センサー駆動設定信号S114により、センサー読み出し信号b(S112)の間引き設定を、水平400画素、垂直216画素であった所を、水平320画素、垂直180画素と、さらに間引いた設定とする。これにより、センサー読み出し信号b(S112)の読み出し開始から終了までの時間である図8の時刻t120から時刻t121までの時間が、さらに短縮化される。   That is, first, by the sensor drive setting signal S114, the thinning setting of the sensor readout signal b (S112) is set such that the horizontal 400 pixels and the vertical 216 pixels are further thinned to the horizontal 320 pixels and the vertical 180 pixels. To do. As a result, the time from the start to the end of reading of the sensor read signal b (S112) from time t120 to time t121 in FIG. 8 is further shortened.

さらに、顔テンプレート設定信号S617の設定により、テンプレートマッチング処理に使用する顔テンプレートの画像サイズを、水平及び垂直画素が各々160画素の顔テンプレート画像と、水平及び垂直画素が各々80画素の顔テンプレート画像のみと制限する。図8の時刻t121〜t122において、顔候補検出部610は、水平及び垂直画素が各々160画素の顔テンプレート画像に対する探索処理を行う。時刻t122〜t123において、顔候補検出部610は、水平及び垂直が各々80画素の顔テンプレート画像に対する探索処理を行い、テンプレートマッチング処理を終了する。   Further, by setting the face template setting signal S617, the image size of the face template used for the template matching processing is a face template image with 160 pixels for horizontal and vertical pixels and a face template image with 80 pixels for horizontal and vertical pixels. Limit with only. At times t121 to t122 in FIG. 8, the face candidate detection unit 610 performs a search process on a face template image having 160 horizontal and vertical pixels. At times t122 to t123, the face candidate detection unit 610 performs a search process on the face template image whose horizontal and vertical are each 80 pixels, and ends the template matching process.

これにより、顔候補検出部610のテンプレートマッチング処理時間を1/2に短縮化する。さらに、センサー読み出し信号b(S112)の読み出し開始から終了までの時間の図8の時刻t120〜t121が短縮されている。センサー読み出し信号a(S111)の読み出し開始から完了が1/60秒に倍速化されている。その場合でも、センサー読み出し信号b(S112)の読み出し開始から完了と、続く、テンプレートマッチング処理を、センサー読み出し信号a(S111)の読み出し開始から完了までに完了させる事ができる。   Thereby, the template matching processing time of the face candidate detection unit 610 is shortened to ½. Furthermore, time t120 to t121 in FIG. 8 of the time from the start to the end of reading of the sensor read signal b (S112) is shortened. Completion from the start of reading of the sensor read signal a (S111) is doubled to 1/60 second. Even in that case, the completion of the sensor readout signal b (S112) from the start to the completion and the subsequent template matching process can be completed from the start of the readout of the sensor readout signal a (S111) to the completion.

以上説明したように、本実施形態によれば、イメージセンサー111の全画素の領域に対して、所定の条件の顔テンプレートと相関の高い部分領域の探索処理を、イメージセンサー111の全画素の読み出し期間中に、並行して完了させる事ができる。さらに、それに続いて、画像処理ロジック部120における詳細な判別処理である顔判定処理をすぐに行う事ができるため、被写体中の顔検出処理をより効率的に実行する事ができる。   As described above, according to the present embodiment, a search process for a partial region having a high correlation with a face template under a predetermined condition is performed on all pixel regions of the image sensor 111. Can be completed in parallel during the period. Furthermore, since the face determination process, which is a detailed determination process in the image processing logic unit 120, can be performed immediately thereafter, the face detection process in the subject can be executed more efficiently.

また、本実施形態によれば、イメージセンサー111の全画素の読み出し時間が変化しても、顔テンプレートと相関の高い部分領域の探索処理をイメージセンサー111の全画素の読み出し時間内に完了するための制御を、容易に実施することが可能である。   Further, according to the present embodiment, even when the readout time of all the pixels of the image sensor 111 is changed, the search process of the partial region having a high correlation with the face template is completed within the readout time of all the pixels of the image sensor 111. It is possible to easily perform the control.

第1及び第2の実施形態では、行走査回路(制御部)202aは、転送信号線(第1の制御線)212aによりフォトダイオード301の電荷に基づく信号を列信号線(第1の信号線)215aに出力させる。行走査回路(制御部)202bは、また、転送信号線(第2の制御線)212bによりフォトダイオード301の電荷に基づく信号を列信号線(第2の信号線)215bに出力させる。鏡面反射候補領域抽出部113並びに顔候補検出部610(及び顔候補正規化部611)は、第1の画像処理部であり、列信号線215bに出力された信号に対して第1の画像処理を行う。現像処理部122は、第2の画像処理部であり、鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)の第1の画像処理の結果を基に、列信号線215aに出力された信号に対して第2の画像処理を行う。   In the first and second embodiments, the row scanning circuit (control unit) 202a sends a signal based on the charge of the photodiode 301 to the column signal line (first signal line) by the transfer signal line (first control line) 212a. ) Output to 215a. The row scanning circuit (control unit) 202b also outputs a signal based on the charge of the photodiode 301 to the column signal line (second signal line) 215b through the transfer signal line (second control line) 212b. The specular reflection candidate area extraction unit 113 and the face candidate detection unit 610 (and the face candidate normalization unit 611) are first image processing units, and perform first image processing on the signal output to the column signal line 215b. I do. The development processing unit 122 is a second image processing unit, and based on the result of the first image processing of the specular reflection candidate region extraction unit 113 or the face candidate detection unit 610 (and the face candidate normalization unit 611), Second image processing is performed on the signal output to the signal line 215a.

行走査回路202aは、転送信号線212aにより複数の画素211のすべての画素211のフォトダイオード301の電荷に基づく信号を現像処理部122に出力させる。行走査回路202bは、転送信号線212bにより複数の画素211のうちの一部の画素211のフォトダイオード301の電荷に基づく信号を鏡面反射候補領域抽出部113又は顔候補検出部610に出力させる。鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)は、一部の画素211のフォトダイオード301の電荷に基づく信号に対して第1の画像処理を行う。現像処理部122は、すべての画素211のフォトダイオード301の電荷に基づく信号に対して第2の画像処理を行う。行走査回路202bが転送信号線212bにより列信号線215bに出力される画素211の数は、行走査回路202aが転送信号線212aにより列信号線215aに出力される画素211の数より少ない。   The row scanning circuit 202a causes the development processing unit 122 to output a signal based on the charges of the photodiodes 301 of all the pixels 211 of the plurality of pixels 211 through the transfer signal line 212a. The row scanning circuit 202b causes the specular reflection candidate area extraction unit 113 or the face candidate detection unit 610 to output a signal based on the charges of the photodiodes 301 of some of the plurality of pixels 211 through the transfer signal line 212b. The specular reflection candidate region extraction unit 113 or the face candidate detection unit 610 (and the face candidate normalization unit 611) performs first image processing on a signal based on the charges of the photodiodes 301 of some pixels 211. The development processing unit 122 performs second image processing on a signal based on the charges of the photodiodes 301 of all the pixels 211. The number of pixels 211 that the row scanning circuit 202b outputs to the column signal line 215b through the transfer signal line 212b is smaller than the number of pixels 211 that the row scanning circuit 202a outputs to the column signal line 215a through the transfer signal line 212a.

鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)は、現像処理部122が列信号線215aに出力される画素211のすべての信号を入力するまでに、第1の画像処理を完了させる。   The specular reflection candidate area extraction unit 113 or the face candidate detection unit 610 (and the face candidate normalization unit 611) does not have the first time until the development processing unit 122 inputs all the signals of the pixels 211 output to the column signal line 215a. 1 image processing is completed.

鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)等の第1の画像処理部は、所定の画像領域を検出する。具体的には、第1の画像処理部は、被写体表面における鏡面反射成分を含む画像領域、被写体人物の顔を含む画像領域、又は特定の被写体を含む画像領域を検出する。第1の画像処理部は、所定の画像領域の有無、所定の画像領域個数、及び所定の画像領域の位置情報を出力、又は所定の画像領域の画像信号を出力する。現像処理部122は、第1の画像処理部により検出された画像領域に対して第2の画像処理を行う。   A first image processing unit such as the specular reflection candidate region extraction unit 113 or the face candidate detection unit 610 (and the face candidate normalization unit 611) detects a predetermined image region. Specifically, the first image processing unit detects an image region including a specular reflection component on the surface of the subject, an image region including the face of the subject person, or an image region including a specific subject. The first image processing unit outputs presence / absence of a predetermined image area, a predetermined number of image areas, and position information of the predetermined image area, or outputs an image signal of the predetermined image area. The development processing unit 122 performs second image processing on the image area detected by the first image processing unit.

また、画像処理システムは、撮像装置と、画像処理装置とを有する。撮像装置は、イメージセンサー111と、行走査回路202a,202bと、第1の画像処理部と、記録部とを有する。第1の画像処理部は、鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)である。画像処理装置は、現像処理部122を有する。記録部は、列信号線215aの信号及び第1の画像処理部の第1の画像処理の結果を記録する。現像処理部122は、記録部に記録された第1の画像処理部の第1の画像処理の結果を基に、記録部に記録された列信号線215aの信号に対して第2の画像処理を行う。   The image processing system includes an imaging device and an image processing device. The imaging apparatus includes an image sensor 111, row scanning circuits 202a and 202b, a first image processing unit, and a recording unit. The first image processing unit is the specular reflection candidate region extraction unit 113 or the face candidate detection unit 610 (and the face candidate normalization unit 611). The image processing apparatus includes a development processing unit 122. The recording unit records the signal of the column signal line 215a and the result of the first image processing of the first image processing unit. The development processing unit 122 performs second image processing on the signal of the column signal line 215a recorded in the recording unit, based on the result of the first image processing of the first image processing unit recorded in the recording unit. I do.

第1及び第2の実施形態によれば、現像処理部122は、第1の画像処理部の第1の画像処理の結果に基づいて列信号線215aの信号に対して第2の画像処理を行う。特に、鏡面反射候補領域抽出部113又は顔候補検出部610の粗く高速な検出処理と、鏡面反射抽出部124又は顔判定部622の高精度で処理量の大きい検出処理との2段階で検出処理を行う。現像処理部122は、検出処理の完了を待つ事によって生ずるタイムラグを短縮し、全体の処理時間を短縮する事ができる。   According to the first and second embodiments, the development processing unit 122 performs the second image processing on the signal of the column signal line 215a based on the result of the first image processing of the first image processing unit. Do. In particular, the detection processing is performed in two stages, that is, a rough and high-speed detection process of the specular reflection candidate region extraction unit 113 or the face candidate detection unit 610 and a high-accuracy and high-volume detection process of the mirror reflection extraction unit 124 or the face determination unit 622 I do. The development processing unit 122 can shorten the time lag caused by waiting for the completion of the detection process, and can shorten the entire processing time.

なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。   The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.

100 撮像装置、110 積層センサー、111 イメージセンサー、113 鏡面反射候補領域抽出部、120 画像処理ロジック部、122 現像処理部 DESCRIPTION OF SYMBOLS 100 Imaging device, 110 Stack sensor, 111 Image sensor, 113 Specular reflection candidate area extraction part, 120 Image processing logic part, 122 Development processing part

Claims (28)

イメージセンサー層と信号処理層が積層されたイメージセンサーであって、
前記イメージセンサー層に含まれ、光像を画像信号に変換する複数の画素と、
前記信号処理層に含まれ、前記画像信号を基に画像領域の位置特定する第1の信号処理部と、
前記画像信号を外部装置に含まれる第2の信号処理部に出力する第1の出力端子と、
前記第2の信号処理部内の処理のために、前記第1の信号処理部が特定した前記画像領域の位置に係る出力領域情報を前記第2の信号処理部に出力する第2の出力端子と、
前記第1の信号処理部のための設定データを入力する第1の入力端子と
を有することを特徴とするイメージセンサー。
An image sensor in which an image sensor layer and a signal processing layer are stacked,
A plurality of pixels included in the image sensor layer for converting a light image into an image signal;
A first signal processing unit that is included in the signal processing layer and identifies a position of an image region based on the image signal;
A first output terminal for outputting the image signal to a second signal processing unit included in an external device;
A second output terminal for outputting, to the second signal processing unit, output region information relating to the position of the image region specified by the first signal processing unit for processing in the second signal processing unit ; ,
Image sensor characterized by have a first input terminal for inputting a setting data for said first signal processing unit.
前記信号処理層は、前記第1の出力端子と、前記第2の出力端子と、前記第1の入力端子とを含むことを特徴とする請求項1に記載のイメージセンサー。 The image sensor according to claim 1, wherein the signal processing layer includes the first output terminal, the second output terminal, and the first input terminal. 前記画像信号を前記第1の出力端子に出力するために前記複数の画素に接続される第1の信号線と、
前記画像信号を前記第1の信号処理部に出力するために前記複数の画素に接続される第2の信号線とをさらに有することを特徴とする請求項1又は2に記載のイメージセンサー。
A first signal line connected to the plurality of pixels to output the image signal to the first output terminal;
The image sensor according to claim 1, further comprising a second signal line connected to the plurality of pixels in order to output the image signal to the first signal processing unit.
前記第1の信号処理部は、前記第1の出力端子が前記複数の画素の前記画像信号のすべてを出力する前に、前記画像領域の位置特定するための特定処理を完了させることを特徴とする請求項1〜3のいずれか1項に記載のイメージセンサー。 The first signal processing unit completes a specifying process for specifying the position of the image area before the first output terminal outputs all of the image signals of the plurality of pixels. The image sensor according to any one of claims 1 to 3. 前記第1の信号処理部は、被写体表面における鏡面反射成分を含む画像領域の位置、被写体人物の顔を含む画像領域の位置、又は特定の被写体を含む画像領域の位置特定することを特徴とする請求項1〜4のいずれか1項に記載のイメージセンサー。 The first signal processing unit, and characterized by identifying the position of the image region including the position of the image area including the specular reflection component, the position of the image area including a face of a subject person, or a particular subject in the subject surface The image sensor according to any one of claims 1 to 4. 前記第1の信号処理部は、前記画像信号のテンプレートマッチング処理を行うことを特徴とする請求項1〜5のいずれか1項に記載のイメージセンサー。   The image sensor according to claim 1, wherein the first signal processing unit performs template matching processing of the image signal. 前記第1の信号処理部は、前記画像信号の輝度を基に前記画像領域の位置特定することを特徴とする請求項1〜6のいずれか1項に記載のイメージセンサー。 The image sensor according to claim 1, wherein the first signal processing unit specifies a position of the image region based on luminance of the image signal. 前記第1の信号処理部は、前記画像信号を基に複数の前記画像領域の位置特定することを特徴とする請求項1〜7のいずれか1項に記載のイメージセンサー。 The image sensor according to claim 1, wherein the first signal processing unit specifies positions of the plurality of image regions based on the image signal. 前記複数の画素から出力される画像信号を選択するための第1の制御部と第2の制御部をさらに有し、
前記第2の制御部は、前記第1の制御部とは異なることを特徴とする請求項1〜8のいずれか1項に記載のイメージセンサー。
A first control unit and a second control unit for selecting image signals output from the plurality of pixels;
The image sensor according to claim 1, wherein the second control unit is different from the first control unit.
前記画像信号を前記第1の信号線又は前記第2の信号線に出力するか否かを選択する選択スイッチをさらに有することを特徴とする請求項3に記載のイメージセンサー。   The image sensor according to claim 3, further comprising a selection switch that selects whether to output the image signal to the first signal line or the second signal line. 前記第1の信号処理部により処理される前記画像信号のデータ量は、外部装置に含まれる前記第2の信号処理部により処理される前記画像信号のデータ量より少ないことを特徴とする請求項1〜10のいずれか1項に記載のイメージセンサー。   The data amount of the image signal processed by the first signal processing unit is smaller than the data amount of the image signal processed by the second signal processing unit included in an external device. The image sensor according to any one of 1 to 10. 複数の設定データが予め記録される第1のメモリをさらに有し、
前記第1の信号処理部は、前記画像領域の位置特定するために、前記第1のメモリから複数のパラメータを順次取得することを特徴とする請求項1〜11のいずれか1項に記載のイメージセンサー。
A first memory in which a plurality of setting data is recorded in advance;
12. The first signal processing unit according to claim 1, wherein the first signal processing unit sequentially acquires a plurality of parameters from the first memory in order to specify a position of the image region. Image sensor.
前記第1の信号処理部の特定結果が記録される第2のメモリをさらに有することを特徴とする請求項12に記載のイメージセンサー。 The image sensor according to claim 12, further comprising a second memory in which the identification result of the first signal processing unit is recorded. 前記第1のメモリから取得した前記複数のパラメータの量は、フレームレートを基に制限されることを特徴とする請求項12に記載のイメージセンサー。   The image sensor according to claim 12, wherein the amount of the plurality of parameters acquired from the first memory is limited based on a frame rate. イメージセンサー層と信号処理層が積層されたイメージセンサーであって、
前記イメージセンサー層に含まれ、光像を画像信号に変換する複数の画素と、
前記信号処理層に含まれ、前記画像信号の輝度の高さを基に画像領域を検出する第1の信号処理部と、
前記画像信号を外部装置に含まれる第2の信号処理部に出力する第1の出力端子と、
前記第2の信号処理部内の処理のために、前記第1の信号処理部が検出した前記画像領域に係る出力領域情報を前記第2の信号処理部に出力する第2の出力端子と、
前記画像領域を検出するための設定データを入力する第1の入力端子と
を有することを特徴とするイメージセンサー。
An image sensor in which an image sensor layer and a signal processing layer are stacked,
A plurality of pixels included in the image sensor layer for converting a light image into an image signal;
A first signal processing unit that is included in the signal processing layer and detects an image area based on a luminance level of the image signal;
A first output terminal for outputting the image signal to a second signal processing unit included in an external device;
A second output terminal that outputs, to the second signal processing unit, output region information relating to the image region detected by the first signal processing unit for processing in the second signal processing unit ;
Image sensor characterized by have a first input terminal for inputting a setting data for detecting the image region.
前記信号処理層は、前記第1の出力端子と、前記第2の出力端子と、前記第1の入力端子とを含むことを特徴とする請求項15に記載のイメージセンサー。 The image sensor according to claim 15 , wherein the signal processing layer includes the first output terminal, the second output terminal, and the first input terminal. 前記第1の信号処理部は、前記第1の出力端子が前記複数の画素の前記画像信号のすべてを出力する前に、前記画像領域を検出するための検出処理を完了させることを特徴とする請求項15又は16に記載のイメージセンサー。 The first signal processing unit, wherein said first output terminal before outputting all of said image signals of said plurality of pixels, thereby completing a detection process for detecting the front Kiga image area The image sensor according to claim 15 or 16 . 前記第1の信号処理部は、被写体表面における鏡面反射成分を含む画像領域、被写体人物の顔を含む画像領域、又は特定の被写体を含む画像領域を検出することを特徴とする請求項1517のいずれか1項に記載のイメージセンサー。 The first signal processing unit, an image area including a specular reflection component in the surface of the object, claim 15 to 17 and detecting an image region including an image region including the face of a subject person, or a particular subject The image sensor according to any one of 1. 前記第1の信号処理部は、前記画像信号のテンプレートマッチング処理を行うことを特徴とする請求項1518のいずれか1項に記載のイメージセンサー。 The image sensor according to any one of claims 15 to 18 , wherein the first signal processing unit performs a template matching process on the image signal. 前記第1の信号処理部は、前記画像信号の輝度の高さを基に複数の前記画像領域を検出することを特徴とする請求項1519のいずれか1項に記載のイメージセンサー。 The first signal processing unit includes an image sensor according to any one of claims 15 to 19, wherein the detecting a plurality of pre-outs image region based on the height of the luminance of the image signal . 前記複数の画素から出力される画像信号を選択するための第1の制御部と第2の制御部をさらに有し、
前記第2の制御部は、前記第1の制御部とは異なることを特徴とする請求項1520のいずれか1項に記載のイメージセンサー。
A first control unit and a second control unit for selecting image signals output from the plurality of pixels;
Said second control unit, an image sensor according to any one of claims 15 to 20, wherein different from said first control unit.
前記画像信号を前記第1の出力端子に出力するために前記複数の画素に接続される第1の信号線と、
前記画像信号を前記第1の信号処理部に出力するために前記複数の画素に接続される第2の信号線と、
前記画像信号を前記第1の信号線又は前記第2の信号線に出力するか否かを選択する選択スイッチをさらに有することを特徴とする請求項15〜21のいずれか1項に記載のイメージセンサー。
A first signal line connected to the plurality of pixels to output the image signal to the first output terminal;
A second signal line connected to the plurality of pixels for outputting the image signal to the first signal processing unit;
The selection switch according to any one of claims 15 to 21, further comprising a selection switch for selecting whether to output the image signal to the first signal line or the second signal line. Image sensor.
前記第1の信号処理部により処理される前記画像信号のデータ量は、外部装置に含まれる前記第2の信号処理部により処理される前記画像信号のデータ量より少ないことを特徴とする請求項1522のいずれか1項に記載のイメージセンサー。 The data amount of the image signal processed by the first signal processing unit is smaller than the data amount of the image signal processed by the second signal processing unit included in an external device. The image sensor according to any one of 15 to 22 . 複数の設定データが予め記録される第1のメモリをさらに有し、
前記第1の信号処理部は、前記画像領域を検出するために、前記第1のメモリから複数のパラメータを順次取得することを特徴とする請求項1523のいずれか1項に記載のイメージセンサー。
A first memory in which a plurality of setting data is recorded in advance;
The first signal processing unit, pre-outs in order to detect the image area, according to any one of claims 15 to 23, characterized in that sequentially acquires a plurality of parameters from the first memory Image sensor.
前記第1の信号処理部の検出結果が記録される第2のメモリをさらに有することを特徴とする請求項24に記載のイメージセンサー。 The image sensor according to claim 24 , further comprising a second memory in which a detection result of the first signal processing unit is recorded. 前記第1のメモリから取得した前記複数のパラメータの量は、フレームレートを基に制限されることを特徴とする請求項24に記載のイメージセンサー。 The image sensor according to claim 24 , wherein the amount of the plurality of parameters acquired from the first memory is limited based on a frame rate. イメージセンサー層と信号処理層が積層されたイメージセンサーの制御方法であって、
前記イメージセンサー層に含まれる複数の画素により、光像を画像信号に変換するステップと、
前記信号処理層に含まれる第1の信号処理部により、前記画像信号を基に画像領域の位置特定するステップと、
第1の出力端子により、前記画像信号を外部装置に含まれる第2の信号処理部に出力するステップと、
第2の出力端子により、前記第2の信号処理部内の処理のために、前記第1の信号処理部が特定した前記画像領域の位置に係る出力領域情報を前記第2の信号処理部に出力するステップと、
第1の入力端子により、前記第1の信号処理部のための設定データを入力するステップと
を有することを特徴とするイメージセンサーの制御方法。
An image sensor control method in which an image sensor layer and a signal processing layer are stacked,
Converting a light image into an image signal by a plurality of pixels included in the image sensor layer ;
Identifying a position of an image region based on the image signal by a first signal processing unit included in the signal processing layer ;
Outputting the image signal to a second signal processing unit included in the external device by a first output terminal;
Output region information related to the position of the image region specified by the first signal processing unit is output to the second signal processing unit by the second output terminal for processing in the second signal processing unit. And steps to
The first input terminal, the image sensor control method, characterized by chromatic and a step of inputting setting data for said first signal processing unit.
イメージセンサー層と信号処理層が積層されたイメージセンサーの制御方法であって、
前記イメージセンサー層に含まれる複数の画素により、光像を画像信号に変換するステップと、
前記信号処理層に含まれる第1の信号処理部により、前記画像信号の輝度の高さを基に画像領域を検出するステップと、
第1の出力端子により、前記画像信号を外部装置に含まれる第2の信号処理部に出力するステップと、
第2の出力端子により、前記第2の信号処理部内の処理のために、前記第1の信号処理部が検出した前記画像領域に係る出力領域情報を前記第2の信号処理部に出力するステップと、
第1の入力端子により、前記画像領域を検出するための設定データを入力するステップと
を有することを特徴とするイメージセンサーの制御方法。
An image sensor control method in which an image sensor layer and a signal processing layer are stacked,
Converting a light image into an image signal by a plurality of pixels included in the image sensor layer ;
A step of detecting an image region based on a luminance level of the image signal by a first signal processing unit included in the signal processing layer ;
Outputting the image signal to a second signal processing unit included in the external device by a first output terminal;
A step of outputting output region information related to the image region detected by the first signal processing unit to the second signal processing unit for processing in the second signal processing unit by a second output terminal; When,
The first input terminal, a control method of the image sensor, characterized by chromatic and a step of inputting setting data for detecting the image region.
JP2017231499A 2017-12-01 2017-12-01 Image sensor and image sensor control method Active JP6456466B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017231499A JP6456466B2 (en) 2017-12-01 2017-12-01 Image sensor and image sensor control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017231499A JP6456466B2 (en) 2017-12-01 2017-12-01 Image sensor and image sensor control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014075746A Division JP6261430B2 (en) 2014-04-01 2014-04-01 Imaging apparatus and image processing system

Publications (2)

Publication Number Publication Date
JP2018042284A JP2018042284A (en) 2018-03-15
JP6456466B2 true JP6456466B2 (en) 2019-01-23

Family

ID=61624124

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017231499A Active JP6456466B2 (en) 2017-12-01 2017-12-01 Image sensor and image sensor control method

Country Status (1)

Country Link
JP (1) JP6456466B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024986A (en) * 2000-07-06 2002-01-25 Nippon Signal Co Ltd:The Pedestrian detector
JP3932379B2 (en) * 2001-10-02 2007-06-20 株式会社日立製作所 Image processing apparatus and image sensor
JP4193768B2 (en) * 2004-07-16 2008-12-10 ソニー株式会社 Data processing method, physical quantity distribution detection semiconductor device and electronic apparatus
JP4908067B2 (en) * 2006-06-01 2012-04-04 オリンパス株式会社 Solid-state imaging device and imaging device system using the same
JP5693094B2 (en) * 2010-08-26 2015-04-01 キヤノン株式会社 Image processing apparatus, image processing method, and computer program
JP5810493B2 (en) * 2010-09-03 2015-11-11 ソニー株式会社 Semiconductor integrated circuit, electronic equipment, solid-state imaging device, imaging device

Also Published As

Publication number Publication date
JP2018042284A (en) 2018-03-15

Similar Documents

Publication Publication Date Title
JP6261430B2 (en) Imaging apparatus and image processing system
US10277830B2 (en) Solid-state imaging apparatus and light-shielding pixel arrangements thereof
US10089548B2 (en) Image recognition device and image recognition method
US9485440B2 (en) Signal processing unit and signal processing method
US10070078B2 (en) Solid-state image sensor with pixels having in-pixel memories, motion information acquisition apparatus, and imaging apparatus
JP5979961B2 (en) FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, AND IMAGING DEVICE
JP2010045770A (en) Image processor and image processing method
EP3358820A1 (en) Imaging device, image processing device and display device
JP2008219874A (en) Imaging device, image processing device, control method, and program
JP5398612B2 (en) Moving object detection apparatus and method
JP2015023511A (en) Imaging apparatus, image processing method and image processing program
US20240114260A1 (en) Imaging element, imaging apparatus, operation method of imaging element, and program
JP2003304544A (en) Imaging apparatus
JP2017188760A (en) Image processing apparatus, image processing method, computer program, and electronic apparatus
JP6456466B2 (en) Image sensor and image sensor control method
JP5302511B2 (en) Two-wavelength infrared image processing device
US11495005B2 (en) Image sensor and control method thereof, and image capturing apparatus and control method thereof
US11381762B2 (en) Integrated circuit chip and image capturing apparatus
CN104639842A (en) Image processing device and exposure control method
JP2009027289A (en) Digital camera and operation control method thereof
CN112514370B (en) Image processing device, image capturing device, image processing method, and recording medium
JP2012191595A (en) Imaging apparatus
JP2007249526A (en) Imaging device, and face area extraction method
JP5950675B2 (en) Imaging device
WO2017038052A1 (en) Imaging device and solid-state imaging device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181218

R151 Written notification of patent or utility model registration

Ref document number: 6456466

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151