JP4466612B2 - Solid-state imaging device and control method thereof - Google Patents

Solid-state imaging device and control method thereof Download PDF

Info

Publication number
JP4466612B2
JP4466612B2 JP2006148856A JP2006148856A JP4466612B2 JP 4466612 B2 JP4466612 B2 JP 4466612B2 JP 2006148856 A JP2006148856 A JP 2006148856A JP 2006148856 A JP2006148856 A JP 2006148856A JP 4466612 B2 JP4466612 B2 JP 4466612B2
Authority
JP
Japan
Prior art keywords
solid
imaging device
image
state imaging
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006148856A
Other languages
Japanese (ja)
Other versions
JP2006333493A (en
Inventor
寿伸 杉山
真一 吉村
亮司 鈴木
和弘 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006148856A priority Critical patent/JP4466612B2/en
Publication of JP2006333493A publication Critical patent/JP2006333493A/en
Application granted granted Critical
Publication of JP4466612B2 publication Critical patent/JP4466612B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、通常の画像信号の取得機能に加えて各種アプリケーションを実行するための演算機能を付加した固体撮像装置及びその制御方法に関する。   The present invention relates to a solid-state imaging device having a calculation function for executing various applications in addition to a normal image signal acquisition function and a control method thereof.

近年、イメージセンサに画像情報の各種演算機能を持たせることにより、画像処理の高速化等を実現する固体撮像装置が提案されている。
そして、このようなイメージセンサの1つとして、通常の実画像の取得と、3次元距離計算機能や動体検出機能を備えたセンサが提案されている(例えば、ISSCC/2001/SESSION6/CMOS IMAGE SENSORS WITH EMBEDDED PROCESSORS/6.4(2001IEEE International Solid-State Circults Conference) 、および、特願2000−107723号等参照、なお、以下の説明においては前者を従来文献1、後者を従来文献2として説明する)。
これらは、イメージセンサの内部に、通常のイメージセンサと同様の画像取得回路に加えて、時間的な光の強度変化を検出する機能を持たせたものであり、具体的なアーキテクチャとしては、各画素毎にこれらの演算機能を持たせたものが既に報告されている。
このようなイメージセンサの演算機能を利用することにより、さまざまな画像処理が実現されるが、その中の代表的なものとして3次元計測の原理を以下に説明する。
In recent years, there has been proposed a solid-state imaging device that realizes high-speed image processing or the like by providing an image sensor with various calculation functions of image information.
As one of such image sensors, a sensor having a normal real image acquisition, a three-dimensional distance calculation function and a moving object detection function has been proposed (for example, ISSCC / 2001 / SESSION6 / CMOS IMAGE SENSORS). WITH EMBEDDED PROCESSORS / 6.4 (2001 IEEE International Solid-State Circults Conference), and Japanese Patent Application No. 2000-107723, etc.
In addition to the image acquisition circuit similar to a normal image sensor, these have a function to detect temporal changes in light intensity. The thing which gave these arithmetic functions for every pixel has already been reported.
Various image processing can be realized by using the arithmetic function of such an image sensor. The typical principle of three-dimensional measurement will be described below.

図6は、3次元計測を行うための三角法の原理とスリット光の検出方法を示す説明図である。
まず、図6(A)に示すように、三角法では、距離計測を行う物体(Object)1に対し、センサ2と投光部(Light source)3とを離して配置する。なお、投光部3は、物体1にスリット光を照射するものであり、スリット光を反射するスキャナ(Scanning mirror )4が設けられている。
このような配置状態で、スキャナ4は、投光部3のスリット光を例えば右から左へスキャンするという動作を繰り返す。
そして、図6(B)に示すように、投光部3のスリット光が右から左へ1回スキャンする間に、センサ2内では数千回から数万回のフレーム掃引が行われ、センサ2内の各撮像画素(ピクセル)は、そのスリット光の物体1による反射光を検出した時点で、それを示すデータを出力する。
FIG. 6 is an explanatory diagram illustrating the principle of trigonometry and the method of detecting slit light for performing three-dimensional measurement.
First, as shown in FIG. 6 (A), in the trigonometry, the sensor 2 and the light source (Light source) 3 are arranged apart from the object (Object) 1 for distance measurement. The light projecting unit 3 irradiates the object 1 with slit light, and is provided with a scanner (Scanning mirror) 4 that reflects the slit light.
In such an arrangement state, the scanner 4 repeats the operation of scanning the slit light of the light projecting unit 3 from right to left, for example.
Then, as shown in FIG. 6B, while the slit light of the light projecting unit 3 scans once from the right to the left, in the sensor 2, thousands to tens of thousands of frame sweeps are performed. When each of the imaging pixels (pixels) 2 detects the reflected light from the object 1 of the slit light, it outputs data indicating it.

ここで、1つのピクセルに注目した場合、ピクセルの視線方向において、反射光が検出される時の物体1のセンサ2からの距離とスキャナ4の振り角度は一意に決定される。つまり、スキャナ4におけるスキャンの開始とセンサ2のフレーム数のカウント開始を同時にした場合、何フレーム目でスリット光が検出されたかを知ることにより、スキャナ4の振り角度が決定され、よって、センサ2から物体1の距離が決まることになる。
ただし、実際のイメージセンサでは、予め距離校正用物体によって上述したフレームカウント数と距離の校正を行っておき、そのデータをテーブルとしてシステム側で保持しておくことにより、精度の高い距離の絶対計測が可能となる。
Here, when attention is paid to one pixel, the distance from the sensor 2 of the object 1 when the reflected light is detected and the swing angle of the scanner 4 are uniquely determined in the line-of-sight direction of the pixel. That is, when the scanning of the scanner 4 and the counting of the number of frames of the sensor 2 are started at the same time, the swing angle of the scanner 4 is determined by knowing at which frame the slit light is detected. The distance from the object 1 to the object 1 is determined.
However, in an actual image sensor, the above-mentioned frame count number and distance are calibrated with a distance calibration object in advance, and the data is stored as a table on the system side, so that accurate absolute distance measurement is possible. Is possible.

以上のような三角計量による方法において、イメージセンサに要求される機能としては、投光スリット光の高感度検出がある。
通常、投光波長としては赤外光が使われるが、非測定物体により赤外光の反射率に差があるため、反射率の悪いテクスチャを持つ物体においても、計測を可能にするためには、スリット光の通過を検出する精度を高める必要がある。
上記従来文献1では、この高感度検出を行うために、各ピクセル毎に光信号の演算を行っている。以下、このアーキテクチャを説明する。
In the method using triangulation as described above, a function required for the image sensor includes high-sensitivity detection of the projection slit light.
Normally, infrared light is used as the projection wavelength, but because there is a difference in the reflectance of infrared light depending on the non-measurement object, in order to enable measurement even for objects with poor reflectance texture It is necessary to improve the accuracy of detecting the passage of slit light.
In the prior art document 1, in order to perform this high sensitivity detection, an optical signal is calculated for each pixel. Hereinafter, this architecture will be described.

図7は、従来文献1、2におけるイメージセンサの全体構成を示すブロック図であり、図8は、図7に示すイメージセンサの1つのピクセルの内部構造を示す回路図である。
図7において、被写体の撮像を行う撮像部10内には、それぞれフォトセンサを構成する多数のピクセル11がマトリクス状に配置されるとともに、各ピクセル11を選択して各列の撮像信号を取り出すための垂直信号線12等が設けられている。
また、撮像部10の外側には、選択線を通して撮像信号を取り出すピクセル11を垂直方向に走査するVスキャナ部13と、このVスキャナ部13に対する制御信号を出力する信号発生部14と、垂直信号線12からの各列(Column)#1〜#192の出力信号を受け取って必要な信号処理を行い、各列の画像信号として出力する出力回路部15とを有する。
FIG. 7 is a block diagram showing the overall configuration of the image sensor in the prior art documents 1 and 2, and FIG. 8 is a circuit diagram showing the internal structure of one pixel of the image sensor shown in FIG.
In FIG. 7, in the image pickup unit 10 that picks up an image of a subject, a large number of pixels 11 constituting each photosensor are arranged in a matrix, and each pixel 11 is selected to take out an image pickup signal of each column. Vertical signal lines 12 are provided.
Further, outside the imaging unit 10, a V scanner unit 13 that scans a pixel 11 from which an imaging signal is extracted through a selection line in a vertical direction, a signal generation unit 14 that outputs a control signal to the V scanner unit 13, and a vertical signal The output circuit unit 15 receives the output signals of the columns (Columns) # 1 to # 192 from the line 12, performs necessary signal processing, and outputs the image signals of the columns.

また、図8において、各ピクセル11内には、光を受光するフォトダイオード(PD)21と、光の強度に応じて電流を流す増幅トランジスタ(QA)22と、その電流を増幅するカレントミラー回路23と、その電流信号を記憶するカレントコピア回路(Frame memories)24と、このカレントコピア回路24からの電流を比較する2段のチョッパコンパレータ26と、その電流にバイアスを与えるバイアス回路(offset genertor )27等より構成される。
このうち、PD21からの信号電荷を読み出すユニットには、PD21から信号電荷を取り出すためのフローティングデフュージョン(FD)31部と、PD21の信号電荷をFD部31に転送するための転送トランジスタ32と、FD部31をリセットするためのリセットトランジスタ34と、FD部31の信号電荷を電圧信号に変換して増幅する上述した増幅トランジスタ22と、この増幅トランジスタ22の出力電流を増幅する上述したカレントミラー回路23と、出力のタイミングを制御するスイッチ(SA)33とを有する。
また、カレントコピア回路24は、4つの回路(M1〜M4)が並列に設定されており、これらはそれぞれフレームメモリとして機能し、合計で4フレーム分の光信号を記憶することが可能である。
In FIG. 8, in each pixel 11, a photodiode (PD) 21 that receives light, an amplifying transistor (QA) 22 that supplies current according to the intensity of light, and a current mirror circuit that amplifies the current. 23, a current copier circuit (Frame memories) 24 for storing the current signal, a two-stage chopper comparator 26 for comparing the current from the current copier circuit 24, and a bias circuit (offset genertor) for applying a bias to the current 27 etc.
Among these, the unit for reading the signal charge from the PD 21 includes a floating diffusion (FD) 31 part for extracting the signal charge from the PD 21, a transfer transistor 32 for transferring the signal charge of the PD 21 to the FD part 31, and A reset transistor 34 for resetting the FD unit 31, the above-described amplification transistor 22 that amplifies the signal charge of the FD unit 31 by converting it into a voltage signal, and the above-described current mirror circuit that amplifies the output current of the amplification transistor 22 23 and a switch (SA) 33 for controlling the output timing.
Further, the current copier circuit 24 has four circuits (M1 to M4) set in parallel, each of which functions as a frame memory, and can store a total of four frames of optical signals.

図9は、このようなイメージセンサにおける距離計測動作を示すタイミングチャートである。
レーザが1回スキャンする1スキャンピリオドの間に、イメージセンサ内では数千から数万フレームの操作が行われる。ここで、1スキャンピリオドは、通常はモニタに距離情報を映し出す時のビデオフレームレートに合わせており、およそ33msecである。
なお、以下の説明においては、このビデオフレームレートと区別するために、イメージセンサ内部の1画面分の走査をセンサフレームというものとする。
FIG. 9 is a timing chart showing the distance measuring operation in such an image sensor.
During one scan period when the laser scans once, operations of several thousand to several tens of thousands of frames are performed in the image sensor. Here, one scan period is usually 33 msec in accordance with the video frame rate when the distance information is displayed on the monitor.
In the following description, in order to distinguish from the video frame rate, scanning for one screen inside the image sensor is referred to as a sensor frame.

センサフレーム(図9の1Frame)の開始において、全てのピクセルは、FD部31のリセット信号(RST)、電荷転送信号(TX)により、光信号により蓄積された電荷がFD部31、つまり増幅トランジスタ(QA)22のゲートに転送される。
以後、イメージセンサのRow(行)方向について1ラインずつピクセルが選択され、カレントコピア回路24への信号記憶動作(φ1)、読み出し動作(φ2、φ3)が行われる。
ここで、記憶動作φ1では、検出信号を1つのフレームメモリに記憶するが、フレームが変わるごとに、逐次記憶するフレームメモリを変えていく(Frameindex:A、B、C、D)。
そして、読み出し動作φ2、φ3では前の2フレームのメモリと後の2フレームのメモリを加算して、コンパレータ26において比較することにより、
f(k)+f(k−1)−(f(k−2)+f(k−3))−(Iz−Ic)
…… (式1)
の演算を可能にする。
ここで、最後のIz、Icはバイアス回路27によるバイアス電流を指すものであり、それぞれ、φ2、φ3の期間の電流に相当し、通常は(Iz−Ic)>0に設定される。
At the start of the sensor frame (1 Frame in FIG. 9), all the pixels in the FD unit 31, that is, amplification transistors, store the charges accumulated by the optical signal by the reset signal (RST) and the charge transfer signal (TX) of the FD unit 31. (QA) 22 is transferred to the gate.
Thereafter, pixels are selected line by line in the row direction of the image sensor, and a signal storing operation (φ1) and a reading operation (φ2, φ3) to the current copier circuit 24 are performed.
Here, in the storage operation φ1, the detection signal is stored in one frame memory, but the frame memory to be stored is changed every time the frame changes (Frame index: A, B, C, D).
Then, in the read operations φ2 and φ3, the memory of the previous two frames and the memory of the subsequent two frames are added and compared by the comparator 26,
f (k) + f (k-1)-(f (k-2) + f (k-3))-(Iz-Ic)
(Formula 1)
Enables the operation of
Here, the last Iz and Ic indicate bias currents by the bias circuit 27, which correspond to currents in the periods of φ2 and φ3, respectively, and are normally set to (Iz−Ic)> 0.

上式において、投光スリットが検出されない時は、各ピクセルの光検出光強度に時間的な差は生じないので、式1の第4項までの演算は0となり、バイアス部のみ残って負の値となる。これをコンパレータ26の出力で判定するとLowデータの出力となる。
一方、投光スリット光がピクセルを通過する時は、必ず前半の2フレームの加算データが後半のデータよりも大きくなる時間領域が存在し(図6(C))、それが設定バイアス(Iz−Ic)を越えると、式1の演算結果は正の値となる。つまり、あるピクセルに注目した場合、コンパレータ26のデータは平常時はLowであるが、スリット光が通過するとHighデータになる。
よって、各ピクセルについて、コンパレータ26のデータがHighになるフレームカウント数をシステム側にて記録しておけば、上記のカウント数と投光スキャナの角度の関係から三角測量により、各点までの距離を一意的に計測することが可能となる。
In the above equation, when the light projection slit is not detected, there is no time difference in the light detection light intensity of each pixel, so the calculation up to the fourth term of Equation 1 is 0, and only the bias portion remains and is negative. Value. If this is determined by the output of the comparator 26, it becomes an output of Low data.
On the other hand, when the projection slit light passes through the pixel, there is always a time region in which the added data of the first two frames is larger than the latter data (FIG. 6C), which is the set bias (Iz−). If Ic) is exceeded, the calculation result of Equation 1 becomes a positive value. That is, when attention is paid to a certain pixel, the data of the comparator 26 is normally low, but becomes high data when the slit light passes.
Therefore, for each pixel, if the frame count number at which the data of the comparator 26 becomes High is recorded on the system side, the distance to each point is determined by triangulation from the relationship between the count number and the angle of the projector. Can be measured uniquely.

一方、上記のイメージセンサでは、ピクセル内でA/D変換処理を行うことにより、通常の画像を出力することも可能である。
このとき、フレームメモリM1〜M4の1つにリファレンス信号を記憶しておき、その後、各センサフレーム走査ごとに、ピクセル内のFD部31に光信号電荷を積分蓄積していき、それを別のフレームメモリM1〜M4へ記憶し、コンパレータ26によってリファレンスレベルと大きさの比較を行う。
光強度が大きいピクセルの場合、少数回のフレーム走査による電荷蓄積によってリファレンスレベルを越えるが、強度が小さい場合、多数回のフレーム操作が必要となる。よって、距離計測と同様、コンパレータ26のデータが反転するフレームカウント数をシステム側において記憶しておけば、そのカウント数が実画像に対応し、それをモニタに映し出すことが可能になる。
On the other hand, in the image sensor described above, it is also possible to output a normal image by performing A / D conversion processing within the pixel.
At this time, the reference signal is stored in one of the frame memories M1 to M4, and thereafter, for each sensor frame scan, the optical signal charge is integrated and accumulated in the FD unit 31 in the pixel, The data is stored in the frame memories M1 to M4, and the comparator 26 compares the reference level with the size.
In the case of a pixel with high light intensity, the reference level is exceeded by charge accumulation by a small number of frame scans, but when the intensity is low, many frame operations are required. Therefore, as in the distance measurement, if the frame count number at which the data of the comparator 26 is inverted is stored on the system side, the count number corresponds to the actual image and can be displayed on the monitor.

しかしながら、上述のようなイメージセンサでは、各ピクセルごとに演算回路を保持するために、画素サイズが大きくなり、センサの小型化、ならびに多画素化することが困難である。
また、回路規模が大きくなり、チップの消費電力が大きくなるため、例えば従来文献1では、1W以上の消費電力となっている。
このようなイメージセンサは、その配置スペースが十分で、電力能力の大きな、比較的大きなシステムでは利用可能であるが、低消費電力化、低コスト化、実画像の多画素化が要求されるようなコンシューマ向け等のアプリケーションには適さない。
また、さらにコンシューマ向けでは、実画像は通常のイメージャと同様に、高品質のカラーの画像が要求される傾向にある。
However, in the image sensor as described above, since the arithmetic circuit is held for each pixel, the pixel size becomes large, and it is difficult to reduce the size of the sensor and increase the number of pixels.
In addition, since the circuit scale increases and the power consumption of the chip increases, for example, in the conventional document 1, the power consumption is 1 W or more.
Such an image sensor has sufficient space for placement and can be used in a relatively large system having a large power capability. However, low power consumption, low cost, and a large number of pixels of an actual image are required. It is not suitable for applications such as for consumers.
Further, for consumers, real images tend to require high-quality color images, as with normal imagers.

本発明は、このような実状に鑑みてなされたものであり、その目的とするところは、各画素内の構成を複雑化することなく、通常の実画像の取得機能各種アプリケーションを実行する演算機能の双方を強化することができ、小型化、低消費電力化、低コスト化、実画像の多画素化(高画質化)等を実現することが可能な固体撮像装置及び制御方法を提供することにある。   The present invention has been made in view of such a situation, and an object of the present invention is to perform a normal real image acquisition function and a calculation function to execute various applications without complicating the configuration in each pixel. A solid-state imaging device and a control method that can realize both downsizing, low power consumption, low cost, multiple pixels (higher image quality) of an actual image, and the like. It is in.

前記目的を達成するために、本発明は、それぞれ撮像画素を構成する複数の受光部と、前記受光部によって受光した光を電気信号に変換する複数の光電変換部と、前記複数の光電変換部によって変換された電気信号を取り出す複数の信号伝送経路を有する信号線を具備し、前記信号線によって第1の信号伝送方向に伝送された電気信号の処理を行う第1の信号処理部と、前記信号線によって第2の信号伝送方向に伝送された電気信号の処理を行う第2の信号処理部とを有し、前記第1の信号処理部と前記第2の信号処理部で異なる信号処理を行う固体撮像装置であって、被写体を照射するための光源と、前記光源から出射された光を被写体に対して掃引照射する掃引用ミラーとを有し、前記光源及び掃引用ミラーによって前記被写体に照射されて反射した光を前記受光部によって検出し、前記第2の信号処理部で演算処理することにより、前記被写体を光切断法によって測定し、前記第1の信号処理部で前記被写体の画像の出力処理を行うことを特徴とする。 In order to achieve the above object, the present invention provides a plurality of light receiving units that respectively constitute imaging pixels, a plurality of photoelectric conversion units that convert light received by the light receiving unit into electrical signals, and the plurality of photoelectric conversion units. A first signal processing unit comprising a signal line having a plurality of signal transmission paths for taking out the electric signal converted by the first signal processing unit for processing the electric signal transmitted in the first signal transmission direction by the signal line; A second signal processing unit that processes an electrical signal transmitted in the second signal transmission direction by the signal line, and performs different signal processing in the first signal processing unit and the second signal processing unit. A solid-state imaging device that includes: a light source for irradiating a subject; and a citation mirror that sweeps and irradiates the subject with light emitted from the light source. Irradiated The light reflected is detected by the light receiving portion Te, said by arithmetic processing by the second signal processing unit, the subject was determined by light section method, the output of the object image in the first signal processing unit It is characterized by performing processing .

本発明の固体撮像装置によれば、撮像画素によって得られた画像信号を信号線によって第1、第2の信号伝送方向に伝送し、第1、第2の信号処理部で互いに異なる信号処理を行うことにより、例えば通常の画像信号出力とその他の各種演算処理を個別の回路で行うことができる。
したがって、各信号処理に必要な回路素子を画素の外部にまとめて配置し、各画素内の構成を最小限に抑えて簡素化を図ることができ、また、通常の実画像の取得機能と、各種アプリケーションを実行する演算機能とを、それぞれ独立した回路構成によって強化することができ、装置の小型化、低消費電力化、低コスト化、実画像の多画素化(高画質化)等を実現することが可能となる。
According to the solid-state imaging device of the present invention, the image signal obtained by the imaging pixel is transmitted by the signal line in the first and second signal transmission directions, and the first and second signal processing units perform different signal processing. By doing so, for example, normal image signal output and other various arithmetic processes can be performed by separate circuits.
Therefore, circuit elements necessary for each signal processing are collectively arranged outside the pixel, the configuration inside each pixel can be minimized, and simplification can be achieved. Arithmetic functions that execute various applications can be strengthened by independent circuit configurations, realizing downsizing of the device, low power consumption, low cost, multiple pixels of real images (high image quality), etc. It becomes possible to do.

次に、本発明の実施の形態例について図面を参照して説明する。
本実施の形態による固体撮像装置(以下、イメージセンサまたは単にセンサという)は、従来例で説明したイメージセンサのピクセル毎に保持していた演算回路をカラム(Column=列)毎に共有するものであり、さらに、画像出力の処理と演算処理とを別な回路ブロック(第1、第2の信号処理部)で完全分離して行うことにより、実画像の高画質化を達成し、なおかつ演算処理にも最適な設計を可能とするものである。
なお、画像出力処理と演算処理は、センサ外部からの切り替え信号によって選択するものとし、また、各処理の非動作時には、各回路ブロックの一部または全部の動作を停止するように制御する。
以下、本発明の具体的実施例によるセンサの画像出力の走査方法と、画像処理演算動作の方法(ここでは一例として従来と同様に距離計測に適用した)について説明する。
Next, embodiments of the present invention will be described with reference to the drawings.
The solid-state imaging device (hereinafter referred to as an image sensor or simply a sensor) according to the present embodiment shares an arithmetic circuit held for each pixel of the image sensor described in the conventional example for each column (Column = column). In addition, the image output processing and the arithmetic processing are completely separated by separate circuit blocks (first and second signal processing units), thereby achieving high image quality of the actual image and the arithmetic processing. In addition, an optimum design is possible.
Note that the image output process and the arithmetic process are selected by a switching signal from the outside of the sensor, and control is performed so that part or all of the operation of each circuit block is stopped when each process is not operating.
A sensor image output scanning method and an image processing operation method (here applied to distance measurement as an example here) will be described below according to a specific embodiment of the present invention.

図1は本発明の第1の実施の形態によるイメージセンサの全体構成を示す平面図である。
図1に示されるように、このイメージセンサは、ピクセルアレイ部41、ピクセルVスキャナ部42、ピクセルHスキャナ部43、I−V変換回路部44、CDS回路部45、カレントミラー回路部46、アナログメモリアレイ部47、メモリVスキャナ部48、メモリHスキャナ部49、コンパレータ部50、バイアス回路部51、データラッチ部52、出力データバス部53等より構成されている。
ピクセルアレイ部41は、光を検出する複数のピクセル411を行列方向に2次元マトリクス状に配置したものであり、各ピクセル411より送出される信号は、垂直方向に走る信号線(垂直信号線)54によって伝達される。
FIG. 1 is a plan view showing the overall configuration of the image sensor according to the first embodiment of the present invention.
As shown in FIG. 1, this image sensor includes a pixel array unit 41, a pixel V scanner unit 42, a pixel H scanner unit 43, an IV conversion circuit unit 44, a CDS circuit unit 45, a current mirror circuit unit 46, an analog The memory array unit 47, the memory V scanner unit 48, the memory H scanner unit 49, the comparator unit 50, the bias circuit unit 51, the data latch unit 52, the output data bus unit 53, and the like.
The pixel array unit 41 includes a plurality of pixels 411 that detect light arranged in a two-dimensional matrix in the matrix direction, and a signal transmitted from each pixel 411 is a signal line (vertical signal line) that runs in the vertical direction. 54.

ピクセルVスキャナ部42およびピクセルHスキャナ部43は、ピクセルアレイ部41の内部を垂直方向および水平方向に走査し、1つのピクセル411を選択するものである。
I−V変換回路部44は、通常の画像出力走査時に各ピクセル411から水平信号線55に出力された電流を電圧信号に変換するものであり、CDS回路部45は、I−V変換回路部44からの出力信号に所定のノイズ除去処理を施し、画像信号として出力するものである。
カレントミラー回路部46は、演算処理時に各ピクセル411からの出力電流を増幅するものであり、アナログメモリアレイ部47は、カレントミラー回路部46からの出力をカレントコピアセル内に一時記憶するものである。
The pixel V scanner unit 42 and the pixel H scanner unit 43 scan the inside of the pixel array unit 41 in the vertical direction and the horizontal direction, and select one pixel 411.
The IV conversion circuit unit 44 converts a current output from each pixel 411 to the horizontal signal line 55 during normal image output scanning into a voltage signal. The CDS circuit unit 45 includes an IV conversion circuit unit. The output signal from 44 is subjected to a predetermined noise removal process and output as an image signal.
The current mirror circuit unit 46 amplifies the output current from each pixel 411 during arithmetic processing, and the analog memory array unit 47 temporarily stores the output from the current mirror circuit unit 46 in the current copier cell. is there.

また、メモリVスキャナ部48およびメモリHスキャナ部49は、アナログメモリアレイ部47のカレントコピアセルをスキャンし、セル内のデータを取り出すものであり、バイアス回路部51は、アナログメモリアレイ部47のカレントコピアセルにバイアス電流を供給するものである。
コンパレータ部50は、アナログメモリアレイ部47から読み出されたデータの比較演算を行うものであり、データラッチ部52は、コンパレータ部50の演算データをラッチし、そのラッチデータを出力データバス部53より出力するものである。
The memory V scanner unit 48 and the memory H scanner unit 49 scan the current copier cell of the analog memory array unit 47 and take out data in the cell. The bias circuit unit 51 includes the analog memory array unit 47. A bias current is supplied to the current copier cell.
The comparator unit 50 performs a comparison operation on the data read from the analog memory array unit 47, and the data latch unit 52 latches the operation data of the comparator unit 50, and the latched data is output to the output data bus unit 53. More output.

また、垂直信号線54には、ピクセルアレイ部41と水平信号線55とを開閉するスイッチSW1、ピクセルアレイ部41とカレントミラー回路部46とを開閉するスイッチSW2、カレントミラー回路部46とアナログメモリアレイ部47とを開閉するスイッチSW3、アナログメモリアレイ部47とバイアス回路部51とを開閉するスイッチSW4が設けられている。   The vertical signal line 54 includes a switch SW1 for opening and closing the pixel array unit 41 and the horizontal signal line 55, a switch SW2 for opening and closing the pixel array unit 41 and the current mirror circuit unit 46, a current mirror circuit unit 46 and an analog memory. A switch SW3 for opening / closing the array unit 47 and a switch SW4 for opening / closing the analog memory array unit 47 and the bias circuit unit 51 are provided.

以上のような構成において、通常の画像出力走査時には、ピクセルアレイ部41の各ピクセル411がピクセルHスキャナ部、ピクセルVスキャナ部によって順次走査され、特定の1つのピクセル411が選択され、ピクセル411より送出される電流信号は、図中の上方向(第1の信号伝送方向)へ伝達され、ピクセルHスキャナ部43によりスイッチSW1が順次選択され、1ピクセルの信号ごとに水平信号線に転送され、その後、I−V変換回路部44にて電圧信号に変換され、さらに、CDS回路部45によってFPN(Fixed pattern Noise )、リセットノイズ(ktcノイズ)が除去され、画像信号出力として出力される。
なお、以上のような通常の画像出力時の走査手順は、基本的に従来公知(例えば、ISSCC/2000/SESSION6/CMOS IMAGE SENSORS WITH EMBEDDED PROCESSORS/6.1(2000IEEE International Solid-State Circults Conference) 参照) のものであるので、詳細は省略する。
また、このような画像出力走査時には、垂直信号線54のスイッチSW2のOFFによってピクセルアレイ部41とカレントミラー回路部46とは遮断されている。
In the configuration as described above, during normal image output scanning, each pixel 411 of the pixel array unit 41 is sequentially scanned by the pixel H scanner unit and the pixel V scanner unit, and a specific one pixel 411 is selected. The sent current signal is transmitted in the upward direction (first signal transmission direction) in the figure, the switch SW1 is sequentially selected by the pixel H scanner unit 43, and is transferred to the horizontal signal line for each pixel signal. Thereafter, the signal is converted into a voltage signal by the IV conversion circuit unit 44, and further, FPN (Fixed pattern Noise) and reset noise (ktc noise) are removed by the CDS circuit unit 45 and output as an image signal output.
The scanning procedure for normal image output as described above is basically known in the art (see, for example, ISSCC / 2000 / SESSION6 / CMOS IMAGE SENSORS WITH EMBEDDED PROCESSORS / 6.1 (2000 IEEE International Solid-State Circults Conference)). Details are omitted here.
Further, during such image output scanning, the pixel array unit 41 and the current mirror circuit unit 46 are cut off by the switch SW2 of the vertical signal line 54 being turned off.

一方、距離計測時には、スイッチSW1がOFFされ、スイッチSW2、SW3がONとなり、電流信号は垂直信号線54の図中の下方向(第2の信号伝送方向)に配置されたカレントミラー回路部46へと伝達される。
この時、ピクセルアレイ部41は、ピクセルVスキャナ部42において同一Row(行)方向のピクセルが全てが同時選択され、各カラム(列)からの信号は並列に同時出力される(すなわち、列並列動作となる)。
カレントミラー回路部46に伝達された信号は、その後、アナログメモリアレイ部47内に保持され、その後にコンパレータ部50によって各フレームのデータ内容が比較され、この比較結果は、データラッチ部52によってデータラッチ後、出力データバス部53より出力される。
On the other hand, at the time of distance measurement, the switch SW1 is turned off, the switches SW2 and SW3 are turned on, and the current signal is arranged in the lower direction (second signal transmission direction) of the vertical signal line 54 in the figure. Is transmitted to.
At this time, in the pixel array unit 41, all the pixels in the same Row direction are simultaneously selected in the pixel V scanner unit 42, and signals from the respective columns (columns) are simultaneously output in parallel (that is, column parallel). Behave).
The signal transmitted to the current mirror circuit unit 46 is then held in the analog memory array unit 47, and thereafter, the data contents of the respective frames are compared by the comparator unit 50. After latching, the data is output from the output data bus unit 53.

図2は、ピクセルアレイ部41を構成する各ピクセル411の内部構成を示すブロック図である。なお、図2は、Y、G、Cy、Mgの4つの補色に対応する4つのピクセルを示している。
各ピクセル411は、フォトダイオード(PD)60と5つのMOSトランジスタ61〜65とを有して構成されている。
PD60で受光された光は電荷に変換され、その電荷は転送トランジスタ61によりフローティングディフュージョン(FD)部66に転送される。このFD部66に転送された電荷は、増幅トランジスタ64のゲート電位を決定し、それに応じて電流が増幅トランジスタ64および選択トランジスタ65をとおり、垂直信号線(SIG_n)54に伝達される。
また、リセットトランジスタ63は、FD部66を電源電圧にリセットするためのものであり、転送選択トランジスタ62は転送トランジスタ61のゲートを選択するためのものである。
FIG. 2 is a block diagram showing an internal configuration of each pixel 411 constituting the pixel array unit 41. FIG. 2 shows four pixels corresponding to four complementary colors Y, G, Cy, and Mg.
Each pixel 411 includes a photodiode (PD) 60 and five MOS transistors 61 to 65.
The light received by the PD 60 is converted into electric charges, and the electric charges are transferred to the floating diffusion (FD) unit 66 by the transfer transistor 61. The charges transferred to the FD unit 66 determine the gate potential of the amplification transistor 64, and accordingly, current is transmitted to the vertical signal line (SIG_n) 54 through the amplification transistor 64 and the selection transistor 65.
The reset transistor 63 is for resetting the FD section 66 to the power supply voltage, and the transfer selection transistor 62 is for selecting the gate of the transfer transistor 61.

以下、画像出力時、および距離計測時の信号タイミングを説明する。
図3は図1に示す各ブロックの詳細を示すブロック図であり、図4は画像出力時の動作を示すタイミングチャートである。また、図5は距離計測時の動作を示すタイミングチャートである。
まず、図4に基づいて画像出力時の動作について説明する。
ここで、垂直信号線54の下部のスイッチSW2はTSSW信号(Low;非アクティブ)により全てオフとなり、信号経路は遮断されている。
まず、ピクセルVスキャナ部42によって特定Rowが選択されると、その1H期間セレクト線(SEL_n)がHigh(アクティブ)となり、選択トランジスタ65がオンとなる。
Hereinafter, signal timings at the time of image output and distance measurement will be described.
FIG. 3 is a block diagram showing details of each block shown in FIG. 1, and FIG. 4 is a timing chart showing operations at the time of image output. FIG. 5 is a timing chart showing the operation during distance measurement.
First, the operation at the time of image output will be described based on FIG.
Here, all the switches SW2 below the vertical signal line 54 are turned off by the TSSW signal (Low; inactive), and the signal path is cut off.
First, when the specific row is selected by the pixel V scanner unit 42, the select line (SEL_n) for the 1H period becomes High (active), and the selection transistor 65 is turned on.

次に、リセット線(TDR_n−1)にリセットパルスが印加され、リセットトランジスタ63によりFD部66が電圧電源にチャージされる。この時、信号線(SIG_n)には、そのリセット状態の信号が送出される。
また、転送選択トランジスタ62のゲートに接続されている転送ゲート選択線(TRG_n)がピクセルHスキャナ部43に連動してHigh(アクティブ)となり、それと同時に転送選択トランジスタ62のドレインに接続されている転送選択線(TDR_n)もHigh(アクティブ)となり、特定のピクセルのみ選択的に転送トランジスタ61がオンとなり、PD60内の電荷がFD部66に転送される。
なお、各ピクセルの転送終了後は、転送選択線(TDR_n)をLow(非アクティブ)にした後に転送ゲート選択線(TRG_n)をLow(非アクティブ)とする。
Next, a reset pulse is applied to the reset line (TDR_n−1), and the FD portion 66 is charged to the voltage power supply by the reset transistor 63. At this time, the signal in the reset state is transmitted to the signal line (SIG_n).
Further, the transfer gate selection line (TRG_n) connected to the gate of the transfer selection transistor 62 becomes High (active) in conjunction with the pixel H scanner unit 43, and at the same time, the transfer connected to the drain of the transfer selection transistor 62. The selection line (TDR_n) also becomes High (active), the transfer transistor 61 is selectively turned on only in a specific pixel, and the charge in the PD 60 is transferred to the FD unit 66.
Note that after the transfer of each pixel is completed, the transfer selection line (TDR_n) is set to Low (inactive) and then the transfer gate selection line (TRG_n) is set to Low (inactive).

このような動作により、光強度に応じた信号電流が信号線(SIG_n)に送出される。そして、この電流信号は、水平信号線55を経由し、I−V変換回路部44にて電圧信号に変換された後、CDS回路部45によってノイズ除去が行われる。
なお、CDS回路部45においては、リセット信号と画像信号が順次転送されてくるが、それぞれの信号をSHRパルス、SHDパルスによってクランプし、ノイズの除去を行う。
By such an operation, a signal current corresponding to the light intensity is sent to the signal line (SIG_n). The current signal is converted into a voltage signal by the IV conversion circuit unit 44 via the horizontal signal line 55, and then noise is removed by the CDS circuit unit 45.
In the CDS circuit unit 45, the reset signal and the image signal are sequentially transferred, and the respective signals are clamped by the SHR pulse and the SHD pulse to remove noise.

続いて、図5に基づいて距離計測時の動作について説明する。
なお、上述のように3次元計測法では、投光スリットの通過をピクセル毎に検出することにより三角測量を行うという点に関して従来例と同様である。
また、この走査時には画像計測(すなわち画像出力)時と異なり、垂直信号線54の上部のスイッチSW1がオフとなり、信号線SIGと水平信号線55との接続が遮断される。
また、ビデオフレーム期間(1Scan period )、センサフレーム期間(1Frame )は、上記従来例と同様であり、1ライン期間(1Row access period )が従来例と異なる。
図5では、この1ライン期間の走査を示している。以下は、この1H期間の走査について説明する。
Next, the operation during distance measurement will be described based on FIG.
As described above, the three-dimensional measurement method is similar to the conventional example in that triangulation is performed by detecting the passage of the projection slit for each pixel.
Further, at the time of scanning, unlike the image measurement (that is, image output), the switch SW1 above the vertical signal line 54 is turned off, and the connection between the signal line SIG and the horizontal signal line 55 is cut off.
Further, the video frame period (1 Scan period) and the sensor frame period (1 Frame) are the same as in the conventional example, and one line period (1 Row access period) is different from the conventional example.
FIG. 5 shows scanning in this one line period. Hereinafter, the scanning in the 1H period will be described.

距離計測時の走査では、ピクセルアレイ部41内のカラーフィルタ(例えば補色モザイクフィルタの場合Y、G、Cy、Mg)を構成する4ピクセルを1つの受光画素単位とみなし、4ピクセルからの信号を加算(融合)して処理を行う。すなわち、4ピクセル分の信号を1ピクセルの信号として扱うものである。
これは、以下に示すように、距離計測時は画像計測時に比べ動作のフレームレートが100倍程度速く、ピクセル毎の受光時間が短くなるので、それを補うために感度を稼ぐことを目的とするとともに、距離計測時の赤外スリット反射光の受光時に、各フィルタによる透過率の違いを補償するためである。
以下、この4ピクセルを1つとみなした単位をROU(Range operating unit)と表記する(図3)。
In scanning at the time of distance measurement, four pixels constituting a color filter (for example, Y, G, Cy, Mg in the case of a complementary color mosaic filter) in the pixel array unit 41 are regarded as one light receiving pixel unit, and signals from the four pixels are received. Addition (fusion) is performed. That is, a signal for 4 pixels is handled as a signal for 1 pixel.
The purpose of this is to increase the sensitivity to compensate for the fact that the frame rate of the operation is about 100 times faster and the light reception time for each pixel is shorter when measuring the distance, as shown below. At the same time, when receiving the infrared slit reflected light during distance measurement, the difference in transmittance due to each filter is compensated.
Hereinafter, a unit in which these four pixels are regarded as one is expressed as ROU (Range operating unit) (FIG. 3).

また、距離測定では、カラムは一括して読み出される列並列動作となるため、ピクセルアレイ部41内の転送ゲート選択線TRGは全て常時High(アクティブ)のままとなる。
また、上記4ピクセルの加算(融合)を行うために、ピクセルVスキャナ部42は、画像計測時と異なり、2行同時に選択されるように掃引される。
つまり、図3においては、SEL_nとSEL_n+1が同時に選択される。特定の2行が選択されることにより、2行の連なるピクセル選択トランジスタ65は全てONとなる。
その後、TDR_n−1、TDR_n、TDR_n+1に順にパルスが印加される。
In the distance measurement, since the columns are column-parallel operation that is read out in a lump, all the transfer gate selection lines TRG in the pixel array unit 41 always remain High (active).
In addition, in order to perform the addition (fusion) of the four pixels, the pixel V scanner unit 42 is swept so that two rows are selected simultaneously, unlike the time of image measurement.
That is, in FIG. 3, SEL_n and SEL_n + 1 are selected simultaneously. By selecting two specific rows, all the pixel selection transistors 65 in the two rows are turned on.
Thereafter, pulses are sequentially applied to TDR_n−1, TDR_n, and TDR_n + 1.

ここで、TDR線は、ピクセル内の転送選択トランジスタ62のドレインと、次のラインのリセットトランジスタ63のゲートの両方に接続されており、PD60からの電荷転送を行うと同時に、次の行のリセットを行うものである。すなわち、本例では、転送ゲート選択線とリセット線がTDR線によって共有化されている。
よって、まず、TDR_n−1のパルス印加によりn−1行目のピクセルがリセットされ、TDR_n線のパルス印加によりn行目のピクセルの電荷転送が行われると同時にn+1行目のピクセルがリセットされる。
そして、TDRn+1のパルス印加により、n+1行目のピクセルの電荷転送が行われる。この時、同時に、さらに次の(n+2)のリセットが行われるが、これは一連の走査において特に意味を持たない(つまり影響ない)。
このように本例では、複数行の同時選択によって画像読み出しを行う場合には、まず、複数行の選択線(SEL_nとSEL_n+1)をアクティブにした後、選択行の選択順の若い行より、転送選択線とリセット線の共有選択線(TDR_n−1、TDR_n、TDR_n+1)に順次アクティブパルスを印加していくことになる。
Here, the TDR line is connected to both the drain of the transfer selection transistor 62 in the pixel and the gate of the reset transistor 63 in the next line, and simultaneously with the charge transfer from the PD 60, the next row is reset. Is to do. That is, in this example, the transfer gate selection line and the reset line are shared by the TDR line.
Therefore, first, the pixel in the (n−1) th row is reset by applying the pulse of TDR_n−1, and the charge transfer of the pixel in the nth row is performed by applying the pulse of the TDR_n line, and at the same time, the pixel in the (n + 1) th row is reset. .
Then, charge transfer of pixels in the (n + 1) th row is performed by applying a pulse of TDRn + 1. At the same time, the next (n + 2) reset is performed at the same time, but this has no particular meaning (that is, no influence) in a series of scans.
As described above, in this example, when image reading is performed by simultaneous selection of a plurality of rows, first, the selection lines (SEL_n and SEL_n + 1) of the plurality of rows are activated and then transferred from the younger rows in the selection order of the selected rows. Active pulses are sequentially applied to the shared selection lines (TDR_n−1, TDR_n, TDR_n + 1) of the selection line and the reset line.

以上の走査により、2行に連なるピクセルのFD部66に同時に受光による電荷が転送されており、各信号線には、2ピクセルの増幅トランジスタ64からの信号電流が同時に流れ込む。これにより、まず、2ピクセルの信号加算が行われる。
そして、この電流は信号線下部のCMOSスイッチSW2のオンと同時にカレントミラー回路461に流れ込む。この時、カレントミラー回路461の前で奇数カラムと偶数カラムは接続され、2カラムからの電流が1つのカレントミラー回路461に流れる。
As a result of the above scanning, the charges due to light reception are simultaneously transferred to the FD portions 66 of the pixels connected in two rows, and the signal currents from the amplification transistors 64 of the two pixels simultaneously flow into the respective signal lines. Thereby, first, signal addition of 2 pixels is performed.
This current flows into the current mirror circuit 461 simultaneously with the turning on of the CMOS switch SW2 below the signal line. At this time, the odd and even columns are connected in front of the current mirror circuit 461, and the current from the two columns flows to one current mirror circuit 461.

上記の2行同時選択と合わせて、4ピクセルの信号加算が完了する。この電流は、カレントミラー回路461にて増幅され、メモリアレイ47内の信号線SIM_(n+1)/2より、信号に応じた電流を引き込む。
カレントコピアセルによって構成されるアナログメモリアレイ部47は、上記1つのROUに対し、対応する4つのカレントコピアセル471を有する。これらは、4センサフレーム分のメモリに相当する。
このメモリアレイ部47は、ピクセルアレイ部41の走査と同期してメモリVスキャナ部48によって走査される。
4フレーム分のカレントコピアセルは、ピクセルのROUと同様に配置されているので、ピクセルアレイ部41を2行同時選択したときにメモリVスキャナ部48も2行同時選択され、これはカレントコピアセルの4フレーム分単位を選択することに対応する。
以下、このメモリアレイ部47の単位をRMU(Range memory unit )と表記する(図3)。
In combination with the above-described simultaneous selection of two rows, signal addition of 4 pixels is completed. This current is amplified by the current mirror circuit 461, and a current corresponding to the signal is drawn from the signal line SIM_ (n + 1) / 2 in the memory array 47.
The analog memory array unit 47 configured by current copier cells has four current copier cells 471 corresponding to the one ROU. These correspond to memories for 4 sensor frames.
The memory array unit 47 is scanned by the memory V scanner unit 48 in synchronization with the scanning of the pixel array unit 41.
Since the current copier cells for four frames are arranged in the same manner as the pixel ROU, when two rows of the pixel array unit 41 are simultaneously selected, two rows of the memory V scanner unit 48 are also simultaneously selected. This corresponds to selecting a unit of four frames.
Hereinafter, the unit of the memory array unit 47 is referred to as RMU (Range memory unit) (FIG. 3).

TSSW信号によりスイッチSW2、SW3がONすると同時に、1つのライン選択線CCS_n1をHighとし、RMUのうちの1つのフレームメモリの選択トランジスタ73をONとする。
このメモリセルを構成するPMOSトランジスタ71よりカレントミラー回路部46に電流が流れる。この時、セル内のメモリスイッチトランジスタ72はONしており、PMOSトランジスタ71はドレインとゲートが同電位にバイアスされているため、セルに流れている電流に応じて決定される電位にゲート電位が保持されることになる。
この状態で定常状態に安定した後、CCM_n1信号によりトランジスタ72がOFFされると、トランジスタ71のゲートとドレインは分離され、先程のゲート電位はダイナミックにトランジスタ71のゲートに記憶保持される。
以上の信号記憶フェーズをφ1とする。
At the same time that the switches SW2 and SW3 are turned on by the TSSW signal, one line selection line CCS_n1 is set to High, and the selection transistor 73 of one frame memory in the RMU is turned on.
A current flows from the PMOS transistor 71 constituting the memory cell to the current mirror circuit unit 46. At this time, the memory switch transistor 72 in the cell is ON and the drain and gate of the PMOS transistor 71 are biased to the same potential, so that the gate potential is at a potential determined according to the current flowing in the cell. Will be retained.
When the transistor 72 is turned off by the CCM_n1 signal after stabilizing in a steady state in this state, the gate and drain of the transistor 71 are separated, and the previous gate potential is dynamically stored and held in the gate of the transistor 71.
The above signal storage phase is assumed to be φ1.

続くタイミングにおいて、投光スリットの通過を検出するために、フレーム間の信号比較を行う。
フレーム間の信号比較は、従来例と同様に、時間的に前後の2フレームの信号加算の差し引きを行い、上述した(式1)の演算を実行する。
この読み出し動作では、スイッチSW2、SW3がOFFとなり、メモリアレイ下部のスイッチSW4がBISW信号によりONとなる。また、これと同時にRMUの読み出される2フレームの選択線がHighとなる。
これにより、メモリセルより読み出される電流信号は、負荷トランジスタ74に流れ込み、メモリ信号線(SGM)の電位は、メモリセルのPMOSトランジスタ71(2フレーム分)と負荷トランジスタ74の電流能力によって決まる電位に安定化される。
At the subsequent timing, signal comparison between frames is performed in order to detect passage of the projection slit.
In the signal comparison between frames, as in the conventional example, the signal addition of two frames before and after is subtracted in time, and the above-described calculation (Equation 1) is executed.
In this read operation, the switches SW2 and SW3 are turned off, and the switch SW4 below the memory array is turned on by the BISW signal. At the same time, the selection line for the two frames from which the RMU is read becomes High.
As a result, the current signal read from the memory cell flows into the load transistor 74, and the potential of the memory signal line (SGM) becomes a potential determined by the current capability of the PMOS transistor 71 (for two frames) of the memory cell and the load transistor 74. Stabilized.

上記(式1)を実行するために、たとえば、まずメモリセル選択線CCS_n3とCCS_n4を同時選択することにより、前の2フレームの同時読み出しを行う。これにより、垂直信号線54に接続されているチョッパコンパレータの入力ゲートにこの信号電位が入力される。そして、2段のチョッパコンパレータのトランジスタ初期化スイッチTC1、TC2を順次ONとし、コンパレータは前2フレームの信号電位にて初期化される。
そして、引き続き、後半の2フレームの信号を読み出すために、選択線CCS_n1、CCS_n2を同時選択し、前2フレームと同様に信号線に電流を送出し、信号電位を決定する。
In order to execute the above (Equation 1), for example, the memory cell selection lines CCS_n3 and CCS_n4 are first selected at the same time, thereby simultaneously reading the previous two frames. As a result, this signal potential is input to the input gate of the chopper comparator connected to the vertical signal line 54. Then, the transistor initialization switches TC1 and TC2 of the two-stage chopper comparator are sequentially turned ON, and the comparator is initialized with the signal potential of the previous two frames.
Subsequently, in order to read out the signals of the latter two frames, the selection lines CCS_n1 and CCS_n2 are simultaneously selected, and the current is sent to the signal lines as in the previous two frames to determine the signal potential.

この時、コンパレータは前2フレームで初期化されているため、前2フレームより電位が大きければ、コンパレータ出力はHighとなり、小さければLowが出力される。これにより、(式1)が実行され、光検出が可能となる。
以上、前半の2フレームの読み出しと後半の2フレームの読み出しをタイミングチャート上でφ2、φ3に示す。
また、この時、信号の重み付けのために、φ2、φ3のそれぞれにおいて、バイアス電流をバイアス回路部51より供給する。これは従来例のIz、Icと同様であり、アナログメモリアレイ部47からの信号に任意に重み付けを行うことが可能となる。なお、バイアス回路部51の一例としては、列共通のカレントミラーでバイアスされたPMOSトランジスタのソースフォロア回路を用いたものが使用される。
また、バイアス回路部51は、読み出し動作以外ではアナログメモリアレイ部47との間に設けられているスイッチSW4をオフすることにより、コンパレータの前段の信号線の電位を電源電圧にバイアスする。
At this time, since the comparator is initialized in the previous two frames, if the potential is higher than the previous two frames, the comparator output becomes High, and if it is smaller, Low is output. Thereby, (Equation 1) is executed and light detection becomes possible.
The reading of the first two frames and the reading of the second two frames are indicated by φ2 and φ3 on the timing chart.
At this time, a bias current is supplied from the bias circuit unit 51 in each of φ2 and φ3 for signal weighting. This is the same as Iz and Ic in the conventional example, and the signal from the analog memory array unit 47 can be arbitrarily weighted. As an example of the bias circuit unit 51, one using a source follower circuit of a PMOS transistor biased by a column-common current mirror is used.
In addition, the bias circuit unit 51 biases the potential of the signal line in the previous stage of the comparator to the power supply voltage by turning off the switch SW4 provided between the analog memory array unit 47 except for the read operation.

また、図3において、SW2、SW3、SW4の各スイッチの選択信号、メモリアレイ内CCMの選択信号は、縦に走るADRn信号との論理ANDが取られている。
これは、上記φ1〜φ3の動作を全カラムにて一斉に行った時、消費電力の増大が認められる場合があり、その程度によっては、素子内の配線の負担が大きくなり、適正な動作が得られなくなる恐れも生じる。
そこで、このような場合に対応すべく、SW2以下の回路ブロックを分割し(ここでこの単位を分割エリアという)、この分割エリアをシリアルに走査することにより、消費電力の集中的な増大を抑制するようにしたものである。
なお、図5に示すタイミングでは、分割エリアとして全体を4つに分割している場合を想定しており、ADRn信号によって分割エリアが選択され、各分割エリア1〜4に対してφ1〜φ3の動作が随時行われる。
In FIG. 3, the selection signal of each switch of SW2, SW3, SW4 and the selection signal of the CCM in the memory array are logically ANDed with the ADRn signal running vertically.
This is because when the operations of φ1 to φ3 are performed all over the column at the same time, an increase in power consumption may be recognized. Depending on the degree, the burden of wiring in the element increases, and proper operation is possible. There is also a risk that it will not be obtained.
Therefore, in order to cope with such a case, a circuit block below SW2 is divided (this unit is referred to as a divided area here), and this divided area is scanned serially, thereby suppressing a intensive increase in power consumption. It is what you do.
In addition, in the timing shown in FIG. 5, the case where the whole is divided | segmented into four as a divided area is assumed, a divided area is selected with an ADRn signal, and (phi) 1-phi3 is each with respect to each divided area 1-4. Operations are performed from time to time.

以上のように本例では、ピクセルアレイ41からの信号を列並列で読み出し、列毎に演算処理を行なう場合に、複数の列によって演算用エリアを形成し、演算処理は各演算用エリア毎にシリアルに行なうことにより、負荷を考慮した適切な演算動作を得ることが可能である。
なお、各演算用エリアはアドレス線により選択され、カレントミラー部の前後段のスイッチ、メモリスイッチ線、コンパレータの後段スイッチ、信号線の負荷トランジスタ選択線、コンパレータ初期化線、データラッチのイネーブル線はアドレスによりエリア選択時にのみ動作が行われる。
As described above, in this example, when signals from the pixel array 41 are read in parallel and calculation processing is performed for each column, a calculation area is formed by a plurality of columns, and the calculation processing is performed for each calculation area. By performing serially, it is possible to obtain an appropriate arithmetic operation in consideration of the load.
Each calculation area is selected by an address line, and the current mirror switch before and after the memory switch line, the comparator switch, the signal transistor load transistor selection line, the comparator initialization line, and the data latch enable line are The operation is performed only when the area is selected by the address.

なお、以上のような画像計測(画像出力)と距離計測の2つの動作は、それぞれ異なる時間帯において独立、連続して実行されることが可能であるし、また、1ビデオフレーム毎などというように任意のビデオフレーム毎に交互に動作することも可能である。
このとき、画像情報と距離情報がイメージセンサにより交互に出力されるため、画像情報と距離情報を組み合わせたリアルタイムの画像処理が可能となる。
これらは、例えば外部入力によるモード切替信号MSLによって随時選択可能である。
It should be noted that the above two operations of image measurement (image output) and distance measurement can be executed independently and continuously in different time zones, and every video frame, etc. It is also possible to operate alternately every arbitrary video frame.
At this time, since image information and distance information are alternately output by the image sensor, real-time image processing combining image information and distance information becomes possible.
These can be selected at any time, for example, by a mode switching signal MSL by an external input.

また、本例のイメージセンサでは、上述した距離計測の回路アーキテクチャによって距離計測以外にも種々の画像処理演算を行うことが可能である。
まず、その一例として動き検出がある。
これは、基本的に距離計測と同様な動作により、撮像画面内の動いている物体のみを抽出する機能である。距離計測では、常に、時間的に前後するフレーム間の差分演算を行っている。よって、画像中において動いている物体が存在すると、投光スリット光の検出と同様に、コンパレータのフレーム間差分において、後のフレーム信号強度が前の信号強度よりも大きくなるタイミングが生ずる。
よって、これを検出することにより、動いている物体の検出が可能となる。
この動き検出の場合、距離測定のように高速でセンサフレームを走査する必要はなく、検出感度に鑑みて、最大でビデオフレームまでフレームレートを遅くすることが可能である。
In the image sensor of this example, various image processing operations can be performed in addition to the distance measurement by the above-described distance measurement circuit architecture.
First, there is motion detection as an example.
This is a function that extracts only a moving object in the imaging screen by basically the same operation as the distance measurement. In distance measurement, a difference calculation between frames that are temporally changed is always performed. Therefore, if there is a moving object in the image, the timing at which the subsequent frame signal intensity becomes larger than the previous signal intensity in the inter-frame difference of the comparator occurs as in the detection of the projection slit light.
Therefore, by detecting this, it is possible to detect a moving object.
In the case of this motion detection, it is not necessary to scan the sensor frame at high speed as in the distance measurement, and it is possible to slow down the frame rate up to the video frame in view of detection sensitivity.

さらに、上述した回路構成により、画像情報をデジタル出力することも可能である。これは、従来例の画像出力方式と基本的に同様であり、アナログメモリアレイ部47とコンパレータ部50を使用する。
上述した動作例において、距離計測時では、4ピクセル加算のために2ライン同時読み出しを行ったが、アナログメモリアレイ部47とコンパレータ部50を用いたデジタル画像出力では1ラインごとの走査とする。
そして、スイッチSW2も奇数カラムと偶数カラムを同時にオンするのではなく、SEL_ODD信号とSEL_EVEN信号により、それぞれ分けてオンする。つまり、1H期間に奇数カラム読み出しと偶数カラム読み出しを分けて走査する。
この場合、各カラムの読み出し動作で、1ピクセルについて2つのフレームメモリを対応させることができる。よって、1つのフレームメモリはリファレンス信号を保持するために用い、もう1つは画像信号を保持するために使用すれば、従来例の積分電荷蓄積により、リファレンス信号と画像信号を逐次比較していくことにより、画像信号の取得が可能となる。
Further, image information can be digitally output by the circuit configuration described above. This is basically the same as the conventional image output method, and uses the analog memory array unit 47 and the comparator unit 50.
In the above-described operation example, two lines are simultaneously read for adding four pixels at the time of distance measurement. However, in the digital image output using the analog memory array unit 47 and the comparator unit 50, scanning is performed for each line.
The switch SW2 is not turned on at the odd-numbered column and the even-numbered column at the same time, but is turned on separately according to the SEL_ODD signal and the SEL_EVEN signal. That is, the odd column reading and the even column reading are separately scanned in the 1H period.
In this case, two frame memories can be associated with one pixel in the read operation of each column. Therefore, if one frame memory is used to hold the reference signal and the other is used to hold the image signal, the reference signal and the image signal are sequentially compared by the integrated charge accumulation of the conventional example. As a result, an image signal can be acquired.

また、画像出力を行う他の方法として、上記と同様に、1H期間にリファレンス信号を読み出してコンパレータ部50の初期化を行い、その後、画像信号を読み出して、コンパレータ部50に信号を送り、バイアス電流をランピングすることにより、どのレベルでデジタルデータが反転するかを検出し、画像情報の抽出が可能となる。
さらに、回路モディファイにより、画像のエッジ検出も可能である。
これは、1つのコンパレータ入力を上記のように1カラムだけとするのではなく、スイッチの選択により、近傍のカラムからの入力も可能とすることにより、近傍ピクセルの信号の大小比較をも可能とする。
これにより、画像情報において、信号変化の大きい部位のみの抽出、つまり、エッジ検出が可能となる。
また、各種のフィルタ処理やフィルタを用いた平滑化処理を行うことも可能である。
As another method for outputting an image, similarly to the above, the reference signal is read out during the 1H period to initialize the comparator unit 50, and then the image signal is read out, sent to the comparator unit 50, and biased. By ramping the current, it is possible to detect at which level the digital data is inverted and to extract image information.
Furthermore, the edge of an image can be detected by circuit modification.
This means that one comparator input is not limited to only one column as described above, but by selecting a switch, it is also possible to input from a neighboring column, thereby enabling comparison of the size of signals of neighboring pixels. To do.
As a result, it is possible to extract only a part having a large signal change, that is, to detect an edge in the image information.
It is also possible to perform various filter processes and smoothing processes using filters.

以上のように、本例のイメージセンサでは、従来例で説明したイメージセンサのピクセル毎に保持していた演算回路をカラム毎に共有し、さらに、画像出力の処理と演算処理とを別な回路ブロックで完全分離して行うことにより、各画素内の構成の簡素化を図り、装置全体の小型化や実画像の高画質化を達成し、なおかつ演算処理にも最適な設計を行うことが可能となる。   As described above, in the image sensor of this example, the arithmetic circuit held for each pixel of the image sensor described in the conventional example is shared for each column, and the image output processing and arithmetic processing are separate circuits. By completely separating each block, the configuration within each pixel can be simplified, the entire device can be downsized and the quality of the actual image can be improved, and the design can be optimized for arithmetic processing. It becomes.

例えば、通常の画像出力と演算処理とにおいて、各ピクセルを掃引する順序を変更することにより、最適な処理を行うことが可能となる。
また、画素の掃引の順序として、1画素単位または少数画素ブロック単位によるシリアル処理と複数の信号線による並列処理とを使い分けることが可能となる。例えば、画像情報の出力処理時には1画素単位によるシリアル処理を行い、その他の演算処理時には複数の信号線による並列処理を行なうことができ、各信号処理のそれぞれの特性に合わせた最適化が可能となる。
また、1本の信号線に同時に伝送する画素数を変更することができ、画像情報の出力処理時には1画素毎の信号を信号線に伝送し、その他の演算処理時には複数画素の信号を同時に1本の信号線に伝送することにより、各信号処理のそれぞれの特性に合わせた最適化が可能となる。
また、演算処理時に1本の信号線に同時に伝送する画素数として、カラーフィルタの組み合わせに対応した画素数を用いることにより、高精度の演算が可能となる。
For example, it is possible to perform optimum processing by changing the order of sweeping each pixel in normal image output and arithmetic processing.
Further, as the order of pixel sweeping, serial processing in units of one pixel or a small number of pixel blocks and parallel processing by a plurality of signal lines can be used properly. For example, serial processing can be performed on a pixel-by-pixel basis during image information output processing, and parallel processing using a plurality of signal lines can be performed during other arithmetic processing, enabling optimization according to the characteristics of each signal processing. Become.
In addition, the number of pixels simultaneously transmitted to one signal line can be changed. A signal for each pixel is transmitted to the signal line at the time of image information output processing, and a signal of a plurality of pixels is simultaneously set to 1 at other arithmetic processing. By transmitting to the signal line of the book, optimization according to the characteristics of each signal processing becomes possible.
Further, by using the number of pixels corresponding to the combination of the color filters as the number of pixels simultaneously transmitted to one signal line at the time of calculation processing, high-precision calculation can be performed.

また、上述した例では、ある行に配置される転送選択線とその次の行に配線されるリセット線をTDR線で共有化でき、配線スペースを縮小して装置の小型化が可能となる。
また、上述した例では、ピクセルアレイの1つまたは複数のカラム毎にスイッチを設け、これらスイッチの中から信号読み出し時にオンするスイッチを選択し、個々のカレントミラー回路に入力されるカラムを選択するような構成や、ピクセルアレイ内の複数行の同時選択または、複数カラムの同時選択により、複数画素の信号を融合・加算し、複数画素を1つの受光画素単位として扱うことにより、演算処理に固有の方法を採用することが可能となり、最適化が可能である。
In the above-described example, the transfer selection line arranged in a certain row and the reset line wired in the next row can be shared by the TDR line, so that the wiring space can be reduced and the device can be miniaturized.
In the example described above, a switch is provided for each column or columns of the pixel array, a switch that is turned on at the time of signal readout is selected from these switches, and a column that is input to each current mirror circuit is selected. This is unique to arithmetic processing by combining and adding signals from multiple pixels through simultaneous selection of multiple rows in a pixel array or simultaneous selection of multiple columns, and handling multiple pixels as a single light-receiving pixel unit. This method can be adopted and can be optimized.

また、上述した例では、アナログメモリアレイ部47において、1つの受光画素単位に対応する複数フレームのうち2フレーム以上の組み合わせの加算結果の比較を行なう場合、各フレームに対応するメモリセルは信号線を挟んでマトリスク状に配置し、フレームの組み合わせは、必ず信号線を挟んで対極に配置されたセル同士を選択する。そしてまた、ピクセルアレイ41とアナログメモリアレイ部47において、ピクセルアレイのスキャナによる1受光ピクセル単位選択時の複数行選択と、アナログメモリアレイのスキャナによる複数フレームの単位選択時の複数行選択を同期させる。
これらにより、高精度で効率の良い信号処理が可能となる。
In the above example, when the analog memory array unit 47 compares the addition results of combinations of two or more frames among a plurality of frames corresponding to one light receiving pixel unit, the memory cell corresponding to each frame is a signal line. The cells are arranged in the form of a matrix, and the cells are always selected from the cells arranged on the counter electrode with the signal line in between. In addition, in the pixel array 41 and the analog memory array unit 47, a plurality of row selections at the time of selecting one light receiving pixel unit by the pixel array scanner and a plurality of row selections at the time of unit selection of a plurality of frames by the analog memory array scanner are synchronized. .
These enable highly accurate and efficient signal processing.

次に、本発明の第2の実施の形態例について説明する。
まず、上述した第1の実施の形態例による固体撮像装置は、通常のカラー画像の出力と光切断法に基づく3次元距離計測の機能を実現するものであり、3次元距離計測時の方法としては、図6(A)で説明した従来の構成で実現できる。
すなわち、センサ(受光部)の近辺にスリット状の光を発する光源と掃引用ミラーを配置し、掃引ミラーをスキャン走査しながら、スリット光をミラーを介して被写体に照射することで、センサの各画素が被写体からの反射スリット光を受光するタイミングと、ミラーのスキャン角度の関係より、三角測量の原理で被写体の各点の距離情報を取得することを可能としたものである。
Next, a second embodiment of the present invention will be described.
First, the solid-state imaging device according to the first embodiment described above realizes a function of three-dimensional distance measurement based on normal color image output and a light cutting method. Can be realized by the conventional configuration described with reference to FIG.
That is, a light source that emits slit-shaped light and a sweeping mirror are arranged in the vicinity of the sensor (light receiving unit), and the subject is irradiated with slit light through the mirror while scanning the sweep mirror. Based on the relationship between the timing at which the pixel receives the reflected slit light from the subject and the scan angle of the mirror, it is possible to acquire distance information of each point of the subject by the principle of triangulation.

しかし、この場合、センサの外に光源とスリット光を生成するための光学機器、さらにミラーとスキャン動作を行なうための駆動系などの多くの部品が必要とされ、小型化や省電力化等が容易でない。また、スリット状の光源を生成するための光学機器もシリンドリカルレンズでは、光学的条件を満たす必要があり、小型化することは容易でない。
そこで本発明の第2の実施の形態では、上述した光切断法による3次元距離計測システムにおいて、スキャン動作を行なうミラー部をMEMS(Micro Electro Mechanical System )ミラーで構成し、簡素で小型のシステムを実現するとともに、消費電力の削減を図るものである。
However, in this case, many parts such as an optical device for generating a light source and slit light outside the sensor, and a drive system for performing a scanning operation with a mirror are required, and miniaturization, power saving, etc. are required. Not easy. Further, an optical device for generating a slit-like light source is also a cylindrical lens, and it is necessary to satisfy the optical conditions, and it is not easy to reduce the size.
Therefore, in the second embodiment of the present invention, in the above-described three-dimensional distance measurement system based on the light cutting method, the mirror unit for performing the scanning operation is configured by a MEMS (Micro Electro Mechanical System) mirror, and a simple and compact system is realized. In addition to realizing this, it is intended to reduce power consumption.

図10は、本発明の第2の実施の形態例の3次元距離計測システムに用いるMEMSミラーの構成例を示す斜視図である。
図10に示すMEMSミラーは、シリコン基板上に作成された電磁駆動方式によるスキャナ型ミラーである(例えば、「Hiroshi Miyajima, Journal of Microelectromechanical systems Vol.10, No.3 2001 p418-p424 」参照)。
このMEMSミラーは、シリコン基板の表面にミラー面を形成した可動板(ミラー本体)120をメタルベース121に取り付けたものである。可動板120には、両側にヒンジ部120Aを介して固定片120Bが形成され、この固定片120Bをメタルベース121に接合されることにより、ヒンジ部120Aの可撓性と弾性を利用して回転可能となっている。
FIG. 10 is a perspective view showing a configuration example of a MEMS mirror used in the three-dimensional distance measurement system according to the second embodiment of the present invention.
The MEMS mirror shown in FIG. 10 is an electromagnetically driven scanner-type mirror created on a silicon substrate (see, for example, “Hiroshi Miyajima, Journal of Microelectromechanical systems Vol. 10, No. 3 2001 p418-p424”).
In this MEMS mirror, a movable plate (mirror body) 120 having a mirror surface formed on the surface of a silicon substrate is attached to a metal base 121. A fixed piece 120B is formed on both sides of the movable plate 120 via a hinge part 120A, and the fixed piece 120B is joined to the metal base 121 to rotate using the flexibility and elasticity of the hinge part 120A. It is possible.

メタルベース121には、可動板120の裏側にセンサコイル122や駆動コイル123が配置され、また、可動板120を挟む状態でマグネット124及びヨーク125が配置されている。
そして、フラットケーブル126等を介して駆動コイル123に通電するとともに、センサコイル122の検出信号によって可動板120の変位を検出し、駆動コイル123への電流値をコントロールすることにより、ローレンツ力とヒンジ部のねじれ応力の釣り合いを利用して可動板(ミラー面)120のスキャン動作をさせることができる。
なお、外部からのコントロールにより、ミラーの振動周波数、ミラーの振り角、動作の開始、停止を制御することができる。
In the metal base 121, a sensor coil 122 and a drive coil 123 are disposed on the back side of the movable plate 120, and a magnet 124 and a yoke 125 are disposed with the movable plate 120 interposed therebetween.
Then, the drive coil 123 is energized via the flat cable 126 and the like, and the displacement of the movable plate 120 is detected by the detection signal of the sensor coil 122, and the current value to the drive coil 123 is controlled, so that the Lorentz force and the hinge The movable plate (mirror surface) 120 can be scanned using the balance of the torsional stress of the part.
It should be noted that the vibration frequency of the mirror, the swing angle of the mirror, and the start and stop of the operation can be controlled by external control.

また、図10に示す例は、電流量の調節により、静的にミラー面の振り角をコントロールするガルバノメトリック駆動モードと、ミラー面の振動動作と外部からのコントロール信号とを同期させて共振動作をさせてミラー面のスキャン動作を行なうレゾナント駆動モードの2つの駆動モードを選択することが可能となっている。
また、このMEMSミラーでは、可動板120のヒンジ部120Aをポリイミドの薄膜によって形成することにより、通常のシリコンヒンジでは実現が難しい低周波のスキャン動作も可能としている。
これまで光切断法に利用されていたスキャン用のミラーは、ガルバノモータなどの駆動部とミラーが個別に形成されていたため、部品としてのサイズが大きくなり、消費電力も大きいといった問題があった。そこで、本例では、図10に示すように、ミラーと駆動部を一体に形成するMEMSミラーを利用することにより、光切断法の全体システムの小型化が可能となる。
In the example shown in FIG. 10, the galvanometric drive mode for statically controlling the swing angle of the mirror surface by adjusting the amount of current, and the resonance operation by synchronizing the vibration operation of the mirror surface and an external control signal. Thus, it is possible to select two drive modes of the resonant drive mode in which the mirror surface scan operation is performed.
In this MEMS mirror, the hinge portion 120A of the movable plate 120 is formed of a polyimide thin film, so that a low-frequency scanning operation that is difficult to realize with a normal silicon hinge is also possible.
Conventionally, the scanning mirror used in the light cutting method has a problem that the drive part such as a galvano motor and the mirror are individually formed, so that the size as a component is large and the power consumption is large. Therefore, in this example, as shown in FIG. 10, the entire system of the light cutting method can be downsized by using a MEMS mirror in which the mirror and the drive unit are integrally formed.

なお、本例では、MEMSミラーの一例として、電磁駆動型のスキャナを利用する例を示したが、その他の駆動方法として、ミラーヒンジ部への電流通電によるヒンジ材料の熱的膨張を利用してスキャン動作を行なうもの、あるいはヒンジを積層膜より形成し、各膜の熱膨張率差を利用したスキャン動作を行うものなども用いることができる。
またさらに、同一基板上にミラーとその駆動部を一体形成するMEMS型のミラーであれば、同様に光切断法システムの小型化が可能である。
またさらに、上記のMEMSミラーは一般的に半導体基板上に形成させるので、スキャンミラーに照射するレーザまたは、LEDなどの光源を、MEMSミラーと同一の基板上に一体形成することも可能である。
In this example, as an example of the MEMS mirror, an example of using an electromagnetically driven scanner has been shown. However, as another driving method, the thermal expansion of the hinge material due to current conduction to the mirror hinge portion is used. It is also possible to use a device that performs a scanning operation or a device that forms a hinge from a laminated film and performs a scanning operation using the difference in thermal expansion coefficient of each film.
Furthermore, if the mirror and the drive unit are integrally formed on the same substrate, the optical cutting method system can be similarly reduced in size.
Furthermore, since the MEMS mirror is generally formed on a semiconductor substrate, it is also possible to integrally form a light source such as a laser or an LED for irradiating the scan mirror on the same substrate as the MEMS mirror.

次に、本発明の第3の実施の形態例について説明する。
図11は、本発明の第3の実施の形態例の3次元距離計測システムの2つの構成例を示す説明図である。
本例の光切断法システムでは、スリット状光を得るための投光部にレーザホログラム100を使用したものである。
レーザホログラムは、例えばデジタルスチルカメラのAF用光源として製品化され、使用されており、図11に示すように、レーザ光源101からの出射光路内に配置することにより、レーザ光をスリット状光に制御し、物体102に供給するものである。
Next, a third embodiment of the present invention will be described.
FIG. 11 is an explanatory diagram showing two configuration examples of the three-dimensional distance measurement system according to the third embodiment of the present invention.
In the light cutting method system of this example, the laser hologram 100 is used as a light projecting unit for obtaining slit-like light.
The laser hologram has been commercialized and used as an AF light source for a digital still camera, for example. As shown in FIG. 11, the laser hologram is arranged in the light emission path from the laser light source 101 so that the laser light is slit-shaped light. And is supplied to the object 102.

そして、この物体102からの反射光をレンズ111を通して第1の実施の形態例で説明したセンサ110で撮影することにより、3次元距離計測を行う。
なお、本例では、図6(A)に示す例と同様のミラースキャナ(スキャナ型ミラー)103によってレーザ光のスキャンを行うものであるが、図10に示したMEMSミラーを用いることも可能である。
このようなレーザホログラム100を用いることにより、レーザ光源101に小型の光学系(ホログラム素子)を付加するのみでスリット光の生成が可能となる。また、ホログラム素子は安価なプラスティック基板で形成されるため、コスト的にも有利である。
Then, the reflected light from the object 102 is photographed by the sensor 110 described in the first embodiment through the lens 111, thereby performing three-dimensional distance measurement.
In this example, laser light is scanned by a mirror scanner (scanner type mirror) 103 similar to the example shown in FIG. 6A, but the MEMS mirror shown in FIG. 10 can also be used. is there.
By using such a laser hologram 100, it is possible to generate slit light only by adding a small optical system (hologram element) to the laser light source 101. Moreover, since the hologram element is formed of an inexpensive plastic substrate, it is advantageous in terms of cost.

また、レーザホログラム100の配設位置としては、図11(A)に示すように、レーザ光源101とミラースキャナ103の間に配置してもよいし、もしくは図11(B)に示すように、ミラースキャナの後段に配置する。
ただし、レーザホログラム100をミラースキャナ103の後段に配置する場合は、レーザ光源101から発せられたスポット光がミラーによってスキャンされてからスリット状に広げられることとなる。
Further, the laser hologram 100 may be arranged between the laser light source 101 and the mirror scanner 103 as shown in FIG. 11A, or as shown in FIG. Placed after the mirror scanner.
However, when the laser hologram 100 is arranged at the subsequent stage of the mirror scanner 103, the spot light emitted from the laser light source 101 is scanned by the mirror and then spread in a slit shape.

また、光源の簡易化を図る本発明の第4の実施の形態例として、上述した第1の実施の形態例と同様のセンサを用いるとともに、光源としてはLEDなどの光源を使用し、ミラーによるスキャン走査は行なわず、LED点灯時の撮像フレームとLED消灯時の撮像フレームとの間で差分演算を行なうことにより、背景に対して手前にある物体の認識を可能とするように構成することができる。
なお、この構成では、LED光の強度を変えるなどの制御により、おおよその距離計測も可能となる。
In addition, as a fourth embodiment of the present invention for simplifying the light source, a sensor similar to that in the first embodiment described above is used, and a light source such as an LED is used as the light source, and a mirror is used. By performing a difference calculation between the imaging frame when the LED is turned on and the imaging frame when the LED is turned off without performing scan scanning, an object in front of the background can be recognized. it can.
In this configuration, an approximate distance measurement can be performed by controlling the intensity of the LED light.

次に、上述した実施の形態例に対する応用例について説明する。
上述した各実施の形態例による固体撮像装置による撮像システムを用いることにより、以下のような様々なIT機器等において従来は実現が困難であった画像処理や画像認識などの機能を実現することができる。
(応用例1)
本例では、上述した第1〜第4の実施の形態例による光切断法のシステムを用いて、距離情報に基づいて、画像の中から、ある特定の距離範囲にある画像を抜き出す制御を行う。
これにより、例えば、センサから手前にある物体の画像のみを切り抜き、背景の画像部分を消去する。この機能により、携帯電話、携帯端末(PDA)、TV電話、TV会議等における画像通信において、手前の会話を行なっている人物や、会話対象となる人物のみを抜き出すことが可能となる。これは、会話対象人物のいる場所等の情報を削除することにより、プライベート事項の秘匿などの機能として用いることができる。また、伝送する画像を切り抜いた画像のみに限定すれば、伝送画像情報の情報量削減の機能としても使用可能である。
Next, an application example to the above-described embodiment will be described.
By using the imaging system by the solid-state imaging device according to each embodiment described above, it is possible to realize functions such as image processing and image recognition that are conventionally difficult to realize in various IT devices as described below. it can.
(Application 1)
In this example, using the light cutting method system according to the first to fourth embodiments described above, control is performed to extract an image within a specific distance range from an image based on distance information. .
Thereby, for example, only the image of the object in front is cut out from the sensor, and the background image portion is erased. With this function, it is possible to extract only a person who has a previous conversation or a person who is a conversation target in image communication in a mobile phone, a portable terminal (PDA), a TV phone, a TV conference, or the like. This can be used as a function for concealing private matters by deleting information such as the location of the person to be conversed. Further, if the image to be transmitted is limited to the cut out image, it can also be used as a function for reducing the amount of transmitted image information.

また、さらに上記機能において、削除した背景の代わりに他の背景を用いることも可能である。つまり、背景として、別途取得しておいた風景画などを用いることにより、背景を個人の好みに入れ代えて使用することが可能である。この時、切り出し物体と背景の距離情報を利用すれば、画像の重ね合わせを容易に行なうことができる。
また、特定の画像の抽出処理は、画像認識、物体認識の処理の前処理として用いることが可能である。例えば、通常、顔認識の処理においては、顔部分の認識操作を行なう前段階の処理として、背景から顔部分の画像を抜き出す操作が必要となる。一般にこれは画像情報のみを用いて行なうため、処理時間がかかるなど容易ではなかったが、上記システムを用いることにより、顔部分の切り出し処理などは容易に行なうことが可能である。
なお、本例は第4の実施の形態例で説明したLED照射システムを用いて同様な機能を実現することも可能であるが、LED照射システムでは距離精度が悪くなるため、距離情報に応じた細かな制御は困難である。
Further, in the above function, another background can be used instead of the deleted background. That is, by using a landscape image acquired separately as the background, it is possible to replace the background with personal preference. At this time, if the distance information between the clipped object and the background is used, the images can be easily superimposed.
The specific image extraction processing can be used as preprocessing for image recognition and object recognition processing. For example, in the face recognition process, an operation for extracting an image of the face part from the background is usually required as a process before the face part recognition operation. In general, since this is performed using only image information, it is not easy because it takes a long processing time. However, by using the above-described system, it is possible to easily perform face segmentation processing and the like.
In addition, although this example can also implement | achieve the same function using the LED irradiation system demonstrated in 4th Embodiment, since distance accuracy worsens with an LED irradiation system, it responded to distance information. Fine control is difficult.

(応用例2)
本例では、上述した第1〜第4の実施の形態例に示す光切断法のシステムを2つ用いて、距離情報に応じて2つの画像を合成する。つまり、2つの画像において常に手前にある画像を表示するなどの制御を行なうようにする。
これは、例えば、仮想空間のシミュレーションとして、ある部屋のテーブルに他の場所に配置された置物を仮想的に画面上で配置することが可能となる。または、人物がある部屋の中を仮想的に移動し、物の影に隠れたりするなどの映像をリアルタイムに取得することが可能である。これらは、インテリアの配置シミュレーション、またインタラクション(相互対戦型)ゲーム等に使用することが可能である。
(Application example 2)
In this example, two images are synthesized according to distance information by using two systems of the light cutting method shown in the first to fourth embodiments described above. That is, control is performed such as displaying the image that is always in front of the two images.
For example, as a simulation of a virtual space, it is possible to virtually arrange an ornament placed on a table in a room on another screen. Alternatively, it is possible to acquire in real time an image such as a person moving virtually in a room with a person and hiding in the shadow of an object. These can be used for interior layout simulation, interaction (mutual battle type) games, and the like.

また、画面上のキーボード、各種ボタンなどと、手作業で作成した映像を反映させることにより、ユーザインタフェースを構築することが可能である。
また、アプリケーションによっては、手前にある画像のみを表示するのではなく、後ろにある画像を表示するなどの操作も可能であり、本来見えないものを見えるようにするなどの操作も可能となる。
また、本例において、システムを2台に限らず、3台以上でも画像の合成は可能であり、リアルタイムでの合成処理だけでなく、記録しておいた複数の画像を用いての制御や、記録画像とリアルタイムに取得した画像との合成などのバリエーションが可能である。
In addition, it is possible to construct a user interface by reflecting a manually created video with a keyboard and various buttons on the screen.
Also, depending on the application, it is possible not only to display the image in the foreground, but also to display the image in the back, and to perform operations such as making an invisible one visible.
In addition, in this example, the system is not limited to two units, and it is possible to synthesize images with three or more units, not only real-time synthesis processing, but also control using a plurality of recorded images, Variations such as synthesis of recorded images and images acquired in real time are possible.

(応用例3)
本例では、上述した第1〜第4の実施の形態例に示す光切断法のシステムを用いて、画像情報と距離情報をさまざまな機器、ロボットの操作フィードバック制御に利用する。
たとえば、遠隔医療などのリモートコントロール操作において、画像の距離情報に応じた機器の自動制御が可能である。
または、映像に映っている物体に何らかの機器操作を施すときに、物体に機器が接触しないよう、その機器の操作可能空間を制限するなどの処置を施すことが可能である。
また、上記システムを自律型ロボットなどに搭載させ、ロボットが部屋の家具の配置情報などを検知、記憶することにより、ロボットが部屋の環境情報のマップを作成することが可能となる。これはロボットが部屋の中を移動、作業を行なう上での基礎データ情報として利用することができる。
(Application 3)
In this example, image information and distance information are used for operation feedback control of various devices and robots using the optical cutting system shown in the first to fourth embodiments described above.
For example, in remote control operations such as telemedicine, it is possible to automatically control devices according to image distance information.
Alternatively, when any device operation is performed on the object shown in the video, it is possible to take measures such as limiting the operable space of the device so that the device does not touch the object.
In addition, when the above system is mounted on an autonomous robot or the like, and the robot detects and stores the arrangement information of the furniture in the room, the robot can create a map of the environmental information of the room. This can be used as basic data information when the robot moves and works in the room.

(応用例4)
本例では、上述した第1〜図4の実施の形態例に示す光切断法のシステムを用いて、物体の距離情報を時間軸において解析することにより、物体の動き認識、ジェスチャー認識を行なう。
上述した第1〜第4の実施の形態例に示すシステムは、リアルタイムに3次元距離情報が取得可能であるので、物体の位置変化を時間軸方向に解析し、その動きの特徴を解析することにより、人の動きパターン(ジェスチャー)の認識が可能となる。
これを利用すると、たとえば、ジェスチャーによるユーザーインタフェースの技術などが可能となる。これらは、パソコン(PC)、ゲーム、ロボット、各種AV、IT機器などのユーザーインターフェースとして利用可能である。
また、このジェスチャー認識は、通常画像からの取得情報と組み合わせて、より認識対象、認識効果を高めることも可能である。
(Application 4)
In this example, the object motion recognition and gesture recognition are performed by analyzing the distance information of the object on the time axis using the optical cutting method system shown in the above-described first to fourth embodiments.
Since the systems shown in the first to fourth embodiments described above can acquire three-dimensional distance information in real time, the position change of the object is analyzed in the time axis direction, and the characteristics of the movement are analyzed. This makes it possible to recognize a human movement pattern (gesture).
If this is utilized, for example, a user interface technique based on gestures can be realized. These can be used as user interfaces for personal computers (PCs), games, robots, various AVs, IT devices, and the like.
In addition, this gesture recognition can be combined with information acquired from a normal image to further enhance the recognition target and the recognition effect.

(応用例5)
本例では、自然の凹凸情報を物体認識、または人物認知、セキュリティー用途として利用する。
たとえば、人物認証を行なうセキュリティー用途として、人の顔形状情報を事前に認識登録しておき、その後、不特定の人物が来た時に、その人物の顔の凹凸情報と、事前登録してある人物の凹凸情報を照合し、一致するか否かにより人物の特定を行なう。このとき、第1〜第4の実施の形態例のセンサーシステムにおいては通常画像の取得も同時に可能であるので、応用例1のように、画像認識による人物認証と組み合わせて使用することが可能である。
また、これは、顔にかぎらず、身体のさまざまな部分での認証を行なうことが可能である。
(Application example 5)
In this example, natural unevenness information is used for object recognition, person recognition, or security.
For example, for security purposes to perform person authentication, human face shape information is recognized and registered in advance, and then when an unspecified person comes, information on the unevenness of that person's face and the person who has been registered in advance The unevenness information is collated, and a person is identified by whether or not they match. At this time, in the sensor systems of the first to fourth embodiments, normal images can be acquired at the same time, so that it can be used in combination with person authentication by image recognition as in Application Example 1. is there.
In addition, it is possible to perform authentication not only on the face but also on various parts of the body.

また、第1〜第4の実施の形態例のセンサーシステムは、応用例4で示したような、時間軸方向への解析による、動き検出、ジェスチャー認識も可能となる。よって、このジェスチャーを個人認証として利用することも可能である。
また、このような、凹凸による認証は、人物のみでなく、通常の物体の認識に用いることも可能である。
また、上記のように、被写体の各部の凹凸情報を正確に認識、認証のデータとして用いるのではなく、凹凸の特徴、たとえば、テクスチャ(質感)の特徴として解析し、認識、認証のデータとして用いることも可能である。
The sensor systems of the first to fourth embodiments can also perform motion detection and gesture recognition by analysis in the time axis direction as shown in the application example 4. Therefore, this gesture can be used as personal authentication.
Moreover, such authentication by unevenness can be used not only for a person but also for recognition of a normal object.
Further, as described above, the unevenness information of each part of the subject is not accurately used as recognition and authentication data, but is analyzed as unevenness characteristics, for example, texture (texture) characteristics, and used as recognition and authentication data. It is also possible.

(応用例6)
本例は、上述した第1〜第4の実施の形態例に示す光切断法のシステムを自動車の後方確認、車外確認に利用する。
たとえば、後方確認の場合では、センサーによる通常画像を見ながら運転操作を行ない、システムはそれと同時に後方障害物の距離を計測し、障害物まで一定の距離に近づけば警告を発する。
また、一般道路などに、凹凸による標識を設定し、これを個別の車に搭載した上記センサーシステムにて読みとることにより、自動車の自動制御フィードバックなどに応用することが可能である。たとえば、道路の側部に凹凸の標識を設定し、自動車はこれを読み取りながら進行し、自動車が道路よりはずれそうになったら、警告を発する等のシステムを構築することができる。
(Application example 6)
In this example, the system of the light cutting method shown in the first to fourth embodiments described above is used for vehicle rearward confirmation and vehicle exterior confirmation.
For example, in the case of backward confirmation, a driving operation is performed while viewing a normal image from a sensor, and at the same time, the system measures the distance of the rear obstacle, and issues a warning when approaching the obstacle to a certain distance.
Moreover, it is possible to apply to automatic control feedback of a car by setting a sign with unevenness on a general road and reading it with the sensor system mounted on an individual car. For example, it is possible to construct a system in which an uneven sign is set on the side of a road, and the car proceeds while reading it, and a warning is issued when the car is likely to be off the road.

(応用例7)
本例は、上述した第1〜第4の実施の形態例に示す光切断法のシステムを自動車の車内において利用する。
たとえば、3次元計測機能を利用して、座席に座っている人の有無、座っている人の年齢などの判別を行なう。この検出結果はシートベルトの装着警告、エアバッグの動作レベルの調整などにフィードバックすることができる。
また、応用例2のようなジェスチャー認識機能を用い、運転者が車内の搭載機器をボタン等に触れることなく、身振り、手振りで操作ができるようにする。
(Application example 7)
In this example, the optical cutting system shown in the first to fourth embodiments is used in a car.
For example, the presence / absence of a person sitting on the seat and the age of the person sitting are determined using a three-dimensional measurement function. This detection result can be fed back to seat belt warning, adjustment of the operation level of the airbag, and the like.
In addition, the gesture recognition function as in Application Example 2 is used so that the driver can operate the device mounted in the vehicle by gesture or hand gesture without touching a button or the like.

(応用例8)
本例は、上述した第1〜第4の実施の形態例に示す光切断法のシステムをリアルタイム3次元モデリングに使用する。
第1の実施の形態によるシステムは、通常画像の取得と3次元計測がほぼ同時に可能であるので、物体の3次元モデリングと、画像の切り貼りによるテクスチャマッピングが可能である。またこれらは、リアルタイムで可能となる。
(応用例9)
応用例9として、上記第1〜第4の実施の形態例に示す光切断法のシステムをMPEG4のオブジェクト切り出し処理に利用することができる。
(Application 8)
In this example, the optical cutting system shown in the first to fourth embodiments is used for real-time three-dimensional modeling.
Since the system according to the first embodiment can acquire a normal image and perform three-dimensional measurement almost simultaneously, it can perform three-dimensional modeling of an object and texture mapping by cutting and pasting an image. These are also possible in real time.
(Application example 9)
As an application example 9, the optical cutting system shown in the first to fourth embodiments can be used for MPEG4 object extraction processing.

以上説明したように本発明の固体撮像装置によれば、撮像画素によって得られた画像信号を信号線によって第1、第2の信号伝送経路に伝送し、第1、第2の信号処理部で互いに異なる信号処理を行うことにより、例えば通常の画像信号出力とその他の各種演算処理を個別の回路で行うことができる。
また、本発明の制御方法によれば、撮像画素によって得られた画像信号を信号線によって第1、第2の信号伝送経路に伝送し、第1、第2の信号処理ステップで互いに異なる信号処理を行うことにより、例えば通常の画像信号出力とその他の各種演算処理を個別の回路で行うことができる。
したがって、各信号処理に必要な回路素子を画素の外部にまとめて配置し、各画素内の構成を最小限に抑えて簡素化を図ることができ、また、通常の実画像の取得機能と、各種アプリケーションを実行する演算機能とを、それぞれ独立した回路構成によって強化することができ、装置の小型化、低消費電力化、低コスト化、実画像の多画素化(高画質化)等を実現することが可能となる。
As described above, according to the solid-state imaging device of the present invention, the image signal obtained by the imaging pixel is transmitted to the first and second signal transmission paths through the signal line, and the first and second signal processing units. By performing signal processing different from each other, for example, normal image signal output and other various arithmetic processes can be performed by individual circuits.
According to the control method of the present invention, the image signal obtained by the imaging pixel is transmitted to the first and second signal transmission paths through the signal line, and the signal processing different from each other in the first and second signal processing steps. Thus, for example, normal image signal output and other various arithmetic processes can be performed by separate circuits.
Therefore, circuit elements necessary for each signal processing are collectively arranged outside the pixel, the configuration inside each pixel can be minimized, and simplification can be achieved. Arithmetic functions that execute various applications can be strengthened by independent circuit configurations, realizing downsizing of the device, low power consumption, low cost, multiple pixels of real images (high image quality), etc. It becomes possible to do.

本発明の実施の形態によるイメージセンサの全体構成を示す平面図である。1 is a plan view showing an overall configuration of an image sensor according to an embodiment of the present invention. 図1に示すイメージセンサにおけるピクセルアレイ部の各ピクセルの内部構成を示すブロック図である。FIG. 2 is a block diagram illustrating an internal configuration of each pixel of a pixel array unit in the image sensor illustrated in FIG. 1. 図1に示すイメージセンサの各ブロックの詳細を示すブロック図である。It is a block diagram which shows the detail of each block of the image sensor shown in FIG. 図1に示すイメージセンサの画像出力時の動作を示すタイミングチャートである。2 is a timing chart illustrating an operation of the image sensor illustrated in FIG. 1 when outputting an image. 図1に示すイメージセンサの距離計測時の動作を示すタイミングチャートである。It is a timing chart which shows the operation | movement at the time of the distance measurement of the image sensor shown in FIG. 3次元距離計測を行うための三角法の原理とスリット光の検出方法を示す説明図である。It is explanatory drawing which shows the principle of the trigonometry for performing three-dimensional distance measurement, and the detection method of slit light. 従来のイメージセンサの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the conventional image sensor. 図7に示すイメージセンサのピクセルの内部構造を示す回路図である。It is a circuit diagram which shows the internal structure of the pixel of the image sensor shown in FIG. 図7に示すイメージセンサにおける距離計測動作を示すタイミングチャートである。It is a timing chart which shows the distance measurement operation | movement in the image sensor shown in FIG. 本発明の第2の実施の形態例による3次元距離計測システムに用いるMEMSミラーの構成例を示す斜視図である。It is a perspective view which shows the structural example of the MEMS mirror used for the three-dimensional distance measuring system by the 2nd Example of this invention. 本発明の第3の実施の形態例による3次元距離計測システムの構成例を示す説明図である。It is explanatory drawing which shows the structural example of the three-dimensional distance measurement system by the 3rd Example of this invention.

符号の説明Explanation of symbols

41……ピクセルアレイ部、42……ピクセルVスキャナ部、43……ピクセルHスキャナ部、44……I−V変換回路部、45……CDS回路部、46……カレントミラー回路部、47……アナログメモリアレイ部、48……メモリVスキャナ部、49……メモリHスキャナ部、50……コンパレータ部、51……バイアス回路部、52……データラッチ部、53……出力データバス部、54……垂直信号線、55……水平信号線、60……フォトダイオード、61……転送トランジスタ、62……転送選択トランジスタ、63……リセットトランジスタ、64……増幅トランジスタ、65……選択トランジスタ、66……フローティングデフュージョン部。
41... Pixel array unit 42. Pixel V scanner unit 43 43 Pixel H scanner unit 44. IV conversion circuit unit 45. CDS circuit unit 46. ... Analog memory array part, 48 ... Memory V scanner part, 49 ... Memory H scanner part, 50 ... Comparator part, 51 ... Bias circuit part, 52 ... Data latch part, 53 ... Output data bus part, 54 …… Vertical signal line, 55 …… Horizontal signal line, 60 …… Photodiode, 61 …… Transfer transistor, 62 …… Transfer selection transistor, 63 …… Reset transistor, 64 …… Amplification transistor, 65 …… Select transistor , 66 …… Floating diffusion part.

Claims (34)

それぞれ撮像画素を構成する複数の受光部と、前記受光部によって受光した光を電気信号に変換する複数の光電変換部と、前記複数の光電変換部によって変換された電気信号を取り出す複数の信号伝送経路を有する信号線を具備し、
前記信号線によって第1の信号伝送方向に伝送された電気信号の処理を行う第1の信号処理部と、前記信号線によって第2の信号伝送方向に伝送された電気信号の処理を行う第2の信号処理部とを有し、前記第1の信号処理部と前記第2の信号処理部で異なる信号処理を行う固体撮像装置であって、
被写体を照射するための光源と、前記光源から出射された光を被写体に対して掃引照射する掃引用ミラーとを有し、前記光源及び掃引用ミラーによって前記被写体に照射されて反射した光を前記受光部によって検出し、前記第2の信号処理部で演算処理することにより、前記被写体を光切断法によって測定し、前記第1の信号処理部で前記被写体の画像の出力処理を行う
体撮像装置。
A plurality of light-receiving units that respectively constitute imaging pixels, a plurality of photoelectric conversion units that convert light received by the light-receiving unit into electric signals, and a plurality of signal transmissions that extract electric signals converted by the plurality of photoelectric conversion units A signal line having a path;
A first signal processor for processing an electric signal transmitted in the first signal transmission direction by the signal line; and a second signal for processing an electric signal transmitted in the second signal transmission direction by the signal line. A solid-state imaging device that performs different signal processing in the first signal processing unit and the second signal processing unit,
A light source for irradiating the subject, and a citation mirror for sweeping and irradiating the light emitted from the light source to the subject, and the light reflected by the illuminating object by the light source and the citation mirror The object is detected by a light-cutting method by being detected by a light receiving unit and processed by the second signal processing unit, and the first signal processing unit performs output processing of the image of the subject.
Solid-state image sensor.
前記光源はスリット状光を出射す
求項1記載の固体撮像装置。
The light source that shines out of the slit-like light
The solid-state imaging device Motomeko 1 wherein.
前記掃引用ミラーは、ミラー本体となる半導体またはその他の材料で形成された可動板にミラー駆動部を形成したものであ
求項1記載の固体撮像装置。
The sweep mirror is Der Ru obtained by forming a mirror driver on a movable plate which is formed of a semiconductor or other materials comprising a mirror body
The solid-state imaging device Motomeko 1 wherein.
前記掃引用ミラーは、前記可動板を揺動変位可能に保持するベースを有し、前記可動板は、ヒンジ部を介してベースに取り付けられ、前記ヒンジ部の変形によって揺動変位す
求項1記載の固体撮像装置。
The sweep mirror has a base for holding the movable plate to be capable of rocking displacement, the movable plate is attached to the base through the hinge portion, you swings by the deformation of the hinge portion
The solid-state imaging device Motomeko 1 wherein.
前記掃引用ミラーは、前記ベースに保持された可動板に磁界を付与する磁気回路とを有し、前記ミラー駆動部は前記磁界内で通電されることにより、前記可動板をローレンツ力によって駆動する駆動コイルを含
求項4記載の固体撮像装置。
The sweeping mirror includes a magnetic circuit that applies a magnetic field to the movable plate held by the base, and the mirror driving unit drives the movable plate by Lorentz force when energized in the magnetic field. a driving coil including
Motomeko 4 solid-state imaging device according.
前記ミラー駆動部は前記磁界内での可動板の変位を検出する検出コイルを有す
求項5記載の固体撮像装置。
That the mirror drive unit having a detection coil for detecting the displacement of the movable plate in said magnetic field
The solid-state imaging device Motomeko 5 wherein.
前記ミラー駆動部は、前記可動板のヒンジ部に通電することにより、ヒンジ材料の熱的膨張を利用して前記可動板を駆動す
求項4記載の固体撮像装置。
The mirror drive unit, by energizing the hinge portion of the movable plate, drive the movable plate by using a thermal expansion of the hinge material
Motomeko 4 solid-state imaging device according.
前記ミラー駆動部は、前記可動板のヒンジ部に通電することにより、ヒンジ部を構成する積層膜の熱膨張率の違いを利用して前記可動板を駆動す
求項4記載の固体撮像装置。
The mirror drive unit, by energizing the hinge portion of the movable plate, drive the movable plate by utilizing a difference in thermal expansion of the laminated film constituting the hinge portion
Motomeko 4 solid-state imaging device according.
前記ミラー駆動部は、駆動モードとしてガルバノ駆動モードと共振駆動モードとを有す
求項4記載の固体撮像装置。
The mirror drive unit, that have a galvano drive mode and a resonant drive mode as the drive mode
Motomeko 4 solid-state imaging device according.
前記ヒンジ部にポリイミド材を用い
求項4記載の固体撮像装置。
Polyimide material was used for the hinge part
Motomeko 4 solid-state imaging device according.
前記光源と掃引用ミラーとを同一基板上に設け
求項1記載の固体撮像装置。
The light source and the sweeping mirror are provided on the same substrate .
The solid-state imaging device Motomeko 1 wherein.
前記掃引用ミラーにおけるミラーの振動周波数、ミラーの振り角、動作の開始、停止を外部からの信号によりコントロールする手段を有す
求項1記載の固体撮像装置。
Vibration frequency, deflection angle of the mirror of the mirror in the sweep mirror, the start of the operation, that having a means for controlling the external signal to stop
The solid-state imaging device Motomeko 1 wherein.
前記光源はレーザ光源であり、レーザ光をスリット状光に変換するレーザホログラムを有す
求項1記載の固体撮像装置。
The light source is a laser light source, that having a laser hologram converts the laser beam into a slit-shaped light
The solid-state imaging device Motomeko 1 wherein.
前記レーザホログラムを光源と掃引用ミラーとの間に設け
求項1記載の固体撮像装置。
Provided with the laser hologram between the light source and the sweep mirror
The solid-state imaging device Motomeko 1 wherein.
前記レーザホログラムを掃引用ミラーの被写体側に設け
求項1記載の固体撮像装置。
Provided with the laser hologram on the object side of the sweep mirror
The solid-state imaging device Motomeko 1 wherein.
前記第2の信号処理部の演算処理によって得られる距離情報に基づいて、前記第2の信号処理部がさらに、前記被写体の画像の中から、ある特定の距離範囲にある画像を抽出する処理を行
求項1記載の固体撮像装置。
Based on the distance information obtained by the arithmetic processing of the second signal processing unit, the second signal processing unit further performs processing for extracting an image within a specific distance range from the image of the subject. intends row
The solid-state imaging device Motomeko 1 wherein.
前記第2の信号処理部の演算処理によって得られる距離情報に基づいて、前記第2の信号処理部がさらに、前記被写体の画像の中から、ある特定の距離範囲にある画像を他の画像に置き換える処理を行
求項1記載の固体撮像装置。
Based on the distance information obtained by the arithmetic processing of the second signal processing unit, the second signal processing unit further converts an image within a specific distance range from the subject image to another image. It intends line the process of replacing
The solid-state imaging device Motomeko 1 wherein.
前記他の画像は、オペレータが手作業によって作成した画像であ
求項17記載の固体撮像装置。
The other images, Ru image der prepared by the operator by hand
The solid-state imaging device Motomeko 17 wherein.
前記他の画像は、他の媒体より入力された画像であ
求項17記載の固体撮像装置。
The other images, Ru image der input from other media
The solid-state imaging device Motomeko 17 wherein.
前記他の画像は、固体撮像装置によって撮像された画像であ
求項17記載の固体撮像装置。
The other images, Ru image der picked up by the solid-state imaging device
The solid-state imaging device Motomeko 17 wherein.
前記第2の信号処理部が、ある特定の画像を抽出し、画像認識によって被写体を認識す
求項16記載の固体撮像装置。
Said second signal processing section extracts a specific image, it recognizes an object by image recognition
The solid-state imaging device Motomeko 16 wherein.
前記第2の信号処理部が、ある特定の画像を抽出し、被写体の位置情報の時間的解析による特徴抽出によって被写体を認識す
求項16記載の固体撮像装置。
Said second signal processing section extracts a specific image, we recognize an object by the feature extraction by temporal analysis of the positional information of the subject
The solid-state imaging device Motomeko 16 wherein.
前記第2の信号処理部が、ある特定の画像を抽出し、画像認識、及び被写体の位置情報の時間的解析による特徴抽出によって被写体を認識す
求項16記載の固体撮像装置。
It said second signal processing section extracts a specific image, you recognize an object by the feature extraction by the image recognition, and temporal analysis of positional information of the subject
The solid-state imaging device Motomeko 16 wherein.
前記第2の信号処理部が、ある特定の画像を抽出し、画像認識、及び被写体の位置情報の時間的解析による特徴抽出によって被写体を認識し、その認識結果を同様の処理によって取得した他の被写体の認識結果を比較することにより、被写体を認識す
求項16記載の固体撮像装置。
The second signal processing unit extracts a specific image, recognizes the object by image recognition and feature extraction by temporal analysis of the position information of the object, and obtains the recognition result by other processes. by comparing the recognition result of the object, it recognizes an object
The solid-state imaging device Motomeko 16 wherein.
それぞれ撮像画素を構成する複数の受光部と、前記受光部によって受光した光を電気信号に変換する複数の光電変換部と、前記複数の光電変換部によって変換された電気信号を取り出す複数の信号伝送経路を有する信号線を具備し、前記信号線によって第1の信号伝送方向に伝送された電気信号の処理を行う第1の信号処理部と、前記信号線によって第2の信号伝送方向に伝送された電気信号の処理を行う第2の信号処理部とを有する固体撮像装置の制御方法において、
前記信号線によって第1の信号伝送方向に伝送された電気信号の処理を行う第1の信号処理ステップと、前記信号線によって第2の信号伝送方向に伝送された電気信号の処理を行う第2の信号処理ステップとを有し、前記第1の信号処理ステップと前記第2の信号処理ステップで異なる信号処理を行い
記第2の信号処理ステップでは、光源から出射された光を被写体に対して掃引照射し、前記被写体からの反射光を前記受光部によって検出し、この検出信号を演算処理することにより、前記被写体を光切断法によって測定し、
かつ、前記第1の信号処理ステップでは、前記被写体の画像の出力処理を行う
体撮像装置の制御方法。
A plurality of light-receiving units that respectively constitute imaging pixels, a plurality of photoelectric conversion units that convert light received by the light-receiving unit into electric signals, and a plurality of signal transmissions that extract electric signals converted by the plurality of photoelectric conversion units A signal line having a path, and a first signal processing unit for processing an electric signal transmitted in the first signal transmission direction by the signal line; and a signal line transmitted in the second signal transmission direction by the signal line. In a control method of a solid-state imaging device having a second signal processing unit for processing a processed electric signal ,
A first signal processing step for processing an electric signal transmitted in the first signal transmission direction by the signal line; and a second for processing the electric signal transmitted in the second signal transmission direction by the signal line. Signal processing steps, and performing different signal processing in the first signal processing step and the second signal processing step ,
In the previous SL second signal processing step, by the light emitted from the light source sweeps irradiated to an object, the reflected light from the object is detected by the light receiving unit, for processing the detection signal, the Measure the subject by light cutting ,
In the first signal processing step, output processing of the image of the subject is performed.
The method of the solid-state imaging device.
前記第2の信号処理ステップの演算処理によって得られる距離情報に基づいて、前記第2の信号処理部で、前記被写体の画像の中から、ある特定の距離範囲にある画像を抽出する処理を行
求項25記載の固体撮像装置の制御方法。
Based on the distance information obtained by the calculation process of the second signal processing step, the second signal processing unit performs a process of extracting an image within a specific distance range from the subject image. U
Control method of a solid-state imaging device Motomeko 25 wherein.
前記第2の信号処理ステップの演算処理によって得られる距離情報に基づいて、前記第2の信号処理部で、前記被写体の画像の中から、ある特定の距離範囲にある画像を他の画像に置き換える処理を行
求項25記載の固体撮像装置の制御方法。
Based on the distance information obtained by the calculation processing of the second signal processing step, the second signal processing unit replaces an image within a specific distance range with another image from the subject image. It intends line processing
Control method of a solid-state imaging device Motomeko 25 wherein.
前記他の画像は、オペレータが手作業によって作成した画像であ
求項27記載の固体撮像装置の制御方法。
The other images, Ru image der prepared by the operator by hand
Control method of a solid-state imaging device Motomeko 27 wherein.
前記他の画像は、他の媒体より入力された画像であ
求項27記載の固体撮像装置の制御方法。
The other images, Ru image der input from other media
Control method of a solid-state imaging device Motomeko 27 wherein.
前記他の画像は、固体撮像装置によって撮像された画像であ
求項27記載の固体撮像装置の制御方法。
The other images, Ru image der picked up by the solid-state imaging device
Control method of a solid-state imaging device Motomeko 27 wherein.
前記第2の信号処理部で、ある特定の画像を抽出し、画像認識によって被写体を認識する
求項26記載の固体撮像装置の制御方法。
The second signal processing unit extracts a specific image and recognizes the subject by image recognition.
Control method of a solid-state imaging device Motomeko 26 wherein.
前記第2の信号処理部で、ある特定の画像を抽出し、被写体の位置情報の時間的解析による特徴抽出によって被写体を認識す
求項26記載の固体撮像装置の制御方法。
In the second signal processing unit extracts a specific image, we recognize an object by the feature extraction by temporal analysis of the positional information of the subject
Control method of a solid-state imaging device Motomeko 26 wherein.
前記第2の信号処理部で、ある特定の画像を抽出し、画像認識、及び被写体の位置情報の時間的解析による特徴抽出によって被写体を認識す
求項26記載の固体撮像装置の制御方法。
In the second signal processing unit extracts a specific image, we recognize an object by the feature extraction by the image recognition, and temporal analysis of positional information of the subject
Control method of a solid-state imaging device Motomeko 26 wherein.
前記第2の信号処理部で、ある特定の画像を抽出し、画像認識、及び被写体の位置情報の時間的解析による特徴抽出によって被写体を認識し、その認識結果を同様の処理によって取得した他の被写体の認識結果を比較することにより、被写体を認識する
求項26記載の固体撮像装置の制御方法。
The second signal processing unit extracts a specific image, recognizes the object by image recognition and feature extraction by temporal analysis of the position information of the object, and obtains the recognition result by other processing. Recognize the subject by comparing the recognition results of the subject
Control method of a solid-state imaging device Motomeko 26 wherein.
JP2006148856A 2001-09-20 2006-05-29 Solid-state imaging device and control method thereof Expired - Fee Related JP4466612B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006148856A JP4466612B2 (en) 2001-09-20 2006-05-29 Solid-state imaging device and control method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001287625 2001-09-20
JP2006148856A JP4466612B2 (en) 2001-09-20 2006-05-29 Solid-state imaging device and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002169577A Division JP3846572B2 (en) 2001-09-20 2002-06-11 Solid-state imaging device

Publications (2)

Publication Number Publication Date
JP2006333493A JP2006333493A (en) 2006-12-07
JP4466612B2 true JP4466612B2 (en) 2010-05-26

Family

ID=37554606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006148856A Expired - Fee Related JP4466612B2 (en) 2001-09-20 2006-05-29 Solid-state imaging device and control method thereof

Country Status (1)

Country Link
JP (1) JP4466612B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8988571B2 (en) 2007-09-05 2015-03-24 Tohoku University Solid-state image sensor
JP5548263B2 (en) 2010-05-27 2014-07-16 パナソニック株式会社 Solid-state image sensor and driving method of solid-state image sensor
CN106933014B (en) 2010-09-07 2020-05-22 大日本印刷株式会社 Optical module
CN103080630B (en) 2010-09-07 2015-08-26 大日本印刷株式会社 Employ the lighting device of coherent source
EP3064895B1 (en) * 2010-09-07 2020-04-15 Dai Nippon Printing Co., Ltd. Linear illumination device
JP5527261B2 (en) * 2011-03-15 2014-06-18 大日本印刷株式会社 Scanner device and object three-dimensional shape measuring device
JP5737453B2 (en) * 2014-04-16 2015-06-17 大日本印刷株式会社 Linear lighting device
US10389961B2 (en) 2015-04-09 2019-08-20 Semiconductor Energy Laboratory Co., Ltd. Imaging device and electronic device
US20230296373A1 (en) 2020-09-07 2023-09-21 Fanuc Corporation Three-dimensional measurement device
DE112021004600T5 (en) 2020-11-25 2023-06-29 Fanuc Corporation THREE-DIMENSIONAL MEASUREMENT DEVICE AND THREE-DIMENSIONAL MEASUREMENT PROCEDURE

Also Published As

Publication number Publication date
JP2006333493A (en) 2006-12-07

Similar Documents

Publication Publication Date Title
JP3846572B2 (en) Solid-state imaging device
JP4466612B2 (en) Solid-state imaging device and control method thereof
US11262558B2 (en) Methods and apparatus for implementing and/or using a camera device
US10038860B2 (en) Methods and apparatus for controlling sensors to capture images in a synchronized manner
US10091447B2 (en) Methods and apparatus for synchronizing readout of multiple image sensors
US9407837B2 (en) Depth sensor using modulated light projector and image sensor with color and IR sensing
EP3058416B1 (en) Methods and apparatus for implementing and/or using a camera device
US10229943B2 (en) Method and system for pixel-wise imaging
TW202007139A (en) Pixel sensor having multiple photodiodes
JP2022512076A (en) Pixel sensor with multiple photodiodes
JP4830270B2 (en) Solid-state imaging device and signal processing method for solid-state imaging device
JP2007281556A (en) Imaging element, imaging apparatus, and imaging system
JP5105907B2 (en) Imaging system
CN105407299A (en) Image Capturing Apparatus And Method Of Controlling Image Capturing Apparatus
WO2021014867A1 (en) Imaging device and control method for same
US20200204748A1 (en) Method and system for pixel-wise imaging
JP3736829B2 (en) Information input device
JP5456644B2 (en) Light receiving element and control method
US20230412936A1 (en) Solid-state imaging element, electronic device, and imaging method
You et al. MOEMS-based time-of-flight camera for 3D video capturing
WO2023186437A1 (en) Sensor device and method for operating a sensor device
JP2001275045A (en) Image pickup element and image pickup system having the image pickup element incorporated

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090817

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees