JP2008219370A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2008219370A JP2008219370A JP2007052916A JP2007052916A JP2008219370A JP 2008219370 A JP2008219370 A JP 2008219370A JP 2007052916 A JP2007052916 A JP 2007052916A JP 2007052916 A JP2007052916 A JP 2007052916A JP 2008219370 A JP2008219370 A JP 2008219370A
- Authority
- JP
- Japan
- Prior art keywords
- electromagnetic wave
- image
- subject
- light
- distance information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ビデオカメラやデジタルスチルカメラ等の撮像装置に関する。 The present invention relates to an imaging apparatus such as a video camera or a digital still camera.
近年、自動車の安全性への関心から、自車両から、前方の走行車両までの距離算出や、安全な走行距離を保持した走行の要求や、道路上の障害物などを事前に察知して、回避を促す装置への要求が高まり、自動車内から道路を撮像装置で観察することが始まっている。 In recent years, from the interest in automobile safety, calculate the distance from your vehicle to the vehicle in front, demand for driving with a safe driving distance, obstacles on the road in advance, The demand for a device that promotes avoidance has increased, and observation of a road with an imaging device has started from within a car.
また、高精細の画像を実現し、かつフォーカス精度やストロボ発光量の調整精度を向上するために、画像情報と距離情報を同時に出力することができる撮像装置の要求も高まっている。 In addition, in order to realize a high-definition image and improve the accuracy of focusing and adjusting the amount of strobe light emission, there is an increasing demand for an imaging apparatus that can output image information and distance information simultaneously.
更に、このような撮像装置の小型化を図るため、従来のカラーフィルタがモザイク状の撮像素子(ベイヤー配列)に代わり、入射光をより有効利用できる1枚の撮像素子が要求されている。 Furthermore, in order to reduce the size of such an image pickup apparatus, there is a demand for a single image pickup element that can use incident light more effectively in place of a conventional color filter instead of a mosaic image pickup element (Bayer array).
このような状況を鑑み、固体撮像素子の画素単位毎に、光の3原色であるRGB、ぞれぞれの波長の光を吸収する電磁波吸収膜を積層化して、入射光の利用効率を向上させる技術が提案されている(例えば特許文献1参照)。これにより、撮像素子の寸法を大きくすることなく、高解像度を実現することができる。 In view of this situation, each pixel unit of the solid-state image sensor improves the utilization efficiency of incident light by stacking electromagnetic wave absorbing films that absorb light of the three primary colors RGB and light of each wavelength. The technique to make is proposed (for example, refer patent document 1). Thereby, high resolution can be realized without increasing the size of the image sensor.
また、高解像度の画像と、被写体までの距離情報を2つの撮像素子を用いて同時に取得する撮像装置も提案されている(例えば特許文献2参照)。
このように、画素単位毎に光の3原色であるRGB、ぞれぞれの波長を吸収する電磁波吸収膜を多層化して、高解像度を実現する手法では、画素単位毎に光のRGB波長を吸収できる。この構造により、モザイク状のカラーフィルタ型の固体撮像素子と比較して、光の利用効率が3倍に向上するため、高解像度を実現することができる。 As described above, in the method of realizing a high resolution by multilayering the electromagnetic wave absorbing films that absorb the respective wavelengths of RGB and RGB, which are the three primary colors of light for each pixel unit, the RGB wavelength of the light is set for each pixel unit. Can be absorbed. With this structure, the light use efficiency is improved by a factor of three compared to a mosaic color filter type solid-state imaging device, so that high resolution can be realized.
しかし、本手法では、光の3原色RGBに対応した電磁波吸収膜を積層構造にしているため、高解像度を実現することは可能であるが、撮像素子からは、画像情報のみの出力であるため、被写体までの距離情報を同時に出力することができない。 However, in this method, since the electromagnetic wave absorbing film corresponding to the three primary colors RGB of light has a laminated structure, it is possible to achieve high resolution, but the image pickup device outputs only image information. The distance information to the subject cannot be output at the same time.
また、2つの撮像素子を用いて、高解像度の画質と距離情報を同時に取得する手法では、画像用撮像素子と距離情報取得用撮像素子が1つのレンズからの入射光を分離するハーフミラーを介して光が入射される。そのため、レンズ等の光学デバイス1つで画像と距離情報を取得することができる。 Further, in the method of simultaneously acquiring high resolution image quality and distance information using two image sensors, the image sensor for image and the image sensor for distance information acquisition pass through a half mirror that separates incident light from one lens. Light is incident. Therefore, an image and distance information can be acquired with one optical device such as a lens.
しかし、1つの光学デバイスからハーフミラーを介して入射光を分離するため、2つの撮像素子への光の入射角がずれないように、ハーフミラーのメカ的な取り付け精度が要求される。 However, since the incident light is separated from one optical device via the half mirror, the mechanical attachment accuracy of the half mirror is required so that the incident angle of the light to the two image sensors does not deviate.
また、2つの撮像素子とハーフミラーを用いるため、撮像装置の小型化・低消費電力が難しく、更にコストも増加する問題がある。 In addition, since two imaging elements and a half mirror are used, there is a problem that it is difficult to reduce the size and power consumption of the imaging apparatus, and further increase the cost.
本発明の目的は、撮影中に被写体画像と、対象被写体までの距離情報を同時に出力することができ、更に、自然光内の赤外光による影響を排除することができる撮像装置を提供することにある。 An object of the present invention is to provide an imaging apparatus that can simultaneously output a subject image and distance information to the target subject during shooting, and can eliminate the influence of infrared light in natural light. is there.
上記目的を達成するために、請求項1記載の撮像装置は、可視光において、光の3原色であるR,G,Bそれぞれを吸収できる第1乃至第3の電磁波吸収膜と、該第1乃至第3の電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる第4の電磁波吸収膜とを有する多層積層型の撮像素子と、該撮像素子付近に設置したLEDを有する撮像装置において、前記第1乃至第3の電磁波吸収膜で吸収した電荷から被写体画像を算出し、かつ、前記LEDからの照射光が被写体を介した反射光を前記第4の電磁波吸収膜で吸収し、照射光出力タイミングと到達反射光の吸収タイミングとの時間差から被写体までの距離情報を算出する算出手段と、被写体画像と被写体画像に対応した距離情報を同時に出力する出力手段とを備えることを特徴とする。 In order to achieve the above object, the imaging apparatus according to claim 1 includes first to third electromagnetic wave absorbing films that can absorb R, G, and B, which are the three primary colors of light, in the visible light, and the first electromagnetic wave absorbing film. A multilayer laminated type imaging device having a fourth electromagnetic wave absorbing film capable of absorbing electromagnetic waves corresponding to near-infrared light wavelength from electromagnetic waves not absorbed by the third electromagnetic wave absorbing film, and an LED installed in the vicinity of the imaging device In the imaging device, the subject image is calculated from the charges absorbed by the first to third electromagnetic wave absorbing films, and the reflected light from the LED through the subject is reflected by the fourth electromagnetic wave absorbing film. And calculating means for calculating distance information to the subject from the time difference between the irradiation light output timing and the arrival reflected light absorption timing, and output means for simultaneously outputting the subject image and the distance information corresponding to the subject image Characterized in that it comprises a.
本発明によれば、撮影中に被写体画像と、対象被写体までの距離情報を同時に出力することができ、更に、自然光内の赤外光による影響を排除することができる。 According to the present invention, it is possible to simultaneously output a subject image and distance information to the target subject during shooting, and further, it is possible to eliminate the influence of infrared light in natural light.
以下、本発明の実施の形態を図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明の実施の形態に係る撮像装置のブロック構成図である。 FIG. 1 is a block configuration diagram of an imaging apparatus according to an embodiment of the present invention.
本撮像装置は、光の3原色であるR,G,Bそれぞれを吸収できる第1乃至第3の電磁波吸収膜と、上記電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる第4の電磁波吸収膜とを有する多層積層型の撮像素子を有する。また、撮像素子付近に設置したLEDを有する。各ユニットについては後述する。 The imaging apparatus includes an electromagnetic wave corresponding to a near-infrared light wavelength from first to third electromagnetic wave absorbing films that can absorb R, G, and B, which are the three primary colors of light, and an electromagnetic wave that is not absorbed by the electromagnetic wave absorbing film. A multilayer stacked type imaging device having a fourth electromagnetic wave absorbing film capable of absorbing. Moreover, it has LED installed in the image pick-up element vicinity. Each unit will be described later.
図1において、本撮像装置は、CPU(算出手段、出力手段、比較手段、照射光発光制御手段、合成手段、記録手段構成要素)8を中心に以下の構成要素を備える。以下、その構成を動作と併せて説明する。 In FIG. 1, the imaging apparatus includes the following components centering on a CPU (calculation unit, output unit, comparison unit, irradiation light emission control unit, synthesis unit, and recording unit component) 8. Hereinafter, the configuration will be described together with the operation.
レンズ1を通った光信号(可視光)は、絞り2を介して、CMOSセンサ3に入力される。CMOSセンサ3は、TG(タイミングジェネレータ)7より出力されるタイミングパルスにより駆動され、入射された光信号を光電変換により電気信号に変換して出力する。
An optical signal (visible light) that has passed through the lens 1 is input to the
TG7は、CPU8によって制御され、例えば、TG7は3V振幅のタイミングパルスを水平同期信号HDに同期して、一定の周期で出力する。
The TG 7 is controlled by the
CMOSセンサ3の出力信号は、信号レベルを示す“S”と、ノイズレベルを示す“N”で構成され、“S−N”が入射光を電気信号に変換した値を示す。
The output signal of the
CMOSセンサ3の出力信号は、“S−N”の差分値を算出するための相関二重サンプリングを行うCDSと、アナログ信号をデジタル信号に変換するA/D変換器で構成されたAFE4に入力され、デジタル信号に変換された後、マルチプレクス5に入力される。
The output signal of the
マルチプレクス5は、CMOSセンサ3内部の各層で吸収された電磁波を変換した電荷を合成処理し、その出力信号はAGC6を介して、カメラ信号処理回路9に入力される。
The
カメラ信号処理回路9は、YC分離と、映像信号処理、色信号処理、ガンマ補正を施して画像を生成する。
The camera
カメラ信号処理回路9の出力は、ビデオ信号処理回路10に入力され、ビデオ信号処理回路10において、ビデオ信号処理を行って信号を出力する。モニタ11は、ビデオ信号処理回路10から出力された信号に基づき画像を表示する。
The output of the camera
また、カメラ信号処理回路9からは、撮像装置の露出補正を行うための評価値を輝度レベル検波部12に出力する。
Further, the camera
輝度レベル検波部12は、該評価値から輝度レベル検波値を算出し、CPU8に出力する。
The luminance
CPU8は、輝度レベル検波部12からの出力信号から、予め備えた露出補正テーブルを参照して、露出補正量の差分値を算出し、差分がある場合には、絞り2とCMOSセンサ3とAGC6に制御信号を出力して露出補正を行う。
The
また、CPU8にはメモリ13が接続される。更に、カメラ信号処理回路9にはカメラデータ用メモリ14が接続される。
A memory 13 is connected to the
次に、CMOSセンサ3が備える多層積層膜からの電荷読み出し構成を図2と、図3、及び図4を用いて説明する。
Next, the charge readout configuration from the multilayer laminated film included in the
図2は、図1におけるCMOSセンサに入力される電磁波波長と各電磁波吸収膜の透過率を表す図である。図3は、図1におけるCMOSセンサの各電磁波吸収膜と電極の構成図である。図4は、図1におけるAFEの構成図である。 FIG. 2 is a diagram showing the electromagnetic wave wavelength input to the CMOS sensor in FIG. 1 and the transmittance of each electromagnetic wave absorbing film. FIG. 3 is a configuration diagram of each electromagnetic wave absorption film and electrode of the CMOS sensor in FIG. FIG. 4 is a configuration diagram of the AFE in FIG.
図2において、入力信号波長は、例えば、レンズ1とCMOSセンサ3の間に挿入した光学LPF(Low Pass Filter)が備えた紫外線(UV)カット特性により、400nm以上の電磁波波長である。
In FIG. 2, the input signal wavelength is an electromagnetic wave wavelength of 400 nm or more due to, for example, ultraviolet (UV) cut characteristics provided in an optical LPF (Low Pass Filter) inserted between the lens 1 and the
次に、CMOSセンサ3を構成する多層積層構造の電磁波吸収膜において、第1の電磁波吸収膜は、第1の電磁波吸収膜は、可視光において、光の3原色であるR,G,Bそれぞれを吸収できる有機膜で形成される。具体的には、第1の電磁波吸収膜は、可視光である入射光の電磁波波長の400nm乃至500nmの電磁波を吸収する有機膜で形成される。
Next, in the electromagnetic wave absorbing film having a multilayer structure that constitutes the
図3において、第1の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極300が接続される。
In FIG. 3, the first electromagnetic wave absorbing film is connected to an
電極300から読み出された電荷は、AMP304を介して、DATA1として、AFE4に出力される。
The electric charge read from the
図4において、DATA1は、AFE4内部のCDS400と、A/D404で相関二重サンプリングとA/D変換される。
In FIG. 4, DATA1 is subjected to correlated double sampling and A / D conversion by
一方、前記第1の電磁波吸収膜で吸収された電磁波以外は第1の電磁波吸収膜を通過して、第2の電磁波吸収膜に浸透する。 On the other hand, electromagnetic waves other than the electromagnetic wave absorbed by the first electromagnetic wave absorbing film pass through the first electromagnetic wave absorbing film and permeate the second electromagnetic wave absorbing film.
第2の電磁波吸収膜は、可視光において、光の3原色であるR,G,Bそれぞれを吸収できる有機膜で形成される。具体的には、第2の電磁波吸収膜は、入射光の電磁波波長の500nm乃至600nmの電磁波を吸収する有機膜で形成される。 The second electromagnetic wave absorbing film is formed of an organic film that can absorb R, G, and B, which are the three primary colors of light, in visible light. Specifically, the second electromagnetic wave absorbing film is formed of an organic film that absorbs an electromagnetic wave having an electromagnetic wave wavelength of 500 nm to 600 nm of incident light.
第2の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極301が接続される。 Connected to the second electromagnetic wave absorbing film is an electrode 301 for converting electromagnetic waves absorbed by the absorbing film into electric charges and reading out the converted electric charges.
電極301から読み出された電荷は、AMP305を介して、DATA2として、AFE4に出力される。 The electric charge read from the electrode 301 is output to the AFE 4 as DATA 2 via the AMP 305.
DATA2は、AFE4内部のCDS401と、A/D405で相関二重サンプリングとA/D変換される。
DATA2 is subjected to correlated double sampling and A / D conversion by
一方、前記第2の電磁波吸収膜で吸収された電磁波以外は第2の電磁波吸収膜を通過して、第3の電磁波吸収膜に浸透する。 On the other hand, electromagnetic waves other than the electromagnetic wave absorbed by the second electromagnetic wave absorbing film pass through the second electromagnetic wave absorbing film and permeate the third electromagnetic wave absorbing film.
第3の電磁波吸収膜は、可視光において、光の3原色であるR,G,Bそれぞれを吸収できる有機膜で形成される。具体的には、第3の電磁波吸収膜は、入射光の電磁波波長の600nm乃至700nmの電磁波を吸収する有機膜で形成される。 The third electromagnetic wave absorbing film is formed of an organic film that can absorb R, G, and B, which are the three primary colors of light, in visible light. Specifically, the third electromagnetic wave absorbing film is formed of an organic film that absorbs an electromagnetic wave having an electromagnetic wave wavelength of 600 nm to 700 nm of incident light.
第3の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極302が接続される。 The third electromagnetic wave absorbing film is connected to an electrode 302 for converting electromagnetic waves absorbed by the absorbing film into electric charges and reading out the converted electric charges.
電極302から読み出された電荷は、AMP306を介して、DATA3として、AFE4に出力される。
The electric charge read from the electrode 302 is output to the
DATA3は、AFE内部のCDS402と、A/D406で相関二重サンプリングとA/D変換される。
DATA3 is subjected to correlated double sampling and A / D conversion by
次に、撮像素子のそばに配置したLEDを用いた被写体までの距離情報算出の仕組みを図3、図4及び図5を用いて説明する。 Next, a mechanism for calculating distance information to a subject using an LED arranged near the image sensor will be described with reference to FIGS. 3, 4, and 5.
図5は、図1の撮像装置において、LEDからの照射光と反射光を用いて距離算出を行う距離算出方法の説明図である。 FIG. 5 is an explanatory diagram of a distance calculation method for calculating a distance using irradiation light and reflected light from an LED in the imaging apparatus of FIG.
図5において、撮像装置500で被写体を撮影中に、撮影被写体501に対して、撮像部502を構成するLED504から波長が800nm乃至1200nmの赤外光を照射する(照射光505)。
In FIG. 5, while photographing an object with the
照射光505は、撮影被写体501内に映し出されている人や物体等に照射され、照射光505が到達する距離に人や物体がいる場合には、人や物体によって、照射光505が反射する(反射光506)。
The irradiation light 505 is applied to a person or object projected in the
反射光506は、撮影被写体501の光信号として、多層積層型の撮像素子503に入射される。
The reflected light 506 is incident on the
多層積層型の撮像素子503に入射された反射光506は、波長が800nm乃至1200nmの信号であるため、撮像素子503が備える第1から第3の電磁波吸収膜では吸収されずに通過して、最下層部に配置された第4の電磁波吸収膜に浸透する。
The reflected light 506 incident on the multilayer stacked type
第4の電磁波吸収膜は、第1乃至第3の電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる有機膜で形成されている。具体的には、入射光の電磁波波長の800nm乃至1200nmの電磁波を吸収する有機膜で形成されているため、反射光506は該吸収膜で吸収され、電荷に変換される。 The fourth electromagnetic wave absorbing film is formed of an organic film that can absorb an electromagnetic wave corresponding to the near-infrared light wavelength from an electromagnetic wave that is not absorbed by the first to third electromagnetic wave absorbing films. Specifically, since it is formed of an organic film that absorbs electromagnetic waves having an electromagnetic wave wavelength of 800 nm to 1200 nm of incident light, the reflected light 506 is absorbed by the absorbing film and converted into electric charges.
変換された電荷は、電荷読み出し用電極303を介して、DATA4として、AFE4に出力される。
The converted charge is output to the
DATA4は、AFE4内部のCDS403とA/D407で相関二重サンプリングとA/D変換されて、AMP307を介してマルチプレクス5に出力される。
次に、LEDからの照射光と、被写体からの反射光での被写体までの距離算出方法を図6と図7を用いて説明する。 Next, a method of calculating the distance to the subject with the light emitted from the LED and the reflected light from the subject will be described with reference to FIGS.
図6は、例えば、撮像装置が備える撮像素子の画素情報を表し、すべての画素にアドレス情報を備えておく。 FIG. 6 shows, for example, pixel information of an imaging element included in the imaging apparatus, and all pixels have address information.
図7は、距離情報を取得するためのLED照射タイミングと、距離算出方法を示しており、LEDの照射は映像信号内のVランキング期間内に開始する。 FIG. 7 shows the LED irradiation timing for acquiring distance information and the distance calculation method, and the LED irradiation starts within the V ranking period in the video signal.
LEDから照射されたパルスは、被写体を介して、撮像素子503が有する各画素に入射され、各画素では、反射パルスの到達時間の検出を行う。
The pulse emitted from the LED is incident on each pixel of the
ここで、反射パルスの到達時間の検出に際しては、照射パルスの立ち上がりエッジ部と反射パルスの立ち上がりエッジ部を比較して、時間差を算出する。 Here, when detecting the arrival time of the reflected pulse, the time difference is calculated by comparing the rising edge portion of the irradiation pulse with the rising edge portion of the reflected pulse.
図7では、初めにセンサ23画素と、センサ33画素に反射パルスが到達し、該パルスと、照射パルスと比較して時間差Φ1を算出する。 In FIG. 7, the reflected pulse first reaches the sensor 23 pixel and the sensor 33 pixel, and the time difference Φ1 is calculated by comparing the pulse with the irradiation pulse.
次に、センサ13画素と、センサ22画素と、センサ32画素に反射パルスが到達し、該パルスと照射パルスを比較して時間差Φ2を算出する。 Next, the reflected pulse arrives at the sensor 13 pixel, the sensor 22 pixel, and the sensor 32 pixel, and the time difference Φ2 is calculated by comparing the pulse with the irradiation pulse.
次に、センサ12画素に反射パルスが到達し、該パルスと照射パルスを比較して、時間差Φ3を算出する。
Next, the reflected pulse reaches the
最後に、センサ11画素と、センサ21画素と、センサ31画素には、被写体までの距離が非常に遠いため、反射パルスは到達しない。 Finally, since the distance to the subject is very far, the reflected pulse does not reach the sensor 11 pixel, the sensor 21 pixel, and the sensor 31 pixel.
以上のように、撮像素子503が有するすべての画素において、反射パルスの到達時間を検出し、該到達時間から、すべての画素で被写体までの距離情報を算出する。
As described above, the arrival time of the reflected pulse is detected in all the pixels included in the
ここで、検出した到達時間から距離情報を算出場合、反射光の到達時間から飛行時間を換算し、該飛行時間に光速を乗ずる。 Here, when calculating the distance information from the detected arrival time, the flight time is converted from the arrival time of the reflected light, and the flight speed is multiplied by the speed of light.
また、撮像素子が有する画素の読み出し周波数は以下の通りである。 The readout frequency of the pixels included in the image sensor is as follows.
F=1/(X/A*C) (1)
C:光の速さ
X:距離検出精度
A:撮像素子が有する画素数
(1)式で算出される画素読み出し周波数で撮像素子を駆動することにより、撮像素子503が有するすべての画素において、距離情報を算出することが可能になる。
F = 1 / (X / A * C) (1)
C: Speed of light X: Distance detection accuracy A: Number of pixels of the image sensor The distance between all the pixels of the
このように、被写体画像は、撮像素子503が有する第1から第3の電磁波吸収膜から電荷として出力され、被写体までの距離情報は、撮像素子503が有する第4の電磁波吸収膜から電荷として出力される。
As described above, the subject image is output as charges from the first to third electromagnetic wave absorption films included in the
それぞれの出力電荷は、AFE4を介して、デジタル信号に変換された後、マルチプレクス5、AGC6を介して、カメラ信号処理回路9に入力される。
Each output charge is converted into a digital signal via the
カメラ信号処理回路9は、被写体画像と被写体までの距離情報を合成して、カメラデータ用メモリ14に出力し、RAWデータとして記録する。
The camera
本実施の形態によれば、1枚の固体撮像素子と該撮像素子のそばに配置したLEDにより、撮影時の被写体画像に影響を及ぼすことなく、被写体画像と被写体までの距離情報を同時に出力可能な撮像装置を実現することができる。 According to the present embodiment, it is possible to simultaneously output the subject image and the distance information to the subject without affecting the subject image at the time of photographing by one solid-state image sensing device and the LED arranged near the image sensing device. A simple imaging device can be realized.
更に、被写体画像と被写体までの距離情報を同時に取得することができるため、被写体撮影中に各距離情報を用いて、距離毎にフォーカス合わせを行うことが可能となる。 Furthermore, since the subject image and the distance information to the subject can be acquired at the same time, it is possible to perform focusing for each distance using each distance information during subject photographing.
また、被写体までの距離情報を正確に算出することができるため、距離に対応したストロボ発光量の調節も行うこともできる。 In addition, since the distance information to the subject can be accurately calculated, it is possible to adjust the flash emission amount corresponding to the distance.
上記の実施の形態では、多層積層型撮像素子と該撮像素子のそばに配置したLEDを用いて、LED照射タイミングが映像Vブランキング期間で発生して、被写体画像と被写体までの距離情報を同時に出力する技術を説明した。 In the above-described embodiment, the LED irradiation timing is generated in the video V blanking period using the multilayer stacked image sensor and the LED arranged near the image sensor, and the subject image and the distance information to the subject are simultaneously displayed. Explained the output technology.
以下では、距離情報取得用LEDの照射タイミングを映像信号期間内に発生させる手段を、図8を用いて説明する。 Hereinafter, means for generating the irradiation timing of the distance information acquisition LED within the video signal period will be described with reference to FIG.
図8は、高速読み出しが可能な撮像素子を採用した場合で、撮像素子の読み出しフレームに、例えば、300フレームを適用した時の画像生成と距離情報生成及びLED照射タイミングをそれぞれ示している。 FIG. 8 shows an image generation, distance information generation, and LED irradiation timing when, for example, 300 frames are applied to a reading frame of the imaging element when an imaging element capable of high-speed reading is employed.
撮像素子503は、300フレームを1V(フィールド)内に読み出すための電荷蓄積と、読み出し電極構造を備えている。撮像素子503が有する第1から第4の電磁波吸収膜に接続した読み出し用電極からは、300フレームの画像情報に対応した電荷が出力される。
The
第1から第4の電磁波吸収膜から読み出された電荷はAFE4、マルチプレクス5、AGC6を介して、カメラ信号処理回路9に入力される。
The charges read from the first to fourth electromagnetic wave absorbing films are input to the camera
カメラ信号処理回路9は、入力された300フレームの信号から、初めに“1”乃至“60”フレームデータを使用して、画像を生成する。
The camera
次に、画像生成に使用しない“61”乃至“300”フレームデータを使用して、距離情報を生成する。 Next, distance information is generated using “61” to “300” frame data not used for image generation.
ここで、被写体画像に影響を及ぼさないようにするため、画像生成に使用しないフレームの先頭、つまり“61”フレーム内で被写体に対してLED504から信号を照射する。
Here, in order not to affect the subject image, a signal is emitted from the
被写体を介して反射したLED照射信号に基づく、撮像素子が有する各画素での距離情報の算出方法は、上記実施の形態と同様である。 The method for calculating the distance information at each pixel of the image sensor based on the LED irradiation signal reflected through the subject is the same as in the above embodiment.
また、被写体を介して反射したLED照射信号を撮像素子が有する各画素で検出する精度を向上するため、画像生成に使用しない240フレームを2分割して、LEDからの信号照射動作を“61”フレーム目と、“181”フレーム目で行う。このように、距離情報算出動作を2度行っても良い。 Further, in order to improve the accuracy of detecting the LED irradiation signal reflected through the subject by each pixel of the image sensor, 240 frames that are not used for image generation are divided into two, and the signal irradiation operation from the LED is “61”. This is done in the frame and the “181” frame. In this way, the distance information calculation operation may be performed twice.
これにより、撮影時の被写体画像に影響を及ぼすことなく、被写体画像と距離情報を同時に取得することができ、更にLEDから信号を照射するタイミングを2度設けることにより、信号の誤検出を防止し、被写体までの距離情報算出精度を向上させることができる。 As a result, the subject image and the distance information can be acquired simultaneously without affecting the subject image at the time of shooting, and further, the erroneous detection of the signal is prevented by providing the timing of emitting the signal from the LED twice. The accuracy of calculating the distance information to the subject can be improved.
本実施の形態の撮像装置は、第1乃至第3の電磁波吸収膜で吸収した電荷から被写体画像を算出し、かつ、LED504からの照射光が被写体を介した反射光を第4の電磁波吸収膜で吸収する。そして、照射光出力タイミングと到達反射光の吸収タイミングとの時間差から被写体までの距離情報を算出する。また、被写体画像と被写体画像に対応した距離情報を同時に出力する。
The imaging apparatus according to the present embodiment calculates a subject image from the charges absorbed by the first to third electromagnetic wave absorbing films, and the irradiation light from the
また、本実施の形態の撮像装置において、LED504からの照射光にはパルス信号が重畳され、該パルス信号が被写体を介した反射光として第4の電磁波吸収膜から出力された信号のエッジ部と照射光に重畳したパルス信号のエッジ部とを比較する。そして、比較結果から被写体までの距離情報を算出する。
Further, in the imaging device of the present embodiment, a pulse signal is superimposed on the irradiation light from the
また、本実施の形態の撮像装置において、第1の電磁波吸収膜は400nm乃至500nmの電磁波を吸収する特性を有し、第2の電磁波吸収膜は500nm乃至600nmの電磁波を吸収する特性を有する。また、第3の電磁波吸収膜は600nm乃至700nmの電磁波を吸収する特性を有し、更に、第4の電磁波吸収膜は近赤外光LEDの波長と同等の吸収特性を有する。 In the imaging device of this embodiment, the first electromagnetic wave absorption film has a characteristic of absorbing an electromagnetic wave of 400 nm to 500 nm, and the second electromagnetic wave absorption film has a characteristic of absorbing an electromagnetic wave of 500 nm to 600 nm. The third electromagnetic wave absorbing film has a characteristic of absorbing electromagnetic waves of 600 nm to 700 nm, and the fourth electromagnetic wave absorbing film has an absorption characteristic equivalent to the wavelength of the near infrared light LED.
また、本実施の形態の撮像装置において、第1乃至第4の電磁波吸収膜は、読み出し電極と、該読み出し電極にそれぞれ接続したゲイン制御が可能なゲインアンプとを有する。 In the imaging device according to the present embodiment, the first to fourth electromagnetic wave absorption films include a readout electrode and a gain amplifier capable of gain control connected to the readout electrode.
また、本実施の形態の撮像装置において、撮像素子503に隣接して配置したLED504からの照射光の発光タイミングが、映像Vブランキング期間内である。
In the imaging apparatus of the present embodiment, the emission timing of the irradiation light from the
また、本実施の形態の撮像装置において、CPU8は、撮像素子503が高速フレーム読み出し可能な場合に、画像生成に使用するフレーム以外のフレーム部でLED504から照射光を照射する照射光発光制御手段として機能する。
In the imaging apparatus according to the present embodiment, the
また、本実施の形態の撮像装置において、照射光発光制御手段は、画像生成に使用するフレーム以外のフレームでLED発光制御を2回以上行い、距離情報の検出誤動作を防止する。 In the imaging apparatus according to the present embodiment, the irradiation light emission control means performs LED emission control twice or more in a frame other than the frame used for image generation to prevent a malfunction in detecting distance information.
また、本実施の形態の撮像装置において、CPU8は、撮像素子503から同時に出力された被写体画像と被写体までの距離情報とを合成する合成手段と、記合成手段によって合成された距離情報を有する被写体画像を画像データとして記録する記録手段との機能を有する。
In the imaging apparatus of the present embodiment, the
また、本実施の形態の撮像装置は、撮像素子503が有するすべての画素にアドレス情報を有する。
In addition, the imaging device of this embodiment has address information in all the pixels included in the
また、本実施の形態の撮像装置は、撮像素子503から出力された画像信号と距離情報を用いて、ストロボ発光量調整とピント合わせを行う。
In addition, the imaging apparatus according to the present embodiment performs strobe light emission amount adjustment and focusing using the image signal output from the
以上の構成の撮像装置により、所期の目的を達成することができる。 The intended object can be achieved by the imaging apparatus having the above configuration.
1 レンズ
2 絞り
3 CMOSセンサ
4 AFE
5 マルチプレクス
6 AGC
7 TG
8 CPU
9 カメラ信号処理回路
10 ビデオ信号処理回路
11 モニタ
12 輝度レベル検波部
13 メモリ
14 カメラデータ用メモリ
300 電極
301 電極
302 電極
303 電極
304 AMP
305 AMP
306 AMP
307 AMP
400 CDS
401 CDS
402 CDS
403 CDS
404 A/D
405 A/D
406 A/D
407 A/D
500 撮像装置
501 撮影被写体
502 撮像部
503 撮像素子
504 LED
505 照射光
506 反射光
1 Lens 2
5
7 TG
8 CPU
DESCRIPTION OF
305 AMP
306 AMP
307 AMP
400 CDS
401 CDS
402 CDS
403 CDS
404 A / D
405 A / D
406 A / D
407 A / D
500
505 Irradiation light 506 Reflected light
Claims (10)
前記第1乃至第3の電磁波吸収膜で吸収した電荷から被写体画像を算出し、かつ、前記LEDからの照射光が被写体を介した反射光を前記第4の電磁波吸収膜で吸収し、照射光出力タイミングと到達反射光の吸収タイミングとの時間差から被写体までの距離情報を算出する算出手段と、
被写体画像と被写体画像に対応した距離情報を同時に出力する出力手段と、
を備えることを特徴とする撮像装置。 In visible light, near-infrared light is obtained from first to third electromagnetic wave absorbing films that can absorb R, G, and B, which are the three primary colors of light, and electromagnetic waves that are not absorbed by the first to third electromagnetic wave absorbing films. In an imaging device having a multilayer laminated type imaging device having a fourth electromagnetic wave absorbing film capable of absorbing electromagnetic waves corresponding to the wavelength, and an LED installed in the vicinity of the imaging device,
A subject image is calculated from the charges absorbed by the first to third electromagnetic wave absorption films, and the reflected light from the LED is absorbed by the fourth electromagnetic wave absorption film by the fourth electromagnetic wave absorption film. A calculation means for calculating distance information to the subject from a time difference between the output timing and the arrival reflected light absorption timing;
Output means for simultaneously outputting a subject image and distance information corresponding to the subject image;
An imaging apparatus comprising:
前記算出手段は、前記比較手段の比較結果から被写体までの距離情報を算出することを特徴とする請求項1記載の撮像装置。 A pulse signal is superimposed on the irradiation light from the LED, and the edge of the pulse signal superimposed on the irradiation light and the edge portion of the signal output from the fourth electromagnetic wave absorbing film as the reflected light through the subject. Comparing means for comparing parts,
The imaging apparatus according to claim 1, wherein the calculation unit calculates distance information to a subject from a comparison result of the comparison unit.
前記合成手段によって合成された距離情報を有する被写体画像を画像データとして記録する記録手段と、
を備えることを特徴とする請求項1記載の撮像装置。 A synthesizing unit that synthesizes the subject image output simultaneously from the image sensor and the distance information to the subject;
Recording means for recording the subject image having the distance information synthesized by the synthesizing means as image data;
The imaging apparatus according to claim 1, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007052916A JP5058632B2 (en) | 2007-03-02 | 2007-03-02 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007052916A JP5058632B2 (en) | 2007-03-02 | 2007-03-02 | Imaging device |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008219370A true JP2008219370A (en) | 2008-09-18 |
JP2008219370A5 JP2008219370A5 (en) | 2010-04-15 |
JP5058632B2 JP5058632B2 (en) | 2012-10-24 |
Family
ID=39838898
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007052916A Expired - Fee Related JP5058632B2 (en) | 2007-03-02 | 2007-03-02 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5058632B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010035168A (en) * | 2008-07-25 | 2010-02-12 | Samsung Electronics Co Ltd | Imaging apparatus and method |
JP2011055135A (en) * | 2009-08-31 | 2011-03-17 | Rohm Co Ltd | Vehicle monitoring apparatus |
CN102783123A (en) * | 2010-03-11 | 2012-11-14 | 奥斯兰姆奥普托半导体有限责任公司 | Portable electronic device |
KR101502122B1 (en) * | 2013-09-27 | 2015-03-13 | 주식회사 비욘드아이즈 | Image Sensor of generating depth information |
KR101503037B1 (en) * | 2008-10-23 | 2015-03-19 | 삼성전자주식회사 | Image sensor and operating method for image sensor |
JP2015161890A (en) * | 2014-02-28 | 2015-09-07 | 株式会社スタジオアリス | Light emission system for photography |
WO2015166715A1 (en) * | 2014-05-02 | 2015-11-05 | 富士フイルム株式会社 | Distance-measurement device, distance-measurement method, and distance-measurement program |
JPWO2015166714A1 (en) * | 2014-05-02 | 2017-04-20 | 富士フイルム株式会社 | Ranging device, ranging method, and ranging program |
JP2020079756A (en) * | 2018-11-13 | 2020-05-28 | 株式会社リコー | Distance information acquisition device and distance information acquisition method |
WO2021121540A1 (en) * | 2019-12-16 | 2021-06-24 | Huawei Technologies Co., Ltd. | Depth estimation system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6145683A (en) * | 1984-08-09 | 1986-03-05 | Sharp Corp | Auto-focus system for video camera |
JPH10177449A (en) * | 1996-10-18 | 1998-06-30 | Toshiba Corp | Information input device, information input method, corrected data generating device and solid-state image pickup device |
JP2003324751A (en) * | 2002-05-07 | 2003-11-14 | Toshiba Corp | Information input apparatus |
JP2004045304A (en) * | 2002-07-15 | 2004-02-12 | Matsushita Electric Works Ltd | Range finder and range-finding method using imaging element |
JP2005302806A (en) * | 2004-04-07 | 2005-10-27 | Fuji Photo Film Co Ltd | Imaging sensor |
JP2006295620A (en) * | 2005-04-12 | 2006-10-26 | Pentax Corp | Solid state image sensor |
JP2008145386A (en) * | 2006-12-13 | 2008-06-26 | Fujifilm Corp | Apparatus for acquiring range image, and method |
JP2008160381A (en) * | 2006-12-22 | 2008-07-10 | Fujifilm Corp | File generating method and device, and display control method and device for stereoscopic image |
-
2007
- 2007-03-02 JP JP2007052916A patent/JP5058632B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6145683A (en) * | 1984-08-09 | 1986-03-05 | Sharp Corp | Auto-focus system for video camera |
JPH10177449A (en) * | 1996-10-18 | 1998-06-30 | Toshiba Corp | Information input device, information input method, corrected data generating device and solid-state image pickup device |
JP2003324751A (en) * | 2002-05-07 | 2003-11-14 | Toshiba Corp | Information input apparatus |
JP2004045304A (en) * | 2002-07-15 | 2004-02-12 | Matsushita Electric Works Ltd | Range finder and range-finding method using imaging element |
JP2005302806A (en) * | 2004-04-07 | 2005-10-27 | Fuji Photo Film Co Ltd | Imaging sensor |
JP2006295620A (en) * | 2005-04-12 | 2006-10-26 | Pentax Corp | Solid state image sensor |
JP2008145386A (en) * | 2006-12-13 | 2008-06-26 | Fujifilm Corp | Apparatus for acquiring range image, and method |
JP2008160381A (en) * | 2006-12-22 | 2008-07-10 | Fujifilm Corp | File generating method and device, and display control method and device for stereoscopic image |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010035168A (en) * | 2008-07-25 | 2010-02-12 | Samsung Electronics Co Ltd | Imaging apparatus and method |
KR101503037B1 (en) * | 2008-10-23 | 2015-03-19 | 삼성전자주식회사 | Image sensor and operating method for image sensor |
JP2011055135A (en) * | 2009-08-31 | 2011-03-17 | Rohm Co Ltd | Vehicle monitoring apparatus |
CN102783123A (en) * | 2010-03-11 | 2012-11-14 | 奥斯兰姆奥普托半导体有限责任公司 | Portable electronic device |
JP2013526101A (en) * | 2010-03-11 | 2013-06-20 | オスラム オプト セミコンダクターズ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Portable electronics devices |
US8861789B2 (en) | 2010-03-11 | 2014-10-14 | Osram Opto Semiconductors Gmbh | Portable electronic device |
KR101502122B1 (en) * | 2013-09-27 | 2015-03-13 | 주식회사 비욘드아이즈 | Image Sensor of generating depth information |
WO2015046735A1 (en) * | 2013-09-27 | 2015-04-02 | 주식회사 비욘드아이즈 | Image sensor generating depth information |
JP2015161890A (en) * | 2014-02-28 | 2015-09-07 | 株式会社スタジオアリス | Light emission system for photography |
WO2015166715A1 (en) * | 2014-05-02 | 2015-11-05 | 富士フイルム株式会社 | Distance-measurement device, distance-measurement method, and distance-measurement program |
JPWO2015166715A1 (en) * | 2014-05-02 | 2017-04-20 | 富士フイルム株式会社 | Ranging device, ranging method, and ranging program |
JPWO2015166714A1 (en) * | 2014-05-02 | 2017-04-20 | 富士フイルム株式会社 | Ranging device, ranging method, and ranging program |
US10551186B2 (en) | 2014-05-02 | 2020-02-04 | Fujifilm Corporation | Distance measurement device, distance measurement method, and distance measurement program |
US10627513B2 (en) | 2014-05-02 | 2020-04-21 | Fujifilm Corporation | Distance measurement device, distance measurement method, and distance measurement program |
US11137496B2 (en) | 2014-05-02 | 2021-10-05 | Fujifilm Corporation | Distance measurement device, distance measurement method, and distance measurement program |
US11650315B2 (en) | 2014-05-02 | 2023-05-16 | Fujifilm Corporation | Distance measurement device, distance measurement method, and distance measurement program |
JP2020079756A (en) * | 2018-11-13 | 2020-05-28 | 株式会社リコー | Distance information acquisition device and distance information acquisition method |
JP7176364B2 (en) | 2018-11-13 | 2022-11-22 | 株式会社リコー | DISTANCE INFORMATION ACQUISITION DEVICE AND DISTANCE INFORMATION ACQUISITION METHOD |
WO2021121540A1 (en) * | 2019-12-16 | 2021-06-24 | Huawei Technologies Co., Ltd. | Depth estimation system |
Also Published As
Publication number | Publication date |
---|---|
JP5058632B2 (en) | 2012-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5058632B2 (en) | Imaging device | |
US7948551B2 (en) | Field sequential color camera system | |
JP6526560B2 (en) | Continuous video in low light environments | |
JP4867566B2 (en) | Imaging device, focus detection device, and imaging device | |
US9947064B2 (en) | Image photographing apparatus and method for controlling the same | |
US10397502B2 (en) | Method and apparatus for imaging an object | |
TW201426987A (en) | Image pickup element and image pickup unit | |
JP2008153997A (en) | Solid-state imaging device, camera, vehicle, surveillance device and driving method for solid-state imaging device | |
KR20100061303A (en) | Photographing apparatus and method of photographing | |
JP7118893B2 (en) | Imaging device, imaging method, and electronic device | |
JP2014107596A (en) | Imaging element and imaging unit | |
JP2008072470A (en) | Photoelectric conversion element and imaging apparatus | |
US9813687B1 (en) | Image-capturing device, image-processing device, image-processing method, and image-processing program | |
JP5199736B2 (en) | Imaging device | |
JP2008219370A5 (en) | ||
JP2009049525A (en) | Imaging apparatus and method for processing signal | |
WO2009121633A3 (en) | Method and device for recording color images and ldi signals from an object | |
JP2008176114A (en) | Focus detecting device and imaging apparatus | |
JP6740666B2 (en) | Imaging device, focus detection device, and imaging device | |
US8154620B2 (en) | Imaging apparatus and imaging method | |
JPWO2018207817A1 (en) | Solid-state imaging device, imaging system and object identification system | |
JP2009147708A (en) | Image pickup device | |
JP2010161455A (en) | Infrared combined imaging device | |
JP2009049524A (en) | Imaging apparatus and method for processing signal | |
JP2009118430A (en) | Imaging apparatus, method of driving the imaging apparatus, image generating apparatus and image generating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100302 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120731 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120801 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150810 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5058632 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150810 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |