JP2008219370A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2008219370A
JP2008219370A JP2007052916A JP2007052916A JP2008219370A JP 2008219370 A JP2008219370 A JP 2008219370A JP 2007052916 A JP2007052916 A JP 2007052916A JP 2007052916 A JP2007052916 A JP 2007052916A JP 2008219370 A JP2008219370 A JP 2008219370A
Authority
JP
Japan
Prior art keywords
electromagnetic wave
image
subject
light
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007052916A
Other languages
Japanese (ja)
Other versions
JP2008219370A5 (en
JP5058632B2 (en
Inventor
Kimiaki Kano
公章 鹿野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007052916A priority Critical patent/JP5058632B2/en
Publication of JP2008219370A publication Critical patent/JP2008219370A/en
Publication of JP2008219370A5 publication Critical patent/JP2008219370A5/ja
Application granted granted Critical
Publication of JP5058632B2 publication Critical patent/JP5058632B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of simultaneously outputting a subject image and distance information up to a target subject during photographing and further eliminating an influence by infrared light in natural light. <P>SOLUTION: A CPU 8 controls a lens 1, a diaphragm 2, a CMOS sensor 3, AFE 4, multiplex 5, AGC 6, TG 7, camera signal processing circuit 9, a brightness level detecting part 12 and a memory 14 for camera data. A signal of the camera signal processing circuit 9 is outputted to a video signal processing circuit 10 and a monitor 11. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ビデオカメラやデジタルスチルカメラ等の撮像装置に関する。   The present invention relates to an imaging apparatus such as a video camera or a digital still camera.

近年、自動車の安全性への関心から、自車両から、前方の走行車両までの距離算出や、安全な走行距離を保持した走行の要求や、道路上の障害物などを事前に察知して、回避を促す装置への要求が高まり、自動車内から道路を撮像装置で観察することが始まっている。   In recent years, from the interest in automobile safety, calculate the distance from your vehicle to the vehicle in front, demand for driving with a safe driving distance, obstacles on the road in advance, The demand for a device that promotes avoidance has increased, and observation of a road with an imaging device has started from within a car.

また、高精細の画像を実現し、かつフォーカス精度やストロボ発光量の調整精度を向上するために、画像情報と距離情報を同時に出力することができる撮像装置の要求も高まっている。   In addition, in order to realize a high-definition image and improve the accuracy of focusing and adjusting the amount of strobe light emission, there is an increasing demand for an imaging apparatus that can output image information and distance information simultaneously.

更に、このような撮像装置の小型化を図るため、従来のカラーフィルタがモザイク状の撮像素子(ベイヤー配列)に代わり、入射光をより有効利用できる1枚の撮像素子が要求されている。   Furthermore, in order to reduce the size of such an image pickup apparatus, there is a demand for a single image pickup element that can use incident light more effectively in place of a conventional color filter instead of a mosaic image pickup element (Bayer array).

このような状況を鑑み、固体撮像素子の画素単位毎に、光の3原色であるRGB、ぞれぞれの波長の光を吸収する電磁波吸収膜を積層化して、入射光の利用効率を向上させる技術が提案されている(例えば特許文献1参照)。これにより、撮像素子の寸法を大きくすることなく、高解像度を実現することができる。   In view of this situation, each pixel unit of the solid-state image sensor improves the utilization efficiency of incident light by stacking electromagnetic wave absorbing films that absorb light of the three primary colors RGB and light of each wavelength. The technique to make is proposed (for example, refer patent document 1). Thereby, high resolution can be realized without increasing the size of the image sensor.

また、高解像度の画像と、被写体までの距離情報を2つの撮像素子を用いて同時に取得する撮像装置も提案されている(例えば特許文献2参照)。
特開2003−234460号公報 特開平11−41521号公報
There has also been proposed an imaging apparatus that simultaneously acquires a high-resolution image and distance information to a subject using two imaging elements (see, for example, Patent Document 2).
JP 2003-234460 A Japanese Patent Laid-Open No. 11-41521

このように、画素単位毎に光の3原色であるRGB、ぞれぞれの波長を吸収する電磁波吸収膜を多層化して、高解像度を実現する手法では、画素単位毎に光のRGB波長を吸収できる。この構造により、モザイク状のカラーフィルタ型の固体撮像素子と比較して、光の利用効率が3倍に向上するため、高解像度を実現することができる。   As described above, in the method of realizing a high resolution by multilayering the electromagnetic wave absorbing films that absorb the respective wavelengths of RGB and RGB, which are the three primary colors of light for each pixel unit, the RGB wavelength of the light is set for each pixel unit. Can be absorbed. With this structure, the light use efficiency is improved by a factor of three compared to a mosaic color filter type solid-state imaging device, so that high resolution can be realized.

しかし、本手法では、光の3原色RGBに対応した電磁波吸収膜を積層構造にしているため、高解像度を実現することは可能であるが、撮像素子からは、画像情報のみの出力であるため、被写体までの距離情報を同時に出力することができない。   However, in this method, since the electromagnetic wave absorbing film corresponding to the three primary colors RGB of light has a laminated structure, it is possible to achieve high resolution, but the image pickup device outputs only image information. The distance information to the subject cannot be output at the same time.

また、2つの撮像素子を用いて、高解像度の画質と距離情報を同時に取得する手法では、画像用撮像素子と距離情報取得用撮像素子が1つのレンズからの入射光を分離するハーフミラーを介して光が入射される。そのため、レンズ等の光学デバイス1つで画像と距離情報を取得することができる。   Further, in the method of simultaneously acquiring high resolution image quality and distance information using two image sensors, the image sensor for image and the image sensor for distance information acquisition pass through a half mirror that separates incident light from one lens. Light is incident. Therefore, an image and distance information can be acquired with one optical device such as a lens.

しかし、1つの光学デバイスからハーフミラーを介して入射光を分離するため、2つの撮像素子への光の入射角がずれないように、ハーフミラーのメカ的な取り付け精度が要求される。   However, since the incident light is separated from one optical device via the half mirror, the mechanical attachment accuracy of the half mirror is required so that the incident angle of the light to the two image sensors does not deviate.

また、2つの撮像素子とハーフミラーを用いるため、撮像装置の小型化・低消費電力が難しく、更にコストも増加する問題がある。   In addition, since two imaging elements and a half mirror are used, there is a problem that it is difficult to reduce the size and power consumption of the imaging apparatus, and further increase the cost.

本発明の目的は、撮影中に被写体画像と、対象被写体までの距離情報を同時に出力することができ、更に、自然光内の赤外光による影響を排除することができる撮像装置を提供することにある。   An object of the present invention is to provide an imaging apparatus that can simultaneously output a subject image and distance information to the target subject during shooting, and can eliminate the influence of infrared light in natural light. is there.

上記目的を達成するために、請求項1記載の撮像装置は、可視光において、光の3原色であるR,G,Bそれぞれを吸収できる第1乃至第3の電磁波吸収膜と、該第1乃至第3の電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる第4の電磁波吸収膜とを有する多層積層型の撮像素子と、該撮像素子付近に設置したLEDを有する撮像装置において、前記第1乃至第3の電磁波吸収膜で吸収した電荷から被写体画像を算出し、かつ、前記LEDからの照射光が被写体を介した反射光を前記第4の電磁波吸収膜で吸収し、照射光出力タイミングと到達反射光の吸収タイミングとの時間差から被写体までの距離情報を算出する算出手段と、被写体画像と被写体画像に対応した距離情報を同時に出力する出力手段とを備えることを特徴とする。   In order to achieve the above object, the imaging apparatus according to claim 1 includes first to third electromagnetic wave absorbing films that can absorb R, G, and B, which are the three primary colors of light, in the visible light, and the first electromagnetic wave absorbing film. A multilayer laminated type imaging device having a fourth electromagnetic wave absorbing film capable of absorbing electromagnetic waves corresponding to near-infrared light wavelength from electromagnetic waves not absorbed by the third electromagnetic wave absorbing film, and an LED installed in the vicinity of the imaging device In the imaging device, the subject image is calculated from the charges absorbed by the first to third electromagnetic wave absorbing films, and the reflected light from the LED through the subject is reflected by the fourth electromagnetic wave absorbing film. And calculating means for calculating distance information to the subject from the time difference between the irradiation light output timing and the arrival reflected light absorption timing, and output means for simultaneously outputting the subject image and the distance information corresponding to the subject image Characterized in that it comprises a.

本発明によれば、撮影中に被写体画像と、対象被写体までの距離情報を同時に出力することができ、更に、自然光内の赤外光による影響を排除することができる。   According to the present invention, it is possible to simultaneously output a subject image and distance information to the target subject during shooting, and further, it is possible to eliminate the influence of infrared light in natural light.

以下、本発明の実施の形態を図面を参照しながら詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施の形態に係る撮像装置のブロック構成図である。   FIG. 1 is a block configuration diagram of an imaging apparatus according to an embodiment of the present invention.

本撮像装置は、光の3原色であるR,G,Bそれぞれを吸収できる第1乃至第3の電磁波吸収膜と、上記電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる第4の電磁波吸収膜とを有する多層積層型の撮像素子を有する。また、撮像素子付近に設置したLEDを有する。各ユニットについては後述する。   The imaging apparatus includes an electromagnetic wave corresponding to a near-infrared light wavelength from first to third electromagnetic wave absorbing films that can absorb R, G, and B, which are the three primary colors of light, and an electromagnetic wave that is not absorbed by the electromagnetic wave absorbing film. A multilayer stacked type imaging device having a fourth electromagnetic wave absorbing film capable of absorbing. Moreover, it has LED installed in the image pick-up element vicinity. Each unit will be described later.

図1において、本撮像装置は、CPU(算出手段、出力手段、比較手段、照射光発光制御手段、合成手段、記録手段構成要素)8を中心に以下の構成要素を備える。以下、その構成を動作と併せて説明する。   In FIG. 1, the imaging apparatus includes the following components centering on a CPU (calculation unit, output unit, comparison unit, irradiation light emission control unit, synthesis unit, and recording unit component) 8. Hereinafter, the configuration will be described together with the operation.

レンズ1を通った光信号(可視光)は、絞り2を介して、CMOSセンサ3に入力される。CMOSセンサ3は、TG(タイミングジェネレータ)7より出力されるタイミングパルスにより駆動され、入射された光信号を光電変換により電気信号に変換して出力する。   An optical signal (visible light) that has passed through the lens 1 is input to the CMOS sensor 3 via the diaphragm 2. The CMOS sensor 3 is driven by a timing pulse output from a TG (timing generator) 7 and converts an incident optical signal into an electric signal by photoelectric conversion and outputs the electric signal.

TG7は、CPU8によって制御され、例えば、TG7は3V振幅のタイミングパルスを水平同期信号HDに同期して、一定の周期で出力する。   The TG 7 is controlled by the CPU 8. For example, the TG 7 outputs a 3V amplitude timing pulse in synchronization with the horizontal synchronizing signal HD at a constant cycle.

CMOSセンサ3の出力信号は、信号レベルを示す“S”と、ノイズレベルを示す“N”で構成され、“S−N”が入射光を電気信号に変換した値を示す。   The output signal of the CMOS sensor 3 is composed of “S” indicating a signal level and “N” indicating a noise level, and “S−N” indicates a value obtained by converting incident light into an electric signal.

CMOSセンサ3の出力信号は、“S−N”の差分値を算出するための相関二重サンプリングを行うCDSと、アナログ信号をデジタル信号に変換するA/D変換器で構成されたAFE4に入力され、デジタル信号に変換された後、マルチプレクス5に入力される。   The output signal of the CMOS sensor 3 is input to an AFE 4 composed of a CDS that performs correlated double sampling for calculating the difference value of “S−N” and an A / D converter that converts an analog signal into a digital signal. After being converted into a digital signal, it is input to the multiplex 5.

マルチプレクス5は、CMOSセンサ3内部の各層で吸収された電磁波を変換した電荷を合成処理し、その出力信号はAGC6を介して、カメラ信号処理回路9に入力される。   The multiplex 5 synthesizes the charges converted from the electromagnetic waves absorbed by each layer in the CMOS sensor 3, and the output signal is input to the camera signal processing circuit 9 via the AGC 6.

カメラ信号処理回路9は、YC分離と、映像信号処理、色信号処理、ガンマ補正を施して画像を生成する。   The camera signal processing circuit 9 performs YC separation, video signal processing, color signal processing, and gamma correction to generate an image.

カメラ信号処理回路9の出力は、ビデオ信号処理回路10に入力され、ビデオ信号処理回路10において、ビデオ信号処理を行って信号を出力する。モニタ11は、ビデオ信号処理回路10から出力された信号に基づき画像を表示する。   The output of the camera signal processing circuit 9 is input to the video signal processing circuit 10, and the video signal processing circuit 10 performs video signal processing and outputs a signal. The monitor 11 displays an image based on the signal output from the video signal processing circuit 10.

また、カメラ信号処理回路9からは、撮像装置の露出補正を行うための評価値を輝度レベル検波部12に出力する。   Further, the camera signal processing circuit 9 outputs an evaluation value for performing exposure correction of the imaging apparatus to the luminance level detection unit 12.

輝度レベル検波部12は、該評価値から輝度レベル検波値を算出し、CPU8に出力する。   The luminance level detection unit 12 calculates a luminance level detection value from the evaluation value and outputs it to the CPU 8.

CPU8は、輝度レベル検波部12からの出力信号から、予め備えた露出補正テーブルを参照して、露出補正量の差分値を算出し、差分がある場合には、絞り2とCMOSセンサ3とAGC6に制御信号を出力して露出補正を行う。   The CPU 8 calculates a difference value of the exposure correction amount from the output signal from the luminance level detection unit 12 with reference to a previously provided exposure correction table, and if there is a difference, the diaphragm 2, the CMOS sensor 3, and the AGC 6 The control signal is output to the exposure compensation.

また、CPU8にはメモリ13が接続される。更に、カメラ信号処理回路9にはカメラデータ用メモリ14が接続される。   A memory 13 is connected to the CPU 8. Further, a camera data memory 14 is connected to the camera signal processing circuit 9.

次に、CMOSセンサ3が備える多層積層膜からの電荷読み出し構成を図2と、図3、及び図4を用いて説明する。   Next, the charge readout configuration from the multilayer laminated film included in the CMOS sensor 3 will be described with reference to FIGS. 2, 3, and 4.

図2は、図1におけるCMOSセンサに入力される電磁波波長と各電磁波吸収膜の透過率を表す図である。図3は、図1におけるCMOSセンサの各電磁波吸収膜と電極の構成図である。図4は、図1におけるAFEの構成図である。   FIG. 2 is a diagram showing the electromagnetic wave wavelength input to the CMOS sensor in FIG. 1 and the transmittance of each electromagnetic wave absorbing film. FIG. 3 is a configuration diagram of each electromagnetic wave absorption film and electrode of the CMOS sensor in FIG. FIG. 4 is a configuration diagram of the AFE in FIG.

図2において、入力信号波長は、例えば、レンズ1とCMOSセンサ3の間に挿入した光学LPF(Low Pass Filter)が備えた紫外線(UV)カット特性により、400nm以上の電磁波波長である。   In FIG. 2, the input signal wavelength is an electromagnetic wave wavelength of 400 nm or more due to, for example, ultraviolet (UV) cut characteristics provided in an optical LPF (Low Pass Filter) inserted between the lens 1 and the CMOS sensor 3.

次に、CMOSセンサ3を構成する多層積層構造の電磁波吸収膜において、第1の電磁波吸収膜は、第1の電磁波吸収膜は、可視光において、光の3原色であるR,G,Bそれぞれを吸収できる有機膜で形成される。具体的には、第1の電磁波吸収膜は、可視光である入射光の電磁波波長の400nm乃至500nmの電磁波を吸収する有機膜で形成される。   Next, in the electromagnetic wave absorbing film having a multilayer structure that constitutes the CMOS sensor 3, the first electromagnetic wave absorbing film is the first electromagnetic wave absorbing film, and each of R, G, and B, which are the three primary colors of light, in visible light. It is formed of an organic film that can absorb water. Specifically, the first electromagnetic wave absorbing film is formed of an organic film that absorbs electromagnetic waves having an electromagnetic wave wavelength of 400 nm to 500 nm of incident light that is visible light.

図3において、第1の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極300が接続される。   In FIG. 3, the first electromagnetic wave absorbing film is connected to an electrode 300 for converting electromagnetic waves absorbed by the absorbing film into electric charges and reading the converted electric charges.

電極300から読み出された電荷は、AMP304を介して、DATA1として、AFE4に出力される。   The electric charge read from the electrode 300 is output to the AFE 4 as DATA1 through the AMP 304.

図4において、DATA1は、AFE4内部のCDS400と、A/D404で相関二重サンプリングとA/D変換される。   In FIG. 4, DATA1 is subjected to correlated double sampling and A / D conversion by CDS 400 inside AFE 4 and A / D 404.

一方、前記第1の電磁波吸収膜で吸収された電磁波以外は第1の電磁波吸収膜を通過して、第2の電磁波吸収膜に浸透する。   On the other hand, electromagnetic waves other than the electromagnetic wave absorbed by the first electromagnetic wave absorbing film pass through the first electromagnetic wave absorbing film and permeate the second electromagnetic wave absorbing film.

第2の電磁波吸収膜は、可視光において、光の3原色であるR,G,Bそれぞれを吸収できる有機膜で形成される。具体的には、第2の電磁波吸収膜は、入射光の電磁波波長の500nm乃至600nmの電磁波を吸収する有機膜で形成される。   The second electromagnetic wave absorbing film is formed of an organic film that can absorb R, G, and B, which are the three primary colors of light, in visible light. Specifically, the second electromagnetic wave absorbing film is formed of an organic film that absorbs an electromagnetic wave having an electromagnetic wave wavelength of 500 nm to 600 nm of incident light.

第2の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極301が接続される。   Connected to the second electromagnetic wave absorbing film is an electrode 301 for converting electromagnetic waves absorbed by the absorbing film into electric charges and reading out the converted electric charges.

電極301から読み出された電荷は、AMP305を介して、DATA2として、AFE4に出力される。   The electric charge read from the electrode 301 is output to the AFE 4 as DATA 2 via the AMP 305.

DATA2は、AFE4内部のCDS401と、A/D405で相関二重サンプリングとA/D変換される。   DATA2 is subjected to correlated double sampling and A / D conversion by CDS 401 inside AFE4 and A / D405.

一方、前記第2の電磁波吸収膜で吸収された電磁波以外は第2の電磁波吸収膜を通過して、第3の電磁波吸収膜に浸透する。   On the other hand, electromagnetic waves other than the electromagnetic wave absorbed by the second electromagnetic wave absorbing film pass through the second electromagnetic wave absorbing film and permeate the third electromagnetic wave absorbing film.

第3の電磁波吸収膜は、可視光において、光の3原色であるR,G,Bそれぞれを吸収できる有機膜で形成される。具体的には、第3の電磁波吸収膜は、入射光の電磁波波長の600nm乃至700nmの電磁波を吸収する有機膜で形成される。   The third electromagnetic wave absorbing film is formed of an organic film that can absorb R, G, and B, which are the three primary colors of light, in visible light. Specifically, the third electromagnetic wave absorbing film is formed of an organic film that absorbs an electromagnetic wave having an electromagnetic wave wavelength of 600 nm to 700 nm of incident light.

第3の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極302が接続される。   The third electromagnetic wave absorbing film is connected to an electrode 302 for converting electromagnetic waves absorbed by the absorbing film into electric charges and reading out the converted electric charges.

電極302から読み出された電荷は、AMP306を介して、DATA3として、AFE4に出力される。   The electric charge read from the electrode 302 is output to the AFE 4 as DATA 3 via the AMP 306.

DATA3は、AFE内部のCDS402と、A/D406で相関二重サンプリングとA/D変換される。   DATA3 is subjected to correlated double sampling and A / D conversion by CDS 402 inside AFE and A / D 406.

次に、撮像素子のそばに配置したLEDを用いた被写体までの距離情報算出の仕組みを図3、図4及び図5を用いて説明する。   Next, a mechanism for calculating distance information to a subject using an LED arranged near the image sensor will be described with reference to FIGS. 3, 4, and 5.

図5は、図1の撮像装置において、LEDからの照射光と反射光を用いて距離算出を行う距離算出方法の説明図である。   FIG. 5 is an explanatory diagram of a distance calculation method for calculating a distance using irradiation light and reflected light from an LED in the imaging apparatus of FIG.

図5において、撮像装置500で被写体を撮影中に、撮影被写体501に対して、撮像部502を構成するLED504から波長が800nm乃至1200nmの赤外光を照射する(照射光505)。   In FIG. 5, while photographing an object with the imaging apparatus 500, infrared light having a wavelength of 800 nm to 1200 nm is emitted from the LED 504 constituting the imaging unit 502 to the photographing subject 501 (irradiation light 505).

照射光505は、撮影被写体501内に映し出されている人や物体等に照射され、照射光505が到達する距離に人や物体がいる場合には、人や物体によって、照射光505が反射する(反射光506)。   The irradiation light 505 is applied to a person or object projected in the photographic subject 501, and when the person or object is at a distance that the irradiation light 505 reaches, the irradiation light 505 is reflected by the person or object. (Reflected light 506).

反射光506は、撮影被写体501の光信号として、多層積層型の撮像素子503に入射される。   The reflected light 506 is incident on the multi-layer image sensor 503 as an optical signal of the photographic subject 501.

多層積層型の撮像素子503に入射された反射光506は、波長が800nm乃至1200nmの信号であるため、撮像素子503が備える第1から第3の電磁波吸収膜では吸収されずに通過して、最下層部に配置された第4の電磁波吸収膜に浸透する。   The reflected light 506 incident on the multilayer stacked type image pickup device 503 is a signal having a wavelength of 800 nm to 1200 nm, and therefore passes without being absorbed by the first to third electromagnetic wave absorbing films included in the image pickup device 503. It penetrates into the fourth electromagnetic wave absorbing film disposed in the lowermost layer.

第4の電磁波吸収膜は、第1乃至第3の電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる有機膜で形成されている。具体的には、入射光の電磁波波長の800nm乃至1200nmの電磁波を吸収する有機膜で形成されているため、反射光506は該吸収膜で吸収され、電荷に変換される。   The fourth electromagnetic wave absorbing film is formed of an organic film that can absorb an electromagnetic wave corresponding to the near-infrared light wavelength from an electromagnetic wave that is not absorbed by the first to third electromagnetic wave absorbing films. Specifically, since it is formed of an organic film that absorbs electromagnetic waves having an electromagnetic wave wavelength of 800 nm to 1200 nm of incident light, the reflected light 506 is absorbed by the absorbing film and converted into electric charges.

変換された電荷は、電荷読み出し用電極303を介して、DATA4として、AFE4に出力される。   The converted charge is output to the AFE 4 as DATA 4 through the charge reading electrode 303.

DATA4は、AFE4内部のCDS403とA/D407で相関二重サンプリングとA/D変換されて、AMP307を介してマルチプレクス5に出力される。   DATA 4 is subjected to correlated double sampling and A / D conversion by CDS 403 and A / D 407 inside AFE 4, and is output to multiplex 5 via AMP 307.

次に、LEDからの照射光と、被写体からの反射光での被写体までの距離算出方法を図6と図7を用いて説明する。   Next, a method of calculating the distance to the subject with the light emitted from the LED and the reflected light from the subject will be described with reference to FIGS.

図6は、例えば、撮像装置が備える撮像素子の画素情報を表し、すべての画素にアドレス情報を備えておく。   FIG. 6 shows, for example, pixel information of an imaging element included in the imaging apparatus, and all pixels have address information.

図7は、距離情報を取得するためのLED照射タイミングと、距離算出方法を示しており、LEDの照射は映像信号内のVランキング期間内に開始する。   FIG. 7 shows the LED irradiation timing for acquiring distance information and the distance calculation method, and the LED irradiation starts within the V ranking period in the video signal.

LEDから照射されたパルスは、被写体を介して、撮像素子503が有する各画素に入射され、各画素では、反射パルスの到達時間の検出を行う。   The pulse emitted from the LED is incident on each pixel of the image sensor 503 through the subject, and the arrival time of the reflected pulse is detected in each pixel.

ここで、反射パルスの到達時間の検出に際しては、照射パルスの立ち上がりエッジ部と反射パルスの立ち上がりエッジ部を比較して、時間差を算出する。   Here, when detecting the arrival time of the reflected pulse, the time difference is calculated by comparing the rising edge portion of the irradiation pulse with the rising edge portion of the reflected pulse.

図7では、初めにセンサ23画素と、センサ33画素に反射パルスが到達し、該パルスと、照射パルスと比較して時間差Φ1を算出する。   In FIG. 7, the reflected pulse first reaches the sensor 23 pixel and the sensor 33 pixel, and the time difference Φ1 is calculated by comparing the pulse with the irradiation pulse.

次に、センサ13画素と、センサ22画素と、センサ32画素に反射パルスが到達し、該パルスと照射パルスを比較して時間差Φ2を算出する。   Next, the reflected pulse arrives at the sensor 13 pixel, the sensor 22 pixel, and the sensor 32 pixel, and the time difference Φ2 is calculated by comparing the pulse with the irradiation pulse.

次に、センサ12画素に反射パルスが到達し、該パルスと照射パルスを比較して、時間差Φ3を算出する。   Next, the reflected pulse reaches the sensor 12 pixel, and the pulse and the irradiation pulse are compared to calculate the time difference Φ3.

最後に、センサ11画素と、センサ21画素と、センサ31画素には、被写体までの距離が非常に遠いため、反射パルスは到達しない。   Finally, since the distance to the subject is very far, the reflected pulse does not reach the sensor 11 pixel, the sensor 21 pixel, and the sensor 31 pixel.

以上のように、撮像素子503が有するすべての画素において、反射パルスの到達時間を検出し、該到達時間から、すべての画素で被写体までの距離情報を算出する。   As described above, the arrival time of the reflected pulse is detected in all the pixels included in the image sensor 503, and the distance information to the subject is calculated in all the pixels from the arrival time.

ここで、検出した到達時間から距離情報を算出場合、反射光の到達時間から飛行時間を換算し、該飛行時間に光速を乗ずる。   Here, when calculating the distance information from the detected arrival time, the flight time is converted from the arrival time of the reflected light, and the flight speed is multiplied by the speed of light.

また、撮像素子が有する画素の読み出し周波数は以下の通りである。   The readout frequency of the pixels included in the image sensor is as follows.

F=1/(X/A*C) (1)
C:光の速さ
X:距離検出精度
A:撮像素子が有する画素数
(1)式で算出される画素読み出し周波数で撮像素子を駆動することにより、撮像素子503が有するすべての画素において、距離情報を算出することが可能になる。
F = 1 / (X / A * C) (1)
C: Speed of light X: Distance detection accuracy A: Number of pixels of the image sensor The distance between all the pixels of the image sensor 503 is driven by driving the image sensor at the pixel readout frequency calculated by the equation (1). Information can be calculated.

このように、被写体画像は、撮像素子503が有する第1から第3の電磁波吸収膜から電荷として出力され、被写体までの距離情報は、撮像素子503が有する第4の電磁波吸収膜から電荷として出力される。   As described above, the subject image is output as charges from the first to third electromagnetic wave absorption films included in the image sensor 503, and the distance information to the subject is output as charges from the fourth electromagnetic wave absorption film included in the image sensor 503. Is done.

それぞれの出力電荷は、AFE4を介して、デジタル信号に変換された後、マルチプレクス5、AGC6を介して、カメラ信号処理回路9に入力される。   Each output charge is converted into a digital signal via the AFE 4 and then input to the camera signal processing circuit 9 via the multiplex 5 and the AGC 6.

カメラ信号処理回路9は、被写体画像と被写体までの距離情報を合成して、カメラデータ用メモリ14に出力し、RAWデータとして記録する。   The camera signal processing circuit 9 combines the subject image and the distance information to the subject, outputs them to the camera data memory 14 and records them as RAW data.

本実施の形態によれば、1枚の固体撮像素子と該撮像素子のそばに配置したLEDにより、撮影時の被写体画像に影響を及ぼすことなく、被写体画像と被写体までの距離情報を同時に出力可能な撮像装置を実現することができる。   According to the present embodiment, it is possible to simultaneously output the subject image and the distance information to the subject without affecting the subject image at the time of photographing by one solid-state image sensing device and the LED arranged near the image sensing device. A simple imaging device can be realized.

更に、被写体画像と被写体までの距離情報を同時に取得することができるため、被写体撮影中に各距離情報を用いて、距離毎にフォーカス合わせを行うことが可能となる。   Furthermore, since the subject image and the distance information to the subject can be acquired at the same time, it is possible to perform focusing for each distance using each distance information during subject photographing.

また、被写体までの距離情報を正確に算出することができるため、距離に対応したストロボ発光量の調節も行うこともできる。   In addition, since the distance information to the subject can be accurately calculated, it is possible to adjust the flash emission amount corresponding to the distance.

上記の実施の形態では、多層積層型撮像素子と該撮像素子のそばに配置したLEDを用いて、LED照射タイミングが映像Vブランキング期間で発生して、被写体画像と被写体までの距離情報を同時に出力する技術を説明した。   In the above-described embodiment, the LED irradiation timing is generated in the video V blanking period using the multilayer stacked image sensor and the LED arranged near the image sensor, and the subject image and the distance information to the subject are simultaneously displayed. Explained the output technology.

以下では、距離情報取得用LEDの照射タイミングを映像信号期間内に発生させる手段を、図8を用いて説明する。   Hereinafter, means for generating the irradiation timing of the distance information acquisition LED within the video signal period will be described with reference to FIG.

図8は、高速読み出しが可能な撮像素子を採用した場合で、撮像素子の読み出しフレームに、例えば、300フレームを適用した時の画像生成と距離情報生成及びLED照射タイミングをそれぞれ示している。   FIG. 8 shows an image generation, distance information generation, and LED irradiation timing when, for example, 300 frames are applied to a reading frame of the imaging element when an imaging element capable of high-speed reading is employed.

撮像素子503は、300フレームを1V(フィールド)内に読み出すための電荷蓄積と、読み出し電極構造を備えている。撮像素子503が有する第1から第4の電磁波吸収膜に接続した読み出し用電極からは、300フレームの画像情報に対応した電荷が出力される。   The image sensor 503 has a charge storage for reading out 300 frames into 1 V (field) and a readout electrode structure. Charges corresponding to 300 frames of image information are output from the readout electrodes connected to the first to fourth electromagnetic wave absorbing films of the image sensor 503.

第1から第4の電磁波吸収膜から読み出された電荷はAFE4、マルチプレクス5、AGC6を介して、カメラ信号処理回路9に入力される。   The charges read from the first to fourth electromagnetic wave absorbing films are input to the camera signal processing circuit 9 via the AFE 4, the multiplex 5, and the AGC 6.

カメラ信号処理回路9は、入力された300フレームの信号から、初めに“1”乃至“60”フレームデータを使用して、画像を生成する。   The camera signal processing circuit 9 first generates an image from the input 300-frame signal using “1” to “60” frame data.

次に、画像生成に使用しない“61”乃至“300”フレームデータを使用して、距離情報を生成する。   Next, distance information is generated using “61” to “300” frame data not used for image generation.

ここで、被写体画像に影響を及ぼさないようにするため、画像生成に使用しないフレームの先頭、つまり“61”フレーム内で被写体に対してLED504から信号を照射する。   Here, in order not to affect the subject image, a signal is emitted from the LED 504 to the subject in the head of a frame not used for image generation, that is, in the “61” frame.

被写体を介して反射したLED照射信号に基づく、撮像素子が有する各画素での距離情報の算出方法は、上記実施の形態と同様である。   The method for calculating the distance information at each pixel of the image sensor based on the LED irradiation signal reflected through the subject is the same as in the above embodiment.

また、被写体を介して反射したLED照射信号を撮像素子が有する各画素で検出する精度を向上するため、画像生成に使用しない240フレームを2分割して、LEDからの信号照射動作を“61”フレーム目と、“181”フレーム目で行う。このように、距離情報算出動作を2度行っても良い。   Further, in order to improve the accuracy of detecting the LED irradiation signal reflected through the subject by each pixel of the image sensor, 240 frames that are not used for image generation are divided into two, and the signal irradiation operation from the LED is “61”. This is done in the frame and the “181” frame. In this way, the distance information calculation operation may be performed twice.

これにより、撮影時の被写体画像に影響を及ぼすことなく、被写体画像と距離情報を同時に取得することができ、更にLEDから信号を照射するタイミングを2度設けることにより、信号の誤検出を防止し、被写体までの距離情報算出精度を向上させることができる。   As a result, the subject image and the distance information can be acquired simultaneously without affecting the subject image at the time of shooting, and further, the erroneous detection of the signal is prevented by providing the timing of emitting the signal from the LED twice. The accuracy of calculating the distance information to the subject can be improved.

本実施の形態の撮像装置は、第1乃至第3の電磁波吸収膜で吸収した電荷から被写体画像を算出し、かつ、LED504からの照射光が被写体を介した反射光を第4の電磁波吸収膜で吸収する。そして、照射光出力タイミングと到達反射光の吸収タイミングとの時間差から被写体までの距離情報を算出する。また、被写体画像と被写体画像に対応した距離情報を同時に出力する。   The imaging apparatus according to the present embodiment calculates a subject image from the charges absorbed by the first to third electromagnetic wave absorbing films, and the irradiation light from the LED 504 converts the reflected light through the subject to the fourth electromagnetic wave absorbing film. To absorb. Then, distance information to the subject is calculated from the time difference between the irradiation light output timing and the arrival reflected light absorption timing. Also, the subject image and distance information corresponding to the subject image are output simultaneously.

また、本実施の形態の撮像装置において、LED504からの照射光にはパルス信号が重畳され、該パルス信号が被写体を介した反射光として第4の電磁波吸収膜から出力された信号のエッジ部と照射光に重畳したパルス信号のエッジ部とを比較する。そして、比較結果から被写体までの距離情報を算出する。   Further, in the imaging device of the present embodiment, a pulse signal is superimposed on the irradiation light from the LED 504, and the pulse signal is output from the fourth electromagnetic wave absorption film as reflected light through the subject. The edge portion of the pulse signal superimposed on the irradiation light is compared. Then, distance information to the subject is calculated from the comparison result.

また、本実施の形態の撮像装置において、第1の電磁波吸収膜は400nm乃至500nmの電磁波を吸収する特性を有し、第2の電磁波吸収膜は500nm乃至600nmの電磁波を吸収する特性を有する。また、第3の電磁波吸収膜は600nm乃至700nmの電磁波を吸収する特性を有し、更に、第4の電磁波吸収膜は近赤外光LEDの波長と同等の吸収特性を有する。   In the imaging device of this embodiment, the first electromagnetic wave absorption film has a characteristic of absorbing an electromagnetic wave of 400 nm to 500 nm, and the second electromagnetic wave absorption film has a characteristic of absorbing an electromagnetic wave of 500 nm to 600 nm. The third electromagnetic wave absorbing film has a characteristic of absorbing electromagnetic waves of 600 nm to 700 nm, and the fourth electromagnetic wave absorbing film has an absorption characteristic equivalent to the wavelength of the near infrared light LED.

また、本実施の形態の撮像装置において、第1乃至第4の電磁波吸収膜は、読み出し電極と、該読み出し電極にそれぞれ接続したゲイン制御が可能なゲインアンプとを有する。   In the imaging device according to the present embodiment, the first to fourth electromagnetic wave absorption films include a readout electrode and a gain amplifier capable of gain control connected to the readout electrode.

また、本実施の形態の撮像装置において、撮像素子503に隣接して配置したLED504からの照射光の発光タイミングが、映像Vブランキング期間内である。   In the imaging apparatus of the present embodiment, the emission timing of the irradiation light from the LED 504 disposed adjacent to the imaging element 503 is within the video V blanking period.

また、本実施の形態の撮像装置において、CPU8は、撮像素子503が高速フレーム読み出し可能な場合に、画像生成に使用するフレーム以外のフレーム部でLED504から照射光を照射する照射光発光制御手段として機能する。   In the imaging apparatus according to the present embodiment, the CPU 8 serves as irradiation light emission control means for irradiating irradiation light from the LED 504 in a frame portion other than the frame used for image generation when the image sensor 503 is capable of high-speed frame reading. Function.

また、本実施の形態の撮像装置において、照射光発光制御手段は、画像生成に使用するフレーム以外のフレームでLED発光制御を2回以上行い、距離情報の検出誤動作を防止する。   In the imaging apparatus according to the present embodiment, the irradiation light emission control means performs LED emission control twice or more in a frame other than the frame used for image generation to prevent a malfunction in detecting distance information.

また、本実施の形態の撮像装置において、CPU8は、撮像素子503から同時に出力された被写体画像と被写体までの距離情報とを合成する合成手段と、記合成手段によって合成された距離情報を有する被写体画像を画像データとして記録する記録手段との機能を有する。   In the imaging apparatus of the present embodiment, the CPU 8 combines a subject image output from the image sensor 503 and distance information to the subject, and a subject having the distance information synthesized by the combining unit. It has a function of recording means for recording an image as image data.

また、本実施の形態の撮像装置は、撮像素子503が有するすべての画素にアドレス情報を有する。   In addition, the imaging device of this embodiment has address information in all the pixels included in the imaging element 503.

また、本実施の形態の撮像装置は、撮像素子503から出力された画像信号と距離情報を用いて、ストロボ発光量調整とピント合わせを行う。   In addition, the imaging apparatus according to the present embodiment performs strobe light emission amount adjustment and focusing using the image signal output from the imaging element 503 and distance information.

以上の構成の撮像装置により、所期の目的を達成することができる。   The intended object can be achieved by the imaging apparatus having the above configuration.

本発明の実施の形態に係る撮像装置のブロック構成図である。It is a block block diagram of the imaging device which concerns on embodiment of this invention. 図1におけるCMOSセンサに入力される電磁波波長と各電磁波吸収膜の透過率を表す図である。It is a figure showing the electromagnetic wave wavelength input into the CMOS sensor in FIG. 1, and the transmittance | permeability of each electromagnetic wave absorption film. 図1におけるCMOSセンサの各電磁波吸収膜と電極の構成図である。It is a block diagram of each electromagnetic wave absorption film and electrode of the CMOS sensor in FIG. 図1におけるAFEの構成図である。It is a block diagram of AFE in FIG. 図1の撮像装置において、LEDからの照射光と反射光を用いて距離算出を行う距離算出方法の説明図である。FIG. 3 is an explanatory diagram of a distance calculation method for calculating a distance using irradiation light and reflected light from an LED in the imaging apparatus of FIG. 1. 図1の撮像装置が備える撮像素子のすべての画素の位置情報を表す図である。It is a figure showing the positional information on all the pixels of the image pick-up element with which the imaging device of FIG. 1 is provided. 図1の撮像装置において、映像Vブランキング期間内にLEDを照射するタイミングと、各画素での距離情報算出方法を示すタイミングチャートである。2 is a timing chart showing the timing of irradiating an LED within a video V blanking period and the distance information calculation method for each pixel in the imaging apparatus of FIG. 1. 図1の撮像装置において、被写体画像への影響を防止し、被写体までの距離情報算出方法を示すタイミングチャートである。2 is a timing chart illustrating a method for calculating distance information to a subject while preventing influence on a subject image in the imaging apparatus of FIG. 1.

符号の説明Explanation of symbols

1 レンズ
2 絞り
3 CMOSセンサ
4 AFE
5 マルチプレクス
6 AGC
7 TG
8 CPU
9 カメラ信号処理回路
10 ビデオ信号処理回路
11 モニタ
12 輝度レベル検波部
13 メモリ
14 カメラデータ用メモリ
300 電極
301 電極
302 電極
303 電極
304 AMP
305 AMP
306 AMP
307 AMP
400 CDS
401 CDS
402 CDS
403 CDS
404 A/D
405 A/D
406 A/D
407 A/D
500 撮像装置
501 撮影被写体
502 撮像部
503 撮像素子
504 LED
505 照射光
506 反射光
1 Lens 2 Aperture 3 CMOS sensor 4 AFE
5 Multiplex 6 AGC
7 TG
8 CPU
DESCRIPTION OF SYMBOLS 9 Camera signal processing circuit 10 Video signal processing circuit 11 Monitor 12 Brightness level detection part 13 Memory 14 Memory for camera data 300 Electrode 301 Electrode 302 Electrode 303 Electrode 304 AMP
305 AMP
306 AMP
307 AMP
400 CDS
401 CDS
402 CDS
403 CDS
404 A / D
405 A / D
406 A / D
407 A / D
500 Imaging Device 501 Shooting Subject 502 Imaging Unit 503 Imaging Element 504 LED
505 Irradiation light 506 Reflected light

Claims (10)

可視光において、光の3原色であるR,G,Bそれぞれを吸収できる第1乃至第3の電磁波吸収膜と、該第1乃至第3の電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる第4の電磁波吸収膜とを有する多層積層型の撮像素子と、該撮像素子付近に設置したLEDを有する撮像装置において、
前記第1乃至第3の電磁波吸収膜で吸収した電荷から被写体画像を算出し、かつ、前記LEDからの照射光が被写体を介した反射光を前記第4の電磁波吸収膜で吸収し、照射光出力タイミングと到達反射光の吸収タイミングとの時間差から被写体までの距離情報を算出する算出手段と、
被写体画像と被写体画像に対応した距離情報を同時に出力する出力手段と、
を備えることを特徴とする撮像装置。
In visible light, near-infrared light is obtained from first to third electromagnetic wave absorbing films that can absorb R, G, and B, which are the three primary colors of light, and electromagnetic waves that are not absorbed by the first to third electromagnetic wave absorbing films. In an imaging device having a multilayer laminated type imaging device having a fourth electromagnetic wave absorbing film capable of absorbing electromagnetic waves corresponding to the wavelength, and an LED installed in the vicinity of the imaging device,
A subject image is calculated from the charges absorbed by the first to third electromagnetic wave absorption films, and the reflected light from the LED is absorbed by the fourth electromagnetic wave absorption film by the fourth electromagnetic wave absorption film. A calculation means for calculating distance information to the subject from a time difference between the output timing and the arrival reflected light absorption timing;
Output means for simultaneously outputting a subject image and distance information corresponding to the subject image;
An imaging apparatus comprising:
前記LEDからの照射光にはパルス信号が重畳され、該パルス信号が被写体を介した反射光として前記第4の電磁波吸収膜から出力された信号のエッジ部と照射光に重畳したパルス信号のエッジ部とを比較する比較手段を備え、
前記算出手段は、前記比較手段の比較結果から被写体までの距離情報を算出することを特徴とする請求項1記載の撮像装置。
A pulse signal is superimposed on the irradiation light from the LED, and the edge of the pulse signal superimposed on the irradiation light and the edge portion of the signal output from the fourth electromagnetic wave absorbing film as the reflected light through the subject. Comparing means for comparing parts,
The imaging apparatus according to claim 1, wherein the calculation unit calculates distance information to a subject from a comparison result of the comparison unit.
前記第1の電磁波吸収膜は400nm乃至500nmの電磁波を吸収する特性を有し、前記第2の電磁波吸収膜は500nm乃至600nmの電磁波を吸収する特性を有し、前記第3の電磁波吸収膜は600nm乃至700nmの電磁波を吸収する特性を有し、更に、前記第4の電磁波吸収膜は近赤外光LEDの波長の吸収特性を有することを特徴とする請求項1記載の撮像装置。   The first electromagnetic wave absorbing film has a characteristic of absorbing an electromagnetic wave of 400 nm to 500 nm, the second electromagnetic wave absorbing film has a characteristic of absorbing an electromagnetic wave of 500 nm to 600 nm, and the third electromagnetic wave absorbing film is 2. The imaging apparatus according to claim 1, wherein the imaging device has a characteristic of absorbing electromagnetic waves of 600 nm to 700 nm, and further, the fourth electromagnetic wave absorbing film has absorption characteristics of wavelengths of near-infrared light LEDs. 前記第1乃至第4の電磁波吸収膜は、読み出し電極と、該読み出し電極にそれぞれ接続したゲイン制御が可能なゲインアンプとを有することを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein each of the first to fourth electromagnetic wave absorbing films includes a readout electrode and a gain amplifier capable of gain control connected to the readout electrode. 前記撮像素子に隣接して配置した前記LEDからの照射光の発光タイミングが、映像Vブランキング期間内であることを特徴とする請求項1記載の撮像装置。   The imaging apparatus according to claim 1, wherein an emission timing of irradiation light from the LED arranged adjacent to the imaging element is within a video V blanking period. 前記撮像素子が高速フレーム読み出し可能な場合に、画像生成に使用するフレーム以外のフレーム部で前記LEDから照射光を照射する照射光発光制御手段を備えることを特徴とする請求項1記載の撮像装置。   2. The imaging apparatus according to claim 1, further comprising irradiation light emission control means for irradiating irradiation light from the LED in a frame portion other than a frame used for image generation when the imaging element is capable of high-speed frame reading. . 前記照射光発光制御手段は、画像生成に使用するフレーム以外のフレームでLED発光制御を2回以上行い、距離情報の検出誤動作を防止することを特徴とする請求項6記載の撮像装置。   The imaging apparatus according to claim 6, wherein the irradiation light emission control unit performs LED light emission control twice or more in a frame other than a frame used for image generation to prevent a malfunction in detecting distance information. 前記撮像素子から同時に出力された被写体画像と被写体までの距離情報とを合成する合成手段と、
前記合成手段によって合成された距離情報を有する被写体画像を画像データとして記録する記録手段と、
を備えることを特徴とする請求項1記載の撮像装置。
A synthesizing unit that synthesizes the subject image output simultaneously from the image sensor and the distance information to the subject;
Recording means for recording the subject image having the distance information synthesized by the synthesizing means as image data;
The imaging apparatus according to claim 1, further comprising:
前記撮像素子が有するすべての画素にアドレス情報を有することを特徴とする請求項1記載の撮像装置。   The image pickup apparatus according to claim 1, wherein all pixels included in the image pickup element have address information. 前記撮像素子から出力された画像信号と距離情報を用いて、ストロボ発光量調整とピント合わせを行うことを特徴とする請求項1記載の撮像装置。   The image pickup apparatus according to claim 1, wherein strobe light emission amount adjustment and focusing are performed using an image signal output from the image pickup device and distance information.
JP2007052916A 2007-03-02 2007-03-02 Imaging device Expired - Fee Related JP5058632B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007052916A JP5058632B2 (en) 2007-03-02 2007-03-02 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007052916A JP5058632B2 (en) 2007-03-02 2007-03-02 Imaging device

Publications (3)

Publication Number Publication Date
JP2008219370A true JP2008219370A (en) 2008-09-18
JP2008219370A5 JP2008219370A5 (en) 2010-04-15
JP5058632B2 JP5058632B2 (en) 2012-10-24

Family

ID=39838898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007052916A Expired - Fee Related JP5058632B2 (en) 2007-03-02 2007-03-02 Imaging device

Country Status (1)

Country Link
JP (1) JP5058632B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035168A (en) * 2008-07-25 2010-02-12 Samsung Electronics Co Ltd Imaging apparatus and method
JP2011055135A (en) * 2009-08-31 2011-03-17 Rohm Co Ltd Vehicle monitoring apparatus
CN102783123A (en) * 2010-03-11 2012-11-14 奥斯兰姆奥普托半导体有限责任公司 Portable electronic device
KR101502122B1 (en) * 2013-09-27 2015-03-13 주식회사 비욘드아이즈 Image Sensor of generating depth information
KR101503037B1 (en) * 2008-10-23 2015-03-19 삼성전자주식회사 Image sensor and operating method for image sensor
JP2015161890A (en) * 2014-02-28 2015-09-07 株式会社スタジオアリス Light emission system for photography
WO2015166715A1 (en) * 2014-05-02 2015-11-05 富士フイルム株式会社 Distance-measurement device, distance-measurement method, and distance-measurement program
JPWO2015166714A1 (en) * 2014-05-02 2017-04-20 富士フイルム株式会社 Ranging device, ranging method, and ranging program
JP2020079756A (en) * 2018-11-13 2020-05-28 株式会社リコー Distance information acquisition device and distance information acquisition method
WO2021121540A1 (en) * 2019-12-16 2021-06-24 Huawei Technologies Co., Ltd. Depth estimation system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6145683A (en) * 1984-08-09 1986-03-05 Sharp Corp Auto-focus system for video camera
JPH10177449A (en) * 1996-10-18 1998-06-30 Toshiba Corp Information input device, information input method, corrected data generating device and solid-state image pickup device
JP2003324751A (en) * 2002-05-07 2003-11-14 Toshiba Corp Information input apparatus
JP2004045304A (en) * 2002-07-15 2004-02-12 Matsushita Electric Works Ltd Range finder and range-finding method using imaging element
JP2005302806A (en) * 2004-04-07 2005-10-27 Fuji Photo Film Co Ltd Imaging sensor
JP2006295620A (en) * 2005-04-12 2006-10-26 Pentax Corp Solid state image sensor
JP2008145386A (en) * 2006-12-13 2008-06-26 Fujifilm Corp Apparatus for acquiring range image, and method
JP2008160381A (en) * 2006-12-22 2008-07-10 Fujifilm Corp File generating method and device, and display control method and device for stereoscopic image

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6145683A (en) * 1984-08-09 1986-03-05 Sharp Corp Auto-focus system for video camera
JPH10177449A (en) * 1996-10-18 1998-06-30 Toshiba Corp Information input device, information input method, corrected data generating device and solid-state image pickup device
JP2003324751A (en) * 2002-05-07 2003-11-14 Toshiba Corp Information input apparatus
JP2004045304A (en) * 2002-07-15 2004-02-12 Matsushita Electric Works Ltd Range finder and range-finding method using imaging element
JP2005302806A (en) * 2004-04-07 2005-10-27 Fuji Photo Film Co Ltd Imaging sensor
JP2006295620A (en) * 2005-04-12 2006-10-26 Pentax Corp Solid state image sensor
JP2008145386A (en) * 2006-12-13 2008-06-26 Fujifilm Corp Apparatus for acquiring range image, and method
JP2008160381A (en) * 2006-12-22 2008-07-10 Fujifilm Corp File generating method and device, and display control method and device for stereoscopic image

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010035168A (en) * 2008-07-25 2010-02-12 Samsung Electronics Co Ltd Imaging apparatus and method
KR101503037B1 (en) * 2008-10-23 2015-03-19 삼성전자주식회사 Image sensor and operating method for image sensor
JP2011055135A (en) * 2009-08-31 2011-03-17 Rohm Co Ltd Vehicle monitoring apparatus
CN102783123A (en) * 2010-03-11 2012-11-14 奥斯兰姆奥普托半导体有限责任公司 Portable electronic device
JP2013526101A (en) * 2010-03-11 2013-06-20 オスラム オプト セミコンダクターズ ゲゼルシャフト ミット ベシュレンクテル ハフツング Portable electronics devices
US8861789B2 (en) 2010-03-11 2014-10-14 Osram Opto Semiconductors Gmbh Portable electronic device
KR101502122B1 (en) * 2013-09-27 2015-03-13 주식회사 비욘드아이즈 Image Sensor of generating depth information
WO2015046735A1 (en) * 2013-09-27 2015-04-02 주식회사 비욘드아이즈 Image sensor generating depth information
JP2015161890A (en) * 2014-02-28 2015-09-07 株式会社スタジオアリス Light emission system for photography
WO2015166715A1 (en) * 2014-05-02 2015-11-05 富士フイルム株式会社 Distance-measurement device, distance-measurement method, and distance-measurement program
JPWO2015166715A1 (en) * 2014-05-02 2017-04-20 富士フイルム株式会社 Ranging device, ranging method, and ranging program
JPWO2015166714A1 (en) * 2014-05-02 2017-04-20 富士フイルム株式会社 Ranging device, ranging method, and ranging program
US10551186B2 (en) 2014-05-02 2020-02-04 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
US10627513B2 (en) 2014-05-02 2020-04-21 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
US11137496B2 (en) 2014-05-02 2021-10-05 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
US11650315B2 (en) 2014-05-02 2023-05-16 Fujifilm Corporation Distance measurement device, distance measurement method, and distance measurement program
JP2020079756A (en) * 2018-11-13 2020-05-28 株式会社リコー Distance information acquisition device and distance information acquisition method
JP7176364B2 (en) 2018-11-13 2022-11-22 株式会社リコー DISTANCE INFORMATION ACQUISITION DEVICE AND DISTANCE INFORMATION ACQUISITION METHOD
WO2021121540A1 (en) * 2019-12-16 2021-06-24 Huawei Technologies Co., Ltd. Depth estimation system

Also Published As

Publication number Publication date
JP5058632B2 (en) 2012-10-24

Similar Documents

Publication Publication Date Title
JP5058632B2 (en) Imaging device
US7948551B2 (en) Field sequential color camera system
JP6526560B2 (en) Continuous video in low light environments
JP4867566B2 (en) Imaging device, focus detection device, and imaging device
US9947064B2 (en) Image photographing apparatus and method for controlling the same
US10397502B2 (en) Method and apparatus for imaging an object
TW201426987A (en) Image pickup element and image pickup unit
JP2008153997A (en) Solid-state imaging device, camera, vehicle, surveillance device and driving method for solid-state imaging device
KR20100061303A (en) Photographing apparatus and method of photographing
JP7118893B2 (en) Imaging device, imaging method, and electronic device
JP2014107596A (en) Imaging element and imaging unit
JP2008072470A (en) Photoelectric conversion element and imaging apparatus
US9813687B1 (en) Image-capturing device, image-processing device, image-processing method, and image-processing program
JP5199736B2 (en) Imaging device
JP2008219370A5 (en)
JP2009049525A (en) Imaging apparatus and method for processing signal
WO2009121633A3 (en) Method and device for recording color images and ldi signals from an object
JP2008176114A (en) Focus detecting device and imaging apparatus
JP6740666B2 (en) Imaging device, focus detection device, and imaging device
US8154620B2 (en) Imaging apparatus and imaging method
JPWO2018207817A1 (en) Solid-state imaging device, imaging system and object identification system
JP2009147708A (en) Image pickup device
JP2010161455A (en) Infrared combined imaging device
JP2009049524A (en) Imaging apparatus and method for processing signal
JP2009118430A (en) Imaging apparatus, method of driving the imaging apparatus, image generating apparatus and image generating method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100302

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120731

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5058632

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150810

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees