JP2009147708A - Image pickup device - Google Patents

Image pickup device Download PDF

Info

Publication number
JP2009147708A
JP2009147708A JP2007323391A JP2007323391A JP2009147708A JP 2009147708 A JP2009147708 A JP 2009147708A JP 2007323391 A JP2007323391 A JP 2007323391A JP 2007323391 A JP2007323391 A JP 2007323391A JP 2009147708 A JP2009147708 A JP 2009147708A
Authority
JP
Japan
Prior art keywords
electromagnetic wave
subject
wave absorbing
light
absorbing film
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007323391A
Other languages
Japanese (ja)
Inventor
Toshio Kaji
敏雄 鍛冶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007323391A priority Critical patent/JP2009147708A/en
Publication of JP2009147708A publication Critical patent/JP2009147708A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Accessories Of Cameras (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image pickup device which outputs image the pickup information of a subject and distance information simultaneously from a sensor, and sends a signal inputted by an audio terminal in the vicinity of the subject to a body image pickup device as an infrared signal. <P>SOLUTION: An irradiation light from an infrared-emitting device captures reflected light from the subject on a far-red light absorbing film of each pixel of the sensor by using the sensor having films absorbing RGB and a film absorbing far-red light, and the infrared-emitting device attached near the sensor. Thus, when a distance to the subject exceeds a fixed value at the same time as the distance information is obtained, audio information in the vicinity of the subject inputted into the audio terminal provided in the subject is modulated to the infrared signal and sent to the image pickup device as complementary audio information. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、可視光線を吸収する電磁波吸収膜と、近赤外線を吸収する近赤外線吸収膜を有する撮像装置にかかわり、特に音声端末装置を介して近赤外光線にて送信された音声信号を受信する撮像装置に関するものである。   The present invention relates to an imaging device having an electromagnetic wave absorbing film that absorbs visible light and a near-infrared absorbing film that absorbs near-infrared light, and particularly receives an audio signal transmitted by near-infrared light via an audio terminal device. The present invention relates to an imaging apparatus.

近年、ビデオカメラやデジタルスチルカメラにおいても、高精細の画像を実現し、且つフォーカス精度の向上やストロボ発光量の調整精度を向上するために、画像情報と距離情報を同時に出力することができる撮像装置の要求も高まっている。   In recent years, video cameras and digital still cameras have also been able to output image information and distance information at the same time in order to achieve high-definition images and improve focus accuracy and strobe light emission adjustment accuracy. The demand for equipment is also increasing.

更に、このような撮像装置の小型化を図るため、従来のカラーフィルタがモザイク状の撮像素子(ベイヤー配列)に代わり、入射光をより有効利用できる1枚の撮像素子が要求されている。   Furthermore, in order to reduce the size of such an image pickup apparatus, there is a demand for a single image pickup element that can use incident light more effectively in place of a conventional color filter instead of a mosaic image pickup element (Bayer array).

このような状況を鑑み、固体撮像素子の画素単位毎に、光の3原色であるRGB、それぞれの波長の光を吸収する電磁波吸収膜を積層化して、入射光の利用効率を向上させることで、該撮像素子の寸法を大きくすることなく、高解像度を実現する手法が提案されている(特許文献1)。   In view of such a situation, for each pixel unit of the solid-state imaging device, RGB, which are the three primary colors of light, and an electromagnetic wave absorption film that absorbs light of each wavelength are laminated to improve the utilization efficiency of incident light. A technique for realizing high resolution without increasing the size of the image sensor has been proposed (Patent Document 1).

また、高解像度の画像と、被写体までの距離情報を2つの撮像素子を用いて、同時に取得する撮像装置も提案されている(特許文献2)。   There has also been proposed an imaging apparatus that simultaneously acquires a high-resolution image and distance information to a subject using two imaging elements (Patent Document 2).

また、マイクロホン等の音声入力装置を有し、入力された音声信号を変調して赤外光線の光信号として空間に発射し、該光信号を被写体の映像と同時に撮像し、撮影中の例えば人物の音声と人物像を記録できるようにした撮像装置が提案されている(特許文献3)。
特開2003−234460号公報 特開平11−41521号公報 特開昭63−256061号公報
Also, it has an audio input device such as a microphone, modulates the input audio signal, emits it into the space as an infrared ray optical signal, images the optical signal simultaneously with the image of the subject, An image pickup apparatus that can record a voice and a human image has been proposed (Patent Document 3).
JP 2003-234460 A Japanese Patent Laid-Open No. 11-41521 JP-A-63-256061

このように、画素単位毎に光の3原色であるRGBぞれぞれの波長を吸収する電磁波吸収膜を多層化して高解像度を実現する手法では、モザイク状のカラーフィルタ型の固体撮像素子と比較して、光の利用効率が3倍に向上するため高解像度が実現することができるものの、その反面、光の3原色RGBに対応した電磁波吸収膜を積層構造にしているため、撮像素子からは画像情報のみの出力であった。   As described above, in a technique for realizing a high resolution by multilayering an electromagnetic wave absorption film that absorbs the wavelengths of RGB, which are the three primary colors of light, for each pixel unit, a mosaic-shaped color filter type solid-state imaging device and In comparison, although the light utilization efficiency is improved three times, high resolution can be realized, but on the other hand, the electromagnetic wave absorbing film corresponding to the three primary colors RGB of light has a laminated structure, so Was the output of only image information.

また、2つの撮像素子を用いて高解像度の画質と距離情報を同時に取得する手法では、画像用撮像素子と距離情報取得用撮像素子が、1つのレンズからの入射光を分離するハーフミラーを介して光を入射させ、レンズ等の光学デバイス1つで画像と距離情報を取得する方法があった。   In the method of simultaneously acquiring high-resolution image quality and distance information using two image sensors, the image sensor for image and the image sensor for distance information acquisition pass through a half mirror that separates incident light from one lens. Then, there is a method in which light is incident and an image and distance information are acquired by one optical device such as a lens.

しかしながら、1つの光学デバイスからハーフミラーを介して入射光を分離するため、2つの撮像素子への光の入射角がずれないように、ハーフミラーのメカ的な取り付け精度が要求され、また、2つの撮像素子とハーフミラーを用いるため、撮像装置の小型化・低消費電力が難しく、更にコストも増加する問題がある。   However, since the incident light is separated from one optical device via the half mirror, the mechanical attachment accuracy of the half mirror is required so that the incident angle of the light to the two image sensors does not deviate. Since two image sensors and half mirrors are used, there is a problem that it is difficult to reduce the size and power consumption of the image pickup apparatus, and further increase the cost.

また、特許文献3においては、マイクロホンの音声入力装置から入力された音声信号を変調して赤外光線の光信号として空間に発射し、該光信号を被写体の映像と同時に撮像し、撮影中の例えば人物の音声と人物像を記録できるようにした撮像装置が開示されているが、
この場合、被写体までの距離が判定できないため、例えば図5の被写体Dのように、画面外に位置している場合は、音声は拾わないが、被写体Dが画面内に入ってきた場合、その時点で被写体A、B、Cと同等の音声レベルが記録されるため、被写体の距離から比例して音声が小さくなるのに対し、違和感のある映像、音声となる場合があった。
In Patent Document 3, a sound signal input from a sound input device of a microphone is modulated and emitted into a space as an infrared light signal, and the light signal is imaged at the same time as an image of a subject. For example, an imaging device capable of recording a person's voice and person image has been disclosed.
In this case, since the distance to the subject cannot be determined, the voice is not picked up when the subject D is located outside the screen as in the subject D of FIG. 5, for example. Since audio levels equivalent to those of the subjects A, B, and C are recorded at the time, the audio becomes smaller in proportion to the distance of the subject, whereas there are cases where the video and audio have a sense of incongruity.

本発明の、音声端末装置を備えた撮像装置は、
可視光において、光の3原色であるR,G,Bそれぞれを吸収できる第1から第3の電磁波吸収膜と、該第1から第3の電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる第4の電磁波吸収膜を有する多層積層型撮像素子と、該撮像素子付近に設置した赤外発光素子を有し、第1から第3の電磁波吸収膜で吸収した電荷から被写体画像を、また赤外発光素子からの照射光が被写体を介した反射光を第4の電磁波吸収膜で吸収し、照射光と到達反射光の時間差から被写体までの距離情報を算出する手段と、被写体画像と被写体画像に対応した距離情報を同時に出力する手段を有することを特徴とする撮像装置であって、
被写体に、音声信号を変調し近赤外光線にて放出する音声端末装置を設け、前記音声端末装置から出力される近赤外光線と、前記撮像装置から照射された近赤外光線をもとに、撮像装置の音声入出力手段を切替えることを特徴としている。
The imaging device provided with the voice terminal device of the present invention,
From visible light, first to third electromagnetic wave absorbing films that can absorb R, G, and B, which are the three primary colors of light, and electromagnetic waves that are not absorbed by the first to third electromagnetic wave absorbing films, near infrared light A multilayer laminated imaging device having a fourth electromagnetic wave absorbing film capable of absorbing an electromagnetic wave corresponding to the wavelength, and an infrared light emitting device installed in the vicinity of the imaging device, and absorbed by the first to third electromagnetic wave absorbing films The object image is taken from the charge, and the reflected light from the infrared light emitting element is reflected by the fourth electromagnetic wave absorbing film, and the distance information to the subject is calculated from the time difference between the irradiated light and the reflected reflected light. An imaging apparatus comprising: means for outputting simultaneously a subject image and distance information corresponding to the subject image,
An audio terminal device that modulates an audio signal and emits it with near-infrared rays is provided on a subject. Based on the near-infrared rays output from the audio terminal device and the near-infrared rays emitted from the imaging device In addition, the sound input / output means of the imaging apparatus is switched.

また本発明の、音声端末装置を備えた撮像装置のさらなる特徴は、
第1の電磁波吸収膜は400〜500nmの電磁波を吸収する特性を有し、第2の電磁波吸収膜は500〜600nmの電磁波を吸収する特性を有し、第3の電磁波吸収膜は600〜700nmの電磁波を吸収する特性を有し、さらに第4の電磁波吸収膜は近赤外光、特に撮像素子のそばに設置した赤外発光素子の波長と同等の吸収特性を有すると共に、音声端末装置の近赤外光の波長と同等の吸収特性を有することを特徴とする、第1から第4の電磁波吸収膜を有することを特徴としている。
Moreover, the further characteristic of the imaging device provided with the audio | voice terminal device of this invention is the following.
The first electromagnetic wave absorbing film has a characteristic of absorbing an electromagnetic wave of 400 to 500 nm, the second electromagnetic wave absorbing film has a characteristic of absorbing an electromagnetic wave of 500 to 600 nm, and the third electromagnetic wave absorbing film is 600 to 700 nm. In addition, the fourth electromagnetic wave absorbing film has an absorption characteristic equivalent to the wavelength of near-infrared light, particularly an infrared light-emitting element installed near the imaging element, It has the 1st-4th electromagnetic wave absorption film | membrane characterized by having the absorption characteristic equivalent to the wavelength of near-infrared light, It is characterized by the above-mentioned.

以上説明したように、本発明によれば、固体撮像素子に光の3原色RGBをそれぞれ吸収する電磁波吸収膜と、該膜から電荷を読み出すための電極を備え、
最下層部に前記RGBの電磁波吸収膜で吸収されない電磁波から、近赤外波長を吸収する第4の電磁波吸収膜と、該吸収膜で吸収された電荷を読み出すための電極を備え、
前記撮像素子のそばに配置した赤外発光素子から近赤外光線を照射し、対象被写体からの反射光を各画素毎に配置した前記撮像素子が有する第4の電磁波吸収膜で吸収し、
吸収した電磁波を信号に変換し、接続した電極から読み出すことにより、赤外発光素子からの照射光が被写体を介して、反射した光の各画素毎の到達時間を算出する手段を備え、
各画素毎の該到達時間から、被写体画像に対応する各画素毎の距離情報を算出する手段を備え、
各画素毎の該距離情報取得後にすべての画素の距離情報を同時に読み出し、被写体画像に対応した距離情報を生成する手段を備え、
該距離情報と、被写体撮影の主画像を合成する手段を備え、
合成した画像を画像データ、例えば、RAWデータとして記録する記録手段を備え、
上記手段により固体撮像素子が備える第1から第3の電磁波吸収膜で、可視光に対応する電磁波吸収することで、被写体画像を生成し、
赤外発光素子からの照射光が、被写体から反射した光を、前記撮像素子が備える第4の電磁波吸収膜で検出することにより、被写体までの距離情報を取得し、
被写体に備えた音声端末装置により、被写体の音声を入力し、近赤外光線にて変調出力する手段を備え、
撮像装置にて入力された音声信号を復調し、音声信号に加算する手段を備え、上記被写体までの距離を算出した情報をもとに、上記音声信号の加算比率を変える手段を有することにより、被写体までの距離に比例して音声の大小を加算比率により変え、違和感のない映像、音声を得ることが可能となった。
As described above, according to the present invention, the solid-state imaging device includes an electromagnetic wave absorbing film that absorbs the three primary colors RGB of light, and an electrode for reading out charges from the film,
From the electromagnetic wave that is not absorbed by the RGB electromagnetic wave absorbing film in the lowermost layer portion, a fourth electromagnetic wave absorbing film that absorbs near-infrared wavelengths, and an electrode for reading out the charge absorbed by the absorbing film,
Irradiate near-infrared rays from an infrared light emitting element disposed near the image sensor, and absorb reflected light from a target subject by a fourth electromagnetic wave absorbing film included in the image sensor disposed for each pixel;
By converting the absorbed electromagnetic wave into a signal and reading out from the connected electrode, the irradiation light from the infrared light emitting element is provided with means for calculating the arrival time for each pixel of the reflected light through the subject,
Means for calculating distance information for each pixel corresponding to the subject image from the arrival time for each pixel;
The distance information for all pixels is read simultaneously after obtaining the distance information for each pixel, and includes means for generating distance information corresponding to the subject image,
Means for synthesizing the distance information and the main image of the subject image;
A recording means for recording the synthesized image as image data, for example, RAW data;
The first to third electromagnetic wave absorbing films provided in the solid-state imaging device by the above means generate an object image by absorbing electromagnetic waves corresponding to visible light,
By detecting the light reflected from the subject by the irradiation light from the infrared light emitting element with the fourth electromagnetic wave absorbing film provided in the imaging device, the distance information to the subject is acquired,
The voice terminal device provided for the subject includes means for inputting the voice of the subject and modulating and outputting with near infrared rays,
By including means for demodulating the audio signal input by the imaging device and adding it to the audio signal, and having means for changing the addition ratio of the audio signal based on the information obtained by calculating the distance to the subject, It is now possible to change the size of the sound in proportion to the distance to the subject according to the addition ratio, and to obtain images and sounds that do not feel uncomfortable.

次に、本発明の詳細を実施例の記述に従って説明する。   Next, details of the present invention will be described in accordance with the description of the embodiments.

本発明を実施するための形態について説明する。   A mode for carrying out the present invention will be described.

本発明を適用した図面が図1であり、初めに本発明の撮像装置について、図1を元に具体的な動作を説明する。   FIG. 1 is a drawing to which the present invention is applied. First, specific operations of the imaging apparatus of the present invention will be described with reference to FIG.

同図において、レンズ1を通った光信号は、絞り2を介して、CMOSセンサー3に入力され、該CMOSセンサーは、TG7より出力されるタイミングパルスにより駆動され、入射された光信号を光電変換により、電気信号に変換して出力する。   In the figure, an optical signal that has passed through a lens 1 is input to a CMOS sensor 3 via a diaphragm 2, and the CMOS sensor is driven by a timing pulse output from a TG 7 to photoelectrically convert the incident optical signal. Thus, an electrical signal is converted and output.

TG7はCPU8によって制御され、例えばTG7は3V振幅のタイミングパルスを水平同期信号HDに同期して、一定の周期で出力する。   The TG 7 is controlled by the CPU 8. For example, the TG 7 outputs a timing pulse having an amplitude of 3V in synchronization with the horizontal synchronization signal HD at a constant cycle.

CMOSセンサー3の出力信号は信号レベルを示す"S"と、ノイズレベルを示す"N"で構成され、"S−N"が入射光を電気信号に変換した値を示す。   The output signal of the CMOS sensor 3 is composed of “S” indicating a signal level and “N” indicating a noise level, and “S−N” indicates a value obtained by converting incident light into an electrical signal.

CMOSセンサー3の出力信号は"S−N"の差分値を算出するための相関二重サンプリングを行なうCDSと、アナログ信号をデジタル信号に変換するA/D変換器で構成されたAFE4に入力され、デジタル信号に変換した後、マルチプレクス5に入力される。   The output signal of the CMOS sensor 3 is input to an AFE 4 composed of a CDS that performs correlated double sampling for calculating the difference value of “SN” and an A / D converter that converts an analog signal into a digital signal. After being converted into a digital signal, it is input to the multiplex 5.

マルチプレクス5、CMOSセンサー内部の各層で吸収された電磁波を変換した電荷を合成処理し、出力信号はAGC6を介して、カメラ信号処理回路9に入力される。   Charges converted from electromagnetic waves absorbed by each layer in the multiplex 5 and the CMOS sensor are synthesized, and an output signal is input to the camera signal processing circuit 9 via the AGC 6.

カメラ信号処理回路9はYC分離と、映像信号処理、色信号処理、ガンマ補正を施して、画像を生成する。   The camera signal processing circuit 9 performs YC separation, video signal processing, color signal processing, and gamma correction to generate an image.

カメラ信号処理回路9の出力は、ビデオ信号処理回路10に入力され、ビデオ信号処理を行なって信号を出力し、モニタ11は画像を表示する。   The output of the camera signal processing circuit 9 is input to the video signal processing circuit 10, performs video signal processing and outputs a signal, and the monitor 11 displays an image.

また、カメラ信号処理回路9からは、撮像装置の露出補正を行なうための評価値を輝度レベル検波部12に出力する。   In addition, the camera signal processing circuit 9 outputs an evaluation value for performing exposure correction of the imaging device to the luminance level detection unit 12.

輝度レベル検波部12は該評価値から輝度レベル検波値を算出し、CPU8に出力する。   The luminance level detection unit 12 calculates a luminance level detection value from the evaluation value and outputs it to the CPU 8.

CPU8は輝度レベル検波部12からの出力信号から、予め備えた露出補正テーブルから、露出補正量の差分値を算出し、差分がある場合には、絞り2と、CMOSセンサー3と、AGC6に制御信号を出力して、露出補正を行なう。   The CPU 8 calculates the difference value of the exposure correction amount from the output correction table prepared in advance from the output signal from the luminance level detector 12, and if there is a difference, controls the aperture 2, the CMOS sensor 3, and the AGC 6 to control. A signal is output and exposure compensation is performed.

本体内蔵マイク20に入力された音声信号は、アンプ21で増幅され、音声回路22にて信号処理をされ、ビデオ信号処理回路10にて映像信号と重畳されてモニター11に出力される。   The audio signal input to the main body built-in microphone 20 is amplified by the amplifier 21, subjected to signal processing by the audio circuit 22, superimposed on the video signal by the video signal processing circuit 10, and output to the monitor 11.

マルチプレクス回路5により、音声変調信号部が抜き出され、音声復調回路23で音声信号に復調される。復調された音声信号はビデオ信号処理回路10にて映像信号と重畳され、モニター11に出力される。   The audio modulation signal portion is extracted by the multiplex circuit 5 and demodulated into an audio signal by the audio demodulation circuit 23. The demodulated audio signal is superimposed on the video signal by the video signal processing circuit 10 and output to the monitor 11.

次に、音声信号端末装置30について説明する。音声信号端末装置30には内蔵マイク31と変調回路32、赤外ダイオード駆動アンプ33、赤外発光ダイオード34、発振機35からなっており、内蔵マイク31で受けた音声信号は、発振機35の発振周波数にて変調回路32で変調される。   Next, the audio signal terminal device 30 will be described. The audio signal terminal device 30 includes a built-in microphone 31, a modulation circuit 32, an infrared diode drive amplifier 33, an infrared light emitting diode 34, and an oscillator 35. Modulation is performed by the modulation circuit 32 at the oscillation frequency.

変調された音声信号は赤外発光ダイオード駆動アンプ33で増幅され、赤外発光ダイオード34にて赤外線に変換され、赤外線として発光される。   The modulated audio signal is amplified by an infrared light emitting diode drive amplifier 33, converted into infrared rays by an infrared light emitting diode 34, and emitted as infrared rays.

音声信号端末装置において、赤外光に変調された音声信号はレンズ1を通してCMOSセンサー3に入力される。そのうちの音声信号を含んだ赤外光線は他の赤外光とともにAFE4で映像信号と分離され、マルチプレクス回路5から音声復調回路23に入力される、音声復調回路23では変調されていた信号から音声信号が取り出され、CPU8の制御により、音声増幅コントロールアンプ24にてレベルを調整された後、ビデオ信号処理回路10にて映像信号と重畳されモニター11に出力される。   In the audio signal terminal device, an audio signal modulated into infrared light is input to the CMOS sensor 3 through the lens 1. Among them, the infrared ray including the audio signal is separated from the video signal by the AFE 4 together with the other infrared light, and is input from the multiplex circuit 5 to the audio demodulation circuit 23, and from the signal modulated by the audio demodulation circuit 23. The audio signal is taken out, adjusted in level by the audio amplification control amplifier 24 under the control of the CPU 8, then superimposed on the video signal by the video signal processing circuit 10 and output to the monitor 11.

次に、CMOSセンサー3が備える多層積層膜からの電荷読み出し構成を図2と、図3、及び図4を用いて説明する。   Next, the charge readout configuration from the multilayer laminated film included in the CMOS sensor 3 will be described with reference to FIGS. 2, 3, and 4.

初めに、図2はCMOSセンサー3に入力される電磁波波長と各電磁波吸収膜の透過率を表しており、入力信号波長は例えば、レンズ1と、CMOSセンサー3の間に挿入した光学LPF(Low Pass Filter)が備えた紫外線(UV)カット特性により、400nm以上の電磁波波長が入力される。   First, FIG. 2 shows the wavelength of an electromagnetic wave input to the CMOS sensor 3 and the transmittance of each electromagnetic wave absorbing film. The input signal wavelength is, for example, an optical LPF (Low) inserted between the lens 1 and the CMOS sensor 3. An electromagnetic wave wavelength of 400 nm or more is input due to ultraviolet (UV) cut characteristics provided in the Pass Filter.

次に、CMOSセンサー3を構成する多層積層構造の電磁波吸収膜において、第1の電磁波吸収膜は、入射光の電磁波波長の400〜500nmの電磁波を吸収する有機膜で形成される。   Next, in the electromagnetic wave absorbing film having a multilayer structure that constitutes the CMOS sensor 3, the first electromagnetic wave absorbing film is formed of an organic film that absorbs an electromagnetic wave having an electromagnetic wave wavelength of 400 to 500 nm of incident light.

第1の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極300が接続される。   The first electromagnetic wave absorbing film is connected to an electrode 300 for converting electromagnetic waves absorbed by the absorbing film into electric charges and reading out the converted electric charges.

電極300から読み出された電荷は、AMP304を介して、DATA1として、AFE4に出力される。   The electric charge read from the electrode 300 is output to the AFE 4 as DATA1 through the AMP 304.

DATA1は、AFE4内部のCDS400と、A/D404で相関二重サンプリングと、A/D変換される。   DATA1 is subjected to correlated double sampling and A / D conversion by CDS 400 inside AFE 4 and A / D 404.

一方、前記第1の電磁波吸収膜で吸収された電磁波以外は第1の電磁波吸収膜を通過して、第2の電磁波吸収膜に浸透する。   On the other hand, electromagnetic waves other than the electromagnetic wave absorbed by the first electromagnetic wave absorbing film pass through the first electromagnetic wave absorbing film and permeate the second electromagnetic wave absorbing film.

第2の電磁波吸収膜は、入射光の電磁波波長の500〜600nmの電磁波を吸収する有機膜で形成される。   The second electromagnetic wave absorbing film is formed of an organic film that absorbs an electromagnetic wave having an electromagnetic wave wavelength of 500 to 600 nm of incident light.

第2の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極301が接続される。   Connected to the second electromagnetic wave absorbing film is an electrode 301 for converting electromagnetic waves absorbed by the absorbing film into electric charges and reading out the converted electric charges.

電極301から読み出された電荷は、AMP305を介して、DATA2として、AFE4に出力される。   The electric charge read from the electrode 301 is output to the AFE 4 as DATA 2 via the AMP 305.

DATA2は、AFE4内部のCDS401と、A/D405で相関二重サンプリングと、A/D変換される。   DATA 2 is subjected to correlated double sampling and A / D conversion by CDS 401 inside AFE 4 and A / D 405.

一方、前記第2の電磁波吸収膜で吸収された電磁波以外は第2の電磁波吸収膜を通過して、第3の電磁波吸収膜に浸透する。   On the other hand, electromagnetic waves other than the electromagnetic wave absorbed by the second electromagnetic wave absorbing film pass through the second electromagnetic wave absorbing film and permeate the third electromagnetic wave absorbing film.

第3の電磁波吸収膜は、入射光の電磁波波長の600〜700nmの電磁波を吸収する有機膜で形成される。   The third electromagnetic wave absorbing film is formed of an organic film that absorbs an electromagnetic wave having an electromagnetic wave wavelength of 600 to 700 nm of incident light.

第3の電磁波吸収膜には、該吸収膜で吸収された電磁波を電荷に変換し、変換した電荷を読み出すための電極302が接続される。   The third electromagnetic wave absorbing film is connected to an electrode 302 for converting electromagnetic waves absorbed by the absorbing film into electric charges and reading out the converted electric charges.

電極302から読み出された電荷は、AMP306を介して、DATA3として、AFE4に出力される。   The electric charge read from the electrode 302 is output to the AFE 4 as DATA 3 via the AMP 306.

DATA3は、AFE内部のCDS402と、A/D406で相関二重サンプリングと、A/D変換される。   DATA3 is subjected to correlation double sampling and A / D conversion by CDS 402 inside AFE and A / D 406.

次に、前記撮像素子のそばに配置したLEDを用いた被写体までの距離情報算出の仕組みを図3、図4及び図5を用いて、説明する。   Next, a mechanism for calculating distance information to a subject using an LED arranged near the image sensor will be described with reference to FIGS. 3, 4, and 5. FIG.

撮像装置1000で被写体を撮影中に、撮影被写体1001に対して、撮像部1002を構成するLED1004から波長が800〜1200nmの赤外光を照射する(照射光1005)。   During imaging of a subject by the imaging apparatus 1000, infrared light having a wavelength of 800 to 1200 nm is irradiated from the LED 1004 constituting the imaging unit 1002 to the imaging subject 1001 (irradiation light 1005).

照射光1005は、撮影被写体1001内に映し出されている人や、物体等に照射され、照射光1005が到達する距離にいる人や物体がいる場合には、人や、物体によって、照射光1005が反射する(反射光1006)。   Irradiation light 1005 is applied to a person or an object projected in the photographic subject 1001, and when there is a person or object at a distance that the irradiation light 1005 reaches, the irradiation light 1005 depends on the person or object. Is reflected (reflected light 1006).

反射光1006は、撮影被写体1001の光信号として、撮像素子1003に入射される。   The reflected light 1006 is incident on the image sensor 1003 as an optical signal of the photographic subject 1001.

撮像素子1003に入射された反射光1006は、波長が800〜1200nmの信号であるため、撮像素子が備える第1から第3の電磁波吸収膜では吸収されずに通過して、最下層部に配置された第4の電磁波吸収膜に浸透する。   Since the reflected light 1006 incident on the image sensor 1003 is a signal having a wavelength of 800 to 1200 nm, it passes through the first to third electromagnetic wave absorbing films included in the image sensor without being absorbed and is arranged in the lowermost layer. It penetrates into the formed fourth electromagnetic wave absorbing film.

第4の電磁波吸収膜は、入射光の電磁波波長の800〜1200nmの電磁波を吸収する有機膜で形成されているため、反射光1006は該吸収膜で吸収され、電荷に変換される。   Since the fourth electromagnetic wave absorbing film is formed of an organic film that absorbs an electromagnetic wave having an electromagnetic wave wavelength of 800 to 1200 nm of incident light, the reflected light 1006 is absorbed by the absorbing film and converted into electric charges.

変換された電荷は、電荷読み出し用電極303を介して、DATA4として、AFE4に出力される。   The converted charge is output to the AFE 4 as DATA 4 through the charge reading electrode 303.

DATA4は、AFE内部のCDS403と、A/D407で相関二重サンプリングと、A/D変換されて、マルチプレクス5に出力される。   DATA 4 is subjected to correlated double sampling and A / D conversion in CDS 403 inside AFE and A / D 407, and is output to multiplex 5.

次に、LEDからの照射光と、被写体からの反射光での被写体までの距離算出方法を図6と、図7を用いて、説明する。   Next, a method for calculating the distance to the subject by the irradiation light from the LED and the reflected light from the subject will be described with reference to FIGS.

図6は、例えば、撮像装置が備える撮像素子の画素情報を表し、すべての画素にアドレス情報を具備しておく。   FIG. 6 shows, for example, pixel information of an imaging element included in the imaging device, and all pixels have address information.

図7は、距離情報を取得するためのLED照射タイミングと、距離算出方法を示しており、LEDの照射パルスタイミングは映像信号内のVランキング期間内に照射を開始する。   FIG. 7 shows an LED irradiation timing for acquiring distance information and a distance calculation method, and the irradiation pulse timing of the LED starts irradiation within the V ranking period in the video signal.

LEDから照射されたパルスは、被写体を介して、撮像素子が有する各画素に入射され、各画素では、反射パルスの到達時間の検出を行なう。   The pulse emitted from the LED is incident on each pixel of the image sensor via the subject, and the arrival time of the reflected pulse is detected in each pixel.

ここで、反射パルスの到達時間の検出方法は、照射パルスの立ち上がりエッジ部と、反射パルスの立ち上がりエッジ部を比較して、時間差を算出する。   Here, as a method for detecting the arrival time of the reflected pulse, a time difference is calculated by comparing the rising edge portion of the irradiation pulse with the rising edge portion of the reflected pulse.

図7では、初めにセンサー23画素と、センサー33画素に反射パルスが到達し、該パルスと、照射パルスと比較して、時間差Φ1を算出する。   In FIG. 7, the reflected pulse first reaches the sensor 23 pixel and the sensor 33 pixel, and the time difference Φ1 is calculated by comparing the pulse with the irradiation pulse.

次に、センサー13画素と、センサー22画素と、センサー32画素に反射パルスが到達し、該パルスと、照射パルスを比較して、時間差Φ2を算出する。   Next, the reflected pulse reaches the sensor 13 pixel, the sensor 22 pixel, and the sensor 32 pixel, and the pulse is compared with the irradiation pulse to calculate the time difference Φ2.

次に、センサー12画素に反射パルスが到達し、該パルスと、照射パルスを比較して、時間差Φ3を算出する。   Next, the reflected pulse reaches the sensor 12 pixel, and the pulse is compared with the irradiation pulse to calculate the time difference Φ3.

最後に、センサー11画素と、センサー21画素と、センサー31画素には、被写体までの距離が非常に遠いため、反射パルスは到達しない。   Finally, since the distance to the subject is very far, the reflected pulse does not reach the sensor 11 pixel, the sensor 21 pixel, and the sensor 31 pixel.

以上のように、撮像素子が有するすべての画素において、反射パルスの到達時間を検出し、該到達時間から、すべての画素で被写体までの距離情報を算出する。   As described above, the arrival time of the reflected pulse is detected in all the pixels included in the image sensor, and the distance information to the subject is calculated in all the pixels from the arrival time.

ここで、検出した到達時間から距離情報を算出する方法は、反射光の到達時間から、飛行時間を換算し、該飛行時間に光速を乗ずることで算出する。   Here, the method of calculating the distance information from the detected arrival time is calculated by converting the flight time from the arrival time of the reflected light and multiplying the flight time by the speed of light.

また、撮像素子が有する画素の読み出し周波数は以下のとおりである。   In addition, the readout frequency of the pixels included in the image sensor is as follows.

F=1/(X/A*C) (1)
C:光の速さ
X:距離検出精度
A:撮像素子が有する画素数
(1)式で算出される画素読み出し周波数で撮像素子を駆動することにより、撮像素子が有するすべての画素において、距離情報を算出することが可能になる。
F = 1 / (X / A * C) (1)
C: Speed of light X: Distance detection accuracy A: Number of pixels of the image sensor The distance information is obtained for all pixels of the image sensor by driving the image sensor at the pixel readout frequency calculated by the equation (1). Can be calculated.

このように、被写体画像は、撮像素子が有する第1から第3の電磁波吸収膜から電荷として出力され、被写体までの距離情報は、前記撮像素子が有する第4の電磁波吸収膜から電荷として出力される。   As described above, the subject image is output as charges from the first to third electromagnetic wave absorption films included in the imaging element, and the distance information to the subject is output as charge from the fourth electromagnetic wave absorption film included in the imaging element. The

それぞれの出力電荷はAFEを介して、デジタル信号に変換された後、マルチプレクス、AGCゲインを介して、カメラ信号処理回路に入力される。   Each output charge is converted into a digital signal via the AFE and then input to the camera signal processing circuit via the multiplex and AGC gain.

カメラ信号処理回路は、被写体画像と、被写体までの距離情報を合成して、カメラデータ用メモリに出力し、RAWデータとして記録する。   The camera signal processing circuit synthesizes the subject image and distance information to the subject, outputs them to the camera data memory, and records them as RAW data.

これにより、1枚の固体撮像素子と該撮像素子のそばに配置したLEDにより、撮影時の被写体画像に影響を及ぼすことなく、被写体画像と、被写体までの距離情報を同時に出力可能な撮像装置を実現することができる。   As a result, an image pickup apparatus capable of simultaneously outputting a subject image and distance information to the subject without affecting the subject image at the time of photographing by one solid-state image sensor and an LED disposed near the image sensor. Can be realized.

なお、図8は、本発明の撮像装置において、被写体画像への影響を防止し、被写体までの距離情報を算出する手段の一実施例を示す図である。   FIG. 8 is a diagram showing an embodiment of a means for calculating the distance information to the subject while preventing the influence on the subject image in the imaging apparatus of the present invention.

本発明の撮像装置における一実施例の構成を示す。The structure of one Example in the imaging device of this invention is shown. 本発明の撮像装置が有する固体撮像素子の各電荷吸収膜における電磁波波長と透過率の一実施例を示す。One Example of the electromagnetic wave wavelength and the transmittance | permeability in each charge absorption film of the solid-state image sensor which the imaging device of this invention has is shown. 本発明の撮像装置が有する固体撮像素子の各電荷吸収膜と電極構成の一実施例を示す。An example of each charge absorption film and electrode configuration of a solid-state imaging device included in the imaging device of the present invention is shown. 本発明の撮像装置が有するAFEの内部回路構成の一実施例を示す。1 shows an embodiment of an internal circuit configuration of an AFE included in an imaging apparatus of the present invention. 本発明の撮像装置において、LEDからの照射光と反射光を用いた距離算出方法の一実施例を示す。In the imaging apparatus of the present invention, an embodiment of a distance calculation method using irradiation light and reflected light from an LED will be shown. 本発明の撮像装置において、撮像素子のすべての画素の位置情報を表すための一実施例を示す。In the imaging device of the present invention, an embodiment for representing position information of all pixels of the imaging device will be shown. 本発明の撮像装置において、映像Vブランキング期間内にLEDを照射するタイミングと、各画素での距離情報算出手段の一実施例を示す。In the imaging apparatus of the present invention, an example of timing for irradiating the LED within the video V blanking period and distance information calculating means for each pixel is shown. 本発明の撮像装置において、被写体画像への影響を防止し、被写体までの距離情報を算出する手段の一実施例を示す。In the imaging apparatus of the present invention, an example of means for preventing the influence on the subject image and calculating the distance information to the subject is shown.

符号の説明Explanation of symbols

1 レンズ
2 絞り
3 CMOSセンサー
4 AFE
5 マルチプレクス
6 AGC
7 TG
8 CPU
9 カメラ信号処理回路
10 ビデオ信号処理回路
11 モニタ
12 輝度レベル検波
13 メモリ
14 カメラデータ用メモリ
20 マイク
21 アンプ
22 音声処理回路
23 音声復調回路
24 音声増幅コントロールアンプ
30 音声端末装置
31 マイク
32 変調回路
33 アンプ
34 赤外発光ダイオード
35 発振回路
300 電極300
301 電極301
302 電極302
303 電極303
304 AMP304
305 AMP305
306 AMP306
307 AMP307
1000 撮像装置
1001 撮影被写体
1002 撮像部
1003 撮像素子
1004 LED
1005 照射光
1006 反射光
1 Lens 2 Aperture 3 CMOS sensor 4 AFE
5 Multiplex 6 AGC
7 TG
8 CPU
DESCRIPTION OF SYMBOLS 9 Camera signal processing circuit 10 Video signal processing circuit 11 Monitor 12 Luminance level detection 13 Memory 14 Camera data memory 20 Microphone 21 Amplifier 22 Audio | voice processing circuit 23 Audio | voice demodulation circuit 24 Audio | voice amplification control amplifier 30 Audio | voice terminal device 31 Microphone 32 Modulation circuit 33 Amplifier 34 Infrared light emitting diode 35 Oscillator circuit 300 Electrode 300
301 Electrode 301
302 Electrode 302
303 Electrode 303
304 AMP304
305 AMP305
306 AMP306
307 AMP307
1000 Imaging Device 1001 Shooting Subject 1002 Imaging Unit 1003 Imaging Element 1004 LED
1005 Irradiation light 1006 Reflected light

Claims (2)

可視光において、光の3原色であるR,G,Bそれぞれを吸収できる第1から第3の電磁波吸収膜と、該第1から第3の電磁波吸収膜で吸収されない電磁波から、近赤外光波長に対応した電磁波を吸収できる第4の電磁波吸収膜を有する多層積層型撮像素子と、該撮像素子付近に設置した赤外発光素子を有し、第1から第3の電磁波吸収膜で吸収した電荷から被写体画像を、また赤外発光素子からの照射光が被写体を介した反射光を第4の電磁波吸収膜で吸収し、照射光と到達反射光の時間差から被写体までの距離情報を算出する手段と、被写体画像と被写体画像に対応した距離情報を同時に出力する手段を有することを特徴とする撮像装置において、
被写体に、音声信号を変調し近赤外光線にて放出する音声端末装置を設け、前記音声端末装置から出力される近赤外光線と、前記撮像装置から照射された近赤外光線をもとに、撮像装置の音声入出力手段を切替えることを特徴とする撮像装置。
From visible light, first to third electromagnetic wave absorbing films that can absorb R, G, and B, which are the three primary colors of light, and electromagnetic waves that are not absorbed by the first to third electromagnetic wave absorbing films, near infrared light A multilayer laminated imaging device having a fourth electromagnetic wave absorbing film capable of absorbing an electromagnetic wave corresponding to the wavelength, and an infrared light emitting device installed in the vicinity of the imaging device, and absorbed by the first to third electromagnetic wave absorbing films The object image is taken from the charge, and the reflected light from the infrared light emitting element is reflected by the fourth electromagnetic wave absorbing film, and the distance information to the subject is calculated from the time difference between the irradiated light and the reflected reflected light. And an image pickup apparatus comprising: means for outputting simultaneously a subject image and distance information corresponding to the subject image;
An audio terminal device that modulates an audio signal and emits it with near-infrared rays is provided on a subject. Based on the near-infrared rays output from the audio terminal device and the near-infrared rays emitted from the imaging device And an audio input / output means of the imaging apparatus.
前記第1の電磁波吸収膜は400〜500nmの電磁波を吸収する特性を有し、前記第2の電磁波吸収膜は500〜600nmの電磁波を吸収する特性を有し、前記第3の電磁波吸収膜は600〜700nmの電磁波を吸収する特性を有し、さらに前記第4の電磁波吸収膜は近赤外光、特に撮像素子のそばに設置したLEDの波長と同等の吸収特性を有すると共に、前記音声端末装置の近赤外光の波長と同等の吸収特性を有することを特徴とする請求項1に記載の撮像装置。   The first electromagnetic wave absorbing film has a characteristic of absorbing an electromagnetic wave of 400 to 500 nm, the second electromagnetic wave absorbing film has a characteristic of absorbing an electromagnetic wave of 500 to 600 nm, and the third electromagnetic wave absorbing film is The fourth electromagnetic wave absorbing film has a characteristic of absorbing electromagnetic waves of 600 to 700 nm, and the fourth electromagnetic wave absorbing film has an absorption characteristic equivalent to the wavelength of near-infrared light, in particular, an LED installed near an image sensor, and the voice terminal The imaging apparatus according to claim 1, wherein the imaging apparatus has an absorption characteristic equivalent to a wavelength of near infrared light of the apparatus.
JP2007323391A 2007-12-14 2007-12-14 Image pickup device Pending JP2009147708A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007323391A JP2009147708A (en) 2007-12-14 2007-12-14 Image pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007323391A JP2009147708A (en) 2007-12-14 2007-12-14 Image pickup device

Publications (1)

Publication Number Publication Date
JP2009147708A true JP2009147708A (en) 2009-07-02

Family

ID=40917800

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007323391A Pending JP2009147708A (en) 2007-12-14 2007-12-14 Image pickup device

Country Status (1)

Country Link
JP (1) JP2009147708A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111182385A (en) * 2019-11-19 2020-05-19 广东小天才科技有限公司 Voice interaction control method and intelligent sound box

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111182385A (en) * 2019-11-19 2020-05-19 广东小天才科技有限公司 Voice interaction control method and intelligent sound box
CN111182385B (en) * 2019-11-19 2021-08-20 广东小天才科技有限公司 Voice interaction control method and intelligent sound box

Similar Documents

Publication Publication Date Title
JP5058632B2 (en) Imaging device
US7948551B2 (en) Field sequential color camera system
CN101753843B (en) Image sensing apparatus and control method therefor
KR20100061303A (en) Photographing apparatus and method of photographing
JP2009049525A (en) Imaging apparatus and method for processing signal
US9813687B1 (en) Image-capturing device, image-processing device, image-processing method, and image-processing program
JP5273033B2 (en) Imaging apparatus and image reproduction apparatus
WO2018101077A1 (en) Imaging element, imaging method, and electronic device
JP5199736B2 (en) Imaging device
JP4120020B2 (en) Solid-state imaging device
JPWO2018207817A1 (en) Solid-state imaging device, imaging system and object identification system
US8040380B2 (en) Image-taking apparatus
JP4187512B2 (en) Imaging device
JP2010161455A (en) Infrared combined imaging device
JP2009147708A (en) Image pickup device
JP2005039365A (en) Digital camera and control method thereof
JP2009049524A (en) Imaging apparatus and method for processing signal
JP2009118430A (en) Imaging apparatus, method of driving the imaging apparatus, image generating apparatus and image generating method
JP2010161460A (en) Infrared radiation imaging device
JP2011077770A (en) Controller of solid-state imaging device and operation control method thereof
JP4130592B2 (en) Imaging apparatus and control method thereof
JP2010130590A (en) Imaging apparatus and imaging method
JP4964830B2 (en) Omnidirectional imaging apparatus and omnidirectional image imaging control method
JP5462481B2 (en) Imaging device
JP4756386B2 (en) Image capturing method for frame sequential color image and digital camera with frame sequential light emission strobe

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630