JP2021013179A - Imaging device and distance measuring device - Google Patents

Imaging device and distance measuring device Download PDF

Info

Publication number
JP2021013179A
JP2021013179A JP2020170113A JP2020170113A JP2021013179A JP 2021013179 A JP2021013179 A JP 2021013179A JP 2020170113 A JP2020170113 A JP 2020170113A JP 2020170113 A JP2020170113 A JP 2020170113A JP 2021013179 A JP2021013179 A JP 2021013179A
Authority
JP
Japan
Prior art keywords
pixel
unit
signal
photoelectric conversion
signals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020170113A
Other languages
Japanese (ja)
Other versions
JP2021013179A5 (en
Inventor
修 猿渡
Osamu Saruwatari
修 猿渡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2020170113A priority Critical patent/JP2021013179A/en
Publication of JP2021013179A publication Critical patent/JP2021013179A/en
Publication of JP2021013179A5 publication Critical patent/JP2021013179A5/en
Priority to JP2022163693A priority patent/JP2023001122A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an imaging device with high distance resolution and a wide distance measurable range.SOLUTION: An imaging device comprises: a light source unit which emits first and second modulation light to an object; an imaging element including first and second pixels which receive the first and second modulation light reflected by the object to generate a signal; a first phase difference measuring unit which measures a first phase difference between a phase of the first modulation light emitted from the light source unit and a phase of the first modulation light received by the first pixel by an output signal of the first pixel; a second phase difference measuring unit which measures a second phase difference between a phase of the second modulation light emitted from the light source unit and a phase of the second modulation light received by the second pixel by an output signal of the second pixel; a distance calculating unit which calculates the distance to the object according to the first and second phase differences; and an image data generating unit which generates image data of the object on the basis of the output signal of the first pixel and the output signal of the second pixel.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置および測距装置に関する。 The present invention relates to an imaging device and a ranging device.

対象物へ照射した光の反射光を受光することにより、対象物までの距離を測定する、光飛行時間計測法(TOF;Time of Flight)が知られている(例えば特許文献1)。この技術では、距離分解能を高くすると測距可能な範囲が短くなるという問題があった。 A light flight time measurement method (TOF; Time of Flight) is known in which the distance to an object is measured by receiving the reflected light of the light emitted to the object (for example, Patent Document 1). This technique has a problem that the range that can be measured becomes shorter as the distance resolution is increased.

特開2008−89346号公報Japanese Unexamined Patent Publication No. 2008-89346

請求項1に記載の撮像装置は、第1及び第2の変調光を対象物に放出する光源部と、前記対象物で反射した前記第1及び第2の変調光を受光して信号を生成する第1及び第2の画素を有する撮像素子と、前記第1の画素の出力信号により、前記光源部から放出された第1の変調光の位相と、前記第1の画素によって受光された第1の変調光の位相との第1の位相差を測定する第1の位相差測定部と、前記第2の画素の出力信号により、前記光源部から放出された第2の変調光の位相と、前記第2の画素によって受光された第2の変調光の位相との第2の位相差を測定する第2の位相差測定部と、前記第1及び第2の位相差によって前記対象物までの距離を算出する距離算出部と、前記第1の画素の出力信号と前記第2の画素の出力信号とに基づき、前記対象物の画像データを生成する画像データ生成部と、を備える。
請求項18に記載の測距装置は、第1及び第2の変調光を対象物に放出する光源部と、前記対象物で反射した前記第1及び第2の変調光を受光して信号を生成する第1及び第2の画素を有する撮像素子と、前記第1の画素の出力信号により、前記光源部から放出された第1の変調光の位相と、前記第1の画素によって受光された第1の変調光の位相との第1の位相差を測定する第1の位相差測定部と、前記第2の画素の出力信号により、前記光源部から放出された第2の変調光の位相と、前記第2の画素によって受光された第2の変調光の位相との第2の位相差を測定する第2の位相差測定部と、前記第1及び第2の位相差によって前記対象物までの距離を算出する距離算出部と、を備える。
The imaging device according to claim 1 generates a signal by receiving a light source unit that emits first and second modulated light to an object and the first and second modulated light reflected by the object. The phase of the first modulated light emitted from the light source unit by the image pickup element having the first and second pixels and the output signal of the first pixel, and the first received by the first pixel. The first phase difference measuring unit that measures the first phase difference with the phase of the modulated light of 1, and the phase of the second modulated light emitted from the light source unit by the output signal of the second pixel. , A second phase difference measuring unit that measures the second phase difference with the phase of the second modulated light received by the second pixel, and the object by the first and second phase differences. A distance calculation unit for calculating the distance of the object, and an image data generation unit for generating image data of the object based on the output signal of the first pixel and the output signal of the second pixel are provided.
The distance measuring device according to claim 18 receives a light source unit that emits first and second modulated light to an object and the first and second modulated light reflected by the object and receives a signal. The phase of the first modulated light emitted from the light source unit and the light received by the first pixel are received by the image pickup element having the first and second pixels to be generated and the output signal of the first pixel. The phase of the first modulated light that measures the first phase difference with the phase of the first modulated light and the phase of the second modulated light emitted from the light source unit by the output signal of the second pixel. And a second phase difference measuring unit that measures the second phase difference with the phase of the second modulated light received by the second pixel, and the object by the first and second phase differences. It is provided with a distance calculation unit for calculating the distance to.

第1の実施の形態に係る撮像装置の構成を模式的に示す断面図である。It is sectional drawing which shows typically the structure of the image pickup apparatus which concerns on 1st Embodiment. 撮像素子の構成を示す模式図である。It is a schematic diagram which shows the structure of an image sensor. 撮像素子の構成を示す回路図である。It is a circuit diagram which shows the structure of an image sensor. 変調光を模式的に示す図である。It is a figure which shows the modulated light schematically. 変調光と反射光との関係を模式的に示す図である。It is a figure which shows typically the relationship between the modulated light and the reflected light. 変調光と反射光との関係を模式的に示す図である。It is a figure which shows typically the relationship between the modulated light and the reflected light. 撮影動作を示すタイミングチャートである。It is a timing chart which shows the shooting operation. 第1検出部、第2検出部、測距部、および画像作成部の動作を説明する説明図である。It is explanatory drawing explaining the operation of the 1st detection part, the 2nd detection part, the distance measuring part, and the image creation part. 制御信号を正弦波で近似できることを示す説明図である。It is explanatory drawing which shows that the control signal can be approximated by a sine wave. 演算された位相θと真の位相Θの説明図である。It is explanatory drawing of the calculated phase θ a and the true phase Θ. 第2の実施の形態に係る撮像装置の構成を模式的に示す断面図である。It is sectional drawing which shows typically the structure of the image pickup apparatus which concerns on 2nd Embodiment. 画素の構成を示す模式図である。It is a schematic diagram which shows the structure of a pixel. 撮像素子の構成を示す回路図である。It is a circuit diagram which shows the structure of an image sensor. 撮影動作を示すタイミングチャートである。It is a timing chart which shows the shooting operation. 変調光を模式的に示す図である。It is a figure which shows the modulated light schematically. 画素のレイアウトの変形例を示す模式図である。It is a schematic diagram which shows the modification of the pixel layout. 変形例4に係る撮像素子の構成を示す回路図である。It is a circuit diagram which shows the structure of the image pickup device which concerns on modification 4. 変形例4の説明図である。It is explanatory drawing of the modification 4.

(第1の実施の形態)
図1は、第1の実施の形態に係る撮像装置の構成を模式的に示す断面図である。撮像装置1は、被写体2を撮影して、被写体2の画像データと共に、被写体2のデプスマップデータを作成する機能を有する装置である。本実施形態において、デプスマップデータとは、被写体2の部分ごとに、当該部分と撮像装置1との距離(すなわち当該部分の奥行き)を表す距離値を二次元状に配列したマップのデータである。撮像装置1を用いると、1回の撮影で、被写体2の画像データだけでなく、デプスマップデータまで同時に得ることができる。換言すると、画像データとデプスマップデータは、同一の光電変換信号から作成される。
(First Embodiment)
FIG. 1 is a cross-sectional view schematically showing the configuration of the image pickup apparatus according to the first embodiment. The image pickup device 1 is a device having a function of photographing the subject 2 and creating depth map data of the subject 2 together with the image data of the subject 2. In the present embodiment, the depth map data is map data in which distance values representing the distance between the portion and the image pickup apparatus 1 (that is, the depth of the portion) are arranged in a two-dimensional manner for each portion of the subject 2. .. When the image pickup device 1 is used, not only the image data of the subject 2 but also the depth map data can be obtained at the same time in one shooting. In other words, the image data and the depth map data are created from the same photoelectric conversion signal.

撮像装置1は、光源部10、光学系11、撮像素子12、制御部13、ROM14、表示部15、および記憶媒体16を備える。光源部10は、被写体2に対して後述する変調光3を放出する。変調光3は、送信第1変調光3aと送信第2変調光3bとを有する。変調光3は、被写体2の表面で反射し、反射光4として撮像装置1に返り、光学系11を介して撮像素子12の撮像面に入射する。反射光4は、送信第1変調光3aの反射光である受信第1変調光4aと、送信第2変調光3bの反射光である受信第2変調光4bとを含む。光学系11は、例えば複数のレンズから構成される結像光学系である。なお図1では、光学系11を簡略化して1枚のレンズとして図示している。 The image pickup device 1 includes a light source unit 10, an optical system 11, an image pickup element 12, a control unit 13, a ROM 14, a display unit 15, and a storage medium 16. The light source unit 10 emits modulated light 3, which will be described later, to the subject 2. The modulated light 3 has a transmission first modulated light 3a and a transmitting second modulated light 3b. The modulated light 3 is reflected by the surface of the subject 2, returns to the image pickup apparatus 1 as reflected light 4, and is incident on the image pickup surface of the image pickup device 12 via the optical system 11. The reflected light 4 includes a reception first modulation light 4a which is a reflected light of the transmission first modulation light 3a and a reception second modulation light 4b which is a reflected light of the transmission second modulation light 3b. The optical system 11 is, for example, an imaging optical system composed of a plurality of lenses. In FIG. 1, the optical system 11 is simplified and shown as a single lens.

制御部13は、不図示のマイクロコンピュータおよび周辺回路から構成される。制御部13は、不揮発性の記憶媒体であるROM14に予め記憶されている制御プログラムを読み込んで実行することにより、撮像装置1の各部を制御する。表示部15は、例えば液晶モニタ等の表示装置である。記憶媒体16は、例えばメモリカード等の書き換え可能な記憶媒体である。 The control unit 13 is composed of a microcomputer (not shown) and peripheral circuits. The control unit 13 controls each unit of the image pickup apparatus 1 by reading and executing a control program stored in advance in the ROM 14 which is a non-volatile storage medium. The display unit 15 is a display device such as a liquid crystal monitor. The storage medium 16 is a rewritable storage medium such as a memory card.

詳細は後述するが、撮像素子12からは光電変換信号が出力される。制御部13は、この光電変換信号に基づき画像データとデプスマップデータとを作成する。制御部13は、作成した画像データやデプスマップデータを記憶媒体16に記憶したり、これらのデータに基づく画像を表示部15に表示したりする。 Although details will be described later, a photoelectric conversion signal is output from the image sensor 12. The control unit 13 creates image data and depth map data based on the photoelectric conversion signal. The control unit 13 stores the created image data and depth map data in the storage medium 16, and displays an image based on these data on the display unit 15.

制御部13はソフトウェア形態により、第1検出部13a、第2検出部13b、測距部13c、画像作成部13d、および発光制御部13eを備える。これらの各部は、制御部13がROM14に記憶されている所定の制御プログラムを実行することにより、ソフトウェア的に実現される。これらの各部の動作については後に詳述する。 The control unit 13 includes a first detection unit 13a, a second detection unit 13b, a distance measurement unit 13c, an image creation unit 13d, and a light emission control unit 13e, depending on the software form. Each of these units is realized by software when the control unit 13 executes a predetermined control program stored in the ROM 14. The operation of each of these parts will be described in detail later.

図2(a)は、撮像素子12の構成を模式的に示す平面図であり、図2(b)は、撮像面20の一部の領域20aを拡大した模式図である。図2(b)に示すように、撮像面20には、複数の画素30が二次元状に配列されている。 FIG. 2A is a plan view schematically showing the configuration of the image sensor 12, and FIG. 2B is an enlarged schematic view of a part of the region 20a of the image pickup surface 20. As shown in FIG. 2B, a plurality of pixels 30 are arranged two-dimensionally on the imaging surface 20.

画素30には、第1画素30aと、第2画素30bと、の2種類が存在する。本実施形態では、図2(b)に示すように、第1画素30aと第2画素30bは互い違いに配列されている。つまり、第1画素30aの上下左右には第2画素30bが存在し、第2画素30bの上下左右には第1画素30aが存在するように配列されている。従って、撮像面20には、略同数の第1画素30aと第2画素30bとが一様に(均一に)配列されている。 There are two types of pixels 30, a first pixel 30a and a second pixel 30b. In the present embodiment, as shown in FIG. 2B, the first pixel 30a and the second pixel 30b are arranged alternately. That is, the second pixel 30b exists on the top, bottom, left, and right of the first pixel 30a, and the first pixel 30a exists on the top, bottom, left, and right of the second pixel 30b. Therefore, substantially the same number of first pixels 30a and second pixels 30b are uniformly (uniformly) arranged on the imaging surface 20.

図2(a)に示すように、撮像素子12は、水平走査回路21、垂直走査回路22、第1転送制御回路23a、および第2転送制御回路23bを備える。垂直走査回路22は、撮像素子12が有する複数の画素30を、1行ごとに制御する。水平走査回路21は、1行分の画素30から出力信号を順次読み出す。第1転送制御回路23aは、複数の第1画素30aについて同一タイミングで、光電変換信号をフローティングディフュージョンに転送する。第2転送制御回路23bは、複数の第2画素30bについて同一タイミングで、光電変換信号をフローティングディフュージョンに転送する。 As shown in FIG. 2A, the image pickup device 12 includes a horizontal scanning circuit 21, a vertical scanning circuit 22, a first transfer control circuit 23a, and a second transfer control circuit 23b. The vertical scanning circuit 22 controls a plurality of pixels 30 included in the image pickup device 12 line by line. The horizontal scanning circuit 21 sequentially reads output signals from the pixels 30 for one line. The first transfer control circuit 23a transfers the photoelectric conversion signal to the floating diffusion at the same timing for the plurality of first pixels 30a. The second transfer control circuit 23b transfers the photoelectric conversion signal to the floating diffusion at the same timing for the plurality of second pixels 30b.

詳細は後述するが、第1転送制御回路23aから第1画素30aに向かって出力される制御用のパルス信号と第2転送制御回路23bから第2画素30bに向かって出力される制御用のパルス信号は、異なるパルス信号である。 Although the details will be described later, a control pulse signal output from the first transfer control circuit 23a toward the first pixel 30a and a control pulse output from the second transfer control circuit 23b toward the second pixel 30b. The signals are different pulse signals.

図3は、撮像素子12の構成を示す回路図である。なお図3では、1つの画素30の回路図のみを図示している。第1画素30aおよび第2画素30bは、共に図3に示す構成を有している。以下、画素30について説明を行うが、この説明は第1画素30aおよび第2画素30bの両方についての説明である。 FIG. 3 is a circuit diagram showing the configuration of the image pickup device 12. Note that FIG. 3 shows only a circuit diagram of one pixel 30. Both the first pixel 30a and the second pixel 30b have the configuration shown in FIG. Hereinafter, the pixel 30 will be described, but this description is a description of both the first pixel 30a and the second pixel 30b.

画素30は、不図示のマイクロレンズと、マイクロレンズにより被覆された光電変換部32と、第1読出部331と、第2読出部332と、第3読出部333と、第4読出部334とを備える。マイクロレンズは、入射光(光学系11からの光束)を光電変換部32に集光する。光電変換部32は、入射光を光電変換して光量に応じた電荷を生成する。すなわち光電変換部32は、入射光を光電変換して光電変換信号を出力する。第1読出部331、第2読出部332、第3読出部333、および第4読出部334は、光電変換部32から光電変換信号を読み出す。 The pixel 30 includes a microlens (not shown), a photoelectric conversion unit 32 covered with the microlens, a first reading unit 331, a second reading unit 332, a third reading unit 333, and a fourth reading unit 334. To be equipped with. The microlens concentrates the incident light (luminous flux from the optical system 11) on the photoelectric conversion unit 32. The photoelectric conversion unit 32 photoelectrically converts the incident light to generate an electric charge according to the amount of light. That is, the photoelectric conversion unit 32 photoelectrically converts the incident light and outputs a photoelectric conversion signal. The first reading unit 331, the second reading unit 332, the third reading unit 333, and the fourth reading unit 334 read the photoelectric conversion signal from the photoelectric conversion unit 32.

第1読出部331は、転送トランジスタTX1と、リセットトランジスタRST1と、フローティングディフュージョンFD1と、増幅トランジスタAMP1と、行選択トランジスタSEL1とを有する。転送トランジスタTX1は、信号φTX1に基づき、光電変換部32により出力された光電変換信号(光電変換部32により生成された電荷)をフローティングディフュージョンFD1に転送する。リセットトランジスタRST1は、信号φRSTに基づき、フローティングディフュージョンFD1をリセットする。増幅トランジスタAMP1は、フローティングディフュージョンFD1に蓄積されている電荷の量に応じた信号を出力する。行選択トランジスタSEL1は、信号φSELに基づき、増幅トランジスタAMP1から出力された信号を垂直信号線V1に出力する。以下の説明では、垂直信号線V1に出力される信号を、出力信号Nと称する。 The first reading unit 331 includes a transfer transistor TX1, a reset transistor RST1, a floating diffusion FD1, an amplification transistor AMP1, and a row selection transistor SEL1. The transfer transistor TX1 transfers the photoelectric conversion signal (charge generated by the photoelectric conversion unit 32) output by the photoelectric conversion unit 32 to the floating diffusion FD1 based on the signal φTX1. The reset transistor RST1 resets the floating diffusion FD1 based on the signal φRST. The amplification transistor AMP1 outputs a signal corresponding to the amount of electric charge stored in the floating diffusion FD1. The row selection transistor SEL1 outputs the signal output from the amplification transistor AMP1 to the vertical signal line V1 based on the signal φSEL. In the following description, a signal output to the vertical signal line V1, referred to as the output signal N 1.

第2読出部332は、転送トランジスタTX2と、リセットトランジスタRST2と、フローティングディフュージョンFD2と、増幅トランジスタAMP2と、行選択トランジスタSEL2とを有する。転送トランジスタTX2は、信号φTX2に基づき、光電変換部32により出力された光電変換信号(光電変換部32により生成された電荷)をフローティングディフュージョンFD2に転送する。リセットトランジスタRST2は、信号φRSTに基づき、フローティングディフュージョンFD2をリセットする。増幅トランジスタAMP2は、フローティングディフュージョンFD2に蓄積されている電荷の量に応じた信号を出力する。行選択トランジスタSEL2は、信号φSELに基づき、増幅トランジスタAMP2から出力された信号を垂直信号線V2に出力する。以下の説明では、垂直信号線V2に出力される信号を、出力信号Nと称する。 The second reading unit 332 includes a transfer transistor TX2, a reset transistor RST2, a floating diffusion FD2, an amplification transistor AMP2, and a row selection transistor SEL2. Based on the signal φTX2, the transfer transistor TX2 transfers the photoelectric conversion signal (charge generated by the photoelectric conversion unit 32) output by the photoelectric conversion unit 32 to the floating diffusion FD2. The reset transistor RST2 resets the floating diffusion FD2 based on the signal φRST. The amplification transistor AMP2 outputs a signal corresponding to the amount of electric charge stored in the floating diffusion FD2. The row selection transistor SEL2 outputs the signal output from the amplification transistor AMP2 to the vertical signal line V2 based on the signal φSEL. In the following description, a signal output to the vertical signal lines V2, referred to as the output signal N 2.

第3読出部333は、転送トランジスタTX3と、リセットトランジスタRST3と、フローティングディフュージョンFD3と、増幅トランジスタAMP3と、行選択トランジスタSEL3とを有する。転送トランジスタTX3は、信号φTX3に基づき、光電変換部32により出力された光電変換信号(光電変換部32により生成された電荷)をフローティングディフュージョンFD3に転送する。リセットトランジスタRST3は、信号φRSTに基づき、フローティングディフュージョンFD3をリセットする。増幅トランジスタAMP3は、フローティングディフュージョンFD3に蓄積されている電荷の量に応じた信号を出力する。行選択トランジスタSEL3は、信号φSELに基づき、増幅トランジスタAMP3から出力された信号を垂直信号線V3に出力する。以下の説明では、垂直信号線V3に出力される信号を、出力信号Nと称する。 The third reading unit 333 includes a transfer transistor TX3, a reset transistor RST3, a floating diffusion FD3, an amplification transistor AMP3, and a row selection transistor SEL3. Based on the signal φTX3, the transfer transistor TX3 transfers the photoelectric conversion signal (charge generated by the photoelectric conversion unit 32) output by the photoelectric conversion unit 32 to the floating diffusion FD3. The reset transistor RST3 resets the floating diffusion FD3 based on the signal φRST. The amplification transistor AMP3 outputs a signal corresponding to the amount of electric charge stored in the floating diffusion FD3. The row selection transistor SEL3 outputs the signal output from the amplification transistor AMP3 to the vertical signal line V3 based on the signal φSEL. In the following description, a signal output to the vertical signal line V3, referred to as the output signal N 3.

第4読出部334は、転送トランジスタTX4と、リセットトランジスタRST4と、フローティングディフュージョンFD4と、増幅トランジスタAMP4と、行選択トランジスタSEL4とを有する。転送トランジスタTX4は、信号φTX4に基づき、光電変換部32により出力された光電変換信号(光電変換部32により生成された電荷)をフローティングディフュージョンFD4に転送する。リセットトランジスタRST4は、信号φRSTに基づき、フローティングディフュージョンFD4をリセットする。増幅トランジスタAMP4は、フローティングディフュージョンFD4に蓄積されている電荷の量に応じた信号を出力する。行選択トランジスタSEL4は、信号φSELに基づき、増幅トランジスタAMP4から出力された信号を垂直信号線V4に出力する。以下の説明では、垂直信号線V4に出力される信号を、出力信号Nと称する。 The fourth reading unit 334 includes a transfer transistor TX4, a reset transistor RST4, a floating diffusion FD4, an amplification transistor AMP4, and a row selection transistor SEL4. Based on the signal φTX4, the transfer transistor TX4 transfers the photoelectric conversion signal (charge generated by the photoelectric conversion unit 32) output by the photoelectric conversion unit 32 to the floating diffusion FD4. The reset transistor RST4 resets the floating diffusion FD4 based on the signal φRST. The amplification transistor AMP4 outputs a signal according to the amount of electric charge stored in the floating diffusion FD4. The row selection transistor SEL4 outputs the signal output from the amplification transistor AMP4 to the vertical signal line V4 based on the signal φSEL. In the following description, a signal output to the vertical signal lines V4, referred to as the output signal N 4.

なお、本実施形態において、信号φSELは行ごとに独立して画素30に入力される。以下の説明において、n行目の画素30に入力される信号φSELを、信号φSEL(n)と表記する。例えば、信号φSEL(1)は、1行目の画素30に入力される信号を示す。一方、信号φRSTについては、全ての画素30に同一の信号が入力される。信号φTX1、信号φTX2、信号φTX3、信号φTX4については、第1画素30aと第2画素30bとでそれぞれ異なる信号が入力される。各信号については後に詳述する。 In this embodiment, the signal φSEL is input to the pixel 30 independently for each row. In the following description, the signal φSEL input to the pixel 30 on the nth line is referred to as a signal φSEL (n). For example, the signal φSEL (1) indicates a signal input to the pixel 30 on the first line. On the other hand, for the signal φRST, the same signal is input to all the pixels 30. For the signal φTX1, the signal φTX2, the signal φTX3, and the signal φTX4, different signals are input to the first pixel 30a and the second pixel 30b. Each signal will be described in detail later.

図4は、光源部10から放出される変調光3を模式的に示す図である。なお、図4の横軸は時間を表し、縦軸は光強度を表している。変調光3は、送信第1変調光3aと送信第2変調光3bとを重畳した可視光である。送信第1変調光3aは、振幅A、周期Tの正弦波として変調された光である。送信第1変調光3aの周波数fは、1/Tである。以下の説明では、送信第1変調光3aの振幅A、周期T、周波数fを、それぞれ第1振幅A、第1周期T、第1周波数fと称する。 FIG. 4 is a diagram schematically showing the modulated light 3 emitted from the light source unit 10. The horizontal axis of FIG. 4 represents time, and the vertical axis represents light intensity. The modulated light 3 is visible light in which the first transmitted modulated light 3a and the second transmitted modulated light 3b are superimposed. Transmitting the first modulated light 3a is the amplitude A a, light modulated as a sine wave of period T a. Frequency f a of the transmitting first modulated light 3a is 1 / T a. In the following description, the amplitude A a transmission first modulated beams 3a, period T a, the frequency f a, the first amplitude A a, respectively, the first period T a, referred to as a first frequency f a.

送信第2変調光3bは、振幅A、周期Tの正弦波として変調された光である。送信第2変調光3bの周波数fbは、1/Tである。以下の説明では、送信第2変調光3bの振幅A、周期T、周波数fを、それぞれ第2振幅A、第2周期T、第2周波数fと称する。第1周期Tは、第2周期Tよりも短い(例えば、T≒T/7)。換言すると、第1周波数fは、第2周波数fよりも高い。 The second transmitted modulated light 3b is light modulated as a sine wave having an amplitude Ab and a period T b . The frequency fb of the transmission second modulated light 3b is 1 / T b . In the following description, the amplitude A b , the period T b , and the frequency f b of the transmission second modulated light 3 b are referred to as the second amplitude Ab , the second period T b , and the second frequency f b , respectively. The first period T a is shorter than the second period T b (for example, Ta ≈ T b / 7). In other words, the first frequency f a is higher than the second frequency f b.

図5は、光源部10から放出される変調光3と、撮像素子12の撮像面に入射する反射光4との関係を模式的に示す図である。図1に模式的に示したように、反射光4には、受信第1変調光4aと、受信第2変調光4bとが含まれる。受信第1変調光4aおよび受信第2変調光4bは、変調光3を放出した時刻から、被写体2の距離に応じた時間が経過した後に、撮像素子12に入射する。以下の説明では、この被写体2の距離に応じた時間を、遅れ時間と呼ぶ。遅れ時間によって、送信第1変調光3aと受信第1変調光4aとの間には、位相差θaが生じ、送信第2変調光3bと受信第2変調光4bとの間には、位相差θbが生じる。図5に示すように、遅れ時間が第1周期T未満である場合、位相差θaが表す遅れ時間と位相差θbが表す遅れ時間は同一である。 FIG. 5 is a diagram schematically showing the relationship between the modulated light 3 emitted from the light source unit 10 and the reflected light 4 incident on the image pickup surface of the image pickup device 12. As schematically shown in FIG. 1, the reflected light 4 includes a first received modulated light 4a and a second received modulated light 4b. The first received modulated light 4a and the second received modulated light 4b enter the image sensor 12 after a time corresponding to the distance of the subject 2 has elapsed from the time when the modulated light 3 is emitted. In the following description, the time corresponding to the distance of the subject 2 is referred to as a delay time. Due to the delay time, a phase difference θa is generated between the transmission first modulation light 3a and the reception first modulation light 4a, and a phase difference between the transmission second modulation light 3b and the reception second modulation light 4b. θb is generated. As shown in FIG. 5, if the delay time is less than the first period T a, the delay time represented by the delay time and the phase difference θb representing the phase difference θa are the same.

図6は、被写体2がより遠くにある場合の、光源部10から放出される変調光3と、撮像素子12の撮像面に入射する反射光4との関係を模式的に示す図である。図6に示すように、遅れ時間が第1周期T以上である場合、位相差θは、見かけ上、真の位相差Θに比べて小さくなる。換言すると、Θ=2πn×θである(nは0以上の整数)。つまり、遅れ時間が第1周期T以上である場合、位相差θが表す遅れ時間と位相差θが表す遅れ時間は異なる値となる。 FIG. 6 is a diagram schematically showing the relationship between the modulated light 3 emitted from the light source unit 10 and the reflected light 4 incident on the image pickup surface of the image pickup device 12 when the subject 2 is farther away. As shown in FIG. 6, if the delay time is the first period T a or more, the phase difference theta a is apparently smaller than the true phase difference theta. In other words, Θ = 2πn × θ a (n is an integer greater than or equal to 0). That is, if the delay time is the first period T a or more, the delay time represented by the phase difference theta a and the phase difference theta b represents delay time are different values.

図7は、撮影動作を示すタイミングチャートである。制御部13は、撮影動作に際し、撮像素子12に画素30をリセットさせる。垂直走査回路22は、制御部13からの信号をもとに、時刻t1に制御用のパルス信号である信号φRSTを出力する。前述の通り、信号φRSTは全ての画素30に対して出力される。これにより、全ての画素30がリセットされる。 FIG. 7 is a timing chart showing a shooting operation. The control unit 13 causes the image sensor 12 to reset the pixels 30 during the shooting operation. The vertical scanning circuit 22 outputs a signal φRST, which is a control pulse signal, at time t1 based on the signal from the control unit 13. As described above, the signal φRST is output for all pixels 30. As a result, all the pixels 30 are reset.

リセットが完了した時刻t2に、発光制御部13eが、光源部10に、変調光3の放出を開始させる。光源部10による変調光3の放出に同期して、時刻t2に、第1転送制御回路23aおよび第2転送制御回路23bが、制御用のパルス信号である信号φTX1、信号φTX2、信号φTX3、および信号φTX4の出力を開始する。発光制御部13eは、送信第1変調光3aが極大となる位置p1と、第1転送制御回路23aから第1画素30aに対して出力される信号φTX1のパルスの中心位置p2とが一致するように、光源部10を制御する。発光制御部13eは、送信第2変調光3bが極大となる位置p3と、第2転送制御回路23bから第2画素30bに対して出力される信号φTX1のパルスの中心位置p4とが一致するように、光源部10を制御する。すなわち発光制御部13eは、変調光3と信号φTX1、信号φTX2、信号φTX3、および信号φTX4とを同期させる。 At the time t2 when the reset is completed, the light emission control unit 13e causes the light source unit 10 to start emitting the modulated light 3. Synchronized with the emission of the modulated light 3 by the light source unit 10, at time t2, the first transfer control circuit 23a and the second transfer control circuit 23b are pulse signals for control, signal φTX1, signal φTX2, signal φTX3, and The output of the signal φTX4 is started. In the light emission control unit 13e, the position p1 at which the transmission first modulated light 3a is maximized coincides with the pulse center position p2 of the signal φTX1 output from the first transfer control circuit 23a to the first pixel 30a. In addition, the light source unit 10 is controlled. In the light emission control unit 13e, the position p3 at which the transmission second modulated light 3b is maximized coincides with the pulse center position p4 of the signal φTX1 output from the second transfer control circuit 23b to the second pixel 30b. In addition, the light source unit 10 is controlled. That is, the light emission control unit 13e synchronizes the modulated light 3 with the signal φTX1, the signal φTX2, the signal φTX3, and the signal φTX4.

第1転送制御回路23aは、第1画素30aに対して、信号φTX1、信号φTX2、信号φTX3、および信号φTX4を出力する。第1転送制御回路23aは、時刻t2から送信第1変調光3aの周期Tだけ後の時刻t3までの期間を4つの期間に分割し、それら4つの期間において、信号φTX1、信号φTX2、信号φTX3、および信号φTX4をオンする。第1転送制御回路23aは、露光期間Teの間、上述した信号φTX1、信号φTX2、信号φTX3、および信号φTX4を繰り返し出力する。 The first transfer control circuit 23a outputs a signal φTX1, a signal φTX2, a signal φTX3, and a signal φTX4 to the first pixel 30a. The first transfer control circuit 23a divides the period from time t2 to time t3 after only period T a of the transmitting the first modulated light 3a into four periods, in their four periods, signal .phi.TX1, signal FaiTX2, signal Turn on φTX3 and the signal φTX4. The first transfer control circuit 23a repeatedly outputs the above-mentioned signal φTX1, signal φTX2, signal φTX3, and signal φTX4 during the exposure period Te.

第2転送制御回路23bは、第2画素30bに対して、信号φTX1、信号φTX2、信号φTX3、および信号φTX4を出力する。第2転送制御回路23bは、時刻t2から送信第2変調光3bの周期Tだけ後の時刻t4までの期間を4つの期間に分割し、それら4つの期間において、信号φTX1、信号φTX2、信号φTX3、および信号φTX4をオンする。第2転送制御回路23bは、露光期間Teの間、上述した信号φTX1、信号φTX2、信号φTX3、および信号φTX4を繰り返し出力する。 The second transfer control circuit 23b outputs the signal φTX1, the signal φTX2, the signal φTX3, and the signal φTX4 to the second pixel 30b. Second transfer control circuit 23b divides the period from time t2 to time t4 after only period T b of the transmission second modulated light 3b into four periods, in their four periods, signal .phi.TX1, signal FaiTX2, signal Turn on φTX3 and the signal φTX4. The second transfer control circuit 23b repeatedly outputs the above-mentioned signal φTX1, signal φTX2, signal φTX3, and signal φTX4 during the exposure period Te.

時刻t2から露光期間Teだけ後の時刻t5に、発光制御部13eは、光源部10に、変調光3の放出を停止させる。変調光3の放出停止に同期して、時刻t5に、第1転送制御回路23aおよび第2転送制御回路23bが、信号φTX1、信号φTX2、信号φTX3、および信号φTX4の出力を停止する。時刻t5の時点で、画素30のフローティングディフュージョンFD1、フローティングディフュージョンFD2、フローティングディフュージョンFD3、およびフローティングディフュージョンFD4には、それぞれ光電変換部32により生成された電荷が蓄積されている。 At time t5, which is only the exposure period Te after time t2, the light emission control unit 13e causes the light source unit 10 to stop the emission of the modulated light 3. At time t5, the first transfer control circuit 23a and the second transfer control circuit 23b stop the output of the signal φTX1, the signal φTX2, the signal φTX3, and the signal φTX4 in synchronization with the emission stop of the modulated light 3. At time t5, the electric charges generated by the photoelectric conversion unit 32 are accumulated in the floating diffusion FD1, the floating diffusion FD2, the floating diffusion FD3, and the floating diffusion FD4 of the pixel 30, respectively.

換言すると、時刻t2から時刻t5までの期間に光電変換部32に入射した反射光4(受信第1変調光4aおよび受信第2変調光4bを含む)から光電変換された電荷は、細かな期間ごとに個別にフローティングディフュージョンFD1〜FD4へ転送される。例えばフローティングディフュージョンFD1には、信号φTX1がオンである期間に光電変換部32で光電変換された電荷が転送される。 In other words, the charge photoelectrically converted from the reflected light 4 (including the first received modulated light 4a and the second received modulated light 4b) incident on the photoelectric conversion unit 32 during the period from time t2 to time t5 is a fine period. Each is individually transferred to the floating diffusion FD1 to FD4. For example, the electric charge converted photoelectric by the photoelectric conversion unit 32 is transferred to the floating diffusion FD1 while the signal φTX1 is on.

時刻t5以降、水平走査回路21および垂直走査回路22は、出力信号N〜Nの読み出しを開始する。出力信号N〜Nの読み出しは、行ごとに行われる。まず時刻t5に、垂直走査回路22が、1行目の画素30に対して制御用のパルス信号である信号φSEL(1)を出力する。これにより、垂直信号線V1〜V4に、1行目の画素30の各々からの出力信号N〜Nが出力される。信号φSEL(1)が出力されている間に、水平走査回路21が、1行目の画素30の各々からの出力信号N〜Nを1つずつ、制御部13に出力する。1行目の画素30の全てについて出力信号N〜Nが制御部13に出力されると、次に垂直走査回路22が、2行目の画素30に対して信号φSEL(2)を出力する。これにより、垂直信号線V1〜V4に、2行目の画素30の各々からの出力信号N〜Nが出力される。信号φSEL(2)が出力されている間に、水平走査回路21が、2行目の画素30の各々からの出力信号N〜Nを1つずつ、制御部13に出力する。水平走査回路21および垂直走査回路22は、全ての行について以上の動作を繰り返すことで、全ての画素30からの出力信号N〜Nを制御部13に出力する。 After time t5, the horizontal scanning circuit 21 and the vertical scanning circuit 22 start reading the output signals N 1 to N 4 . The output signals N 1 to N 4 are read out line by line. First, at time t5, the vertical scanning circuit 22 outputs a signal φSEL (1), which is a control pulse signal, to the pixel 30 in the first row. As a result, the output signals N 1 to N 4 from each of the pixels 30 in the first line are output to the vertical signal lines V1 to V4. While the signal φSEL (1) is being output, the horizontal scanning circuit 21 outputs the output signals N 1 to N 4 from each of the pixels 30 in the first row to the control unit 13 one by one. When the output signals N 1 to N 4 are output to the control unit 13 for all the pixels 30 in the first row, the vertical scanning circuit 22 then outputs the signal φSEL (2) to the pixels 30 in the second row. To do. As a result, the output signals N 1 to N 4 from each of the pixels 30 in the second line are output to the vertical signal lines V1 to V4. While the signal φSEL (2) is being output, the horizontal scanning circuit 21 outputs the output signals N 1 to N 4 from each of the pixels 30 in the second row to the control unit 13 one by one. The horizontal scanning circuit 21 and the vertical scanning circuit 22 repeat the above operations for all the rows to output the output signals N 1 to N 4 from all the pixels 30 to the control unit 13.

次に、第1検出部13a、第2検出部13b、測距部13c、および画像作成部13dの動作について説明する。図8は、第1検出部13a、第2検出部13b、測距部13c、および画像作成部13dの動作を説明する説明図である。被写体2に対して放出された変調光3は、被写体2により反射され、背景光と共に反射光4として第1画素30aおよび第2画素30bに入射する。第1画素30aおよび第2画素30bは、出力信号N〜Nを出力する。第1検出部13aは、第1画素30aの出力信号N〜Nから後述するz、θ、Aを演算する。第2検出部13bは、第2画素30bの出力信号N〜Nから後述するz、θ、Aを演算する。測距部13cは、第1検出部13aおよび第2検出部13bによる演算結果に基づき、被写体2のデプスマップデータを作成する。画像作成部13dは、第1画素30aおよび第2画素30bの出力信号N〜Nから、被写体2の画像データを作成する。以下、これらの動作について詳述する。 Next, the operations of the first detection unit 13a, the second detection unit 13b, the distance measurement unit 13c, and the image creation unit 13d will be described. FIG. 8 is an explanatory diagram illustrating the operations of the first detection unit 13a, the second detection unit 13b, the distance measurement unit 13c, and the image creation unit 13d. The modulated light 3 emitted to the subject 2 is reflected by the subject 2 and is incident on the first pixel 30a and the second pixel 30b as the reflected light 4 together with the background light. The first pixel 30a and the second pixel 30b output output signals N 1 to N 4 . The first detection unit 13a calculates z a , θ a , and A a, which will be described later, from the output signals N 1 to N 4 of the first pixel 30 a. The second detection unit 13b, z b, calculates the theta b, A b, which will be described later, from the output signal N 1 to N 4 of the second pixel 30b. The ranging unit 13c creates depth map data of the subject 2 based on the calculation results of the first detection unit 13a and the second detection unit 13b. Image creating unit 13d, the output signal N 1 to N 4 of the first pixel 30a and a second pixel 30b, to create the image data of the object 2. Hereinafter, these operations will be described in detail.

既述の通り、光源部10は、被写体2に対し、送信第1変調光3aと送信第2変調光3bとを重畳した変調光3を放出する。変調光3は、被写体2の表面で反射して反射光4となり、撮像素子12が有する第1画素30aや第2画素30bに入射する。ただし、被写体2には変調光3とは別に、太陽等の光源からの背景光も照射されているので、反射光4には、受信第1変調光4aおよび受信第2変調光4b以外に、種々の背景光の反射光も含まれる。 As described above, the light source unit 10 emits the modulated light 3 in which the transmission first modulation light 3a and the transmission second modulation light 3b are superimposed to the subject 2. The modulated light 3 is reflected by the surface of the subject 2 to become reflected light 4, and is incident on the first pixel 30a and the second pixel 30b of the image pickup device 12. However, since the subject 2 is also irradiated with background light from a light source such as the sun in addition to the modulated light 3, the reflected light 4 includes the received first modulated light 4a and the received second modulated light 4b. Reflected light of various background lights is also included.

第1画素30aは、反射光4を光電変換し、上述した出力信号N〜Nを出力する。同様に、第2画素30bも、反射光4を光電変換し、上述した出力信号N〜Nを出力する。 The first pixel 30a photoelectrically converts the reflected light 4 and outputs the above-mentioned output signals N 1 to N 4 . Similarly, the second pixel 30b also photoelectrically converts the reflected light 4 and outputs the above-mentioned output signals N 1 to N 4 .

第1検出部13aは、第1画素30aから出力された出力信号N〜Nに基づいて、後述する出力値zを演算する。出力値zは、反射光4に含まれる受信第1変調光4aの光電変換結果を複素数化した値である。出力値zからは、反射光4に含まれる受信第1変調光4aの第1振幅Aと、受信第1変調光4aの送信第1変調光3aに対する位相差θとが算出される。ただし、詳細は後述するが、ここで算出される位相差θは、受信第1変調光4aの送信第1変調光3aに対する真の位相差Θと異なっている可能性があるので、測距部13cは、別途補正を行う。 The first detection unit 13a calculates an output value z a, which will be described later, based on the output signals N 1 to N 4 output from the first pixel 30 a. The output value z a is a complex numbered value of the photoelectric conversion result of the received first modulated light 4a included in the reflected light 4. From the output value z a , the first amplitude A a of the received first modulated light 4a included in the reflected light 4 and the phase difference θ a of the received first modulated light 4a with respect to the transmitted first modulated light 3 a are calculated. .. However, although the details will be described later, the phase difference θ a calculated here may be different from the true phase difference Θ of the received first modulated light 4a with respect to the transmitted first modulated light 3a. Part 13c is corrected separately.

第1検出部13aは、それぞれの第1画素30aから出力された出力信号N〜Nに基づいて、第1画素30aごとに出力値zを演算する。第1検出部13aは、各々の第1画素30aにおける複数の出力値zを演算する。 The first detection unit 13a calculates an output value z a for each of the first pixels 30a based on the output signals N 1 to N 4 output from the respective first pixels 30 a. The first detection unit 13a calculates a plurality of output values za in each first pixel 30a.

第2検出部13bは、第2画素30bから出力された出力信号N〜Nに基づいて、後述する出力値zを演算する。出力値zは、反射光4に含まれる受信第2変調光4bの光電変換結果を複素数化した値である。出力値zからは、反射光4に含まれる受信第2変調光4bの第2振幅Aと、受信第2変調光4bの送信第2変調光3bに対する位相差θとが算出される。 The second detection unit 13b calculates an output value z b, which will be described later, based on the output signals N 1 to N 4 output from the second pixel 30 b . The output value z b is a complex numbered value of the photoelectric conversion result of the received second modulated light 4b included in the reflected light 4. From the output value z b, a second amplitude A b of the received second modulated light 4b, a phase difference theta b for transmitting the second modulated light 3b of the received second modulated light 4b is calculated to be contained in the reflected light 4 ..

第2検出部13bは、それぞれの第2画素30bから出力された出力信号N〜Nに基づいて、第2画素30bごとに出力値zを演算する。第2検出部13bは、各々の第2画素30bにおける複数の出力値zを演算する。 The second detection unit 13b calculates an output value z b for each second pixel 30b based on the output signals N 1 to N 4 output from the respective second pixels 30 b . The second detection unit 13b calculates a plurality of output values z b in each of the second pixels 30 b .

測距部13cは、第2検出部13bにより演算された出力値zを用いて後述する演算を行うことで、第1検出部13aにより検出された位相差θを補正し、真の位相差Θを演算する。そして、この真の位相差Θを用いて後述する演算を行うことにより、1つの画素30に対応する被写体部分の撮像装置1からの距離L(奥行きL)を算出する。測距部13cは、全ての画素30について奥行きLを算出することにより、被写体部分ごとの奥行きLを二次元状にマップしたデプスマップデータを作成する。 The distance measuring unit 13c corrects the phase difference θ a detected by the first detecting unit 13a by performing an operation described later using the output value z b calculated by the second detecting unit 13 b , and is the true position. Calculate the phase difference Θ. Then, the distance L (depth L) of the subject portion corresponding to one pixel 30 from the imaging device 1 is calculated by performing the calculation described later using this true phase difference Θ. The distance measuring unit 13c creates depth map data in which the depth L of each subject portion is two-dimensionally mapped by calculating the depth L for all the pixels 30.

画像作成部13dは、第1画素30aから出力された出力信号N〜Nと、第2画素30bから出力された出力信号N〜Nとに基づいて、被写体2の画像データを作成する。詳細は後述するが、画像作成部13dは、ある第1画素30aから出力された出力信号N〜Nに基づいて、当該第1画素30aに対応する画素値を決定する。また、画像作成部13dは、ある第2画素30bから出力された出力信号N〜Nに基づいて、当該第2画素30bに対応する画素値を決定する。このように、画像作成部13dは、画素30ごとに、その画素30から出力された出力信号N〜Nに基づき、その画素30の画素値を決定する。 Image creating unit 13d, and the output signal N 1 to N 4 output from the first pixel 30a, on the basis of an output signal N 1 to N 4 output from the second pixel 30b, create image data of the object 2 To do. Although details will be described later, the image creating unit 13d, based on the output signal N 1 to N 4 output from the first pixel 30a in to determine the pixel value corresponding to the first pixel 30a. Further, the image creating unit 13d, based on the output signal N 1 to N 4 output from the second pixel 30b that determines the pixel values corresponding to the second pixel 30b. In this way, the image creation unit 13d determines the pixel value of the pixel 30 for each pixel 30 based on the output signals N 1 to N 4 output from the pixel 30.

次に、第1検出部13aによる出力値zの演算方法について説明する。第1検出部13aは、時刻t2〜t5の期間に第1画素30aが光電変換した結果出力された出力信号N〜Nに基づき、反射光4光電変換結果から受信第1変調光4aの光電変換結果、すなわち第1周波数fを有する入射光の光電変換結果を検出する。出力信号N(i=1〜4)は、次式(1)のように表すことができる。 Next, a method of calculating the output value za by the first detection unit 13a will be described. First detecting unit 13a, a first pixel 30a in a period of time t2~t5 is based on the output signal N 1 to N 4 output result of the photoelectric conversion, the reflected light 4 photoelectric conversion result from the received first modulated light 4a photoelectric conversion result, i.e. to detect a photoelectric conversion result of the incident light having a first frequency f a. The output signal Ni (i = 1 to 4) can be expressed as the following equation (1).

Figure 2021013179
Figure 2021013179

ここで、ηは撮像素子12の感度、φ(t)は反射光4の強度である。また、g(t)は、図7に図示した信号φTXi(φTX1〜φTX4)である。例えばg(t)は、信号φTX1がオンであるときに1、それ以外のときに0となる関数である。上式(1)から、N−Nは、次式(2)のようになる。 Here, η is the sensitivity of the image sensor 12, and φ R (t) is the intensity of the reflected light 4. Further, g i (t) is a signal φTXi illustrated in FIG. 7 (φTX1~φTX4). For example, g 1 (t) is a function that becomes 1 when the signal φTX1 is on and 0 at other times. From the above equation (1), N 1 −N 3 becomes as in the following equation (2).

Figure 2021013179
Figure 2021013179

図9に示すように、g(t)−g(t)は、0を中心として+1〜−1の区間で振動する信号となる。これは、時刻t2〜t3の期間を周期とする正弦波(すなわち周期Tの正弦波)cos2πftで近似することができる。また、反射光4は、受信第1変調光4a、受信第2変調光4b、およびその他の背景光を足し合わせた光であるので、次式(3)で表すことができる。 As shown in FIG. 9, g 1 (t) −g 3 (t) is a signal that oscillates in the section of +1 to -1 with 0 as the center. This period of time t2~t3 can be approximated by cos2πf a t (sine wave or period T a) sine wave having a period. Further, since the reflected light 4 is light obtained by adding the received first modulated light 4a, the received second modulated light 4b, and other background light, it can be expressed by the following equation (3).

Figure 2021013179
Figure 2021013179

上式(3)は、k種類の光を重ね合わせた光を表現する式であり、それらのうちある1種類は受信第1変調光4a、別の1種類は受信第2変調光4b、残りは背景光である。上式(3)においてf(f、f、f、…)は、反射光4に含まれる各々の光の周波数、A(A、A、A、…)は各々の光の振幅である。また、Δtは、光源部10から変調光3が投射された時刻と反射光4が第1画素30aに入射した時刻との差、すなわち遅れ時間である。 The above equation (3) is an equation expressing light obtained by superimposing k types of light, one of which is the received first modulated light 4a, the other one is the received second modulated light 4b, and the rest. Is the background light. In the above equation (3), f k (f 0 , f 1 , f 2 , ...) Is the frequency of each light contained in the reflected light 4, and Ak (A 0 , A 1 , A 2 , ...) Is each. Is the amplitude of light. Further, Δt is the difference between the time when the modulated light 3 is projected from the light source unit 10 and the time when the reflected light 4 is incident on the first pixel 30a, that is, the delay time.

(t)−g(t)を正弦波で近似し、更に上式(3)を導入すると、N−Nは次式(4)で表すことができる。 If g 1 (t) -g 3 (t) is approximated by a sine wave and the above equation (3) is introduced, N 1 − N 3 can be expressed by the following equation (4).

Figure 2021013179
Figure 2021013179

ここで、次式(5)で表すように、異なる周波数の正弦波(周波数fの正弦波と周波数fの正弦波)同士の積を積分した結果は、0と見なすことができる。 Here, as expressed by the following equation (5), the result obtained by integrating the product of each other (sine wave of the sine wave and the frequency f p of the frequency f k) sine wave having a different frequency can be regarded as zero.

Figure 2021013179
Figure 2021013179

これを上式(4)に当てはめると、反射光4に含まれる多数の光に関する項のうち、第1周波数fの光(すなわち受信第1変調光4a)に関する項のみが残り(他の光に関する項は0になるため)、最終的にN−Nは次式(6)で表されることになる。 Applying this to the above equation (4), of the term for a number of light included in the reflected light 4, light only the term relates to an optical (i.e. receiving the first modulated light 4a) the remaining (other first frequency f a Since the term related to is 0), N 1 to N 3 is finally expressed by the following equation (6).

Figure 2021013179
Figure 2021013179

つまり、出力信号Nから出力信号Nを減算すると、反射光4の光電変換結果から受信第1変調光4aの光電変換結果のみを抽出することができる。以上で説明した出力信号Nと出力信号Nへの演算を、出力信号Nと出力信号Nを対象にして同様に行うと、N−Nは次式(7)で表される。 That is, when the output signal N 3 is subtracted from the output signal N 1, only the photoelectric conversion result of the received first modulated light 4a can be extracted from the photoelectric conversion result of the reflected light 4. When the operations on the output signal N 1 and the output signal N 3 described above are performed in the same manner for the output signal N 2 and the output signal N 4 , N 2- N 4 is expressed by the following equation (7). To.

Figure 2021013179
Figure 2021013179

ここで、上式(6)、(7)を複素数化したものが、出力値zである。出力値zは、次式(8)で表される。 Here, the complex number of the above equations (6) and (7) is the output value z a . The output value z a is represented by the following equation (8).

Figure 2021013179
Figure 2021013179

つまり、出力値zは、第1画素30aの反射光4の受光出力、すなわち出力信号N〜Nから、受信第1変調光4aに相当する値のみを抽出した値である。 That is, the output value z a is a value obtained by extracting only the value corresponding to the received first modulated light 4 a from the received output of the reflected light 4 of the first pixel 30 a, that is, the output signals N 1 to N 4 .

第1検出部13aが検出した出力値zを、次式(9)に当てはめれば、第1画素30aに対応する被写体部分の距離Lを算出することができる。なお、次式(9)において、cは光速である。また、argzは出力値zの偏角、すなわち送信第1変調光3aと受信第1変調光4aとの位相差θである。 The output value z a first detection unit 13a detects, if Atehamere the following equation (9) can calculate the distance L of the object part corresponding to the first pixel 30a. In the following equation (9), c is the speed of light. Further, argz a is an argument of the output value z a , that is, a phase difference θ a between the transmission first modulation light 3a and the reception first modulation light 4a.

Figure 2021013179
Figure 2021013179

しかしながら、第1検出部13aによって検出された出力値zだけでは、距離Lを正確に算出することができない。これは、図6を用いて説明したように、遅れ時間Δtが大きくなると、位相差θ(すなわち出力値zの偏角argz)が1つの値に定まらないためである。遅れ時間Δtが十分に小さいことを前提にするのであれば、図5に示したように、位相差θは2π未満であるという前提をおくことができる。これに対し、遅れ時間Δtが大きい可能性を考慮しなければならない場合、すなわち位相差θが2π以上である可能性を考慮しなければならない場合には、演算により求められた位相差θが、何周期ずれたものであるかが判別できない。換言すると、送信第1変調光3aと受信第1変調光4aとの真の位相差Θは、演算により求められた位相差θに、2πの整数倍を加えたものである可能性がある。 However, only the output value z a, which is detected by the first detector 13a, it is impossible to accurately calculate the distance L. This is because, as described with reference to FIG. 6, the delay time Δt is increased, because the phase difference theta a (i.e. declination argz a output value z a) is not determined to a single value. Assuming that the delay time Δt is sufficiently small, it can be assumed that the phase difference θ a is less than 2π, as shown in FIG. On the other hand, when the possibility that the delay time Δt is large must be considered, that is, the possibility that the phase difference θ a is 2π or more must be considered, the phase difference θ a obtained by calculation must be considered. However, it is not possible to determine how many cycles the deviation is. In other words, the true phase difference Θ between the transmission first modulation light 3a and the reception first modulation light 4a may be the phase difference θ a obtained by calculation plus an integral multiple of 2π. ..

図10は、演算された位相差θと真の位相Θの説明図であり、横軸を距離L、縦軸を位相とするグラフである。距離Lが0から増えるに従って、すなわち被写体2が撮像装置1から遠ざかるに従って、演算される位相差θは増加していく。距離Lがある値L1のとき、演算される位相差θは2πから0に見かけ上リセットされ、再度0から距離Lの増加に従って増加する。 FIG. 10 is an explanatory diagram of the calculated phase difference θ a and the true phase Θ, and is a graph in which the horizontal axis is the distance L and the vertical axis is the phase. As the distance L increases from 0, that is, as the subject 2 moves away from the image pickup apparatus 1, the calculated phase difference θ a increases. When the distance L is a certain value L1, the calculated phase difference θ a is apparently reset from 2π to 0, and increases again from 0 as the distance L increases.

従って、例えば演算された位相差θがπであったとき、真の位相差Θはπ、3π、5π、…のいずれかであって、距離LはL1/2、3×L1/2、5×L1/2、…のいずれかである、ということしか判断できない。 Therefore, for example, when the calculated phase difference θ a is π, the true phase difference Θ is any of π, 3π, 5π, ..., And the distance L is L1 / 2, 3 × L1 / 2. It can only be determined that it is either 5 × L1 / 2, ...

そこで、本実施形態の測距部13cは、第1検出部13aにより反射光4から受信第1変調光4aを検出するだけでなく、第2検出部13bにより受信第2変調光4bも検出することにより、距離Lを算出する。具体的には、測距部13cは、第2検出部13bにより演算された出力値zを用いて位相差θを補正し、真の位相差Θを求める。そして、上式(9)に、補正前の位相差θの代わりに補正後の真の位相差Θを代入して、距離Lを演算する。 Therefore, the distance measuring unit 13c of the present embodiment not only detects the received first modulated light 4a from the reflected light 4 by the first detecting unit 13a, but also detects the received second modulated light 4b by the second detecting unit 13b. As a result, the distance L is calculated. Specifically, the ranging unit 13c corrects the phase difference θ a using the output value z b calculated by the second detection unit 13 b , and obtains the true phase difference Θ. Then, the distance L is calculated by substituting the corrected true phase difference Θ into the above equation (9) instead of the pre-corrected phase difference θ a .

まず、第2検出部13bによる出力値zの演算方法について説明する。第2検出部13bが行う演算内容は、g(t)の内容が異なることを除き、上述した第1検出部13aによる出力値zの演算方法と同一である。前述の通り、第2画素30bは、第2周期Tに基づき駆動されるので、出力値zは、第2画素30bの反射光4の受光出力、すなわち出力信号N〜Nから、受信第2変調光4bに相当する値を抽出した値となる。 First, a description method of calculating the output value z b by the second detector 13b. Content of operation in which the second detection unit 13b performs, except that the content of g i (t) are different, the same as the method of calculating the output value z a by the first detection unit 13a described above. As described above, since the second pixel 30 b is driven based on the second period T b , the output value z b is derived from the light receiving output of the reflected light 4 of the second pixel 30 b, that is, the output signals N 1 to N 4 . It is a value obtained by extracting a value corresponding to the received second modulated light 4b.

前述の通り、第2周期Tは、第1周期Tよりも長い。従って、第2検出部13bにより演算される偏角argz(位相差θ)は、図10に示すように、L1よりも長い距離L2まで、2πから0への変化が生じない(連続である)。つまり、第2周期Tを十分に長く設定しておけば、第1検出部13aにより検出された位相差θだけでは真の位相差Θがわからない場合でも、第2検出部13bにより検出された位相差θを合わせて利用することで真の位相差Θを求めることができる。 As described above, the second period T b, longer than the first period T a. Therefore, as shown in FIG. 10, the declination argz b (phase difference θ b ) calculated by the second detection unit 13b does not change from 2π to 0 up to a distance L2 longer than L1 (continuously). is there). That is, if the second period T b is set sufficiently long, even if the true phase difference Θ is not known only by the phase difference θ a detected by the first detection unit 13a, it is detected by the second detection unit 13b. The true phase difference Θ can be obtained by using the phase difference θ b together.

例えば図10において、位相差θがπであった場合、前述の通り、距離LはL1/2、3×L1/2、5×L1/2、…のいずれかである。つまり、位相差θから導出される距離Lの候補は複数存在する。ここで、位相差θがπ/2前後の値であれば、距離Lはそれら複数の候補(L1/2、3×L1/2、5×L1/2、…)から、3×L1/2という1つの値に特定される。 For example, in FIG. 10, when the phase difference θ a is π, the distance L is any one of L1 / 2, 3 × L1 / 2, 5 × L1 / 2, and so on, as described above. That is, there are a plurality of candidates for the distance L derived from the phase difference θ a . Here, if the phase difference θ b is a value of around π / 2, the distance L is 3 × L1 / from those plurality of candidates (L1 / 2, 3 × L1 / 2, 5 × L1 / 2, ...). It is specified by one value of 2.

次に、測距部13cによる具体的な演算内容について説明する。測距部13cは、まず次式(10)により、位相差θが真の位相差Θに対して何周期分ずれているのかを表す整数nを求める。 Next, the specific calculation contents by the distance measuring unit 13c will be described. The distance measuring unit 13c first obtains an integer n indicating how many cycles the phase difference θ a is deviated from the true phase difference Θ by the following equation (10).

Figure 2021013179
Figure 2021013179

上式(10)において、round(x)はxに最も近い整数を返す関数(xを四捨五入する関数)である。例えば、距離Lが図10に示す距離L1未満のとき(真の位相差Θが2π未満のとき)、位相差θは真の位相差Θに等しく、nは0となる。位相差θが真の位相差Θから1周期分ずれているとき、nは1となり、真の位相差Θは位相差θに2πを加えたものになる。 In the above equation (10), round (x) is a function that returns the integer closest to x (a function that rounds x). For example, when the distance L is less than the distance L1 shown in FIG. 10 (when the true phase difference Θ is less than 2π), the phase difference θ a is equal to the true phase difference Θ, and n is 0. When the phase difference θ a deviates from the true phase difference Θ by one cycle, n becomes 1, and the true phase difference Θ is the phase difference θ a plus 2π.

測距部13cは、次式(11)により、真の位相差Θを求める。その後、測距部13cは、次式(12)に真の位相差Θを当てはめることにより、被写体までの距離Lを算出する。 The distance measuring unit 13c obtains the true phase difference Θ by the following equation (11). After that, the distance measuring unit 13c calculates the distance L to the subject by applying the true phase difference Θ to the following equation (12).

Figure 2021013179
Figure 2021013179

以上に説明したように、受信第1変調光4aと受信第2変調光4bを検出することで、測距可能な範囲を広く採ることができる。例えば、第1周波数fを300MHz、第2周波数fを3MHzとした場合、受信第1変調光4aのみを検出して距離Lを求めると、測距可能な距離Lは最大1m程度、距離分解能は最大1cm程度になる。また、受信第2変調光4bのみを検出して距離Lを求めると、測距可能な距離Lは最大100m程度になるが、距離分解能は最大1m程度になる。本実施形態では、測距部13cは受信第1変調光4aと受信第2変調光4bを共に検出して距離Lを求めることにより、測距可能な距離Lを最大100mまで広げつつ、距離分解能を最大1cmに保つ。 As described above, by detecting the received first modulated light 4a and the received second modulated light 4b, it is possible to take a wide range in which the distance can be measured. For example, the first frequency f a 300 MHz, when the second frequency f b and 3 MHz, the seek distance L by detecting only the reception first modulated light 4a, measurable distance L is maximum 1m approximately, the distance The maximum resolution is about 1 cm. Further, when only the received second modulated light 4b is detected and the distance L is obtained, the distance L that can be measured is about 100 m at the maximum, but the distance resolution is about 1 m at the maximum. In the present embodiment, the distance measuring unit 13c detects both the received first modulated light 4a and the received second modulated light 4b to obtain the distance L, thereby expanding the distance that can be measured to a maximum of 100 m and the distance resolution. Keep up to 1 cm.

なお、図2(b)に模式的に示したように、第1画素30aと第2画素30bは異なる位置にあるので、同一の被写体位置について、出力値zと出力値zとを同時に得ることはできない。そこで、測距部13cは、第1画素30aに基づき演算された出力値zと、その第1画素30aの上下左右に存在する第2画素30bに基づき演算された4つの出力値zの平均値を用いて、その第1画素30aに対応する距離Lを算出する。また測距部13cは、第2画素30bに基づき演算された出力値zと、その第2画素30bの上下左右に存在する第1画素30aに基づき演算された4つの出力値zの平均値を用いて、その第2画素30bに対応する距離Lを算出する。このようにすることで、画素30の数に等しい要素数(解像度)のデプスマップデータを作成することができる。 As shown schematically in FIG. 2B, since the first pixel 30a and the second pixel 30b are at different positions, the output value z a and the output value z b can be simultaneously set for the same subject position. You can't get it. Therefore, the distance measuring unit 13c has an output value z a calculated based on the first pixel 30 a and four output values z b calculated based on the second pixel 30 b existing on the top, bottom, left, and right of the first pixel 30 a. The distance L corresponding to the first pixel 30a is calculated using the average value. Further, the distance measuring unit 13c is an average of the output value z b calculated based on the second pixel 30 b and the four output values z a calculated based on the first pixel 30 a existing on the top, bottom, left and right of the second pixel 30 b. The value is used to calculate the distance L corresponding to the second pixel 30b. By doing so, it is possible to create depth map data having an number of elements (resolution) equal to the number of pixels 30.

次に、画像作成部13dについて説明する。図7に示すとおり、露光期間Teの間に光電変換部32により生成された電荷は、フローティングディフュージョンFD1〜FD4に分散して蓄積される。従って、出力信号N〜Nを足し合わせれば、露光期間Teに基づく光電変換信号が得られる。画像作成部13dは、各画素30について出力信号N〜Nを足し合わせることで、その画素30の画素値(輝度値)を求める。画像作成部13dは、これを全ての画素30について行うことで、画像データを作成する。 Next, the image creation unit 13d will be described. As shown in FIG. 7, the electric charges generated by the photoelectric conversion unit 32 during the exposure period Te are dispersed and accumulated in the floating diffusion FD1 to FD4. Therefore, by adding the output signals N 1 to N 4 , a photoelectric conversion signal based on the exposure period Te can be obtained. The image creation unit 13d obtains the pixel value (luminance value) of the pixel 30 by adding the output signals N 1 to N 4 for each pixel 30. The image creation unit 13d creates image data by performing this for all the pixels 30.

なお、説明の便宜上、本実施形態において、画素30はカラーフィルターを有していないものとしている。つまり、各々の画素30から出力される光電変換信号は、色情報を有していない。従って、画像作成部13dが作成する画像データは、輝度情報のみを有するモノクロ画像である。しかしながら、各々の画素30にカラーフィルターを設け、画像作成部13dがカラー画像の画像データを生成するようにすることも可能である。例えば、赤色成分の光のみを通過するカラーフィルターを設けた画素30と、青色成分の光のみを通過するカラーフィルターを設けた画素30と、緑色成分の光のみを通過するカラーフィルターを設けた画素30とを、いわゆるベイヤー配列に従って撮像面20に配列する。画像作成部13dは、各々の画素30について求められた画素値に基づき、周知のデモザイク処理を実行することにより、カラー画像の画像データを生成する。 For convenience of explanation, it is assumed that the pixel 30 does not have a color filter in the present embodiment. That is, the photoelectric conversion signal output from each pixel 30 does not have color information. Therefore, the image data created by the image creation unit 13d is a monochrome image having only the luminance information. However, it is also possible to provide a color filter for each pixel 30 so that the image creation unit 13d generates image data of a color image. For example, a pixel 30 provided with a color filter that passes only red component light, a pixel 30 provided with a color filter that passes only blue component light, and a pixel provided with a color filter that passes only green component light. 30 and 30 are arranged on the imaging surface 20 according to the so-called Bayer arrangement. The image creation unit 13d generates image data of a color image by executing a well-known demosaic process based on the pixel values obtained for each pixel 30.

なお、以上では静止画撮影における画像データおよびデプスマップデータの作成方法について説明したが、動画撮影を行う、すなわちフレーム毎に画像データおよびデプスマップデータを作成することも可能である。動画撮影を行う場合には、画素30のリセットと露光と読み出しとを1行ごとに行えばよい。 Although the method of creating image data and depth map data in still image shooting has been described above, it is also possible to perform moving image shooting, that is, to create image data and depth map data for each frame. When shooting a moving image, the pixels 30 may be reset, exposed, and read out line by line.

上述した第1の実施の形態による撮像装置によれば、次の作用効果が得られる。
(1)互いに周期の異なる送信第1変調光3aおよび送信第2変調光3bが、被写体2(対象物)で反射し、受信第1変調光4aおよび受信第2変調光4bとして第1画素30aおよび第2画素30bに入射する。第1検出部13a(第1の位相差測定部)は、第1画素30aの出力信号に基づき、送信第1変調光3aの位相と受信第1変調光4aの位相との位相差θを検出(測定)する。第2検出部13b(第2の位相差測定部)は、第2画素30bの出力信号に基づき、送信第2変調光3bの位相と受信第2変調光4bの位相との位相差θを検出(測定)する。測距部13cは、それらの検出(測定)された位相差に基づき、被写体2に関する距離L(距離値)を算出する。このようにしたので、1回の変調光放出と撮影とで、背景光の影響を取り除いた、高精度かつ測定範囲の広い測距を行うことができる。
According to the image pickup apparatus according to the first embodiment described above, the following effects can be obtained.
(1) The transmission first modulation light 3a and the transmission second modulation light 3b having different cycles are reflected by the subject 2 (object), and the first pixel 30a is used as the reception first modulation light 4a and the reception second modulation light 4b. And incident on the second pixel 30b. The first detection unit 13a (first phase difference measurement unit) determines the phase difference θ a between the phase of the transmission first modulation light 3a and the phase of the reception first modulation light 4a based on the output signal of the first pixel 30a. Detect (measure). The second detection unit 13b (second phase difference measurement unit) determines the phase difference θ b between the phase of the transmission second modulation light 3b and the phase of the reception second modulation light 4b based on the output signal of the second pixel 30b. Detect (measure). The distance measuring unit 13c calculates the distance L (distance value) with respect to the subject 2 based on the detected (measured) phase differences thereof. Since this is done, it is possible to perform high-precision and wide-measurement range distance measurement by removing the influence of the background light by performing the modulated light emission and the photographing once.

(2)撮像素子12は、第1画素30aの出力信号を、送信第1変調光3aの一周期の間に、所定の位相遅れで、出力信号N〜N(第1〜第4の信号)として順次読み出す。第1検出部13aは、出力信号Nと出力信号Nとの差分と、出力信号Nと出力信号Nとの差分とに基づき、位相差θを測定する。撮像素子12は、第2画素30bの出力信号を、送信第2変調光3bの一周期の間に、所定の位相遅れで、出力信号N〜N(第5〜第8の信号)として順次読み出す。第2検出部13bは、出力信号Nと出力信号Nとの差分と、出力信号Nと出力信号Nとの差分とに基づき、位相差θを測定する。このようにしたので、光電変換信号から背景光の影響を取り除くことができる。 (2) The image sensor 12 transmits the output signal of the first pixel 30a to the output signals N 1 to N 4 (first to fourth) with a predetermined phase delay during one cycle of the transmission first modulated light 3a. Read sequentially as a signal). The first detection unit 13a measures the phase difference θ a based on the difference between the output signal N 1 and the output signal N 3 and the difference between the output signal N 2 and the output signal N 4 . The image sensor 12 uses the output signal of the second pixel 30b as output signals N 1 to N 4 (fifth to eighth signals) with a predetermined phase delay during one cycle of the transmission second modulated light 3b. Read sequentially. The second detection unit 13b measures the phase difference θ b based on the difference between the output signal N 1 and the output signal N 3 and the difference between the output signal N 2 and the output signal N 4 . Since this is done, the influence of the background light can be removed from the photoelectric conversion signal.

(3)第1画素30aおよび第2画素30bの各々は、マイクロレンズと光電変換部32とを有する。撮像素子12は、第1画素30aの光電変換部32から出力信号N〜Nを順次読み出す。撮像素子12は、第2画素30bの光電変換部32から出力信号N〜Nを順次読み出す。このようにしたので、1つの画素30に入射した光を有効利用することができる。 (3) Each of the first pixel 30a and the second pixel 30b has a microlens and a photoelectric conversion unit 32. The image sensor 12 sequentially reads the output signals N 1 to N 4 from the photoelectric conversion unit 32 of the first pixel 30a. The image sensor 12 sequentially reads the output signals N 1 to N 4 from the photoelectric conversion unit 32 of the second pixel 30b. Since this is done, the light incident on one pixel 30 can be effectively used.

(4)撮像素子12は、第1画素30aの光電変換部32から出力信号N〜Nをそれぞれ読み出す第1読出部331、第2読出部332、第3読出部333、および第4読出部334を有する。撮像素子12は、第2画素30bの光電変換部32から出力信号N〜Nをそれぞれ読み出す第1読出部331、第2読出部332、第3読出部333、および第4読出部334を有する。このようにしたので、出力信号N〜Nを容易に得ることができる。 (4) The image sensor 12 reads the output signals N 1 to N 4 from the photoelectric conversion unit 32 of the first pixel 30a, respectively, in the first reading unit 331, the second reading unit 332, the third reading unit 333, and the fourth reading unit. It has a part 334. The image sensor 12 includes a first reading unit 331, a second reading unit 332, a third reading unit 333, and a fourth reading unit 334 that read output signals N 1 to N 4 from the photoelectric conversion unit 32 of the second pixel 30b, respectively. Have. Since this is done, the output signals N 1 to N 4 can be easily obtained.

(5)画像作成部13d(画像データ生成部)は、第1画素30aの出力信号N〜Nを加算した加算信号と、第2画素30bの出力信号N〜Nを加算した加算信号とに基づき、光学系11(結像光学系)による被写体2の像に関する画像データを生成する。このようにしたので、通常の可視光に基づく画像データを、デプスマップデータと同時に得ることができる。 (5) The image creating unit 13d (the image data generating unit) is added to the sum and the sum signal obtained by adding the output signal N 1 to N 4 of the first pixel 30a, the output signal N 1 to N 4 of the second pixel 30b Based on the signal, image data related to the image of the subject 2 by the optical system 11 (imaging optical system) is generated. Since this is done, image data based on ordinary visible light can be obtained at the same time as depth map data.

(6)第1画素30aと第2画素30bは、それぞれ撮像素子12の撮像面20の全体に略均一に分布配置されており、測距部13cは、互いに近傍に位置する第1画素30aおよび第2画素30bについて、第1検出部13aおよび第2検出部13bがそれぞれ測定した位相差θ、θに基づき、距離Lを算出する。このようにしたので、画素数に等しい要素数のデプスマップデータを作成することができる。 (6) The first pixel 30a and the second pixel 30b are distributed substantially uniformly over the entire image pickup surface 20 of the image pickup device 12, respectively, and the distance measuring unit 13c includes the first pixel 30a and the first pixel 30a located in the vicinity of each other. For the second pixel 30b, the distance L is calculated based on the phase differences θ a and θ b measured by the first detection unit 13a and the second detection unit 13b, respectively. Since this is done, it is possible to create depth map data having an number of elements equal to the number of pixels.

(7)測距部13cは、第1画素30a毎の距離Lと第2画素30b毎の距離Lとに基づき、第1画素30aおよび第2画素30bの位置における距離Lに関するマップを表すデプスマップデータを作成する。このようにしたので、被写体2の主要部分のみならず、被写体2の各部分の距離を得ることができる。 (7) The distance measuring unit 13c is a depth map representing a map relating to the distance L at the positions of the first pixel 30a and the second pixel 30b based on the distance L for each first pixel 30a and the distance L for each second pixel 30b. Create data. Since this is done, it is possible to obtain not only the main part of the subject 2 but also the distance of each part of the subject 2.

(8)光源部10は、可視光である変調光3を被写体2に放出する。このようにしたので、通常の可視光に基づく画像データを、デプスマップデータと同時に得ることができる。 (8) The light source unit 10 emits modulated light 3, which is visible light, to the subject 2. Since this is done, image data based on ordinary visible light can be obtained at the same time as depth map data.

(第2の実施の形態)
図11は、第2の実施の形態に係る撮像装置100の構成を模式的に示す断面図である。なお以下の説明では、第1の実施の形態に係る撮像装置1と異なる点を中心に説明し、それ以外の部分については説明を省略する。
(Second Embodiment)
FIG. 11 is a cross-sectional view schematically showing the configuration of the image pickup apparatus 100 according to the second embodiment. In the following description, the points different from those of the image pickup apparatus 1 according to the first embodiment will be mainly described, and the description of other parts will be omitted.

撮像装置100は、第1の実施の形態に係る撮像装置1の撮像素子12を撮像素子112に、制御部13を制御部113に、それぞれ置き換えた構成を有している。撮像素子112は、上述した画素30の代わりに、後述する画素130を有している。制御部113は、第1の実施の形態に係る制御部13と同様に、第1検出部13a、第2検出部13b、測距部13c、画像作成部13d、および発光制御部13eを有しており、更に、焦点検出部13fおよび焦点調節部13gを有している。焦点検出部13fおよび焦点調節部13gについては後に詳述する。 The image pickup device 100 has a configuration in which the image pickup device 12 of the image pickup device 1 according to the first embodiment is replaced with the image pickup element 112, and the control unit 13 is replaced with the control unit 113. The image sensor 112 has a pixel 130 described later instead of the pixel 30 described above. The control unit 113 has a first detection unit 13a, a second detection unit 13b, a distance measuring unit 13c, an image creation unit 13d, and a light emission control unit 13e, similarly to the control unit 13 according to the first embodiment. Further, it has a focus detection unit 13f and a focus adjustment unit 13g. The focus detection unit 13f and the focus adjustment unit 13g will be described in detail later.

図12は、画素130の構造を模式的に示す平面図である。なお、本実施形態の画素130にも、第1の実施の形態と同様に、第1画素130aと第2画素130bとの2種類が存在し、第1の実施の形態同様に(すなわち図2(b)に示すように)、第1画素130aと第2画素130bは互い違いに配列されている。つまり、第1画素130aの上下左右には第2画素130bが存在し、第2画素130bの上下左右には第1画素130aが存在するように配列されている。従って、撮像面20には、略同数の第1画素130aと第2画素130bとが一様に(均一に)配列されている。 FIG. 12 is a plan view schematically showing the structure of the pixel 130. As in the first embodiment, the pixel 130 of the present embodiment also has two types, the first pixel 130a and the second pixel 130b, as in the first embodiment (that is, FIG. 2). (As shown in (b)), the first pixel 130a and the second pixel 130b are arranged alternately. That is, the second pixel 130b exists on the top, bottom, left, and right of the first pixel 130a, and the first pixel 130a exists on the top, bottom, left, and right of the second pixel 130b. Therefore, substantially the same number of first pixels 130a and second pixels 130b are uniformly (uniformly) arranged on the imaging surface 20.

画素130は、光電変換部32の代わりに、第1光電変換部132aと第2光電変換部132bとを有している。第1光電変換部132aと第2光電変換部132bの形状は、x−y平面において光電変換部32をy方向に沿った直線で2等分したものと略等しい。従って、光学系11の射出瞳の一対の領域をそれぞれ通過した一対の光束が、それぞれ第1光電変換部132aと第2光電変換部132bに入射する。 The pixel 130 has a first photoelectric conversion unit 132a and a second photoelectric conversion unit 132b instead of the photoelectric conversion unit 32. The shapes of the first photoelectric conversion unit 132a and the second photoelectric conversion unit 132b are substantially equal to those obtained by dividing the photoelectric conversion unit 32 into two equal parts by a straight line along the y direction in the xy plane. Therefore, the pair of light fluxes that have passed through the pair of regions of the exit pupil of the optical system 11 are incident on the first photoelectric conversion unit 132a and the second photoelectric conversion unit 132b, respectively.

図13は、撮像素子12の構成を示す回路図である。なお図13では、1つの画素130の回路図のみを図示している。画素130は、第1読出部331と、第2読出部332と、第3読出部333と、第4読出部334とを備える。第1読出部331および第2読出部332は、第1光電変換部132aから光電変換信号を読み出す。第3読出部333および第4読出部334は、第2光電変換部132bから光電変換信号を読み出す。第1読出部331、第2読出部332、第3読出部333、および第4読出部334の構成は、第1の実施の形態と同一であるので説明を省略する。 FIG. 13 is a circuit diagram showing the configuration of the image pickup device 12. Note that FIG. 13 shows only a circuit diagram of one pixel 130. The pixel 130 includes a first reading unit 331, a second reading unit 332, a third reading unit 333, and a fourth reading unit 334. The first reading unit 331 and the second reading unit 332 read the photoelectric conversion signal from the first photoelectric conversion unit 132a. The third reading unit 333 and the fourth reading unit 334 read the photoelectric conversion signal from the second photoelectric conversion unit 132b. Since the configurations of the first reading unit 331, the second reading unit 332, the third reading unit 333, and the fourth reading unit 334 are the same as those of the first embodiment, the description thereof will be omitted.

図14は、撮影動作を示すタイミングチャートである。制御部13は、撮影動作に際し、撮像素子12に画素30をリセットさせる。垂直走査回路22は、制御部13からの信号をもとに、時刻t11に信号φRSTを出力する。信号φRSTは全ての画素130の第1光電変換部132aおよび第2光電変換部132bに対して出力される。これにより、全ての画素30の第1光電変換部132aおよび第2光電変換部132bがリセットされる。 FIG. 14 is a timing chart showing a shooting operation. The control unit 13 causes the image sensor 12 to reset the pixels 30 during the shooting operation. The vertical scanning circuit 22 outputs the signal φRST at time t11 based on the signal from the control unit 13. The signal φRST is output to the first photoelectric conversion unit 132a and the second photoelectric conversion unit 132b of all the pixels 130. As a result, the first photoelectric conversion unit 132a and the second photoelectric conversion unit 132b of all the pixels 30 are reset.

リセットが完了した時刻t12に、発光制御部13eが、光源部10に、変調光3の放出を開始させる。光源部10による変調光3の放出に同期して、時刻t12に、第1転送制御回路23aおよび第2転送制御回路23bが、信号φTX1、信号φTX2、信号φTX3、および信号φTX4の出力を開始する。発光制御部13eは、送信第1変調光3aが極大となる位置p5と、第1転送制御回路23aから第1画素30aに対して出力される信号φTX1のパルスの中心位置p6とが一致するように、光源部10を制御する。発光制御部13eは、送信第2変調光3bが極大となる位置p7と、第2転送制御回路23bから第2画素30bに対して出力される信号φTX1のパルスの中心位置p8とが一致するように、光源部10を制御する。すなわち発光制御部13eは、変調光3と信号φTX1、信号φTX2、信号φTX3、および信号φTX4とを同期させる。 At the time t12 when the reset is completed, the light emission control unit 13e causes the light source unit 10 to start emitting the modulated light 3. At time t12, the first transfer control circuit 23a and the second transfer control circuit 23b start outputting the signal φTX1, the signal φTX2, the signal φTX3, and the signal φTX4 in synchronization with the emission of the modulated light 3 by the light source unit 10. .. In the light emission control unit 13e, the position p5 at which the transmission first modulated light 3a is maximized coincides with the pulse center position p6 of the signal φTX1 output from the first transfer control circuit 23a to the first pixel 30a. In addition, the light source unit 10 is controlled. In the light emission control unit 13e, the position p7 at which the transmission second modulated light 3b is maximized coincides with the pulse center position p8 of the signal φTX1 output from the second transfer control circuit 23b to the second pixel 30b. In addition, the light source unit 10 is controlled. That is, the light emission control unit 13e synchronizes the modulated light 3 with the signal φTX1, the signal φTX2, the signal φTX3, and the signal φTX4.

第1転送制御回路23aは、第1画素130aに対して、信号φTX1、信号φTX2、信号φTX3、および信号φTX4を出力する。第1転送制御回路23aは、時刻t12から送信第1変調光3aの周期Tだけ後の時刻t13までの期間を、前半分と後半分の2つの期間に分割する。第1転送制御回路23aは、それら2つの期間の一方において信号φTX1をオンし、他方において信号φTX2をオンする。つまり信号φTX1は、信号φTX2と1/2周期(180度)異なる位相を有する信号である。第1転送制御回路23aは、信号φTX1を1/4周期(90度)だけ遅らせた信号を、信号φTX3として出力する。第1転送制御回路23aは、信号φTX2を1/4周期(90度)だけ遅らせた信号を、信号φTX4として出力する。第1転送制御回路23aは、露光期間Teの間、上述した信号φTX1、信号φTX2、信号φTX3、および信号φTX4を繰り返し出力する。 The first transfer control circuit 23a outputs a signal φTX1, a signal φTX2, a signal φTX3, and a signal φTX4 to the first pixel 130a. The first transfer control circuit 23a, a period from the time t12 to the time t13 after only period T a of the transmitting first modulated light 3a, divides front half and two periods of the rear half. The first transfer control circuit 23a turns on the signal φTX1 in one of these two periods and turns on the signal φTX2 in the other. That is, the signal φTX1 is a signal having a phase different from that of the signal φTX2 by 1/2 period (180 degrees). The first transfer control circuit 23a outputs a signal obtained by delaying the signal φTX1 by 1/4 period (90 degrees) as the signal φTX3. The first transfer control circuit 23a outputs a signal obtained by delaying the signal φTX2 by 1/4 period (90 degrees) as the signal φTX4. The first transfer control circuit 23a repeatedly outputs the above-mentioned signal φTX1, signal φTX2, signal φTX3, and signal φTX4 during the exposure period Te.

第1の実施の形態において、信号φTX1および信号φTX2は、送信第1変調光3aの一周期(周期T)の第1の四半周期にオンする信号と、第2の四半周期にオンする信号であった。これに対して、本実施の形態における信号φTX1および信号φTX2は、送信第1変調光3aの一周期(周期T)の第1の半周期にオンする信号と、第2の半周期にオンする信号である。つまり本実施の形態において、第1読出部331および第2読出部332は、送信第1変調光3aの一周期(周期T)の間に、第1光電変換部132aから光電変換信号を逆位相で交互に読み出す。 In the first embodiment, the signal φTX1 and signal φTX2 includes a signal for turning on the first quarter period of one cycle of the transmission first modulated light 3a (period T a), a signal for turning on the second quarter cycle Met. In contrast, the signal φTX1 and signal φTX2 in the present embodiment, a signal for turning on the first half period of one period of transmitting the first modulated light 3a (period T a), on the second half cycle It is a signal to do. That is, in the present embodiment, the first reading unit 331 and the second reading unit 332 reverse the photoelectric conversion signal from the first photoelectric conversion unit 132a during one cycle (cycle Ta ) of the transmission first modulated light 3a. Read alternately in phase.

第1の実施の形態において、信号φTX3および信号φTX4は、送信第1変調光3aの一周期(周期T)の第3の四半周期にオンする信号と、第4の四半周期にオンする信号であった。これに対して、本実施の形態における信号φTX3および信号φTX4は、送信第1変調光3aの一周期(周期T)の第2および第3の四半周期にオンする信号と、第1および第4の四半周期にオンする信号である。つまり本実施の形態において、第3読出部333および第4読出部334は、送信第1変調光3aの一周期(周期T)の間に、第2光電変換部132bから光電変換信号を逆位相で交互に読み出す。 In the first embodiment, the signal φTX3 and signal φTX4 includes a signal for turning on the third quarter cycle of one period of the transmission first modulated light 3a (period T a), a signal for turning on the fourth quarter cycle of Met. In contrast, the signal φTX3 and signal φTX4 in the present embodiment, a signal for turning on the second and third quarter cycle of one period of the transmission first modulated light 3a (period T a), first and second It is a signal that turns on in the quarter cycle of 4. That is, in the present embodiment, the third reading unit 333 and the fourth reading unit 334 reverse the photoelectric conversion signal from the second photoelectric conversion unit 132b during one cycle (period Ta ) of the transmission first modulated light 3a. Read alternately in phase.

第2転送制御回路23bは、時刻t12から送信第2変調光3bの周期Tだけ後の時刻t14までの期間を、前半分と後半分の2つの期間に分割する。第2転送制御回路23bは、それら2つの期間の一方において信号φTX1をオンし、他方において信号φTX2をオンする。つまり信号φTX1は、信号φTX2と1/2周期(180度)異なる位相を有する信号である。第2転送制御回路23bは、信号φTX1を1/4周期(90度)だけ遅らせた信号を、信号φTX3として出力する。第2転送制御回路23bは、信号φTX2を1/4周期(90度)だけ遅らせた信号を、信号φTX4として出力する。第2転送制御回路23bは、露光期間Teの間、上述した信号φTX1、信号φTX2、信号φTX3、および信号φTX4を繰り返し出力する。 Second transfer control circuit 23b is a period from the time t12 to the time t14 after only period T b of the transmission second modulated light 3b, divides front half and two periods of the rear half. The second transfer control circuit 23b turns on the signal φTX1 in one of those two periods and turns on the signal φTX2 in the other. That is, the signal φTX1 is a signal having a phase different from that of the signal φTX2 by 1/2 period (180 degrees). The second transfer control circuit 23b outputs a signal obtained by delaying the signal φTX1 by 1/4 period (90 degrees) as the signal φTX3. The second transfer control circuit 23b outputs a signal obtained by delaying the signal φTX2 by 1/4 period (90 degrees) as the signal φTX4. The second transfer control circuit 23b repeatedly outputs the above-mentioned signal φTX1, signal φTX2, signal φTX3, and signal φTX4 during the exposure period Te.

時刻t12から露光期間Teだけ後の時刻t15に、発光制御部13eは、光源部10に、変調光3の放出を停止させる。変調光3の放出停止に同期して、時刻t15に、第1転送制御回路23aおよび第2転送制御回路23bが、信号φTX1、信号φTX2、信号φTX3、および信号φTX4の出力を停止する。時刻t15の時点で、画素130のフローティングディフュージョンFD1、フローティングディフュージョンFD2、フローティングディフュージョンFD3、およびフローティングディフュージョンFD4には、それぞれ光電変換部32により生成された電荷が蓄積されている。 At time t15, which is only the exposure period Te after time t12, the light emission control unit 13e causes the light source unit 10 to stop the emission of the modulated light 3. At time t15, the first transfer control circuit 23a and the second transfer control circuit 23b stop the output of the signal φTX1, the signal φTX2, the signal φTX3, and the signal φTX4 in synchronization with the emission stop of the modulated light 3. At time t15, the electric charges generated by the photoelectric conversion unit 32 are accumulated in the floating diffusion FD1, the floating diffusion FD2, the floating diffusion FD3, and the floating diffusion FD4 of the pixel 130, respectively.

時刻t15以降、水平走査回路21および垂直走査回路22は、出力信号N〜Nの読み出しを開始する。出力信号N〜Nの読み出しは、行ごとに行われる。まず時刻t5に、垂直走査回路22が、1行目の画素130に対して信号φSEL(1)を出力する。これにより、垂直信号線V1〜V4に、1行目の画素130の各々からの出力信号N〜Nが出力される。出力信号N、Nは、第1光電変換部132aで光電変換された電荷に基づく信号である。出力信号N、Nは、第2光電変換部132bで光電変換された電荷に基づく信号である。信号φSEL(1)が出力されている間に、水平走査回路21が、1行目の画素130の各々からの出力信号N〜Nを1つずつ、制御部13に出力する。1行目の画素130の全てについて出力信号N〜Nが制御部13に出力されると、次に垂直走査回路22が、2行目の画素130に対して信号φSEL(2)を出力する。これにより、垂直信号線V1〜V4に、2行目の画素30の各々からの出力信号N〜Nが出力される。信号φSEL(2)が出力されている間に、水平走査回路21が、2行目の画素130の各々からの出力信号N〜Nを1つずつ、制御部13に出力する。水平走査回路21および垂直走査回路22は、全ての行について以上の動作を繰り返すことで、全ての画素130からの出力信号N〜Nを制御部13に出力する。 After time t15, the horizontal scanning circuit 21 and the vertical scanning circuit 22 start reading the output signals N 1 to N 4 . The output signals N 1 to N 4 are read out line by line. First, at time t5, the vertical scanning circuit 22 outputs a signal φSEL (1) to the pixel 130 in the first row. As a result, the output signals N 1 to N 4 from each of the pixels 130 in the first line are output to the vertical signal lines V1 to V4. The output signals N 1 and N 2 are signals based on the electric charge photoelectrically converted by the first photoelectric conversion unit 132a. The output signals N 3 and N 4 are signals based on the electric charge photoelectrically converted by the second photoelectric conversion unit 132b. While the signal φSEL (1) is being output, the horizontal scanning circuit 21 outputs the output signals N 1 to N 4 from each of the pixels 130 in the first row to the control unit 13 one by one. When the output signals N 1 to N 4 are output to the control unit 13 for all the pixels 130 in the first row, the vertical scanning circuit 22 then outputs the signal φSEL (2) to the pixels 130 in the second row. To do. As a result, the output signals N 1 to N 4 from each of the pixels 30 in the second line are output to the vertical signal lines V1 to V4. While the signal φSEL (2) is being output, the horizontal scanning circuit 21 outputs the output signals N 1 to N 4 from each of the pixels 130 in the second row to the control unit 13 one by one. The horizontal scanning circuit 21 and the vertical scanning circuit 22 repeat the above operations for all the rows to output the output signals N 1 to N 4 from all the pixels 130 to the control unit 13.

次に、第1検出部13aによる出力値zの演算方法について説明する。第1検出部13aは、第1画素130aから出力された出力信号N、Nと、第1画素130aから出力された出力信号N、Nとに基づき、反射光4の光電変換結果から受信第1変調光4aの光電変換結果、すなわち第1周波数fを有する入射光の光電変換結果を検出する。 Next, a method of calculating the output value za by the first detection unit 13a will be described. The first detection unit 13a is based on the output signals N 1 and N 2 output from the first pixel 130a and the output signals N 3 and N 4 output from the first pixel 130a, and the photoelectric conversion result of the reflected light 4 the photoelectric conversion result of the received first modulated light 4a from, that detects the photoelectric conversion result of the incident light having a first frequency f a.

第1の実施の形態では、式(2)においてN−Nを考えたが、本実施形態では代わりにN−Nを考える。図15に示すように、g(t)−g(t)は正弦波で近似できるので、第1の実施の形態で説明したものと同様の手順で、次式(13)が導かれる。 In the first embodiment, N 1- N 3 is considered in the formula (2), but in this embodiment, N 1- N 2 is considered instead. As shown in FIG. 15, since g 1 (t) −g 2 (t) can be approximated by a sine wave, the following equation (13) is derived by the same procedure as that described in the first embodiment. ..

Figure 2021013179
Figure 2021013179

同様に、N−Nは次式(14)により表される。 Similarly, N 3- N 4 is expressed by the following equation (14).

Figure 2021013179
Figure 2021013179

出力値zは、次式(15)により表される。 The output value z a is expressed by the following equation (15).

Figure 2021013179
Figure 2021013179

従って、測距部13cは、第1の実施の形態と同様に、デプスマップデータを作成することができる。 Therefore, the ranging unit 13c can create the depth map data as in the first embodiment.

次に、画像作成部13dについて説明する。図12に示すように、本実施の形態に係る画素130は、第1光電変換部132aおよび第2光電変換部132bを有している。第1光電変換部132aおよび第2光電変換部132bの形状は、第1の実施の形態における光電変換部32を2等分したものに略等しい。従って、第1光電変換部132aの出力信号と、第2光電変換部132bの出力信号とを加算すれば、第1の実施の形態に係る光電変換部32の出力信号に相当する信号が得られる。画像作成部13dは、各画素130について出力信号N〜Nを足し合わせることで、その画素130の画素値(輝度値)を求める。画像作成部13dは、これを全ての画素130について行うことで、画像データを作成する。 Next, the image creation unit 13d will be described. As shown in FIG. 12, the pixel 130 according to the present embodiment has a first photoelectric conversion unit 132a and a second photoelectric conversion unit 132b. The shapes of the first photoelectric conversion unit 132a and the second photoelectric conversion unit 132b are substantially equal to those obtained by dividing the photoelectric conversion unit 32 in the first embodiment into two equal parts. Therefore, by adding the output signal of the first photoelectric conversion unit 132a and the output signal of the second photoelectric conversion unit 132b, a signal corresponding to the output signal of the photoelectric conversion unit 32 according to the first embodiment can be obtained. .. The image creation unit 13d obtains the pixel value (luminance value) of the pixel 130 by adding the output signals N 1 to N 4 for each pixel 130. The image creation unit 13d creates image data by performing this for all the pixels 130.

次に、焦点検出部13fについて説明する。焦点検出部13fは、撮像面20に設けられた所定の焦点検出エリア内において、x方向に一列に並んだ複数の画素130(交互に配列された第1画素130aと第2画素130bが含まれる)について、出力信号Nと出力信号Nとを足し合わせた信号と、出力信号Nと出力信号Nとを足し合わせた信号とを作成する。出力信号Nと出力信号Nとを足し合わせた信号は、第1光電変換部132aが露光期間Te(図14)の間に光電変換した電荷に基づく信号である。出力信号Nと出力信号Nとを足し合わせた信号は、第2光電変換部132bが露光期間Teの間に光電変換した電荷に基づく信号である。この一対の信号は、光学系11の射出瞳の一対の領域を通過した一対の光束に対応する信号である。つまり、この一対の信号は、いわゆる位相差方式の焦点検出を行うための信号である。位相差方式の焦点検出とは、周知のように、一対の信号についてシフト量を少しずつ変えながら相関演算を行い、相関値が最も大きいシフト量、すなわち位相差を求めることで、光学系11の焦点調節状態を検出する焦点検出方式である。焦点検出部13fは、作成した一対の信号に対して、周知の位相差方式の焦点検出を行い、光学系11の焦点調節状態(デフォーカス量)を検出する。 Next, the focus detection unit 13f will be described. The focus detection unit 13f includes a plurality of pixels 130 (the first pixel 130a and the second pixel 130b alternately arranged) arranged in a row in the x direction within a predetermined focus detection area provided on the imaging surface 20. ), A signal obtained by adding the output signal N 1 and the output signal N 2 and a signal obtained by adding the output signal N 3 and the output signal N 4 are created. The signal obtained by adding the output signal N 1 and the output signal N 2 is a signal based on the charge photoelectrically converted by the first photoelectric conversion unit 132a during the exposure period Te (FIG. 14). The signal obtained by adding the output signal N 3 and the output signal N 4 is a signal based on the electric charge photoelectrically converted by the second photoelectric conversion unit 132b during the exposure period Te. This pair of signals is a signal corresponding to a pair of luminous fluxes that have passed through a pair of regions of the exit pupil of the optical system 11. That is, this pair of signals is a signal for performing so-called phase difference type focus detection. As is well known, the phase difference type focus detection is performed by performing a correlation calculation on a pair of signals while changing the shift amount little by little to obtain the shift amount having the largest correlation value, that is, the phase difference. This is a focus detection method that detects the focus adjustment state. The focus detection unit 13f performs a well-known phase difference type focus detection on the created pair of signals, and detects the focus adjustment state (defocus amount) of the optical system 11.

なお、焦点検出エリアは撮像面20の任意の位置に設けることができる。また、予め複数の候補エリアを撮像面20に設け、いずれか1つの候補エリアを焦点検出エリアとして選択するようにしてもよい。上記の説明ではx方向に関する焦点検出を行う例について説明したが、これとは異なる方向(例えばy方向)について焦点検出を行うようにすることもできる。 The focus detection area can be provided at an arbitrary position on the imaging surface 20. Further, a plurality of candidate areas may be provided on the imaging surface 20 in advance, and any one of the candidate areas may be selected as the focus detection area. In the above description, an example of performing focus detection in the x direction has been described, but it is also possible to perform focus detection in a direction different from this (for example, the y direction).

次に、焦点調節部13gについて説明する。焦点調節部13gは、測距部13cにより作成されたデプスマップデータと、焦点検出部13fにより検出された光学系11の焦点調節状態と、のいずれか一方に基づき、光学系11のピント位置を調節する。光学系11は、不図示のフォーカスレンズを有しており、焦点調節部13gは不図示のアクチュエータを用いてこのフォーカスレンズを光軸方向に駆動することで、光学系11の焦点調節を行う。 Next, the focus adjusting unit 13g will be described. The focus adjustment unit 13g determines the focus position of the optical system 11 based on either the depth map data created by the distance measuring unit 13c or the focus adjustment state of the optical system 11 detected by the focus detection unit 13f. Adjust. The optical system 11 has a focus lens (not shown), and the focus adjusting unit 13g adjusts the focus of the optical system 11 by driving the focus lens in the optical axis direction using an actuator (not shown).

焦点調節部13gは、焦点調節に際し、まず光学系11の現在の絞り値(F値)を調べる。絞り値が所定のしきい値以下であった場合、すなわち光学系11の不図示の絞りの開口径が大きく、瞳分割で分割した2つの瞳の視差が大きい場合、焦点調節部13gは、焦点検出部13fに焦点調節状態を検出させ、検出された焦点調節状態に基づき焦点調節を行う。 The focus adjusting unit 13g first examines the current aperture value (F value) of the optical system 11 when adjusting the focus. When the aperture value is equal to or less than a predetermined threshold value, that is, when the aperture diameter of the aperture (not shown) of the optical system 11 is large and the parallax of the two pupils divided by the pupil division is large, the focus adjustment unit 13g is focused. The detection unit 13f detects the focus adjustment state, and adjusts the focus based on the detected focus adjustment state.

他方、光学系11の現在の絞り値が所定のしきい値より大きい場合、すなわち光学系11の不図示の絞りの開口径が小さく、瞳分割で分割した2つの瞳の視差が小さい場合、焦点調節部13gは、少なくとも焦点検出エリアの範囲をカバーするデプスマップデータを測距部13cに作成させ、作成されたデプスマップデータに基づき焦点調節を行う。例えば、焦点検出エリアに対応する被写体の距離(奥行き)が1mである、ということがデプスマップデータから判明すれば、焦点調節部13gは、1mの位置にピントが合うように不図示のフォーカスレンズを駆動させる。 On the other hand, when the current aperture value of the optical system 11 is larger than a predetermined threshold value, that is, when the aperture diameter of the aperture (not shown) of the optical system 11 is small and the parallax of the two pupils divided by the pupil division is small, the focal point is set. The adjustment unit 13g causes the distance measuring unit 13c to create depth map data covering at least the range of the focus detection area, and adjusts the focus based on the created depth map data. For example, if it is found from the depth map data that the distance (depth) of the subject corresponding to the focus detection area is 1 m, the focus adjustment unit 13 g is a focus lens (not shown) so as to focus on the position of 1 m. To drive.

上述した第2の実施の形態による撮像装置によれば、次の作用効果が得られる。
(1)互いに周期の異なる送信第1変調光3aおよび送信第2変調光3bが、被写体2(対象物)で反射し、受信第1変調光4aおよび受信第2変調光4bとして第1画素130aおよび第2画素130bに入射する。第1検出部13a(第1の位相差測定部)は、第1画素130aの出力信号に基づき、送信第1変調光3aの位相と受信第1変調光4aの位相との位相差θを検出(測定)する。第2検出部13b(第2の位相差測定部)は、第2画素130bの出力信号に基づき、送信第2変調光3bの位相と受信第2変調光4bの位相との位相差θを検出(測定)する。測距部13cは、それらの検出(測定)された位相差に基づき、被写体2に関する距離L(距離値)を算出する。このようにしたので、1回の変調光放出と撮影とで、高精度かつ測定範囲の広い測距を行うことができる。
According to the image pickup apparatus according to the second embodiment described above, the following effects can be obtained.
(1) The transmission first modulation light 3a and the transmission second modulation light 3b having different cycles are reflected by the subject 2 (object), and the first pixel 130a is used as the reception first modulation light 4a and the reception second modulation light 4b. And incident on the second pixel 130b. The first detection unit 13a (first phase difference measurement unit) determines the phase difference θ a between the phase of the transmission first modulation light 3a and the phase of the reception first modulation light 4a based on the output signal of the first pixel 130a. Detect (measure). The second detection unit 13b (second phase difference measurement unit) determines the phase difference θ b between the phase of the transmission second modulation light 3b and the phase of the reception second modulation light 4b based on the output signal of the second pixel 130b. Detect (measure). The distance measuring unit 13c calculates the distance L (distance value) with respect to the subject 2 based on the detected (measured) phase differences thereof. Since this is done, it is possible to perform distance measurement with high accuracy and a wide measurement range by performing one-time modulated light emission and photographing.

(2)撮像素子12は、第1画素130aの出力信号を、送信第1変調光3aの一周期の間に、所定の位相遅れで、出力信号N〜N(第1〜第4の信号)として順次読み出す。第1検出部13aは、出力信号Nと出力信号Nとの差分と、出力信号Nと出力信号Nとの差分とに基づき、位相差θを測定する。撮像素子12は、第2画素130bの出力信号を、送信第2変調光3bの一周期の間に、所定の位相遅れで、出力信号N〜N(第5〜第8の信号)として順次読み出す。第2検出部13bは、出力信号Nと出力信号Nとの差分と、出力信号Nと出力信号Nとの差分とに基づき、位相差θを測定する。このようにしたので、光電変換信号から背景光の影響を取り除くことができる。 (2) the image pickup device 12, an output signal of the first pixel 130a, during one cycle of the transmission first modulated light 3a, with a predetermined phase delay, the output signal N 1 to N 4 (first to fourth Read sequentially as a signal). The first detection unit 13a measures the phase difference θ a based on the difference between the output signal N 1 and the output signal N 2 and the difference between the output signal N 3 and the output signal N 4 . The image sensor 12 uses the output signal of the second pixel 130b as output signals N 1 to N 4 (fifth to eighth signals) with a predetermined phase delay during one cycle of the transmission second modulated light 3b. Read sequentially. The second detection unit 13b measures the phase difference θ b based on the difference between the output signal N 1 and the output signal N 2 and the difference between the output signal N 3 and the output signal N 4 . Since this is done, the influence of the background light can be removed from the photoelectric conversion signal.

(3)第1画素130aおよび第2画素130bの各々は、マイクロレンズ31と第1光電変換部132aと第2光電変換部132bとを有する。撮像素子12は、第1画素130aの第1光電変換部132aから出力信号N〜Nのうちの出力信号N,Nを読み出し、第2光電変換部132bから出力信号N〜Nのうちの出力信号N,Nを読み出す。撮像素子12は、第2画素130bの第1光電変換部132aから出力信号N〜Nのうちの出力信号N,Nを読み出し、第2光電変換部132bから出力信号N〜Nのうちの出力信号N,Nを読み出す。このようにしたので、1つの画素30に入射した光を瞳分割して光電変換することができる。 (3) Each of the first pixel 130a and the second pixel 130b has a microlens 31, a first photoelectric conversion unit 132a, and a second photoelectric conversion unit 132b. The imaging device 12 reads an output signal N 1, N 2 of the output signals N 1 to N 4 from the first photoelectric conversion portion 132a of the first pixel 130a, the output signal N 1 to N from the second photoelectric conversion unit 132b output signal N 3 of the 4, reads the N 4. The imaging device 12 reads an output signal N 1, N 2 of the output signals N 1 to N 4 from the first photoelectric conversion portion 132a of the second pixel 130b, the output signal N 1 to N from the second photoelectric conversion unit 132b output signal N 3 of the 4, reads the N 4. Since this is done, the light incident on one pixel 30 can be divided into pupils and photoelectrically converted.

(4)撮像素子12は、第1画素130aの第1光電変換部132aから出力信号N,Nをそれぞれ読み出す第1読出部331および第2読出部332と、第1画素130aの第2光電変換部132bから出力信号N,Nをそれぞれ読み出す第3読出部333および第4読出部334とを有する。撮像素子12は、第2画素130bの第1光電変換部132aから出力信号N,Nをそれぞれ読み出す第1読出部331および第2読出部332と、第2画素130bの第2光電変換部132bから出力信号N,Nをそれぞれ読み出す第3読出部333および第4読出部334とを有する。このようにしたので、このようにしたので、出力信号N〜Nを容易に得ることができる。 (4) The image sensor 12 has a first reading unit 331 and a second reading unit 332 that read output signals N 1 and N 2 from the first photoelectric conversion unit 132a of the first pixel 130a, respectively, and a second reading unit 130a of the first pixel 130a. It has a third reading unit 333 and a fourth reading unit 334 that read output signals N 3 and N 4 from the photoelectric conversion unit 132b, respectively. The image sensor 12 has a first reading unit 331 and a second reading unit 332 that read output signals N 1 and N 2 from the first photoelectric conversion unit 132a of the second pixel 130b, respectively, and a second photoelectric conversion unit of the second pixel 130b. It has a third reading unit 333 and a fourth reading unit 334 that read output signals N 3 and N 4 from 132b, respectively. Since this is done in this way, the output signals N 1 to N 4 can be easily obtained.

(5)第1画素130aの第1読出部331は、第1画素130aの第1光電変換部132aから出力信号Nを送信第1変調光3aの一周期のうちの半周期の間に読み出す。第1画素130aの第2読出部332は、第1画素130aの第1光電変換部132aから出力信号Nを送信第1変調光3aの一周期のうちの残り半周期の間に読み出す。第1画素130aの第3読出部333は、第1読出部331による読み出しよりも所定の時間遅れをもって第1画素130aの第2光電変換部132bから出力信号Nを送信第1変調光3aの一周期のうちの半周期の間に読み出す。第1画素130aの第4読出部334は、第2読出部332による読み出しよりも所定の時間遅れをもって第1画素130aの第2光電変換部132bから出力信号Nを送信第1変調光3aの一周期のうちの残り半周期の間に読み出す。第2画素130bの第1読出部331は、第2画素130bの第1光電変換部132aから出力信号Nを送信第2変調光3bの一周期のうちの半周期の間に読み出す。第2画素130bの第2読出部332は、第2画素130bの第1光電変換部132aから出力信号Nを送信第2変調光3bの一周期のうちの残り半周期の間に読み出す。第2画素130bの第3読出部333は、第1読出部331による読み出しよりも所定の時間遅れをもって第2画素130bの第2光電変換部132bから出力信号Nを送信第2変調光3bの一周期のうちの半周期の間に読み出す。第2画素130bの第4読出部334は、第2読出部332による読み出しよりも所定の時間遅れをもって第2画素130bの第2光電変換部132bから出力信号Nを送信第2変調光3bの一周期のうちの残り半周期の間に読み出す。このようにしたので、光飛行時間計測法に基づく測距に利用でき、かつ、いわゆる位相差検出方式の測距にも利用できる信号を読み出すことができる。 (5) first reading unit 331 of the first pixel 130a reads during a half cycle of one cycle of the transmission first modulated light 3a from the first photoelectric conversion portion 132a output signal N 1 of the first pixel 130a .. The second reading unit 332 of the first pixel 130a reads the output signal N 2 from the first photoelectric conversion unit 132a of the first pixel 130a during the remaining half cycle of one cycle of the transmission first modulated light 3a. The third reading unit 333 of the first pixel 130a is the output signal N 3 from the second photoelectric conversion unit 132b transmits the first modulated light 3a of the first pixel 130a at a predetermined time delayed from the read by the first reading unit 331 Read during half a cycle of one cycle. The fourth reading unit 334 of the first pixel 130a, the second transmission output signal N 4 from the photoelectric conversion unit 132b first modulated light 3a of the first pixel 130a at a predetermined time delayed from the read by the second reading unit 332 Read during the remaining half of one cycle. The first reading unit 331 of the second pixel 130b reads during a half cycle of one cycle of the first transmission output signal N 1 from the photoelectric conversion unit 132a second modulated light 3b of the second pixel 130b. The second reading unit 332 of the second pixel 130b reads the output signal N 2 from the first photoelectric conversion unit 132a of the second pixel 130b during the remaining half cycle of one cycle of the transmission second modulated light 3b. The third reading unit 333 of the second pixel 130b, the second transmission from the photoelectric conversion unit 132b output signal N 3 second modulated light 3b than read by the first reading unit 331 with a predetermined time delay the second pixel 130b Read during half a cycle of one cycle. The fourth reading unit 334 of the second pixel 130b, the second transmission from the photoelectric conversion unit 132b output signal N 4 second modulated light 3b than read by the second reading unit 332 with a predetermined time delay the second pixel 130b Read during the remaining half of one cycle. Since this is done, it is possible to read out a signal that can be used for distance measurement based on the optical flight time measurement method and that can also be used for distance measurement by the so-called phase difference detection method.

(6)画像作成部13d(画像データ生成部)は、第1画素130aの出力信号N〜Nを加算した加算信号と、第2画素130bの出力信号N〜Nを加算した加算信号とに基づき、光学系11(結像光学系)による被写体2の像に関する画像データを生成する。このようにしたので、いわゆる位相差検出方式の焦点検出を行いつつ、デプスマップデータを作成し、更に、被写体2の画像データも作成することができる。 (6) The image creating unit 13d (the image data generating unit) is added to the sum and the sum signal obtained by adding the output signal N 1 to N 4 of the first pixel 130a, the output signal N 1 to N 4 of the second pixel 130b Based on the signal, image data related to the image of the subject 2 by the optical system 11 (imaging optical system) is generated. Since this is done, the depth map data can be created while performing the focus detection of the so-called phase difference detection method, and the image data of the subject 2 can also be created.

(7)焦点検出部13f(位相差式焦点検出部)は、第1画素130aおよび第2画素130bの第1光電変換部132aおよび第2光電変換部132bから読み出された信号の対に基づき、デフォーカス量を算出する。このようにしたので、いわゆる位相差検出方式の焦点検出を、デプスマップデータの作成と並行して行うことができる。 (7) The focus detection unit 13f (phase difference type focus detection unit) is based on a pair of signals read from the first photoelectric conversion unit 132a and the second photoelectric conversion unit 132b of the first pixel 130a and the second pixel 130b. , Calculate the defocus amount. Since this is done, the focus detection of the so-called phase difference detection method can be performed in parallel with the creation of the depth map data.

(8)焦点検出部13fは、第1画素130aおよび第2画素130bの第1光電変換部132aから読み出された出力信号N,Nを加算した加算信号と第2光電変換部132bから読み出された出力信号N,Nを加算した加算信号との対に基づきデフォーカス量を算出する。このようにしたので、いわゆる位相差検出方式の焦点検出を、デプスマップデータの作成と並行して行うことができる。 (8) the focus detection unit 13f, from the first pixel 130a and the first photoelectric conversion unit output signal N 1 read from 132a, N 2 addition signal obtained by adding the second photoelectric conversion portion 132b of the second pixel 130b The defocus amount is calculated based on the pair with the added signal obtained by adding the read output signals N 3 and N 4 . Since this is done, the focus detection of the so-called phase difference detection method can be performed in parallel with the creation of the depth map data.

(9)第1画素130aと第2画素130bは、それぞれ撮像素子12の撮像面20の全体に略均一に分布配置されており、測距部13cは、互いに近傍に位置する第1画素130aおよび第2画素130bについて、第1検出部13aおよび第2検出部13bがそれぞれ測定した位相差θ、θに基づき、距離Lを算出する。このようにしたので、画素数に等しい要素数のデプスマップデータを作成することができる。 (9) The first pixel 130a and the second pixel 130b are respectively arranged substantially uniformly over the entire image pickup surface 20 of the image pickup element 12, and the distance measuring unit 13c is the first pixel 130a and the first pixel 130a located in the vicinity of each other. For the second pixel 130b, the distance L is calculated based on the phase differences θ a and θ b measured by the first detection unit 13a and the second detection unit 13b, respectively. Since this is done, it is possible to create depth map data having an number of elements equal to the number of pixels.

(10)測距部13cは、第1画素130a毎の距離Lと第2画素130b毎の距離Lとに基づき、第1画素130aおよび第2画素130bの位置における距離Lに関するマップを表すデプスマップデータを作成する。このようにしたので、被写体2の主要部分のみならず、被写体2の各部分の距離を得ることができる。 (10) The distance measuring unit 13c is a depth map representing a map relating to the distance L at the positions of the first pixel 130a and the second pixel 130b based on the distance L for each first pixel 130a and the distance L for each second pixel 130b. Create data. Since this is done, it is possible to obtain not only the main part of the subject 2 but also the distance of each part of the subject 2.

(11)焦点調節部13gは、光学系11の絞り値が所定の値より大きい(暗い)ときに、測距部13cにより算出された距離Lに基づき焦点調節を行い、光学系11の絞り値が所定の値以下である(明るい)ときに、焦点検出部13fにより検出された焦点調節状態に基づき焦点調節を行う。このようにしたので、絞り値が大きく(暗く)位相差方式の焦点検出が行えない場合であっても焦点調節を行うことができる。 (11) When the aperture value of the optical system 11 is larger than a predetermined value (dark), the focus adjusting unit 13g adjusts the focus based on the distance L calculated by the distance measuring unit 13c, and the aperture value of the optical system 11 Is less than or equal to a predetermined value (bright), the focus is adjusted based on the focus adjustment state detected by the focus detection unit 13f. Since this is done, the focus can be adjusted even when the aperture value is large (dark) and the focus detection by the phase difference method cannot be performed.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。 The following modifications are also within the scope of the present invention, and one or more of the modifications can be combined with the above-described embodiment.

(変形例1)
第1画素30aと第2画素30b(第1画素130aと第2画素130b)の個数およびレイアウトは、上述した実施形態と異なっていてもよい。例えば第1の実施の形態では、図2(b)に示すように、略同数の第1画素30aと第2画素30bとを互い違いに配列していた。これに対し、図16(a)に示す配列では、撮像面20全体を2×2の4画素のブロックに区切り、1つのブロックが3つの第1画素30aと1つの第2画素30bとから構成されるようにしている。このように、第1画素30aが第2画素30bよりも多数存在するようにしてもよい。
(Modification example 1)
The number and layout of the first pixel 30a and the second pixel 30b (the first pixel 130a and the second pixel 130b) may be different from the above-described embodiment. For example, in the first embodiment, as shown in FIG. 2B, substantially the same number of first pixels 30a and second pixels 30b are arranged alternately. On the other hand, in the arrangement shown in FIG. 16A, the entire imaging surface 20 is divided into 2 × 2 4-pixel blocks, and one block is composed of three first pixels 30a and one second pixel 30b. I am trying to be done. In this way, the first pixel 30a may be present in a larger number than the second pixel 30b.

図10で説明したように、第2画素30bにより検出される位相差θは、位相差θから真の位相差Θを特定するために用いられる。つまり、位相差θに比べて、位相差θに求められる検出精度は高くない。従って、第2画素30bは、位相差θから真の位相差Θを特定できる程度の数だけ存在すればよい。 As described with reference to FIG. 10, the phase difference θ b detected by the second pixel 30 b is used to identify the true phase difference Θ from the phase difference θ a . That is, the detection accuracy required for the phase difference θ b is not higher than that for the phase difference θ a . Therefore, the number of the second pixels 30b may be large enough to specify the true phase difference Θ from the phase difference θ a .

つまり、図16(b)に示すように、撮像面20をM×Nの複数のブロック200に区切ったとき、1つのブロック200内に最低限1つの第2画素30bが存在すれば、デプスマップデータを作成することができる。この場合において、第2画素30bの位置は図16(b)に示すように不規則的であってもよい。この場合、第1画素30aが存在する位置については、その第1画素30aの出力から決定された出力値zと、その第1画素30aが属するブロック200内の1つの第2画素30bから決定された出力値zとを用いて、当該位置に対応する距離Lを算出する。また、第2画素30bが存在する位置については、その第2画素30bの出力から決定された出力値zと、その第2画素30bの近傍に存在する第1画素30aの出力から決定された出力値zとを用いて、当該位置に対応する距離Lを算出する。ここで、出力値z、zは単一の画素30の出力から決定された値を用いてもよいし、第1の実施の形態のように、複数の画素30の出力から決定された複数の値から決定された値(例えば平均値、中央値、最頻値等)を用いてもよい。つまり、ある位置に対応する距離Lを算出するための出力値z、zは、その近傍の画素30から得られた出力値z、zの平均的な値(算出平均値、幾何平均値、中央値等)でよい。 That is, as shown in FIG. 16B, when the imaging surface 20 is divided into a plurality of blocks 200 of M × N, if at least one second pixel 30b exists in one block 200, the depth map Data can be created. In this case, the position of the second pixel 30b may be irregular as shown in FIG. 16B. In this case, for the position where the first pixel 30a is present, the output value z a determined from the output of the first pixel 30a, determined from one of the second pixel 30b of the block 200 in which the first pixel 30a belongs The distance L corresponding to the position is calculated by using the output value z b . Also, the position where the second pixel 30b is present, the output value z b determined from the output of the second pixel 30b, which is determined from the output of the first pixel 30a existing in the vicinity of the second pixel 30b The distance L corresponding to the position is calculated by using the output value z a . Here, the output values z a and z b may be values determined from the output of a single pixel 30, or are determined from the outputs of a plurality of pixels 30 as in the first embodiment. A value determined from a plurality of values (for example, mean value, median value, mode value, etc.) may be used. That is, the output values z a and z b for calculating the distance L corresponding to a certain position are the average values of the output values z a and z b obtained from the pixels 30 in the vicinity thereof (calculated average value, geometric mean). The average value, median value, etc.) may be used.

このように、第1画素30aを増やし、第2画素30bを減らすことで、測距部13cにより作成されるデプスマップデータの精度が高くなる。なお、図2(b)や図16(b)のように、第1画素30aと第2画素30bをそれぞれ撮像素子12の撮像面20の全体に略均一に分布配置することで、測距部13cが距離Lを算出するために使用する位相差θおよび位相差θに関する第1画素30aおよび第2画素30bの対が互いに近傍に位置すること保証することができる。 By increasing the first pixel 30a and decreasing the second pixel 30b in this way, the accuracy of the depth map data created by the distance measuring unit 13c is improved. As shown in FIGS. 2B and 16B, the distance measuring unit is arranged by arranging the first pixel 30a and the second pixel 30b substantially uniformly over the entire image pickup surface 20 of the image sensor 12, respectively. It can be guaranteed that the pair of the first pixel 30a and the second pixel 30b with respect to the phase difference θ a and the phase difference θ b used by 13c to calculate the distance L are located close to each other.

なお、第1の実施の形態において説明した通り、第1画素30aと第2画素30bは、同一の構造を有している。そこで、ある画素30が、あるときには第1画素30aとして機能し、また別のときには第2画素30bとして機能するようにすることもできる。例えば、図16(a)のようなレイアウトで第1画素30aと第2画素30bとを配列したときに、被写体の特性に応じて第1画素30aと第2画素30bとを入れ替えるようにしてもよい。 As described in the first embodiment, the first pixel 30a and the second pixel 30b have the same structure. Therefore, it is possible that a certain pixel 30 functions as a first pixel 30a at one time and a second pixel 30b at another time. For example, when the first pixel 30a and the second pixel 30b are arranged in the layout as shown in FIG. 16A, the first pixel 30a and the second pixel 30b may be interchanged according to the characteristics of the subject. Good.

(変形例2)
図7を用いて説明したように、第1の実施の形態では、第1周期Tを4つの期間に分け、各々の期間における光電変換信号を出力信号N〜Nとして出力するように、第1画素30aを構成していた。従って、例えば出力信号N〜Nを積算すれば、それは第1周期Tの期間全てにおける光電変換信号となる。しかしながら、これとは異なる制御により得られた光電変換信号を出力信号N〜Nとしても、上述した実施形態と同様にデプスマップデータを作成することができる。
(Modification 2)
As described with reference to FIG. 7, in the first embodiment divides the first period T a into four periods, so as to output a photoelectric conversion signal in the period of each as an output signal N 1 to N 4 , The first pixel 30a was formed. Thus, for example, when integrating the output signal N 1 to N 4, it becomes the photoelectric conversion signal at all period of the first period T a. However, even if the photoelectric conversion signals obtained by different control are used as output signals N 1 to N 4 , depth map data can be created in the same manner as in the above-described embodiment.

図7を参照して説明すると、例えば、時刻t2から1/4Tの期間の最後の期間において、信号φTX1をオンすれば、対応する光電変換信号を出力信号Nとしてよい。必ずしも、時刻t2から1/4Tの期間の全てにおいて、信号φTX1をオンしなくてもよい。信号φTX2〜φTX4についても同様である。 Referring to FIG. 7, for example, in the last period of the period from the time t2 1 / 4T a, if ON signal .phi.TX1, may be the corresponding photoelectric conversion signal and the output signal N 1. Necessarily, in all of the period from the time t2 1 / 4T a, it is not necessary to turn on the signal .phi.TX1. The same applies to the signals φTX2 to φTX4.

図14を参照して別の例を説明する。例えば、信号φTX1を送信第1変調光3aの一周期(周期T)の第2の四半周期にオンする信号とし、信号φTX2を第4の四半周期にオンする信号とし、信号φTX3を第3の四半周期にオンする信号とし、信号φTX4を第1の四半周期にオンする信号とすることができる。この場合、出力信号N、N、N、Nは、それぞれ第1の実施の形態における出力信号N、N、N、Nと同様の信号になるので、第1の実施の形態と同様の演算を行えばよい。 Another example will be described with reference to FIG. For example, a signal for turning on the second quarter period of one cycle of the transmit signals φTX1 first modulated light 3a (period T a), and a signal for turning on the signal φTX2 the fourth quarter cycle of the signal φTX3 third The signal φTX4 can be used as a signal that turns on in the first quarter cycle. In this case, the output signals N 1 , N 2 , N 3 , and N 4 are the same signals as the output signals N 1 , N 3 , N 2 , and N 4 in the first embodiment, respectively. The same calculation as in the embodiment may be performed.

(変形例3)
図14を用いて説明したように、第2の実施の形態では、信号φTX3、φTX4(制御信号g(t)、g(t))を、信号φTX1、φTX2(制御信号g(t)、g(t))に対して第1周期Tの1/4だけ遅れた位相を有する信号としていた。しかしながら、信号φTX3、φTX4を、これとは異なる位相を有する信号とすることもできる。少なくとも、信号φTX1、φTX2に対して位相が異なっていればよい。
(Modification 3)
As described with reference to FIG. 14, in the second embodiment, the signal φTX3, φTX4 (control signal g 3 (t), g 4 (t)) and signals φTX1, φTX2 (control signal g 1 (t ), was a signal having a 1/4 delayed by the phase of the first period T a relative to g 2 (t)). However, the signals φTX3 and φTX4 may be signals having different phases. At least, the phases may be different with respect to the signals φTX1 and φTX2.

(変形例4)
上述した各実施形態において、送信第1変調光3aおよび送信第2変調光3bは、互いに異なる周期の正弦波であった。これとは異なる形に変調された光を、送信第1変調光3aおよび送信第2変調光3bとしてもよい。以下、そのような変調光3を用いる変形例について説明する。
(Modification example 4)
In each of the above-described embodiments, the transmission first modulation light 3a and the transmission second modulation light 3b are sine waves having different periods from each other. Lights modulated in a form different from this may be used as transmission first modulation light 3a and transmission second modulation light 3b. Hereinafter, a modified example using such a modulated light 3 will be described.

図17は、変形例4に係る撮像素子12の構成を示す回路図である。なお図17では、第1画素32aと第2画素32bの回路図のみを図示している。第1画素32aは、光電変換部32と、第1読出部331と、第2読出部332とを備える。第2画素32bは、光電変換部32と、第3読出部333と、第4読出部334とを備える。 FIG. 17 is a circuit diagram showing the configuration of the image pickup device 12 according to the modified example 4. Note that FIG. 17 shows only the circuit diagram of the first pixel 32a and the second pixel 32b. The first pixel 32a includes a photoelectric conversion unit 32, a first reading unit 331, and a second reading unit 332. The second pixel 32b includes a photoelectric conversion unit 32, a third reading unit 333, and a fourth reading unit 334.

図18は、撮影動作を示すタイミングチャートである。変形例4において、送信第1変調光3aおよび送信第2変調光3bの周期は、共に第2周期T(図4)である。送信第1変調光3aは、その周期において、時刻t21から第1周期T(図4)の1/2の期間だけ振幅Aを有し、それ以外の期間は振幅がゼロである。送信第2変調光3bは、その周期において、時刻t21から第2周期Tの1/2の期間だけ振幅Aを有し、それ以外の期間は振幅がゼロである。すなわち送信第1変調光3aと送信第2変調光3bは、同一の周期を有しデューティ比が異なるパルス変調光である。 FIG. 18 is a timing chart showing a shooting operation. In the modified example 4, the period of the transmission first modulation light 3a and the transmission second modulation light 3b are both the second period T b (FIG. 4). Transmitting the first modulated light 3a in its cycle, has only the amplitude A 1 1/2 period from the time t21 the first period T a (FIG. 4), the period of rest the amplitude is zero. Transmitting second modulated light 3b in its cycle, it has only the amplitude A 2 from the time t21 1/2 period of the second period T b, the period of rest the amplitude is zero. That is, the transmission first modulation light 3a and the transmission second modulation light 3b are pulse modulation lights having the same period and different duty ratios.

第1変調光3aと第2変調光3bとを重畳した変調光3は、図18に示すように、時刻t21から時刻t22までの期間には振幅A(=A+A)を有し、時刻t22から時刻t24までの期間には振幅Aを有する光となる。ここで、時刻t22は、時刻t21から第1周期Tの1/2だけ後の時刻であり、時刻t24は、時刻t21から第2周期Tの1/2だけ後の時刻である。また、振幅Aは振幅Aよりも十分に大きいものとする。 As shown in FIG. 18, the modulated light 3 in which the first modulated light 3a and the second modulated light 3b are superimposed has an amplitude A 3 (= A 1 + A 2 ) in the period from the time t21 to the time t22. , the light having the amplitude a 2 to the period from time t22 to time t24. Here, time t22 is the time t21 the time after only half of the first period T a, time t24 is the time t21 the time after only half of the second period T b. Further, it is assumed that the amplitude A 1 is sufficiently larger than the amplitude A 2 .

変形例4においては、時刻t21から第1周期Tの1/2だけ後の時刻t22までの間、信号φTX1がオンであり、信号φTX2がオフである。また、時刻t22から第1周期Tの1/2だけ後の時刻t23までの間、信号φTX1がオフであり、信号φTX2がオンである。 In Modification 4, during the period from time t21 to time t22 after only half of the first period T a, the signal φTX1 is on, the signal φTX2 is off. Also, during the period from time t22 to time t23 after only half of the first period T a, the signal φTX1 is off, the signal φTX2 is on.

他方、第2画素30bに注目すると、時刻t21に、時刻t21から第2周期Tの1/2だけ後の時刻t24までの間、信号φTX3がオンであり、信号φTX4がオフである。また、時刻t24から第2周期Tの1/2だけ後の時刻t25までの間、信号φTX3がオフであり、信号φTX4がオンである。 On the other hand, focusing on the second pixel 30b, at time t21, from time t21 to time t24 after only half of the second period T b, the signal φTX3 is on, the signal φTX4 is off. Further, the signal φTX3 is off and the signal φTX4 is on from the time t24 to the time t25, which is 1/2 of the second period T b .

第1画素32aのフローティングディフュージョンFD1には、反射光4のうち、図18に網掛けで示す光210を光電変換した電荷が蓄積される。換言すると、第1画素32aから出力される出力信号Nは、図18に網掛けで示す光210の量に基づく。同様に、第1画素32aから出力される出力信号Nは、図18に網掛けで示す光211の量に基づく。送信第1変調光3aと受信第1変調光4aとの位相差θがゼロである場合、反射光4のうち振幅がAである部分を光電変換した電荷は、すべてフローティングディフュージョンFD1に転送され、出力信号Nは出力信号Nよりも極めて大きくなる。位相差θが大きくなるに従い、反射光4のうち振幅がAである部分を光電変換した電荷がフローティングディフュージョンFD2に転送される割合は大きくなっていく。つまり、出力信号Nと出力信号Nとの比率を演算すれば、位相差θを求めることができる。なお、第1画素32aは、反射光4のうち振幅がAである部分だけでなく、振幅がAである部分も光電変換する。しかしながら、振幅Aを振幅Aよりも十分に大きくすれば、出力信号Nおよび出力信号Nの量は、振幅がAである部分の影響が支配的になり、振幅がAである部分の影響は無視できる。 In the floating diffusion FD1 of the first pixel 32a, the electric charge obtained by photoelectrically converting the light 210 shaded in FIG. 18 among the reflected light 4 is accumulated. In other words, the output signal N 1 output from the first pixel 32a is based on the amount of light 210 shaded in FIG. Similarly, the output signal N 2 output from the first pixel 32a is based on the amount of light 211 shaded in FIG. When the phase difference θ a between the transmission first modulation light 3a and the reception first modulation light 4a is zero, all the charges obtained by photoelectrically converting the portion of the reflected light 4 having the amplitude A 1 are transferred to the floating diffusion FD1. The output signal N 1 is much larger than the output signal N 2 . As the phase difference θ a increases, the ratio of the charge obtained by photoelectrically converting the portion of the reflected light 4 having the amplitude A 1 is transferred to the floating diffusion FD 2 increases. That is, the phase difference θ a can be obtained by calculating the ratio of the output signal N 1 and the output signal N 2 . The first pixel 32a performs photoelectric conversion not only on the portion of the reflected light 4 having an amplitude of A 1 but also on a portion of the reflected light 4 having an amplitude of A 2 . However, if the amplitude A 1 is made sufficiently larger than the amplitude A 2, the amount of the output signal N 1 and the output signal N 2 is dominated by the influence of the portion where the amplitude is A 1 , and the amplitude is A 2 . The effect of some parts can be ignored.

第2画素32bのフローティングディフュージョンFD3には、反射光4のうち、図18に網掛けで示す光212を光電変換した電荷が蓄積される。換言すると、第2画素32bから出力される出力信号Nは、図18に網掛けで示す光212の量に基づく。同様に、第2画素32bから出力される出力信号Nは、図18に網掛けで示す光213の量に基づく。送信第2変調光3bと受信第2変調光4bとの位相差θがゼロである場合、反射光4を光電変換した電荷は、すべてフローティングディフュージョンFD3に転送され、出力信号Nは出力信号Nよりも極めて大きくなる。位相差θが大きくなるに従い、反射光4を光電変換した電荷がフローティングディフュージョンFD4に転送される割合は大きくなっていく。つまり、出力信号Nと出力信号Nとの比率を演算すれば、位相差θを求めることができる。なお、出力信号N3には、反射光4のうち振幅がAである部分を光電変換した結果が反映される。しかしながら、振幅がAである期間(送信第1変調光3aのデューティ比)を十分小さくすれば、出力信号Nに対する振幅がAである部分の影響は無視できるほど小さくなる。 In the floating diffusion FD3 of the second pixel 32b, the electric charge obtained by photoelectrically converting the light 212 shaded in FIG. 18 among the reflected light 4 is accumulated. In other words, the output signal N 3 which is output from the second pixel 32b is based on the amount of light 212 shown by hatching in FIG. 18. Similarly, the output signal N 4 outputted from the second pixel 32b is based on the amount of light 213 shown by hatching in FIG. 18. When the phase difference θ b between the second modulated light 3b for transmission and the second modulated light 4b for reception is zero, all the charges obtained by photoelectrically converting the reflected light 4 are transferred to the floating diffusion FD3, and the output signal N 3 is an output signal. It becomes extremely larger than N 4. As the phase difference θ b increases, the ratio of the charge obtained by photoelectrically converting the reflected light 4 to the floating diffusion FD4 increases. That is, the phase difference θ b can be obtained by calculating the ratio of the output signal N 3 and the output signal N 4 . Note that the output signal N3, the result amplitude of the reflected light 4 is converted photoelectrically moiety is A 1 is reflected. However, if the period during which the amplitude is A 1 (duty ratio of the first transmitted modulated light 3a) is sufficiently reduced, the influence of the portion where the amplitude is A 1 on the output signal N 3 becomes negligibly small.

以上のように、変調光を第1の実施の形態や第2の実施の形態のように高周波変調光とするのではなく、変調光をパルス光とすることも可能である。 As described above, it is possible to use the modulated light as pulsed light instead of using the modulated light as high-frequency modulated light as in the first embodiment and the second embodiment.

(変形例5)
光源部10が被写体2に放出する変調光3は、可視光でなく赤外光(例えば近赤外光)であってもよい。このようにすると、特に被写体2が人物である場合に、変調光3が目に見えず、被写体2が変調光3を煩わしく感じることがなく、円滑に撮影を行うことができる。
(Modification 5)
The modulated light 3 emitted by the light source unit 10 to the subject 2 may be infrared light (for example, near-infrared light) instead of visible light. By doing so, especially when the subject 2 is a person, the modulated light 3 is not visible and the subject 2 does not feel the modulated light 3 bothersome, and the shooting can be performed smoothly.

(変形例6)
上述した実施の形態では、光源部10を撮像装置1の筐体外部に設けていた(例えば図1)。光源部10を撮像装置1の筐体内部に設けることもできる。例えば、光学系11と撮像素子12との間に斜めにハーフミラーを挿入し、ハーフミラーに対してy方向に変調光3を放出する光源部10を設ける。このようにすると、光源部10により放出された変調光3は、ハーフミラーで反射して光学系11の方向、すなわち被写体2の方向に向かって進行する。反射光4は、光学系11とハーフミラーを通過して撮像素子12に入射する。このようにすることで、撮像装置1の筐体デザインの自由度が高くなる。
(Modification 6)
In the above-described embodiment, the light source unit 10 is provided outside the housing of the image pickup apparatus 1 (for example, FIG. 1). The light source unit 10 can also be provided inside the housing of the imaging device 1. For example, a half mirror is inserted diagonally between the optical system 11 and the image pickup device 12, and a light source unit 10 that emits modulated light 3 in the y direction with respect to the half mirror is provided. In this way, the modulated light 3 emitted by the light source unit 10 is reflected by the half mirror and travels in the direction of the optical system 11, that is, in the direction of the subject 2. The reflected light 4 passes through the optical system 11 and the half mirror and is incident on the image sensor 12. By doing so, the degree of freedom in designing the housing of the image pickup apparatus 1 is increased.

(変形例7)
上述した実施の形態では、光源部10は送信第1変調光3aと送信第2変調光3bとから成る変調光3を被写体2に放出していたが、送信第1変調光3aと送信第2変調光3bをそれぞれ別個に被写体2に放出てもよい。例えば、送信第1変調光3aを放出する第1光源部と、送信第2変調光3bを放出する第2光源部とを、撮像装置1の異なる位置に設けてもよい。
(Modification 7)
In the above-described embodiment, the light source unit 10 emits the modulated light 3 composed of the transmission first modulated light 3a and the transmission second modulated light 3b to the subject 2, but the transmission first modulated light 3a and the transmission second The modulated light 3b may be emitted to the subject 2 separately. For example, the first light source unit that emits the transmission first modulated light 3a and the second light source unit that emits the transmission second modulated light 3b may be provided at different positions of the image pickup apparatus 1.

(変形例8)
上述した実施の形態では、デプスマップデータと共に画像データを作成可能な撮像装置について説明したが、画像データの作成は行わなくてもよい。例えば、デプスマップデータのみを作成する測距装置としてもよい。
(Modification 8)
In the above-described embodiment, the image pickup apparatus capable of creating image data together with the depth map data has been described, but the image data may not be created. For example, it may be a distance measuring device that creates only depth map data.

(変形例9)
第2の実施の形態において、第1光電変換部132aから出力信号Nおよび出力信号Nを読み出し、第2光電変換部132bから出力信号Nおよび出力信号Nを読み出すのではなく、第1光電変換部132aから出力信号Nおよび出力信号Nを読み出し、第2光電変換部132bから出力信号Nおよび出力信号Nを読み出すようにしてもよい。また、第1光電変換部132aから出力信号Nおよび出力信号Nを読み出し、第2光電変換部132bから出力信号Nおよび出力信号Nを読み出すようにしてもよい。
(Modification 9)
In the second embodiment, the output signal N 1 and the output signal N 2 are not read from the first photoelectric conversion unit 132a, and the output signal N 3 and the output signal N 4 are not read from the second photoelectric conversion unit 132b. The output signal N 1 and the output signal N 3 may be read from the 1 photoelectric conversion unit 132a, and the output signal N 2 and the output signal N 4 may be read from the second photoelectric conversion unit 132b. Further, the output signal N 1 and the output signal N 4 may be read from the first photoelectric conversion unit 132a, and the output signal N 2 and the output signal N 3 may be read from the second photoelectric conversion unit 132b.

(変形例10)
第1の実施の形態では、図3に示したように、1列の画素30に対して、出力信号N〜Nを出力するための4本の垂直信号線V1〜V4を設けていたが、これを2本の垂直信号線V1,V3のみ設けるようにしてもよい。この場合、出力信号N,Nは時分割的に垂直信号線V1に出力され、出力信号N,Nは時分割的に垂直信号線V3に出力されることになる。同様に、垂直信号線V1のみを設け、出力信号N〜Nを時分割的に垂直信号線V1に出力するようにしてもよい。
(Modification example 10)
In the first embodiment, as shown in FIG. 3, for the pixels 30 of a row, has been provided to four vertical signal lines V1~V4 for outputting an output signal N 1 to N 4 However, this may be provided only for the two vertical signal lines V1 and V3. In this case, the output signals N 1 and N 2 are time-divisionally output to the vertical signal line V1, and the output signals N 3 and N 4 are time-divisionally output to the vertical signal line V3. Similarly, only the vertical signal line V1 may be provided, and the output signals N 1 to N 4 may be output to the vertical signal line V1 in a time-division manner.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。 The present invention is not limited to the above-described embodiment as long as the features of the present invention are not impaired, and other embodiments considered within the scope of the technical idea of the present invention are also included within the scope of the present invention. ..

1、100…撮像装置、10…光源部、11…光学系、12、112…撮像素子、13、113…制御部、13a…第1検出部、13b…第2検出部、13c…測距部、13d…画像作成部、13e…発光制御部、13f…焦点検出部、13g…焦点調節部 1,100 ... Imaging device, 10 ... Light source unit, 11 ... Optical system, 12,112 ... Image sensor, 13,113 ... Control unit, 13a ... First detection unit, 13b ... Second detection unit, 13c ... Distance measuring unit , 13d ... Image creation unit, 13e ... Light emission control unit, 13f ... Focus detection unit, 13g ... Focus adjustment unit

Claims (18)

第1及び第2の変調光を対象物に放出する光源部と、
前記対象物で反射した前記第1及び第2の変調光を受光して信号を生成する第1及び第2の画素を有する撮像素子と、
前記第1の画素の出力信号により、前記光源部から放出された第1の変調光の位相と、前記第1の画素によって受光された第1の変調光の位相との第1の位相差を測定する第1の位相差測定部と、
前記第2の画素の出力信号により、前記光源部から放出された第2の変調光の位相と、前記第2の画素によって受光された第2の変調光の位相との第2の位相差を測定する第2の位相差測定部と、
前記第1及び第2の位相差によって前記対象物までの距離を算出する距離算出部と、
前記第1の画素の出力信号と前記第2の画素の出力信号とに基づき、前記対象物の画像データを生成する画像データ生成部と、
を備える撮像装置。
A light source unit that emits first and second modulated light to an object,
An image sensor having first and second pixels that receive the first and second modulated lights reflected by the object and generate a signal.
The output signal of the first pixel causes a first phase difference between the phase of the first modulated light emitted from the light source unit and the phase of the first modulated light received by the first pixel. The first phase difference measuring unit to be measured and
The second phase difference between the phase of the second modulated light emitted from the light source unit and the phase of the second modulated light received by the second pixel is determined by the output signal of the second pixel. The second phase difference measuring unit to be measured and
A distance calculation unit that calculates the distance to the object from the first and second phase differences, and
An image data generation unit that generates image data of the object based on the output signal of the first pixel and the output signal of the second pixel.
An imaging device comprising.
請求項1に記載の撮像装置において、
前記第1の変調光は、第1の周期を有し、
前記第2の変調光は、前記第1の周期とは異なる第2の周期を有する撮像装置。
In the imaging device according to claim 1,
The first modulated light has a first period and has a first period.
The second modulated light is an image pickup apparatus having a second cycle different from the first cycle.
請求項2に記載の撮像装置において、
前記撮像素子は、前記第1の画素の出力信号を、前記第1の周期に基づくタイミングで読み出し、前記第2の画素の出力信号を、前記第2の周期に基づくタイミングで読み出す撮像装置。
In the imaging device according to claim 2,
The image pickup device reads out the output signal of the first pixel at a timing based on the first cycle, and reads out the output signal of the second pixel at a timing based on the second cycle.
請求項3に記載の撮像装置において、
前記撮像素子は、前記第1の画素の出力信号を、前記第1の周期の間に、所定の位相遅れで、第1、第2、第3、及び第4の信号として順次読み出し、
前記第1の位相差測定部は、前記第1の信号と前記第3の信号との差分と、前記第2の信号と前記第4の信号との差分とに基づき、前記第1の位相差を測定し、
前記撮像素子は、前記第2の画素の出力信号を、前記第2の周期の間に、所定の位相遅れで、第5、第6、第7、及び第8の信号として、順次読み出し、
前記第2の位相差測定部は、前記第5の信号と前記第7の信号との差分と、前記第6の信号と前記第8の信号との差分とに基づき、前記第2の位相差を測定する撮像装置。
In the imaging device according to claim 3,
The image sensor sequentially reads out the output signal of the first pixel as a first, second, third, and fourth signal with a predetermined phase delay during the first cycle.
The first phase difference measuring unit is based on the difference between the first signal and the third signal and the difference between the second signal and the fourth signal, and the first phase difference. Measure and
The image sensor sequentially reads out the output signal of the second pixel as the fifth, sixth, seventh, and eighth signals with a predetermined phase delay during the second cycle.
The second phase difference measuring unit is based on the difference between the fifth signal and the seventh signal and the difference between the sixth signal and the eighth signal, and the second phase difference. An imaging device that measures.
請求項4に記載の撮像装置において、
前記第1及び第2の画素の各々は、マイクロレンズと光電変換部とを有し、
前記撮像素子は、前記第1の画素の前記光電変換部から前記第1、第2、第3、及び第4の信号を順次読み出し、
前記撮像素子は、前記第2の画素の前記光電変換部から前記第5、第6、第7、及び第8の信号を順次読み出す撮像装置。
In the imaging device according to claim 4,
Each of the first and second pixels has a microlens and a photoelectric conversion unit.
The image sensor sequentially reads out the first, second, third, and fourth signals from the photoelectric conversion unit of the first pixel.
The image pickup device is an image pickup device that sequentially reads out the fifth, sixth, seventh, and eighth signals from the photoelectric conversion unit of the second pixel.
請求項5に記載の撮像装置において、
前記撮像素子は、前記第1の画素の前記光電変換部から前記第1、第2、第3、及び第4の信号をそれぞれ読み出す第1、第2、第3、及び第4の読出部を有し、
前記撮像素子は、前記第2の画素の前記光電変換部から前記第5、第6、第7、及び第8の信号をそれぞれ読み出す第5、第6、第7、及び第8の読出部を有する撮像装置。
In the imaging device according to claim 5,
The image sensor has first, second, third, and fourth reading units that read the first, second, third, and fourth signals from the photoelectric conversion unit of the first pixel, respectively. Have and
The image sensor has fifth, sixth, seventh, and eighth reading units that read the fifth, sixth, seventh, and eighth signals from the photoelectric conversion unit of the second pixel, respectively. Image sensor to have.
請求項4に記載の撮像装置において、
前記第1及び第2の画素の各々は、マイクロレンズと第1及び第2の光電変換部とを有し、
前記撮像素子は、前記第1の画素の前記第1の光電変換部から前記第1、第2、第3、及び第4の信号のうちの二つの信号を読み出し、前記第2の光電変換部から前記第1、第2、第3、及び第4の信号のうちの残りの二つの信号を読み出し、
前記撮像素子は、前記第2の画素の前記第1の光電変換部から前記第5、第6、第7、及び第8の信号のうちの二つの信号を読み出し、前記第2の光電変換部から前記第5、第6、第7、及び第8の信号のうちの残りの二つの信号を読み出す撮像装置。
In the imaging device according to claim 4,
Each of the first and second pixels has a microlens and first and second photoelectric conversion units.
The image sensor reads two signals out of the first, second, third, and fourth signals from the first photoelectric conversion unit of the first pixel, and reads the second photoelectric conversion unit. The remaining two signals of the first, second, third, and fourth signals are read from
The image sensor reads two signals out of the fifth, sixth, seventh, and eighth signals from the first photoelectric conversion unit of the second pixel, and reads the second photoelectric conversion unit. An image pickup device that reads out the remaining two signals from the fifth, sixth, seventh, and eighth signals.
請求項7に記載の撮像装置において、
前記撮像素子は、前記第1の画素の前記第1の光電変換部から前記二つの信号をそれぞれ読み出す第1及び第2の読出部と、前記第2の光電変換部から前記残りの二つの信号をそれぞれ読み出す第3及び第4の読出部とを有し、
前記撮像素子は、前記第2の画素の前記第1の光電変換部から前記二つの信号をそれぞれ読み出す第5及び第6の読出部と、前記第2の光電変換部から前記残りの二つの信号をそれぞれ読み出す第7及び第8の読出部とを有する撮像装置。
In the imaging device according to claim 7,
The image sensor has a first and second reading unit that reads the two signals from the first photoelectric conversion unit of the first pixel, respectively, and the remaining two signals from the second photoelectric conversion unit. It has a third and fourth reading unit which reads out, respectively.
The image sensor has a fifth and a sixth reading unit that reads the two signals from the first photoelectric conversion unit of the second pixel, respectively, and the remaining two signals from the second photoelectric conversion unit. An image pickup device having a seventh and eighth reading units, respectively.
請求項8に記載の撮像装置において、
前記第1の読出部は、前記第1の画素の前記第1の光電変換部から前記二つの信号の一方を前記第1の周期のうちの半周期の間に読み出し、
前記第2の読出部は、前記第1の画素の前記第1の光電変換部から前記二つの信号の他方を前記第1の周期のうちの残り半周期の間に読み出し、
前記第3の読出部は、前記第1の読出部による読み出しよりも所定の時間遅れをもって前記第1の画素の前記第2の光電変換部から前記二つの信号の一方を前記第1の周期のうちの半周期の間に読み出し、
前記第4の読出部は、前記第2の読出部による読み出しよりも所定の時間遅れをもって前記第1の画素の前記第2の光電変換部から前記二つの信号の他方を前記第1の周期のうちの残り半周期の間に読み出し、
前記第5の読出部は、前記第2の画素の前記第1の光電変換部から前記二つの信号の一方を前記第2の周期のうちの半周期の間に読み出し、
前記第6の読出部は、前記第2の画素の前記第1の光電変換部から前記二つの信号の他方を前記第2の周期のうちの残り半周期の間に読み出し、
前記第7の読出部は、前記第5の読出部による読み出しよりも所定の時間遅れをもって前記第2の画素の前記第2の光電変換部から前記二つの信号の一方を前記第2の周期のうちの半周期の間に読み出し、
前記第8の読出部は、前記第6の読出部による読み出しよりも所定の時間遅れをもって前記第2の画素の前記第2の光電変換部から前記二つの信号の他方を前記第2の周期のうちの残り半周期の間に読み出す撮像装置。
In the imaging device according to claim 8,
The first reading unit reads one of the two signals from the first photoelectric conversion unit of the first pixel during half a period of the first period.
The second reading unit reads the other of the two signals from the first photoelectric conversion unit of the first pixel during the remaining half of the first period.
The third reading unit transmits one of the two signals from the second photoelectric conversion unit of the first pixel with a predetermined time delay from the reading by the first reading unit in the first cycle. Read during our half cycle,
The fourth reading unit performs the other of the two signals from the second photoelectric conversion unit of the first pixel with a predetermined time delay from the reading by the second reading unit in the first cycle. Read during the other half of our cycle,
The fifth reading unit reads one of the two signals from the first photoelectric conversion unit of the second pixel during half a period of the second period.
The sixth reading unit reads the other of the two signals from the first photoelectric conversion unit of the second pixel during the remaining half of the second period.
The seventh reading unit sends one of the two signals from the second photoelectric conversion unit of the second pixel to the second period with a predetermined time delay from the reading by the fifth reading unit. Read during our half cycle,
The eighth reading unit transfers the other of the two signals from the second photoelectric conversion unit of the second pixel to the second period with a predetermined time delay from the reading by the sixth reading unit. An imaging device that reads out during the remaining half of the cycle.
請求項4から9までのいずれか一項に記載の撮像装置において、
前記画像データ生成部は、前記第1、第2、第3、及び第4の信号を加算した加算信号と、前記第5、第6、第7、及び第8の信号を加算した加算信号とに基づき、前記画像データを生成する撮像装置。
In the imaging device according to any one of claims 4 to 9.
The image data generation unit includes an addition signal obtained by adding the first, second, third, and fourth signals, and an addition signal obtained by adding the fifth, sixth, seventh, and eighth signals. An image pickup device that generates the image data based on the above.
請求項7〜9のいずれか一項に記載の撮像装置において、
前記第1の画素の前記第1の光電変換部から読み出された信号と前記第2の光電変換部から読み出された信号との対と、前記第2の画素の前記第1の光電変換部から読み出された信号と前記第2の光電変換部から読み出された信号との対との少なくとも一方の対に基づき、デフォーカス量を算出する位相差式焦点検出部を更に備える撮像装置。
In the imaging apparatus according to any one of claims 7 to 9,
A pair of a signal read from the first photoelectric conversion unit of the first pixel and a signal read from the second photoelectric conversion unit, and the first photoelectric conversion of the second pixel. An imaging device further including a phase difference type focus detection unit that calculates a defocus amount based on at least one pair of a signal read from the unit and a signal read from the second photoelectric conversion unit. ..
請求項11に記載の撮像装置において、
前記位相差式焦点検出部は、前記第1の画素の前記第1の光電変換部から読み出された前記二つの信号を加算した加算信号と前記第2の光電変換部から読み出された前記二つの信号を加算した加算信号との対と、前記第2の画素の前記第1の光電変換部から読み出された前記二つの信号を加算した加算信号と前記第2の光電変換部から読み出された前記二つの信号を加算した加算信号との対との少なくとも一方の対に基づきデフォーカス量を算出する撮像装置。
In the imaging device according to claim 11,
The phase difference type focus detection unit is an addition signal obtained by adding the two signals read from the first photoelectric conversion unit of the first pixel and the addition signal read from the second photoelectric conversion unit. A pair of an addition signal obtained by adding two signals, an addition signal obtained by adding the two signals read from the first photoelectric conversion unit of the second pixel, and a reading from the second photoelectric conversion unit. An imaging device that calculates the amount of defocus based on at least one pair with a pair with an added signal obtained by adding the two signals.
請求項11または12に記載の撮像装置において、
前記第1の周期は、前記第2の周期よりも小さく、
前記位相差式焦点検出部は、前記第1の画素の前記第1の光電変換部から読み出された信号と前記第2の光電変換部から読み出された信号とに基づきデフォーカス量を算出する撮像装置。
In the imaging apparatus according to claim 11 or 12,
The first cycle is smaller than the second cycle,
The phase difference type focus detection unit calculates the defocus amount based on the signal read from the first photoelectric conversion unit of the first pixel and the signal read from the second photoelectric conversion unit. Imaging device.
請求項11から13までのいずれか一項に記載の撮像装置において、
前記位相差式焦点検出部の前記デフォーカス量と前記距離算出部の前記距離との少なくとも一方に基づき焦点調節を行う焦点調節部を更に備える撮像装置。
In the imaging apparatus according to any one of claims 11 to 13.
An image pickup apparatus further comprising a focus adjustment unit that adjusts the focus based on at least one of the defocus amount of the phase difference type focus detection unit and the distance of the distance calculation unit.
請求項14に記載の撮像装置において、
前記焦点調節部は、結像光学系の絞り値が所定の値より大きいときに、前記距離算出部により算出された前記距離に基づき焦点調節を行い、結像光学系の絞り値が所定の値以下であるときに、前記位相差式焦点検出部により算出された前記デフォーカス量に基づき焦点調節を行う撮像装置。
In the imaging device according to claim 14,
When the aperture value of the imaging optical system is larger than a predetermined value, the focus adjusting unit adjusts the focus based on the distance calculated by the distance calculating unit, and the aperture value of the imaging optical system is a predetermined value. An imaging device that adjusts the focus based on the defocus amount calculated by the phase difference type focus detection unit when the following is true.
請求項1〜15のいずれか一項に記載の撮像装置において、
前記距離算出部による前記第1の画素毎の前記距離と前記第2の画素毎の前記距離とに基づき、前記第1及び第2の画素の位置における距離に関するデプスマップを作成するデプスマップ作成部を更に備える撮像装置。
In the imaging apparatus according to any one of claims 1 to 15,
A depth map creation unit that creates a depth map regarding the distance at the positions of the first and second pixels based on the distance for each of the first pixels and the distance for each second pixel by the distance calculation unit. An imaging device further equipped with.
請求項1に記載の撮像装置において、
前記第1の変調光は、第1のデューティ比を有するパルス変調光であり、
前記第2の変調光は、前記第1のデューティ比とは異なる第2のデューティ比を有するパルス変調光である撮像装置。
In the imaging device according to claim 1,
The first modulated light is pulse-modulated light having a first duty ratio, and is
The second modulated light is an image pickup device which is pulse-modulated light having a second duty ratio different from the first duty ratio.
第1及び第2の変調光を対象物に放出する光源部と、
前記対象物で反射した前記第1及び第2の変調光を受光して信号を生成する第1及び第2の画素を有する撮像素子と、
前記第1の画素の出力信号により、前記光源部から放出された第1の変調光の位相と、前記第1の画素によって受光された第1の変調光の位相との第1の位相差を測定する第1の位相差測定部と、
前記第2の画素の出力信号により、前記光源部から放出された第2の変調光の位相と、前記第2の画素によって受光された第2の変調光の位相との第2の位相差を測定する第2の位相差測定部と、
前記第1及び第2の位相差によって前記対象物までの距離を算出する距離算出部と、
を備える測距装置。
A light source unit that emits first and second modulated light to an object,
An image sensor having first and second pixels that receive the first and second modulated lights reflected by the object and generate a signal.
The output signal of the first pixel causes a first phase difference between the phase of the first modulated light emitted from the light source unit and the phase of the first modulated light received by the first pixel. The first phase difference measuring unit to be measured and
The second phase difference between the phase of the second modulated light emitted from the light source unit and the phase of the second modulated light received by the second pixel is determined by the output signal of the second pixel. The second phase difference measuring unit to be measured and
A distance calculation unit that calculates the distance to the object from the first and second phase differences, and
A distance measuring device equipped with.
JP2020170113A 2020-10-07 2020-10-07 Imaging device and distance measuring device Pending JP2021013179A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020170113A JP2021013179A (en) 2020-10-07 2020-10-07 Imaging device and distance measuring device
JP2022163693A JP2023001122A (en) 2020-10-07 2022-10-12 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020170113A JP2021013179A (en) 2020-10-07 2020-10-07 Imaging device and distance measuring device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016093225A Division JP2017201760A (en) 2016-05-06 2016-05-06 Imaging device and distance measuring device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022163693A Division JP2023001122A (en) 2020-10-07 2022-10-12 Imaging apparatus

Publications (2)

Publication Number Publication Date
JP2021013179A true JP2021013179A (en) 2021-02-04
JP2021013179A5 JP2021013179A5 (en) 2021-10-21

Family

ID=74226929

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020170113A Pending JP2021013179A (en) 2020-10-07 2020-10-07 Imaging device and distance measuring device
JP2022163693A Pending JP2023001122A (en) 2020-10-07 2022-10-12 Imaging apparatus

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022163693A Pending JP2023001122A (en) 2020-10-07 2022-10-12 Imaging apparatus

Country Status (1)

Country Link
JP (2) JP2021013179A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022211392A1 (en) * 2021-04-01 2022-10-06 Solidvue, Inc. Image sensor and image processing device including the same

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006516324A (en) * 2002-07-30 2006-06-29 フリースケール セミコンダクター インコーポレイテッド Pixel sensor circuit device and method thereof
JP2008089346A (en) * 2006-09-29 2008-04-17 Brainvision Inc Solid-state imaging element
JP2009047662A (en) * 2007-08-22 2009-03-05 Hamamatsu Photonics Kk Solid imaging device and depth map measuring device
US20110037969A1 (en) * 2009-08-14 2011-02-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for optical distance measurement
JP2014169921A (en) * 2013-03-04 2014-09-18 Denso Corp Distance sensor
JP2016024234A (en) * 2014-07-16 2016-02-08 キヤノン株式会社 Imaging apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006516324A (en) * 2002-07-30 2006-06-29 フリースケール セミコンダクター インコーポレイテッド Pixel sensor circuit device and method thereof
JP2008089346A (en) * 2006-09-29 2008-04-17 Brainvision Inc Solid-state imaging element
JP2009047662A (en) * 2007-08-22 2009-03-05 Hamamatsu Photonics Kk Solid imaging device and depth map measuring device
US20110037969A1 (en) * 2009-08-14 2011-02-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for optical distance measurement
JP2014169921A (en) * 2013-03-04 2014-09-18 Denso Corp Distance sensor
JP2016024234A (en) * 2014-07-16 2016-02-08 キヤノン株式会社 Imaging apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022211392A1 (en) * 2021-04-01 2022-10-06 Solidvue, Inc. Image sensor and image processing device including the same

Also Published As

Publication number Publication date
JP2023001122A (en) 2023-01-04

Similar Documents

Publication Publication Date Title
JP2017201760A (en) Imaging device and distance measuring device
JP6593396B2 (en) Detection device and imaging device
KR101975971B1 (en) Depth camera, multi-depth camera system, and synchronizing method thereof
US9451240B2 (en) 3-dimensional image acquisition apparatus and 3D image acquisition method for simultaneously obtaining color image and depth image
US9435891B2 (en) Time of flight camera with stripe illumination
JP3869005B2 (en) Telecentric stereoscopic camera and method
US10237534B2 (en) Imaging device and a method for producing a three-dimensional image of an object
JP6603320B2 (en) Projector device with distance image acquisition device and projection mapping method
US8159598B2 (en) Distance estimation apparatus, distance estimation method, storage medium storing program, integrated circuit, and camera
KR930007296A (en) 3D stereoscopic information acquisition device
JP2009115893A (en) Image-pickup apparatus
WO2017183181A1 (en) Three-dimensional shape measurement device
JP2023001122A (en) Imaging apparatus
JP2023115356A (en) Measurement device, imaging device, control method, and program
CN115315611A (en) Wide-angle 3D sensing
JP2003290131A (en) Stereoscopic endoscope
JP6821967B2 (en) Imaging device
JP2017040704A (en) Imaging apparatus and imaging system
JP6983531B2 (en) Distance measuring device, distance measuring system, and distance measuring method
JP2001153612A (en) Three-dimensional image pickup device and method, and inteference light generating device
JP2013140380A (en) Imaging apparatus
JP7438555B2 (en) 3D measurement method and 3D measurement device
JP5549545B2 (en) projector
JP6136364B2 (en) Defocus amount detection device and camera
JP2019128548A (en) Focus detector and optical apparatus equipped with focus detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201009

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20210423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210715

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220712