JP7384204B2 - Imaging device and imaging method - Google Patents

Imaging device and imaging method Download PDF

Info

Publication number
JP7384204B2
JP7384204B2 JP2021533059A JP2021533059A JP7384204B2 JP 7384204 B2 JP7384204 B2 JP 7384204B2 JP 2021533059 A JP2021533059 A JP 2021533059A JP 2021533059 A JP2021533059 A JP 2021533059A JP 7384204 B2 JP7384204 B2 JP 7384204B2
Authority
JP
Japan
Prior art keywords
light receiving
light
receiving elements
exposure time
groups
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021533059A
Other languages
Japanese (ja)
Other versions
JPWO2021010355A1 (en
Inventor
洋二郎 手塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JPWO2021010355A1 publication Critical patent/JPWO2021010355A1/ja
Priority to JP2023191611A priority Critical patent/JP2024014925A/en
Application granted granted Critical
Publication of JP7384204B2 publication Critical patent/JP7384204B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Description

本発明は、撮像装置及び撮像方法に関する。 The present invention relates to an imaging device and an imaging method.

測定範囲に向けて赤外線又はレーザ光を射出し、測定範囲内に存在する被写体から戻る光を検出することで、光の射出から検出までの検出時間(いわゆる飛行時間)より測定範囲内に存在する物体までの距離を測定することができる。斯かるTOF(Time of Flight)方式の測距方法では、測定範囲内に複数の物体が存在する場合、それぞれの距離を決定することもできる。しかし、それぞれの物体を特定することはできない。
特許文献1 国際公開第2018/101187号
By emitting infrared rays or laser light towards the measurement range and detecting the light returning from the object existing within the measurement range, the detection time from light emission to detection (so-called flight time) indicates that the object exists within the measurement range. Can measure distance to objects. In such a TOF (Time of Flight) distance measuring method, when a plurality of objects exist within the measurement range, the distances of each object can also be determined. However, it is not possible to identify each object.
Patent Document 1 International Publication No. 2018/101187

一般的開示General disclosure

(項目1)
撮像装置は、光を射出する発光部を備えてよい。
撮像装置は、発光部から射出された光の反射光を受光する複数の受光素子をそれぞれが有する複数のグループを備えてよい。
撮像装置は、グループごとに像を生成する処理部を備えてよい。
複数のグループの反射光を受光するタイミングおよび露光時間の少なくとも一方は、それぞれ異なる撮像範囲に対応して設定されてよい。
処理部は、複数のグループのそれぞれに対応する撮像範囲の対象物の像を生成してよい。
(項目2)
撮像範囲は、複数の受光素子から前記対象部までの距離範囲、および、発光部から光が射出されてから複数の受光素子で受光するまでの時間範囲の少なくとも一方を含んでよい。
(項目3)
撮像装置は、受光素子ごとまたはグループごとに、タイミングおよび露光時間の少なくとも一方を制御する制御部を備えてよい。
(項目4)
撮像装置は、複数の受光素子が配列された受光面を備えてよい。
複数のグループは、それぞれ、受光面上の異なる領域に位置する受光素子を有してよい。
(項目5)
複数のグループのうちの少なくとも1つのグループは、それぞれが少なくとも1つの受光素子を含む受光面上の複数のブロックを含んでよい。
(項目6)
受光面上の下部領域に位置する受光素子のタイミングは、受光面上の上部領域に位置する受光素子のタイミングより先であってよい。
(項目7)
発光部及び複数の受光素子は、移動体に設けられてよい。
制御部は、移動体が左前方に移動する場合に受光面上の右部領域に位置する受光素子の露光時間を前にシフトし、移動体が右前方に移動する場合に受光面上の左部領域に位置する受光素子の露光時間を前にシフトしてよい。
(項目8)
制御部は、複数のグループの露光時間が複数のグループ間で連続するように、複数の受光素子の露光時間を制御してよい。
(項目9)
制御部は、複数のグループのうちの露光時間が前のグループに含まれる受光素子の数が、露光時間が後のグループに含まれる受光素子の数より多くなるように、複数の受光素子の露光時間を制御してよい。
(項目10)
制御部は、複数のグループのそれぞれの露光時間が同じ時刻から開始して互いに異なる時刻で終了するように、複数の受光素子の露光時間を制御してよい。
(項目11)
制御部は、複数のグループのうちの少なくとも1つのグループの露光が光の射出前に行われるように、複数の受光素子の露光時間を制御し、
処理部は、複数のグループのうちの残りのグループのそれぞれに含まれる受光素子の出力信号の強度から少なくとも1つのグループに含まれる受光素子の出力信号の強度を減算してよい。
(項目12)
処理部は、生成した前記像に含まれる物体を特定してよい。
(項目13)
処理部は、複数のグループごとに特定される物体及び複数のグループのそれぞれの露光時間に基づいて、物体の移動を検知してよい。
(項目14)
発光部及び複数の受光素子は、移動体に設けられてよい。
制御部は、移動体の速度に応じて複数の受光素子の露光時間を制御してよい。
(項目15)
制御部は、移動体の速度が速いほど複数の受光素子のうちの少なくも一部の受光素子の露光時間を後にシフトしてよい。
(項目16)
複数の受光素子または複数のグループは、ベイヤー配列された別の受光素子の間に配置されてよい。
(Item 1)
The imaging device may include a light emitting section that emits light.
The imaging device may include a plurality of groups each including a plurality of light receiving elements that receive reflected light emitted from the light emitting section.
The imaging device may include a processing unit that generates images for each group.
At least one of the timing of receiving the plurality of groups of reflected light and the exposure time may be set corresponding to different imaging ranges.
The processing unit may generate images of the object in the imaging range corresponding to each of the plurality of groups.
(Item 2)
The imaging range may include at least one of a distance range from the plurality of light receiving elements to the target section and a time range from when light is emitted from the light emitting section until the light is received by the plurality of light receiving elements.
(Item 3)
The imaging device may include a control unit that controls at least one of timing and exposure time for each light receiving element or for each group.
(Item 4)
The imaging device may include a light receiving surface on which a plurality of light receiving elements are arranged.
Each of the plurality of groups may have light receiving elements located in different regions on the light receiving surface.
(Item 5)
At least one of the plurality of groups may include a plurality of blocks on the light receiving surface, each of which includes at least one light receiving element.
(Item 6)
The timing of the light receiving element located in the lower region on the light receiving surface may be earlier than the timing of the light receiving element located in the upper region on the light receiving surface.
(Item 7)
The light emitting section and the plurality of light receiving elements may be provided on the moving body.
The control unit shifts the exposure time of the light receiving element located on the right area on the light receiving surface forward when the moving object moves forward to the left, and shifts the exposure time of the light receiving element located on the right area on the light receiving surface forward when the moving object moves forward to the right. The exposure time of the light receiving element located in the partial area may be shifted forward.
(Item 8)
The control unit may control the exposure time of the plurality of light receiving elements so that the exposure time of the plurality of groups is continuous among the plurality of groups.
(Item 9)
The control unit controls the exposure of the plurality of light-receiving elements such that the number of light-receiving elements included in the group whose exposure time is earlier among the plurality of groups is greater than the number of light-receiving elements included in the group whose exposure time is later. You can control time.
(Item 10)
The control unit may control the exposure times of the plurality of light receiving elements so that the exposure times of the plurality of groups start at the same time and end at mutually different times.
(Item 11)
The control unit controls the exposure time of the plurality of light receiving elements so that at least one of the plurality of groups is exposed to light before the light is emitted;
The processing unit may subtract the intensity of the output signal of the light receiving element included in at least one group from the intensity of the output signal of the light receiving element included in each of the remaining groups among the plurality of groups.
(Item 12)
The processing unit may identify an object included in the generated image.
(Item 13)
The processing unit may detect movement of the object based on the objects specified for each of the plurality of groups and the exposure time of each of the plurality of groups.
(Item 14)
The light emitting section and the plurality of light receiving elements may be provided on the moving body.
The control unit may control the exposure time of the plurality of light receiving elements according to the speed of the moving object.
(Item 15)
The control unit may shift the exposure time of at least some of the plurality of light receiving elements later as the speed of the moving object is faster.
(Item 16)
A plurality of light receiving elements or a plurality of groups may be arranged between other light receiving elements in a Bayer arrangement.

(項目17)
移動体は、項目1から16のいずれか一項に記載の撮像装置を備えてよい。
移動体は、移動体の速度を検出する速度センサを備えてよい。
移動体は、移動体の移動方向を検出する移動方向センサを備えてよい。
(Item 17)
The mobile object may include the imaging device according to any one of items 1 to 16.
The moving object may include a speed sensor that detects the speed of the moving object.
The moving body may include a moving direction sensor that detects the moving direction of the moving body.

(項目18)
撮像方法は、光を射出する段階を含んでよい。
撮像方法は、複数の受光素子を用いて、射出された光の反射光を受光する段階を含んでよい。
撮像方法は、複数の受光素子ごと、または、少なくとも2つの受光素子をそれぞれが有する複数のグループごとに、露光時間を制御する段階を含んでよい。
撮像方法は、露光時間に対応する測定対象範囲内の対象物までの距離、および、対象物の像の少なくとも一方を、複数の受光素子ごとまたは複数のグループごとに生成する段階を含んでよい。
(Item 18)
The imaging method may include emitting light.
The imaging method may include the step of receiving reflected light of the emitted light using a plurality of light receiving elements.
The imaging method may include the step of controlling exposure time for each of a plurality of light receiving elements or for each of a plurality of groups each having at least two light receiving elements.
The imaging method may include the step of generating at least one of a distance to an object within a measurement target range corresponding to an exposure time and an image of the object for each of a plurality of light receiving elements or for each of a plurality of groups.

なお、上記の発明の概要は、本発明の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all the features of the invention. Furthermore, subcombinations of these features may also constitute inventions.

本実施形態に係る裏面照射型の受光装置の断面構成を示す。1 shows a cross-sectional configuration of a back-illuminated light receiving device according to the present embodiment. 撮像チップの受光素子のグループ配列の一例を示す。An example of a group arrangement of light receiving elements of an imaging chip is shown. 撮像チップの受光素子のグループ配列の別の例を示す。Another example of the group arrangement of the light receiving elements of the imaging chip is shown. 撮像チップの受光素子のグループ配列の別の例を示す。Another example of the group arrangement of the light receiving elements of the imaging chip is shown. 撮像チップの受光素子のグループ配列の別の例を示す。Another example of the group arrangement of the light receiving elements of the imaging chip is shown. 画素の等価回路を示す。The equivalent circuit of a pixel is shown. 単位グループに含まれるブロックにおける画素の接続関係を示す回路図である。FIG. 2 is a circuit diagram showing a connection relationship of pixels in blocks included in a unit group. 撮像素子の機能的構成を示すブロック図である。FIG. 2 is a block diagram showing the functional configuration of an image sensor. 本実施形態に係る撮像装置の構成を示す。1 shows the configuration of an imaging device according to this embodiment. 撮像範囲内に存在する物体及びそれらの距離の一例を示す。An example of objects existing within the imaging range and their distances is shown. 受光素子の各グループの露光時間の一例を示す。An example of the exposure time of each group of light receiving elements is shown. 受光素子の各グループの露光時間の別の例を示す。Another example of the exposure time of each group of light receiving elements is shown. 受光素子の各グループの露光時間の別の例を示す。Another example of the exposure time of each group of light receiving elements is shown. 受光素子の各グループの露光時間の別の例を示す。Another example of the exposure time of each group of light receiving elements is shown. 本実施形態に係る撮像装置を車両に搭載した場合の撮像システムの構成の一例を示す。1 shows an example of the configuration of an imaging system when an imaging device according to the present embodiment is mounted on a vehicle. 車両に搭載された撮像装置による撮像処理のフローの一例を示す。An example of the flow of imaging processing by an imaging device mounted on a vehicle is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be explained through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all combinations of features described in the embodiments are essential to the solution of the invention.

図1に、本実施形態に係る裏面照射型の受光装置100の断面構成を示す。受光装置100は、撮像チップと113、信号処理チップ111、及びメモリチップ112を含む。これらのチップは積層され、各チップに形成されたCu等の導電性を有するバンプ109同士の接合と、各チップ上面に形成される酸化膜層同士の接合とにより、各チップ間が接合されている。ここで、バンプ109同士の接合により、各チップ間が互いに電気的に接続されている。なお、入射光は、白抜き矢印を用いて示すように、+Z方向に入射する。本実施形態では、撮像チップ113の入射光が入る側の面を裏面、その逆側の面を表面と称する。また、図面上下方向をZ軸方向、左右方向をX軸方向、これらに直交する方向をY軸方向とする。また、本実施形態では、後述する撮像装置500により撮像する対象範囲を撮像範囲とも呼ぶ。 FIG. 1 shows a cross-sectional configuration of a back-illuminated light receiving device 100 according to this embodiment. The light receiving device 100 includes an imaging chip 113, a signal processing chip 111, and a memory chip 112. These chips are stacked, and the chips are bonded by bonding between conductive bumps 109 such as Cu formed on each chip and bonding between oxide film layers formed on the top surface of each chip. There is. Here, the chips are electrically connected to each other by bonding the bumps 109 together. Note that the incident light is incident in the +Z direction, as indicated by the white arrow. In this embodiment, the surface of the imaging chip 113 on the side where the incident light enters is called the back surface, and the surface on the opposite side is called the front surface. Further, the vertical direction in the drawing is the Z-axis direction, the left-right direction is the X-axis direction, and the direction perpendicular to these is the Y-axis direction. Furthermore, in this embodiment, a target range imaged by the imaging device 500 described later is also referred to as an imaging range.

撮像チップ113は、入射光を受光し、露光量に応じた画素信号を出力する。撮像チップ113として、例えば、裏面照射型MOSイメージセンサを採用してよい。撮像チップ113は、PD層106及び配線層108を有する。 The imaging chip 113 receives incident light and outputs a pixel signal according to the amount of exposure. As the imaging chip 113, for example, a back-illuminated MOS image sensor may be employed. The imaging chip 113 has a PD layer 106 and a wiring layer 108.

PD層106は、受光装置100が有する受光面上に二次元配列された複数の受光素子104を有する。受光素子104は、フォトダイオード(PD)等の光電変換素子である。 The PD layer 106 has a plurality of light receiving elements 104 arranged two-dimensionally on the light receiving surface of the light receiving device 100. The light receiving element 104 is a photoelectric conversion element such as a photodiode (PD).

なお、PD層106の裏面側に、パッシベーション膜103を介してカラーフィルタ102が設けられる。カラーフィルタ102は、互いに異なる波長領域を透過する複数の種類を有し、各受光素子104に対応して特定の配列を有する。各1つのカラーフィルタ102、受光素子104、及び後述するトランジスタ105より1つの画素が形成される。なお、単色撮像の場合には、カラーフィルタ102を設けなくてよい。 Note that the color filter 102 is provided on the back side of the PD layer 106 with a passivation film 103 interposed therebetween. The color filter 102 has a plurality of types that transmit different wavelength regions, and has a specific arrangement corresponding to each light receiving element 104. One pixel is formed by one color filter 102, one light receiving element 104, and one transistor 105, which will be described later. Note that in the case of monochromatic imaging, the color filter 102 does not need to be provided.

また、カラーフィルタ102の裏面側に、複数のマイクロレンズ101が設けられる。マイクロレンズ101は、それぞれ、対応する受光素子104に向けて入射光を集光する。 Further, a plurality of microlenses 101 are provided on the back side of the color filter 102. Each microlens 101 condenses incident light toward a corresponding light receiving element 104.

配線層108は、PD層106のおもて面側に設けられ、PD層106内の各受光素子104に対応して設けられたトランジスタ105及び受光素子104からの画素信号を信号処理チップ111に伝送する配線107を有する。配線107は、多層であってよく、また受動素子及び能動素子が設けられてもよい。配線層108のおもて面に、複数のバンプ109が設けられている。 The wiring layer 108 is provided on the front surface side of the PD layer 106 and transmits pixel signals from the transistors 105 and the light receiving elements 104 provided corresponding to each light receiving element 104 in the PD layer 106 to the signal processing chip 111. It has wiring 107 for transmission. The wiring 107 may be multilayered and may include passive elements and active elements. A plurality of bumps 109 are provided on the front surface of the wiring layer 108.

信号処理チップ111は、PD層106からの画素信号を処理するデバイスを含む。それらのデバイスはチップの両面に設けられてよく、TSV(シリコン貫通電極)110により接続されてよい。信号処理チップ111は、複数のバンプ109を有し、撮像チップ113の複数のバンプ109と電気的に接続される。 Signal processing chip 111 includes a device that processes pixel signals from PD layer 106. These devices may be provided on both sides of the chip and may be connected by TSVs (Through Silicon Vias) 110. The signal processing chip 111 has a plurality of bumps 109 and is electrically connected to the plurality of bumps 109 of the imaging chip 113.

メモリチップ112は、画素信号を記憶するデバイスを含む。メモリチップ112は、複数のバンプ109を有し、信号処理チップ111の複数のバンプ109と電気的に接続される。 Memory chip 112 includes devices that store pixel signals. The memory chip 112 has a plurality of bumps 109 and is electrically connected to the plurality of bumps 109 of the signal processing chip 111.

図2Aから図2Dに、撮像チップ113の受光素子104のグループ配列を示す。撮像チップ113は受光面上に画素領域を有し、2000万個以上もの画素、すなわち受光素子104がマトリックス状に配列されている。一例として、隣接する3画素×3画素の9画素が1つのブロック131b~135bを構成し、任意に配列された複数のブロック131b~135bをそれぞれ含んで複数の単位グループ131~135が構成される。なお、1つのブロック131b~135bに含まれる画素(受光素子104)の数はこれに限られず、1つのブロック131b~135bに1画素のみが含まれてもよい。また、任意の数のブロック131b~135bが1つの単位グループ131~135に含まれてよい。 2A to 2D show the group arrangement of the light receiving elements 104 of the imaging chip 113. The imaging chip 113 has a pixel area on the light receiving surface, and more than 20 million pixels, that is, the light receiving elements 104 are arranged in a matrix. As an example, nine adjacent pixels (3 pixels x 3 pixels) constitute one block 131b to 135b, and a plurality of unit groups 131 to 135 each include a plurality of arbitrarily arranged blocks 131b to 135b. . Note that the number of pixels (light receiving elements 104) included in one block 131b to 135b is not limited to this, and only one pixel may be included in one block 131b to 135b. Furthermore, any number of blocks 131b to 135b may be included in one unit group 131 to 135.

複数の受光素子104は、後述するように、単位グループ131~135ごとに露光時間、すなわち電荷蓄積が制御される。例えば、単位グループ131~135に属する受光素子104は、それぞれ、照明光が射出された時点を基準にして、0~100ナノ秒の露光時間、100~200ナノ秒の露光時間、200~300ナノ秒の露光時間、300~400ナノ秒の露光時間、400~500ナノ秒の露光時間の間、シャッタ(特に断らない限り、図3を用いて説明する電子シャッタを意味する)を開いて電荷を蓄積する。 As described later, the exposure time, that is, the charge accumulation, of the plurality of light receiving elements 104 is controlled for each unit group 131 to 135. For example, the light receiving elements 104 belonging to unit groups 131 to 135 each have an exposure time of 0 to 100 nanoseconds, an exposure time of 100 to 200 nanoseconds, and an exposure time of 200 to 300 nanoseconds, based on the time point at which the illumination light is emitted. The shutter (unless otherwise specified, means an electronic shutter as explained with reference to FIG. 3) is opened to discharge the charge during the exposure time of 300 to 400 nanoseconds, and the exposure time of 400 to 500 nanoseconds. accumulate.

複数の単位グループ131~135は、それぞれ、受光面上の異なる領域に位置する受光素子104の複数のブロック131b~135bを有する。図2Aに示すグループ配列の例では、2行2列に配列された4つのブロック131b~134bの組が行方向及び列方向に繰り返し配列されている。4つのブロック131b~134bに含まれる受光素子104は、それぞれ、単位グループ131~134に属する。それにより、各単位グループ131~134に属する受光素子104のブロック131b~134bは、行方向及び列方向のそれぞれについて1ブロック分の距離を隔ててマトリックス状に配列される。従って、単位グループ131~134に属する受光素子104により、撮像範囲を複数の距離に分解してそれぞれ等しい解像度で撮像することができる。 Each of the plurality of unit groups 131 to 135 has a plurality of blocks 131b to 135b of the light receiving element 104 located in different areas on the light receiving surface. In the example of the group arrangement shown in FIG. 2A, a set of four blocks 131b to 134b arranged in two rows and two columns are repeatedly arranged in the row and column directions. The light receiving elements 104 included in the four blocks 131b to 134b belong to unit groups 131 to 134, respectively. Thereby, the blocks 131b to 134b of the light receiving elements 104 belonging to each unit group 131 to 134 are arranged in a matrix with a distance of one block in each of the row and column directions. Therefore, by using the light receiving elements 104 belonging to the unit groups 131 to 134, the imaging range can be divided into a plurality of distances and images can be taken with the same resolution.

図2Bに示すグループ配列の例では、それぞれ列方向に連続して配列された4つのブロック131b~134bの列が行方向に順に配列されており、この4つの列が行方向に繰り返し配列されている。4つのブロック131b~134bに含まれる受光素子104は、それぞれ、単位グループ131~134に属する。それにより、各単位グループ131~134に属する受光素子104のブロック131b~134bは、列方向に連続に、行方向に3ブロック分の距離を隔ててストライプ状に配列される。従って、単位グループ131~134に属する受光素子104により、撮像範囲を複数の距離に分解して、行方向に対して列方向に高い解像度で撮像することができる。なお、それぞれ行方向に連続して配列された4つのブロック131b~134bが列方向に順に繰り返し配列されてもよい。それにより、列方向に対して行方向に高い解像度で撮像することができる。 In the example of the group arrangement shown in FIG. 2B, the columns of four blocks 131b to 134b are arranged in sequence in the row direction, and these four columns are arranged repeatedly in the row direction. There is. The light receiving elements 104 included in the four blocks 131b to 134b belong to unit groups 131 to 134, respectively. Thereby, the blocks 131b to 134b of the light receiving elements 104 belonging to each unit group 131 to 134 are arranged in a stripe pattern continuously in the column direction and separated by a distance of three blocks in the row direction. Therefore, by using the light receiving elements 104 belonging to the unit groups 131 to 134, the imaging range can be divided into a plurality of distances, and images can be taken with higher resolution in the column direction than in the row direction. Note that the four blocks 131b to 134b, each successively arranged in the row direction, may be repeatedly arranged in order in the column direction. Thereby, images can be captured with higher resolution in the row direction than in the column direction.

図2Cに示すグループ配列の例では、図2Aに示したグループ配列に対して単位グループ134に属するブロック134bの一部が単位グループ135に属するブロック135bに置き換えられている。これにより、単位グループ131~133に属する多くの受光素子104によりそれぞれ高い解像度で、単位グループ134に属する少ない受光素子104により幾らか低い解像度で、単位グループ134に属するさらに少ない受光素子104によりさらに低い解像度で、撮像することができる。 In the example of the group arrangement shown in FIG. 2C, some of the blocks 134b belonging to the unit group 134 are replaced with blocks 135b belonging to the unit group 135 compared to the group arrangement shown in FIG. 2A. As a result, many light-receiving elements 104 belonging to unit groups 131 to 133 provide high resolution, fewer light-receiving elements 104 belonging to unit group 134 provide somewhat lower resolution, and even fewer light-receiving elements 104 belonging to unit group 134 provide lower resolution. It is possible to capture images with high resolution.

図2Dに示すグループ配列の例では、2行2列に配列された緑色画素Gb、Gr、青色画素B、及び赤色画素Rの4画素から成るいわゆるベイヤー配列が行方向及び列方向に繰り返し配列されている。なお、この例では、1ブロックは1画素のみを含む。緑色画素Gb、Grは、カラーフィルタ102として緑色フィルタを有し、入射光のうち緑色波長帯の光を受光する。青色画素Bは、カラーフィルタ102として青色フィルタを有し、青色波長帯の光を受光する。赤色画素Rは、カラーフィルタ102として赤色フィルタを有し、赤色波長帯の光を受光する。さらに、ベイヤー配列の列方向の配列の間に行方向に配列された単位グループ131~133にそれぞれ属する受光素子104が含まれる。これにより、ベイヤー配列された画素により撮像範囲全体をカラー撮像しつつ、単位グループ131~133にそれぞれ属する画素(受光素子104)により撮像範囲全体を複数の距離に分解して撮像することができる。 In the example of the group array shown in FIG. 2D, a so-called Bayer array consisting of four pixels, green pixels Gb and Gr, blue pixel B, and red pixel R arranged in 2 rows and 2 columns, is repeatedly arranged in the row and column directions. ing. Note that in this example, one block includes only one pixel. The green pixels Gb and Gr have a green filter as the color filter 102, and receive light in the green wavelength band of the incident light. The blue pixel B has a blue filter as the color filter 102 and receives light in the blue wavelength band. The red pixel R has a red filter as the color filter 102 and receives light in the red wavelength band. Further, light receiving elements 104 belonging to unit groups 131 to 133 arranged in the row direction are included between the columns in the Bayer array. As a result, the entire imaging range can be imaged in color using the Bayer-arranged pixels, and the entire imaging range can be separated into a plurality of distances and imaged using the pixels (light receiving elements 104) belonging to the unit groups 131 to 133, respectively.

なお、図2Aから図2Cに示したグループ配列の例において、単位グループ131~135にそれぞれ属するブロック131b~135bはベイヤー配列を含んでもよい。 Note that in the examples of group arrays shown in FIGS. 2A to 2C, blocks 131b to 135b belonging to unit groups 131 to 135, respectively, may include a Bayer array.

図3に、画素150の等価回路を示す。各画素150は、PD104、転送トランジスタ152、リセットトランジスタ154、増幅トランジスタ156、選択トランジスタ158、及び負荷電流源309を有する。これらのトランジスタは、図1において、トランジスタ105と総称されている。さらに、画素150には、リセットトランジスタ154のオン信号が供給されるリセット配線300、転送トランジスタ152のオン信号が供給される転送配線302、電源Vddから電力の供給を受ける電源配線304、選択トランジスタ158のオン信号が供給される選択配線306、及び画素信号を出力する出力配線308が設けられている。 FIG. 3 shows an equivalent circuit of the pixel 150. Each pixel 150 includes a PD 104, a transfer transistor 152, a reset transistor 154, an amplification transistor 156, a selection transistor 158, and a load current source 309. These transistors are collectively referred to as transistors 105 in FIG. Further, the pixel 150 includes a reset wiring 300 to which an ON signal of the reset transistor 154 is supplied, a transfer wiring 302 to which an ON signal of the transfer transistor 152 is supplied, a power supply wiring 304 which receives power from the power supply Vdd, and a selection transistor 158. A selection wiring 306 to which an on signal is supplied, and an output wiring 308 to output a pixel signal are provided.

画素150において、転送トランジスタ152のソース、ゲート、及びドレインは、それぞれ、PD104の一端、転送配線302、増幅トランジスタ156のゲートに接続される。リセットトランジスタ154のソース、ゲート、及びドレインは、それぞれ、増幅トランジスタ156のゲート、リセット配線300、及び電源配線304に接続される。転送トランジスタ152のドレインとリセットトランジスタ154のソース間は、いわゆるフローティングディフュージョンFDを形成する。増幅トランジスタ156のソース及びドレインは、それぞれ、選択トランジスタ158のドレイン及び電源配線304に接続される。選択トランジスタ158のゲート及びソースは、それぞれ、選択配線306及び出力配線308に接続される。 In the pixel 150, the source, gate, and drain of the transfer transistor 152 are connected to one end of the PD 104, the transfer wiring 302, and the gate of the amplification transistor 156, respectively. The source, gate, and drain of the reset transistor 154 are connected to the gate of the amplification transistor 156, the reset wiring 300, and the power supply wiring 304, respectively. A so-called floating diffusion FD is formed between the drain of the transfer transistor 152 and the source of the reset transistor 154. The source and drain of the amplification transistor 156 are connected to the drain of the selection transistor 158 and the power supply wiring 304, respectively. The gate and source of the selection transistor 158 are connected to the selection wiring 306 and the output wiring 308, respectively.

負荷電流源309は、出力配線308に電流を供給する。これにより、選択トランジスタ158に対する出力配線308はソースフォロアにより形成される。なお、負荷電流源309は、撮像チップ113側に設けてもよいし、信号処理チップ111側に設けてもよい。 Load current source 309 supplies current to output wiring 308 . As a result, the output wiring 308 for the selection transistor 158 is formed by a source follower. Note that the load current source 309 may be provided on the imaging chip 113 side or on the signal processing chip 111 side.

画素150における、電荷の蓄積から画素出力までのフローを説明する。リセット配線300を通じてリセットパルスをリセットトランジスタ154に印加し、同時に転送配線302を通じて転送パルスを転送トランジスタ152に印加することで、PD104及びフローティングディフュージョンFDの電位がリセットされる。PD104は、転送パルスの印加が解除されると、入射光の受光量に応じた電荷を蓄積する。その後、リセットパルスが印加されていない状態で再び転送パルスが印加されると、蓄積された電荷はフローティングディフュージョンFDへ転送され、フローティングディフュージョンFDの電位はリセット電位から電荷蓄積後の信号電位になる。転送パルスの印加解除から再度の転送パルスの印加までの動作をシャッタを開くとも呼び、その期間をシャッタ時間或いは露光時間と呼ぶ。そして、選択配線306を通じて選択パルスが選択トランジスタ158に印加されると、フローティングディフュージョンFDの信号電位の変動が、増幅トランジスタ156及び選択トランジスタ158を介して出力配線308に伝わる。これにより、リセット電位と信号電位とに対応する画素信号は、単位画素から出力配線308に出力される。 The flow from charge accumulation to pixel output in the pixel 150 will be described. By applying a reset pulse to the reset transistor 154 through the reset wiring 300 and simultaneously applying a transfer pulse to the transfer transistor 152 through the transfer wiring 302, the potentials of the PD 104 and the floating diffusion FD are reset. When the application of the transfer pulse is removed, the PD 104 accumulates charges according to the amount of incident light received. Thereafter, when a transfer pulse is applied again without a reset pulse being applied, the accumulated charges are transferred to the floating diffusion FD, and the potential of the floating diffusion FD changes from the reset potential to the signal potential after charge accumulation. The operation from the release of the application of the transfer pulse to the application of the transfer pulse again is also called opening the shutter, and the period thereof is called the shutter time or the exposure time. Then, when a selection pulse is applied to the selection transistor 158 through the selection wiring 306, fluctuations in the signal potential of the floating diffusion FD are transmitted to the output wiring 308 via the amplification transistor 156 and the selection transistor 158. Thereby, a pixel signal corresponding to the reset potential and the signal potential is output from the unit pixel to the output wiring 308.

なお、図3に示した画素150の回路構成に限らず、例えば、画素150の回路構成において転送トランジスタ152とフローティングディフュージョンFDとの間にグローバル電子シャッタ専用容量が設けられ、PD104と電源配線304との間に追加のトランジスタが設けられ、任意で選択トランジスタ158が省かれた回路構成を採用してもよい。 Note that the circuit configuration of the pixel 150 is not limited to the circuit configuration of the pixel 150 shown in FIG. A circuit configuration may be adopted in which an additional transistor is provided between the two, and the selection transistor 158 is optionally omitted.

図4に、単位グループ131~135に含まれる各ブロック131b~135bにおける画素150の接続関係を示す。なお、図面を見やすくする目的で各トランジスタの参照番号を省略したが、図4の各画素の各トランジスタは、図3の画素150における対応する位置に配された各トランジスタと同じ構成及び機能を有する。ブロック131b~135bは、一例として、隣接する3画素×3画素の9画素AからIにより形成される。なお、ブロック131b~135bに含まれる画素の数はこれに限られない。 FIG. 4 shows the connection relationship of pixels 150 in each of blocks 131b to 135b included in unit groups 131 to 135. Note that although reference numbers for each transistor are omitted for the purpose of making the drawings easier to read, each transistor in each pixel in FIG. 4 has the same configuration and function as each transistor arranged at a corresponding position in the pixel 150 in FIG. 3. . The blocks 131b to 135b are formed by, for example, nine adjacent pixels A to I of 3 pixels x 3 pixels. Note that the number of pixels included in the blocks 131b to 135b is not limited to this.

ブロック131b~135bに含まれる画素のリセットトランジスタはブロック単位で共通にオンオフされる。画素Aのリセットトランジスタをオンオフするリセット配線300、画素Bのリセットトランジスタをオンオフするリセット配線310、画素Cのリセットトランジスタをオンオフするリセット配線320、さらに他の画素DからIのリセットトランジスタをオンオフする専用線路が共通のドライバ(不図示)に接続される。 The reset transistors of the pixels included in the blocks 131b to 135b are turned on and off in common in block units. A reset wiring 300 that turns on and off the reset transistor of pixel A, a reset wiring 310 that turns on and off the reset transistor of pixel B, a reset wiring 320 that turns on and off the reset transistor of pixel C, and a dedicated wiring that turns on and off the reset transistors of other pixels D to I. The lines are connected to a common driver (not shown).

ブロック131b~135bに含まれる画素の転送トランジスタもブロック単位で共通にオンオフされる。画素Aの転送トランジスタをオンオフする転送配線302、画素Bの転送トランジスタをオンオフする転送配線312、画素Cの転送トランジスタをオンオフする転送配線322、さらに他の画素DからIの転送トランジスタをオンオフする専用線路が共通の制御回路(不図示)に接続される。 The transfer transistors of the pixels included in the blocks 131b to 135b are also turned on and off in common in block units. Transfer wiring 302 that turns on and off the transfer transistor of pixel A, transfer wiring 312 that turns on and off the transfer transistor of pixel B, transfer wiring 322 that turns on and off the transfer transistor of pixel C, and dedicated for turning on and off the transfer transistors of other pixels D to I. The lines are connected to a common control circuit (not shown).

ブロック131b~135bに含まれる画素の選択トランジスタも画素ごとに個別にオンオフされる。画素Aの選択トランジスタをオンオフする選択配線306、画素Bの選択トランジスタをオンオフする選択配線316、画素Cの選択トランジスタをオンオフする選択配線326、さらに他の画素DからIの選択トランジスタをオンオフする専用線路が別個にドライバ(不図示)に接続される。 The selection transistors of the pixels included in blocks 131b to 135b are also turned on and off individually for each pixel. A selection wiring 306 that turns on and off the selection transistor of pixel A, a selection wiring 316 that turns on and off the selection transistor of pixel B, a selection wiring 326 that turns on and off the selection transistor of pixel C, and a dedicated wiring that turns on and off the selection transistors of other pixels D to I. The lines are separately connected to a driver (not shown).

なお、電源配線304は、ブロック131b~135bに含まる各画素AからIで共通に接続されている。同様に、出力配線308は、ブロック131b~135bに含まる各画素AからIで共通に接続されている。さらに、電源配線304は複数のブロック間で共通に接続されるが、出力配線308はブロックごとに設けられる。 Note that the power supply wiring 304 is commonly connected to each pixel A to I included in the blocks 131b to 135b. Similarly, the output wiring 308 is commonly connected to each of the pixels A to I included in the blocks 131b to 135b. Furthermore, although the power supply wiring 304 is commonly connected between a plurality of blocks, the output wiring 308 is provided for each block.

ブロック131b~135bのリセットトランジスタ及び転送トランジスタを共通にオンオフすることにより、ブロック131b~135bに含まれる各画素AからIに対して同期して、電荷の蓄積開始時間、蓄積終了時間、転送タイミングを含む電荷蓄積を制御することができる。また、ブロック131b~135bの選択トランジスタを個別にオンオフすることにより、各画素AからIの画素信号を共通の出力配線308を介して個別に出力することができる。 By turning on and off the reset transistors and transfer transistors of blocks 131b to 135b in common, charge accumulation start time, accumulation end time, and transfer timing are synchronized with respect to each pixel A to I included in blocks 131b to 135b. The charge accumulation involved can be controlled. Furthermore, by individually turning on and off the selection transistors of the blocks 131b to 135b, the pixel signals of each pixel A to I can be individually outputted via the common output wiring 308.

ブロック131b~135bに含まれる各画素AからIの電荷蓄積は、ローリングシャッタ方式又はグローバルシャッタ方式により制御される。ローリングシャッタ方式では、画素の電荷蓄積は、行及び列に対して規則的な順序で制御される、例えば行ごとに画素を選択してから列を指定することで図4の例において「ABCDEFGHI」の順序で画素信号が出力される。しかし、ローリングシャッタ方式では動体を撮像した場合に、ブロック131b~135b内の画素について当該動体が斜めに歪んだ画像が生成される。グローバルシャッタ方式では、画素の電荷蓄積は、すべての画素AからIについて同時タイミングで制御される。 Charge accumulation in each pixel A to I included in blocks 131b to 135b is controlled by a rolling shutter method or a global shutter method. In the rolling shutter method, the charge accumulation of pixels is controlled in a regular order for rows and columns, for example, by selecting pixels for each row and then specifying the column, "ABCDEFGHI" in the example of FIG. Pixel signals are output in this order. However, in the rolling shutter method, when a moving object is imaged, an image in which the moving object is obliquely distorted is generated for the pixels in the blocks 131b to 135b. In the global shutter method, charge accumulation in pixels is controlled at the same time for all pixels A to I.

図5に、受光装置100の機能構成を示す。受光装置100は、マルチプレクサ411、信号処理回路412、デマルチプレクサ413、及び画素メモリ414を含む。ここで、マルチプレクサ411は、撮像チップ113に形成される。信号処理回路412は、信号処理チップ111に形成される。デマルチプレクサ413及び画素メモリ414は、メモリチップ112に形成される。 FIG. 5 shows the functional configuration of the light receiving device 100. The light receiving device 100 includes a multiplexer 411, a signal processing circuit 412, a demultiplexer 413, and a pixel memory 414. Here, the multiplexer 411 is formed on the imaging chip 113. The signal processing circuit 412 is formed on the signal processing chip 111. Demultiplexer 413 and pixel memory 414 are formed on memory chip 112.

マルチプレクサ411は、ブロック131b~135bの各画素AからIを順番に選択して、それぞれの画素信号を出力配線308を介して信号処理回路412に送信する。なお、マルチプレクサ411の後段に増幅器を設け、それぞれの画素信号を予め定められた増幅率(ゲイン)で増幅して、信号処理回路412に送信してもよい。 The multiplexer 411 sequentially selects each pixel A to I of the blocks 131b to 135b, and transmits each pixel signal to the signal processing circuit 412 via the output wiring 308. Note that an amplifier may be provided after the multiplexer 411 to amplify each pixel signal by a predetermined amplification factor (gain) and transmit the amplified signal to the signal processing circuit 412.

信号処理回路412は、画素信号(アナログ信号)を相関二重サンプリング(CDS)・アナログ/デジタル(A/D)変換して、デジタル化された画素信号を出力配線330を介してデマルチプレクサ413に送信する。 The signal processing circuit 412 performs correlated double sampling (CDS) and analog/digital (A/D) conversion on the pixel signal (analog signal), and sends the digitized pixel signal to the demultiplexer 413 via the output wiring 330. Send.

デマルチプレクサ413は、信号処理回路412によりデジタル化された画素信号を、画素AからIにそれぞれ対応して画素メモリ414のメモリAからIに送信する。 The demultiplexer 413 transmits the pixel signals digitized by the signal processing circuit 412 to the memories A to I of the pixel memory 414 corresponding to the pixels A to I, respectively.

画素メモリ414は、画素信号を格納するメモリAからIを有し、画素AからIの画素信号をそれぞれメモリAからIに格納する。 The pixel memory 414 has memories A to I that store pixel signals, and stores the pixel signals of pixels A to I in the memories A to I, respectively.

なお、画素AからIごとに信号処理回路412を設け、それらからの画素信号を並列にCDS・A/D変換してメモリAからIに格納してもよい。 Note that a signal processing circuit 412 may be provided for each pixel A to I, and the pixel signals from these may be subjected to CDS/A/D conversion in parallel and stored in the memories A to I.

演算回路415は、画素メモリ414に格納された画素信号を処理して後段の処理部40に引き渡す。演算回路415は、信号処理チップ111に設けられてもよいし、メモリチップ112に設けられてもよい。なお、演算回路415をグループごとに設けてもよいし、複数のグループに対して共通に設けてもよい。 The arithmetic circuit 415 processes the pixel signal stored in the pixel memory 414 and delivers it to the subsequent processing section 40. The arithmetic circuit 415 may be provided in the signal processing chip 111 or in the memory chip 112. Note that the arithmetic circuit 415 may be provided for each group, or may be provided in common for a plurality of groups.

図6に、本実施形態に係る撮像装置500の構成を示す。撮像装置500は、撮像範囲を複数の距離ごとに分解して撮像する装置であり、発光部10、受光部20、制御部30、及び処理部40を備える。 FIG. 6 shows the configuration of an imaging device 500 according to this embodiment. The imaging device 500 is a device that divides the imaging range into a plurality of distances and captures images, and includes a light emitting section 10, a light receiving section 20, a control section 30, and a processing section 40.

発光部10は、撮像範囲に向けて光、すなわち照明光を射出するユニットである。発光部10は、赤外線又は可視光領域の光を生成する光源を有し、これを用いてパルス光等の変調光を生成し、照明光として射出することで撮像範囲を照明する。 The light emitting unit 10 is a unit that emits light, that is, illumination light, toward an imaging range. The light emitting unit 10 has a light source that generates light in the infrared or visible light range, uses this to generate modulated light such as pulsed light, and illuminates the imaging range by emitting it as illumination light.

受光部20は、撮像範囲からの反射光を受光するユニットである。受光部20は、光学系21及び受光装置100を含む。 The light receiving section 20 is a unit that receives reflected light from the imaging range. The light receiving section 20 includes an optical system 21 and a light receiving device 100.

光学系21は、複数のレンズ素子から構成され、光軸OAに沿って撮像範囲から入ってくる光を受光装置100の受光面上に導き、被写体像を結像させる。光学系21は、受光装置100に着脱できるように構成されてもよい。 The optical system 21 is composed of a plurality of lens elements, and guides light entering from the imaging range along the optical axis OA onto the light receiving surface of the light receiving device 100 to form a subject image. The optical system 21 may be configured to be detachable from the light receiving device 100.

受光装置100は、先述のとおり、受光面上に配列された複数の受光素子104を有する。複数の受光素子104は、それぞれが画素をなし、光学系21によって結像された光(被写体像)を露光時間の間、受光し、光電変換して電荷を蓄積する。複数の受光素子104は、複数の単位グループ131~135にグループ化され、単位グループ131~135ごとに露光時間、すなわち電荷蓄積が制御される。複数の受光素子104から出力される画素信号は、処理部40に送信される。 As described above, the light receiving device 100 includes a plurality of light receiving elements 104 arranged on the light receiving surface. Each of the plurality of light-receiving elements 104 forms a pixel, receives light (subject image) formed by the optical system 21 during an exposure time, performs photoelectric conversion, and accumulates charge. The plurality of light receiving elements 104 are grouped into a plurality of unit groups 131 to 135, and the exposure time, that is, charge accumulation is controlled for each unit group 131 to 135. Pixel signals output from the plurality of light receiving elements 104 are transmitted to the processing section 40.

制御部30は、受光装置100の複数の受光素子104の露光時間、すなわち電荷蓄積を、複数の受光素子104ごと又は複数の単位グループ131~135ごとに制御するユニットである。制御部30は、例えばマイクロプロセッサ及びその周辺回路から構成され、不揮発性メモリ(不図示)に格納されている制御プログラムを実行することによりその機能を発現する。なお、制御部30の一部機能をタイミングジェネレータ等の電子回路によって構成してもよい。 The control section 30 is a unit that controls the exposure time, ie, the charge accumulation, of the plurality of light receiving elements 104 of the light receiving device 100 for each of the plurality of light receiving elements 104 or for each of the plurality of unit groups 131 to 135. The control unit 30 is composed of, for example, a microprocessor and its peripheral circuits, and performs its functions by executing a control program stored in a nonvolatile memory (not shown). Note that some functions of the control unit 30 may be configured by an electronic circuit such as a timing generator.

処理部40は、複数の受光素子104から出力される画素信号に基づいて、複数の単位グループ131~135のそれぞれの露光時間に対応する撮像範囲内の距離における像、すなわち画像データを複数の受光素子104ごと又は複数の単位グループ131~135ごとに生成する。ここで、バッファメモリ(不図示)を、画像処理のワークスペースとして使用することができる。画像データは、例えば、JPEGファイル形式で生成されてよく、斯かる場合、ホワイトバランス処理、ガンマ処理等を施した後に圧縮処理を実行する。また、処理部40は、感度を改善するために、ビニング処理を実行してもよい。生成された画像データは、不揮発性フラッシュメモリ等の記憶装置(不図示)に記録されるとともに、表示信号に変換して液晶モニタ等の表示装置(不図示)上に表示されてもよい。 Based on the pixel signals output from the plurality of light-receiving elements 104, the processing unit 40 receives images at distances within the imaging range corresponding to the exposure times of each of the plurality of unit groups 131 to 135, that is, image data. It is generated for each element 104 or for each of a plurality of unit groups 131 to 135. Here, a buffer memory (not shown) can be used as a workspace for image processing. The image data may be generated in a JPEG file format, for example, and in such a case, compression processing is performed after performing white balance processing, gamma processing, etc. Additionally, the processing unit 40 may perform binning processing to improve sensitivity. The generated image data may be recorded in a storage device (not shown) such as a nonvolatile flash memory, and may also be converted into a display signal and displayed on a display device (not shown) such as a liquid crystal monitor.

図7Aに、撮像範囲内に存在する物体1~3及びそれらの距離の一例を示す。撮像装置500の受光面の位置(0m)から距離15~30mの範囲内に物体1、距離30~45mの範囲内に物体2、距離45~60mの範囲内に物体3が存在するものとする。 FIG. 7A shows an example of objects 1 to 3 existing within the imaging range and their distances. It is assumed that object 1 exists within a distance of 15 to 30 m from the position (0 m) of the light receiving surface of the imaging device 500, object 2 exists within a distance of 30 to 45 m, and object 3 exists within a distance of 45 to 60 m. .

図7Bに、受光素子104の各単位グループの露光時間の一例を示す。この例では、受光素子104は、図2A又は図2Bに示したグループ配列の4つの単位グループ131~134にグループ化されているとする。制御部30は、受光素子104の単位グループ131~134の露光時間が単位グループ131~134間で連続するように、複数の受光素子104の露光時間を制御する。一例として、制御部30は、単位グループ131~134に属する受光素子104について、それぞれ、発光部10による照明光が射出された時点を基準にして、0~100ナノ秒の露光時間、100~200ナノ秒の露光時間、200~300ナノ秒の露光時間、300~400ナノ秒の露光時間の間、シャッタを開く。なお、単位グループ131~134の露光時間の終了後又は複数回露光を繰り返した後にそれぞれの単位グループの受光素子104の出力信号(画素信号)を読み出し、処理部40により単位グループごとに処理してよい。 FIG. 7B shows an example of the exposure time of each unit group of the light receiving elements 104. In this example, it is assumed that the light receiving elements 104 are grouped into four unit groups 131 to 134 in the group arrangement shown in FIG. 2A or 2B. The control unit 30 controls the exposure times of the plurality of light receiving elements 104 so that the exposure times of the unit groups 131 to 134 of the light receiving elements 104 are continuous among the unit groups 131 to 134. As an example, the control unit 30 controls the light receiving elements 104 belonging to the unit groups 131 to 134 to have an exposure time of 0 to 100 nanoseconds, 100 to 200 nanoseconds, based on the time when the illumination light is emitted by the light emitting unit 10, respectively. Open the shutter for a nanosecond exposure time, a 200-300 nanosecond exposure time, a 300-400 nanosecond exposure time. Note that after the exposure time of the unit groups 131 to 134 ends or after repeating the exposure multiple times, the output signal (pixel signal) of the light receiving element 104 of each unit group is read out, and the processing unit 40 processes it for each unit group. good.

なお、露光時間が単位グループ131~134間で連続するとは、先の単位グループの露光時間の終了と同時に次の単位グループの露光時間が開始するよう露光時間を連続させるに限らず、単位グループ131~134間で露光時間を一部重複して連続させてもよいし、間隔を開けて連続させてもよい。 Note that the exposure time being continuous between the unit groups 131 to 134 does not mean that the exposure time is continuous so that the exposure time of the next unit group starts at the same time as the end of the exposure time of the previous unit group; The exposure time may be continued between 134 and 134, with some overlap, or may be continued at intervals.

ここで、光は10ナノ秒で約3メートルの距離を進む。受光素子104の単位グループ131は、距離0~15mの範囲内に存在する物体からの反射光を受光するから、その範囲内に存在する物体が撮像される。図7Aの例では、物体は撮像されない。受光素子104の単位グループ132は、距離15~30mの範囲内に存在する物体からの反射光を受光するから、その範囲内に存在する物体1が撮像される。受光素子104の単位グループ133は、距離30~45mの範囲内に存在する物体からの反射光を受光するから、その範囲内に存在する物体2が撮像される。受光素子104の単位グループ134は、距離45~60mの範囲内に存在する物体からの反射光を受光するから、その範囲内に存在する物体3が撮像される。このように、各単位グループの露光時間に応じて連続する複数の距離範囲にそれぞれ位置する物体を互いに分離して撮像することができる。 Here, light travels a distance of about 3 meters in 10 nanoseconds. Since the unit group 131 of the light-receiving elements 104 receives reflected light from objects existing within a distance range of 0 to 15 m, objects existing within that range are imaged. In the example of FIG. 7A, no object is imaged. Since the unit group 132 of the light-receiving elements 104 receives reflected light from an object existing within a distance of 15 to 30 m, the object 1 existing within that range is imaged. Since the unit group 133 of the light receiving elements 104 receives reflected light from an object existing within a distance of 30 to 45 m, the object 2 existing within that range is imaged. Since the unit group 134 of the light-receiving elements 104 receives reflected light from an object existing within a distance of 45 to 60 m, the object 3 existing within that range is imaged. In this way, objects located in a plurality of continuous distance ranges can be separated from each other and imaged according to the exposure time of each unit group.

なお、図2Cに示したグループ配列の5つの単位グループ131~135にグループ化された受光素子104に対して、図7Bの例のように露光時間が連続するように制御してもよい。また、制御部30により、単位グループ131~135のうちの露光時間が前のグループ131~133に含まれる受光素子104の数が、露光時間が後のグループ134~135に含まれる受光素子104の数より多くなるように、受光素子104の露光時間を制御してもよい。それにより、近くに位置する物体(図7Aの例では物体1、さらに物体2)ほど高い解像度で撮像することができる。 Note that the exposure times of the light receiving elements 104 grouped into five unit groups 131 to 135 in the group arrangement shown in FIG. 2C may be controlled to be continuous as in the example of FIG. 7B. Furthermore, the control unit 30 controls the number of light receiving elements 104 included in groups 131 to 133 whose exposure time is earlier among the unit groups 131 to 135 to the number of light receiving elements 104 included in groups 134 to 135 whose exposure time is later. The exposure time of the light receiving element 104 may be controlled so that the number of light receiving elements is greater than the number of light receiving elements. As a result, objects located closer to each other (in the example of FIG. 7A, object 1 and object 2) can be imaged with higher resolution.

図7Cに、受光素子104の各単位グループの露光時間の別の例を示す。この例では、受光素子104は、図2A又は図2Bに示したグループ配列の4つの単位グループ131~134にグループ化されているとする。制御部30は、単位グループ131~134のそれぞれの露光時間が同じ開始時刻から開始して互いに異なる終了時刻で終了するように、複数の受光素子104の露光時間を制御する。一例として、制御部30は、単位グループ131~134に属する受光素子104のすべてについて発光部10による照明光の射出と同時にシャッタを開いて露光を開始し、単位グループ131~134に属する受光素子104に対して、それぞれ、100ナノ秒経過時、200ナノ秒経過時、300ナノ秒経過時、400ナノ秒経過時にシャッタを閉じて露光を順に終了する。なお、単位グループ131~134の露光時間の終了後又は複数回露光を繰り返した後にそれぞれのグループの受光素子104の出力信号(画素信号)を読み出し、処理部40によりグループごとに処理する。 FIG. 7C shows another example of the exposure time of each unit group of the light receiving elements 104. In this example, it is assumed that the light receiving elements 104 are grouped into four unit groups 131 to 134 in the group arrangement shown in FIG. 2A or 2B. The control unit 30 controls the exposure times of the plurality of light receiving elements 104 so that the exposure times of the unit groups 131 to 134 start from the same start time and end at mutually different end times. As an example, the control unit 30 opens the shutters and starts exposure for all of the light receiving elements 104 belonging to the unit groups 131 to 134 at the same time as the illumination light is emitted by the light emitting unit 10, and The exposure is completed in sequence by closing the shutter when 100 nanoseconds, 200 nanoseconds, 300 nanoseconds, and 400 nanoseconds have passed, respectively. Note that after the exposure time of the unit groups 131 to 134 ends or after repeating the exposure a plurality of times, the output signals (pixel signals) of the light receiving elements 104 of each group are read out and processed by the processing unit 40 for each group.

ここで、処理部40は、単位グループ132に属する受光素子104からの画素信号に対して単位グループ131に属する受光素子104からの画素信号の強度を減算する。単位グループ133に属する受光素子104からの画素信号に対して単位グループ132に属する受光素子104からの画素信号の強度を減算する。単位グループ134に属する受光素子104からの画素信号に対して単位グループ133に属する受光素子104からの画素信号の強度を減算する。ただし、例えば、減算対象の受光素子104が属するブロックに隣接する別のグループの1又は複数のブロックに含まれる受光素子104の画素信号の平均強度を減算する。それにより、単位グループ131に属する受光素子104の画素信号より、距離0~15mの範囲内に存在する物体の像が得られる。図7Aの例では、いずれの物体の像も得られない。単位グループ131~132に属する受光素子104の画素信号より、距離15~30mの範囲内に存在する物体1の像が得られる。単位グループ132~133に属する受光素子104の画素信号より、距離30~45mの範囲内に存在する物体2の像が得られる。単位グループ133~134に属する受光素子104の画素信号より、距離45~60mの範囲内に存在する物体3の像が得られる。このように、近くに位置する物体ほど高い解像度で像を得ることができる。 Here, the processing unit 40 subtracts the intensity of the pixel signal from the light receiving element 104 belonging to the unit group 131 from the pixel signal from the light receiving element 104 belonging to the unit group 132. The intensity of the pixel signal from the light receiving element 104 belonging to the unit group 132 is subtracted from the pixel signal from the light receiving element 104 belonging to the unit group 133. The intensity of the pixel signal from the light receiving element 104 belonging to the unit group 133 is subtracted from the pixel signal from the light receiving element 104 belonging to the unit group 134 . However, for example, the average intensity of the pixel signals of the light receiving elements 104 included in one or more blocks of another group adjacent to the block to which the light receiving element 104 to be subtracted belongs is subtracted. Thereby, from the pixel signals of the light receiving elements 104 belonging to the unit group 131, an image of an object existing within a distance range of 0 to 15 m is obtained. In the example of FIG. 7A, no images of any objects are obtained. An image of the object 1 existing within a distance of 15 to 30 m is obtained from the pixel signals of the light receiving elements 104 belonging to the unit groups 131 to 132. An image of the object 2 existing within a distance of 30 to 45 m is obtained from the pixel signals of the light receiving elements 104 belonging to the unit groups 132 to 133. From the pixel signals of the light receiving elements 104 belonging to the unit groups 133 to 134, an image of the object 3 existing within a distance of 45 to 60 m is obtained. In this way, the closer an object is located, the higher the resolution of the image can be obtained.

図7Dに、受光素子104の各単位グループの露光時間の別の例を示す。この例では、受光素子104は、図2A又は図2Bに示したグループ配列の4つの単位グループ131~134にグループ化されているとする。制御部30は、単位グループ131~134のうちの少なくとも1つの単位グループの露光が照明光の射出前に行われるように、複数の受光素子104の露光時間を制御する。一例として、制御部30は、単位グループ131~134に属する受光素子104について、それぞれ、発光部10による照明光が射出された時点を基準にして、0~100ナノ秒の露光時間、100~200ナノ秒の露光時間、200~300ナノ秒の露光時間、-100~0ナノ秒の露光時間の間、シャッタを開く。なお、単位グループ131~134の露光時間の終了後又は複数回露光を繰り返した後にそれぞれの単位グループの受光素子104の出力信号(画素信号)を読み出し、処理部40により単位グループごとに処理する。 FIG. 7D shows another example of the exposure time of each unit group of the light receiving elements 104. In this example, it is assumed that the light receiving elements 104 are grouped into four unit groups 131 to 134 in the group arrangement shown in FIG. 2A or 2B. The control unit 30 controls the exposure time of the plurality of light receiving elements 104 so that at least one of the unit groups 131 to 134 is exposed to light before the illumination light is emitted. As an example, the control unit 30 controls the light receiving elements 104 belonging to the unit groups 131 to 134 to have an exposure time of 0 to 100 nanoseconds, 100 to 200 nanoseconds, based on the time when the illumination light is emitted by the light emitting unit 10, respectively. Open the shutter for nanosecond exposure times, 200-300 nanosecond exposure times, -100 to 0 nanosecond exposure times. Note that after the exposure time of the unit groups 131 to 134 ends or after repeating the exposure multiple times, the output signal (pixel signal) of the light receiving element 104 of each unit group is read out and processed by the processing unit 40 for each unit group.

ここで、処理部40は、単位グループ131~133のそれぞれに含まれる受光素子104の画素信号の強度から単位グループ134に含まれる受光素子104の画素信号の強度を減算する。ただし、例えば、減算対象の受光素子104が属するブロックに隣接する単位グループ134の1又は複数のブロックに含まれる受光素子104の画素信号の平均強度を減算する。ここで、単位グループ134に含まれる受光素子104は、照明光の射出前にシャッタが開かれているから背景光のみを受光している。それにより、単位グループ131~133のそれぞれに属する受光素子104の画素信号から、背景光等に由来するノイズを除去することができる。 Here, the processing unit 40 subtracts the intensity of the pixel signal of the light receiving element 104 included in the unit group 134 from the intensity of the pixel signal of the light receiving element 104 included in each of the unit groups 131 to 133. However, for example, the average intensity of the pixel signals of the light receiving elements 104 included in one or more blocks of the unit group 134 adjacent to the block to which the light receiving element 104 to be subtracted belongs is subtracted. Here, the light receiving element 104 included in the unit group 134 receives only background light because the shutter is opened before the illumination light is emitted. Thereby, noise originating from background light etc. can be removed from the pixel signals of the light receiving elements 104 belonging to each of the unit groups 131 to 133.

なお、制御部30は、単位グループ131~135の露光時間の一サイクルが終了した後、さらに、1又は複数回の露光時間のサイクルを繰り返してもよい。例えば、図7Bに示した例において、制御部30は、1回目のサイクル(0~400ナノ秒)が終了した後、2回目のサイクル(400~800ナノ秒)を実行する。すなわち、制御部30は、単位グループ131~134に属する受光素子104について、それぞれ、400~500ナノ秒の露光時間、500~600ナノ秒の露光時間、600~700ナノ秒の露光時間、700~800ナノ秒の露光時間の間、シャッタを開く。図7Cに示した例において、制御部30は、1回目のサイクル(0~400ナノ秒)が終了した後、2回目のサイクル(400~800ナノ秒)を実行する。すなわち、制御部30は、単位グループ131~134に属する受光素子104について、それぞれ、400~500ナノ秒の露光時間、400~600ナノ秒の露光時間、400~700ナノ秒の露光時間、400~800ナノ秒の露光時間の間、シャッタを開く。図7Dに示した例において、制御部30は、1回目のサイクル(0~300ナノ秒)が終了した後、2回目のサイクル(300~600ナノ秒)を実行する。すなわち、制御部30は、単位グループ131~133に属する受光素子104について、それぞれ、300~400ナノ秒の露光時間、400~500ナノ秒の露光時間、500~600ナノ秒の露光時間の間、シャッタを開く。なお、単位グループ131~134の露光時間の終了後又は複数回露光を繰り返した後にそれぞれの単位グループの受光素子104の出力信号(画素信号)を読み出し、処理部40により単位グループごとに処理してよい。これにより、より広範な距離範囲に存在する物体の像を得ることができる。 Note that the control unit 30 may repeat the exposure time cycle one or more times after one cycle of the exposure time of the unit groups 131 to 135 is completed. For example, in the example shown in FIG. 7B, the control unit 30 executes the second cycle (400 to 800 nanoseconds) after the first cycle (0 to 400 nanoseconds) ends. That is, the control unit 30 sets the exposure time of 400 to 500 nanoseconds, the exposure time of 500 to 600 nanoseconds, the exposure time of 600 to 700 nanoseconds, and the exposure time of 700 to 700 nanoseconds for the light receiving elements 104 belonging to unit groups 131 to 134, respectively. Open the shutter for an exposure time of 800 nanoseconds. In the example shown in FIG. 7C, the control unit 30 executes the second cycle (400 to 800 nanoseconds) after the first cycle (0 to 400 nanoseconds) ends. That is, the control unit 30 sets the exposure time of 400 to 500 nanoseconds, the exposure time of 400 to 600 nanoseconds, the exposure time of 400 to 700 nanoseconds, and the exposure time of 400 to 700 nanoseconds for the light receiving elements 104 belonging to unit groups 131 to 134, respectively. Open the shutter for an exposure time of 800 nanoseconds. In the example shown in FIG. 7D, the control unit 30 executes the second cycle (300 to 600 nanoseconds) after the first cycle (0 to 300 nanoseconds) ends. That is, the control unit 30 controls the light receiving elements 104 belonging to the unit groups 131 to 133 during the exposure time of 300 to 400 nanoseconds, the exposure time of 400 to 500 nanoseconds, and the exposure time of 500 to 600 nanoseconds, respectively. Open the shutter. Note that after the exposure time of the unit groups 131 to 134 ends or after repeating the exposure multiple times, the output signal (pixel signal) of the light receiving element 104 of each unit group is read out, and the processing unit 40 processes it for each unit group. good. This makes it possible to obtain an image of an object existing in a wider range of distances.

図7Eに、受光素子104の各単位グループの露光時間の別の例を示す。この例では、受光素子104は、図2A又は図2Bに示したグループ配列の4つの単位グループ131~134にグループ化されているとする。さらに、制御部30により、受光素子104の単位グループ131~134のそれぞれの露光時間が一例として10ナノ秒に設定され且つ単位グループ131~134間で連続するように複数の受光素子104の露光時間が制御されるとする。このように露光時間が短い場合に、各受光素子104において十分な光量を得る(すなわち十分な電荷を蓄積する)ために、制御部30は、1フレーム内で発光部10による照明光の射出及びこれに続く受光素子104の露光を繰り返し行ってよい。例えば、制御部30は、単位グループ131~134に属する受光素子104について、それぞれ、発光部10による照明光が射出された時点を基準にして、0~10ナノ秒の露光時間、10~20ナノ秒の露光時間、20~30ナノ秒の露光時間、30~40ナノ秒の露光時間の間、シャッタを開いて、それぞれの受光素子104において受光する。制御部30は、この露光動作を1フレーム内で複数回、例えば100~100,000回繰り返し、それぞれの受光素子104において受光量を蓄積する。1フレーム内での照明光の射出及び受光素子104の露光動作を繰り返した後に、それぞれの単位グループの受光素子104の出力信号(画素信号)を読み出し、処理部40により単位グループごとに出力信号を処理してよい。この方法により、距離分解能を維持しつつ、各受光素子104において十分な光量を得ることができる。 FIG. 7E shows another example of the exposure time of each unit group of the light receiving elements 104. In this example, it is assumed that the light receiving elements 104 are grouped into four unit groups 131 to 134 in the group arrangement shown in FIG. 2A or 2B. Further, the control unit 30 sets the exposure time of each of the unit groups 131 to 134 of the light receiving elements 104 to 10 nanoseconds, for example, and sets the exposure time of the plurality of light receiving elements 104 so that the unit groups 131 to 134 are continuous. is controlled. When the exposure time is short in this way, in order to obtain a sufficient amount of light (that is, to accumulate sufficient charge) in each light receiving element 104, the control unit 30 controls the emission of illumination light by the light emitting unit 10 and the Subsequent exposure of the light receiving element 104 may be repeated. For example, the control unit 30 controls the light receiving elements 104 belonging to the unit groups 131 to 134 to have an exposure time of 0 to 10 nanoseconds, and an exposure time of 10 to 20 nanoseconds, based on the time point when the illumination light is emitted by the light emitting unit 10, respectively. The shutter is opened during an exposure time of seconds, an exposure time of 20 to 30 nanoseconds, and an exposure time of 30 to 40 nanoseconds, and each light receiving element 104 receives light. The control unit 30 repeats this exposure operation multiple times within one frame, for example, 100 to 100,000 times, and accumulates the amount of light received by each light receiving element 104. After repeating the emission of illumination light and the exposure operation of the light receiving element 104 within one frame, the output signal (pixel signal) of the light receiving element 104 of each unit group is read out, and the processing unit 40 outputs the output signal for each unit group. May be processed. With this method, a sufficient amount of light can be obtained in each light receiving element 104 while maintaining distance resolution.

さらに、各受光素子104における受光量が不十分な場合に、処理部40により、画像積算及び/又は画素加算を行ってよい。画像積算は、複数フレームで画素値を積算平均することであり、例えば1000fpsで撮影した場合に、33フレームにわたって画素値を積算平均することで30fpsで距離画像を得ることができる。画素加算(平均)は、いわゆるビニングであり、隣接する複数の画素の画素値を加算(又は平均)して1つの画素の画素値とすることである。 Furthermore, when the amount of light received by each light receiving element 104 is insufficient, the processing unit 40 may perform image integration and/or pixel addition. Image integration is the accumulation and averaging of pixel values in multiple frames. For example, when shooting at 1000 fps, a distance image can be obtained at 30 fps by accumulating and averaging the pixel values over 33 frames. Pixel addition (average) is so-called binning, and is the addition (or average) of pixel values of a plurality of adjacent pixels to obtain a pixel value of one pixel.

図8に、本実施形態に係る撮像装置500を車両600に搭載した場合の撮像システムの構成の一例を示す。車両600は、移動体の一例であり、電車、自動車、自動二輪車等であってよい。車両600は、撮像装置500、速度センサ610、及び移動方向センサ620を備える。撮像装置500(少なくとも発光部10及び受光部20)は、前方を撮像するよう車両600に搭載される。つまり、発光部10により車両600の前方に向けて照明光を射出し、車両600の前方から戻ってくる反射光を受光部20により受光する。速度センサ610は、車両600の速度を検出するセンサであり、車両600に搭載されたものであってよい。移動方向センサ620は、車両600の移動方向を検出するセンサである。移動方向センサ620は、例えば、車両600に加わる加速度を検出するセンサ、車両600のハンドルの回転角を検出するセンサ等であってよい。速度センサ610及び移動方向センサ620の検出結果は、撮像装置500に送信される。 FIG. 8 shows an example of the configuration of an imaging system when the imaging device 500 according to this embodiment is mounted on a vehicle 600. Vehicle 600 is an example of a moving object, and may be a train, a car, a motorcycle, or the like. Vehicle 600 includes an imaging device 500, a speed sensor 610, and a movement direction sensor 620. The imaging device 500 (at least the light emitting unit 10 and the light receiving unit 20) is mounted on the vehicle 600 so as to image the front. That is, the light emitting section 10 emits illumination light toward the front of the vehicle 600, and the light receiving section 20 receives reflected light that returns from the front of the vehicle 600. Speed sensor 610 is a sensor that detects the speed of vehicle 600 and may be mounted on vehicle 600. Moving direction sensor 620 is a sensor that detects the moving direction of vehicle 600. The moving direction sensor 620 may be, for example, a sensor that detects acceleration applied to the vehicle 600, a sensor that detects the rotation angle of the steering wheel of the vehicle 600, or the like. The detection results of the speed sensor 610 and the movement direction sensor 620 are transmitted to the imaging device 500.

撮像装置500の処理部40は、受光面上の下部領域に位置する受光素子104の露光時間が受光面上の上部領域に位置する受光素子104の露光時間より先に開始するよう制御する。それにより、遠方の状況を把握しつつ、地面の上の移動する車両600の前方近くの路上に位置する物体を高解像度で撮像することができる。 The processing unit 40 of the imaging device 500 controls the exposure time of the light receiving element 104 located in the lower region on the light receiving surface to start earlier than the exposure time of the light receiving element 104 located in the upper region on the light receiving surface. Thereby, an object located on the road near the front of the moving vehicle 600 on the ground can be imaged with high resolution while grasping the distant situation.

撮像装置500の処理部40は、速度センサ610の検出結果に応じて、複数の受光素子104の露光時間を制御する。 The processing unit 40 of the imaging device 500 controls the exposure time of the plurality of light receiving elements 104 according to the detection result of the speed sensor 610.

車両600の速度が上がった場合、制御部30は、車両600の速度が上がるほど複数の受光素子104のうちのより多くの受光素子104の露光時間を後にシフトする。例えば、図2Aに示したグループ配列の受光素子104の単位グループ131~134に対して、露光時間をそれぞれ速度に応じた時間(例えば、1~100ナノ秒)、後にシフトする。或いは、単位グループ131~132に属する受光素子104の少なくとも一部をそれぞれ単位グループ133~134に変更して、露光時間が前の受光素子104を減らし、露光時間が後の受光素子104を増やす。 When the speed of the vehicle 600 increases, the control unit 30 shifts the exposure time of more light receiving elements 104 among the plurality of light receiving elements 104 to a later time as the speed of the vehicle 600 increases. For example, for the unit groups 131 to 134 of the light receiving elements 104 in the group arrangement shown in FIG. 2A, the exposure time is shifted back by a time (for example, 1 to 100 nanoseconds) corresponding to the respective speeds. Alternatively, at least some of the light receiving elements 104 belonging to unit groups 131 to 132 are changed to unit groups 133 to 134, respectively, so that the number of light receiving elements 104 whose exposure time is earlier is decreased and the number of light receiving elements 104 whose exposure time is later is increased.

車両600の速度が下がった場合、制御部30は、車両600の速度が下がるほど複数の受光素子104のうちのより多くの受光素子104の露光時間を前にシフトする。例えば、図2Aに示したグループ配列の受光素子104の単位グループ131~134に対して、露光時間をそれぞれ速度に応じた時間(例えば、1~100ナノ秒)、前にシフトする。或いは、単位グループ133~134に属する受光素子104の少なくとも一部をそれぞれ単位グループ131~132に変更して、露光時間が後の受光素子104を減らし、露光時間が前の受光素子104を増やす。 When the speed of vehicle 600 decreases, control unit 30 shifts the exposure time of more of the plurality of light receiving elements 104 forward as the speed of vehicle 600 decreases. For example, for the unit groups 131 to 134 of the light receiving elements 104 in the group arrangement shown in FIG. 2A, the exposure time is shifted forward by a time (for example, 1 to 100 nanoseconds) corresponding to the respective speeds. Alternatively, at least some of the light receiving elements 104 belonging to the unit groups 133 to 134 are changed to the unit groups 131 to 132, respectively, so that the number of light receiving elements 104 whose exposure time is later is reduced and the number of light receiving elements 104 whose exposure time is earlier is increased.

それにより、車両600の速度が高いほど受光素子104の露光時間を後にシフトし、車両600の速度が低いほど受光素子104の露光時間を前にシフトすることで、車両600の速度によらず、物体を、それが車両600に最接近する一定時間前に検知することができる。 As a result, as the speed of the vehicle 600 is higher, the exposure time of the light receiving element 104 is shifted backward, and as the speed of the vehicle 600 is lower, the exposure time of the light receiving element 104 is shifted forward, regardless of the speed of the vehicle 600. An object can be detected a certain amount of time before it approaches vehicle 600.

また、車両600が左前方に移動する場合、制御部30は、受光面上の右部領域に位置するより多くの受光素子104の露光時間を(例えば、1~100ナノ秒)前にシフトする。或いは、受光面上の右部領域内の単位グループ133~134に属する受光素子104の少なくとも一部をそれぞれ単位グループ131~132に変更して、露光時間が前の受光素子104を増やす。車両600が右前方に移動する場合、制御部30は、受光面上の左部領域に位置するより多くの受光素子104の露光時間を(例えば、1~100ナノ秒)前にシフトする。或いは、受光面上の左部領域内の単位グループ133~134に属する受光素子104の少なくとも一部をそれぞれ単位グループ131~132に変更して、露光時間が前の受光素子104を増やす。それにより、車両600が左折するときなど左前方に移動する場合に左前方近くに位置する物体を高解像度で撮像することができる。また、車両600が右折するときなど右前方に移動する場合に右前方近くに位置する物体を高解像度で撮像することができる。 Further, when the vehicle 600 moves forward to the left, the control unit 30 shifts the exposure time of more light receiving elements 104 located in the right region on the light receiving surface earlier (for example, by 1 to 100 nanoseconds). . Alternatively, at least some of the light receiving elements 104 belonging to unit groups 133 to 134 in the right region on the light receiving surface are changed to unit groups 131 to 132, respectively, and the number of light receiving elements 104 whose exposure time is earlier is increased. When the vehicle 600 moves forward to the right, the control unit 30 shifts the exposure time of more light receiving elements 104 located in the left region on the light receiving surface earlier (for example, by 1 to 100 nanoseconds). Alternatively, at least some of the light receiving elements 104 belonging to unit groups 133 to 134 in the left region on the light receiving surface are changed to unit groups 131 to 132, respectively, and the number of light receiving elements 104 whose exposure time is earlier is increased. Thereby, when the vehicle 600 moves to the left front, such as when turning left, an object located near the left front can be imaged with high resolution. Moreover, when the vehicle 600 moves to the right front, such as when turning right, an object located near the right front can be imaged with high resolution.

図9に、車両600に搭載された撮像装置500による撮像処理のフローの一例を示す。撮像装置500は、車両600のエンジンの始動に応じてオンされ、エンジンが停止されるまで撮像処理を実行する。なお、撮像装置500において、受光装置100の受光素子104の露光時間は、例えば図2Aから図2Dに示したグループ配列に従って、予め標準の露光時間に設定されているものとする。 FIG. 9 shows an example of a flow of imaging processing by the imaging device 500 mounted on the vehicle 600. Imaging device 500 is turned on when the engine of vehicle 600 is started, and executes imaging processing until the engine is stopped. In the imaging device 500, it is assumed that the exposure time of the light receiving element 104 of the light receiving device 100 is set in advance to a standard exposure time, for example, according to the group arrangement shown in FIGS. 2A to 2D.

ステップS102では、車両600に搭載された速度センサ610及び移動方向センサ620により、それぞれ、車両600の速度及び移動方向が検出される。それらの検出結果は、撮像装置500(制御部30)に送信される。 In step S102, the speed sensor 610 and the moving direction sensor 620 mounted on the vehicle 600 detect the speed and moving direction of the vehicle 600, respectively. Those detection results are transmitted to the imaging device 500 (control unit 30).

ステップS104では、撮像装置500の制御部30により、車両600の速度及び移動方向が変化したか否か判断される。変化があった場合、ステップS106に進み、制御部30は受光素子104の露光時間の設定を変更する。変化がなかった場合、ステップS108に進み、制御部30は受光素子104の露光時間の設定を維持する。 In step S104, the control unit 30 of the imaging device 500 determines whether the speed and moving direction of the vehicle 600 have changed. If there is a change, the process proceeds to step S106, and the control unit 30 changes the setting of the exposure time of the light receiving element 104. If there is no change, the process proceeds to step S108, and the control unit 30 maintains the setting of the exposure time of the light receiving element 104.

ステップS106では、制御部30により、受光素子104の露光時間が単位グループごとに制御される。車両600の速度が上がった場合、制御部30は、先述のとおり、車両600の速度が上がるほど複数の受光素子104のうちのより多くの受光素子104の露光時間を後にシフトする。車両600の速度が下がった場合、制御部30は、先述のとおり、車両600の速度が下がるほど複数の受光素子104のうちのより多くの受光素子104の露光時間を前にシフトする。それにより、車両600の速度によらず、物体を、それが車両600に最接近する一定時間前に検知することができる。 In step S106, the control unit 30 controls the exposure time of the light receiving elements 104 for each unit group. When the speed of the vehicle 600 increases, the control unit 30 shifts the exposure time of more light receiving elements 104 among the plurality of light receiving elements 104 to the later time as the speed of the vehicle 600 increases, as described above. When the speed of the vehicle 600 decreases, the control unit 30 shifts the exposure time of more light receiving elements 104 among the plurality of light receiving elements 104 forward as the speed of the vehicle 600 decreases, as described above. Thereby, regardless of the speed of vehicle 600, an object can be detected a certain period of time before it approaches vehicle 600 closest.

また、車両600が左前方に移動する場合、制御部30は、先述のとおり、受光面上の右部領域に位置するより多くの受光素子104の露光時間を前にシフトし、車両600が右前方に移動する場合、制御部30は、先述のとおり、受光面上の左部領域に位置するより多くの受光素子104の露光時間を前にシフトする。 Further, when the vehicle 600 moves forward to the left, the control unit 30 shifts the exposure time of more light receiving elements 104 located in the right region on the light receiving surface to the front, as described above, so that the vehicle 600 moves to the right. When moving forward, the control unit 30 shifts the exposure time of more light receiving elements 104 located in the left region on the light receiving surface forward, as described above.

ステップS108では、制御部30は、発光部10を制御して、車両600の前方(すなわち、撮像範囲)に向けて照明光を射出する。 In step S108, control unit 30 controls light emitting unit 10 to emit illumination light toward the front of vehicle 600 (that is, the imaging range).

ステップS110では、制御部30は、受光部20を制御して、車両の前方(すなわち、撮像範囲)からの反射光を、複数の単位グループにグループ化された複数の受光素子104を用いて受光する。ここで、受光素子104の露光時間は、予め又はステップS106において単位グループごとに制御されている。 In step S110, the control unit 30 controls the light receiving unit 20 to receive reflected light from the front of the vehicle (i.e., the imaging range) using the plurality of light receiving elements 104 grouped into a plurality of unit groups. do. Here, the exposure time of the light receiving element 104 is controlled for each unit group in advance or in step S106.

ステップS112では、処理部40が、受光素子104の画素信号に基づいて、単位グループのそれぞれの露光時間に対応する撮像範囲内の距離における像(すなわち、画像データ)を単位グループごとに生成する。例えば、図2A又は図2Bに示した単位グループ131~134にグループ化された受光素子104により図7Aに示した撮像範囲内に存在する物体1~3を撮像した場合、受光素子104の単位グループ131の画素信号から得られる画像データには、距離0~15mの範囲内に物体は存在しないから、何も現れない。受光素子104の単位グループ132の画素信号から得られる画像データには、距離15~30mの範囲内に存在する物体1が現れる。受光素子104の単位グループ133の画素信号から得られる画像データには、距離30~45mの範囲内に存在する物体2が現れる。受光素子104の単位グループ134は、距離45~60mの範囲内に存在する物体3が現れる。このように、各単位グループの露光時間に応じて撮像範囲内の複数の距離範囲にそれぞれ位置する物体を互いに分離して撮像することができる。 In step S112, the processing unit 40 generates, for each unit group, an image (that is, image data) at a distance within the imaging range corresponding to the exposure time of each unit group, based on the pixel signal of the light receiving element 104. For example, when objects 1 to 3 existing within the imaging range shown in FIG. 7A are imaged by the light receiving elements 104 grouped into unit groups 131 to 134 shown in FIG. 2A or 2B, the unit groups of the light receiving elements 104 Since there is no object within the distance range of 0 to 15 m, nothing appears in the image data obtained from the pixel signal of 131. In the image data obtained from the pixel signals of the unit group 132 of the light receiving elements 104, an object 1 existing within a distance of 15 to 30 m appears. In the image data obtained from the pixel signals of the unit group 133 of the light receiving element 104, an object 2 existing within a distance of 30 to 45 meters appears. In the unit group 134 of the light receiving elements 104, objects 3 existing within a distance of 45 to 60 m appear. In this way, objects located in a plurality of distance ranges within the imaging range can be separated from each other and imaged according to the exposure time of each unit group.

ステップS114では、処理部40が、ステップS112で得られた像(すなわち、画像データ)を処理して、それに含まれる物体を特定する。上記の例では、処理部40は、単位グループ132の画像データから距離15~30mの範囲内に存在する物体1が歩行者であることを特定し、単位グループ133の画像データから距離30~45mの範囲内に存在する物体2が街路樹であることを特定し、単位グループ134の画像データから距離45~60mの範囲内に存在する物体3が車両であることを特定する。 In step S114, the processing unit 40 processes the image (ie, image data) obtained in step S112 to identify the object included therein. In the above example, the processing unit 40 specifies that the object 1 existing within a distance of 15 to 30 m from the image data of the unit group 132 is a pedestrian, and from the image data of the unit group 133, the processing unit 40 identifies that the object 1 is a pedestrian. It is specified that the object 2 that exists within the range of is a street tree, and it is specified that the object 3 that exists within the range of distance 45 to 60 m is a vehicle from the image data of the unit group 134.

なお、本実施形態では、車両600の速度に応じて受光素子104の露光時間を前後にシフトすることとしたが、これに代えて、または、これに加えて、車両600の速度に応じて警告又は車両600を自動停止するタイミングを制御することとしてもよい。例えば、制御部30は、車両600の速度が上がるほど、警告又は自動停止すべきか否かを判断するための単位グループを露光時間が遅い単位グループに変更する。車両600の速度が低い場合、処理部40は、単位グループ132の画像データから距離15~30mの範囲内に歩行者が存在することを特定した場合、運転手に警告する又は車両600を自動停止する。車両600の速度が高い場合、処理部40は、単位グループ134の画像データから距離45~60mの範囲内に歩行者が存在することを特定した場合、運転手に警告する又は車両600を自動停止する。 Note that in the present embodiment, the exposure time of the light receiving element 104 is shifted forward or backward according to the speed of the vehicle 600, but instead of this, or in addition to this, a warning is provided according to the speed of the vehicle 600. Alternatively, the timing at which the vehicle 600 is automatically stopped may be controlled. For example, as the speed of the vehicle 600 increases, the control unit 30 changes the unit group for determining whether a warning or automatic stop should be issued to a unit group with a slower exposure time. When the speed of the vehicle 600 is low, the processing unit 40 issues a warning to the driver or automatically stops the vehicle 600 if it identifies that a pedestrian exists within a distance of 15 to 30 meters from the image data of the unit group 132. do. When the speed of the vehicle 600 is high, the processing unit 40 issues a warning to the driver or automatically stops the vehicle 600 if it identifies that a pedestrian exists within a distance of 45 to 60 meters from the image data of the unit group 134. do.

斯かる場合に、処理部40は、予め、画像データから特定された際に警告又は車両600を自動停止すべき対象物体を決定しておくとともに、画像と物体の種類との関係を示すデータテーブルを保持しておく。処理部40は、受光素子104の画素信号に基づいて単位グループごとに画像データを生成し、画像データから撮像された物体が何なのかをデータテーブルを用いて画像と物体とを比較することにより特定し、特定された物体が対象物体である場合に警告又は自動停止の処理を実行してよい。 In such a case, the processing unit 40 determines in advance a target object that should cause a warning or automatic stop of the vehicle 600 when identified from the image data, and also creates a data table showing the relationship between the image and the type of object. Keep it. The processing unit 40 generates image data for each unit group based on the pixel signals of the light receiving element 104, and determines what the imaged object is from the image data by comparing the image and the object using a data table. The object may be identified, and if the identified object is the target object, a warning or automatic stop processing may be executed.

ステップS114を終了するとステップS102に戻り、ステップS102~S114を繰り返す。つまり、ステップS108にて発光部10により撮像範囲に向けて照明光を繰り返し射出し、ステップS110にて受光部20により発光部10が照明光を射出する度に撮像範囲からの反射光を受光し、ステップS112にて処理部40により受光部20が反射光を受光する度に受光素子104の画素信号を単位グループごとに処理して撮像範囲内の複数の距離にそれぞれ対応する複数の像を生成し、ステップS114にて各像に含まれる物体を特定する。 When step S114 is completed, the process returns to step S102 and steps S102 to S114 are repeated. That is, in step S108, the light emitting unit 10 repeatedly emits illumination light toward the imaging range, and in step S110, the light receiving unit 20 receives reflected light from the imaging range each time the light emitting unit 10 emits illumination light. , in step S112, each time the light receiving section 20 receives reflected light, the processing section 40 processes the pixel signals of the light receiving element 104 for each unit group to generate a plurality of images corresponding to a plurality of distances within the imaging range. Then, in step S114, the object included in each image is identified.

なお、ステップS114では、処理部40は、ステップS102~S114を繰り返す度に、受光素子104の単位グループごとに特定される物体及び受光素子104の単位グループのそれぞれの露光時間(すなわち、撮像装置500からの距離)に基づいて、物体の移動を検知することができる。例えば、処理部40は、最初のサイクルにおいて単位グループ134の画像データから距離45~60mの範囲内に車両(物体3)を特定し、次のサイクルにおいても単位グループ134の画像データから距離45~60mの範囲内に車両(物体3)を特定した場合、車両(物体3)は、車両600の前方を等しい速度で同方向に走行していると検知する。また、処理部40は、最初のサイクルにおいて単位グループ134の画像データから距離45~60mの範囲内に車両(物体3)を特定し、次のサイクル(周期Tとする)において単位グループ133の画像データから距離30~45mの範囲内に車両(物体3)を特定した場合、車両(物体3)は、車両600の前方から相対速度(約15m/T)で接近していることを検知する。さらに続くサイクルにおいて、単位グループ132の画像データから距離15~30mの範囲内に車両(物体3)を特定すると、処理部40は車両(物体3)との衝突を、警告音を発する又は警告灯を点滅するなどにより運転手に警告してよい。 Note that in step S114, the processing unit 40 determines the object specified for each unit group of light receiving elements 104 and the exposure time of each unit group of light receiving elements 104 (that is, the imaging device 500 The movement of an object can be detected based on the distance from the object. For example, the processing unit 40 identifies a vehicle (object 3) within a distance of 45 to 60 meters from the image data of the unit group 134 in the first cycle, and also identifies the vehicle (object 3) within a distance of 45 to 60 meters from the image data of the unit group 134 in the next cycle. When a vehicle (object 3) is identified within a range of 60 m, it is detected that the vehicle (object 3) is running in front of vehicle 600 at the same speed and in the same direction. Further, the processing unit 40 identifies a vehicle (object 3) within a distance range of 45 to 60 m from the image data of the unit group 134 in the first cycle, and in the next cycle (referred to as cycle T), the processing unit 40 identifies the vehicle (object 3) from the image data of the unit group 134 When a vehicle (object 3) is identified from the data within a distance range of 30 to 45 m, it is detected that the vehicle (object 3) is approaching the vehicle 600 from in front at a relative speed (approximately 15 m/T). In a further subsequent cycle, when a vehicle (object 3) is identified within a distance of 15 to 30 meters from the image data of the unit group 132, the processing unit 40 detects a collision with the vehicle (object 3) by emitting a warning sound or by emitting a warning light. You may warn the driver by flashing, etc.

本実施形態に係る撮像装置500によれば、光を射出する発光部10、発光部10から射出された光の反射光を受光する複数の受光素子104を有する受光部20、複数の受光素子104ごと、または、少なくとも2つの受光素子104をそれぞれが有する複数の単位グループ131~135ごとに、露光時間を制御する制御部30を備え、複数の受光素子104及び複数のグループ131~135は、それぞれの露光時間に対応する信号を出力する。さらに、出力された信号に基づいて、露光時間に対応する距離における像を複数の受光素子104ごと又は複数のグループ131~135ごとに生成する処理部40をさらに備える。制御部30により、複数の受光素子104ごと、または、少なくとも2つの受光素子104をそれぞれが有する複数のグループ131~135ごとに、露光時間を制御することにより、発光部10により光を射出し、受光部20により反射光を複数の受光素子104を用いて受光し、処理部40により、出力された信号に基づいて、露光時間に対応する距離における像を複数の受光素子104ごと又は複数のグループ131~135ごとに生成することで、各単位グループの露光時間に応じた複数の距離ごとに分解して各距離に位置する物体をそれぞれ撮像することができる。 According to the imaging device 500 according to the present embodiment, the light-emitting section 10 that emits light, the light-receiving section 20 that has a plurality of light-receiving elements 104 that receives reflected light of the light emitted from the light-emitting section 10, and the plurality of light-receiving elements 104. A control unit 30 is provided to control the exposure time for each unit group 131 to 135 each having at least two light receiving elements 104, and each of the plurality of light receiving elements 104 and the plurality of groups 131 to 135 outputs a signal corresponding to the exposure time. Furthermore, it further includes a processing unit 40 that generates an image at a distance corresponding to the exposure time for each of the plurality of light receiving elements 104 or for each of the plurality of groups 131 to 135, based on the output signal. The control unit 30 controls the exposure time for each of the plurality of light receiving elements 104 or for each of the plurality of groups 131 to 135 each having at least two light receiving elements 104, so that the light emitting unit 10 emits light, The light receiving unit 20 receives reflected light using a plurality of light receiving elements 104, and the processing unit 40 divides images at a distance corresponding to the exposure time into each of the plurality of light receiving elements 104 or into a plurality of groups based on the output signal. By generating each unit group 131 to 135, it is possible to separate the images into a plurality of distances according to the exposure time of each unit group and image the object located at each distance.

なお、本実施形態に係る撮像装置500では、1又は隣接する複数の受光素子104が1つのブロック131b~135bを構成し、任意に配列された複数のブロック131b~135bをそれぞれ含んで複数の単位グループ131~135を構成し、単位グループ131~135ごとに露光時間を制御することとしたが、これに代えて、受光素子104のブロック又は単位グループを構成せず、複数の受光素子104ごとに露光時間を制御することとしてもよい。また、本実施形態に係る撮像装置500では、複数の受光素子104ごとまたは複数の単位グループ131~135ごとに露光時間を制御し、露光時間に対応した距離における画像を取得した例を示したが、これに代えて、または、これに加えて、それぞれの露光時間に対応した距離を計測してもよい。 Note that in the imaging device 500 according to the present embodiment, one or a plurality of adjacent light receiving elements 104 constitute one block 131b to 135b, and a plurality of units each including a plurality of arbitrarily arranged blocks 131b to 135b, respectively. The groups 131 to 135 are configured and the exposure time is controlled for each unit group 131 to 135. However, instead of configuring a block or unit group of light receiving elements 104, each of the plurality of light receiving elements 104 is controlled. It is also possible to control the exposure time. Furthermore, in the imaging device 500 according to the present embodiment, an example is shown in which the exposure time is controlled for each of the plurality of light receiving elements 104 or for each of the plurality of unit groups 131 to 135, and images are acquired at a distance corresponding to the exposure time. , instead of or in addition to this, distances corresponding to each exposure time may be measured.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the range described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the embodiments described above. It is clear from the claims that such modifications or improvements may be included within the technical scope of the present invention.

請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, and stage in the apparatus, system, program, and method shown in the claims, specification, and drawings specifically refers to "before" and "prior to". It should be noted that they can be implemented in any order unless explicitly stated as such, and unless the output of a previous process is used in a subsequent process. With regard to the claims, specification, and operational flows in the drawings, even if the terms "first," "next," etc. are used for convenience, this does not mean that the operations must be carried out in this order. isn't it.

10…発光部、20…受光部、21…光学系、30…制御部、40…処理部、100…受光装置、101…マイクロレンズ、102…カラーフィルタ、103…パッシベーション膜、104…受光素子、105…トランジスタ、106…PD層、107…配線、108…配線層、109…バンプ、110…シリコン貫通電極、111…信号処理チップ、112…メモリチップ、113…撮像チップ、131~135…単位グループ、150…画素、152…転送トランジスタ、154…リセットトランジスタ、156…増幅トランジスタ、158…選択トランジスタ、300,310,320…リセット配線、302,312,322…転送配線、304…電源配線、306,316,326…選択配線、308,330…出力配線、309…負荷電流源、411…マルチプレクサ、412…信号処理回路、413…デマルチプレクサ、414…画素メモリ、415…演算回路、500…撮像装置、600…車両、610…速度センサ、620…移動方向センサ。 DESCRIPTION OF SYMBOLS 10... Light emitting part, 20... Light receiving part, 21... Optical system, 30... Control part, 40... Processing part, 100... Light receiving device, 101... Microlens, 102... Color filter, 103... Passivation film, 104... Light receiving element, 105...Transistor, 106...PD layer, 107...Wiring, 108...Wiring layer, 109...Bump, 110...Silicon through electrode, 111...Signal processing chip, 112...Memory chip, 113...Imaging chip, 131-135...Unit group , 150... Pixel, 152... Transfer transistor, 154... Reset transistor, 156... Amplification transistor, 158... Selection transistor, 300, 310, 320... Reset wiring, 302, 312, 322... Transfer wiring, 304... Power supply wiring, 306, 316, 326... Selection wiring, 308, 330... Output wiring, 309... Load current source, 411... Multiplexer, 412... Signal processing circuit, 413... Demultiplexer, 414... Pixel memory, 415... Arithmetic circuit, 500... Imaging device, 600...Vehicle, 610...Speed sensor, 620...Movement direction sensor.

Claims (16)

光を射出する発光部と、
前記発光部から射出された光の反射光を受光する複数の受光素子をそれぞれが有する複数のグループと、
前記複数の受光素子ごとまたは前記複数のグループごとに、前記反射光を受光するタイミングおよび露光時間の少なくとも一方をそれぞれ異なる撮像範囲に対応するように制御する制御部と、
前記複数のグループごとにそれぞれのグループに対応する前記撮像範囲の対象物の像を生成する処理部と、を備え、
前記発光部及び前記複数の受光素子は、移動体に設けられ、前記制御部は、前記移動体が左前方に移動する場合に前記複数の受光素子が配列された受光面上の右部領域に位置する受光素子の露光時間を前にシフトし、前記移動体が右前方に移動する場合に前記受光面上の左部領域に位置する受光素子の露光時間を前にシフトする、撮像装置。
a light emitting part that emits light;
a plurality of groups each having a plurality of light receiving elements that receive reflected light of the light emitted from the light emitting section;
a control unit that controls at least one of the timing of receiving the reflected light and the exposure time for each of the plurality of light receiving elements or for each of the plurality of groups so as to correspond to different imaging ranges;
a processing unit that generates, for each of the plurality of groups, an image of the object in the imaging range corresponding to each group ;
The light emitting unit and the plurality of light receiving elements are provided on a moving body, and the control unit is configured to control a right area on the light receiving surface where the plurality of light receiving elements are arranged when the moving body moves to the left front. An imaging device that shifts the exposure time of a light-receiving element positioned forward, and shifts the exposure time of a light-receiving element located in a left region on the light-receiving surface forward when the moving object moves forward to the right.
前記撮像範囲は、前記複数の受光素子から前記対象物までの距離範囲、および、前記発光部から光が射出されてから前記複数の受光素子で受光するまでの時間範囲の少なくとも一方を含む請求項1に記載の撮像装置。 The imaging range includes at least one of a distance range from the plurality of light receiving elements to the target object, and a time range from when light is emitted from the light emitting section until it is received by the plurality of light receiving elements. 1. The imaging device according to 1. 前記複数のグループは、それぞれ、前記受光面上の異なる領域に位置する受光素子を有する、請求項1又は2に記載の撮像装置。 The imaging device according to claim 1 or 2 , wherein each of the plurality of groups has light receiving elements located in different areas on the light receiving surface. 前記複数のグループのうちの少なくとも1つのグループは、それぞれが少なくとも1つの受光素子を含む前記受光面上の複数のブロックを含む、請求項に記載の撮像装置。 The imaging device according to claim 3 , wherein at least one group among the plurality of groups includes a plurality of blocks on the light receiving surface, each of which includes at least one light receiving element. 前記受光面上の下部領域に位置する受光素子の前記タイミングは、前記受光面上の上部領域に位置する受光素子の前記タイミングより先である、請求項又はに記載の撮像装置。 The imaging device according to claim 3 or 4 , wherein the timing of the light receiving element located in the lower region on the light receiving surface is earlier than the timing of the light receiving element located in the upper region on the light receiving surface. 前記制御部は、前記複数のグループの露光時間が前記複数のグループ間で連続するように、前記複数の受光素子の露光時間を制御する、請求項からのいずれか一項に記載の撮像装置。 The imaging device according to any one of claims 3 to 5 , wherein the control unit controls the exposure time of the plurality of light receiving elements so that the exposure time of the plurality of groups is continuous among the plurality of groups. Device. 前記制御部は、前記複数のグループのうちの露光時間が前のグループに含まれる受光素子の数が、露光時間が後のグループに含まれる受光素子の数より多くなるように、前記複数の受光素子の露光時間を制御する、請求項に記載の撮像装置。 The control unit controls the plurality of light-receiving elements so that the number of light-receiving elements included in a group with an earlier exposure time among the plurality of groups is greater than the number of light-receiving elements included in a group with a later exposure time. The imaging device according to claim 6 , wherein the imaging device controls the exposure time of the element. 前記制御部は、前記複数のグループのそれぞれの露光時間が同じ時刻から開始して互いに異なる時刻で終了するように、前記複数の受光素子の露光時間を制御する、請求項からのいずれか一項に記載の撮像装置。 8. The control unit controls the exposure time of the plurality of light receiving elements so that the exposure time of each of the plurality of groups starts at the same time and ends at mutually different times. The imaging device according to item 1. 前記制御部は、前記複数のグループのうちの少なくとも1つのグループの露光が前記光の射出前に行われるように、前記複数の受光素子の露光時間を制御し、
前記処理部は、前記複数のグループのうちの残りのグループのそれぞれに含まれる受光素子の出力信号の強度から前記少なくとも1つのグループに含まれる受光素子の出力信号の強度を減算する、請求項に記載の撮像装置。
The control unit controls the exposure time of the plurality of light receiving elements so that at least one group among the plurality of groups is exposed before the light is emitted,
8. The processing unit subtracts the intensity of the output signal of the light receiving element included in the at least one group from the intensity of the output signal of the light receiving element included in each of the remaining groups of the plurality of groups. The imaging device described in .
前記処理部は、生成した前記像に含まれる物体を特定する、請求項からのいずれか一項に記載の撮像装置。 The imaging device according to any one of claims 3 to 9 , wherein the processing unit specifies an object included in the generated image. 前記処理部は、前記複数のグループごとに特定される物体及び前記複数のグループのそれぞれの露光時間に基づいて、前記物体の移動を検知する、請求項10に記載の撮像装置。 The imaging device according to claim 10 , wherein the processing unit detects movement of the object based on the object specified for each of the plurality of groups and the exposure time of each of the plurality of groups. 前記制御部は、前記移動体の速度に応じて前記複数の受光素子の露光時間を制御する、請求項から11のいずれか一項に記載の撮像装置。 The imaging device according to any one of claims 3 to 11 , wherein the control unit controls the exposure time of the plurality of light receiving elements according to the speed of the moving body. 前記制御部は、前記移動体の速度が速いほど前記複数の受光素子のうちの少なくも一部の受光素子の露光時間を後にシフトする、請求項12に記載の撮像装置。 The imaging device according to claim 12 , wherein the control unit shifts the exposure time of at least some of the plurality of light receiving elements to a later time as the speed of the moving body increases. 前記複数の受光素子または前記複数のグループは、ベイヤー配列された別の受光素子の間に配置されている請求項1から13のいずれか一項に記載の撮像装置。 The imaging device according to any one of claims 1 to 13 , wherein the plurality of light receiving elements or the plurality of groups are arranged between other light receiving elements arranged in a Bayer array. 光を射出する発光部と、 a light emitting part that emits light;
前記発光部から射出された光の反射光を受光する複数の受光素子をそれぞれが有する複数のグループと、 a plurality of groups each having a plurality of light receiving elements that receive reflected light of the light emitted from the light emitting section;
前記複数の受光素子ごとまたは前記複数のグループごとに、前記反射光を受光するタイミングおよび露光時間の少なくとも一方をそれぞれ異なる撮像範囲に対応するように制御する制御部と、 a control unit that controls at least one of the timing of receiving the reflected light and the exposure time for each of the plurality of light receiving elements or for each of the plurality of groups so as to correspond to different imaging ranges;
前記複数のグループごとにそれぞれのグループに対応する前記撮像範囲の対象物の像を生成する処理部と、を備え、 a processing unit that generates, for each of the plurality of groups, an image of the object in the imaging range corresponding to each group;
前記発光部及び前記複数の受光素子は、移動体に設けられ、前記制御部は、前記移動体の速度が速いほど前記複数の受光素子のうちの少なくも一部の受光素子の露光時間を後にシフトするように、前記移動体の速度に応じて前記複数の受光素子の露光時間を制御する、撮像装置。 The light emitting unit and the plurality of light receiving elements are provided in a moving body, and the control unit controls the exposure time of at least some of the plurality of light receiving elements to be later as the speed of the moving body is faster. An imaging device that controls exposure time of the plurality of light receiving elements in accordance with the speed of the moving object so as to shift the exposure time of the plurality of light receiving elements.
移動体であって、
請求項1から15のいずれか一項に記載の撮像装置と、
前記移動体の速度を検出する速度センサと、
前記移動体の移動方向を検出する移動方向センサと、
を備える移動体。
A mobile object,
An imaging device according to any one of claims 1 to 15 ,
a speed sensor that detects the speed of the moving body;
a moving direction sensor that detects the moving direction of the moving body;
A mobile body equipped with.
JP2021533059A 2019-07-16 2020-07-10 Imaging device and imaging method Active JP7384204B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023191611A JP2024014925A (en) 2019-07-16 2023-11-09 Imaging device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019131448 2019-07-16
JP2019131448 2019-07-16
PCT/JP2020/027157 WO2021010355A1 (en) 2019-07-16 2020-07-10 Imaging device and imaging method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023191611A Division JP2024014925A (en) 2019-07-16 2023-11-09 Imaging device

Publications (2)

Publication Number Publication Date
JPWO2021010355A1 JPWO2021010355A1 (en) 2021-01-21
JP7384204B2 true JP7384204B2 (en) 2023-11-21

Family

ID=74210865

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021533059A Active JP7384204B2 (en) 2019-07-16 2020-07-10 Imaging device and imaging method
JP2023191611A Pending JP2024014925A (en) 2019-07-16 2023-11-09 Imaging device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023191611A Pending JP2024014925A (en) 2019-07-16 2023-11-09 Imaging device

Country Status (2)

Country Link
JP (2) JP7384204B2 (en)
WO (1) WO2021010355A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195141A (en) 2005-12-20 2007-08-02 Nissan Motor Co Ltd Device and method for computing image velocity
JP2010076527A (en) 2008-09-25 2010-04-08 Sanyo Electric Co Ltd Operation support device
WO2017104765A1 (en) 2015-12-16 2017-06-22 株式会社ニコン Image-capturing device and method for detecting motion
WO2017169233A1 (en) 2016-03-29 2017-10-05 ソニー株式会社 Imaging processing device, imaging processing method, computer program and electronic device
JP2017225084A (en) 2016-06-17 2017-12-21 株式会社ニコン Imaging device, electronic device, imaging method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007195141A (en) 2005-12-20 2007-08-02 Nissan Motor Co Ltd Device and method for computing image velocity
JP2010076527A (en) 2008-09-25 2010-04-08 Sanyo Electric Co Ltd Operation support device
WO2017104765A1 (en) 2015-12-16 2017-06-22 株式会社ニコン Image-capturing device and method for detecting motion
WO2017169233A1 (en) 2016-03-29 2017-10-05 ソニー株式会社 Imaging processing device, imaging processing method, computer program and electronic device
JP2017225084A (en) 2016-06-17 2017-12-21 株式会社ニコン Imaging device, electronic device, imaging method, and program

Also Published As

Publication number Publication date
JPWO2021010355A1 (en) 2021-01-21
JP2024014925A (en) 2024-02-01
WO2021010355A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
US10277850B2 (en) Solid-state imaging device for a distance sensor transferring charges from one pixel while resetting another pixel in a same period
US8569700B2 (en) Image sensor for two-dimensional and three-dimensional image capture
EP3625589B1 (en) System and method for determining a distance to an object
US10728439B2 (en) Image-capturing apparatus and motion detection method
CN108632544B (en) Solid-state imaging device, imaging system, and movable object
EP3519856B1 (en) System for determining a distance to an object
CN106133912A (en) Solid state image sensor, electronic installation and formation method
JP6413235B2 (en) Imaging device and imaging apparatus
EP3550329A1 (en) System and method for determining a distance to an object
JP2012029130A (en) Imaging device and image input device
US20210074746A1 (en) Image sensor and image capturing device
JP2021180435A (en) Imaging apparatus and imaging system
JP2016048885A (en) Imaging apparatus and vehicle
Takayanagi et al. HDR CMOS image sensors for automotive applications
JP7384204B2 (en) Imaging device and imaging method
US11450701B2 (en) Photoelectric conversion apparatus, photoelectric conversion system, and movable body
CN110520996B (en) Image pickup apparatus and solid-state image pickup apparatus used therein
WO2022085447A1 (en) Sensor
CN111183633B (en) Solid-state image pickup element and electronic device
TW202315389A (en) Image capturing device
KR20220100568A (en) imaging device
JP2019009823A (en) Imaging device and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231023

R150 Certificate of patent or registration of utility model

Ref document number: 7384204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150